CN113238552B - 机器人及其运动方法、装置及计算机可读存储介质 - Google Patents
机器人及其运动方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113238552B CN113238552B CN202110467703.5A CN202110467703A CN113238552B CN 113238552 B CN113238552 B CN 113238552B CN 202110467703 A CN202110467703 A CN 202110467703A CN 113238552 B CN113238552 B CN 113238552B
- Authority
- CN
- China
- Prior art keywords
- robot
- road
- seeker
- parameters
- walking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000008859 change Effects 0.000 claims description 47
- 238000004590 computer program Methods 0.000 claims description 21
- 230000004048 modification Effects 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 6
- 241000287107 Passer Species 0.000 claims description 2
- 238000013459 approach Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本申请适用于机器人技术领域,提供一种机器人及其运动方法、装置及计算机可读存储介质,所述方法包括:识别引路者;获得根据识别结果确定的所述引路者的行走参数;获得根据所述行走参数修改的驱动参数;根据修改后的所述驱动参数控制所述机器人运动。本申请的实施例能实现机器人协调地运动并跟随引路者,能提高机器人的使用效率。
Description
技术领域
本申请属于机器人技术领域,尤其涉及一种机器人及其运动方法、装置及计算机可读存储介质。
背景技术
随着人力成本的提高,机器人取代人力成为一种趋势。在一些应用场合中,由机器人搬运物品,引路者(比如人员)则给机器人引路,这样机器人能将物品搬运到各种地方。但是,在这样的场景中,机器人经常会走走停停,引路者需要等待机器人,效率较低。
发明内容
本申请的实施例提供一种机器人及其运动方法、装置及计算机可读存储介质,能实现机器人协调地运动并跟随引路者,能提高机器人的使用效率。
第一方面,本申请的实施例提供一种机器人的运动方法,所述方法包括:
识别引路者;
获得根据识别结果确定的所述引路者的行走参数;
获得根据所述行走参数修改的驱动参数;
根据修改后的所述驱动参数控制所述机器人运动。
在第一方面的一种可能的实现方式中,所述获得根据识别结果确定的所述引路者的行走参数,包括:
获取所述引路者的轮廓数据;
根据所述轮廓数据的变化确定所述引路者的行走参数。
在第一方面的一种可能的实现方式中,所述轮廓数据包括第一轮廓数据和第二轮廓数据,所述行走参数包括转向角度和运动速度;
所述获取所述引路者的轮廓数据,包括:获取所述引路者的第一部位的第一轮廓数据和第二部位的第二轮廓数据;其中,所述第一部位和所述第二部位为所述引路者的不同部位;
所述根据所述轮廓数据的变化确定所述引路者的行走参数,包括:根据所述第一轮廓数据的变化,确定所述引路者的转向角度;
根据所述第二轮廓数据的变化,确定所述引路者的运动速度。
在第一方面的一种可能的实现方式中,所述获取所述引路者的轮廓数据,包括:
获取针对所述引路者的内置轮廓数据;其中,所述内置轮廓数据为所述机器人采集的所述引路者的轮廓数据;
获取针对所述引路者的外置轮廓数据;其中,所述外置轮廓数据为所述机器人接收到外部设备发送的所述引路者的轮廓数据;
对应地,根据所述轮廓数据的变化确定所述引路者的行走参数,包括:根据所述内置轮廓数据的变化,确定所述引路者的第一行走参数;
根据所述外置轮廓数据的变化,确定所述引路者的第二行走参数。
在第一方面的一种可能的实现方式中,所述根据所述轮廓数据的变化确定所述引路者的行走参数,还包括:
根据所述第一行走参数、第二行走参数和预设权重因子,确定所述引路者的行走参数。
在第一方面的一种可能的实现方式中,所述识别引路者,包括:
通过所述引路者的外观识别所述引路者;
或者,通过接收所述引路者发出的信号识别所述引路者。
在第一方面的一种可能的实现方式中,所述机器人包括第一机器人和第二机器人;所述方法还包括:所述第一机器人向第二机器人发送第一数据,所述第一数据包括修改后的所述驱动参数,所述第一数据用于使所述第二机器人根据修改后的所述驱动参数跟随所述第一机器人;
所述第二机器人的性能参数低于所述第一机器人的性能参数。
第二方面,本申请的实施例提供一种机器人的运动装置,所述装置包括:
识别单元,用于识别引路者;
行走参数确定单元,用于获得根据识别结果确定的所述引路者的行走参数;
驱动参数修改单元,用于获得根据所述行走参数修改的驱动参数;
控制单元,用于根据修改后的所述驱动参数控制所述机器人运动。
第三方面,本申请的实施例提供一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面中任一项所述的方法。
第四方面,本申请的实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面中任一项所述的方法。
第五方面,本申请的实施例提供一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的方法。
本申请的实施例与现有技术相比存在的有益效果是:
本申请实施例中,通过识别引路者,获得根据识别结果确定的引路者的行走参数,获得根据前述行走参数修改的驱动参数,然后根据修改后的驱动参数控制机器人运动,如此,能实现机器人协调地运动并跟随引路者,能提高机器人的使用效率。
本申请的实施例的一些可能的实现方式具有如下有益效果:
获取引路者的轮廓数据,根据轮廓数据的变化确定引路者的行走参数,根据前述行走参数修改驱动参数,根据修改后的驱动参数控制机器人运动,这样能使得机器人以准确的运动速度跟随引路者;
根据第一行走参数和第二行走参数,确定机器人的驱动参数,有助于提高机器人的准确度;
机器人包括第一机器人和第二机器人,第一机器人向第二机器人发送修改后的驱动参数,使得第二机器人根据驱动参数跟随机器人,其中,第二机器人的性能参数低于机器人的性能参数,这样能提高多个机器人的整体使用效率,能降低成本。
附图说明
为了更清楚地说明本申请的实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请第一实施例提供的机器人的运动方法的流程示意图;
图2是本申请第一实施例提供的机器人的运动方法的步骤A2的流程示意图;
图3是本申请第二实施例提供的机器人的运动方法的步骤A22的流程示意图;
图4是本申请第三实施例提供的机器人的运动方法的流程示意图;
图5是本申请第四实施例提供的机器人的运动装置的结构示意图;
图6是本申请第四实施例提供的机器人的运动装置的行走参数确定单元的结构示意图;
图7是本申请第四实施例提供的机器人的运动装置的运算单元的结构示意图;
图8是本申请第四实施例提供的机器人的运动装置的一种变型方式的结构示意图;
图9是本申请一实施例提供的机器人的结构示意图。
具体实施方式
为了使本申请所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图1至9及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请的实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
第一实施例
本实施例提供一种机器人的运动方法,应用于机器人,其中,这里的机器人可以是一个或者多个。图1示出本实施例提供的机器人的运动方法的示意性流程图,该方法包括步骤A1至步骤A4。
步骤A1、识别引路者。
在实际应用场景中,机器人搬运物品,引路者(比如人员)给机器人引路。为实现跟随当前引路者,机器人对该引路者进行识别。
机器人识别引路者的方式有多种。
在一些实施例中,机器人通过识别引路者的外观识别引路者。
具体的,机器人通过引路者的标识识别引路者。
引路者携带有可供识别的标识,示例的,在引路者的背面或者下部设有标识。前述标识例如可以是名牌、反光部件(比如反光板)或者二维码等设置于引路者的局部区域或所有区域的标识。机器人通过识别前述标识确定引路者的身份。
例如,机器人通过摄像头拍摄引路者的标识,得到含有前述标识的图像。机器人对该图像进行分析,识别图像中的标识,从而实现识别引路者。对于标识为名牌的情况,得到含有名牌的图像,然后通过文字识别算法对名牌中的文字进行识别,确定名牌所对应的身份,从而实现识别引路者。
对于标识为反光板的情况,机器人发射光线比如激光,光线照射至引路者的反光板。反光板对机器人发出的光线进行反射。机器人接收反射的光线,并根据反射的光线确定反光板的反光率。不同材料的反光率会有区别,由于反光率的不同,不同材料所反射的光线会形成特别的模式,不同的模式对应不同的引路者身份,如此,机器人便可识别引路者。
具体的,还可以通过识别引路者的指定服饰识别引路者。
引路者穿着特定服饰,示例的,特定服饰具有特定颜色,该特定颜色与周围环境的颜色是不同的。机器人获取含有引路者的特定服饰的图像,比如通过摄像头拍摄特定服饰的图像,对该图像进行处理后通过预先训练好的识别模型(该识别模型可以是神经网络),根据特定的识别模板,基于前述特定服饰识别引路者。
在其他一些实施例中,通过接收引路者发出的信号识别引路者。
引路者携带有特定的信号发生器,该信号发生器能发出信号。机器人接收前述信号发生器发出的信号。机器人通过前述信号的内容实现识别和确定引路者。此外,还可以基于信号的强度,计算机器人与引路者之间的距离。
上述各种识别引路者的方式可以适用于不同类型的机器人,能提高实用性。
步骤A2、获得根据识别结果确定的引路者的行走参数。
前面对引路者进行识别,得到识别结果,其中,识别结果包括引路者是谁。识别出引路者之后,对引路者进行持续跟踪,以确定引路者的行走参数。其中,前述行走参数包括引路者的运动速度和转向角度。
在一些实施例中,参考图2,图2是本实施例提供的机器人的运动方法的步骤A2的流程示意图,前述步骤A2包括步骤A21和步骤A22。
步骤A21、获取引路者的轮廓数据。
本实施例是通过引路者的轮廓数据确定引路者的行走参数,因此需要获取引路者的轮廓数据。
获取引路者的轮廓数据的一种方式是:根据引路者的外观获得引路者的轮廓数据。示例的,机器人通过自身的摄像头拍摄引路者的图像,进而根据该图像获得引路者的轮廓数据;具体的,通过训练好的图像识别神经网络,处理获取到的前述图像,确定人形,然后进行背景和人形的分离得到轮廓再根据人体比例的模型进行区别人体部位,从而得到各个部位的轮廓数据。
在其他一些实施例中,机器人在条件允许的情况下,可以通过外部设备的摄像头(比如其他机器人的摄像头)拍摄引路者的图像来获取引路者的轮廓数据;通过外界的摄像头获取引路人的轮廓数据,可以防止意外导致的机器人无法正常获取引路者的轮廓数据或者识别引路者的问题。
前述轮廓数据包括第一轮廓数据和第二轮廓数据。那么,相应的,步骤A21具体包括:获取引路者的第一部位的第一轮廓数据和第二部位的第二轮廓数据;其中,第一部位和第二部位为引路者的不同部位。示例的,前述第一部位和前述第二部位均为身体部位,比如:第一部位是头部或者腿部,第二部位是脚掌;相应的,第一轮廓数据是头部或者腿部轮廓数据,第二轮廓数据是脚掌数据。
在其他一些实施例中,根据引路者的指定标记获得引路者的轮廓数据。前述指定标记为设置于引路者的不同部位的不同标记,且该标记覆盖整个部位,该标记可以是颜色或者反光材料。以标记为颜色为例,引路者的工作服的外套和裤子的颜色不一样。机器人获取含有引路者的前述标记的图像,比如通过摄像头拍摄特定服饰的图像,对该图像进行处理后通过预先训练好的识别模型(该识别模型可以是神经网络)或者根据特定的识别模板,基于特定服饰(前述标记)识别引路人的不同部位,比如头部和腿部,从而得到前述轮廓数据。利用引路者的指定标记获得引路者的轮廓数据,可以减少运算量且能提高获得的轮廓数据的精度。
步骤A22、根据轮廓数据的变化确定引路者的行走参数。
由于引路者是一直在运动的,其身体部位的姿态会发生变化,相应的,得到的轮廓数据也是变化的,轮廓数据的变化反映引路者的运动状况,比如运动速度和运动方向,那么根据轮廓数据的变化就可以确定引路者的行走参数。
如前所述,轮廓数据包括第一轮廓数据和第二轮廓数据。第一轮廓数据为头部轮廓数据。引路者在运动的过程中,如果运动的方向发生改变,比如由直行变成右转,那么,引路者的头部的姿态会发生改变;相应的,头部轮廓数据也会发生改变,比如由头部的背面轮廓变成头部的右侧面轮廓,根据这一变化就可以确定引路者的转向是右转以及转动的角度,这样就实现根据第一轮廓数据的变化确定引路者的转向角度;其中,还可以根据转向角度的变化量和该变化量对应的时间得到转向角速度,将转向角速度作为行走参数。在其他一些实施例中,第一轮廓数据还可以是腿部轮廓数据或者躯干轮廓数据,引路者在转向时,腿部轮廓或者躯干轮廓都会发生改变。
第二轮廓数据为脚掌轮廓数据。引路者在运动的过程中,脚掌是交替运动的,体现脚掌的行走距离,比如左脚掌或者右脚掌的行走距离;相应的,脚掌轮廓数据也是交替变化的,比如当前时刻体现的是左脚掌的行走距离,下一时刻体现的是右脚掌的行走距离;根据脚掌轮廓数据的变化,结合时间,可以确定引路者的运动速度,这样就实现根据第二轮廓数据的变化确定引路者的运动速度。
如果运动速度发生变化,比如运动速度加快,脚掌的距离会发生变化,具体可以是当前的脚掌距离相比之前的脚掌距离变大;相应的,轮廓数据也会发生变化,根据该变化结合时间就可以确定引路者的运动速度变化;在引路者的上一时刻的运动速度是已知的情况下,可以根据运动速度变化和上一时刻的运动速度确定引路者的当前运动速度,这样也能实现根据第二轮廓数据的变化确定引路者的运动速度。
在其他一些实施例中,通过测量机器人与引路者之间的距离以及结合时间来确定引路者的运动速度;比如通过测距仪测量在设定时间内,引路者的距离变化,根据该距离变化和前述设定时间可以确定引路者的运动速度。
在其他一些实施例中,由其他设备比如外部设备根据识别结果确定引路者的行走参数,机器人则从外部设备接收前述行走参数,从而实现获得前述行走参数。
如此,基于上述内容便可得到引路者的行走参数,包括转向角度和运动速度。
步骤A3、获得根据行走参数修改的驱动参数。
由于机器人需要跟随引路者,因此,在得到引路者的行走参数之后,机器人对引路者最新的行走参数进行判断,如果判定该行走参数发生改变,则根据该行走参数修改机器人自身的驱动参数,得到修改后的驱动参数。其中,驱动参数用于调节机器人的运动速度和转向角度,驱动参数具体可以是机器人的工作电流的大小或者改变量。
在其他一些实施例中,由其他设备比如外部设备根据行走参数修改驱动参数,机器人则从外部设备接收修改后的驱动参数,从而实现获得前述驱动参数。
步骤A4、根据修改后的驱动参数控制机器人运动。
在得到修改后的驱动参数后,根据该参数控制机器人运动,比如用修改后的驱动参数代替之前的驱动参数,使得机器人的运动状态发生改变,比如运动速度变大或者运动方向发生改变,与引路者的运动状态变化保持一致,进而保持跟随引路者。
根据上述可知,通过识别引路者,根据识别结果确定引路者的行走参数,根据前述行走参数修改驱动参数,然后根据修改后的驱动参数控制机器人运动,如此,能实现机器人协调地运动并跟随引路者,使得机器人的运动姿态更流畅,能提高机器人的使用效率。
第二实施例
与第一实施例相比,在本实施例中,步骤A21(获取引路者的轮廓数据)包括:获取针对引路者的内置轮廓数据,以及获取针对引路者的外置轮廓数据;其中,内置轮廓数据为机器人采集的引路者的轮廓数据,外置轮廓数据为机器人接收到外部设备发送的引路者的轮廓数据。
内置轮廓数据为机器人通过自身的摄像头获得的。外置轮廓数据为外部设备获得的引路者的轮廓数据,外部设备将该轮廓数据发送给机器人。内置轮廓数据和外置轮廓数据均是引路者在某一时刻或某一时间段的轮廓数据,比如:内置轮廓数据和外置轮廓数据均包括前述的第一轮廓数据(头部轮廓数据)和第二轮廓数据(脚掌轮廓数据)。
对应地,参考图3,图3是本实施例提供的机器人的运动方法的步骤A22的流程示意图,步骤A22(根据轮廓数据的变化确定引路者的行走参数)包括步骤A221至步骤A223。
步骤A221、根据内置轮廓数据的变化,确定引路者的第一行走参数。
如第一实施例所述,根据轮廓数据的变化,可以确定引路者的行走参数。其中,第一行走参数是与内置轮廓数据对应的。
步骤A222、根据外置轮廓数据的变化,确定引路者的第二行走参数。
如第一实施例所述,根据轮廓数据的变化,可以确定引路者的行走参数。第二行走参数是与外置轮廓数据对应的。
第一行走参数和第二行走参数可能是相同的,也可以是不同的,具体取决于内置轮廓数据和外置轮廓数据。
步骤A223、根据第一行走参数和第二行走参数确定引路者的行走参数。
在本实施例中,根据第一行走参数、第二行走参数和预设权重因子,确定引路者的行走参数。示例的,根据引路机器人自身拍摄的图像能得到一个结果(第一行走参数),例如:运动速度为1m/s;而通过外部设备拍摄的图像得到另一个结果(第二行走参数),例如:运动速度为2m/s。根据预设权重因子70%和30%进行加权(第一行走参数*70%+第二行走参数*30%),则可得到引路者的行走参数1*0.7+2*0.3=1.3m/S;应当理解,具体的加权方式不以此为限。
在确定引路者的行走参数之后,执行前述步骤A3和前述步骤A4。
在其他一些实施例中,前述步骤A22(根据轮廓数据的变化确定引路者的行走参数)包括步骤A221至步骤A222,步骤A3(获得根据行走参数修改的驱动参数)则包括:根据第一行走参数确定第一驱动参数,根据第二行走参数确定第二驱动参数,根据第一驱动参数和第二驱动参数确定驱动参数;示例的:根据第一驱动参数、第二驱动参数和第二预设权重因子,确定驱动参数。
根据上述可知,根据第一行走参数和第二行走参数,通过加权等方式来决定机器人的驱动参数,有助于提高机器人反应速度和准确度。
第三实施例
与第一实施例和第二实施例相比,在本实施例中,机器人包括第一机器人和第二机器人,由第一机器人执行前述步骤A1至步骤A4,其中,步骤A4为根据修改后的驱动参数控制第一机器人运动;参考图4,图4是本实施例提供的机器人的运动方法的流程示意图,本实施例提供的机器人的运动方法还包括步骤A5,也是由第一机器人执行步骤A5。
步骤A5、第一机器人向第二机器人发送第一数据。
在实际搬运物品的时候,可以使用多台机器人来搬运物品,每台机器人均搬运一件物品。在多台机器人中,其中的一台作为引路机器人(也可称为第一机器人),完成对引路者的识别并制定对应的驱动参数(具体过程请查看第一实施例和第二实施例)。该引路机器人将前述驱动参数作为第一数据并发送给第二机器人(也可称为外部机器人或者非引路机器人),比如通过无线或有线通信的方式发送第一数据,其中,第一数据包括前述修改后的驱动参数,第一数据用于使非引路机器人根据修改后的驱动参数跟随引路机器人。相应的,非引路机器人通过无线或有线通信的方式获取前述第一数据并根据第一数据跟随引路机器人。
非引路机器人的性能参数低于引路机器人的性能参数。示例的,非引路机器人可以是运算性能参数比引路机器人低的机器人,或者非引路机器人是摄像头出现异常的机器人。
根据上述可知,机器人包括第一机器人(也可称为引路机器人)和第二机器人(也可称为外部机器人或者非引路机器人),第一机器人向第二机器人发送第一数据,其中,第一数据包括修改后的驱动参数,使得性能参数较低的第二机器人根据驱动参数跟随性能参数较高的第一机器人,这样能提高多个机器人的整体使用效率,能降低成本。
在其他一些实施例中,非引路机器人(第二机器人)可以作为计算力的分担者,当引路机器人(第一机器人)的计算能力异常时,代替引路机器人完成驱动参数的计算。具体如下:由引路机器人执行前述步骤A1,完成识别引路者;引路机器人将含有引路者的外观的图像发送给非引路机器人,由非引路机器人执行前述步骤A2:根据前述图像获取引路者的轮廓数据,以及根据轮廓数据的变化确定引路者的行走参数;非引路机器人之前是与引路机器人同行的,非引路机器人之前的驱动参数与引路机器人之前的驱动参数是相同的;那么,在获得引路者的行走参数之后,非引路机器人根据该行走参数修改自己之前的驱动参数,得到修改后的驱动参数并发送给引路机器人,引路机器人则接收该修改后的驱动参数,如此,引路机器人获得根据前述行走参数修改的驱动参数。
在其他一些实施例中,引路机器人本身的计算能力不足以同时处理自身拍摄的引路者的图像和外部设备拍摄的引路者的图像,非引路机器人此时作为处理前述外部设备的摄像头拍摄引路者的图像的备用机器人,参考图3,由备用机器人获取前述外置轮廓数据并确定引路者的第二行走参数,然后将该第二行走参数发送给引路机器人,由引路机器人完成前述步骤A223。
第四实施例
对应于上文实施例所述方法,图5示出本申请的实施例提供的机器人的运动装置的结构框图,为了便于说明,仅示出与本申请实施例相关的部分。
参考图5,该装置包括识别单元1、行走参数确定单元2、驱动参数修改单元3和控制单元4。
识别单元1,用于识别引路者。
行走参数确定单元2,用于获得根据识别结果确定的引路者的行走参数。
驱动参数修改单元3,用于获得根据行走参数修改的驱动参数。
控制单元4,用于根据修改后的驱动参数控制机器人运动。
在一些实施例中,参考图6,行走参数确定单元2包括轮廓数据获取单元21和运算单元22。
轮廓数据获取单元21,用于获取引路者的轮廓数据。
运算单元22,用于根据轮廓数据的变化确定引路者的行走参数。
在一些实施例中,轮廓数据获取单元21具体用于:获取针对引路者的内置轮廓数据,以及获取针对引路者的外置轮廓数据。
在一些实施例中,参考图7,运算单元22包括第一行走参数确定单元221、第二行走参数确定单元222和子运算单元223。
第一行走参数确定单元221,用于:根据内置轮廓数据的变化,确定引路者的第一行走参数。
第二行走参数确定单元222,用于:根据外置轮廓数据的变化,确定引路者的第二行走参数。
子运算单元223,用于:根据第一行走参数和第二行走参数确定引路者的行走参数。
在一些实施例中,参考图8,本申请的实施例提供的机器人的运动装置还包括发送单元5。发送单元5用于向第二机器人发送第一数据。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
在上述实施例中,通过引路者来完成对环境的识别和做出适应性的具体举动(即改变行走参数),机器人不需要考虑意外情况的发生,可以实时的调节驱动参数,有助于提高机器人与引路者的协调一致性,能提高机器人的使用效率。
图9为本申请一实施例提供的机器人的结构示意图。如图9所示,该实施例的机器人9包括:至少一个处理器90(图9中仅示出一个)处理器、存储器91以及存储在存储器91中并可在至少一个处理器90上运行的计算机程序92;处理器90执行计算机程序92时实现上述任意各个方法实施例中的步骤。
机器人9可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该机器人可包括,但不仅限于,处理器90和存储器91。本领域技术人员可以理解,图9仅仅是机器人的举例,并不构成对机器人的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备、总线等。
处理器90可以是中央处理单元(Central Processing Unit,CPU),该处理器90还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器91在一些实施例中可以是机器人9的内部存储单元,例如机器人的硬盘或内存。存储器91在另一些实施例中也可以是机器人的外部存储设备,例如机器人上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器91还可以既包括机器人的内部存储单元也包括外部存储设备。存储器91用于存储操作系统、应用程序、引导装载程序(Boot Loader)、数据以及其他程序等,例如计算机程序的程序代码等。存储器91还可以用于暂时地存储已经输出或者将要输出的数据。
示例性的,计算机程序92可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器91中,并由处理器90执行,以完成本申请。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序92在机器人9中的执行过程。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
前述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于计算机可读存储介质中;该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质包括:能够将计算机程序代码携带到装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
本申请的实施例还提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请的实施例提供一种计算机程序产品,当计算机程序产品在终端设备比如机器人上运行时,使得移动终端可实现上述各个方法实施例中的步骤。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
前述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (7)
1.一种机器人的运动方法,其特征在于,应用于所述机器人,所述方法包括:
识别引路者;
获得根据识别结果确定的所述引路者的行走参数,包括:获取所述引路者的轮廓数据;根据所述轮廓数据的变化确定所述引路者的行走参数;所述获取所述引路者的轮廓数据,包括:获取针对所述引路者的内置轮廓数据;其中,所述内置轮廓数据为所述机器人采集的所述引路者的轮廓数据;获取针对所述引路者的外置轮廓数据;其中,所述外置轮廓数据为所述机器人接收到外部设备发送的所述引路者的轮廓数据;所述内置轮廓数据和外置轮廓数据均包括第一轮廓数据和第二轮廓数据;根据所述轮廓数据的变化确定所述引路者的行走参数,包括: 根据所述内置轮廓数据的变化,确定所述引路者的第一行走参数;根据所述外置轮廓数据的变化,确定所述引路者的第二行走参数;所述第一行走参数和第二行走参数均包括转向角度和运动速度;其中,根据所述第一轮廓数据的变化,确定所述引路者的转向角度;根据所述第二轮廓数据的变化,确定所述引路者的运动速度;所述第一轮廓数据为头部轮廓数据,所述第二轮廓数据为脚掌轮廓数据;
获得根据所述行走参数修改的驱动参数,包括:对引路者最新的行走参数进行判断,若所述行走参数发生改变,则根据所述行走参数修改机器人自身的驱动参数,得到修改后的驱动参数;
根据修改后的所述驱动参数控制所述机器人运动。
2.根据权利于要求1所述的方法,其特征在于,所述根据所述轮廓数据的变化确定所述引路者的行走参数,还包括:
根据所述第一行走参数、第二行走参数和预设权重因子,确定所述引路者的行走参数。
3.如权利要求1所述的方法,其特征在于,所述识别引路者,包括:
通过所述引路者的外观识别所述引路者;
或者,通过接收所述引路者发出的信号识别所述引路者。
4.如权利要求1至3任一项所述的方法,其特征在于,所述机器人包括第一机器人和第二机器人;
所述方法还包括:所述第一机器人向所述第二机器人发送第一数据,所述第一数据包括修改后的所述驱动参数,所述第一数据用于使所述第二机器人根据修改后的所述驱动参数跟随所述第一机器人;
所述第二机器人的性能参数低于所述第一机器人的性能参数。
5.一种机器人的运动装置,其特征在于,所述装置包括:
识别单元,用于识别引路者;
行走参数确定单元,用于获得根据识别结果确定的所述引路者的行走参数,包括:获取所述引路者的轮廓数据;根据所述轮廓数据的变化确定所述引路者的行走参数;行走参数确定单元包括轮廓数据获取单元和运算单元;轮廓数据获取单元具体用于:获取针对引路者的内置轮廓数据,以及获取针对引路者的外置轮廓数据;其中,所述内置轮廓数据为所述机器人采集的所述引路者的轮廓数据;所述外置轮廓数据为所述机器人接收到外部设备发送的所述引路者的轮廓数据;运算单元包括第一行走参数确定单元、第二行走参数确定单元和子运算单元;第一行走参数确定单元,用于:根据内置轮廓数据的变化,确定引路者的第一行走参数;第二行走参数确定单元,用于:根据外置轮廓数据的变化,确定引路者的第二行走参数;其中,所述内置轮廓数据和外置轮廓数据均包括第一轮廓数据和第二轮廓数据,所述第一行走参数和第二行走参数均包括转向角度和运动速度;所述第一轮廓数据为头部轮廓数据,所述第二轮廓数据为脚掌轮廓数据;其中,根据所述第一轮廓数据的变化,确定所述引路者的转向角度;根据所述第二轮廓数据的变化,确定所述引路者的运动速度;
驱动参数修改单元,用于获得根据所述行走参数修改的驱动参数,包括:对引路者最新的行走参数进行判断,若所述行走参数发生改变,则根据所述行走参数修改机器人自身的驱动参数,得到修改后的驱动参数;
控制单元,用于根据修改后的所述驱动参数控制所述机器人运动。
6.一种机器人,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述的方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202110467703.5A CN113238552B (zh) | 2021-04-28 | 2021-04-28 | 机器人及其运动方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202110467703.5A CN113238552B (zh) | 2021-04-28 | 2021-04-28 | 机器人及其运动方法、装置及计算机可读存储介质 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN113238552A CN113238552A (zh) | 2021-08-10 |
| CN113238552B true CN113238552B (zh) | 2024-11-12 |
Family
ID=77129766
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202110467703.5A Active CN113238552B (zh) | 2021-04-28 | 2021-04-28 | 机器人及其运动方法、装置及计算机可读存储介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN113238552B (zh) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106779857A (zh) * | 2016-12-23 | 2017-05-31 | 湖南晖龙股份有限公司 | 一种远程控制机器人的购物方法 |
| CN111027432A (zh) * | 2019-12-02 | 2020-04-17 | 大连理工大学 | 基于步态特征的视觉跟随机器人方法 |
| WO2020253316A1 (zh) * | 2019-06-18 | 2020-12-24 | 中国科学院上海微系统与信息技术研究所 | 移动机器人的领航跟随系统和领航跟随控制方法 |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7211980B1 (en) * | 2006-07-05 | 2007-05-01 | Battelle Energy Alliance, Llc | Robotic follow system and method |
| CN105425791B (zh) * | 2015-11-06 | 2019-01-29 | 武汉理工大学 | 一种基于视觉定位的群机器人控制系统及方法 |
| CN105760824B (zh) * | 2016-02-02 | 2019-02-01 | 北京进化者机器人科技有限公司 | 一种运动人体跟踪方法和系统 |
| US10884417B2 (en) * | 2016-11-07 | 2021-01-05 | Boston Incubator Center, LLC | Navigation of mobile robots based on passenger following |
| DE102017120218A1 (de) * | 2017-09-01 | 2019-03-07 | RobArt GmbH | Bewegungsplanung für autonome mobile roboter |
| CN111198496A (zh) * | 2020-01-03 | 2020-05-26 | 浙江大学 | 一种目标跟随机器人及跟随方法 |
| CN111310704B (zh) * | 2020-02-28 | 2020-11-20 | 联博智能科技有限公司 | 行李车姿态估计方法、行李车姿态估计装置及机器人 |
| CN112069879B (zh) * | 2020-07-22 | 2024-06-07 | 深圳市优必选科技股份有限公司 | 一种目标人物跟随方法、计算机可读存储介质及机器人 |
| CN112330715B (zh) * | 2020-10-09 | 2024-09-24 | 深圳英飞拓仁用信息有限公司 | 一种跟踪方法、跟踪装置、终端设备及可读存储介质 |
-
2021
- 2021-04-28 CN CN202110467703.5A patent/CN113238552B/zh active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106779857A (zh) * | 2016-12-23 | 2017-05-31 | 湖南晖龙股份有限公司 | 一种远程控制机器人的购物方法 |
| WO2020253316A1 (zh) * | 2019-06-18 | 2020-12-24 | 中国科学院上海微系统与信息技术研究所 | 移动机器人的领航跟随系统和领航跟随控制方法 |
| CN111027432A (zh) * | 2019-12-02 | 2020-04-17 | 大连理工大学 | 基于步态特征的视觉跟随机器人方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN113238552A (zh) | 2021-08-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110858295B (zh) | 一种交警手势识别方法、装置、整车控制器及存储介质 | |
| KR102572811B1 (ko) | 정의된 객체를 식별하기 위한 시스템 | |
| JP6651062B2 (ja) | 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム | |
| EP3035164B1 (en) | Wearable sensor for tracking articulated body-parts | |
| JP6688990B2 (ja) | 識別装置、識別方法、識別プログラムおよび記録媒体 | |
| KR102456872B1 (ko) | 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법 | |
| WO2019005644A1 (en) | EYE TRACKING SYSTEM WITH DETECTION AND CORRECTION OF SLIDING | |
| CN108174152A (zh) | 一种目标监控方法及目标监控系统 | |
| US11244506B2 (en) | Tracking rigged polygon-mesh models of articulated objects | |
| CN111199198B (zh) | 一种图像目标定位方法、图像目标定位装置及移动机器人 | |
| CN112686951B (zh) | 用于确定机器人位置的方法、装置、终端及存储介质 | |
| Van Toan et al. | A hierarchical approach for updating targeted person states in human-following mobile robots | |
| CN113238552B (zh) | 机器人及其运动方法、装置及计算机可读存储介质 | |
| JP2018089161A (ja) | 対象者認識方法、装置、システム、プログラム | |
| CN112712545B (zh) | 人体部分跟踪方法和人体部分跟踪系统 | |
| EP3971683A1 (en) | Human body portion tracking method and human body portion tracking system | |
| WO2024261695A1 (en) | Detecting and recognizing gestures for navigation | |
| US11783492B2 (en) | Human body portion tracking method and human body portion tracking system | |
| JP6909986B2 (ja) | 識別装置 | |
| Azmi et al. | ArUcoRSV: robot localisation using artificial marker | |
| Herrero et al. | Pedestrian movement prediction based on camera vision and deep learning model | |
| CN116246343A (zh) | 轻量化的人体行为识别方法及装置 | |
| JP2017211765A (ja) | 物体認識装置 | |
| JP2021093151A (ja) | オブジェクト認識システム、装置、方法及びプログラム | |
| Mühlenbrock et al. | Vision-based orientation detection of humanoid soccer robots |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| CB02 | Change of applicant information | ||
| CB02 | Change of applicant information |
Country or region after: China Address after: Unit 7-11, 6th Floor, Building B2, No. 999-8 Gaolang East Road, Wuxi Economic Development Zone, Wuxi City, Jiangsu Province, China 214000 Applicant after: Youdi Robot (Wuxi) Co.,Ltd. Address before: 5D, Building 1, Tingwei Industrial Park, No. 6 Liufang Road, Xingdong Community, Xin'an Street, Bao'an District, Shenzhen City, Guangdong Province Applicant before: UDITECH Co.,Ltd. Country or region before: China |
|
| GR01 | Patent grant | ||
| GR01 | Patent grant |