CN110154037A - 一种机器人动作控制方法、装置、机器人和存储口介质 - Google Patents

一种机器人动作控制方法、装置、机器人和存储口介质 Download PDF

Info

Publication number
CN110154037A
CN110154037A CN201910556116.6A CN201910556116A CN110154037A CN 110154037 A CN110154037 A CN 110154037A CN 201910556116 A CN201910556116 A CN 201910556116A CN 110154037 A CN110154037 A CN 110154037A
Authority
CN
China
Prior art keywords
movement
value
amplitude
component
golden section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910556116.6A
Other languages
English (en)
Other versions
CN110154037B (zh
Inventor
陈海波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenlan Robot Shanghai Co ltd
Original Assignee
Deep Blue Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deep Blue Technology Shanghai Co Ltd filed Critical Deep Blue Technology Shanghai Co Ltd
Priority to CN201910556116.6A priority Critical patent/CN110154037B/zh
Publication of CN110154037A publication Critical patent/CN110154037A/zh
Application granted granted Critical
Publication of CN110154037B publication Critical patent/CN110154037B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种机器人动作控制方法、装置、机器人和存储口介质,由于在本发明实施例中,机器人预先保存有每个动作及动作幅值与每个第一目标部件的伸缩值的对应关系,用户向机器人发送待执行动作指令,待执行动作指令中携带待执行的动作及动作幅值,机器人根据接收到的动作指令和保存的对应关系可以确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值,然后根据每个第二目标部件的目标伸缩值控制每个第二目标部件进行伸缩以实现待执行的动作并达到待执行的动作幅值。本发明实施例提供的机器人动作控制方法只需用户输入动作指令,机器人便可实现动作并达到待执行的动作幅值,人工参与较少且控制过程简单。

Description

一种机器人动作控制方法、装置、机器人和存储口介质
技术领域
本发明涉及机器人技术领域,尤其涉及一种机器人动作控制方法、装置、机器人和存储口介质。
背景技术
近年来随着人工智能领域的快速发展,机器人应用到了各行各业中,机器人是自动执行工作的机器装置。它接受人类指挥,执行某些任务。它的任务是协助或取代人类的某些工作,例如生产业、建筑业中的工作,或是危险的工作。
机器人通过控制全身各部分部件可以实现各种动作,如行走、倒退、转弯、蹲下、起身、奔跑、弯腰、抬手、挥手等。机器人通过完成各种动作执行任务。现有技术中在控制机器人的部件以完成一个动作时,主要采用几何测量、物理计算、重心分析等方法。这些方法无一例外都是机器人被动接受人类的控制,在人类一步步的操控下完成动作,现有的机器人动作控制方法人工参与较多,过程较复杂。
发明内容
本发明实施例提供了一种机器人动作控制方法、装置、机器人和存储口介质,用以解决现有的机器人动作控制方法人工参与较多,过程较复杂的问题。
本发明实施例提供了一种机器人动作控制方法,所述方法包括:
接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;
根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;
根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。
进一步地,所述预先保存动作及动作幅值与每个第一目标部件的伸缩值的对应关系的过程包括:
针对每个动作及动作幅值,根据该动作及预先保存的动作与机器人部件的对应关系,确定与该动作对应的每个第一目标部件;针对所述每个第一目标部件,根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值。
进一步地,所述根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值包括:
A、针对所述每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值;
B、根据黄金分割算法,确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值,其中,所述第一黄金分割值小于第二黄金分割值;
C、判断所述第二黄金分割值与所述第一黄金分割值的差是否大于预设的阈值,如果是,进行步骤D,如果否,进行步骤E;
D、分别根据所述第一黄金分割值和第二黄金分割值,以及每个候选伸缩值控制所述每个第一目标部件进行伸缩,得到第一候选动作幅值和第二候选动作幅值,分别确定第一候选动作幅值与该动作幅值的第一匹配度,及第二候选动作幅值与该动作幅值的第二匹配度;当第一匹配度小于第二匹配度,将第二匹配度作为候选匹配度,将该伸缩范围的最大值和所述第一黄金分割值构成的第二区间作为伸缩范围,返回步骤B,当第一匹配度大于第二匹配度,将第一匹配度作为候选匹配度,将该伸缩范围的最小值和所述第二黄金分割值构成的第一区间作为伸缩范围,返回步骤B;
E、将确定出的候选匹配度中的最大值对应的黄金分割值作为该第一目标部件的伸缩值。
进一步地,所述确定候选动作幅值与该动作幅值的匹配度包括:
根据候选动作幅值和预先保存的该动作幅值对应的得分函数,确定所述候选动作幅值与该动作幅值的匹配度。
另一方面,本发明实施例提供了一种机器人动作控制装置,所述装置包括:
接收模块,用于接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;
确定模块,用于根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;
控制模块,根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。
进一步地,所述装置还包括:
保存模块,用于针对每个动作及动作幅值,根据该动作及预先保存的动作与机器人部件的对应关系,确定与该动作对应的每个第一目标部件;针对所述每个第一目标部件,根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值。
进一步地,所述保存模块包括:
第一确定单元,用于针对所述每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值;
第二确定单元,用于根据黄金分割算法,确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值,其中,所述第一黄金分割值小于第二黄金分割值;
判断单元,用于判断所述第二黄金分割值与所述第一黄金分割值的差是否大于预设的阈值,如果是,触发第三确定单元,如果否,触发第四确定单元;
第三确定单元,用于分别根据所述第一黄金分割值和第二黄金分割值,以及每个候选伸缩值控制所述每个第一目标部件进行伸缩,得到第一候选动作幅值和第二候选动作幅值,分别确定第一候选动作幅值与该动作幅值的第一匹配度,及第二候选动作幅值与该动作幅值的第二匹配度;当第一匹配度小于第二匹配度,将第二匹配度作为候选匹配度,将该伸缩范围的最大值和所述第一黄金分割值构成的第二区间作为伸缩范围,触发第二确定单元,当第一匹配度大于第二匹配度,将第一匹配度作为候选匹配度,将该伸缩范围的最小值和所述第二黄金分割值构成的第一区间作为伸缩范围,触发第二确定单元;
第四确定单元,用于将确定出的候选匹配度中的最大值对应的黄金分割值作为该第一目标部件的伸缩值。
进一步地,所述第三确定单元,具体用于根据候选动作幅值和预先保存的该动作幅值对应的得分函数,确定所述候选动作幅值与该动作幅值的匹配度。
另一方面,本发明实施例提供了一种机器人,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一项所述的方法步骤。
另一方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法步骤。
本发明实施例提供了一种机器人动作控制方法、装置、机器人和存储口介质,所述方法包括:接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。
由于在本发明实施例中,机器人预先保存有每个动作及动作幅值与每个第一目标部件的伸缩值的对应关系,用户向机器人发送待执行动作指令,待执行动作指令中携带待执行的动作及动作幅值,机器人根据接收到的动作指令和保存的对应关系可以确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值,然后根据每个第二目标部件的目标伸缩值控制每个第二目标部件进行伸缩以实现待执行的动作并达到待执行的动作幅值。本发明实施例提供的机器人动作控制方法只需用户输入动作指令,机器人便可实现动作并达到待执行的动作幅值,人工参与较少且控制过程简单。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1提供的机器人动作控制过程示意图;
图2为本发明实施例4提供的基于黄金分割算法确定第一目标部件的伸缩值的算法流程示意图;
图3为本发明实施例4提供的辅助算法流程示意图;
图4为本发明实施例提供的机器人动作控制装置结构示意图;
图5为本发明实施例提供的机器人结构示意图。
具体实施方式
下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例1:
图1为本发明实施例提供的机器人动作控制过程示意图,该过程包括以下步骤:
S101:接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值。
本发明实施例提供的机器人动作控制方法应用于机器人,该机器人可以是能够执行相应动作的任意类型的机器人,如救援机器人、运输机器人等。
在机器人动作控制过程中,首先需要用户向机器人发送待执行动作指令,在待执行动作指令中携带待执行的动作及动作幅值。例如,待执行的动作为抬手,动作幅值为5厘米;或者待执行的动作为抬腿,动作幅值为10厘米等等。
S102:根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值。
机器人接收到用户发送的待执行动作指令,获取该待执行动作指令中的待执行的动作及动作幅值。机器人通过控制自身各个部件的伸缩来实现各种动作,本发明实施例中,机器人预先保存有动作及动作幅值与每个第一目标部件的伸缩值的对应关系。
例如,预先保存的对应关系中,动作A及动作幅值a与部件M的伸缩值m、部件N的伸缩值n、部件P的伸缩值p对应。则当机器人控制部件M伸缩至伸缩值m,部件N伸缩至伸缩值n、部件P伸缩至伸缩值p时,可以实现动作A,并且动作A的动作幅值为a。
机器人获取到该待执行动作指令中的待执行的动作及动作幅值后,根据预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,可以确定与该待执行动作指令中的待执行的动作及动作幅值对应的每个第二目标部件的目标伸缩值。
S103:根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。
机器人确定与该待执行动作指令中的待执行的动作及动作幅值对应的每个第二目标部件的目标伸缩值后,控制每个第二目标部件伸缩至对应的目标伸缩值,从而可以实现该待执行动作指令中的待执行的动作,并且动作的幅值达到该待执行动作指令中的动作幅值。
由于在本发明实施例中,机器人预先保存有每个动作及动作幅值与每个第一目标部件的伸缩值的对应关系,用户向机器人发送待执行动作指令,待执行动作指令中携带待执行的动作及动作幅值,机器人根据接收到的动作指令和保存的对应关系可以确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值,然后根据每个第二目标部件的目标伸缩值控制每个第二目标部件进行伸缩以实现待执行的动作并达到待执行的动作幅值。本发明实施例提供的机器人动作控制方法只需用户输入动作指令,机器人便可实现动作并达到待执行的动作幅值,人工参与较少且控制过程简单。
实施例2:
为了保证机器人能够实现待执行的动作并达到指定的动作幅值,在上述实施例的基础上,在本发明实施例中,所述预先保存动作及动作幅值与每个第一目标部件的伸缩值的对应关系的过程包括:
针对每个动作及动作幅值,根据该动作及预先保存的动作与机器人部件的对应关系,确定与该动作对应的每个第一目标部件;针对所述每个第一目标部件,根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值。
机器人全身的每个部件都可以看作是一个变量,伸缩值为变量的值,例如a1=-3表示部件a1收缩3厘米,a1=3表示部件a1拉伸3厘米。机器人的任何一个动作就是通过控制相应的某些部件到指定的伸缩值来实现的。机器人的动作控制就成为一个多元动作函数求解的问题。元就是机器人自身的各个部件变元。函数的结果为动作达到的幅值。机器人的动作函数是不确定的,这与深度学习不同,在深度学习中,输入和输出之间存在一个确定的神经网络,而动作函数输入是各个部件变元,输出是动作及达到的幅值。动作函数的输入和输出之间并没有确定的神经网络。基于上述考虑,本发明实施例通过利用黄金分割算法确定动作及动作幅值与每个第一目标部件的伸缩值的对应关系。
机器人中预先保存有每个动作与机器人部件的对应关系,针对每个动作及动作幅值,根据预先保存的每个动作与机器人部件的对应关系,确定该动作对应的每个第一目标部件,确定出的每个第一目标部件即为该动作对应的每个部件变元。针对每个第一目标部件,根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值。
具体的,针对每个第一目标部件,根据该第一目标部件的伸缩范围和黄金分割算法,可以确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值,其中,第一黄金分割值小于第二黄金分割值。例如,该第一目标部件的伸缩范围为[min,max],则第一黄金分割值第一黄金分割值机器人中可以保存预设的阈值,该预设的阈值一般取较小的正数,例如0.1、0.05等。判断第二黄金分割值与第一黄金分割值的差是否大于预设的阈值,如果是,分别将该伸缩范围的最小值min和第二黄金分割值x2构成的第一区间和该伸缩范围的最大值max和第一黄金分割值x1构成的第二区间作为伸缩范围,继续确定伸缩范围内的两个黄金分割值,如此循环,直到某次确定出的第二黄金分割值与第一黄金分割值的差不大于预设的阈值时,此时将确定出的每个第一黄金分割值和第二黄金分割值作为该第一目标部件的候选伸缩值。
在确定出每个第一目标部件的候选伸缩值后,根据每个第一目标部件的候选伸缩值,可以确定每个候选伸缩值组合,根据每个候选伸缩值组合分别控制每个第一目标部件进行伸缩,得到每个候选动作幅值。然后确定每个候选动作幅值与当前确定对应关系的动作幅值的匹配度,其中,可以将每个候选动作幅值与当前确定对应关系的动作幅值的差值绝对值的倒数作为匹配度。将最大的匹配度对应的候选伸缩值组合中的候选伸缩值作为每个第一目标部件的伸缩值。
在本发明实施例中,针对每个动作及动作幅值,首先确定与该动作对应的每个第一目标部件,然后基于每个第一目标部件的伸缩范围、黄金分割算法和动作幅值,确定每个第一目标部件的伸缩值并保存,确定出的每个第一目标部件的伸缩值即为与该动作及动作幅值对应的伸缩值。
实施例3:
为了使确定动作及动作幅值与每个第一目标部件的伸缩值的对应关系的效率更高,在上述各实施例的基础上,在本发明实施例中,所述根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值包括:
A、针对所述每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值;
B、根据黄金分割算法,确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值,其中,所述第一黄金分割值小于第二黄金分割值;
C、判断所述第二黄金分割值与所述第一黄金分割值的差是否大于预设的阈值,如果是,进行步骤D,如果否,进行步骤E;
D、分别根据所述第一黄金分割值和第二黄金分割值,以及每个候选伸缩值控制所述每个第一目标部件进行伸缩,得到第一候选动作幅值和第二候选动作幅值,分别确定第一候选动作幅值与该动作幅值的第一匹配度,及第二候选动作幅值与该动作幅值的第二匹配度;当第一匹配度小于第二匹配度,将第二匹配度作为候选匹配度,将该伸缩范围的最大值和所述第一黄金分割值构成的第二区间作为伸缩范围,返回步骤B,当第一匹配度大于第二匹配度,将第一匹配度作为候选匹配度,将该伸缩范围的最小值和所述第二黄金分割值构成的第一区间作为伸缩范围,返回步骤B;
E、将确定出的候选匹配度中的最大值对应的黄金分割值作为该第一目标部件的伸缩值。
在本发明实施例中,为了提高确定动作及动作幅值与每个第一目标部件的伸缩值的对应关系的效率,针对每个第一目标部件,在确定该第一目标部件的伸缩值时,首先针对每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值,确定出的每个候选伸缩值固定不变,根据黄金分割算法确定该第一目标部件的伸缩范围内的每个黄金分割值,然后根据每个黄金分割值和确定出的其他部件的候选伸缩值控制每个第一目标部件进行伸缩,根据得到的动作幅值确定该第一目标部件的伸缩值。
具体的,针对每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值,然后根据黄金分割算法,确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值,其中,第一黄金分割值小于第二黄金分割值。例如,该第一目标部件的伸缩范围为[min,max],则第一黄金分割值第一黄金分割值判断第二黄金分割值与第一黄金分割值的差大于预设的阈值时,根据第一黄金分割值和每个候选伸缩值控制每个第一目标部件进行伸缩,得到第一候选动作幅值,根据第二黄金分割值和每个候选伸缩值控制每个第一目标部件进行伸缩,得到第二候选动作幅值。分别确定第一候选动作幅值与当前确定对应关系的动作幅值的第一匹配度,及第二候选动作幅值与当前确定对应关系的动作幅值的第二匹配度;当第一匹配度小于第二匹配度,将第二匹配度作为候选匹配度,将该伸缩范围的最大值max和第一黄金分割值x1构成的第二区间作为伸缩范围,并继续确定伸缩范围内的两个黄金分割值,如此循环。当第一匹配度大于第二匹配度,将第一匹配度作为候选匹配度,将该伸缩范围的最小值min和第二黄金分割值x2构成的第一区间作为伸缩范围,并继续确定伸缩范围内的两个黄金分割值,如此循环。直到某次确定出的第二黄金分割值与第一黄金分割值的差不大于预设的阈值时,将确定出的候选匹配度中的最大值对应的黄金分割值作为该第一目标部件的伸缩值。其中,可以将每个候选动作幅值与当前确定对应关系的动作幅值的差值绝对值的倒数作为匹配度。
需要说明的是,根据某个黄金分割值和每个候选伸缩值控制每个第一目标部件进行伸缩,得到候选动作幅值,计算候选动作幅值与该动作幅值的匹配度之后,在根据下一个黄金分割值和每个候选伸缩值控制每个第一目标部件进行伸缩,得到候选动作幅值之前,需要将机器人恢复到初始状态。每次控制机器人动作都是从初始状态开始的。如果机器人具备恢复初始状态的能力,则机器人计算候选动作幅值与该动作幅值的匹配度之后,自主控制自身恢复到初始状态,不需要人员干预。如果机器人不具备恢复初始状态的能力,则机器人计算候选动作幅值与该动作幅值的匹配度之后,由人员控制机器人恢复到初始状态。
由于在本发明实施例中,针对每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值,确定出的每个候选伸缩值固定不变,根据黄金分割算法确定该第一目标部件的伸缩范围内的每个黄金分割值,然后根据每个黄金分割值和确定出的其他部件的候选伸缩值控制每个第一目标部件进行伸缩,根据得到的动作幅值确定该第一目标部件的伸缩值。不需要针对每个第一目标部件,都确定出每个黄金分割值,然后再确定每个候选伸缩值组合,确定出每个第一目标部件的伸缩值,因此,确定动作及动作幅值与每个第一目标部件的伸缩值的对应关系的效率更高。
另外,如果想控制各部件按不同的顺序伸缩,则相当于为每个部件设置一个动作时间。这个时间值可以单独作为一个变量存在,也可以和部件的伸缩值合并。比如,设机器人有a、b两个部件。则a、b两个变量代表了这两个部件的伸缩值。我们可以再定义a2和b2两个时间变量,代表两个部件分别应该在动作开始多少时间之后开始伸缩。此时变量数目从两个变成四个。另一种方法,为避免变量数量增多,例如可以合并变量为:a+100*a2,b+200*b2。其中100、200分别表示a和b的最大伸缩值。这样我们可以从两个部件的当前伸缩值出发恢复出a、b、a2和b2。根据黄金分割算法和上述变量可以确定出动作及动作幅值与每个第一目标部件的伸缩值及动作时间的对应关系。当根据接收的待执行动作指令中携带的待执行的动作及动作幅值,确定每个第二目标部件的伸缩值及动作时间时,根据每个动作时间控制每个第二目标部件进行伸缩,实现待执行的动作并达到待执行的动作幅值。
实施例4:
为了使确定候选动作幅值与该动作幅值的匹配度更准确,进而使确定的动作及动作幅值与每个第一目标部件的伸缩值的对应关系更准确,在上述各实施例的基础上,在本发明实施例中,所述确定候选动作幅值与该动作幅值的匹配度包括:
根据候选动作幅值和预先保存的该动作幅值对应的得分函数,确定所述候选动作幅值与该动作幅值的匹配度。
机器人中预先保存有每个动作幅值对应的得分函数,得分函数是由机器人生产者或者使用者根据指定动作幅值设定的。确定出每个候选动作幅值后,将每个候选动作幅值代入对应的得分函数,得到的函数结果即为候选动作幅值与该动作幅值的匹配度。
例如,抬腿5厘米对应的得分函数score=-(t-5)2,其中,t为候选动作幅值。如果确定出每个候选动作幅值分别为3厘米、4厘米、4.8厘米,则候选动作幅值3厘米、4厘米、4.8厘米分别对应的匹配度为-(3-5)2=-4,-(4-5)2=-1,-(4.8-5)2=-0.04。其中匹配度-0.04最大。
由于在本发明实施例中,机器人中预先保存有每个动作幅值对应的得分函数,根据候选动作幅值和预先保存的该动作幅值对应的得分函数,确定候选动作幅值与该动作幅值的匹配度。使得确定的匹配度更准确,进而使确定的动作及动作幅值与每个第一目标部件的伸缩值的对应关系更准确。
图2为本发明实施例提供的基于黄金分割算法确定第一目标部件的伸缩值的算法流程示意图。如图2所示,Golden为黄金分割算法,score为得分函数,ranges为每个第一目标部件的伸缩范围,eps为预设的阈值。针对每个第一目标部件,根据该第一目标部件的伸缩范围[x_min,x_max],确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值根据图3所示的辅助算法GoldenN流程示意图,确定第一黄金分割值对应的极大值xs1和极大值解也就是第一匹配度y1和第二黄金分割值对应的极大值xs2和极大值解也就是第二匹配度y2,即xs1,y1=GoldenN(score,x1,ranges,eps);xs2,y2=GoldenN(score,x2,ranges,eps)。当x_max-x_min>eps时,如果y2≥y1,则保留[x1,x_max]区间,即另x_min=x1;x1=x2;x2=x_max-(x2-x1);xs1=xs2;y1=y2,将[x1,x_max]区间作为伸缩范围继续确定伸缩范围内的两个黄金分割值,如此循环。如果y2<y1,则保留[x_min,x2]区间,即另x_max=x2;x2=x1;x1=x_min+(x2-x1);xs1=xs2;y2=y1,将[x_min,x2]区间作为伸缩范围继续确定伸缩范围内的两个黄金分割值,如此循环。当x_max-x_min≤eps时,将确定出的每个极大值解中的最大值对应的黄金分割值作为该第一目标部件的伸缩值。
图3为本发明实施例提供的辅助算法流程示意图。如图3所示,GoldenN(score,x,ranges,eps)表示确定黄金分割值x处的极大值解,首先判断当前的动作函数是一元函数还是多元函数,及判断Length(ranges)是否为1,如果是,则说明当前计算的动作函数只涉及一个部件,此时进行return<>,score(x),也就是确定该部件的伸缩范围内的第一黄金分割值和第二黄金分割值,其中,第一黄金分割值小于第二黄金分割值。判断第二黄金分割值与第一黄金分割值的差大于预设的阈值时,根据第一黄金分割值控制该部件进行伸缩,得到第一候选动作幅值,根据第二黄金分割值控制该部件进行伸缩,得到第二候选动作幅值。分别确定第一候选动作幅值与当前确定对应关系的动作幅值的第一匹配度,及第二候选动作幅值与当前确定对应关系的动作幅值的第二匹配度;当第一匹配度小于第二匹配度,将第二匹配度作为候选匹配度,将该伸缩范围的最大值max和第一黄金分割值x1构成的第二区间作为伸缩范围,并继续确定伸缩范围内的两个黄金分割值,如此循环。当第一匹配度大于第二匹配度,将第一匹配度作为候选匹配度,将该伸缩范围的最小值min和第二黄金分割值x2构成的第一区间作为伸缩范围,并继续确定伸缩范围内的两个黄金分割值,如此循环。直到某次确定出的第二黄金分割值与第一黄金分割值的差不大于预设的阈值时,将确定出的候选匹配度中的最大值对应的黄金分割值作为该部件的伸缩值。
如果当前的动作函数是n元函数,则定义一个n-1元函数f,它的输出是:先把x放在输入参数args的头部,然后求原始n元函数score的输出Define function f(*args):return score(x,*args),采用递归黄金分割算法求解n-1元函数return Golden(f,ranges[1:],eps),最终确定出每个部件的伸缩值。也就是针对每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值,然后根据黄金分割算法,确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值,判断第二黄金分割值与第一黄金分割值的差大于预设的阈值时,分别根据第一黄金分割值、第二黄金分割值和每个候选伸缩值控制每个第一目标部件进行伸缩,得到第一候选动作幅值和第二候选动作幅值。分别确定第一候选动作幅值与当前确定对应关系的动作幅值的第一匹配度,及第二候选动作幅值与当前确定对应关系的动作幅值的第二匹配度;然后根据第一匹配度和第二匹配度的大小关系选择相应区间作为伸缩范围继续确定伸缩范围内的两个黄金分割值,如此循环。直到某次确定出的第二黄金分割值与第一黄金分割值的差不大于预设的阈值时,将确定出的候选匹配度中的最大值对应的黄金分割值作为该第一目标部件的伸缩值。
图4为本发明实施例提供的机器人动作控制装置结构示意图,包括:
接收模块41,用于接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;
确定模块42,用于根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;
控制模块43,根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。
所述装置还包括:
保存模块44,用于针对每个动作及动作幅值,根据该动作及预先保存的动作与机器人部件的对应关系,确定与该动作对应的每个第一目标部件;针对所述每个第一目标部件,根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值。
所述保存模块44包括:
第一确定单元441,用于针对所述每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值;
第二确定单元442,用于根据黄金分割算法,确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值,其中,所述第一黄金分割值小于第二黄金分割值;
判断单元443,用于判断所述第二黄金分割值与所述第一黄金分割值的差是否大于预设的阈值,如果是,触发第三确定单元444,如果否,触发第四确定单元445;
第三确定单元444,用于分别根据所述第一黄金分割值和第二黄金分割值,以及每个候选伸缩值控制所述每个第一目标部件进行伸缩,得到第一候选动作幅值和第二候选动作幅值,分别确定第一候选动作幅值与该动作幅值的第一匹配度,及第二候选动作幅值与该动作幅值的第二匹配度;当第一匹配度小于第二匹配度,将第二匹配度作为候选匹配度,将该伸缩范围的最大值和所述第一黄金分割值构成的第二区间作为伸缩范围,触发第二确定单元442,当第一匹配度大于第二匹配度,将第一匹配度作为候选匹配度,将该伸缩范围的最小值和所述第二黄金分割值构成的第一区间作为伸缩范围,触发第二确定单元442;
第四确定单元445,用于将确定出的候选匹配度中的最大值对应的黄金分割值作为该第一目标部件的伸缩值。
所述第三确定单元444,具体用于根据候选动作幅值和预先保存的该动作幅值对应的得分函数,确定所述候选动作幅值与该动作幅值的匹配度。
图5为本发明实施例提供的机器人结构示意图,如图5所示,包括:处理器501、通信接口502、存储器503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信;
所述存储器503中存储有计算机程序,当所述程序被所述处理器501执行时,使得所述处理器501执行如下步骤:
接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;
根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;
根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。
基于同一发明构思,本发明实施例中还提供了一种机器人,由于上述机器人解决问题的原理与机器人动作控制方法相似,因此上述机器人的实施可以参见方法的实施,重复之处不再赘述。
上述机器人提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口502用于上述机器人与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选地,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述处理器可以是通用处理器,包括中央处理器、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路、现场可编程门陈列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
在本发明实施例中处理器执行存储器上所存放的程序时,实现接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。由于在本发明实施例中,机器人预先保存有每个动作及动作幅值与每个第一目标部件的伸缩值的对应关系,用户向机器人发送待执行动作指令,待执行动作指令中携带待执行的动作及动作幅值,机器人根据接收到的动作指令和保存的对应关系可以确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值,然后根据每个第二目标部件的目标伸缩值控制每个第二目标部件进行伸缩以实现待执行的动作并达到待执行的动作幅值。本发明实施例提供的机器人动作控制方法只需用户输入动作指令,机器人便可实现动作并达到待执行的动作幅值,人工参与较少且控制过程简单。
在上述各实施例的基础上,本发明实施例还提供了一种计算机存储可读存储介质,所述计算机可读存储介质内存储有可由机器人执行的计算机程序,当所述程序在所述机器人上运行时,使得所述机器人执行时实现如下步骤:
接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;
根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;
根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。
基于同一发明构思,本发明实施例中还提供了一种计算机可读存储介质,由于处理器在执行上述计算机可读存储介质上存储的计算机程序时解决问题的原理与机器人动作控制方法相似,因此处理器在执行上述计算机可读存储介质存储的计算机程序的实施可以参见方法的实施,重复之处不再赘述。
上述计算机可读存储介质可以是机器人中的处理器能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器如软盘、硬盘、磁带、磁光盘(MO)等、光学存储器如CD、DVD、BD、HVD等、以及半导体存储器如ROM、EPROM、EEPROM、非易失性存储器(NANDFLASH)、固态硬盘(SSD)等。
在本发明实施例中提供的计算机可读存储介质内存储计算机程序,计算机程序被处理器执行时实现接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。由于在本发明实施例中,机器人预先保存有每个动作及动作幅值与每个第一目标部件的伸缩值的对应关系,用户向机器人发送待执行动作指令,待执行动作指令中携带待执行的动作及动作幅值,机器人根据接收到的动作指令和保存的对应关系可以确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值,然后根据每个第二目标部件的目标伸缩值控制每个第二目标部件进行伸缩以实现待执行的动作并达到待执行的动作幅值。本发明实施例提供的机器人动作控制方法只需用户输入动作指令,机器人便可实现动作并达到待执行的动作幅值,人工参与较少且控制过程简单。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种机器人动作控制方法,其特征在于,所述方法包括:
接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;
根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;
根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。
2.如权利要求1所述的方法,其特征在于,所述预先保存动作及动作幅值与每个第一目标部件的伸缩值的对应关系的过程包括:
针对每个动作及动作幅值,根据该动作及预先保存的动作与机器人部件的对应关系,确定与该动作对应的每个第一目标部件;针对所述每个第一目标部件,根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值。
3.如权利要求2所述的方法,其特征在于,所述根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值包括:
A、针对所述每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值;
B、根据黄金分割算法,确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值,其中,所述第一黄金分割值小于第二黄金分割值;
C、判断所述第二黄金分割值与所述第一黄金分割值的差是否大于预设的阈值,如果是,进行步骤D,如果否,进行步骤E;
D、分别根据所述第一黄金分割值和第二黄金分割值,以及每个候选伸缩值控制所述每个第一目标部件进行伸缩,得到第一候选动作幅值和第二候选动作幅值,分别确定第一候选动作幅值与该动作幅值的第一匹配度,及第二候选动作幅值与该动作幅值的第二匹配度;当第一匹配度小于第二匹配度,将第二匹配度作为候选匹配度,将该伸缩范围的最大值和所述第一黄金分割值构成的第二区间作为伸缩范围,返回步骤B,当第一匹配度大于第二匹配度,将第一匹配度作为候选匹配度,将该伸缩范围的最小值和所述第二黄金分割值构成的第一区间作为伸缩范围,返回步骤B;
E、将确定出的候选匹配度中的最大值对应的黄金分割值作为该第一目标部件的伸缩值。
4.如权利要求3所述的方法,其特征在于,所述确定候选动作幅值与该动作幅值的匹配度包括:
根据候选动作幅值和预先保存的该动作幅值对应的得分函数,确定所述候选动作幅值与该动作幅值的匹配度。
5.一种机器人动作控制装置,其特征在于,所述装置包括:
接收模块,用于接收待执行动作指令,其中所述待执行动作指令中携带待执行的动作及动作幅值;
确定模块,用于根据所述动作及动作幅值和预先保存的动作及动作幅值与每个第一目标部件的伸缩值的对应关系,确定与所述动作及动作幅值对应的每个第二目标部件的目标伸缩值;
控制模块,根据所述每个第二目标部件的目标伸缩值控制所述每个第二目标部件进行伸缩。
6.如权利要求5所述的装置,其特征在于,所述装置还包括:
保存模块,用于针对每个动作及动作幅值,根据该动作及预先保存的动作与机器人部件的对应关系,确定与该动作对应的每个第一目标部件;针对所述每个第一目标部件,根据该第一目标部件的伸缩范围、黄金分割算法和该动作幅值,确定该第一目标部件的伸缩值。
7.如权利要求6所述的装置,其特征在于,所述保存模块包括:
第一确定单元,用于针对所述每个第一目标部件中除该第一目标部件之外的每个其他部件,将该其他部件的伸缩范围内的任意一个伸缩值作为候选伸缩值;
第二确定单元,用于根据黄金分割算法,确定该第一目标部件的伸缩范围内的第一黄金分割值和第二黄金分割值,其中,所述第一黄金分割值小于第二黄金分割值;
判断单元,用于判断所述第二黄金分割值与所述第一黄金分割值的差是否大于预设的阈值,如果是,触发第三确定单元,如果否,触发第四确定单元;
第三确定单元,用于分别根据所述第一黄金分割值和第二黄金分割值,以及每个候选伸缩值控制所述每个第一目标部件进行伸缩,得到第一候选动作幅值和第二候选动作幅值,分别确定第一候选动作幅值与该动作幅值的第一匹配度,及第二候选动作幅值与该动作幅值的第二匹配度;当第一匹配度小于第二匹配度,将第二匹配度作为候选匹配度,将该伸缩范围的最大值和所述第一黄金分割值构成的第二区间作为伸缩范围,触发第二确定单元,当第一匹配度大于第二匹配度,将第一匹配度作为候选匹配度,将该伸缩范围的最小值和所述第二黄金分割值构成的第一区间作为伸缩范围,触发第二确定单元;
第四确定单元,用于将确定出的候选匹配度中的最大值对应的黄金分割值作为该第一目标部件的伸缩值。
8.如权利要求7所述的装置,其特征在于,所述第三确定单元,具体用于根据候选动作幅值和预先保存的该动作幅值对应的得分函数,确定所述候选动作幅值与该动作幅值的匹配度。
9.一种机器人,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-4任一项所述的方法步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-4任一项所述的方法步骤。
CN201910556116.6A 2019-06-25 2019-06-25 一种机器人动作控制方法、装置、机器人和存储口介质 Active CN110154037B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910556116.6A CN110154037B (zh) 2019-06-25 2019-06-25 一种机器人动作控制方法、装置、机器人和存储口介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910556116.6A CN110154037B (zh) 2019-06-25 2019-06-25 一种机器人动作控制方法、装置、机器人和存储口介质

Publications (2)

Publication Number Publication Date
CN110154037A true CN110154037A (zh) 2019-08-23
CN110154037B CN110154037B (zh) 2021-03-19

Family

ID=67626848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910556116.6A Active CN110154037B (zh) 2019-06-25 2019-06-25 一种机器人动作控制方法、装置、机器人和存储口介质

Country Status (1)

Country Link
CN (1) CN110154037B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2622212A1 (en) * 2007-04-10 2008-10-10 Erowa Ag Handling manipulator assembly
US8983660B1 (en) * 2012-10-01 2015-03-17 Kla-Tencor Corporation Substrate transporter
CN105710881A (zh) * 2016-03-16 2016-06-29 杭州娃哈哈精密机械有限公司 一种机器人末端连续轨迹规划过渡方法
CN107498555A (zh) * 2017-08-11 2017-12-22 上海思依暄机器人科技股份有限公司 一种动作透传方法、装置及机器人
CN108858200A (zh) * 2018-08-06 2018-11-23 遨博(北京)智能科技有限公司 一种机器人结构误差的补偿方法及装置
CN110181504A (zh) * 2018-02-22 2019-08-30 北京猎户星空科技有限公司 一种控制机械臂移动的方法、装置及控制设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2622212A1 (en) * 2007-04-10 2008-10-10 Erowa Ag Handling manipulator assembly
US8983660B1 (en) * 2012-10-01 2015-03-17 Kla-Tencor Corporation Substrate transporter
CN105710881A (zh) * 2016-03-16 2016-06-29 杭州娃哈哈精密机械有限公司 一种机器人末端连续轨迹规划过渡方法
CN107498555A (zh) * 2017-08-11 2017-12-22 上海思依暄机器人科技股份有限公司 一种动作透传方法、装置及机器人
CN110181504A (zh) * 2018-02-22 2019-08-30 北京猎户星空科技有限公司 一种控制机械臂移动的方法、装置及控制设备
CN108858200A (zh) * 2018-08-06 2018-11-23 遨博(北京)智能科技有限公司 一种机器人结构误差的补偿方法及装置

Also Published As

Publication number Publication date
CN110154037B (zh) 2021-03-19

Similar Documents

Publication Publication Date Title
US8996177B2 (en) Robotic training apparatus and methods
Amarjyoti Deep reinforcement learning for robotic manipulation-the state of the art
US20190095794A1 (en) Methods and apparatus for training a neural network
CN111144580A (zh) 一种基于模仿学习的层级强化学习训练方法和装置
CN109784599A (zh) 一种模型训练、风险识别的方法、装置及设备
Dong et al. Reinforcement Learning-Based Wind Farm Control: Toward Large Farm Applications via Automatic Grouping and Transfer Learning
CN114529010A (zh) 一种机器人自主学习方法、装置、设备及存储介质
US10795404B2 (en) Information processing acceleration control system
Zainal et al. Overview of artificial fish swarm algorithm and its applications in industrial problems
CN114021697A (zh) 基于强化学习的端云框架神经网络生成方法和系统
CN110154037A (zh) 一种机器人动作控制方法、装置、机器人和存储口介质
Martins et al. Heuristically-accelerated reinforcement learning: A comparative analysis of performance
KR102695527B1 (ko) 객체 추적 방법 및 장치
CN110421574B (zh) 一种机器人创意动作评估生成系统
CN114723024A (zh) 用于存算一体芯片的基于线性规划的神经网络映射方法
CN115565104A (zh) 一种动作预测方法及其相关设备
CN114332933A (zh) 一种模型训练、手势识别方法、装置、设备及介质
Shan et al. Path planning of robot based on ant colony optimization algorithm
Esmaili et al. Autonomic management of 3D cardiac simulations
Africa A mathematical fuzzy logic control systems model using rough set theory for robot applications
Mueller et al. Hybrid approach for TSP based on neural networks and ant colony optimization
CN110704040A (zh) 信息处理方法、装置、计算机设备及可读存储介质
CN112825118A (zh) 旋转不变性人脸检测方法、装置、可读存储介质及设备
Wang et al. Novel optimization theories and implementations in numerical methods
KR102191428B1 (ko) 머신러닝 가속기 및 그의 행렬 연산 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20191226

Address after: 401336 building 6, No.1, Jiangxia Road, Nan'an District, Chongqing

Applicant after: Shenlan Technology (Chongqing) Co.,Ltd.

Address before: Unit 1001, 369 Weining Road, Changning District, Shanghai, 200336 (9th floor of actual floor)

Applicant before: DEEPBLUE TECHNOLOGY (SHANGHAI) Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240520

Address after: Room 6227, No. 999, Changning District, Shanghai 200050

Patentee after: Shenlan robot (Shanghai) Co.,Ltd.

Country or region after: China

Address before: 401336 building 6, No.1 Jiangxia Road, Nan'an District, Chongqing

Patentee before: Shenlan Technology (Chongqing) Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right