CN110293552A - 机械臂控制方法、装置、控制设备及存储介质 - Google Patents

机械臂控制方法、装置、控制设备及存储介质 Download PDF

Info

Publication number
CN110293552A
CN110293552A CN201810236771.9A CN201810236771A CN110293552A CN 110293552 A CN110293552 A CN 110293552A CN 201810236771 A CN201810236771 A CN 201810236771A CN 110293552 A CN110293552 A CN 110293552A
Authority
CN
China
Prior art keywords
mechanical arm
neural network
network model
training
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810236771.9A
Other languages
English (en)
Other versions
CN110293552B (zh
Inventor
赵哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Orion Star Technology Co Ltd
Original Assignee
Beijing Orion Star Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Orion Star Technology Co Ltd filed Critical Beijing Orion Star Technology Co Ltd
Priority to CN201810236771.9A priority Critical patent/CN110293552B/zh
Publication of CN110293552A publication Critical patent/CN110293552A/zh
Application granted granted Critical
Publication of CN110293552B publication Critical patent/CN110293552B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本发明提出一种机械臂控制方法、装置、控制设备及存储介质,其中,方法包括:获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,其中场景全局图像用于表征机械臂与目标点的相对位置;根据所述机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值;根据所述各目标角度值,控制所述机械臂移动。通过本方法,实现了利用神经网络模型对机械臂动作的预测,提高对机械臂动作预测的准确性提高机械臂动作的灵活性。

Description

机械臂控制方法、装置、控制设备及存储介质
技术领域
本发明涉及自动化技术领域,尤其涉及一种机械臂控制方法、装置、控制设备及存储介质。
背景技术
机械臂作为自动化技术领域中应用最广泛的自动化机械装置,被广泛应用于工业制造、半导体制造、军事、医学治疗等领域。机械臂能够根据接收的指令定位到空间上的某一点进行作业。
目前,机械臂的运动多是给定动作的起始点和目的点,由机械臂自身确定每次移动的位置和距离,最终完成从起始点到目的点的动作。这种控制方式容易造成机械臂的自碰撞和他碰撞,灵活性差。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种机械臂控制方法,通过利用预先训练的神经网络模型,根据机械臂各关节轴的当前角度值确定下一时刻的目标角度值,进而利用目标角度值控制机械臂移动,实现对机械臂动作的预测,以使机械臂根据预测的动作进行移动,避免了机械臂运动过程中的自碰撞和他碰撞,提高了机械臂动作的灵活性。
本发明的第二个目的在于提出一种神经网络训练方法。
本发明的第三个目的在于提出一种机械臂控制装置。
本发明的第四个目的在于提出一种神经网络训练装置。
本发明的第五个目的在于提出一种控制设备。
本发明的第六个目的在于提出一种非临时性计算机可读存储介质。
本发明的第七个目的在于提出一种计算机程序产品。
为达上述目的,本发明第一方面实施例提出了一种机械臂控制方法,包括:
获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,其中场景全局图像用于表征机械臂与目标点的相对位置;
根据所述机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值;
根据所述各目标角度值,控制所述机械臂移动。
作为本发明第一方面实施例的另一种可选的实现方式,所述神经网络模型为卷积神经网络模型。
作为本发明第一方面实施例的另一种可选的实现方式,所述方法还包括:
获取控制指令;
对所述控制指令进行解析,确定控制指令的类型和/或所述控制指令中包括的目标物体所属的类型;
根据所述目标物体所属的类型和/或所述控制指令的类型,选取目标神经网络模型;
所述利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值,包括:
利用所述目标神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值。
作为本发明第一方面实施例的另一种可选的实现方式,所述方法还包括:
对所述控制指令进行解析,确定所述应用场景全局图像中目标点的位置。
本发明实施例的机械臂控制方法,通过获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,再根据机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值,进而,根据各目标角度值控制机械臂移动。由此,实现了利用神经网络模型对机械臂动作的预测,不仅提高了对机械臂动作预测的准确性,而且提高了机械臂动作的速度和灵活性。
为达上述目的,本发明第二方面实施例提出了一种神经网络训练方法,包括:
根据预设初始神经网络模型,构建损失函数;
以所述损失函数取值最小为目标,利用训练样本集中各样本对所述预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,则确定所述神经网络模型训练结束;
其中,所述训练样本集中各样本,包括与训练任务对应的机械臂应用场景全局图像序列,及分别与各全局图像对应的机械臂各关节轴的角度值。
作为本发明第二方面实施例的另一种可选的实现方式,所述训练样本集中各样本的生成过程,包括:
确定当前机械臂的起始点位置及随机生成的训练点位置;
根据所述当前机械臂的起始点位置及所述训练点位置,确定机械臂的动作序列;
按照所述动作序列控制机械臂移动,并获取机械臂在各个动作执行前及执行后的全局图像及关节轴对应的角度。
作为本发明第二方面实施例的另一种可选的实现方式,所述机械臂包括N个关节轴;
所述构建损失函数之前,还包括:
确定所述预设初始神经网络模型输出的向量为N维。
本发明实施例的神经网络训练方法,通过根据预设初始神经网络模型构建损失函数,并以损失函数最小为目标,利用与训练任务对应的机械臂应用场景全局图像序列及分别与各全局图像对应的机械臂各关节轴的角度值作为样本,对预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,训练结束,得到神经网络模型以用于对机械臂进行控制。由此,能够训练得到用于机械臂控制的神经网络模型,为实现机械臂的动作预测奠定了基础,提高动作预测准确度。
为达上述目的,本发明第三方面实施例提出了一种机械臂控制装置,包括:
获取模块,用于获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,其中场景全局图像用于表征机械臂与目标点的相对位置;
确定模块,用于根据所述机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值;
控制模块,用于根据所述各目标角度值,控制所述机械臂移动。
作为本发明第三方面实施例的另一种可选的实现方式,所述神经网络模型为卷积神经网络模型。
作为本发明第三方面实施例的另一种可选的实现方式,所述装置还包括:
控制指令获取模块,用于获取控制指令;
解析模块,用于对所述控制指令进行解析,确定控制指令的类型和/或所述控制指令中包括的目标物体所属的类型;
模型选取模块,用于根据所述目标物体所属的类型和/或所述控制指令的类型,选取目标神经网络模型;
所述确定模块,具体用于:
利用所述目标神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值。
作为本发明第三方面实施例的另一种可选的实现方式,所述装置,还包括:
目标点确定模块,用于对所述控制指令进行解析,确定所述应用场景全局图像中目标点的位置。
本发明实施例的机械臂控制装置,通过获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,再根据机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值,进而,根据各目标角度值控制机械臂移动。由此,实现了利用神经网络模型对机械臂动作的预测,不仅提高了对机械臂动作预测的准确性,而且提高了机械臂动作的速度和灵活性。
为达上述目的,本发明第四方面实施例提出了一种神经网络训练装置,包括:
函数构建模块,用于根据预设初始神经网络模型,构建损失函数;
训练模块,用于以所述损失函数取值最小为目标,利用训练样本集中各样本对所述预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,则确定所述神经网络模型训练结束;
其中,所述训练样本集中各样本,包括与训练任务对应的机械臂应用场景全局图像序列,及分别与各全局图像对应的机械臂各关节轴的角度值。
作为本发明第四方面实施例的另一种可选的实现方式,所述装置还包括:
数据采集模块,用于确定当前机械臂的起始点位置及随机生成的训练点位置;根据所述当前机械臂的起始点位置及所述训练点位置,确定机械臂的动作序列;按照所述动作序列控制机械臂移动,并获取机械臂在各个动作执行前及执行后的全局图像及关节轴对应的角度。
作为本发明第四方面实施例的另一种可选的实现方式,所述机械臂包括N个关节轴;所述函数构建模块还用于:
在构建损失函数之前,确定所述预设初始神经网络模型输出的向量为N维。
本发明实施例的神经网络训练装置,通过根据预设初始神经网络模型构建损失函数,并以损失函数最小为目标,利用与训练任务对应的机械臂应用场景全局图像序列及分别与各全局图像对应的机械臂各关节轴的角度值作为样本,对预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,训练结束,得到神经网络模型以用于对机械臂进行控制。由此,能够训练得到用于机械臂控制的神经网络模型,为实现机械臂的动作预测奠定了基础,提高动作预测准确度。
为达上述目的,本发明第五方面实施例提出了一种控制设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如第一方面实施例所述的机械臂控制方法,或者如第二方面实施例所述的神经网络训练方法。
为达上述目的,本发明第六方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面实施例所述的机械臂控制方法,或者如第二方面实施例所述的神经网络训练方法。
为达上述目的,本发明第七方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,实现如第一方面实施例所述的机械臂控制方法,或者如第二方面实施例所述的神经网络训练方法。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例所提供的一种机械臂控制方法的流程示意图;
图2为本发明实施例所提供的另一种机械臂控制方法的流程示意图;
图3为本发明实施例所提供的一种神经网络训练方法的流程示意图;
图4为训练样本集中各样本的生成过程的流程示意图;
图5为本发明实施例所提供的一种机械臂控制装置的结构示意图;
图6为本发明实施例所提供的另一种机械臂控制装置的结构示意图;
图7为本发明实施例所提供的一种神经网络训练装置的结构示意图;
图8为本发明实施例所提供的另一种神经网络训练装置的结构示意图;以及
图9为本发明实施例所提供的一种控制设备的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的机械臂控制方法、装置、控制设备及存储介质。
图1为本发明实施例所提供的一种机械臂控制方法的流程示意图。
如图1所示,该机械臂控制方法包括以下步骤:
步骤101,获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,其中场景全局图像用于表征机械臂与目标点的相对位置。
其中,机械臂应用场景全局图像,是指机械臂在执行动作时任意时刻的图像,比如可以为机械臂执行序列动作之前的图像,也可以为机械臂执行序列过程中任一时刻的图像,此处对此不做限定。
通常,在启动机械臂执行一系列动作之前,需要确定机械臂当前所在的位置,该位置可以被称为初始位置,并设置机械臂动作的目标点,控制机械臂从初始位置移动至目标点所在的位置。其中,机械臂的初始位置可以为任意位置;或者,也可以为一固定位置,比如,在机械臂每次执行完动作后,控制其返回至该固定位置,从而机械臂在执行任何序列动作时,初始位置均为该固定位置,其中,固定位置可以根据需要调整,比如固定位置为:当机械臂的末端调整为垂直向下的方向时,机械臂所处的位置。
本实施例中,机械臂应用场景是机械臂执行动作时所处的场景,比如,控制机械臂堆积木时的场景、控制机械臂抓取鼠标的场景等;目标点,为机械臂当前序列动作对应的目标位置。在机械臂运动之前,机械臂各关节轴分别对应的各当前角度值即为机械臂处于初始状态时各关节轴的角度值,机械臂各关节轴的角度值可以利用设置在机械臂内部的角位移传感器获取。
以机械臂抓取鼠标为例,在实际应用时,在设置好机械臂的初始位置和目标点(鼠标所在的位置)之后,利用全局摄像头获取机械臂抓取鼠标的过程中的场景全局图像。机械臂内部可以安装角位移传感器,并可以将机械臂处于初始状态时各关节轴的当前角度值设置为0,随着机械臂的运动,角位移传感器实时采集机械臂各关节轴的角度值。
其中,全局摄像头,可以设置在机械臂的任意位置,只需保证机械臂在执行动作过程中,可以实时获取到应用场景全局图像即可。
步骤102,根据机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值。
本实施例中,在启动机械臂,控制机械臂开始运动后,可以将实时获取的机械臂应用场景全局图像,以及机械臂各关节轴分别对应的各当前角度值输入至预先训练的神经网络模型中,利用神经网络模型确定出下一时刻机械臂各关节轴分别对应的各目标角度值。
其中,预先训练的神经网络模型是利用大量的与机械臂当前所在的应用场景匹配的机械臂应用场景全局图像序列,以及分别与各全局图像对应的机械臂各关节轴的角度值作为训练样本,对预设初始神经网络模型进行训练后得到的。预先训练的神经网络模型的具体训练过程将在后续内容中给出,此处不再赘述。
在本发明实施例一种可能的实现方式中,神经网络模型为卷积神经网络模型。相较于普通的神经网络模型而言,卷积神经网络模型中包含有由卷积层和子采样层构成的特征抽取器,卷积和子采样能够大大简化模型的复杂度,减少模型参数,从而,采用卷积神经网络时,神经网络的结构相对简单,训练精度较高,训练难度低。
步骤103,根据各目标角度值,控制机械臂移动。
本实施例中,利用预先训练的神经网络模型确定出下一时刻机械臂各关节轴分别对应的各目标角度值之后,可以根据各目标角度值控制机械臂移动,使机械臂移动后,机械臂各关节轴的当前角度值与目标角度值一致。
此处需要说明的是,根据各目标角度值控制机械臂移动后,移动后的机械臂可能还未到达目标点所在的位置,此时,在步骤103之后,可以将预先训练的神经网络模型确定出的各目标角度值作为机械臂各关节轴分别对应的各当前角度值,并获取机械臂移动后的场景全局图像,重复执行步骤101-步骤103,直至机械臂移动至目标点所在的位置后结束。
可以理解的是,本实施例中,通过根据机械臂运动中的全局图像及机械臂各关节轴分别对应的角度值,利用神经网络模型,来确定机械臂下一时刻各关节轴的角度值,进而根据确定的各关节轴的角度值,控制机械臂运动,从而不仅提高了机械臂动作预测的准确性和可靠性,避免了机械臂运动过程中的自碰撞和他碰撞,并且由于全局图像及各关节轴角度值获取方便,从而还可以提供机械臂动作的速度和灵活性。
本实施例的机械臂控制方法,通过获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,再根据机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值,进而,根据各目标角度值控制机械臂移动。由此,实现了利用神经网络模型对机械臂动作的预测,不仅提高了对机械臂动作预测的准确性和可靠性,而且提高了机械臂动作的速度和灵活性。
机械臂的种类有多种,比如多关节式机械臂、直角坐标式机械臂、球坐标式机械臂、极坐标式机械臂、圆柱坐标式机械臂等,不同类型的机械臂执行的动作有所不同。比如,球坐标式机械臂能够完成的动作有俯仰运动、伸缩运动、回转运动、旋转运动等;圆柱坐标式机械臂能够完成的动作有水平回转运动、伸缩运动、上下运行等。此外,对于同一类型的机械臂,操作对象不同时,机械臂执行的动作也不同。例如,对于多关节式机械臂,当操作对象是鼠标时,机械臂需要完成的主要动作是在二维空间内移动、手爪夹紧动作;当操作对象是积木时,控制机械臂堆积木时,机械臂完成的动作有在三维空间内移动、手爪夹紧动作和手爪松开动作。
为了保证动作预测的准确性,在本发明实施例一种可能的实现方式中,可以针对机械臂的类型和/或操作对象训练不同的神经网络模型。从而,本发明实施例提出了另一种机械臂控制方法,图2为本发明实施例所提供的另一种机械臂控制方法的流程示意图。
如图2所示,该机械臂控制方法可以包括以下步骤:
步骤201,获取控制指令。
实际应用中,在控制机械臂进行运动时,通常需要用户(相关工作人员)发出控制指令,由控制设备获取了控制指令后,控制机械臂根据控制指令运动。其中,控制指令中可以包括目标物体、目标物体(操作对象)所属的类型、控制指令的类型等中的至少一种。
作为一种可能的实现方式,用户可以在控制设备的显示界面中输入对机械臂进行控制的控制指令,用户输入完成后,控制设备可以获取该控制指令,以根据控制指令对机械臂进行控制。
作为一种可能的实现方式,控制机械臂运动的控制设备可以是设置在机械臂内部的控制器,此时,机械臂可以提供显示界面,用于通过显示界面输入控制指令后,机械臂内部的控制器可以获取该控制指令,以控制机械臂按照控制指令进行运动。
步骤202,对控制指令进行解析,确定控制指令的类型和/或控制指令中包括的目标物体所属的类型。
本实施例中,控制设备获取了控制指令后,可以对控制指令进行解析,以从控制指令中解析出控制指令的类型和/或控制指令中包括的目标物体所属的类型。其中,控制指令的类型比如可以为堆积、拖动、装配等;目标物体所属的类型比如可以为零部件、玩具、工具等。
步骤203,根据目标物体所属的类型和/或控制指令的类型,选取目标神经网络模型。
为了提高动作预测的准确性,可以针对不同的控制指令的类型、目标物体所属的类型、机械臂的类型等,训练得到不同的神经网络模型。从而,本实施例中,从控制指令中确定了目标物体所属的类型和/或控制指令的类型后,可以根据目标物体所属的类型和/或控制指令的类型,从多个神经网络模型中选择一个匹配的神经网络模型作为目标神经网络模型,以利用目标神经网络模型进行动作预测,提高神经网络模型的针对性和动作预测的准确性。
举例来说,抓取指令对应一种神经网络模型,堆积指令对应另一种神经网络模型;或者,抓取的物体为鼠标时,对应一种神经网络模型,抓取的物体为水杯时对应另一种神经网络模型等等。
步骤204,获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,其中场景全局图像用于表征机械臂与目标点的相对位置。
需要说明的是,本实施例中对步骤204的描述可以参见前述实施例中对步骤101的描述,此处不再赘述。
步骤205,对控制指令进行解析,确定应用场景全局图像中目标点的位置。
机械臂接收的控制指令中可以包括序列动作的操作对象,即目标物体。例如,当控制指令为抓取鼠标时,则目标物体为鼠标;当控制指令为堆积木时,目标物体为积木;当控制指令为安放螺丝时,目标物体为螺丝。
本实施例中,控制设备获取的对机械臂进行控制的控制指令后,可以对控制指令进行解析,以从控制指令中提取出目标物体。进而,控制设备可以从获取的应用场景全局图像中查找出目标物体,并将目标物体所在的位置确定为目标点的位置。
作为一种可能的实现方式,控制设备对控制指令进行解析获取了目标物体之后,可以从本地或者互联网获取目标物体的形状信息,进而根据目标物体的形状信息,与应用场景全局图像中包含的各个物体进行匹配,将与目标物体形状相同的物体所在的位置确定为目标点的位置。
需要说明的在,本申请一种可能的实现形式中,控制指令的类型,或者控制指令中目标物体所属的类型不同时,根据控制指令及抓取的应用场景全局图像,可以确定的目标点的数量及位置可能不同。
例如,当从控制指令中解析出的目标物体为鼠标时,根据解析出的鼠标,在应用场景全景图像中确定的目标点的位置为一个。机械臂抓取鼠标时,只需要将机械臂从起始位置移动至目标点的位置,即可完成鼠标抓取动作。
又例如,控制指令为堆积木时,对控制指令进行解析,可以从控制指令中解析出目标物体为积木,则在应用场景全局图像中确定的目标点的位置可以包括积木当前的放置位置及积木需要新放置的位置等多个位置。此时,控制指令中还可以包括积木当前放置的区域范围,以及积木目标放置的位置,并可以通过对控制指令进行解析获得。控制设备可以逐一根据应用场景全局图像,确定各图像中目标点的位置。
具体实现时,控制设备可以先在积木当前放置的区域范围内确定积木的位置作为目标点的位置,并控制机械臂移动至该位置抓取积木,再将积木目标放置的位置作为目标点的位置,并控制机械臂移动至目标点的位置,将抓取的积木放置在目标点的位置。
可以理解的是,若对应用场景全局图像进行解析后,确定有多个积木,那么可以通过控制机械臂重复执行上述操作,直至控制设备在积木放置的区域范围内未找到积木时结束。
步骤206,根据机械臂应用场景全局图像及各当前角度值,利用目标神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值。
步骤207,根据各目标角度值,控制机械臂移动。
本实施例中,选定目标神经网络模型之后,可以将获取的机械臂应用场景全局图像及各当前角度值输入至目标神经网络模型中,由目标神经网络模型输出下一时刻机械臂各关节轴分别对应的各目标角度值,并根据各目标角度值控制机械臂移动,重复执行步骤204-步骤206,直至机械臂移动至目标点的位置后结束。
本实施例的机械臂控制方法,通过对获取的控制指令进行解析以确定出控制指令的类型和/或控制指令中包括的目标物体所属的类型,进而根据目标物体所属的类型和/或控制指令的类型选定目标神经网络模型,利用目标神经网络模型确定下一时刻机械臂各关节轴分别对应的各目标角度值,最后根据目标角度值控制机械臂移动,能够实现动作预测,避免了机械臂运动过程中的自碰撞和他碰撞,通过根据目标物体所属的类型和/或控制指令的类型选定目标神经网络模型进行动作预测,使得采用的目标神经网络模型具有针对性,提高动作预测的准确性和可靠性。
在前述实施例所述的机械臂控制方法中,利用预先训练的神经网络模型可以准确确定下一时刻机械臂各关节轴分别对应的目标角度值,即预测机械臂的动作,从而可以提高机械臂动作预测的准确性和可靠性。下面,结合图3,对上述实施例中的神经网络模型的训练过程进行详细说明。
图3为本发明实施例所提供的一种神经网络训练方法的流程示意图。
如图3所示,该神经网络训练方法可以包括以下步骤:
步骤301,根据预设初始神经网络模型,构建损失函数。
训练神经网络模型时,通常需要构建损失函数,并在神经网络模型训练的过程中,经过前向传播计算损失函数的值,再根据损失函数的值进行反向推导,对神经网络模型的相关参数进行调整,直至损失函数取值最小。可见,损失函数的取值是调整神经网络模型参数的关键。
神经网络模型训练中,常用的损失函数有交叉熵损失函数、均方差损失函数、对数似然损失函数等。通常,损失函数的选择与采样的激活函数有关,例如,当激活函数为softmax函数时,可以采用对数似然损失函数;当激活函数为sigmoid函数时,损失函数可以用交叉熵损失函数。
本实施例中,针对不同的神经网络模型,可以根据神经网络模型采用的激活函数构建损失函数,以保证损失函数的收敛速度较快。
在本发明实施例一种可能的实现方式中,在构建损失函数之前,可以先确定预设初始神经网络模型输出的向量为N维,以使神经网络模型一次能够输出N个数值。作为一种示例,神经网络输出向量的维数可以根据机械臂的关节轴个数确定。例如,当机械臂有6个关节轴时,可以设置预设初始神经网络模型输出的向量为6维。
步骤302,以损失函数取值最小为目标,利用训练样本集中各样本对预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,则确定神经网络模型训练结束。
其中,训练样本集中各样本,包括与训练任务对应的机械臂应用场景全局图像序列,及分别与各全局图像对应的机械臂各关节轴的角度值。
在本实施例中,训练任务,是指机械臂在与此次应用场景全局图像序列对应的操作过程,要完成的任务。举例来说,训练任务可以为抓取鼠标、堆积积木、抓取苹果等等。
可以理解的是,同一训练任务中,目标对象的位置不同、或者机械臂的初始位置不同时,对应的应用场景全局图像也不相同,因此,本实施例在训练神经网络模型时,可以针对同一训练任务,采用多个样本,来进行训练,从而保证训练完成的神经网络模型的准确性和可靠性。
本实施例中,利用训练样本集中各样本对预设初始神经网络模型进行训练时,以损失函数取值最小为目标,将各个样本输入至预设初始神经网络模型,先经过前向传播计算损失函数的值,再根据损失函数的取值进行反向推导,对神经网络模型的相关参数进行调整,直至生成的神经网络模型对应的系数矩阵稳定,即损失函数收敛,则确定神经网络模型训练结束,所得的神经网络模型可以用于前述实施例中所述的机械臂控制方法中,以用于对机械臂的动作进行预测。
本实施例的神经网络训练方法,通过根据预设初始神经网络模型构建损失函数,并以损失函数最小为目标,利用与训练任务对应的机械臂应用场景全局图像序列及分别与各全局图像对应的机械臂各关节轴的角度值作为样本,对预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,训练结束,得到神经网络模型以用于对机械臂进行控制。由此,能够训练得到用于机械臂控制的神经网络模型,为实现机械臂的动作预测奠定了基础,提高动作预测准确度。
为了对预设初始神经网络模型进行训练,以得到训练后的神经网络模型,需要采集训练样本,图4为训练样本集中各样本的生成过程的流程示意图。
如图4所示,训练样本集中各样本的生成过程可以包括以下步骤:
步骤401,确定当前机械臂的起始点位置及随机生成的训练点位置。
其中,训练点的位置可以由用户随意设置,也可以由机械臂随意设置。
步骤402,根据当前机械臂的起始点位置及训练点位置,确定机械臂的动作序列。
机械臂从起始点移动至训练点的过程中,可能需要完成多个动作,例如,当控制机械臂堆积木时,若确定积木堆积的位置为训练点,则机械臂从起始点移动至训练点时,至少需要移动至积木放置的位置、抓取积木、移动至训练点的位置和松开积木四个步骤。本实施例中,确定了当前机械臂的起始点位置及训练点位置之后,可以根据起始点位置和训练点位置确定机械臂的动作序列,其中,动作序列中至少包括一个动作。
步骤403,按照动作序列控制机械臂移动,并获取机械臂在各个动作执行前及执行后的全局图像及关节轴对应的角度。
本实施例中,确定了机械臂的动作序列之后,可以根据动作序列编写机械臂的控制程序,以控制机械臂按照动作序列移动,并获取机械臂在各个动作执行前及执行后的全局图像及关节轴对应的角度。进而,将全局图像和关节轴对应的角度作为样本,用于构建训练样本集。其中,全局图像的获取可以采用全局摄像头实现,关节轴的角度值可以利用角位移传感器采集。通过全局摄像头采集数据,使得样本数据的获取更加便捷高效。
综上所述,通过确定机械臂的起始点位置和训练点位置,根据起始点位置和训练点位置确定机械臂的动作序列,进而控制机械臂按照动作序列移动,并获取机械臂在各个动作执行前后的全局图像和关节轴对应的角度来构建训练样本集,为训练神经网络模型提供了训练样本,提高了模型训练精度。
下面以训练用于预测机械臂抓取鼠标的动作的神经网络模型为例,详细说明神经网络模型的训练过程。
首先,需要获取用于训练的样本数据。采集数据的具体过程如下:(1)将机械臂末端方向调整为垂直向下,并将全局摄像头设置在机械臂与桌子的右侧;(2)编写机械臂控制程序,使机械臂将鼠标放置在桌面的随机位置处,之后,机械臂回归至起始点,开启全局摄像头,采集机械臂从起始点移动至鼠标所在位置并成功抓取鼠标的过程中的全局图像,机械臂内部的角位移传感器记录机械臂每执行一个动作前后各关节轴的角度值;(3)关闭全局摄像头和角位移传感器,重复执行步骤(2),以获取大量的训练样本数据。
接着,构建预设初始神经网络模型。由于机械臂抓取鼠标的动作相对简单,可以设置网络结构较为简单的神经网络模型。以神经网络模型为卷积神经网络模型为例,可以设置一个包括5个卷积层和3个全连接层的卷积神经网络。若机械臂包括6个关节轴,则可以设置卷积神经网络模型的输出向量为6维向量。其中,各层的激活函数采用修正线性单元(Rectified Linear Unit,ReLU)函数,并在至少一个卷积层后设置最大池化层,以用于进一步提取高阶特征,在全连接层后增加丢弃(dropout)层,以用于减轻模型训练过程中的过拟合现象。
构建完成初始神经网络模型后,进一步构建损失函数。本示例中,损失函数选用交叉熵损失函数。随后,将获取的样本数据输入至卷积神经网络的输入层,根据损失函数的值调整卷积神经网络的参数,直至损失函数达到最小值后,得到训练后的卷积神经网络,该卷积神经网络可以用于机械臂抓取鼠标的动作预测中,最终完成鼠标抓取,避免鼠标抓取过程中机械臂发生自碰撞和他碰撞。
为了实现上述实施例,本发明还提出一种机械臂控制装置。
图5为本发明实施例所提供的一种机械臂控制装置的结构示意图。
如图5所示,该机械臂控制装置50包括:获取模块510、确定模块520,以及控制模块530。其中,
获取模块510,用于获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,其中场景全局图像用于表征机械臂与目标点的相对位置。
确定模块520,用于根据机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值。
在本发明实施例一种可能的实现方式中,神经网络模型为卷积神经网络模型。
控制模块530,用于根据各目标角度值,控制机械臂移动。
进一步地,在本发明实施例一种可能的实现方法中,如图6所示,在如图5所示实施例的基础上,该机械臂控制装置50还可以包括:
控制指令获取模块540,用于获取控制指令。
解析模块550,用于对控制指令进行解析,确定控制指令的类型和/或控制指令中包括的目标物体所属的类型。
模型选取模块560,用于根据目标物体所属的类型和/或控制指令的类型,选取目标神经网络模型。
目标点确定模块570,用于对控制指令进行解析,确定应用场景全局图像中目标点的位置。
此时,确定模块520具体用于利用目标神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值。
通过根据目标物体所属的类型和/或控制指令的类型选定目标神经网络模型进行动作预测,使得采用的目标神经网络模型具有针对性,提高动作预测的准确性。
此处需要说明的是,前述实施例中对机械臂控制方法实施例的解释说明,也适用于本实施例的机械臂控制装置,其实现原理类似,此处不再赘述。
本实施例的机械臂控制装置,通过获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,再根据机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值,进而,根据各目标角度值控制机械臂移动。由此,实现了利用神经网络模型对机械臂动作的预测,不仅提高了对机械臂动作预测的准确性,而且避免了机械臂运动过程中的自碰撞和他碰撞,提高了机械臂动作的速度和灵活性。
为了实现上述实施例,本发明还提出一种神经网络训练装置。
图7为本发明实施例所提供的一种神经网络训练装置的结构示意图。
如图7所示,该神经网络训练装置60包括:函数构建模块610和训练模块620。其中,
函数构建模块610,用于根据预设初始神经网络模型,构建损失函数。
在本发明实施例一种可能的实现方式中,函数构建模块610还用于,在构建损失函数之前,确定预设初始神经网络模型输出的向量为N维。
训练模块620,用于以损失函数取值最小为目标,利用训练样本集中各样本对预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,则确定神经网络模型训练结束。
其中,训练样本集中各样本,包括与训练任务对应的机械臂应用场景全局图像序列,及分别与各全局图像对应的机械臂各关节轴的角度值。
进一步地,在本发明实施例一种可能的实现方式中,如图8所示,在如图7所示实施例的基础上,该神经网络训练装置60还包括:
数据采集模块600,用于确定当前机械臂的起始点位置及随机生成的训练点位置;根据当前机械臂的起始点位置及训练点位置,确定机械臂的动作序列;按照动作序列控制机械臂移动,并获取机械臂在各个动作执行前及执行后的全局图像及关节轴对应的角度。
通过确定机械臂的起始点位置和训练点位置,根据起始点位置和训练点位置确定机械臂的动作序列,进而控制机械臂按照动作序列移动,并获取机械臂在各个动作执行前后的全局图像和关节轴对应的角度来构建训练样本集,为训练神经网络模型提供了训练样本,提高了模型训练精度。
需要说明的是,前述对神经网络训练方法实施例的解释说明也适用于该实施例的神经网络训练装置,其实现原理类似,此处不再赘述。
本实施例的神经网络训练装置,通过根据预设初始神经网络模型构建损失函数,并以损失函数最小为目标,利用与训练任务对应的机械臂应用场景全局图像序列及分别与各全局图像对应的机械臂各关节轴的角度值作为样本,对预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,训练结束,得到神经网络模型以用于对机械臂进行控制。由此,能够训练得到用于机械臂控制的神经网络模型,为实现机械臂的动作预测奠定了基础,提高动作预测准确度。
为了实现上述实施例,本发明还提出一种控制设备。
图9为本发明实施例所提供的一种控制设备的结构示意图。
如图9所示,该控制设备90包括:存储器910、处理器920及存储在存储器910上并可在处理器920上运行的计算机程序930,处理器920执行计算机程序930时,实现如前述实施例所述的机械臂控制方法或者神经网络训练方法。
为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如前述实施例所述的机械臂控制方法或者神经网络训练方法。
为了实现上述实施例,本发明还提出一种计算机程序产品,当计算机程序产品中的指令由处理器执行时,实现如前述实施例所述的机械臂控制方法或者神经网络训练方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种机械臂控制方法,其特征在于,包括:
获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,其中场景全局图像用于表征机械臂与目标点的相对位置;
根据所述机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值;
根据所述各目标角度值,控制所述机械臂移动。
2.如权利要求1所述的方法,其特征在于,所述神经网络模型为卷积神经网络模型。
3.如权利要求1或2所述的方法,其特征在于,还包括:
获取控制指令;
对所述控制指令进行解析,确定控制指令的类型和/或所述控制指令中包括的目标物体所属的类型;
根据所述目标物体所属的类型和/或所述控制指令的类型,选取目标神经网络模型;
所述利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值,包括:
利用所述目标神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值。
4.如权利要求3所述的方法,其特征在于,所述获取机械臂应用场景全局图像之后,还包括:
对所述控制指令进行解析,确定所述应用场景全局图像中目标点的位置。
5.一种神经网络训练方法,其特征在于,所述训练方法包括:
根据预设初始神经网络模型,构建损失函数;
以所述损失函数取值最小为目标,利用训练样本集中各样本对所述预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,则确定所述神经网络模型训练结束;
其中,所述训练样本集中各样本,包括与训练任务对应的机械臂应用场景全局图像序列,及分别与各全局图像对应的机械臂各关节轴的角度值。
6.一种机械臂控制装置,其特征在于,包括:
获取模块,用于获取机械臂应用场景全局图像及机械臂各关节轴分别对应的各当前角度值,其中场景全局图像用于表征机械臂与目标点的相对位置;
确定模块,用于根据所述机械臂应用场景全局图像及各当前角度值,利用预先训练的神经网络模型,确定下一时刻机械臂各关节轴分别对应的各目标角度值;
控制模块,用于根据所述各目标角度值,控制所述机械臂移动。
7.一种神经网络训练装置,其特征在于,包括:
函数构建模块,用于根据预设初始神经网络模型,构建损失函数;
训练模块,用于以所述损失函数取值最小为目标,利用训练样本集中各样本对所述预设初始神经网络模型进行训练,直至生成的神经网络模型对应的系数矩阵稳定,则确定所述神经网络模型训练结束;
其中,所述训练样本集中各样本,包括与训练任务对应的机械臂应用场景全局图像序列,及分别与各全局图像对应的机械臂各关节轴的角度值。
8.一种控制设备,其特征在于,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如权利要求1-4中任一项所述的机械臂控制方法,或者如权利要求5所述的神经网络训练方法。
9.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一项所述的机械臂控制方法,或者如权利要求5所述的神经网络训练方法。
10.一种计算机程序产品,其特征在于,当所述计算机程序产品中的指令由处理器执行时,实现如权利要求1-4中任一项所述的机械臂控制方法,或者如权利要求5所述的神经网络训练方法。
CN201810236771.9A 2018-03-21 2018-03-21 机械臂控制方法、装置、控制设备及存储介质 Active CN110293552B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810236771.9A CN110293552B (zh) 2018-03-21 2018-03-21 机械臂控制方法、装置、控制设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810236771.9A CN110293552B (zh) 2018-03-21 2018-03-21 机械臂控制方法、装置、控制设备及存储介质

Publications (2)

Publication Number Publication Date
CN110293552A true CN110293552A (zh) 2019-10-01
CN110293552B CN110293552B (zh) 2020-12-08

Family

ID=68025521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810236771.9A Active CN110293552B (zh) 2018-03-21 2018-03-21 机械臂控制方法、装置、控制设备及存储介质

Country Status (1)

Country Link
CN (1) CN110293552B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178299A (zh) * 2019-12-31 2020-05-19 深圳市商汤科技有限公司 图像处理方法、装置、电子设备和存储介质
CN111240195A (zh) * 2020-01-08 2020-06-05 北京迈格威科技有限公司 基于机器视觉的自动控制模型训练、目标物回收方法及装置
CN111716352A (zh) * 2020-05-13 2020-09-29 中国电力科学研究院有限公司 一种配电网带电作业机械臂导航避障方法及系统
CN111993416A (zh) * 2020-07-30 2020-11-27 浙江大华技术股份有限公司 一种控制机械臂运动的方法、设备、系统以及装置
CN112025242A (zh) * 2020-08-27 2020-12-04 浙江大学 一种基于多层感知器的机械臂搜孔方法
CN112338920A (zh) * 2020-11-04 2021-02-09 中国联合网络通信集团有限公司 数据处理方法、装置及设备
WO2021128611A1 (zh) * 2019-12-27 2021-07-01 深圳大学 一种基于深度神经网络的运动预测方法和智能终端

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101169621A (zh) * 2007-11-19 2008-04-30 北京理工大学 一种基于小波神经网络的视觉反馈控制方法
US20100092032A1 (en) * 2008-10-10 2010-04-15 Remus Boca Methods and apparatus to facilitate operations in image based systems
CN102501251A (zh) * 2011-11-08 2012-06-20 北京邮电大学 带有动态摩擦补偿的机械臂关节定位控制方法
CN106737673A (zh) * 2016-12-23 2017-05-31 浙江大学 一种基于深度学习的端到端的机械臂控制的方法
CN106874914A (zh) * 2017-01-12 2017-06-20 华南理工大学 一种基于深度卷积神经网络的工业机械臂视觉控制方法
CN107479368A (zh) * 2017-06-30 2017-12-15 北京百度网讯科技有限公司 一种基于人工智能的训练无人机控制模型的方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101169621A (zh) * 2007-11-19 2008-04-30 北京理工大学 一种基于小波神经网络的视觉反馈控制方法
US20100092032A1 (en) * 2008-10-10 2010-04-15 Remus Boca Methods and apparatus to facilitate operations in image based systems
CN102501251A (zh) * 2011-11-08 2012-06-20 北京邮电大学 带有动态摩擦补偿的机械臂关节定位控制方法
CN106737673A (zh) * 2016-12-23 2017-05-31 浙江大学 一种基于深度学习的端到端的机械臂控制的方法
CN106874914A (zh) * 2017-01-12 2017-06-20 华南理工大学 一种基于深度卷积神经网络的工业机械臂视觉控制方法
CN107479368A (zh) * 2017-06-30 2017-12-15 北京百度网讯科技有限公司 一种基于人工智能的训练无人机控制模型的方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021128611A1 (zh) * 2019-12-27 2021-07-01 深圳大学 一种基于深度神经网络的运动预测方法和智能终端
CN111178299A (zh) * 2019-12-31 2020-05-19 深圳市商汤科技有限公司 图像处理方法、装置、电子设备和存储介质
CN111240195A (zh) * 2020-01-08 2020-06-05 北京迈格威科技有限公司 基于机器视觉的自动控制模型训练、目标物回收方法及装置
CN111716352A (zh) * 2020-05-13 2020-09-29 中国电力科学研究院有限公司 一种配电网带电作业机械臂导航避障方法及系统
CN111993416A (zh) * 2020-07-30 2020-11-27 浙江大华技术股份有限公司 一种控制机械臂运动的方法、设备、系统以及装置
CN112025242A (zh) * 2020-08-27 2020-12-04 浙江大学 一种基于多层感知器的机械臂搜孔方法
CN112338920A (zh) * 2020-11-04 2021-02-09 中国联合网络通信集团有限公司 数据处理方法、装置及设备
CN112338920B (zh) * 2020-11-04 2022-04-15 中国联合网络通信集团有限公司 数据处理方法、装置及设备

Also Published As

Publication number Publication date
CN110293552B (zh) 2020-12-08

Similar Documents

Publication Publication Date Title
CN110293552B (zh) 机械臂控制方法、装置、控制设备及存储介质
JP6873941B2 (ja) ロボット作業システム、及びロボット作業システムの制御方法
US20240017405A1 (en) Viewpoint invariant visual servoing of robot end effector using recurrent neural network
CN110640730B (zh) 生成用于机器人场景的三维模型的方法和系统
US10639792B2 (en) Deep machine learning methods and apparatus for robotic grasping
CN109397285B (zh) 一种装配方法、装配装置及装配设备
CN110842914A (zh) 基于差分进化算法的手眼标定参数辨识方法、系统及介质
JP2021536068A (ja) 物体姿勢推定方法および装置
JP2019093461A (ja) 把持システム、学習装置、把持方法、及び、モデルの製造方法
Simeonov et al. A long horizon planning framework for manipulating rigid pointcloud objects
JP7458741B2 (ja) ロボット制御装置及びその制御方法及びプログラム
CN110463376B (zh) 一种插机方法及插机设备
DE102020214633A1 (de) Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung
CN111223141B (zh) 基于强化学习的自动化流水线作业效率优化系统及方法
CN114851201A (zh) 一种基于tsdf三维重建的机械臂六自由度视觉闭环抓取方法
CN113011526A (zh) 基于强化学习和无监督学习的机器人技能学习方法及系统
Assaf et al. Visual-tactile sensory map calibration of a biomimetic whiskered robot
Ze et al. Generalizable humanoid manipulation with improved 3d diffusion policies
CN114367988A (zh) 一种煤矿自主巡检平台上的机械臂运动规划方法和装置
Di Gesù et al. A distributed architecture for autonomous navigation of robots
CN118081758A (zh) 一种杂乱场景下机器人自主拾取与放置位姿获取方法
CN117150881A (zh) 仿生机器鱼导航任务的强化学习训练回路方法及装置
WO2023286138A1 (ja) ロボット制御システム、ロボットシステム、ロボット制御方法、およびロボット制御プログラム
Wang et al. Self-Supervised Learning of Dynamic Planar Manipulation of Free-End Cables
TWI801775B (zh) 機械手臂的自動控制方法以及自動控制系統

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant