CN117794704A - 机器人控制设备、机器人控制系统以及机器人控制方法 - Google Patents

机器人控制设备、机器人控制系统以及机器人控制方法 Download PDF

Info

Publication number
CN117794704A
CN117794704A CN202280053850.0A CN202280053850A CN117794704A CN 117794704 A CN117794704 A CN 117794704A CN 202280053850 A CN202280053850 A CN 202280053850A CN 117794704 A CN117794704 A CN 117794704A
Authority
CN
China
Prior art keywords
robot
controller
calibration
spatial information
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280053850.0A
Other languages
English (en)
Inventor
费德利亚·格拉西亚
森雅人
内竹真洋
石田敬之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of CN117794704A publication Critical patent/CN117794704A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/19Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by positioning or contouring control systems, e.g. to control position from one programmed point to another or to control movement along a programmed continuous path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/404Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for compensation, e.g. for backlash, overshoot, tool offset, tool wear, temperature, machine construction errors, load, inertia
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones

Abstract

机器人控制设备包括控制器。控制器获取用于拍摄机器人的操作空间的图像的空间信息获取单元的实际视野大小以及由空间信息获取单元获取的空间信息,基于实际视野大小和空间信息来设置预定的第一位置,以及基于第一位置和实际视野大小来生成机器人的校准位置。

Description

机器人控制设备、机器人控制系统以及机器人控制方法
本申请要求于2021年8月4日提交的日本专利申请No.2021-128475的优先权,其内容以全文引用的方式并入本文中。
技术领域
本公开涉及机器人控制设备、机器人控制系统以及机器人控制方法。
背景技术
在已知的设备中,基于图像坐标系预先设置校准范围(例如,参见专利文献1)。
引文列表
专利文献
专利文献1:公开号为2018-111166的日本未审专利申请
发明内容
根据本公开的实施例,机器人控制设备包括被配置为控制机器人的控制器。控制器获取被配置为拍摄机器人的操作空间的图像的空间信息获取单元的实际视野大小以及由空间信息获取单元获取的空间信息。控制器基于实际视野大小和空间信息来设置预定的第一位置。控制器基于第一位置和实际视野大小来生成机器人的校准位置。
根据本公开的实施例,机器人控制系统包括上述机器人控制设备、机器人和空间信息获取单元。
根据本公开的实施例,机器人控制方法包括:由被配置为控制机器人的控制器,获取被配置为拍摄机器人的操作空间的图像的空间信息获取单元的实际视野大小以及由空间信息获取单元拍摄的图像。该机器人控制方法包括:由该控制器,基于空间信息获取单元的实际视野大小以及由空间信息获取单元拍摄的图像来设置预定的第一位置。该机器人控制方法包括:由该控制器,基于第一位置和空间信息获取单元的实际视野大小来生成机器人的校准位置。
附图说明
图1是示出了根据实施例的机器人控制系统的配置示例的框图。
图2是示出了根据实施例的机器人控制系统的配置示例的示意图。
图3是示出了空间信息获取单元的视野(Field Of View,FOV)的示例的示意图。
图4是示出了候选位置的示例的示意图。
图5是示出了根据实施例的机器人控制方法的顺序的示例的流程图。
具体实施方式
需要进行诸如视觉识别之类的费力工作来设置校准范围,同时避开机器人的操作范围内机器人不能操作的区域。需要更简单的校准范围的设置。可以通过根据本公开实施例的机器人控制设备、机器人控制系统和机器人控制方法来简单地设置校准范围。
(机器人控制系统1的概要)
根据本实施例,如图1和图2所示,机器人控制系统1包括机器人40、机器人控制设备10和空间信息获取单元20。机器人40在预定的操作空间中操作。空间信息获取单元20生成机器人40进行操作的操作空间的深度信息。如稍后所述,空间信息获取单元20计算到位于操作空间中存在的物体50的表面上的测量点的距离。从空间信息获取单元20到测量点的距离也称为“深度”。深度信息指示针对每个测量点测量的深度。换句话说,深度信息指示到位于操作空间中存在的物体50的表面上的测量点的距离。深度信息可以被表达为深度图,其中从空间信息获取单元20观察的方向和该方向上的深度彼此关联。空间信息获取单元20基于(X,Y,Z)坐标系生成操作空间的深度信息。机器人控制设备10根据由空间信息获取单元20生成的深度信息来使机器人40操作。机器人控制设备10基于(X_RB,Y_RB,Z_RB)坐标系使机器人40操作。
(X_RB,Y_RB,Z_RB)坐标系可以被设置为与(X,Y,Z)坐标系相同或不同的坐标系。当(X_RB,Y_RB,Z_RB)坐标系被设置为与(X,Y,Z)坐标系不同的坐标系时,机器人控制设备10将基于(X,Y,Z)坐标系生成的深度信息变换到(X_RB,Y_RB,Z_RB)坐标系之后进行使用。
机器人40以及机器人控制设备10的数量不限于示出的示例那样的1个,也可以是2个或更多个。空间信息获取单元20的数量可以如示出的示例那样针对每个操作空间为1个,也可以是2个或更多个。下面将详细描述各个组件。
<机器人控制设备10>
机器人控制设备10包括控制器11和存储设备12。
控制器11可以包括至少一个处理器以实现机器人控制设备10的各种功能。处理器能够执行用于实现机器人控制设备10的各种功能的程序。处理器可以被实现为单个集成电路。集成电路也称为“IC”。处理器可以被实现为被连接以能够彼此通信的多个集成电路和分立电路。处理器可以包括CPU(中央处理单元)。处理器可以包括DSP(数字信号处理器)或GPU(图形处理单元)。处理器可以基于其他各种已知技术来实现。
存储设备12可以包括诸如磁盘的电磁存储介质、或者诸如半导体存储器或磁存储器的存储器。存储设备12可以被构造为HDD(硬盘驱动器)或SSD(固态驱动器)。存储设备12存储各种类型的信息、在控制器11中执行的程序等。存储设备12可以用作控制器11的工作存储器。控制器11可以包括存储设备12的至少一部分。
机器人控制设备10还可以包括能够与空间信息获取单元20以及机器人40进行有线或无线通信的通信设备。通信设备可以被构造为能够根据基于各种通信标准的通信方法中合适的一种来执行通信。通信设备可以使用公知的通信技术来构成。省略对通信设备的硬件等的详细描述。通信设备的功能可以通过一个接口来实现,也可以通过针对每个连接目的地不同的单独的接口来实现。控制器11可以被构造为能够与空间信息获取单元20和机器人40进行通信。控制器11可以包括通信设备。
<机器人40>
如图2所示,机器人40包括臂42、安装到臂42的末端执行器44、以及附接到末端执行器44的标记46。标记46可以附接到臂42而不是末端执行器44。
臂42可以被构造为6轴或7轴竖直多关节机器人。臂42可以是3轴或4轴水平多关节机器人或标量机器人。臂42可以是2轴或3轴正交机器人。臂42可以是并联连杆机器人等。构成臂42的轴的数量不限于上述作为示例的数量。
末端执行器44可以包括例如能够把持作业对象的握持手。握持手可以具有多个手指。握持手的手指的数量可以是两个或更多个。握持手的每个手指可以包括一个或多个关节。末端执行器44可以包括能够吸引作业对象的吸引手。末端执行器44可以包括能够铲起作业对象的铲带。末端执行器44可以包括工具,诸如钻头,从而能够执行各种类型的作业,诸如钻孔以在作业对象中形成孔。末端执行器44不限于上述示例,并且可以被构造为能够执行其他各种操作。
机器人40可以通过操作臂42来控制末端执行器44的位置。末端执行器44可以具有作为对作业对象的作用方向的基准的轴。当末端执行器44具有轴时,机器人40可以通过操作臂42来控制末端执行器44的轴的方向。机器人40控制末端执行器44作用于作业对象的动作的开始和结束。机器人40通过控制末端执行器44的操作,同时控制末端执行器44的位置或末端执行器44的轴的方向,能够使作业对象移动或者对作业对象进行作业。
机器人40还可以包括用于检测机器人40的部件的状态的传感器。传感器可以检测关于机器人40的部件的实际位置或姿势或者机器人40的部件的速度或加速度的信息。传感器可以检测作用在机器人40的部件上的力。传感器可以检测在用于驱动机器人40的部件的电机中流动的电流或者电机的扭矩。传感器可以检测作为机器人40的实际操作的结果而提供的信息。机器人控制设备10通过获取传感器的检测结果,能够掌握机器人40的实际操作的结果。也就说是,机器人控制设备10可以基于传感器的检测结果来获取机器人40的状态。
机器人控制设备10基于由空间信息获取单元20拍摄的标记46的图像来识别标记46的位置或者附接有标记46的末端执行器44的位置。机器人控制设备10还基于由空间信息获取单元20拍摄的标记46的图像来识别机器人40的状态。机器人控制设备10可以通过比较基于传感器的检测结果获取的机器人40的状态和基于标记46的拍摄图像获取的机器人40的状态来执行机器人40的校准。
<空间信息获取单元20>
空间信息获取单元20获取关于机器人40的操作空间的空间信息。空间信息获取单元20可以拍摄操作空间的图像,并且可以获取操作空间的图像作为空间信息。如图2所示,空间信息获取单元20可以拍摄操作空间中存在的物体50的图像。空间信息获取单元20可以被构造为相机。3D立体相机拍摄操作空间中存在的物体50的图像,计算到位于操作空间中存在的物体50的表面上的测量点的距离作为深度,并且生成深度信息。空间信息获取单元20可以被构造为3D立体相机。空间信息获取单元20可以被构造为LiDAR(光检测和测距)传感器。LiDAR传感器测量到位于操作空间中存在的物体50的表面上的测量点的距离,并且生成深度信息。换句话说,空间信息获取单元20可以获取操作空间的深度信息作为空间信息。空间信息获取单元20不限于上述示例,并且可以被构造为各种其他设备中的合适的一种。空间信息获取单元20可以获取各种其他类型的信息作为空间信息,而不限于操作空间的图像或深度信息。空间信息获取单元20可以包括图像拍摄元件。空间信息获取单元20还可以包括光学系统。空间信息获取单元20可以将操作空间的拍摄图像输出到机器人控制设备10。空间信息获取单元20可以生成机器人40的操作空间中的深度信息,并且可以将生成的深度信息输出到机器人控制设备10。空间信息获取单元20可以生成机器人40的操作空间中的点云信息,并且可以将生成的点云信息输出到机器人控制设备10。因此,空间信息获取单元20可以以点云数据的形式输出空间信息。换句话说,点云信息可以包括空间信息。点云信息表示位于操作空间中存在的物体50的表面上的一组单独的测量点,并且包括每个测量点的坐标信息或颜色信息。点云信息也可以说是使用多个点来表示测量空间中的物体50的数据。由于空间信息是点云数据的形式,因此与空间信息基于由空间信息获取单元20获取的初始数据的情况相比,可以使数据密度更小。
空间信息获取单元20具有例如在图3中示出为由两点划线表示的范围的视野(Field Of View,FOV)70。FOV 70对应于空间信息获取单元20的图像拍摄范围(视野角)。基于空间信息获取单元20的中心轴70A、进深方向上的视角71、以及宽度方向上的视角72来确定FOV 70。中心轴70A也可以被称为位于FOV 70(视野角)的中心处的点的集合。在图3中,FOV 70具有四棱锥形状。FOV 70的形状不限于四棱锥,并且可以具有各种其他形状中的合适的一种。FOV 70可以包括中心位置70C。中心位置70C位于中心轴70A上。中心位置70C可以位于机器人40的作业范围的中心。
空间信息获取单元20可以拍摄包括在FOV 70中的范围的图像。基于空间信息获取单元20的FOV 70和深度信息来确定空间信息获取单元20的实际视野大小。如下所述,机器人控制设备10可以基于空间信息获取单元20的实际视野大小以及由空间信息获取单元20拍摄的包括机器人40上的标记46在内的图像两者,获取机器人40上的标记46的位置和姿态。具体而言,机器人控制设备10通过根据预定算法对拍摄到的标记46的图像进行解析,能够基于该图像计算出标记46的位置以及姿势。预定算法可以包括例如数学公式、表格等和/或指定预定算术处理的程序。预定算法可以包括用于校正基于图像计算的结果的参数。
(机器人控制设备10的操作示例)
机器人控制设备10使机器人40操作而作用于操作空间中存在的诸如物体50的作业对象,或者使机器人40移动同时避开物体50。机器人控制设备10基于由空间信息获取单元20拍摄的物体50的图像,使机器人40操作从而作用于作业对象,或者使其移动同时避开物体50。
<校准>
机器人控制设备10的控制器11可以基于由空间信息获取单元20拍摄的图像中的标记46的位置和姿势来获取机器人40的状态,并且可以进一步获取机器人40与物体50之间的位置关系。另一方面,控制器11还通过机器人40上的传感器(诸如附接到臂42的编码器等)来获取机器人40的状态。基于传感器的检测的机器人40的状态比基于由空间信息获取单元20拍摄的图像的机器人40的状态更准确地表示机器人40的位置和姿势。因此,控制器11可以通过使基于由空间信息获取单元20拍摄的图像的机器人40的状态与基于机器人40上的传感器的检测的机器人40的状态一致,更高精度地在操作空间内控制机器人40。使基于由空间信息获取单元20拍摄的图像的机器人40的状态与由机器人40上的传感器检测到的机器人40的状态一致的操作也称为“校准”。更具体地,控制器11执行校准,使得空间信息获取单元20的(X,Y,Z)坐标系与机器人40的(X_RB,Y_RB,Z_RB)坐标系一致。控制器11可以估计空间信息获取单元20的坐标系与机器人40的坐标系之间的相对位置关系,并且可以基于估计的相对位置关系使空间信息获取单元20的坐标系与机器人40的坐标系一致。
控制器11可以通过将图3所示的FOV 70的至少一部分设置为校准范围来执行校准。在本实施例中,控制器11在图3所示的校准范围60内执行校准。校准范围60在图2中被表示为由两点划线指示的三维区域。校准范围60对应于执行机器人40的校准的范围。校准范围60可以包括机器人40的作业区域。校准范围60可以是机器人40的作业区域与FOV 70重叠的范围。
此外,控制器11通过将机器人40上的标记46移动到校准范围60内,从而在校准范围60内设置用于执行校准的点。用于执行校准的点也称为“校准位置”。控制器11将机器人40上的标记46移动到校准位置,并且指示空间信息获取单元20拍摄标记46的图像。控制器11基于标记46的拍摄图像来计算标记46的位置和姿势。控制器11校正基于图像计算出的标记46的位置和姿势,使得基于图像的标记46的位置和姿势与基于机器人40上的传感器的检测结果确定的标记46的位置和姿势一致。基于图像的标记46的位置和姿势的校正对应于校准。标记46的位置和姿势也称为“前端(tip)位置和姿势”。校准对应于前端位置和姿势的校正。校准位置对应于校正前端位置和姿势的位置。
更详细地,控制器11可以如下所述执行校准。控制器11生成用于将机器人40上的标记46移动到校准位置的机器人40的控制信息。控制器11根据控制信息来操作机器人40,并且将机器人40上的标记46移动到校准位置。控制器11从空间信息获取单元20获取标记46的拍摄图像。控制器11基于图像来计算标记46的位置和姿势。基于图像计算出的标记46的位置和姿势也称为“基于图像的前端位置和姿势”。控制器11计算基于机器人40上的传感器的检测结果确定的标记46的位置和姿势。基于传感器的检测结果计算出的标记46的位置和姿势也称为“基于传感器的前端位置和姿势”。控制器11将基于图像的前端位置和姿势与基于传感器的前端位置和姿势进行比较。控制器11校正基于图像的前端位置和姿势,使得基于图像的前端位置和姿势与基于传感器的前端位置和姿势一致。控制器11可以校正用于计算基于图像的前端位置和姿势的算法。控制器11可以校正包括在算法中的参数或者可以校正数学公式、表格或程序。当设置了多个校准位置时,控制器11将机器人40移动到每个校准位置,在每个校准位置处获取标记46的拍摄图像,并且校正基于图像的前端位置和姿势。
尽管在上述示例中,对标记46的位置和姿势执行校准,但是要执行校准的目标不限于标记46的位置和姿势。换句话说,控制器11可以预先存储标记46的位置和作为机器人40的要执行校准的一部分的校准对象的位置之间的位置关系,并且可以根据基于图像的标记46的位置和姿势来计算校准对象的位置和姿势。然后,可以通过将计算出的校准对象的位置和姿势与基于机器人40上的传感器的检测结果的校准对象的位置和姿势进行比较来执行校准。因此,还可以对标记46的位置和姿势以外的目标执行校准。另外,在上述示例中,校准对象是机器人40的前端位置和姿势,校准对象不限于机器人40的前端位置和姿势,只要能够计算对象的位置和姿势即可。
《校准项目的生成》
控制器11在执行校准之前预先设置校准范围60。此外,控制器11设置包括在校准范围60中的校准位置。控制器11将校准位置设置在校准范围60内。
控制器11生成用于使机器人40移动到在校准位置中指定的前端位置和姿势的机器人40的控制信息。控制器11生成指定当机器人40移动到校准位置时的前端位置和姿势以及机器人40上的标记46的识别结果的信息,作为校准项目。校准项目各自是关于例如坐标的信息。更具体地,校准项目例如是指示基于当机器人40移动到校准位置时的机器人40上的传感器的检测结果的前端位置和姿势的坐标信息,或者指示基于由空间信息获取单元20识别出的标记46的识别结果的前端位置和姿势的坐标信息。
控制器11执行校准,使得根据标记46的识别结果导出的前端位置和姿势的校准项目与根据机器人40上的传感器的检测结果导出的前端位置和姿势的校准项目一致。更详细地,控制器11将机器人40移动到校准位置。控制器11从空间信息获取单元20获取当机器人40已经移动到校准位置时的机器人40上的标记46的识别结果。控制器11计算作为标记46的识别结果而获取的前端位置和姿势的校准项目相对于基于机器人40的传感器的前端位置和姿势的校准项目的相对位置关系。相对位置关系对应于两个校准项目之间的坐标和角度的差异。控制器11校正空间信息获取单元20的坐标系,使其与机器人40的坐标系一致,从而使得与两个校准项目之间的相对位置关系相对应的坐标误差和角度误差为零或接近于零(即,误差变得小于预定值)。因此,可以通过使当机器人40移动到校准位置时的标记46的识别结果与由机器人40上的传感器指定的前端位置和姿势一致,来计算相对位置关系。备选地,控制器11可以使由机器人40上的传感器指定的前端位置和姿势与作为标记46的识别结果而识别的前端位置和姿势一致。
控制器11可以通过生成一个或多个校准项目来设置校准位置。反过来说,校准位置对应于为了生成校准项目而使机器人40移动到的位置。通过将校准项目应用于机器人40的控制,控制器11可以将机器人40移动到校准位置并且可以执行校准。
控制器11可以如下所述生成校准位置。
控制器11从空间信息获取单元20获取关于空间信息获取单元20的实际视野大小的信息或者关于FOV 70的信息。控制器11基于空间信息获取单元20的实际视野大小或FOV70以及机器人40的作业区域,来设置校准范围60。控制器11可以基于物体50在机器人40的操作空间中的位置来设置校准范围60。控制器11可以基于由空间信息获取单元20检测到的物体50的深度信息或点云信息来设置校准范围60。在图3中,校准范围60的形状被设置为四棱台。校准范围60的形状不限于四棱台,并且可以被设置为各种其他形状中的合适的一种。校准范围60可以通过以下项来指定:与沿空间信息获取单元20的中心轴70A的方向上的长度相对应的高度(H)、与四棱台的底表面的进深方向上的长度相对应的深度(D)、以及与底表面的宽度方向上的长度相对应的宽度(W)。
这里,假设进深方向上的视角71由u[rad]表示。假设宽度方向上的视角72由v[rad]表示。假设从空间信息获取单元20到中心位置70C的距离由h表示。在这种情况下,W和D可以根据以下公式计算。
W=2×h×tan(u/2)
D=2×h×tan(v/2)
H可以根据机器人40的操作空间来适当确定。H可以基于例如物体50的高度来确定。
控制器11将机器人40移动到第一位置。第一位置设置在中心轴70A上。在示例中,第一位置可以是预先设置的。在本实施例中,假设第一位置被设置为例如中心位置70C。控制器11生成用于操作机器人40的控制信息,该操作使得在第一位置中基于机器人40上的标记46的图像的标记46的位置和姿势成为预定的前端位置和姿势。控制器11根据控制信息控制机器人40,并且将机器人40移动到第一位置。第一位置可以是图3中所示的FOV 70的中心位置70C。控制器11获取当机器人40已经移动到第一位置时的标记46的图像,并且计算标记46的位置和姿势作为基于图像的前端位置和姿势。此外,控制器11计算基于传感器的前端位置和姿势。以第一位置中的基于图像的前端位置和姿势以及基于传感器的前端位置和姿势为基准,控制器11在校准范围60中生成作为校准位置候选的位置。
控制器11在校准范围60中生成作为校准位置候选的位置。在示例中,如图4所示,控制器11在校准范围60内生成第一候选位置(P1)至第九候选位置(P9)。候选位置的数量不限于9个,并且可以是8个以下或者10个以上。第一候选位置(P1)被设置为与第一位置一致。诸如P1至P9的候选位置也统称为“第二位置”。第二位置(候选位置)的数量可以根据校准范围60的W方向、D方向和H方向中的每个方向上的网格间隔的数量来确定。网格间隔的数量表示校准范围60在关注方向上被划分为多少个部分。在图4的示例中,W方向上的网格间隔的数量(GW)设置为2。D方向上的网格间隔的数量(GD)设置为2。H方向上的网格间隔的数量(GH)设置为1。在图4的示例中,在表示校准范围60的四棱台的底表面中,将不仅包括将W方向和D方向上的边分别分成两部分的点(边的中点)而且包括底表面的拐角部在内的九个点(P1至P9)设置为第二位置(候选位置)。P1设置为与中心位置70C相同的点。以P1的坐标为基准确定P2至P9的坐标。当P1的坐标由(P1X,P1Y,P1Z)表示时,P2的坐标由(P1X-W/GW,P1Y-D/GD,P1Z)表示。P3的坐标由(P1X,P1Y-D/GD,P1Z)表示。P4的坐标由(P1X+W/GW,P1Y-D/GD,P1Z)表示。P5的坐标由(P1X-W/GW,P1Y,P1Z)表示。P6的坐标由(P1X+W/GW,P1Y,P1Z)表示。P7的坐标由(P1X-W/GW,P1Y+D/GD,P1Z)表示。P8的坐标由(P1X,P1Y+D/GD,P1Z)表示。P9的坐标由(P1X+W/GW,P1Y+D/GD,P1Z)表示。此外,在表示校准范围60的四棱台的上表面中,将不仅包括W方向和D方向上的边被分成两部分的点(边的中点)而且包括上表面的拐角部在内的九个点设置为第二位置(候选位置)。
通过模拟机器人40的操作,控制器11估计当机器人40已经移动到每个第二位置(候选位置)时的机器人40的状态。换句话说,控制器11计算假设机器人40移动到每个第二位置(每个候选位置)时的机器人40的状态。然后,控制器11对于每个第二位置确定是否可以在关注的第二位置处进行机器人40的校准。
如果假设移动到第二位置(候选位置)时的机器人40的状态是不与物体50接触的状态、关节可动范围内的状态、以及不处于奇点(singularity)的状态,则控制器11确定可以执行机器人40的校准并且将第二位置(候选位置)登记为校准位置。当控制器11将第二位置(候选位置)登记为校准位置时,控制器11生成指定当机器人40移动到第二位置(候选位置)时的前端位置和姿势以及机器人40上的标记46的识别结果的信息,作为校准项目。控制器11可以针对所有的第二位置(候选位置)共同确定它们是否被登记为校准位置。控制器11可以针对每个第二位置(候选位置)确定关注的第二位置是否被登记为校准位置。当表示机器人40的关节角度的数值在关节可动范围内时,控制器11可以确定机器人40处于不受关节限制的状态。当表示机器人40的关节角度的数值在关节可动范围之外时,控制器11可以确定机器人40处于受到关节限制的状态。
奇点对应于从机器人40的结构角度不再能够控制机器人40的姿势。当机器人40待操作的路径包括奇点时,机器人40在奇点附近高速移动(失控),然后在奇点处停止。机器人40具有如下三种类型(1)至(3)的奇点:
(1)当控制机器人40移动到作业区域的外侧边界附近的位置时,作业区域外的点。(作业区域对应于机器人40的操作空间)。
(2)即使位于作业区域内,但机器人40被控制为朝向机器人基座的正上方或正下方的位置的点。
(3)机器人40的臂42的最前关节的下一个关节的角度为零或180度的点(手腕对齐奇点)。
当表示机器人40的状态的数值与表示处于奇点的状态的数值一致时,控制器11可以确定机器人40处于奇点状态。当表示机器人40的状态的数值与表示处于奇点的状态的数值之间的差小于预定值时,控制器11可以确定机器人40处于奇点状态。表示机器人40的状态的数值可以包括例如臂42的关节角度或用于驱动机器人40的电机的扭矩。
如上所述,控制器11设置校准范围60,并且在校准范围60内设置校准位置。控制器11可以生成校准项目,作为指定当机器人40移动到校准位置时的机器人40的前端位置和姿势以及机器人40上的标记46的识别结果的信息。
(机器人控制方法的步骤示例)
机器人控制设备10的控制器11可以执行包括图5所示的流程图的过程的机器人控制方法。机器人控制方法可以被实现为由构成控制器11的处理器执行的机器人控制程序。机器人控制程序可以存储在非暂时性计算机可读介质中。
控制器11获取关于空间信息获取单元20的实际视野大小或FOV 70的信息(步骤S1)。控制器11获取机器人40上的标记46的拍摄图像的空间信息(步骤S2)。控制器11使机器人40移动到第一位置(步骤S3)。
控制器11计算所有的候选位置(步骤S4)。在假设机器人40已经顺序移动到在步骤S4的过程中计算出的每个位置的机器人40的状态下,控制器11确定机器人40在关注位置处是否与机器人40的操作空间中的物体50接触(步骤S5)。如果在假设机器人40已经顺序移动到在步骤S4的过程中计算出的每个位置时机器人40在关注位置处与物体50接触(步骤S5:是),则控制器11进入步骤S9的过程。如果在假设机器人40已经顺序移动到在步骤S4的过程中计算出的每个位置时机器人40在关注位置处没有与物体50接触(步骤S5:否),则在假设机器人40已经移动到在步骤S4的过程中计算出的每个位置的机器人40的状态下,控制器11确定机器人40在关注位置处是否进入机器人40的关节可动范围之外的状态(步骤S6)。如果在假设机器人40已经顺序移动到在步骤S4的过程中计算出的每个位置时机器人40在关注位置处进入机器人40的关节可动范围之外的状态(步骤S6:是),则控制器11进入步骤S9的过程。如果在假设机器人40已经顺序移动到在步骤S4的过程中计算出的每个位置时机器人40在关注位置处没有进入机器人40的关节可动范围之外的状态(步骤S6:否),则在假设机器人40已经移动到在步骤S4的过程中计算出的每个位置的机器人40的状态下,控制器11确定机器人40在关注位置处是否进入奇点状态(步骤S7)。如果在假设机器人40已经顺序移动到在步骤S4的过程中计算出的每个位置时机器人40在关注位置处进入奇点状态(步骤S7:是),则控制器11进入步骤S9的过程。如果在假设机器人40已经顺序移动到在步骤S5的过程中计算出的每个位置时机器人40在关注位置处没有进入奇点状态(步骤S7:否),则控制器11可以确定,即使当机器人40移动到在步骤S5的过程中计算出的相关的每个位置时,机器人40也没有与物体50接触,没有超出关节可动范围,并且不进入奇点状态。控制器11生成指定当机器人40已经移动到在步骤S4的过程中计算出的相关的每个位置时的前端位置和姿势以及机器人40上的标记46的识别结果的信息,作为校准位置(步骤S8)。在步骤S8的过程结束之后,控制器11结束图5所示的流程图的过程的执行。如果在假设机器人40已经顺序移动到在步骤S5的过程中计算出的每个位置时发生以下情况中的至少一种,即:机器人40与物体50接触的情况(步骤S5:是);机器人40处于关节可动范围之外的状态的情况(步骤S6:是):以及机器人40进入奇点状态的情况(步骤S7:是),则控制器11不将在步骤S4的过程中计算出的相关的每个位置登记为校准位置(步骤S9)。在步骤S9的过程结束之后,控制器11结束图5所示的流程图的过程的执行。
对于在步骤S4的过程中计算出的所有位置,控制器11可以共同确定是否所有这些位置都被登记为校准位置。对于在步骤S5的过程中计算出的所有位置,控制器11可以针对每个位置确定关注位置是否被登记为校准位置。
(概括)
如上所述,利用根据本实施例的机器人控制设备10和机器人控制方法,基于空间信息(诸如由空间信息获取单元20拍摄的图像)来生成校准位置。因此,无需操作者的任何目视工作就可以生成校准位置。换句话说,可以自动生成校准位置。校准范围60是包括校准位置的范围。由此,可以简单地设置校准范围60。
利用根据实施例的机器人控制设备10和机器人控制方法,基于空间信息获取单元20的实际视野大小或FOV 70来执行模拟。可以通过模拟生成校准位置,同时避免与障碍物(诸如机器人40的操作空间中的物体50)碰撞。此外,可以通过模拟以不使机器人40进入超出关节可动范围的状态的方式来生成校准位置。此外,可以通过模拟以不使机器人40进入奇点状态的方式来生成校准位置。因此,可以在不实际移动机器人40的情况下生成校准位置。由此,可以高效地生成校准位置。
尽管已经参照附图和示例描述了根据本公开的实施例,但是应当注意的是,本领域技术人员可以基于本公开对实施例进行各种变化或改变。因此,应当注意的是,这些变化或改变也落入本公开的范围内。例如,只要不存在理论上的矛盾,各部件所包含的功能等可以以将多个部件合并为一个或者将任一部件分割为多个部分的方式重新排列。
除了要组合的特征彼此互斥的情况之外,本公开中描述的所有配置要件和/或本文中公开的所有方法或所有处理步骤可以以可选组合来实现。此外,除非明确否认,本公开中描述的各种特征可以用对于相同目的、等同目的或相似目的有效的替代特征来替代。因此,除非明确否认,本文公开的各种特征仅是一系列相同或等同的综合特征的示例。
另外,根据本公开的实施例不限于上述实施例的任何具体配置。根据本公开的实施例可以扩展到本公开中描述的所有新颖特征或其组合,或者扩展到本公开中描述的所有新颖方法或处理步骤或其组合。
附图标记
1 机器人控制系统
10 机器人控制设备(11:控制器,12:存储设备)
20 空间信息获取单元
40 机器人(42:臂,44:末端执行器,46:标记)
50 物体
60 校准范围
70 FOV(70A:中心轴,70C:中心位置,71:进深方向视角,72:宽度方向视角)。

Claims (5)

1.一种机器人控制设备,包括被配置为控制机器人的控制器,
其中,所述控制器:
获取被配置为拍摄所述机器人的操作空间的图像的空间信息获取单元的实际视野大小以及由所述空间信息获取单元获取的空间信息;
基于所述实际视野大小和所述空间信息来设置预定的第一位置;以及
基于所述第一位置和所述实际视野大小来生成所述机器人的校准位置。
2.根据权利要求1所述的机器人控制设备,
其中,所述控制器:
计算假设所述机器人移动到所述校准位置时的所述机器人的状态;以及
确定是否能够执行所述机器人的校准。
3.根据权利要求1或2所述的机器人控制设备,
其中,所述控制器:
还基于所述空间信息获取单元的所述实际视野大小以及由所述空间信息获取单元获取的所述空间信息,计算所述操作空间中存在的物体的位置;以及
当所述机器人处于不与所述操作空间中存在的物体接触的状态、处于不位于关节可动范围外侧的状态、以及处于非奇点的状态时,将所述机器人移动到所述校准位置。
4.一种机器人控制系统,包括:
根据权利要求1至3中任一项所述的机器人控制设备,
所述机器人,以及
所述空间信息获取单元。
5.一种机器人控制方法,包括:
由被配置为控制机器人的控制器,获取被配置为拍摄所述机器人的操作空间的图像的空间信息获取单元的实际视野大小以及由所述空间信息获取单元拍摄的图像;
由所述控制器,基于所述空间信息获取单元的所述实际视野大小以及由所述空间信息获取单元拍摄的所述图像来设置预定的第一位置;以及
由所述控制器,基于所述第一位置和所述空间信息获取单元的所述实际视野大小来生成所述机器人的校准位置。
CN202280053850.0A 2021-08-04 2022-08-04 机器人控制设备、机器人控制系统以及机器人控制方法 Pending CN117794704A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021128475 2021-08-04
JP2021-128475 2021-08-04
PCT/JP2022/030011 WO2023013740A1 (ja) 2021-08-04 2022-08-04 ロボット制御装置、ロボット制御システム、及びロボット制御方法

Publications (1)

Publication Number Publication Date
CN117794704A true CN117794704A (zh) 2024-03-29

Family

ID=85155783

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280053850.0A Pending CN117794704A (zh) 2021-08-04 2022-08-04 机器人控制设备、机器人控制系统以及机器人控制方法

Country Status (3)

Country Link
JP (1) JPWO2023013740A1 (zh)
CN (1) CN117794704A (zh)
WO (1) WO2023013740A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7423851B1 (ja) 2023-10-31 2024-01-29 株式会社ダイヘン 端末装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106029308B (zh) * 2014-02-28 2019-10-29 索尼公司 机械臂设备、校准方法以及计算机可读存储介质
EP3436876B1 (en) * 2016-03-29 2021-07-07 Cognibotics AB Method, constraining device and system for determining geometric properties of a manipulator
JP6396516B2 (ja) 2017-01-12 2018-09-26 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6490112B2 (ja) * 2017-01-17 2019-03-27 ファナック株式会社 ロボット制御装置
CN111195915B (zh) * 2020-01-20 2022-07-15 深圳市鑫君特智能医疗器械有限公司 一种基于遗传算法的机械臂绝对定位精度标定方法及系统

Also Published As

Publication number Publication date
WO2023013740A1 (ja) 2023-02-09
JPWO2023013740A1 (zh) 2023-02-09

Similar Documents

Publication Publication Date Title
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP6180087B2 (ja) 情報処理装置及び情報処理方法
EP2636493B1 (en) Information processing apparatus and information processing method
JP5778311B1 (ja) ピッキング装置およびピッキング方法
US8244402B2 (en) Visual perception system and method for a humanoid robot
US9415511B2 (en) Apparatus and method for picking up article randomly piled using robot
US9457470B2 (en) Robot system and method for calibration
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2016099257A (ja) 情報処理装置及び情報処理方法
US9352467B2 (en) Robot programming apparatus for creating robot program for capturing image of workpiece
US20080249659A1 (en) Method and system for establishing no-entry zone for robot
WO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
EP3411194A1 (en) Robot system calibration
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP6328796B2 (ja) マニプレータ制御方法、システム、およびマニプレータ
JP2008168372A (ja) ロボット装置及び形状認識方法
US20230173660A1 (en) Robot teaching by demonstration with visual servoing
CN117794704A (zh) 机器人控制设备、机器人控制系统以及机器人控制方法
US20220168902A1 (en) Method And Control Arrangement For Determining A Relation Between A Robot Coordinate System And A Movable Apparatus Coordinate System
KR101820241B1 (ko) 그리퍼를 이용한 물체의 움직임 추정 장치 및 그 방법
JP7112528B2 (ja) 作業座標作成装置
CN117769483A (zh) 机器人控制设备、机器人控制系统以及机器人控制方法
CN116390834A (zh) 机器人系统
WO2023013698A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination