CN112297004A - 对机器人的位置进行控制的机器人装置的控制装置 - Google Patents
对机器人的位置进行控制的机器人装置的控制装置 Download PDFInfo
- Publication number
- CN112297004A CN112297004A CN202010745050.8A CN202010745050A CN112297004A CN 112297004 A CN112297004 A CN 112297004A CN 202010745050 A CN202010745050 A CN 202010745050A CN 112297004 A CN112297004 A CN 112297004A
- Authority
- CN
- China
- Prior art keywords
- robot
- workpiece
- amount
- feature
- relative position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 20
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 description 16
- 210000000078 claw Anatomy 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000003466 welding Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39391—Visual servoing, track end effector with camera image feedback
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39393—Camera detects projected image, compare with reference image, position end effector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39395—Expectation based visual servoing, use of model
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39397—Map image error directly to robot movement, position with relation to world, base not needed, image based visual servoing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40033—Assembly, microassembly
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40555—Orientation and distance
Abstract
本发明提供一种对机器人的位置进行控制的机器人装置的控制装置。预先决定第一工件的第一特征部位和第二工件的第二特征部位。特征量检测部在由摄像机拍摄到的图像中检测与第一特征部位的位置有关的第一特征量以及与第二特征部位的位置有关的第二特征量。计算部计算第一特征量与第二特征量之差来作为相对位置量。指令生成部基于由摄像机拍摄到的图像中的相对位置量和预先决定的基准图像中的相对位置量,来生成用于使机器人进行动作的移动指令。
Description
技术区域
本发明涉及一种对机器人的位置进行控制的机器人装置的控制装置。
背景技术
在具备机器人的机器人装置中,能够通过将与作业相应的作业工具安装于机器人来进行期望的作业。例如,通过将用于把持工件的手作为作业工具安装于机器人,由此机器人装置能够将工件搬送到期望的位置。
在由机器人装置搬送工件时,能够通过控制工件的位置和姿势,来将机器人装置所把持的工件安装到其它工件上、或者配置到其它工件的内部。在进行这种作业的情况下,优选的是将机器人装置所把持的工件与其它工件严格地进行位置对准。例如,在进行将一个工件嵌合到其它工件的作业的情况下,存在当一个工件的位置和姿势偏离其它工件的位置和姿势时作业失败的情况。
在现有的技术中,已知的是,在进行将一个工件安装到其它工件的作业的情况下,使用由摄像机拍摄到的图像来进行对机器人的位置的控制。例如,能够预先准备一个工件或其它工件的目标图像。在由机器人装置搬送工件时,由摄像机对工件进行拍摄。而且,已知有通过将工件的图像与目标图像进行比较来调整机器人的位置的控制(例如,参照日本特开2013-180380号公报和日本特开2015-214022号公报)。
另外,已知如下控制:相对于机器人坐标系来预先校准视觉传感器坐标系,基于工件在视觉传感器坐标系中的位置来计算工件的三维位置。或者,能够预先生成与图像中的特征部位的位置及大小有关的雅可比矩阵。已知如下控制(例如,参照日本特开2017-170599号公报):基于由摄像机拍摄到的图像中的特征部位的位置、目标数据中的特征部位的位置以及雅可比矩阵,来修正机器人的位置。
发明内容
在使用雅可比矩阵以调整机器人的位置的方法中,能够通过将图像的特征部位的特征量之差与雅可比矩阵相乘,来计算机器人的移动量。然而,有时由于在计算雅可比矩阵时的测定误差等而无法高精度地计算雅可比矩阵。另外,雅可比矩阵是基于在以微小量移动机器人的位置时在视觉传感器坐标系中的位置偏移来计算的。因此,在特征部位的附近,能够高精度地驱动机器人,但是当远离特征部位时精度下降。例如,存在当使机器人以大的移动量移动时精度差这样的问题。其结果是,有时无法高精度地控制机器人的位置。
在对视觉传感器坐标系进行校准的方法中,能够基于二维摄像机的图像,来检测特征部位的三维位置。然而,在该方法中,需要相对于机器人坐标系来预先校准视觉传感器坐标系的位置。
本公开的一个方式是由机器人移动第二构件来调整第二构件相对于第一构件的相对位置的机器人装置的控制装置。控制装置具备对第一构件和第二构件进行拍摄的视觉传感器。控制装置具备:动作控制部,其向机器人发送用于驱动机器人的指令;以及图像处理部,其对由视觉传感器拍摄到的图像进行处理。预先决定用于检测第一构件的位置的第一特征部位和用于检测第二构件的位置的第二特征部位。图像处理部包括特征量检测部,该特征量检测部在由视觉传感器拍摄到的图像中,检测与第一特征部位的位置有关的第一特征量以及与第二特征部位的位置有关的第二特征量。图像处理部包括计算部,该计算部计算第一特征量与第二特征量之差来作为相对位置量。图像处理部包括生成用于使机器人进行动作的移动指令的指令生成部。决定基准图像中的相对位置量,该基准图像包含在第二构件相对于第一构件被配置在目标位置时的第一特征部位和第二特征部位的图像。指令生成部基于由视觉传感器拍摄到的图像中的相对位置量以及包含第一特征部位和第二特征部位的图像的基准图像中的相对位置量,来生成用于使机器人进行动作的移动指令以将第二构件相对于第一构件配置到目标位置。动作控制部基于移动指令来变更机器人的位置。
附图说明
图1是实施方式中的第一机器人装置的概要图。
图2是第一机器人装置中的第一工件、第二工件以及手的放大立体图。
图3是实施方式中的第一机器人装置的框图。
图4是实施方式中的第一机器人装置的第一控制的第一流程图。
图5是实施方式中的第一机器人装置的基准图像。
图6是实施方式中的第一机器人装置的第一控制的第二流程图。
图7是第二工件相对于第一工件的位置偏移时的图像。
图8是第二工件相对于第一工件的位置偏移时的其它图像。
图9是实施方式的第二机器人装置中的第一工件、第二工件以及手的放大立体图。
图10是在第二机器人装置中第二工件相对于第一工件的姿势偏移时的第一工件、第二工件以及手的放大立体图。
图11是在第二工件相对于第一工件的姿势偏移时由第一摄像机拍摄到的图像。
图12是在第二工件的姿势与第一工件的姿势匹配时由第二摄像机拍摄到的图像。
图13是在第二工件相对于第一工件的姿势偏移时由第二摄像机拍摄到的图像。
图14是第二机器人装置中的第三控制的流程图。
图15是实施方式的第三机器人装置中的第一工件、第二工件以及手的放大立体图。
图16是实施方式的第四机器人装置中的第一工件、第二工件以及手的放大立体图。
图17是实施方式中的第五机器人装置的概要图。
图18是工件的位置与壳体的位置对准时的壳体、工件以及手的放大概要图。
图19是工件相对于壳体的位置偏移时的壳体、工件以及手的放大概要图。
图20是工件相对于壳体的位置偏移时的图像。
具体实施方式
参照图1至图20来说明实施方式中的机器人装置的控制装置。在本实施方式中,以进行组装产品的作业的机器人装置和向壳体的内部配置工件的机器人装置为例进行说明。
图1是本实施方式中的第一机器人装置的概要图。第一机器人装置5具备作为作业工具(末端执行器)的手2和使手2移动的机器人1。第一机器人装置5进行向作为第一构件的第一工件81安装作为第二构件的第二工件91的作业。
机器人1是包括多个关节部的多关节机器人。机器人1包括基座部14和支承于基座部14的旋转基座13。基座部14被固定在设置面上。旋转基座13形成为相对于基座部14进行旋转。机器人1包括上部臂11和下部臂12。下部臂12经由关节部以能够转动的方式支承于旋转基座13。上部臂11经由关节部以能够转动的方式支承于下部臂12。另外,上部臂11绕与上部臂11延伸的方向平行的旋转轴进行旋转。
机器人1包括与上部臂11的端部连结的手腕15。手腕15经由关节部以能够转动的方式支承于上部臂11。手腕15包括以能够旋转的方式形成的法兰16。手2被固定于法兰16。本实施方式的机器人1具有6个驱动轴,但是并不限于该方式。能够采用能够使作业工具移动的任意的机器人。
手2是把持或释放工件91的作业工具。手2具有多个爪部3。手2形成为爪部3进行打开或闭合。手2通过爪部3夹持工件91来对工件91进行把持。第一机器人装置5的手2具有爪部3,但是并不限于该方式。手能够采用形成为能够把持工件的任意的结构。例如,也可以采用通过吸附或磁力来把持工件的手。
本实施方式中的机器人装置5包括作为搬送机的输送带75,该输送带75相对于机器人1搬送第一工件81。搬送机配置在机器人1的附近。输送带75形成为将工件81搬送到预先决定的位置。输送带75形成为以预先决定的移动速度搬送工件81。
在本实施方式的第一机器人装置5中,一边由输送带75持续搬送工件81,一边由机器人1向工件81安装工件91。即,在进行安装工件91的作业的期间中,工件81通过输送带75而进行移动。机器人1一边为了跟随工件81而改变位置和姿势,一边向工件81安装工件91。
在图2中示出第一机器人装置中的第一工件、第二工件以及手的放大立体图。参照图1和图2,第二工件91具有从主体部的表面突出的把持部94。通过爪部3抓住把持部94,由此第二工件91被手2把持。
第一工件81具有从主体部的表面突出的突出部82、83。突出部82和突出部83彼此分离地配置。另外,工件81以突出部82和突出部83沿铅直方向排列的方式支承于输送带75。在各个突出部82、83的上表面形成有孔部82a、83a。第二工件91具有从主体部的表面突出的突出部92、93。在各个突出部92、93固定有销92a、93a。销92a和销93a以彼此呈直线状排列的方式配置。在由第一机器人装置5实施的第一控制中,实施将销92a插入孔部82a并且将销93a插入孔部83a的作业。
在本实施方式的第一控制中,进行使销92a、93a与孔部82a、83a的位置对准的控制。在实施第一控制之前,调整工件91相对于工件81的姿势。即,调整机器人1的姿势以将工件91的销92a和销93a配置于沿铅直方向延伸的直线上。因此,在第一控制中,能够通过实施将销92a配置在孔部82a的正上方的控制,来使销92a、93a与孔部82a、83a的位置对准。在实施本实施方式的第一控制之后,通过将工件91向箭头103所示的铅直方向的下侧移动,来将销92a、93a插入孔部82a、83a,从而将工件91安装于工件81。
机器人装置5具备拍摄第一工件81和第二工件91的图像的作为视觉传感器的摄像机25。本实施方式中的摄像机25为二维摄像机。摄像机25经由支承构件17被支承于手2。机器人装置5中的摄像机25的位置及姿势与手2的位置及姿势一起变化。
摄像机25拍摄第二工件91接近了第一工件81时的图像。摄像机25配置为拍摄第二工件91向第一工件81嵌合的部分的附近。另外,摄像机25配置为能够拍摄用于检测第一工件81的位置的第一特征部位和用于检测第二工件91的位置的第二特征部位。在机器人装置5中,摄像机25配置为从工件81和工件91的上方对工件81、91进行拍摄。
在机器人装置5中设定有基准坐标系51。在图1所示的例子中,将基准坐标系51的原点配置在机器人1的基座部14。基准坐标系51也被称为世界坐标系。基准坐标系51为原点的位置固定且坐标轴的朝向固定的坐标系。即使机器人1的位置和姿势改变,基准坐标系51的位置和朝向也不变。基准坐标系51具有相互正交的X轴、Y轴以及Z轴来作为坐标轴。另外,设定W轴作为绕X轴的坐标轴。设定P轴作为绕Y轴的坐标轴。设定R轴作为绕Z轴的坐标轴。
机器人1的位置和姿势能够通过基准坐标系51来表示。例如,机器人1的位置能够通过在手2的前端配置的工具前端点的位置来表示。另外,能够在工具前端点设定与手2一同移动的工具坐标系。机器人1的姿势能够通过工具坐标系相对于基准坐标系51的朝向来表示。
在图3中示出本实施方式中的机器人装置的框图。参照图1至图3,机器人1包括用于改变机器人1的位置和姿势的机器人驱动装置。机器人驱动装置包括对臂及手腕等结构构件进行驱动的机器人驱动电动机22。通过机器人驱动电动机22进行驱动,来改变各个结构构件的朝向。
手2具备对手2进行驱动的手驱动装置。手驱动装置包括对手2的爪部3进行驱动的手驱动电动机21。通过手驱动电动机21进行驱动来使手2的爪部3打开或闭合。此外,爪部也可以形成为利用气压而工作。在该情况下,手驱动装置能够包括利用气泵及气缸等的气压来驱动爪部的装置。
机器人装置5的控制装置29包括对机器人1和手2进行控制的机器人控制装置4。机器人控制装置4包括具有作为处理器的CPU(Central Processing Unit:中央处理单元)的运算处理装置(计算机)。运算处理装置具有经由总线来与CPU连接的RAM(Random AccessMemory:随机存取存储器)及ROM(Read Only Memory:只读存储器)等。对机器人控制装置4输入为了对机器人1、手2以及输送带75进行控制而预先制作出的动作程序41。机器人1和手2基于动作程序41来搬送工件91。输送带75基于动作程序41来搬送工件81。
机器人控制装置4的运算处理装置包括存储预先决定的信息的存储部42。存储部42存储与机器人1、手2以及输送带75的控制有关的信息。存储部42能够由易失性存储器、非易失性存储器或硬盘等能够存储信息的存储介质构成。动作程序41被存储于存储部42。机器人控制装置4包括显示与机器人装置5有关的任意的信息的显示器46。显示器46例如包括液晶显示面板。
运算处理装置包括发送机器人1和手2的动作指令的动作控制部43。动作控制部43相当于按照动作程序41驱动的处理器。动作控制部43形成为能够读取存储部42中存储的信息。处理器通过读入动作程序41并实施动作程序41中所确定的控制,来作为动作控制部43发挥功能。
动作控制部43基于动作程序41向机器人驱动部45发送用于驱动机器人1的动作指令。机器人驱动部45包括驱动机器人驱动电动机22的电路。机器人驱动部45基于动作指令来向机器人驱动电动机22供给电力。另外,动作控制部43基于动作程序41向手驱动部44发送用于驱动手2的动作指令。手驱动部44包括驱动手驱动电动机21的电路。手驱动部44基于动作指令来向手驱动电动机21供给电力。并且,在本实施方式的机器人控制装置4上连接有摄像机25。动作控制部43基于动作程序41向摄像机25发送用于拍摄图像的指令。
机器人控制装置4的运算处理装置包括对由摄像机25拍摄到的图像进行处理的图像处理部31。图像处理部31具有检测各个工件81、91中预先决定的特征部分即特征部位的特征量的特征量检测部32。图像处理部31具有计算第一工件81的特征量与第二工件91的特征量之差来作为相对量的计算部33。图像处理部31具有基于由计算部33计算出的相对量来生成用于使机器人1进行动作的移动指令的指令生成部34。
图像处理部31相当于按照动作程序41驱动的处理器。特别地,特征量检测部32、计算部33以及指令生成部34各单元相当于按照动作程序41驱动的处理器。处理器通过读入动作程序41并实施动作程序41中所确定的控制,来作为各单元发挥功能。
机器人装置5具备检测机器人装置5的运转状态的状态检测器。本实施方式的状态检测器包括检测机器人1的位置和姿势的位置检测器23。位置检测器23安装于与臂等结构构件的驱动轴对应的机器人驱动电动机22。例如,位置检测器23检测机器人驱动电动机22驱动时的旋转角。基于位置检测器23的输出,来检测机器人1的位置和姿势。
机器人装置5的控制装置29具备对输送带75的动作进行控制的输送带控制装置76。输送带控制装置76包括具有CPU及RAM等的运算处理装置(计算机)。输送带控制装置76形成为能够与机器人控制装置4相互通信。动作控制部43基于动作程序41向输送带控制装置76发送驱动输送带75的动作指令。输送带控制装置76接收来自机器人控制装置4的动作指令,来驱动输送带75。
本实施方式的机器人装置5的控制装置29具备对机器人1和手2进行控制的机器人控制装置4以及对输送带75进行控制的输送带控制装置76,但并不限于该方式。机器人装置5也可以形成为通过一个控制装置来控制机器人1、手2以及输送带75。
并且,在本实施方式的机器人装置5的控制装置29中,机器人控制装置4包括具有对图像进行处理的功能的图像处理部31,但并不限于该方式。机器人装置的控制装置也可以具备具有图像处理部31的图像处理装置(计算机)。图像处理装置能够由具有作为处理器的CPU的运算处理装置构成。图像处理装置的处理器作为基于动作程序来驱动的特征量检测部、计算部以及指令生成部来发挥功能。图像处理装置形成为能够与机器人控制装置相互通信。
在图4中示出本实施方式中的第一控制的第一流程图。参照图1、图2以及图4,在第一控制中,使用由一个摄像机25拍摄到的图像,来使工件91与由输送带75搬送的工件81的位置对准。如上述那样,在第一控制之前,相对于工件81的姿势预先调整了工件91的姿势。即,调整了由摄像机25拍摄图像时的机器人1的姿势。在此处的控制中,进行使销92a与孔部82a的位置对准的控制。
在本实施方式中,在由机器人装置5实际进行作业之前,计算基准图像中的相对位置量。然后,由机器人装置5使用预先计算出的基准图像的相对位置量来进行作业。在第一流程图中示出计算基准图像中的相对位置量的控制。
在步骤111中,生成用于进行第一控制的基准图像。在图5中示出用于进行本实施方式的第一控制的基准图像。基准图像61相当于在第二工件91相对于第一工件81被配置在目标位置时由摄像机25拍摄到的图像。在本实施方式中,基准图像61是在将工件91的销92a、93a配置于工件81的孔部82a、83a的正上方时由摄像机25拍摄到的图像。基准图像61能够由作业者预先准备并存储于存储部42。
在本实施方式中,预先决定用于检测第一工件81的位置的第一特征部位。在第一控制中,将突出部82的上表面决定为第一特征部位。另外,预先决定用于检测第二工件91的位置的第二特征部位。在第一控制中,将突出部92的上表面决定为第二特征部位。特征部位是在对图像进行解析时能够检测出形状的部分。特征部位能够采用工件的一部分、在工件的表面形成的花纹、在工件的表面描绘的线或图等。另外,特征部位优选设定为第二工件91与第一工件81接触的部分的附近。
在本实施方式中,在第一工件81中作为第一特征部位的突出部82的上表面设定有设定点P1。设定点P1被设定于突出部82的角。设定点P1的位置相当于工件81的位置。在第二工件91中作为第二特征部位的突出部92的上表面配置有设定点P2。设定点P2被设定于突出部92的角。设定点P2相当于工件91的位置。设定点P1、P2设定于在由摄像机25拍摄时包含在图像中的区域。
参照图3、图4以及图5,在步骤112中,图像处理部31的特征量检测部32检测基准图像61的第一特征部位和第二特征部位。作为特征部位的检测方法,能够预先准备作为各个工件81、91的基准的基础图像。能够使用基础图像和由摄像机25拍摄到的图像并通过模板匹配等方法,来检测由摄像机25拍摄到的图像中的特征部位。此处的例子能够检测出突出部82的上表面和突出部92的上表面。
在步骤113中,特征量检测部32检测与第一特征部位的位置有关的第一特征量以及与第二特征部位的位置有关的第二特征量。在本实施方式中,在由摄像机25拍摄到的图像中设定有屏幕坐标系52。屏幕坐标系52是将图像中的任意的点设定为原点时的坐标系。屏幕坐标系52具有相互正交的u轴和v轴。屏幕坐标系52与摄像机25的视觉传感器坐标系对应。
本实施方式的与位置有关的特征量是图像中的屏幕坐标系52的u轴的坐标值和v轴的坐标值。特征量检测部32能够基于在基准图像61中检测出的特征部位,来检测在特征部位设定的设定点P1、P2的位置。特征量检测部32检测设定点P1在屏幕坐标系52上的坐标值(u1b,v1b)来作为第一特征量。另外,特征量检测部32检测设定点P2在屏幕坐标系52上的坐标值(u2b,v2b)来作为第二特征量。
接着,在步骤114中,图像处理部31的计算部33计算基准图像中的与第一特征量及第二特征量有关的相对量。计算部33计算相对位置量来作为相对量以对机器人1的位置进行控制。相对位置量为第一特征量与第二特征量之差。例如,计算部33计算第一特征量的坐标值与第二特征量的坐标值之差(u1b-u2b,v1b-v2b)来作为相对位置量。由计算部33计算出的基准图像61中的相对位置量作为基准相对位置量被存储于存储部42。
像这样,图像处理部31能够计算基准图像61中的相对位置量。此外,在本实施方式中,基准图像61中的相对位置量是预先计算的,存储于存储部42中,但是并不限于该方式。基准图像61中的相对位置量也可以是在每次实施第一控制时计算出的。
另外,基准图像61也可以不使用实际由摄像机25拍摄到的图像。例如,能够通过CAD(Computer Aided Design:计算机辅助设计)装置等来生成各个工件81、91的三维数据。能够生成将工件91相对于工件81配置在目标位置时的三维数据。也可以通过将该三维数据沿着与摄像机的朝向对应的方向投射到一个平面上,来生成基准图像61。
接着,机器人控制装置4实施如下控制:使第二工件91的销92a接近第一工件81的孔部82a以将第一特征部位和第二特征部位配置到摄像机25的摄像范围25a的内部。该控制能够通过任意的控制来实施。例如,机器人控制装置4通过规定的传感器来检测工件81在输送带75上的位置。机器人控制装置4基于输送带75的移动速度来检测工件81的位置。机器人控制装置4能够控制机器人1的位置和姿势以使工件91接近工件81。
在图6中示出本实施方式中的第一控制的第二流程图。参照图3和图6,在机器人控制装置4实施使工件91接近工件81的控制之后,在步骤115中,动作控制部43通过摄像机25对工件81、91进行拍摄。
在图7中示出为了调整第二工件相对于第一工件的位置而由摄像机拍摄到的图像。在图像62中包含作为第一特征部位的突出部82的上表面的图像和作为第二特征部位的突出部92的上表面的图像。在图像62中,第二工件91相对于第一工件81如箭头101所示那样向屏幕坐标系52的u轴的正侧偏移。
在图8中示出为了调整第二工件相对于第一工件的位置而由摄像机拍摄到的其它图像。在图像63中,第二工件91相对于第一工件81如箭头102所示那样向屏幕坐标系52的u轴的负侧方向偏移。参照图7和图8,在第一控制中,实施对这样的第二工件91的偏移进行修正的控制。在此,以图7和图8中的图7为例进行说明。
参照图3、图6以及图7,在步骤116至步骤118中,实施与针对基准图像61的控制同样的控制。图像处理部31检测由摄像机25拍摄到的图像62中的第一特征量和第二特征量,使用第一特征量和第二特征量来计算相对位置量。
在步骤116中,特征量检测部32检测由摄像机25拍摄到的图像62中的第一特征部位和第二特征部位。在此,作为第一特征部位,检测出工件81的突出部82的上表面,作为第二特征部位,检测出工件91的突出部92的上表面。
在步骤117中,特征量检测部32检测由摄像机25拍摄到的图像62中的第一特征量和第二特征量。特征量检测部32检测设定点P1在屏幕坐标系52上的坐标值(u1m,v1m)来作为与第一特征部位的位置有关的第一特征量。另外,特征量检测部32检测设定点P2在屏幕坐标系52上的坐标值(u2m,v2m)来作为与第二特征部位的位置有关的第二特征量。
在步骤118中,计算部33计算第一特征量与第二特征量之差来作为相对位置量。由摄像机25拍摄到的图像62中的相对位置量为第一特征量的坐标值与第二特征量的坐标值之差(u1m-u2m,v1m-v2m)。
此外,在第二工件91被把持在手2的预先决定的位置的情况下,与第二工件91有关的第二特征量是固定的。因此,也可以预先测定第二特征量并存储于存储部42。即,也可以将设定点P2的坐标值预先存储于存储部42。另一方面,有时在手2把持第二工件91时偏离期望的位置。因此,在本实施方式中,也基于实际拍摄到的图像62,并通过与基础图像的模板匹配的方法来检测第二特征量。
接着,图像处理部31的指令生成部34基于由摄像机25拍摄到的图像62中的相对位置量和基准图像61中的相对位置量,来生成机器人1的移动指令,以将第二工件91相对于第一工件81配置到目标位置。本实施方式的指令生成部34生成用于使机器人1进行动作的移动指令,以使由摄像机25拍摄到的图像62中的相对位置量接近基准图像61中的相对位置量。
在步骤119中,指令生成部34计算由摄像机25拍摄到的图像62中的相对位置量与基准图像61中的相对位置量之差即相对位置量的差。在本实施方式中,指令生成部34计算从由摄像机25拍摄到的图像62中的相对位置量减去基准图像61中的相对位置量而得到的相对位置量的差。相对位置量的差能够通过[(u1m-u2m)-(u1b-u2b),(v1m-v2m)-(v1b-v2b)]表示为与各个u轴及v轴有关的值。像这样,在本实施方式中,计算与u轴有关的相对位置量的差以及与v轴有关的相对位置量的差。
接着,在步骤120中,指令生成部34判定相对位置量的差是否处于预先决定的判定范围内。判定范围是预先决定的,存储于存储部42中。例如,能够预先设定与u轴有关的值的判定范围以及与v轴有关的值的判定范围。第二工件91相对于第一工件81越接近目标位置,则相对位置量的差越接近零。在与u轴有关的值处于判定范围内且与v轴有关的值处于判定范围内的情况下,能够判定为相对位置量的差处于判定范围内。即,指令生成部34能够判定为工件91与工件81的位置对准完成。
另一方面,在与u轴有关的值以及与v轴有关的值中的至少一方偏离判定范围的情况下,指令生成部34能够判定为相对位置量的差偏离了判定范围。即,指令生成部34能够判定为工件91相对于工件81尚未到达期望的位置。
在步骤120中,在相对位置量的差处于判定范围内的情况下,结束该控制。在步骤120中,在相对位置量的差偏离判定范围的情况下,控制转移到步骤121。
在步骤121中,指令生成部34基于相对位置量的差,来设定机器人1的驱动方法。指令生成部34设定机器人1在基准坐标系51中的位置的移动方向和移动量。在本实施方式中,预先决定与相对位置量的差对应的机器人的位置的移动方向。与屏幕坐标系52的u轴的正值或负值对应地在基准坐标系51上决定机器人1的位置的移动方向。例如,在与u轴有关的相对位置量的差为正值的情况下,使用基准坐标系51的X轴、Y轴以及Z轴的坐标值预先决定了(1,1,0)的移动方向。另外,在与v轴有关的相对位置的差为正值的情况下,使用基准坐标系51的X轴、Y轴以及Z轴的坐标值预先决定了(0,0,1)的移动方向。
并且,预先决定与相对位置量的差对应的机器人1的位置的移动量的计算方法。例如,机器人1在与u轴对应的方向上的位置的移动量能够采用将与u轴有关的值((u1m-u2m)-(u1b-u2b))乘以预先决定的系数而得到的值。另外,机器人1在与v轴对应的方向上的位置的移动量能够采用将与v轴有关的值((v1m-v2m)-(v1b-v2b))乘以预先决定的系数而得到的值。像这样,能够在与屏幕坐标系52的各轴对应的方向上计算机器人1的位置的移动量。
在本实施方式中,基于与u轴有关的相对位置量的差,计算基准坐标系51的X轴方向上的移动量、Y轴方向上的移动量以及Z轴方向上的移动量。另外,基于与v轴有关的相对位置量的差,计算基准坐标系51的X轴方向上的移动量、Y轴方向上的移动量以及Z轴方向上的移动量。因此,有时在基准坐标系51中对一个轴计算出两个移动量(与u轴有关的移动量以及与v轴有关的移动量)。在该情况下,也可以在计算出两个移动量的轴的方向上不移动机器人1的位置。或者,也可以将各个移动量乘以系数来计算最终的移动量。或者,也可以采用任一方的移动量。
接着,在步骤122中,基于机器人1的位置的移动方向和移动量,来驱动机器人1。指令生成部34基于机器人1的位置的移动方向和移动量,来生成驱动机器人1的移动指令。指令生成部34将移动指令发送到动作控制部43。动作控制部43基于移动指令变更机器人1的位置。
接着,控制转移到步骤115。在第一控制中,实施重复进行步骤115至步骤122的控制直到相对位置量的差处于判定范围内为止。在第一控制中,即使通过一次控制没有完成工件的位置对准,也能够通过重复进行步骤115至步骤122来使工件的位置逐渐接近期望的位置。
在本实施方式的控制中,不需要相对于基准坐标系来校准视觉传感器坐标系。或者,不需要为了进行工件的位置对准而预先求出雅克比矩阵。因此,能够通过简单的方法来进行工件的位置对准。
在本实施方式的第一控制中,在输送带75正在搬送第一工件81的期间中,实施了第二工件91的位置对准。重复进行了由特征量检测部32检测第一特征量和第二特征量进的控制、由计算部33检测相对位置量的控制以及由指令生成部34计算移动指令的控制。能够通过该控制来实施使把持工件91的机器人1的位置跟随由输送带75移动的工件81的位置的控制。
此外,本实施方式中的摄像机25经由支承构件17被支承于手2。手2把持有第二工件91。因此,在进行第二工件91与第一工件81的位置对准的期间中,工件81相对于摄像机25的相对的位置和姿势是固定的。参照图5、图7以及图8,即使第二工件91相对于第一工件81的相对位置改变,由摄像机25拍摄的图像62、63中的工件91和突出部92的位置也为固定。其结果是,由摄像机25拍摄到的图像中的第二特征部位的设定点P2的位置为固定。
参照图6,在上述的控制中,在每次由摄像机25拍摄第一工件81和第二工件91时,都检测第二工件91中的第二特征部位,并检测第二特征量。另一方面,由于作为第二特征量的设定点P2的坐标值是固定的,因此存储部42能够事先存储从由摄像机25第一次拍摄到的图像中获取到的第二特征量。在步骤115至步骤117中,关于由摄像机25在第二次以后拍摄到的图像,特征量检测部32能够从存储部42获取第二特征量。特征量检测部32只要实施第一特征部位的检测和第一特征量的检测即可。通过实施该控制,能够简化根据由摄像机在第二次以后拍摄到的图像计算相对位置量的控制。对在第二次以后由摄像机拍摄到的图像的处理时间变短。
另外,在本实施方式中,预先决定由输送带75移动的第一工件81的移动方向和移动速度。机器人控制装置4能够实施与由输送带75对工件81的移动相应地变更机器人1的位置的前馈控制。在本实施方式中,工件81以固定的移动速度移动。
指令生成部34计算用于使机器人1的位置跟随由输送带75移动的第一工件81的位置的、机器人1的位置的移动方向和移动速度。例如,指令生成部34计算移动方向以使机器人1的工具前端点向工件81的移动方向移动。指令生成部34能够计算机器人1的工具前端点以与工件81相同的移动速度向与工件81的移动方向相同的方向移动的移动量。而且,指令生成部34除了基于输送带75的搬送来控制机器人1的位置的移动方向和移动量以外,还能够实施基于上述的相对位置量的差计算的移动方向和移动量的控制。
通过进行该控制,能够通过前馈控制来实施与由输送带75对第一工件81的移动有关的机器人1的位置和姿势的变更。在基于相对位置量的差的控制中,只要修正第二工件91相对于第一工件81的相对位置的偏移即可,因此能够在短时间内进行第二工件91与第一工件81的位置对准。
在图9中示出本实施方式中的第二机器人装置的手、第一工件以及第二工件的放大立体图。在第一机器人装置5中,通过一个摄像机25来调整机器人1的位置,但是并不限于该方式。机器人装置能够使用两个以上的摄像机来调整机器人1的位置。
在第二机器人装置8中,支承构件18被固定于手2。支承构件18具有向上侧延伸的部分18a和向下侧延伸的部分18b。与第一机器人装置5同样地,在向上侧延伸的部分18a固定有摄像机25来作为第一视觉传感器。摄像机25以摄像范围25a拍摄图像。在向下侧延伸的部分18b固定有作为第二视觉传感器的摄像机26。摄像机26对第一工件81和第二工件91进行拍摄。特别是,摄像机26拍摄第二工件91接近了第一工件81时的图像。摄像机26配置于能够对第一工件81的突出部83和第二工件91的突出部93进行拍摄的位置。向下侧延伸的部分18b将摄像机26支承为能够从工件81、91的侧方拍摄突出部83、93。摄像机26以摄像范围26a拍摄图像。本实施方式的摄像机26为二维摄像机。
两台摄像机25、26配置为光轴沿互不相同的方向延伸。在本实施方式中,将摄像机26配置为摄像机26的光轴沿与摄像机25的光轴大致正交的方向延伸。在第二机器人装置8中,基于由两台摄像机25、26拍摄到的图像,来实施第二控制。在第二控制中,使用由摄像机25、26拍摄到的图像来调整工件91相对于工件81的位置。
在第二控制中,通过第一控制来基于摄像机25的图像生成移动指令。另外,通过与第一控制同样的方法,来基于摄像机26的图像生成移动指令。在本实施方式中,预先决定用于在由摄像机26拍摄到的图像中检测第一工件81的位置的第三特征部位和用于检测第二工件91的位置的第四特征部位。
第三特征部位是与第一特征部位不同的部分。作为第三特征部位,例如能够设定第一工件81的突出部83的侧面。能够在第三特征部位设定用于决定第一工件81的位置的第三设定点P3。第四特征部位是与第二特征部位不同的部分。作为第四特征部位,例如能够设定第二工件91的突出部93的侧面。能够在第四特征部位设定用于决定第二工件91的位置的第四设定点P4。
特征量检测部32在由摄像机26拍摄到的图像中检测与第三特征部位的位置有关的第三特征量以及与第四特征部位的位置有关的第四特征量。在由摄像机26拍摄到的图像中,设定点P3在屏幕坐标系52上的坐标值为第三特征量。另外,设定点P4在屏幕坐标系52上的坐标值为第四特征量。计算部33计算第三特征量与第四特征量之差来作为相对位置量。
另外,预先制作与在第二工件91相对于第一工件81被配置在目标位置时的摄像机26的图像有关的基准图像。另外,预先决定基准图像中的第三特征量与第四特征量之差即相对位置量。能够预先计算基准图像中的相对位置量。
指令生成部34基于由摄像机26拍摄到的图像中的相对位置量以及包含第三特征部位及第四特征部位的图像的基准图像中的相对位置量,来计算相对位置量的差。然后,指令生成部34基于相对位置量的差,生成用于使机器人1进行动作的移动指令以将第二工件91相对于第一工件81配置到目标位置。指令生成部34生成用于使机器人1进行动作的移动指令以使由第二摄像机26拍摄到的图像中的相对位置量接近基准图像中的相对位置量。
指令生成部34能够基于根据摄像机25的图像生成的移动指令和根据摄像机26的图像生成的移动指令,来生成向动作控制部43发送的最终的移动指令。例如,指令生成部34能够在通过基于摄像机25的图像的移动指令和基于摄像机26的图像的移动指令中的一个移动指令驱动机器人1之后,通过另一个移动指令驱动机器人1。
或者,也可以将基于摄像机25的图像的移动指令与基于摄像机26的图像的移动指令进行合成。例如,也可以在与摄像机25的图像的u轴对应的机器人1的位置的移动方向、同与摄像机26的图像的u轴对应的机器人1的位置的移动方向一致的情况下,计算机器人1的移动量的平均值。能够重复实施这种对机器人1的位置进行调整的控制,直到基于摄像机25的图像的相对位置量的差处于判定范围内、并且基于摄像机26的图像的相对位置量的差处于判定范围内为止。
在第二机器人装置8中,各个摄像机25、26拍摄互相不同的特征部位来进行位置的控制。因此,与使用一台摄像机进行位置调整的控制相比,能够高精度地进行工件91的位置的调整。另外,能够无需进行立体测量等而基于多个摄像机的图像来进行工件的位置的调整。并且,即使不使用三维摄像机,通过使用多个二维摄像机也能够进行工件的位置的调整。
此外,由第一摄像机25拍摄的图像中的设定点P2的位置和第二摄像机26的图像中的设定点P4的位置不变。因此,能够与第一控制同样地将在开始时检测出的第二特征量和第四特征量存储于存储部42。然后,可以在第二次以后的控制中,获取存储部42中存储的第二特征量和第四特征量,来计算各个图像中的相对位置量。
另外,在第二机器人装置8中配置有多个摄像机25、26。在这样的机器人装置8的控制装置中,除了进行工件91的位置的调整以外,还能够修正工件91的姿势。接着,对工件91的姿势的修正进行说明。
在图10中示出本实施方式的第二机器人装置中的手、第一工件以及第二工件的其它的放大立体图。在第一控制和第二控制中,在实施对第二工件91的位置进行调整的控制之前调整第二工件91相对于第一工件81的相对姿势。另一方面,存在第二工件91相对于第一工件81的姿势偏移的情况。
在工件91成为目标姿势时,销92a及销93a排列的方向与孔部82a及孔部83a排列的方向平行。在图10所示的例子中,工件91的姿势如箭头106所示那样从目标姿势略有旋转。工件91绕基准坐标系51的X轴向从Y轴朝向Z轴的方向略有旋转。工件91从目标姿势绕法兰16的旋转轴略有旋转。其结果是,工件91的突出部92相对于工件81的突出部82的位置如箭头107所示那样向Y轴的负侧的方向偏移。另外,工件91的突出部93相对于工件81的突出部83的位置如箭头108所示那样向Y轴的正侧的方向偏移。
本实施方式中的多个摄像机25、26形成为拍摄第二工件91中彼此分离配置的部分。第一摄像机25配置为对第二工件91的作为在预先决定的方向上的一侧配置的部分的突出部92进行拍摄。另外,第二摄像机26配置为对第二工件91的作为在预先决定的方向上的另一侧配置的部分的突出部93进行拍摄。此处的预先决定的方向相当于销92a与销93a排列的方向。
在图11中示出在第二工件相对于第一工件的姿势偏移时由第一摄像机拍摄到的图像。参照图10、图11以及作为基准图像的图5,图像66中的工件91相对于工件81的相对位置与基准图像61中的工件91相对于工件81的相对位置不同。工件91的突出部92相对于工件81的突出部82向箭头107所示的朝向偏移。另外,固定于突出部92的销92a延伸的方向与形成于突出部82的孔部82a延伸的方向不平行,朝向互不相同的方向。
在图12中示出在第二工件相对于第一工件的姿势为目标姿势时由第二摄像机拍摄到的图像。在图像67中,固定于突出部93的销93a延伸的方向与形成于突出部83的孔部83a延伸的方向平行。因此,通过实施工件91与工件81的位置对准,能够将销93a插入到孔部83a的内部。
在图13中示出在第二工件相对于第一工件的姿势偏移时由第二摄像机拍摄到的图像。在图像68中,工件91相对于工件81如箭头108所示那样略有旋转。参照图10、图12以及图13,图像68中的突出部93相对于突出部83的相对位置如箭头108所示那样偏移。另外,销93a延伸的方向与孔部83a延伸的方向不平行。因此,即使将销93a的前端配置在孔部83a的前端的正上方,也无法将销93a插入到孔部83a的内部。在本实施方式的第三控制中,实施对第二工件91相对于第一工件81的相对姿势进行修正的控制。
在图14中示出本实施方式的第二机器人装置中的第三控制的流程图。在第三控制中,除了第二控制以外,还实施对工件91的姿势进行修正的控制。
步骤131至步骤138与上述的第二控制相同。在步骤131中,第一摄像机25和第二摄像机26用于拍摄图像。在步骤132中,特征量检测部32检测由第一摄像机25拍摄到的图像中的第一特征部位和第二特征部位。在步骤133中,特征量检测部32检测由第二摄像机26拍摄到的图像中的第三特征部位和第四特征部位。
在步骤134中,特征量检测部32检测与第一特征部位的位置有关的第一特征量、与第二特征部位的位置有关的第二特征量、与第三特征部位的位置有关的第三特征量以及与第四特征部位的位置有关的第四特征量。参照图11,特征量检测部32在由第一摄像机25拍摄到的图像66中检测设定点P1在屏幕坐标系52上的坐标值来作为第一特征量。另外,特征量检测部32检测设定点P2在屏幕坐标系52上的坐标值来作为第二特征量。参照图13,特征量检测部32在图像68中检测设定点P3在屏幕坐标系52上的坐标值来作为第三特征量。特征量检测部32检测设定点P4在屏幕坐标系52上的坐标值来作为第四特征量。
参照图14,在步骤135中,图像处理部31的计算部33基于第一特征量和第二特征量来计算相对位置量。在步骤136中,计算部33基于第三特征量和第四特征量来计算相对位置量。计算部33计算由各个摄像机25、26拍摄到的图像66、68中的相对位置量。
接着,在步骤137中,关于由各个摄像机25、26拍摄到的图像66、68,图像处理部31的指令生成部34计算图像66、68中的相对位置量与基准图像中的相对位置量之差即相对位置量的差。在步骤138中,关于各个图像66、68,指令生成部34基于相对位置量的差,来生成机器人1的移动指令。相对位置量的差被计算为屏幕坐标系52中的与u轴及v轴有关的值。指令生成部34基于相对位置量的差,来生成机器人1的移动指令。
指令生成部34基于由摄像机25拍摄到的图像66,来在基准坐标系51中计算机器人1的位置的移动方向和移动量。另外,指令生成部34基于由摄像机26拍摄到的图像68,来在基准坐标系51中计算机器人1的位置的移动方向和移动量。即,指令生成部34针对基准坐标系51的各坐标轴计算沿着基准坐标系51的坐标轴的方向的移动量。
接着,在步骤139中,指令生成部34基于根据第一摄像机25的图像生成的移动指令和根据第二摄像机26的图像生成的移动指令,来判定第二工件91相对于第一工件81的姿势是否处于预先决定的判定范围内。
在本实施方式中,指令生成部34获取机器人1在基准坐标系51的预先决定的坐标轴上的位置的移动方向。参照图10,在此处的例子中,预先选定了基准坐标系51的坐标轴中的Y轴。指令生成部34获取根据第一摄像机25的图像66生成的移动指令中的Y轴的移动指令和根据第二摄像机26的图像68生成的移动指令中的Y轴的移动指令。
在从由两台摄像机25、26拍摄到的图像66、68中获取到的Y轴上的移动方向为相同方向的情况下,指令生成部34判定为第二工件91相对于第一工件81的姿势处于预先决定的判定范围内。另一方面,在Y轴上的移动方向互不相同的情况下,指令生成部34判定为第二工件91相对于第一工件81的姿势偏离了判定范围。
在图10至图13所示的例子中,在基于由第一摄像机25拍摄到的图像的移动指令中,生成用于使机器人1向与箭头107相反的一侧移动的指令。另外,在基于由第二摄像机26拍摄到的图像的移动指令中,生成用于使机器人1向与箭头108相反的一侧移动的指令。因此,在步骤139中,指令生成部34判定为基于由两个摄像机拍摄到的图像的在Y轴上的移动方向互不相同。在该情况下,控制转移到步骤140。
此外,在本实施方式中,在基准坐标系的预先决定的坐标轴上应使机器人的位置移动的方向为相同方向的情况下,判定为处于判定范围内,但是并不限于该方式。即使在预先决定的坐标轴上的移动方向互不相同的情况下,如果移动量微小则也可以判定为处于判定范围。
在步骤140中,指令生成部34设定机器人1的姿势的修正方法。指令生成部34生成用于使工件91向与第二工件91相对于第一工件81倾斜的方向相反的一侧旋转的移动指令。参照图10,在本实施方式中,实施使工件91绕基准坐标系51的X轴向从Z轴朝向Y轴的方向旋转的控制。工件91的旋转量即姿势修正量θ能够预先决定。
在步骤141中,指令生成部34将基于机器人1的姿势的修正方法的移动指令发送到动作控制部43。动作控制部43基于从指令生成部34接收到的移动指令来修正机器人的姿势。
接着,在步骤142中,图像处理部31相对于屏幕坐标系52的坐标轴来校正机器人1在基准坐标系51上的位置的移动方向。通过与屏幕坐标系52的u轴及v轴有关的值来计算相对位置量的差。预先决定与屏幕坐标系52的u轴及v轴对应的、机器人1在基准坐标系51中的位置的移动方向。当对机器人1的姿势进行修正时,与由各个摄像机25、26拍摄到的图像的u轴及v轴对应的在基准坐标系51中的移动方向也发生变化。即,通过基准坐标系的X轴、Y轴以及Z轴的坐标值表示的机器人1的位置的移动方向发生变化。
图像处理部31基于机器人1的姿势的修正量,来修正与屏幕坐标系52的坐标轴对应的机器人1的位置的移动方向。例如,能够通过将基于机器人1的姿势的修正量计算出的变换矩阵乘以表示机器人1的位置的移动方向的在基准坐标系51的X轴、Y轴以及Z轴上的坐标值,来修正机器人1的位置的移动方向。
在步骤142之后,控制返回到步骤131。然后,重复进行步骤131至步骤139中的控制。在步骤139中,在基准坐标系51的预先决定的坐标轴上的移动方向互不相同的情况下,再次实施步骤140、141、142的控制。
在步骤140中,设定机器人1的姿势的修正方法。有时通过用前次的姿势修正量θ修正机器人1的姿势而使第二工件91相对于第一工件81的姿势偏移的方向变成相反的方向。在该情况下,向与前次的姿势修正相反的方向修正机器人1的姿势。还会采用与前次的修正量相比减少的修正量。例如,实施以前次修正量的一半的修正量(-θ/2)变更姿势的控制。另一方面,有时即使以前次的姿势修正量θ修正机器人1的姿势,第二工件91相对于第一工件81的姿势偏移的方向也与前次控制中的方向相同。在该情况下,以与前次相同的方向和相同的姿势修正量θ来修正姿势。之后,能够再次重复进行步骤131至步骤139的控制。
像这样,在通过前次控制中的姿势的修正而使姿势偏移的方向反转了的情况下,能够实施向相反方向修正机器人的姿势并且减少修正量的控制。通过该控制,能够逐渐修正第二工件91相对于第一工件81的姿势的偏移。能够在由第一摄像机25和第二摄像机26拍摄到的图像中修正机器人1的姿势直到第二工件91相对于第一工件81的偏移方向变为相同为止。
此外,在步骤139中,在第二工件相对于第一工件的姿势偏离判定范围的情况下,能够实施任意的控制。例如,也可以使机器人装置停止。另外,在步骤140中,指令生成部34能够通过任意的控制来设定机器人1的姿势的修正方法。例如,也可以基于根据由两台摄像机25、26拍摄到的图像计算出的Y轴方向上的移动量,来计算工件81的姿势修正量。
在步骤139中,在基于由第一摄像机25拍摄到的图像的移动方向与基于由第二摄像机26拍摄到的图像的移动方向相同的情况下,控制转移到步骤143。
在步骤143至步骤145中,与第二控制同样地进行机器人1的位置的判定和修正。在步骤143中,判定基于由第一摄像机25拍摄到的图像的相对位置量的差和基于由第二摄像机26拍摄到的图像的相对位置量的差是否处于预先决定的判定范围内。在步骤143中,在至少一个相对位置量的差偏离判定范围的情况下,控制转移到步骤144。
在步骤144中,指令生成部34根据基于各个图像的移动指令,来生成最终的机器人的移动指令。然后,在步骤145中,动作控制部43通过基于最终的机器人的移动指令驱动机器人1,来变更机器人1的位置。之后,控制转移到步骤131。
在步骤143中,在两个图像中的相对位置量的差处于判定范围内的情况下,能够判定为第二工件91相对于第一工件81的位置和姿势为目标位置和目标姿势。然后,能够结束该控制。
第二机器人装置8的除上述以外的结构、作用以及效果与第一机器人装置5相同,因此在此不重复说明。
在图15中示出本实施方式中的第三机器人装置的手、第一工件以及第二工件的放大立体图。在第三机器人装置9中,支承构件19被固定于手2。支承构件19具有向上侧延伸的部分19a和向下侧延伸的部分19b。与第二机器人装置8同样地,向上侧延伸的部分19a固定有摄像机25来作为第一视觉传感器。在向下侧延伸的部分19b固定有作为第二视觉传感器的摄像机26。
第三机器人装置9的摄像机26的朝向与第二机器人装置8的摄像机26的朝向不同。支承构件19的向下侧延伸的部分19b将摄像机26支承为摄像机26的摄像范围26a与摄像机25的摄像范围25a重叠。第三机器人装置9的摄像机26配置为对与摄像机25拍摄的部分相同的部分进行拍摄。摄像机26配置为能够对工件81的突出部82和工件91的突出部92进行拍摄。
在第三机器人装置9中,实施第四控制以将工件91相对于工件81的位置对准。在第四控制中,与第二机器人装置8的第二控制同样地,设定第三特征部位和第四特征部位,基于多个摄像机25、26的图像来进行机器人1的位置的调整。在本实施方式中,将突出部82的侧面设定为第三特征部位。另外,将突出部92的侧面设定为第四特征部位。在第三机器人装置9中,第三特征部位既可以与第一特征部位相同,也可以不同。另外,第四特征部位既可以与第二特征部位相同,也可以不同。
第三机器人装置9的其它的结构、作用以及效果与第二机器人装置8相同,因此在此不重复说明。
第二机器人装置8的控制装置和第三机器人装置9的控制装置具备两台摄像机,但是并不限于该方式。机器人装置的控制装置也可以具备三台以上的摄像机。控制装置可以由各个摄像机拍摄互不相同的特征部位,基于由各个摄像机拍摄到的图像来实施工件的位置和姿势的控制。
在图16中示出本实施方式中的第四机器人装置的手、第一工件以及第二工件的放大立体图。第四机器人装置10除了具备第一摄像机25和第二摄像机26以外,还具备第三摄像机28。第四机器人装置10具有被支承于手2的支承构件20。支承构件20具有对摄像机25进行支承且向上侧延伸的部分20a和对摄像机26进行支承且向下侧延伸的部分20b。另外,支承构件20具有对摄像机28进行支承且向侧方延伸的部分20c。摄像机28具有摄像范围28a。摄像机28配置为光轴沿与摄像机25的光轴的方向及摄像机26的光轴的方向不同的方向延伸。
在第四机器人装置10中,实施用于调整工件91相对于工件81的位置和姿势的第五控制。在第五控制中,在第一工件81设定有第五特征部位以对由摄像机28拍摄到的图像进行处理。另外,在第二工件91设定有第六特征部位。例如,将工件81的突出部83的侧面设定为第五特征部位,将工件91的突出部93的侧面设定为第六特征部位。
关于由摄像机28拍摄到的图像,也能够实施与上述的第一控制同样的控制。摄像机28配置于能够拍摄第五特征部位和第六特征部位的位置。在第五特征部位和第六特征部位设定有用于决定特征部位的位置的第五设定点和第六设定点。特征量检测部32能够基于设定点在屏幕坐标系52中的位置来检测与第五特征部位对应的第五特征量以及与第六特征部位对应的第六特征量。预先制作与摄像机28有关的基准图像。然后,能够预先计算基准图像中的第五特征量和第六特征量。另外,能够预先计算基准图像中的相对位置量。
在第五控制中,能够实施与上述的第三控制同样的控制。在第五控制中,通过三台摄像机来调整第二工件91相对于第一工件81的位置和姿势。在调整工件91相对于工件81的位置的控制中,能够基于由三台摄像机25、26、28获取的图像来检测第二工件91相对于第一工件81的位置偏移。因此,与通过两台摄像机进行位置调整的情况相比,能够更高精度地进行位置调整。
另外,在对工件91相对于工件81的姿势进行修正的控制中,能够基于由摄像机25拍摄的图像和由摄像机28拍摄的图像,来修正工件91绕基准坐标系51的Y轴偏移的姿势。像这样,通过增加摄像机的台数,能够增加对姿势的偏移进行修正的方向。
第四机器人装置的其它的结构、作用以及效果与第一机器人装置5、第二机器人装置8以及第三机器人装置9相同,因此在此不重复说明。
在上述的第一机器人装置5、第二机器人装置8、第三机器人装置9以及第四机器人装置10中,摄像机25、26、28被固定于手2,并与手2一同移动,但是并不限于该方式。摄像机也可以被固定于设置面等。即,也可以将摄像机固定使得即使机器人1的位置和姿势发生变化,摄像机的位置和姿势也不变。
在图17中示出本实施方式中的第五机器人装置的概要图。第五机器人装置6实施向作为第一构件的壳体87的内部配置作为第二构件的工件97的作业。壳体87相当于第一工件,工件97相当于第二工件。第五机器人装置6具有安装于机器人1的手7。手7形成为通过吸附来把持工件97。第五机器人装置6具备搬送壳体87的作为搬送机的输送带75。
第五机器人装置6具有经由支架71固定于设置面的作为视觉传感器的摄像机27。即使机器人1的位置和姿势变化,摄像机27也是不动的。摄像机27配置在离输送带75足够远的位置,使得在机器人1对工件97的位置进行调整的期间中能够对工件97和壳体87进行拍摄。
在图18中示出正在通过第五机器人装置将工件向壳体容纳时的侧视图。壳体87如箭头105所示那样被输送带75搬送。壳体87具有与工件97的形状对应地形成的多个壁部87a。第五机器人装置6将工件97容纳到由壁部87a包围的区域中。在图18所示的例子中,使工件97与由壁部87a包围的区域的位置对准。因此,能够通过如箭头104所示那样使工件97下降来将工件97容纳到壳体87中。
在图19中示出正在由第五机器人装置将工件向壳体容纳时的其它的侧视图。在图19所示的例子中,工件97相对于由壁部87a包围的区域的位置偏移。在第五机器人装置6中,实施第六控制。在第六控制中,调整机器人1的位置以将工件97配置到由壁部87a包围的区域的正上方。预先调整工件97相对于壳体87的姿势。在第六控制中,通过与第一控制同样的控制,来修工件97的位置相对于正壳体87的位置的偏移。预先制作与如图18所示那样工件97相对于壳体87的位置对准的状态对应的基准图像。
在图20中示出由摄像机拍摄到的图像。在图20的图像中,工件97相对于由壁部87a包围的区域的位置偏移。在第六控制中,例如能够将壁部87a的侧面设定为第一特征部位。能够在壁部87a的侧面的角设定第一设定点P1。另外,能够将工件97的侧面设定为第二特征部位。能够在工件97的侧面的角设定第二设定点P2。
参照图3和图20,特征量检测部32检测与第一特征部位的位置有关的第一特征量以及与第二特征部位的位置有关的第二特征量。计算部33基于第一特征量和第二特征量来计算相对位置量。指令生成部34能够基于由摄像机27拍摄到的图像65中的相对位置量和基准图像中的相对位置量,来生成使机器人1进行动作的移动指令。
在摄像机被固定的机器人装置中,也能够通过与第一控制同样的控制来实施对机器人的位置的控制。另外,能够使用被固定于设置面等的多个摄像机来实施与第二控制、第三控制或第四控制同样的控制。
关于第五机器人装置6的其它的结构、作用以及效果,与第一机器人装置5、第二机器人装置8、第三机器人装置9以及第四机器人装置10相同,因此在此不重复说明。
上述的实施方式中的视觉传感器为二维摄像机,但是并不限于该方式。视觉传感器也可以为能够检测图像中包含的构件的三维位置的三维摄像机。通过使用三维摄像机作为视觉传感器,由此即使不准备基础图像也能够检测基准坐标系中的第一构件的位置和第二构件的位置。
在上述的实施方式中,列举了进行组装产品的作业的机器人装置和将工件向壳体插入的机器人装置,但是并不限于该方式。能够将本实施方式的控制装置应用于进行任意的作业的机器人装置。例如,能够将本实施方式的控制装置应用于将工件从壳体取出的机器人装置、进行点焊的机器人装置或者涂布粘结剂的机器人装置等。
上述的实施方式的第一构件和第二构件为工件或壳体,但是并不限于该方式。第一构件能够采用机器人装置进行作业的任意的构件。另外,第二构件能够采用通过驱动机器人来进行移动的任意的构件。特别是,第二构件也可以是安装于机器人的作业工具。例如,在进行点焊的机器人装置中,在机器人安装点焊枪来作为作业工具。在该情况下,第二构件为点焊枪。在点焊枪中,能够将第二特征部位、第四特征部位以及第六特征部位设定为在由摄像机拍摄到的图像中能够检测的部分。
在上述的实施方式中,特征部位设定于工件或壳体的表面,但是并不限于该方式。特征部位也可以设定于机器人的结构构件、手的结构构件或搬送机的结构构件。例如,在第一控制至第四控制中,有时不存在工件相对于手的把持偏移。或者,有时与工件相对于手的把持偏移对应地调整机器人的位置。在这些情况下,也可以在手被配置于摄像机的摄像范围的情况下,将第二特征部位、第四特征部位以及第六特征部位设定于手。
根据本公开,能够提供一种通过简单的方法来高精度地对机器人的位置进行控制的机器人装置的控制装置。
在上述的各个控制中,能够在不变更功能和作用的范围内适当地变更步骤的顺序。
上述的实施方式能够适当地组合。在上述的各图中,对相同或相等的部分标注了相同的标记。此外,上述的实施方式是示例,并不对发明进行限定。另外,在实施方式中包含了权利要求书所示的实施方式的变更。
Claims (6)
1.一种机器人装置的控制装置,由机器人移动第二构件,来调整第二构件相对于第一构件的相对位置,所述控制装置具备:
视觉传感器,其对第一构件和第二构件进行拍摄;
动作控制部,其向机器人发送用于驱动机器人的指令;以及
图像处理部,其对由所述视觉传感器拍摄到的图像进行处理,
其中,预先决定用于检测第一构件的位置的第一特征部位和用于检测第二构件的位置的第二特征部位,
所述图像处理部包括:
特征量检测部,其在由所述视觉传感器拍摄到的图像中,检测与第一特征部位的位置有关的第一特征量以及与第二特征部位的位置有关的第二特征量;
计算部,其计算第一特征量与第二特征量之差来作为相对位置量;以及
指令生成部,其生成用于使机器人进行动作的移动指令,
其中,预先决定基准图像中的相对位置量,所述基准图像包含在第二构件相对于第一构件被配置在目标位置时的第一特征部位和第二特征部位的图像,
所述指令生成部基于由所述视觉传感器拍摄到的图像中的相对位置量以及包含第一特征部位和第二特征部位的图像的基准图像中的相对位置量,来生成用于使机器人进行动作的移动指令以将第二构件相对于第一构件配置到目标位置,
所述动作控制部基于移动指令来变更机器人的位置。
2.根据权利要求1所述的控制装置,其中,
所述指令生成部计算由所述视觉传感器拍摄到的图像中的相对位置量与基准图像中的相对位置量之差即相对位置量的差,
预先决定与相对位置量的差对应的机器人的位置的移动方向,
预先决定与相对位置量的差对应的机器人的位置的移动量的计算方法,
所述指令生成部基于相对位置量的差来设定机器人的位置的移动方向和移动量,基于机器人的位置的移动方向和移动量来生成移动指令。
3.根据权利要求1或2所述的控制装置,其中,
所述机器人装置包括搬送第一构件的搬送机,
在所述搬送机正在搬送第一构件的期间中,重复实施以下控制:由所述特征量检测部检测第一特征量和第二特征量的控制;由所述计算部检测相对位置量的控制;以及由所述指令生成部生成移动指令的控制。
4.根据权利要求3所述的控制装置,其中,
预先决定由所述搬送机移动的第一构件的移动方向和移动速度,
所述指令生成部基于用于使机器人的位置跟随由所述搬送机移动的第一构件的位置的、机器人的位置的移动方向和移动量,来生成移动指令。
5.根据权利要求1至4中的任一项所述的控制装置,其中,
所述视觉传感器构成第一视觉传感器,
所述控制装置还具备对第一构件和第二构件进行拍摄的第二视觉传感器,
预先决定用于检测第一构件的位置的第三特征部位和用于检测第二构件的位置的第四特征部位,
所述特征量检测部在由所述第二视觉传感器拍摄到的图像中,检测与第三特征部位的位置有关的第三特征量以及与第四特征部位的位置有关的第四特征量,
所述计算部计算第三特征量与第四特征量之差来作为相对位置量,
预先决定基准图像中的相对位置量,所述基准图像包含在第二构件相对于第一构件被配置在目标位置时的第三特征部位和第四特征部位的图像,
所述指令生成部基于由所述第二视觉传感器拍摄到的图像中的相对位置量、以及包含第三特征部位及第四特征部位的图像的基准图像中的相对位置量,来生成用于使机器人进行动作的移动指令以将第二构件相对于第一构件配置到目标位置,基于根据所述第一视觉传感器的图像生成的移动指令和根据所述第二视觉传感器的图像生成的移动指令,来生成向所述动作控制部发送的移动指令。
6.根据权利要求5所述的控制装置,其中,
所述第一视觉传感器配置为对第二构件的配置于在预先决定的方向上的一侧的部分进行拍摄,
所述第二视觉传感器配置为对第二构件的配置于在预先决定的方向上的另一侧的部分进行拍摄,
基于根据所述第一视觉传感器的图像生成的移动指令和根据所述第二视觉传感器的图像生成的移动指令,来判定第二构件相对于第一构件的姿势是否处于预先决定的判定范围内。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019142418 | 2019-08-01 | ||
JP2019-142418 | 2019-08-01 | ||
JP2019219104A JP7384653B2 (ja) | 2019-08-01 | 2019-12-03 | ロボットの位置を制御するロボット装置の制御装置 |
JP2019-219104 | 2019-12-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112297004A true CN112297004A (zh) | 2021-02-02 |
Family
ID=74165642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010745050.8A Pending CN112297004A (zh) | 2019-08-01 | 2020-07-29 | 对机器人的位置进行控制的机器人装置的控制装置 |
Country Status (3)
Country | Link |
---|---|
US (2) | US11679508B2 (zh) |
CN (1) | CN112297004A (zh) |
DE (1) | DE102020119704A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114929441A (zh) * | 2019-11-12 | 2022-08-19 | 光明机器公司 | 用于机器人组装的模块插入系统 |
DE102022202145A1 (de) | 2022-03-02 | 2023-09-07 | Robert Bosch Gesellschaft mit beschränkter Haftung | Roboter und Verfahren zum Steuern eines Roboters |
DE102022202144A1 (de) | 2022-03-02 | 2023-09-07 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe |
DE102022202143A1 (de) | 2022-03-02 | 2023-09-07 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe |
CN117226857B (zh) * | 2023-11-15 | 2024-01-26 | 北京集度科技有限公司 | 机器人工具坐标原点的标定方法、标定装置及介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040086364A1 (en) * | 2002-10-25 | 2004-05-06 | Fanuc Ltd. | Object conveying system and conveying method |
US20140277694A1 (en) * | 2013-03-14 | 2014-09-18 | Kabushiki Kaisha Yaskawa Denki | Robot system and method for producing to-be-processed material |
US20140277734A1 (en) * | 2013-03-14 | 2014-09-18 | Kabushiki Kaisha Yaskawa Denki | Robot system and a method for producing a to-be-processed material |
CN105269578A (zh) * | 2014-07-01 | 2016-01-27 | 精工爱普生株式会社 | 指示装置以及机器人系统 |
CN106181541A (zh) * | 2015-05-29 | 2016-12-07 | 发那科株式会社 | 具备了拥有位置校正功能的机器人的生产系统 |
CN106313086A (zh) * | 2016-08-21 | 2017-01-11 | 西安科技大学 | 一种煤矿救援机器人远程控制系统和控制方法 |
CN106426162A (zh) * | 2015-08-10 | 2017-02-22 | 发那科株式会社 | 具备视觉传感器以及多个机器人的机器人系统 |
CN109153125A (zh) * | 2016-05-31 | 2019-01-04 | 西门子股份公司 | 用于定向工业机器人的方法和工业机器人 |
CN109397270A (zh) * | 2018-12-25 | 2019-03-01 | 苏州富纳艾尔科技有限公司 | 用于机器人实训的二次定位机构及机器人实训教学平台 |
CN109944843A (zh) * | 2016-11-22 | 2019-06-28 | 北京航空航天大学 | 一种机器人液压驱动转动关节闭环控制系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5744587B2 (ja) * | 2011-03-24 | 2015-07-08 | キヤノン株式会社 | ロボット制御装置、ロボット制御方法、プログラム及び記録媒体 |
JP5904635B2 (ja) | 2012-03-02 | 2016-04-13 | セイコーエプソン株式会社 | 制御装置、制御方法及びロボット装置 |
JP2015214022A (ja) | 2015-09-02 | 2015-12-03 | セイコーエプソン株式会社 | ロボット |
JP6430986B2 (ja) | 2016-03-25 | 2018-11-28 | ファナック株式会社 | ロボットを用いた位置決め装置 |
EP3520971A1 (en) * | 2018-02-06 | 2019-08-07 | ABB Schweiz AG | Assembling parts in an assembly line |
-
2020
- 2020-07-08 US US16/923,485 patent/US11679508B2/en active Active
- 2020-07-27 DE DE102020119704.7A patent/DE102020119704A1/de active Pending
- 2020-07-29 CN CN202010745050.8A patent/CN112297004A/zh active Pending
-
2023
- 2023-04-25 US US18/138,927 patent/US20230256615A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040086364A1 (en) * | 2002-10-25 | 2004-05-06 | Fanuc Ltd. | Object conveying system and conveying method |
US20140277694A1 (en) * | 2013-03-14 | 2014-09-18 | Kabushiki Kaisha Yaskawa Denki | Robot system and method for producing to-be-processed material |
US20140277734A1 (en) * | 2013-03-14 | 2014-09-18 | Kabushiki Kaisha Yaskawa Denki | Robot system and a method for producing a to-be-processed material |
CN105269578A (zh) * | 2014-07-01 | 2016-01-27 | 精工爱普生株式会社 | 指示装置以及机器人系统 |
CN106181541A (zh) * | 2015-05-29 | 2016-12-07 | 发那科株式会社 | 具备了拥有位置校正功能的机器人的生产系统 |
CN106426162A (zh) * | 2015-08-10 | 2017-02-22 | 发那科株式会社 | 具备视觉传感器以及多个机器人的机器人系统 |
CN109153125A (zh) * | 2016-05-31 | 2019-01-04 | 西门子股份公司 | 用于定向工业机器人的方法和工业机器人 |
CN106313086A (zh) * | 2016-08-21 | 2017-01-11 | 西安科技大学 | 一种煤矿救援机器人远程控制系统和控制方法 |
CN109944843A (zh) * | 2016-11-22 | 2019-06-28 | 北京航空航天大学 | 一种机器人液压驱动转动关节闭环控制系统 |
CN109397270A (zh) * | 2018-12-25 | 2019-03-01 | 苏州富纳艾尔科技有限公司 | 用于机器人实训的二次定位机构及机器人实训教学平台 |
Also Published As
Publication number | Publication date |
---|---|
US20230256615A1 (en) | 2023-08-17 |
US11679508B2 (en) | 2023-06-20 |
DE102020119704A1 (de) | 2021-02-04 |
US20210031374A1 (en) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230256615A1 (en) | Robot device controller for controlling position of robot | |
CN108453701B (zh) | 控制机器人的方法、示教机器人的方法和机器人系统 | |
US11565422B2 (en) | Controller of robot apparatus for adjusting position of member supported by robot | |
JP3946711B2 (ja) | ロボットシステム | |
US9050728B2 (en) | Apparatus and method for measuring tool center point position of robot | |
US8306660B2 (en) | Device and a method for restoring positional information of robot | |
JP2009269110A (ja) | 組立装置 | |
JP2015136770A (ja) | 視覚センサのデータ作成システム及び検出シミュレーションシステム | |
JP4289619B2 (ja) | 多関節ロボットのツール位置補正方法 | |
US7957834B2 (en) | Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system | |
JP7384653B2 (ja) | ロボットの位置を制御するロボット装置の制御装置 | |
JP4251793B2 (ja) | ペースト塗布機 | |
WO2022075303A1 (ja) | ロボットシステム | |
JP2016203282A (ja) | エンドエフェクタの姿勢変更機構を備えたロボット | |
JPH09222913A (ja) | ロボットの教示位置補正装置 | |
JPH1011146A (ja) | 移動体の停止姿勢補正装置 | |
JP2021049606A (ja) | ロボットを制御するロボット装置の制御装置 | |
JP6938673B2 (ja) | 作業装置及びその制御方法 | |
TW202327835A (zh) | 具備三維感測器的機器人裝置及機器人裝置的控制方法 | |
US20240066701A1 (en) | Simulation device using three-dimensional position information obtained from output from vision sensor | |
WO2022163580A1 (ja) | 視覚センサにて取得される3次元の位置情報から断面画像を生成する処理装置および処理方法 | |
CN117565107A (zh) | 机器人空间定位的方法、系统、介质及设备 | |
CN116348252A (zh) | 机器人的工具变形量计算装置、机器人的工具变形量计算系统以及机器人的工具变形量计算方法 | |
TW202247640A (zh) | 根據由視覺感測器所拍攝之圖像來算出三維之位置的攝像裝置 | |
CN116997445A (zh) | 计算用于控制机器人的位置和姿势的参数的控制装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |