CN117279749A - 模拟装置 - Google Patents

模拟装置 Download PDF

Info

Publication number
CN117279749A
CN117279749A CN202180098127.XA CN202180098127A CN117279749A CN 117279749 A CN117279749 A CN 117279749A CN 202180098127 A CN202180098127 A CN 202180098127A CN 117279749 A CN117279749 A CN 117279749A
Authority
CN
China
Prior art keywords
sensor model
model
vision sensor
unit
measurement site
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180098127.XA
Other languages
English (en)
Inventor
米山宽之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN117279749A publication Critical patent/CN117279749A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system

Abstract

提供一种能够高效地进行视觉传感器模型的位置调整的模拟装置。模拟装置具备:虚拟空间制作部,其制作三维地表现出作业空间的虚拟空间;测量对象物模型配置部,其将三维地表现出测量对象物的测量对象物模型配置于所述虚拟空间内;测量部位指定部,其用于在所述测量对象物模型指定测量部位;视觉传感器模型配置部,其将三维地表现出视觉传感器的视觉传感器模型配置于任意的视觉传感器模型位置,所述视觉传感器用于拍摄所述测量对象物;以及位置决定部,其基于所述测量部位的位置,来将包含于所述视觉传感器模型的图像尺寸内的所述视觉传感器模型位置决定为所述视觉传感器模型的配置位置。

Description

模拟装置
技术领域
本发明涉及一种模拟装置。
背景技术
以往提出一种模拟由机器人模型对测量对象物模型进行作业的动作(例如参照专利文献1)。专利文献1所记载的模拟装置在三维地表现出作业空间的虚拟空间内配置机器人的机器人模型、视觉传感器的视觉传感器模型以及测量对象物的测量对象物模型,来模拟由视觉传感器模型对测量对象物模型进行测量并由机器人模型对测量对象物模型进行作业的动作。
现有技术文献
专利文献
专利文献1:日本特开2008-21092号公报
发明内容
发明要解决的问题
在以往技术中,能够在虚拟空间内进行由视觉传感器模型对测量对象物模型进行测量并由机器人模型对测量对象物模型进行作业的模拟。但是,作业者必须一边观看由视觉传感器模型拍摄测量对象物模型得到的图像,一边决定视觉传感器模型的适当的位置。因此,存在视觉传感器模型的位置调整耗费人力及时间的问题。
因此,寻求一种能够高效地进行视觉传感器模型的位置调整的模拟装置。
用在解决问题的方案
本公开的一个方式所涉及的模拟装置具备:虚拟空间制作部,其制作三维地表现出作业空间的虚拟空间;测量对象物模型配置部,其将三维地表现出测量对象物的测量对象物模型配置于所述虚拟空间内;测量部位指定部,其用于在所述测量对象物模型指定测量部位;视觉传感器模型配置部,其将三维地表现出视觉传感器的视觉传感器模型配置于任意的视觉传感器模型位置,所述视觉传感器用于拍摄所述测量对象物;以及位置决定部,其基于所述测量部位的位置,将包含于所述视觉传感器模型的图像尺寸内的所述视觉传感器模型位置决定为所述视觉传感器模型的配置位置。
本公开的一个方式所涉及的模拟装置具备控制部,所述控制部执行以下功能:在三维地表现出作业空间的虚拟空间中,在三维地表现出测量对象物的测量对象物模型指定测量部位;受理用于将三维地表现出视觉传感器的视觉传感器模型配置于任意的视觉传感器模型位置的输入操作,所述视觉传感器用于拍摄所述测量对象物;以及受理用于将包含于所述视觉传感器模型的图像尺寸内的所述视觉传感器模型位置决定为所述视觉传感器模型的配置位置的输入操作。
发明的效果
根据本发明,能够高效地进行视觉传感器模型的位置调整。
附图说明
图1是表示本实施方式所涉及的模拟装置的结构的框图。
图2是表示第一实施方式所涉及的虚拟空间内的机器人模型、视觉传感器模型以及测量对象物模型的图。
图3是表示指定测量部位的处理的图。
图4是表示配置视觉传感器模型的处理的图。
图5是表示指定视觉传感器模型的姿势的处理的图。
图6是表示将测量部位的三维位置转换为二维位置的处理的图。
图7是表示将测量部位的三维位置转换为二维位置的处理的图。
图8是表示将视觉传感器模型位置决定为视觉传感器模型的配置位置的处理的图。
图9是表示将视觉传感器模型位置决定为视觉传感器模型的配置位置的处理的图。
图10是表示视觉传感器模型被安装于机器人模型的例子的图。
图11是表示第二实施方式所涉及的虚拟空间内的机器人模型、视觉传感器模型以及测量对象物模型的图。
图12是表示指定测量部位的处理的图。
图13是表示配置视觉传感器模型的处理的图。
图14是表示指定视觉传感器模型的姿势的处理的图。
图15是表示将测量部位的三维位置转换为二维位置的处理的图。
图16是表示将测量部位的三维位置转换为二维位置的处理的图。
图17是表示将视觉传感器模型位置决定为视觉传感器模型的配置位置的处理的图。
图18是表示将视觉传感器模型位置决定为视觉传感器模型的配置位置的处理的图。
图19是表示视觉传感器模型被安装于机器人模型的例子的图。
图20是表示本实施方式所涉及的模拟装置的处理的流程图。
具体实施方式
下面,说明本发明的实施方式的一例。
图1是表示本实施方式所涉及的模拟装置1的结构的框图。如图1所示,模拟装置1具备控制部11、存储部12、显示部13以及操作部14。
控制部11是CPU(Central Processing Unit:中央处理单元)等处理器,通过执行存储于存储部12的程序来实现各种功能。
存储部12是保存OS(Operating System:操作系统)或应用程序等的ROM(ReadOnly Memory:只读存储器)、RAM(Random Access Memory:随机存取存储器)、保存其它各种信息的硬盘驱动器或SSD(Solid State Drive:固态硬盘)等存储装置。
显示部13由LCD(Liquid Crystal Displa:液晶显示器)、CRT(Cathode Ray Tube:阴极射线管)等构成,显示各种图像。
操作部14由鼠标、键盘等构成,受理各种输入。
控制部11具备虚拟空间制作部111、测量对象物模型配置部112、机器人模型配置部113、测量部位指定部114、视觉传感器模型配置部115、摄像区域指定部116、传感器姿势指定部117、距离指定部118、位置转换部119、位置决定部120、机器人姿势计算部121以及模拟执行部122。
虚拟空间制作部111制作三维地表现出作业空间的虚拟空间。
测量对象物模型配置部112将三维地表现出测量对象物的测量对象物模型配置于虚拟空间内。
机器人模型配置部113将三维地表现出机器人的机器人模型配置于虚拟空间内。
测量部位指定部114在测量对象物模型指定一个以上的测量部位。测量部位指定部114例如按照操作部14的操作,在测量对象物模型指定一个以上的任意的测量部位。
视觉传感器模型配置部115将三维地表现出视觉传感器的视觉传感器模型配置于任意的视觉传感器模型位置,该视觉传感器用于拍摄测量对象物。视觉传感器模型配置部115例如能够按照操作部14的操作,将视觉传感器模型的视觉传感器模型位置变更为任意的位置。
摄像区域指定部116例如按照操作部14的操作,在视觉传感器模型的图像尺寸内指定由视觉传感器模型拍摄到测量部位的区域。
传感器姿势指定部117例如按照操作部14的操作,来指定将视觉传感器模型配置于测量部位的上方时的姿势。
距离指定部118例如按照操作部14的操作,来指定视觉传感器模型与测量部位之间的距离。
位置转换部119是在视觉传感器模型位置下,将测量部位的三维位置转换为由视觉传感器模型拍摄了测量部位的情况下的二维位置。
位置决定部120基于测定部位的位置,将包含于视觉传感器模型的图像尺寸内的视觉传感器模型位置决定为视觉传感器模型的配置位置。
机器人姿势计算部121在视觉传感器模型被安装于机器人模型的情况下,计算在视觉传感器模型位置时的机器人模型的姿势。
模拟执行部122使用机器人模型、视觉传感器模型以及测量对象物模型,基于动作程序来执行机器人模型对测量对象物模型进行作业的模拟。
[第一实施方式]
图2至图10是表示第一实施方式所涉及的模拟装置1的处理的图。图2是表示第一实施方式所涉及的虚拟空间内的机器人模型R1、视觉传感器模型V1以及测量对象物模型W1的图。
如图2所示,虚拟空间制作部111制作三维地表现出作业空间的虚拟空间。然后,测量对象物模型配置部112将三维地表现出测量对象物的测量对象物模型W1配置于虚拟空间内。测量对象物模型W1也可以为例如被收容于箱体的多个工件。基准坐标系K表示虚拟空间内的作为基准的坐标系。
另外,机器人模型配置部113将三维地表现出机器人的机器人模型R1配置于虚拟空间内。机器人模型坐标系CR1表示机器人模型R1的坐标系。机器人模型R1例如也可以为多关节机器人。
图3是表示指定测量部位M1的处理的图。如图3所示,测量部位指定部114在测量对象物模型W1指定测量部位M1。在图3所示的例子中,测量部位指定部114将测量对象物模型W1的上表面指定为测量部位M1。
例如,在测量对象物模型W1为工件的情况下,测量部位指定部114通过用长方体围住全部工件或工件的一部分来指定测量部位M1。另外,在测量对象物模型W1为篮子或容器(container)的情况下,测量部位指定部114通过选择测量对象物模型W1的上表面来指定测量部位M1。
图4是表示配置视觉传感器模型V1的处理的图。如图4所示,视觉传感器模型配置部115将视觉传感器模型V1配置于测量部位M1上方的一个以上的任意的视觉传感器模型位置。
另外,距离指定部118指定视觉传感器模型V1与测量部位M1之间的距离D1。例如,距离指定部118按照操作部14的操作,指定固定的距离、或者指定距离的范围,由此来指定距离D1。
图5是表示指定视觉传感器模型V1的姿势的处理的图。如图5所示,传感器姿势指定部117指定将视觉传感器模型V1配置于测量部位M1的上方时的姿势。
具体地说,传感器姿势指定部117以视觉传感器模型V1的光轴垂直于虚拟空间的基准平面(例如虚拟空间的XY平面)的姿势(即,图4中的视觉传感器模型V1的姿势)为基准,来指定绕视觉传感器模型坐标系CV1的角度θ1。此外,在无需指定视觉传感器模型V1的姿势的情况下,也可以省略指定视觉传感器模型V1的姿势的处理。
图6和图7是表示将测量部位M1的三维位置P1转换为二维位置P11的处理的图。如图6和图7所示,测量部位M1的三维位置P1在虚拟空间内的基准坐标系K中被表示为坐标(X1,Y1,Z1)。
然后,位置转换部119在视觉传感器模型V1的视觉传感器模型位置下,将测量部位M1的三维位置P1(X1,Y1,Z1)转换为由视觉传感器模型V1拍摄了测量部位M1的情况下的二维位置P11(X11,Y11)。
具体地说,位置转换部119使用摄像条件来将测量部位的三维位置P1转换为由视觉传感器模型V1拍摄了测量部位的情况下的二维位置P11,该摄像条件包含视觉传感器模型V1的视觉传感器模型位置、视觉传感器模型V1的透镜的焦距、视觉传感器模型V1的摄像元件的每一个像素的长度、视觉传感器模型V1的透镜的中心位置等。此外,摄像条件也可以包含与视觉传感器模型V1有关的其它条件。
另外,当由视觉传感器模型配置部115将视觉传感器模型V1的视觉传感器模型位置变更为任意的位置时,位置转换部119在变更后的视觉传感器模型位置下,将测量部位的三维位置P1(X1,Y1,Z1)转换为二维位置P11(X11,Y11)。
即,模拟装置1响应于由用户对操作部14进行的输入操作,一边变更由视觉传感器模型配置部115配置的视觉传感器模型位置,一边由位置转换部119重复进行从三维位置P1向二维位置P11的转换。
并且,如图6和图7所示,位置决定部120判定转换后的二维位置P11是否包含于视觉传感器模型V1的图像尺寸A1内。在图6所示的例子中,位置决定部120判定为转换后的二维位置P11不包含于视觉传感器模型V1的图像尺寸A1内。另一方面,在图7所示的例子中,位置决定部120判定为转换后的二维位置P11包含于视觉传感器模型V1的图像尺寸A1内。
图8和图9是表示将视觉传感器模型位置决定为视觉传感器模型V1的配置位置的处理的图。如图8和图9所示,位置转换部119在视觉传感器模型V1的视觉传感器模型位置下,将测量部位M1的三维位置P1(X1,Y1,Z1)、P2(X2,Y2,Z2)以及P3(X3,Y3,Z3)分别转换为二维位置P11(X11,Y11)、P21(X21,Y21)以及P31(X31,Y31)。
此外,在图8和图9所示的例子中,位置转换部119将三个三维位置P1、P2以及P3分别转换为二维位置P11、P21以及P31,但是三维位置的数量不限定于此。
位置决定部120判定转换后的二维位置P11、P21以及P31是否包含于视觉传感器模型V1的图像尺寸A1内。在图8所示的例子中,位置决定部120判定为转换后的全部的二维位置P11、P21以及P31都包含于视觉传感器模型V1的图像尺寸A1内。
然后,位置决定部120将全部的二维位置P11、P21以及P31都包含于视觉传感器模型V1的图像尺寸A1内的视觉传感器模型位置决定为视觉传感器模型V1的配置位置。
在此,在全部的二维位置P11、P21以及P31都包含于视觉传感器模型V1的图像尺寸A1内的视觉传感器模型的位置存在多个的情况下,位置决定部120将测量部位M1在视觉传感器模型V1的图像中拍得最大的位置决定为视觉传感器模型V1的配置位置。
另外,如图9所示,摄像区域指定部116在视觉传感器模型V1的图像尺寸A1内指定由视觉传感器模型V1拍摄到测量部位M1的摄像区域A2。然后,在测量部位M1被拍摄为包含于比视觉传感器模型V1的图像尺寸A1窄的摄像区域A2的情况下,位置决定部120将全部的二维位置P11、P21以及P31都包含于视觉传感器模型V1的摄像区域A2内的视觉传感器模型位置决定为视觉传感器模型V1的配置位置。
图10是表示视觉传感器模型V1被安装于机器人模型R1的例子的图。如图10所示,在视觉传感器模型V1被安装于机器人模型R1的臂的前端的情况下,机器人姿势计算部121计算在视觉传感器模型V1的配置位置时的机器人模型R1的姿势。
然后,模拟执行部122使用上述的机器人模型R1、视觉传感器模型V1、测量对象物模型W1,基于动作程序来执行机器人模型R1对测量对象物模型W1进行作业的模拟。
[第二实施方式]
图11至图19是表示第二实施方式所涉及的模拟装置1的处理的图。第二实施方式的测量对象物模型W2的测量部位M2具有立体的形状这一点与第一实施方式不同。
图11是表示第二实施方式所涉及的虚拟空间内的机器人模型R2、视觉传感器模型V2以及测量对象物模型W2的图。如图11所示,虚拟空间制作部111制作三维地表现出作业空间的虚拟空间。然后,测量对象物模型配置部112将三维地表现出测量对象物的测量对象物模型W2配置于虚拟空间内。测量对象物模型W2例如也可以为包含多个长方体及圆柱等立体的形状的工件。基准坐标系K表示虚拟空间内的作为基准的坐标系。
另外,机器人模型配置部113将三维地表现出机器人的机器人模型R2配置于虚拟空间内。机器人模型坐标系CR2表示机器人模型R2的坐标系。机器人模型R2例如也可以为多关节机器人。
图12是表示指定测量部位M2的处理的图。如图12所示,测量部位指定部114在测量对象物模型W2指定测量部位M2。在图12所示的例子中,测量部位指定部114将测量对象物模型W2的全部或局部指定为测量部位M2。
测量部位指定部114例如通过用长方体围住测量对象物模型W2的全部或局部来指定测量部位M2。
图13是表示配置视觉传感器模型V2的处理的图。如图13所示,视觉传感器模型配置部115将视觉传感器模型V2配置于测量部位M2上方的一个以上的任意的视觉传感器模型位置。
另外,距离指定部118指定视觉传感器模型V2与测量部位M2之间的距离D2。例如,距离指定部118按照操作部14的操作,指定固定的距离、或者指定距离的范围,由此来指定距离D2。
图14是表示指定视觉传感器模型V2的姿势的处理的图。如图14所示,传感器姿势指定部117指定将视觉传感器模型V2配置于测量部位M2的上方时的姿势。
具体地说,传感器姿势指定部117以视觉传感器模型V2的光轴垂直于虚拟空间的基准平面(例如虚拟空间的XY平面)的姿势(即,图13的视觉传感器模型V2的姿势)为基准,来指定绕视觉传感器模型坐标系CV2的角度θ2。此外,在无需指定视觉传感器模型V2的姿势的情况下,也可以省略指定视觉传感器模型V2的姿势的处理。
图15和图16是表示将测量部位M2的三维位置P4转换为二维位置P41的处理的图。如图15和图16所示,测量部位M2的三维位置P4在虚拟空间内的基准坐标系K中被表示为坐标(X4,Y4,Z4)。
然后,位置转换部119在视觉传感器模型V2的视觉传感器模型位置下,将测量部位M2的三维位置P4(X4,Y4,Z4)转换为由视觉传感器模型V1拍摄了测量部位M1的情况下的二维位置P41(X41,Y41)。
具体地说,位置转换部119使用摄像条件来将测量部位的三维位置P4转换为由视觉传感器模型V2拍摄了测量部位的情况下的二维位置P41,该摄像条件包含视觉传感器模型V2的视觉传感器模型位置、视觉传感器模型V2的透镜的焦距、视觉传感器模型V2的摄像元件的每一个像素的长度、视觉传感器模型V2的透镜的中心位置等。此外,摄像条件也可以包含与视觉传感器模型V2有关的其它条件。
另外,当由视觉传感器模型配置部115将视觉传感器模型V2的视觉传感器模型位置变更为任意的位置时,位置转换部119在变更后的视觉传感器模型位置下将测量部位的三维位置P4(X4,Y4,Z4)转换为二维位置P41(X41,Y41)。
即,模拟装置1响应于由用户对操作部14进行的输入操作,一边变更由视觉传感器模型配置部115配置的视觉传感器模型位置,一边由位置转换部119重复进行从三维位置P4向二维位置P41的转换。
并且,如图15和图16所示,位置决定部120判定转换后的二维位置P41是否包含于视觉传感器模型V2的图像尺寸A3内。在图15所示的例子中,位置决定部120判定为转换后的二维位置P41不包含于视觉传感器模型V2的图像尺寸A3内。另一方面,在图16所示的例子中,位置决定部120判定为转换后的二维位置P41包含于视觉传感器模型V2的图像尺寸A3内。
图17和图18是表示将视觉传感器模型位置决定为视觉传感器模型V2的配置位置的处理的图。如图17和图18所示,位置转换部119在视觉传感器模型V2的视觉传感器模型位置下,将测量部位M2的三维位置P4(X4,Y4,Z4)、P5(X5,Y5,Z5)以及P6(X6,Y6,Z6)分别转换为二维位置P41(X41,Y41)、P51(X51,Y51)以及P61(X61,Y61)。
此外,在图17和图18所示的例子中,位置转换部119将三个三维位置P4、P5以及P6分别转换为二维位置P41、P51以及P61,但是三维位置的数量不限定于此。
位置决定部120判定转换后的二维位置P41、P51以及P61是否包含于视觉传感器模型V2的图像尺寸A3内。在图17所示的例子中,位置决定部120判定为转换后的全部的二维位置P41、P51以及P61都包含于视觉传感器模型V2的图像尺寸A3内。
然后,位置决定部120将全部的二维位置P41、P51以及P61都包含于视觉传感器模型V2的图像尺寸A3内的视觉传感器模型位置决定为视觉传感器模型V2的配置位置。
在此,在全部的二维位置P41、P51以及P61都包含于视觉传感器模型V2的图像尺寸A3内的视觉传感器模型的位置存在多个的情况下,位置决定部120将测量部位M2在视觉传感器模型V2的图像中拍得最大的位置决定为视觉传感器模型V2的配置位置。
另外,如图18所示,摄像区域指定部116在视觉传感器模型V2的图像尺寸A3内指定由视觉传感器模型V2拍摄到测量部位M2的摄像区域A4。
然后,在测量部位M2被拍摄为包含于比视觉传感器模型V2的图像尺寸A3窄的摄像区域A4的情况下,位置决定部120将全部的二维位置P41、P51以及P61都包含于视觉传感器模型V2的摄像区域A4内的视觉传感器模型位置决定为视觉传感器模型V2的配置位置。
图19是表示视觉传感器模型V2被安装于机器人模型R2的例子的图。如图19所示,在视觉传感器模型V2被安装于机器人模型R2的臂的前端的情况下,机器人姿势计算部121计算在视觉传感器模型V2的配置位置时的机器人模型R2的姿势。
然后,模拟执行部122使用上述的机器人模型R2、视觉传感器模型V2以及测量对象物模型W2,基于动作程序来执行机器人模型R2对测量对象物模型W2进行作业的模拟。
[处理的流程]
图20是表示在第一实施方式和第二实施方式中共通的模拟装置1的处理的流程的流程图。
在步骤S1中,虚拟空间制作部111制作三维地表现出作业空间的虚拟空间。
在步骤S2中,测量对象物模型配置部112将三维地表现出测量对象物的测量对象物模型配置于虚拟空间内。机器人模型配置部113将三维地表现出机器人的机器人模型配置于虚拟空间内。
在步骤S3中,测量部位指定部114在测量对象物模型指定一个以上的测量部位。视觉传感器模型配置部115将三维地表现出视觉传感器的视觉传感器模型配置于测量部位上方的一个以上的任意的视觉传感器模型位置,该视觉传感器用于拍摄测量对象物。
在步骤S4中,位置转换部119在视觉传感器模型位置下,将测量部位的三维位置转换为由视觉传感器模型拍摄了测量部位的情况下的二维位置。
在步骤S5中,位置决定部120将全部的二维位置都包含于视觉传感器模型的图像尺寸内的视觉传感器模型位置决定为视觉传感器模型的配置位置。
[其它实施方式]
另外,其它实施方式所涉及的模拟装置1也可以具备控制部11,该控制部11按照操作者的操作来执行如下的功能。即,控制部11在三维地表现出作业空间的虚拟空间中,在三维地表现出测量对象物的测量对象物模型指定一个以上的测量部位。
接着,控制部11受理用于将三维地表现出视觉传感器的视觉传感器模型配置于测量部位上方的一个以上的任意的视觉传感器模型位置的输入操作,该视觉传感器用于拍摄测量对象物。
并且,控制部11受理用于将包含于视觉传感器模型的图像尺寸内的视觉传感器模型位置决定为视觉传感器模型的配置位置的输入操作。由此,其它实施方式所涉及的模拟装置1能够执行上述的第一实施方式和第二实施方式中所说明的处理。
根据上述的实施方式,模拟装置1具备:虚拟空间制作部111,其制作三维地表现出作业空间的虚拟空间;测量对象物模型配置部112,其将三维地表现出测量对象物的测量对象物模型配置于虚拟空间内;测量部位指定部114,其在测量对象物模型指定测量部位;视觉传感器模型配置部115,其将三维地表现出视觉传感器的视觉传感器模型配置于任意的视觉传感器模型位置,该视觉传感器用于拍摄测量对象物;以及位置决定部120,其基于测量部位的位置,将包含于视觉传感器模型的图像尺寸内的所述视觉传感器模型位置决定为视觉传感器模型的配置位置。
由此,模拟装置1能够自动地决定视觉传感器模型的位置,能够削减视觉传感器模型的位置调整的人力及调整时间,并高效地进行视觉传感器模型的位置调整。
另外,模拟装置1还具备位置转换部119,该位置转换部119在视觉传感器模型位置下,将测量部位的三维位置转换为由视觉传感器模型拍摄了测量部位的情况下的二维位置,位置决定部120将全部的二维位置都包含于视觉传感器模型的图像尺寸内的视觉传感器模型位置决定为视觉传感器模型的配置位置。由此,模拟装置1能够将能够适当地拍摄测量部位的视觉传感器模型位置自动地决定为视觉传感器模型的配置位置。
另外,模拟装置1还具备:机器人模型配置部113,其将三维地表现出机器人的机器人模型配置于虚拟空间内;以及机器人姿势计算部121,其在视觉传感器模型被安装于机器人模型的情况下,计算在视觉传感器模型的配置位置时的机器人模型的姿势。由此,模拟装置1能够使用能够适当地拍摄测量部位的视觉传感器模型位置,来计算机器人模型的姿势。
另外,模拟装置1还具备摄像区域指定部116,该摄像区域指定部116在视觉传感器模型的图像尺寸内指定由视觉传感器模型拍摄到测量部位的摄像区域。由此,模拟装置1能够指定期望的摄像区域,来适当地拍摄测量部位。
另外,模拟装置1还具备传感器姿势指定部117,该传感器姿势指定部117指定将视觉传感器模型配置于测量部位的上方时的姿势。由此,模拟装置1能够指定期望的视觉传感器模型的姿势,来适当地拍摄测量部位。
另外,模拟装置1还具备距离指定部118,该距离指定部118指定视觉传感器模型与测量部位之间的距离。由此,模拟装置1能够指定期望的视觉传感器模型与测量部位之间的距离,来适当地拍摄测量部位。
另外,传感器姿势指定部117以视觉传感器模型的光轴垂直于虚拟空间的基准平面的姿势为基准,来指定绕视觉传感器模型的坐标系的角度。由此,模拟装置1能够指定期望的视觉传感器模型的角度,来适当地拍摄测量部位。
另外,在全部的二维位置都包含于视觉传感器模型的图像尺寸内的视觉传感器模型的位置存在多个的情况下,位置决定部120将测量部位在视觉传感器模型的图像中拍得最大的位置决定为视觉传感器模型的配置位置。由此,模拟装置1能够将最适当的视觉传感器模型位置自动地决定为视觉传感器模型的配置位置。
另外,位置转换部119使用摄像条件来将测量部位的三维位置转换为由视觉传感器模型拍摄了测量部位的情况下的二维位置,该摄像条件包含视觉传感器模型的视觉传感器模型位置、视觉传感器模型的透镜的焦距、视觉传感器模型的摄像元件的每一个像素的长度、以及视觉传感器模型的透镜的中心位置。由此,模拟装置1能够将测量部位的三维位置转换为二维位置。
另外,控制部11在三维地表现出作业空间的虚拟空间中,在三维地表现出测量对象物的测量对象物模型指定一个以上的测量部位。接着,控制部11受理用于将三维地表现出视觉传感器的视觉传感器模型配置于测量部位上方的一个以上的任意的视觉传感器模型位置的输入操作,该视觉传感器用于拍摄测量对象物。并且,控制部11受理用于将包含于视觉传感器模型的图像尺寸内的视觉传感器模型位置决定为视觉传感器模型的配置位置的输入操作。
由此,模拟装置1能够自动地决定视觉传感器模型的位置,能够削减视觉传感器模型的位置调整的人力及调整时间,并高效地进行视觉传感器模型的位置调整。
上面说明了本发明的实施方式,但上述的机器人1能够通过硬件、软件或它们的组合来实现。另外,由上述的机器人1进行的控制方法也能够通过硬件、软件或它们的组合来实现。在此,通过软件实现是指由计算机读入并执行程序来实现。
程序能够使用各种类型的非暂态的计算机可读介质(non-transitory computerreadable medium)进行保存并被供给至计算机。非暂态的计算机可读介质包括各种类型的有实体的记录介质(tangible storage medium:有形存储介质)。飞暂态的计算机可读介质的例子包括磁记录介质(例如硬盘驱动器)、光磁记录介质(例如磁光盘)、CD-ROM(ReadOnly Memory:只读存储器)、CD-R、CD-R/W、半导体存储器(例如掩模ROM、PROM(Programmable ROM:可编程ROM)、EPROM(Erasable PROM:可擦PROM)、闪存、RAM(randomaccess memory:随机存取存储器))。
另外,上述的各实施方式为本发明的较佳的实施方式,但并非将本发明的范围仅限定为上述的各实施方式,能够以在不脱离本发明的宗旨的范围内实施各种变更得到的方式来实施。
附图标记说明
1:模拟装置;11:控制部;12:存储部;13:显示部;14:操作部;111:虚拟空间制作部;112:测量对象物模型配置部;113:机器人模型配置部;114:测量部位指定部;115:视觉传感器模型配置部;116:摄像区域指定部;117:传感器姿势指定部;118:距离指定部;119:位置转换部;120:位置决定部;121:机器人姿势计算部;122:模拟执行部。

Claims (10)

1.一种模拟装置,具备:
虚拟空间制作部,其制作三维地表现出作业空间的虚拟空间;
测量对象物模型配置部,其将三维地表现出测量对象物的测量对象物模型配置于所述虚拟空间内;
测量部位指定部,其用于在所述测量对象物模型指定测量部位;
视觉传感器模型配置部,其将三维地表现出视觉传感器的视觉传感器模型配置于任意的视觉传感器模型位置,所述视觉传感器用于拍摄所述测量对象物;以及
位置决定部,其基于所述测量部位的位置,将包含于所述视觉传感器模型的图像尺寸内的所述视觉传感器模型位置决定为所述视觉传感器模型的配置位置。
2.根据权利要求1所述的模拟装置,其中,
还具备位置转换部,所述位置转换部在所述视觉传感器模型位置下,将所述测量部位的三维位置转换为由所述视觉传感器模型拍摄了所述测量部位的情况下的二维位置,
所述位置决定部将全部的所述二维位置都包含于所述视觉传感器模型的图像尺寸内的所述视觉传感器模型位置决定为所述视觉传感器模型的配置位置。
3.根据权利要求1或2所述的模拟装置,还具备:
机器人模型配置部,其将三维地表现出机器人的机器人模型配置于所述虚拟空间内;以及
机器人姿势计算部,其在所述视觉传感器模型被安装于所述机器人模型的情况下,计算在所述视觉传感器模型的配置位置时的所述机器人模型的姿势。
4.根据权利要求1至3中的任一项所述的模拟装置,其中,
还具备摄像区域指定部,所述摄像区域指定部用于在所述视觉传感器模型的图像尺寸内指定由所述视觉传感器模型拍摄到所述测量部位的摄像区域。
5.根据权利要求1至4中的任一项所述的模拟装置,其中,
还具备传感器姿势指定部,所述传感器姿势指定部用于指定将所述视觉传感器模型配置于所述测量部位的上方时的姿势。
6.根据权利要求1至5中的任一项所述的模拟装置,其中,
还具备距离指定部,所述距离指定部用于指定所述视觉传感器模型与所述测量部位之间的距离。
7.根据权利要求5所述的模拟装置,其中,
所述传感器姿势指定部以所述视觉传感器模型的光轴垂直于所述虚拟空间的基准平面的姿势为基准,来指定绕所述视觉传感器模型的坐标系的角度。
8.根据权利要求2所述的模拟装置,其中,
在全部的所述二维位置都包含于所述视觉传感器模型的图像尺寸内的所述视觉传感器模型的位置存在多个的情况下,所述位置决定部将所述测量部位在所述视觉传感器模型的图像中拍得最大的位置决定为所述视觉传感器模型的配置位置。
9.根据权利要求2所述的模拟装置,其中,
所述位置转换部使用摄像条件来将所述测量部位的三维位置转换为由所述视觉传感器模型拍摄了测量部位的情况下的二维位置,所述摄像条件包含所述视觉传感器模型的视觉传感器模型位置、所述视觉传感器模型的透镜的焦距、所述视觉传感器模型的摄像元件的每一个像素的长度以及所述视觉传感器模型的透镜的中心位置。
10.一种模拟装置,具备控制部,所述控制部执行以下功能:
在三维地表现出作业空间的虚拟空间中,在三维地表现出测量对象物的测量对象物模型指定测量部位;
受理用于将三维地表现出视觉传感器的视觉传感器模型配置于任意的视觉传感器模型位置的输入操作,所述视觉传感器用于拍摄所述测量对象物;以及
受理用于将包含于所述视觉传感器模型的图像尺寸内的所述视觉传感器模型位置决定为所述视觉传感器模型的配置位置的输入操作。
CN202180098127.XA 2021-07-28 2021-07-28 模拟装置 Pending CN117279749A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/027920 WO2023007621A1 (ja) 2021-07-28 2021-07-28 シミュレーション装置

Publications (1)

Publication Number Publication Date
CN117279749A true CN117279749A (zh) 2023-12-22

Family

ID=85087661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180098127.XA Pending CN117279749A (zh) 2021-07-28 2021-07-28 模拟装置

Country Status (5)

Country Link
JP (1) JPWO2023007621A1 (zh)
CN (1) CN117279749A (zh)
DE (1) DE112021007545T5 (zh)
TW (1) TW202305749A (zh)
WO (1) WO2023007621A1 (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3732494B2 (ja) * 2003-10-31 2006-01-05 ファナック株式会社 シミュレーション装置
JP2006010312A (ja) * 2004-06-21 2006-01-12 Constec Engi Co 撮像装置
JP2008021092A (ja) 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
JP5365443B2 (ja) * 2009-09-17 2013-12-11 富士通株式会社 シミュレーション装置,シミュレーション方法およびシミュレーションプログラム
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置

Also Published As

Publication number Publication date
WO2023007621A1 (ja) 2023-02-02
JPWO2023007621A1 (zh) 2023-02-02
DE112021007545T5 (de) 2024-02-22
TW202305749A (zh) 2023-02-01

Similar Documents

Publication Publication Date Title
US9199379B2 (en) Robot system display device
KR101636605B1 (ko) 적어도 3개의 이산 평면에 따른 머신 비젼 카메라의 보정을 위한 시스템 및 방법
EP2963513B1 (en) Teaching apparatus and robot system
JP6886620B2 (ja) キャリブレーション方法、キャリブレーションシステム及びプログラム
JP2009214212A (ja) 動作教示システム及び動作教示方法
CN111225143B (zh) 图像处理装置及其控制方法以及程序存储介质
JP2019098409A (ja) ロボットシステムおよびキャリブレーション方法
JP2009269134A (ja) 視覚検査装置のシミュレーション装置
US20180374265A1 (en) Mixed reality simulation device and computer readable medium
JP2017201276A (ja) 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
CN109835706B (zh) 工件配置系统
CN112767479A (zh) 位置信息检测方法、装置、系统及计算机可读存储介质
CN117279749A (zh) 模拟装置
CN113167575A (zh) 使用多模态进行测量的系统和方法
CN115042184A (zh) 机器人手眼坐标转换方法、装置、计算机设备和存储介质
CN115213894A (zh) 机器人图像的显示方法、显示系统以及记录介质
Scaria et al. Cost Effective Real Time Vision Interface for Off Line Simulation of Fanuc Robots
JP2018017610A (ja) 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム
CN114502913A (zh) 修正参数计算方法及装置、位移量计算方法及装置
JP7401250B2 (ja) 画像処理装置、制御方法およびプログラム
JP7340069B1 (ja) マーカ位置登録プログラム、マーカ位置登録装置、マーカ位置登録方法及びその方法に用いるマーカ
KR102585332B1 (ko) 로봇 핸드와 로봇 핸드와 분리된 카메라 간의 캘리브레이션을 수행하는 방법 및 디바이스
EP4238721A1 (en) Control device, control method, and program
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
WO2023248394A1 (ja) 処理装置、処理システムおよび処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination