CN113165186A - 机器人系统及其控制装置和控制方法、摄像装置、控制程序和存储介质 - Google Patents
机器人系统及其控制装置和控制方法、摄像装置、控制程序和存储介质 Download PDFInfo
- Publication number
- CN113165186A CN113165186A CN201980059795.4A CN201980059795A CN113165186A CN 113165186 A CN113165186 A CN 113165186A CN 201980059795 A CN201980059795 A CN 201980059795A CN 113165186 A CN113165186 A CN 113165186A
- Authority
- CN
- China
- Prior art keywords
- robot
- image pickup
- imaging
- control
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000003860 storage Methods 0.000 title claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims description 114
- 230000004044 response Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000004519 manufacturing process Methods 0.000 claims description 7
- 239000012636 effector Substances 0.000 description 34
- 238000010586 diagram Methods 0.000 description 23
- 230000002159 abnormal effect Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 230000002093 peripheral effect Effects 0.000 description 9
- 230000005856 abnormality Effects 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 6
- 238000011084 recovery Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012959 renal replacement therapy Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
- B65G47/905—Control arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40167—Switch between simulated display of remote site, and actual display
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40323—Modeling robot environment for sensor based robot system
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40504—Simultaneous trajectory and camera planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40515—Integration of simulation and planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40611—Camera to monitor endpoint, end effector position
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40617—Agile eye, control position of camera, active vision, pan-tilt camera, follow object
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明公开一种机器人系统及其控制装置和控制方法、摄像装置、控制程序和存储介质。包括机器人装置和摄像装置的机器人系统包括:控制装置,其被配置为控制机器人装置和摄像装置,且控制装置基于机器人装置的预定部分被移动的路径来控制摄像装置的移动,以便即使机器人装置被移动,仍对预定部分进行摄像。
Description
技术领域
本发明涉及一种机器人系统。
背景技术
近年来,通过使用机器人装置的机器人系统,已使得在工厂生产线中执行的诸如组装、运输和涂装工作等工作自动化。作为机器人装置的示例,给出了使用具有多个旋转驱动关节的机器人手臂的多关节机器人和使用具有多个水平驱动臂连杆的机器人手臂的垂直多关节机器人。
随着机器人系统的控制技术的进步,可以从远程位置对机器人装置给出期望的操作命令。例如,将两个装置(控制机器人装置的控制装置以及由操作者在远程位置操作的计算机)连接到网络,并且通过例如网络照相机等摄像装置将机器人装置显示在计算机的画面上。这样,远程位置的操作者可以在计算机画面上操作机器人装置。
因此,即使在工厂中的机器人装置中发生了异常并且操作者必须通过视觉识别来进行机器人装置的维护工作的情况下,操作者也可以通过使用摄像装置从远程位置进行维护工作。因此,可以计划使工厂生产线不仅自动化而且无人值守。
上述无人化工厂生产线不仅可以实现人工成本的降低,而且即使在由于工厂环境而使操作者不宜进入工厂的情况下,也可以实现工厂的监视,因此对无人化工厂的需求在增加。
如上所述,为了利用摄像装置、通过视觉识别来从远程位置操作机器人装置,重要的是摄像装置的视点。如果如上所述的机器人装置中发生异常,在为了通过视觉识别从远程位置视觉地进行维护工作而使机器人装置执行预定操作的情况下,存在操作者想要基于机器人装置的操作来密切观察的视点。
例如,在将机器人手安装在机器人手臂的前端的机器人装置用于通过诸如利用机器人手抓取目标物等操作进行维护工作的情况下,操作者必须密切观察机器人手和工件。
此外,在由于发生异常而使机器人装置的机器人手臂停止、并从停止的机器人手臂的姿势恢复到预定姿势的情况下,机器人手臂的特定部分可能会经过附近障碍物的周边。在这种情况下,为了在机器人手臂的特定部分即将与附近的障碍物接触时紧急停止机器人手臂,希望控制摄像装置的视点,以便在执行恢复机器人手臂的操作时持续地密切观察特定部分的周围。
在专利文献1中,讨论了一种方法,其中,通过从由摄像装置拍摄的视频图像中检测出要由摄像装置密切观察的目标物的移动轨迹,可以容易地执行摄像装置的跟踪控制。
引文清单
专利文献
专利文献1:日本特开2016-111649号公报
发明内容
技术问题
在专利文献1中讨论的技术,通过执行用于检测摄像装置拍摄的视频图像中的目标物位置的处理(图像匹配),允许控制摄像装置的视点以跟踪目标物。因此,在要控制摄像装置的视点以跟踪机器人装置的移动的情况下,需要在机器人的各个部分上设置多个跟踪标记。在许多情况下,各种外围设备被安装在工厂使用的机器人装置中,因此如果跟踪标记被隐藏在其他外围设备的后面,则将难以执行对摄像装置的视点的跟踪控制。
考虑到上述问题,本发明涉及一种机器人系统,该机器人系统能够在基于摄像装置执行的摄像而操作安装有外围设备的机器人装置时,不使用跟踪标记而控制摄像装置的视点。
问题的解决方案
为了解决上述问题,本发明采用了包括机器人装置和摄像装置的机器人系统。机器人系统包括被配置为控制机器人装置和摄像装置的控制装置,且该控制装置基于机器人装置的预定部分移动的路径来控制摄像装置的移动,以便即使机器人装置移动,仍对该预定部分进行摄像。
发明的有益效果
根据本发明的一个方面,基于操作者想要密切观察的目标物的路径,即使移动了目标物,仍控制摄像装置连续执行摄像。利用该配置,可以在不使用跟踪标记的情况下控制摄像装置的视点。
附图说明
【图1】图1是示出根据示例性实施例的机器人系统1000的配置的图。
【图2】图2是示出根据示例性实施例的机器人装置1的配置的图。
【图3】图3是示出根据示例性实施例的摄像装置2的配置的图。
【图4】图4是示出根据示例性实施例的计算机3的配置的图。
【图5】图5是示出根据示例性实施例的控制方法的流程图。
【图6A】图6A是示出根据示例性实施例的机器人装置1异常停止的状态的图。
【图B】图6B是示出根据示例性实施例的机器人装置1异常停止的状态的图。
【图7】图7是示出根据示例性实施例的计算出的路径和摄像视点的图。
【图8】图8是示出根据示例性实施例的用于监视正由摄像装置2摄像的机器人装置1的画面结构的图。
【图9】图9是示出根据示例性实施例的用于监视正由摄像装置2摄像的机器人装置1的画面结构的变形示例的图。
【图10】图10是示出根据示例性实施例的摄像装置4的配置的图。
【图11A】图11A是示出根据示例性实施例的用于监视正由摄像装置4摄像的机器人装置1的画面结构的图。
【图11B】图11B是示出根据示例性实施例的用于监视正由摄像装置4摄像的机器人装置1的画面结构的图。
【图12】图12是示出根据示例性实施例的用于监视正由摄像装置2摄像的机器人装置1的画面结构的图。
具体实施方式
在下文中,将参照附图描述体现本发明的示例性实施例。下文中描述的示例性实施例仅是示例,本领域技术人员可以在不脱离本发明范围的范围内适当地改变配置的细节。此外,在本示例性实施例中提到的值是参考值,并不旨在限制本发明。
【第一示例性实施例】
图1是示出根据本示例性实施例的机器人系统1000的示意性配置的图。在本示例性实施例中,将使用机器人装置1执行的用以将通过传送带150沿箭头P所示的方向传送的工件Wa至Wd布置到托盘152上的任务的示例来进行描述。
机器人系统1000由机器人装置1、用于对机器人装置1的状态进行摄像的摄像装置2、用于控制机器人装置1和摄像装置2的机器人系统控制装置13以及允许操作者从远程位置浏览摄像装置2拍摄的视频图像的计算机3构成。计算机3和机器人系统控制装置13经由通信装置60以可远程通信的状态连接。
这里,远程位置是指操作者不能直接且在视觉上将机器人装置1识别为操作目标、而是可以利用摄像装置2在视觉上识别机器人装置1的地方。
如图1所示,摄像装置2被安装在杆155上,并且摄像装置2对机器人装置1的移动进行摄像,并在安装于远程位置的计算机3的显示器31上显示机器人装置1的图像。另外,在机器人装置1的周围配置有防护壁153和154。为了安全起见,配置有防护壁153和154,从而可以防止工件和操作者与机器人装置1碰撞。
图2是示出根据本示例性实施例的机器人装置1的配置的图。在本示例性实施例中,将描述六轴多关节机器人作为机器人装置的示例。
如图2所示,机器人装置1包括基座10、具有六个关节J1至J6的机器人手臂主体50以及用于抓握工件的末端执行器11。机器人装置1经由电缆12连接至机器人系统控制装置13。此外,机器人系统控制装置13包括用于连接至外部网络的网卡,并且经由电缆14连接至通信装置60以连接到外部网络。
在本示例性实施例中,将以具有三个手指部分的机器人手作为末端执行器11的示例进行描述。尽管在本示例性实施例中以具有手指部分的机器人手为示例,但是可以单独使用能够在工件上执行任务的机构,例如,利用代替手指部分而配设的吸附机构来保持工件的末端执行器。
机器人系统控制装置13由包括微处理器的中央处理单元(CPU)构成。外部输入设备可以连接至机器人系统控制装置13。例如,可以给出使示教者能够在机器人装置1附近直接示教机器人装置1的示教器,作为外部输入设备的示例。
示教者通过使用外部输入设备将命令值输入到机器人控制装置13,并且来自控制装置13的控制值被传输到机器人手臂主体50和末端执行器11,这使得机器人装置1执行诸如在托盘152上布置工件等的操作。然后,机器人装置1对工件进行操作以制造物品。
机器人系统控制装置13包括只读存储器(ROM),其存储有用于根据机器人手臂主体50的各种移动和执行该控制所需的数据来控制相应的驱动单元的程序。机器人系统控制装置13还包括随机存取存储器(RAM),其上加载有控制机器人手臂主体50所需的数据、设定值和程序,并且还用作CPU的工作区域。
如图2所示,例如,机器人手臂主体50由通过串联(serial link)方法经由多个关节(六个轴)彼此连接的多个连杆构成。机器人手臂主体50的连杆51、52、53、54、55和56通过关节J1、J2、J3、J4、J5和J6被驱动。各个关节包括用作驱动源的马达(未示出)。
如图2所示,机器人手臂主体50的基座10和连杆51通过围绕Z轴方向的旋转轴旋转的关节J1而连接。例如,关节J1具有从初始姿势大约±180度的可移动范围。
机器人手臂主体50的连杆51和52通过关节J2连接。在图2所示的状态下,关节J2的旋转轴与X轴方向一致。例如,关节J2具有从初始姿势大约±80度的可移动范围。
机器人手臂主体50的连杆52和53通过关节J3连接。在图2所示的状态下,关节J3的旋转轴与X轴方向一致。例如,关节J3具有从初始姿势大约±70度的可移动范围。
机器人手臂主体50的连杆53和54通过关节J4连接。在图2所示的状态下,关节J4的旋转轴与Y轴方向一致。例如,关节J4具有从初始姿势大约±180度的可移动范围。
机器人手臂主体50的连杆54和55通过关节J5连接。关节J5的旋转轴与X轴方向一致。关节J5具有从初始姿势大约±120度的可移动范围。
机器人手臂主体50的连杆55和56通过关节J6连接。关节J6的旋转轴与Z轴方向一致。关节J6具有从初始姿势大约±240度的可移动范围。
此外,用于执行生产线中的组装工作或运输工作的机器人手被用作连接到机器人手臂主体50的前端的末端执行器11。
末端执行器11可以通过诸如螺钉等的半固定方法或者通过诸如闩锁等的附接-拆卸方法附接到连杆56。
特别地,在可拆卸地安装末端执行器11的情况下,可以考虑这样一种方法,即,通过机器人手臂主体50自身的移动来控制机器人手臂主体50附接或替换为设置在供给位置上的另一个末端执行器11。
此外,在本示例性实施例中,为了执行关节J1至J6的驱动的反馈控制,在关节J1至J6的每一个上布置有扭矩传感器和编码器(未示出)。
图3是示出摄像装置2的配置的图。在本示例性实施例中,将以能够执行平摇、俯仰和变焦的摄像装置为例进行描述。
摄像装置2包括照相机基座20、可移动单元21和可移动单元21内部的摄像单元22。
可移动单元21包括俯仰马达,并且摄像单元22通过诸如轴和轴承的传动机构设置在其中,这使得摄像单元22能够沿箭头A所示的俯仰方向旋转。
类似地,可移动单元21包括平摇马达,并且摄像单元22通过诸如轴和轴承的传动机构设置在其中,这使得摄像单元22能够沿箭头B所示的平摇方向旋转。
此外,摄像装置2包括用于连接至外部网络的网卡,并且经由电缆23连接至通信装置60以连接到外部网络。
利用上述配置,摄像装置2可以通过可移动单元21对机器人装置1及其附近的预定位置进行摄像,从而可以经由通信装置60在远程位置的计算机3的显示器31上显示拍摄的图像。
图4是示出使操作者能够基于从摄像装置2获取的拍摄图像来操作机器人装置1的计算机3的图。计算机3包括操作系统(OS)30、显示器31、键盘32和鼠标33。
在显示器31上显示用于在远程位置控制机器人装置1的界面和由摄像装置2摄像的拍摄图像。
此外,OS 30包括用于连接到外部网络的网卡,并经由电缆34连接到通信装置60以连接到外部网络。
利用上述配置,操作者可以基于在显示器31上显示的信息,通过使用键盘32和鼠标33输入命令值,以从远程位置操作机器人装置1和摄像装置2。
在本示例性实施例中,已经使用示例进行了描述,在该示例中,机器人装置1执行将通过传送带150沿箭头P所示的方向传送的工件Wa至Wd布置在托盘152上的任务。根据预先创建的操作程序,执行用于布置工件的机器人装置1的操作。在本示例性实施例中,该操作称为正常操作。
然而,存在由于某种异常的发生而使机器人装置1的操作停止的情况。例如,可以考虑以下情形:由于现场操作者进入机器人装置1的附近而使机器人装置1紧急停止、由于传送带150上传送了不同类型的工件使得在正常操作期间发生了一些异常。
此时,将机器人装置1停止的位置称为异常停止位置。通常,为了使机器人装置1恢复到正常操作,必须将机器人装置1移动到在正常操作中指定为初始起点的位置。该位置被称为恢复位置,将机器人装置1的从异常停止位置到恢复位置的操作称为恢复。
为了执行恢复,在本示例性实施例中,操作者利用摄像装置2从远程位置检查机器人装置1的状态,创建并执行机器人装置1的恢复轨迹,并监视操作中的机器人装置1。
此时,为了避免机器人装置1与任何外围设备接触,当操作者基于摄像装置2的摄像来操作机器人装置1时,使操作者能够在容易地确认安全的同时执行上述操作,而未使用跟踪标记。细节将在下面进行描述。
图5是示出根据本示例性实施例的机器人装置1和摄像装置2的控制方法的流程图。该控制方法包括八个处理步骤S100至S107。下面将参考附图描述在每个处理步骤中执行的具体方法。
首先,假定机器人装置1进入上述异常状态,在机器人装置1停在异常停止位置的状态下开始处理流程。
图6A是示出了当正在操作的机器人装置1异常停止时机器人装置1的异常停止位置和恢复位置的图。图6B是示出当操作者模拟显示异常状态下的机器人装置1时的计算机3的显示器31的画面结构的图。
图6A和图6B示出了机器人装置1的末端执行器11停在异常停止位置70处的状态,并且末端执行器11必须恢复到工件Wa上方的恢复位置71。在本示例性实施例中,机器人系统具有基于关于起点和终点的信息而自动生成机器人装置1的轨迹的功能。
在图6B中,在计算机3的画面上显示用于执行3D画面显示的3D模型显示单元80和用于创建机器人装置1的轨迹的轨迹生成显示单元90。
实际布置的机器人装置1和工件作为3D模型模拟显示在3D模型显示单元80上。
操作者可以利用键盘32和鼠标33来适当地移动诸如机器人装置1和传送带150之类的可移动物体。为方便起见,在显示在3D模型显示单元80上的物体的附图标记上附有符号[']。
轨迹生成显示单元90包括用于设置起点的起点选择框91和用于设置终点的终点选择框92。由操作者创建的示教点被显示在起点选择框91和终点选择框92内,从而操作者可以进行选择。
轨迹生成显示单元90还包括轨迹生成按钮93、轨迹再现按钮94、临时停止按钮95和停止按钮96。
当操作者点击轨迹生成按钮93时,执行用于计算从在起点选择框91中选择的示教点开始到在终点选择框92中选择的示教点为止的机器人装置1的轨迹的处理。
使用诸如快速探索随机树(RRT)之类的技术来执行轨迹的计算。当结束轨迹的计算时,操作者可以通过点击轨迹再现按钮94来检查机器人装置1和末端执行器11实际在3D模型显示单元80上如何移动。
在此使用的轨迹表示机器人装置1的各个关节J1至J6每个控制周期的位移值。例如,当机器人装置1的控制周期为4ms、机器人装置1执行耗时2000ms的移动时,轨迹由关节J1至J6的总共500组位移值表示。
返回图5,当由于机器人装置1中出现异常而使机器人装置1停在异常停止位置时,开始该处理流程,并且处理进入步骤S100。
在步骤S100中,当在实际布置的机器人装置1中发生异常时,机器人系统控制装置13和OS 30彼此通信,并且将3D模型显示单元80上的机器人装置1'显示为与机器人装置1姿势相同。
此时,OS 30从机器人系统控制装置13接收到异常状态下的机器人装置1的关节J1至J6中配设的编码器的检测值,并基于编码器的检测值显示建模的机器人装置1'。通过该处理,机器人装置1'能够以与发生异常时的机器人装置1相同的姿势显示在3D模型显示单元80上。
接下来,在步骤S101中,基于从处于远程位置的操作者接收到的预定指令,模拟生成使末端执行器11从异常停止位置移动到恢复位置的机器人装置1的轨迹。在此,操作者输入异常停止位置70作为起点,并输入恢复位置71作为终点。
然后,在步骤S102中,基于步骤S101中计算出的机器人装置1的轨迹,计算出末端执行器11的路径。这里使用的路径表示当机器人装置1沿着轨迹移动时,针对轨迹的每个控制周期来布置机器人装置1的特定部分的位置的转换。
在本示例性实施例中,将末端执行器11设置为特定部分。当机器人装置1的控制周期为4ms且机器人装置1的操作花费2000ms时,基于2000ms/4ms顺次将末端执行器11总共移动至500个位置。
尽管在本示例性实施例中将末端执行器11描述为机器人装置1的特定部分的示例,但是可以将诸如机器人手臂主体50的关节J1到J6中的任一个的预定位置指定为特定部分。
将选择为特定部分的位置指定为摄像装置2要摄像的位置。因此,例如,如果机器人装置1的任何部分可能与防护壁153或154接触,则该部分可以被选择为特定部分。
通过基于该轨迹(即,机器人的各个关节J1至J6的位移)解决机器人的正向运动学,可以计算出末端执行器11的位置,并且可以计算出末端执行器11的路径。步骤S102中的处理对应于路径计算处理。
当在步骤S101和S102中分别计算出机器人装置1的轨迹和末端执行器11的路径时,路径81被显示在3D模型显示单元80上(图6B)。另外,操作者可以在检查路径81和由摄像装置2摄像的拍摄图像的同时,修改在步骤S101中生成的机器人装置1的轨迹。
接下来,在步骤S103中,计算用于控制摄像装置2的可移动单元21的摄像视点。当从远程位置控制摄像装置2时,必须考虑从远程位置到摄像装置2的通信延迟。这是因为,在由摄像装置2摄像的机器人装置1的移动与实际操作中的实际机器人装置1的移动之间会出现差异。由于处于远程位置的操作者基于摄像装置2摄像的拍摄图像来操作机器人装置1,因此在出现差异的情况下,操作者可能会执行非预期的机器人装置1的操作,这可能会引起麻烦。
因此,在本示例性实施例中,通过将从远程位置到摄像装置2的通信中花费的响应时间的值作为周期来从路径81提取摄像视点。响应时间是指从远程示教者通过OS 30将命令值输入到摄像装置2时的时间点开始、基于命令值驱动摄像装置2所花费的时间。
例如,假定机器人装置1的控制周期为4ms,并且使末端执行器11在路径81中移动所花费的时间为280ms。此时,末端执行器11基于280ms/4ms顺次移动到路径81中的70个位置。
然而,通常情况是,远程位置的摄像装置2与OS 30之间的响应时间大于机器人装置1的控制周期4ms。例如,假定摄像装置2和OS 30之间的响应时间是40ms。
根据上述计算,末端执行器11在路径81中的位置数量是70。因此,根据40ms×70,基于示教者输入的命令值来驱动摄像装置2以对所有位置进行摄像将至少花费2800ms。由于机器人装置1在路径81中的操作时间是280ms,因此在正由摄像装置2摄像的机器人装置1与实际正在操作中的机器人装置1之间将存在差异。
因此,通过将路径81上的末端执行器11的操作时间除以在摄像装置2与OS 30之间进行通信所花费的响应时间来计算摄像视点。
因为末端执行器11在路径81中的操作时间是280ms,并且在摄像装置2和OS 30之间的通信中花费的响应时间是40ms,因此,基于280ms/40ms提取末端执行器11在路径81中的7个位置以计算摄像视点。通过该计算,端部执行器11的操作时间和摄像装置2的摄像时间可以彼此大致匹配,从而可以减小上述差异。步骤S103中的处理对应于摄像视点计算处理。
图7是示出用于通过摄像装置2对路径81进行摄像的多个摄像视点的图。在移动了末端执行器11的路径81中示出了总共7个摄像视点,包括6个摄像视点82至87以及恢复位置71。如果还向其添加异常停止位置70,则摄像视点的总数将为8。
接下来,在步骤S104中,计算与每个摄像视点相对应的摄像装置2的控制命令值。摄像装置2的控制命令包括平摇马达的旋转量和俯仰马达的旋转量的组合。OS 30利用模仿机器人装置1和外围设备的模拟器来执行上述计算。可以根据摄像视点与摄像装置之间的相对位置关系来计算平摇/俯仰旋转量。此外,可以基于摄像视点与摄像装置2之间的距离来调整摄像装置2的变焦量。
通过经由OS 30和控制装置13将上述控制命令值发送到摄像装置2,可以移动摄像装置2以在步骤S103中计算出的摄像视点处执行摄像。另外,不能集中发送摄像装置2的控制命令值,因此需要连续发送控制命令值,以便连续移动摄像装置2。
接下来,在步骤S105中,计算与步骤S102中获取的轨迹相对应的机器人装置1的控制命令值。尽管可以以各种形式考虑机器人装置1的控制命令,但是在本示例性实施例中,将每个控制周期的关节J1至J6的位移值(即轨迹本身)作为机器人装置1的控制命令值。
通过将控制命令值发送到机器人系统控制装置13,可以从远程位置操作机器人装置1。另外,能够预先共同发送用于使机器人装置1从起点移动到终点的控制命令值。
接下来,在步骤S106中,设置要由摄像装置2的摄像单元22摄像的第一摄像视点。在本示例性实施例中,将机器人装置1当前异常停止的位置,即异常停止位置70,设置为第一摄像视点。
最后,在步骤S107中,将在步骤S104中计算出的摄像装置2的控制命令值和在步骤S105中计算出的机器人装置1的控制命令值发送到机器人系统控制装置13。机器人装置1的控制命令值可以被共同发送,但摄像装置2的控制命令值不能被共同发送。因此,需要针对步骤S103中指定的每个周期发送控制命令值。利用这种配置,可以容易地控制摄像装置2的视点以跟踪机器人装置1的移动。
图8是示出当操作者监视机器人装置1的移动时计算机3的画面结构的图。当直至步骤S107的处理结束时,在显示器31上显示的3D模型的显示被切换为对正由摄像装置2摄像的拍摄图像进行显示。该显示被设定为使得操作者能够在任意的时刻切换显示。
如图8所示,当通过摄像装置2监视机器人装置1的移动时,在显示器31上显示摄像显示单元100、机器人装置操作单元110和摄像操作单元120。
摄像显示单元100是用于显示正由摄像装置2摄像的拍摄图像的盖单元,机器人装置操作单元110是用于对机器人装置1进行操作的操作单元,并且摄像操作单元120是用于对摄像装置2进行操作的操作单元。
机器人装置操作单元110包括分别用于手动和自动操作机器人装置1的两个操作部分。
作为手动操作的方法,机器人装置操作单元110包括:末端执行器操作按钮111,其用于在任意坐标系中沿XYZ方向移动机器人装置1的末端执行器11;以及关节操作按钮112,其用于操作每个关节J1到J6的旋转量。
此外,对于执行自动操作的情况,机器人装置操作单元110包括用于利用实际机器人装置1执行步骤S101中计算出的轨迹的执行按钮113,临时停止按钮114和紧急停止按钮115。
摄像操作单元120还包括分别用于手动和自动操作摄像装置2的两个操作部分。
手动操作包括用于执行摄像装置2的平摇/俯仰操作的视点操作按钮121和用于执行放大/缩小操作的变焦操作按钮122。
此外,用于执行自动操作的显示单元包括用于指定摄像装置2的摄像目标的摄像目标框123。在其中显示与机器人装置1有关的部分,并且在步骤S102中基于从中选择的部分来计算路径。
在操作者想要基于步骤S103中计算的摄像视点执行自动摄像控制的情况下,操作者点击跟踪ON按钮124。在不需要摄像装置2进行跟踪的情况下,操作者点击跟踪OFF按钮125。
上面已经描述了根据本示例性实施例的用于跟踪机器人装置1的移动的摄像装置1的视点的操作控制方法。通过将跟踪按钮124设置为ON并按下用于执行机器人装置1的自动操作的执行按钮113,可以容易地控制照相机以跟踪机器人装置1的移动,而无需事先进行诸如布置跟踪标记等准备。以这种方式,可以防止由于隐藏在外围设备后面的跟踪标记而导致难以控制摄像装置的视点。
此外,当实际操作机器人装置1时,可能会发生操作者无法预料的事件。然而,由于自动控制摄像装置2的视点以跟踪机器人装置1的移动,因此操作者可以集中精力在机器人装置1的操作上。因此,即使在发生了意外事件的情况下,操作人员也可以迅速采取诸如执行紧急停止操作等的措施,从而可以防止机器人装置1与外围设备接触。
此外,当设置了摄像装置2的摄像视点时,通过将末端执行器11在路径81中的操作时间除以在摄像装置2与OS 30之间进行通信所花费的响应时间来计算摄像视点。通过该方法,末端执行器11的移动时间与摄像装置2的摄像时间可以匹配,因此能够防止移动不同步。
如果摄像装置2具有足以在某种程度上对末端执行器11及其附近进行摄像的视野,则在步骤S106中,可以将异常停止位置70之后的摄像视点82设置为第一摄像视点。以这种方式,可以预期地执行对机器人装置1的操作监视,从而可以更加可靠地防止由于机器人装置1的移动而导致机器人装置1的预定位置与外围设备的接触。
另外,可以通过首先基于摄像视点移动摄像装置2、然后在预定定时开始机器人装置1在路径81中的移动来实现预期移动。尽管此时末端执行器11暂时不在摄像装置2的摄像范围内,但是可以通过移动摄像装置2以使得末端执行器11基于摄像视点再次位于摄像范围内来实现预期移动。
此外,如图9所示,可以将在步骤S102中计算出的路径81和在步骤S103中计算出的摄像视点与由摄像装置2摄像的拍摄图像一起显示在摄像显示单元100上。通过该配置,可以预料机器人装置1接下来如何移动,从而防止机器人装置1的预定位置与外围设备接触。
尽管在本示例性实施例中,分别显示3D模型显示单元80和摄像显示单元100,但是可以同时显示3D模型显示单元80和摄像显示单元100。利用该配置,可以确认模拟与实际装置之间的移动差异。
[第二示例性实施例]
将参考附图描述根据本发明的第二示例性实施例的使用摄像装置的机器人系统的控制方法。在第一示例性实施例中,已经描述了能够通过平摇/俯仰旋转来操作视点的平摇/俯仰变焦相机作为示例。根据本示例性实施例,能够对周围360度摄像的照相机也是优选的。下面将详细描述本示例性实施例。
在下文中,将描述与第一示例性实施例中描述不同的硬件和控制系统的配置。此外,应当理解,可以通过与第一示例性实施例相似的部分来实现与上述相似的配置和效果,因此将省略其详细描述。
图10是示出根据本示例性实施例的摄像装置4的配置的图。摄像装置4是全向照相机,配设有照相机基座40、摄像单元41和用于网络连接的电缆42。摄像单元41可以基于安装摄像装置4的位置在360度方向上执行摄像。此外,摄像装置4包括用于连接至外部网络的网卡,并且经由电缆42连接至通信装置60以连接至外部网络。
尽管本示例性实施例的摄像装置4不具有在第一示例性实施例中描述的用于移动摄像单元的视点的机构或变焦机构,但是摄像装置4可以执行用于局部放大所拍摄图像的一部分的数字变焦。因此,控制本示例性实施例中的摄像装置4,以在与摄像视点相对应的位置上执行数字变焦,从而可以控制视点以跟踪期望观察的目标物。
本示例性实施例中的摄像装置4的控制方法与图5的流程图所示的第一示例性实施例的控制方法相似,因此将省略其描述。
图11示出了显示正由本示例性实施例的摄像装置4摄像的拍摄图像的摄像显示单元100的图。图11A示出了由摄像装置4正常摄像的拍摄图像。图11B示出了针对与在第一示例性实施例的步骤S103中计算出的摄像视点相对应的位置执行数字变焦时的拍摄图像。
如图11B所示,如果控制摄像装置4,从而对考虑到机器人装置的路径和与摄像装置的通信的滞后而计算出的摄像视点执行数字变焦,则可以实现与第一示例性实施例类似的效果。尽管在平摇-俯仰变焦照相机中,由于需要诸如平摇马达和俯仰马达之类的驱动源而使成本增加,但是全向照相机的成本可以降低,因为其上未设置马达。
此外,除了上述基于图像处理的数字变焦之外,还可以通过用镜头调整摄像装置4显示的图像的放大率来显示摄像视点。
此外,如图12所示,对于与所计算的摄像视点相对应的位置,可以执行用于在拍摄图像上添加标记的处理。在图11中,标记141显示在与摄像装置摄像的拍摄图像中的摄像视点相对应的位置。
通过设置要由操作者按下以自动对标记141执行数字变焦的按钮,操作者可以在观察机器人装置1的整体的同时密切观察特定部分,从而可以容易地从远程位置监视机器人装置1的移动。
具体地,在第一和第二示例性实施例中描述的处理过程由控制装置13和OS 30执行。因此,能够执行上述功能的软件的控制程序和存储该程序的存储介质构成了本发明。
此外,在上述示例性实施例中,已经将ROM或RAM描述为计算机可读存储介质,并将控制程序存储在ROM或RAM中。然而,本发明不限于这些示例性实施例。用于实现本发明的控制程序可以存储在任何类型的存储介质中,只要该存储介质可由计算机读取即可。例如,硬盘驱动器(HDD)、外部存储设备或记录盘可以用作用于提供控制程序的存储介质。此外,控制单元可以布置在摄像装置上,机器人装置的上述控制程序和轨迹数据可以存储在该控制单元中,并且第一和第二示例性实施例可以仅通过摄像装置来实现。
【其他示例性实施例】
尽管在上述第一和第二示例性实施例中,已经描述了具有六个关节的六轴多关节机器人作为机器人手臂主体50,但是关节的数量不限于此。尽管已经描述了垂直多轴结构作为机器人手臂主体50的形式,但是可以在诸如并行链接型等不同形式的机器人手臂主体50的关节中实现与上述配置相似的配置。
尽管在图2中示出了机器人手臂主体50的配置示例,但是配置不限于此,本领域技术人员可以任意地改变设计。此外,机器人手臂主体50的马达不限于上述配置,并且可以使用诸如人造肌肉的设备作为用于驱动各个关节的驱动源。
此外,尽管在第一示例性实施例和第二示例性实施例中描述了单个摄像装置2和单个摄像装置4,但是可以通过使用多个摄像装置并协同控制多个摄像装置来对摄像视点进行摄像。
此外,在第一示例性实施例和第二示例性实施例中,在图8、9、11和12中,用于监视摄像装置摄像的机器人装置的移动的画面结构显示在计算机3的显示器31上,但这不是限制性的。例如,画面结构可以显示在各种界面上,例如诸如示教器等外部输入设备和能够经由应用来操作机器人装置的移动终端。
本发明不限于上述实施例,并且可以在不脱离本发明的精神和范围的情况下进行各种改变和修改。因此,以下权利要求书将附此以公开公开本发明的范围。
本申请要求2018年9月12日提交的日本专利申请JP2018-170883的优先权,该申请在此已被全文引用。
Claims (20)
1.一种包括机器人装置和摄像装置的机器人系统,所述机器人系统包括:
控制装置,其被配置为控制机器人装置和摄像装置,以及
其中,控制装置基于机器人装置的预定部分被移动的路径来控制摄像装置的移动,以便即使机器人装置被移动,仍对预定部分进行摄像。
2.根据权利要求1所述的机器人系统,
其中,控制装置基于路径来计算摄像装置执行摄像的多个摄像视点,以及
其中,控制装置基于摄像视点控制摄像装置的移动,以便即使机器人装置被移动,仍对预定部分进行摄像。
3.根据权利要求2所述的机器人系统,其中,控制装置基于摄像视点控制摄像装置的移动,以机器人装置的移动预期而进行摄像。
4.根据权利要求3所述的机器人系统,其中,当执行预期的移动时,控制装置首先基于摄像视点使摄像装置移动,然后使机器人装置在路径中移动。
5.根据权利要求2至4中任一项所述的机器人系统,其中,控制装置通过将机器人装置在路径中移动所花费的时间除以摄像装置的响应时间来计算摄像视点。
6.根据权利要求1至5中的任一项所述的机器人系统,
其中,摄像装置是平摇-俯仰-变焦相机,以及
其中,控制装置控制平摇-俯仰-变焦相机以将摄像方向调整到摄像视点。
7.根据权利要求1至5中的任一项所述的机器人系统,
其中,摄像装置是全向照相机,以及
其中,控制装置控制全向照相机放大摄像视点以执行摄像。
8.根据权利要求1至6中的任一项所述的机器人系统,其中,摄像装置经由控制装置与网络连接,从而能够经由网络进行操作。
9.根据权利要求1至8中的任一项所述的机器人系统,
其中,机器人装置是具有多个关节的机器人手臂,以及
其中,控制装置基于关节存在的位置的值来计算路径。
10.一种控制包括机器人装置和摄像装置的机器人系统的控制装置,
其中,控制装置基于机器人装置的预定部分被移动的路径来控制摄像装置的移动,以便即使机器人装置被移动,仍对预定部分进行摄像。
11.根据权利要求10所述的控制装置,
其中,控制装置基于路径来计算摄像装置执行摄像的多个摄像视点,以及
其中,控制装置基于摄像视点控制摄像装置的移动,以便即使机器人装置被移动,仍对预定部分进行摄像。
12.根据权利要求11所述的控制装置,包括:
显示单元,其被配置为显示正由摄像装置摄像的图像;
机器人装置操作单元,其被配置为操作机器人装置;以及
摄像操作单元,其被配置为操作摄像装置,
其中,路径和摄像视点显示在摄像装置正摄像的图像上。
13.根据权利要求12所述的控制装置,
其中,机器人装置操作单元包括:第一操作单元,被配置为手动操作机器人装置;以及第二操作单元,被配置为自动操作机器人装置;以及
其中,摄像操作单元包括:第三操作单元,被配置为手动操作摄像装置;以及第四操作单元,被配置为自动操作摄像装置。
14.一种包括机器人装置和摄像装置的机器人系统的控制方法,
其中,机器人系统包括配置为控制机器人装置和摄像装置的控制装置,以及
其中,控制装置包括摄像控制,用于基于机器人装置的预定部分被移动的路径来控制摄像装置的移动,以便即使机器人装置被移动,仍连续对预定部分进行摄像。
15.根据权利要求14所述的控制方法,还包括:摄像视点计算,用于基于路径计算摄像装置执行摄像的多个摄像视点,
其中,摄像控制基于摄像视点控制摄像装置的移动,以便即使机器人装置被移动,仍连续对预定部分进行摄像。
16.一种用于执行根据权利要求14或15所述的控制方法的控制程序。
17.一种计算机可读存储介质,其存储根据权利要求16所述的控制程序。
18.一种使用根据权利要求1至9中任一项所述的机器人系统的物品的制造方法,包括通过机器人装置操作工件来制造物品。
19.一种对机器人装置进行摄像的摄像装置,
其中,摄像装置包括控制单元,以及
其中,控制单元基于机器人装置的预定部分被移动的路径来控制摄像装置的移动,以便即使机器人装置被移动,仍对预定部分进行摄像。
20.根据权利要求19所述的摄像装置,
其中,控制单元基于路径来计算摄像装置执行摄像的多个摄像视点,以及
其中,控制单元基于摄像视点控制摄像装置的移动,以便即使机器人装置被移动,仍对预定部分进行摄像。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-170833 | 2018-09-12 | ||
JP2018170833A JP7163115B2 (ja) | 2018-09-12 | 2018-09-12 | ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体 |
PCT/JP2019/031302 WO2020054281A1 (ja) | 2018-09-12 | 2019-08-08 | ロボットシステム、ロボットシステムの制御装置、ロボットシステムの制御方法、撮像装置、制御プログラム及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113165186A true CN113165186A (zh) | 2021-07-23 |
CN113165186B CN113165186B (zh) | 2024-07-30 |
Family
ID=69777263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980059795.4A Active CN113165186B (zh) | 2018-09-12 | 2019-08-08 | 机器人系统及其控制装置和方法、摄像装置和存储介质 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11992960B2 (zh) |
EP (1) | EP3851255A4 (zh) |
JP (2) | JP7163115B2 (zh) |
CN (1) | CN113165186B (zh) |
WO (1) | WO2020054281A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7163115B2 (ja) | 2018-09-12 | 2022-10-31 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体 |
JP7224559B2 (ja) * | 2020-12-10 | 2023-02-17 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび遠隔制御支援システム |
US12036678B2 (en) * | 2021-05-25 | 2024-07-16 | Fanuc Corporation | Transparent object bin picking |
WO2024089813A1 (ja) * | 2022-10-26 | 2024-05-02 | 株式会社Fuji | ロボット |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06270076A (ja) * | 1993-03-25 | 1994-09-27 | Nippon Steel Corp | 遠隔操作用カメラ制御装置 |
US5553609A (en) * | 1995-02-09 | 1996-09-10 | Visiting Nurse Service, Inc. | Intelligent remote visual monitoring system for home health care service |
US20010037163A1 (en) * | 2000-05-01 | 2001-11-01 | Irobot Corporation | Method and system for remote control of mobile robot |
CN102990678A (zh) * | 2011-09-15 | 2013-03-27 | 株式会社安川电机 | 机器人系统和摄像方法 |
US20160008078A1 (en) * | 2012-12-10 | 2016-01-14 | Intuitive Surgical Operations, Inc. | Collision avoidance during controlled movement of image capturing device and manipulatable device movable arms |
US20170066131A1 (en) * | 2014-02-28 | 2017-03-09 | Sony Corporation | Robot arm apparatus, calibration method, and program |
JP2017124468A (ja) * | 2016-01-14 | 2017-07-20 | キヤノン株式会社 | ロボット制御方法、部品の製造方法、ロボット装置、プログラム及び記録媒体 |
US20170217021A1 (en) * | 2014-01-07 | 2017-08-03 | Orin P.F. Hoffman | Remotely operating a mobile robot |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0790493B2 (ja) * | 1987-04-08 | 1995-10-04 | 株式会社日立製作所 | 手先視覚付ロボットの制御方法 |
US5319443A (en) * | 1991-03-07 | 1994-06-07 | Fanuc Ltd | Detected position correcting method |
US5521843A (en) * | 1992-01-30 | 1996-05-28 | Fujitsu Limited | System for and method of recognizing and tracking target mark |
JPH07244519A (ja) * | 1994-03-04 | 1995-09-19 | Nippon Telegr & Teleph Corp <Ntt> | 画像による可動物体の運動制御方法 |
JP3394322B2 (ja) * | 1994-05-19 | 2003-04-07 | ファナック株式会社 | 視覚センサを用いた座標系設定方法 |
IL126142A0 (en) * | 1996-03-15 | 1999-05-09 | Zapa Digital Art Ltd | Programmable computer graphic objects |
JPH10249786A (ja) * | 1997-03-14 | 1998-09-22 | Yaskawa Electric Corp | マニピュレータの制御装置および操作支援装置 |
JP2002164066A (ja) * | 2000-11-22 | 2002-06-07 | Mitsubishi Heavy Ind Ltd | 積層型熱交換器 |
JP4032410B2 (ja) * | 2001-11-09 | 2008-01-16 | ソニー株式会社 | 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置 |
US7432949B2 (en) * | 2003-08-20 | 2008-10-07 | Christophe Remy | Mobile videoimaging, videocommunication, video production (VCVP) system |
US20070075048A1 (en) * | 2005-09-30 | 2007-04-05 | Nachi-Fujikoshi Corp. | Welding teaching point correction system and calibration method |
JP4153528B2 (ja) * | 2006-03-10 | 2008-09-24 | ファナック株式会社 | ロボットシミュレーションのための装置、プログラム、記録媒体及び方法 |
US7313464B1 (en) * | 2006-09-05 | 2007-12-25 | Adept Technology Inc. | Bin-picking system for randomly positioned objects |
JP5449112B2 (ja) * | 2010-11-18 | 2014-03-19 | 株式会社神戸製鋼所 | 溶接状況監視方法及び溶接状況監視装置 |
JP5799516B2 (ja) * | 2011-02-03 | 2015-10-28 | セイコーエプソン株式会社 | ロボット装置、検査装置、検査プログラム、および検査方法 |
CN103607971B (zh) * | 2011-07-07 | 2016-08-31 | 奥林巴斯株式会社 | 医疗主从操作器 |
JP5892360B2 (ja) * | 2011-08-02 | 2016-03-23 | ソニー株式会社 | ロボット指示装置、ロボット指示方法、プログラム、及び通信システム |
EP2729850A4 (en) * | 2011-08-11 | 2015-07-08 | Siemens Healthcare Diagnostics | METHOD AND DEVICE FOR CALIBRATING AN ALIGNMENT OF A ROBOT GRIPPER AND A CAMERA |
JP2014079824A (ja) * | 2012-10-15 | 2014-05-08 | Toshiba Corp | 作業画面表示方法および作業画面表示装置 |
JP6153366B2 (ja) * | 2013-03-29 | 2017-06-28 | 株式会社バンダイナムコエンターテインメント | 画像生成システム及びプログラム |
JP6322959B2 (ja) | 2013-11-05 | 2018-05-16 | セイコーエプソン株式会社 | ロボット、ロボットシステム、及びロボット制御装置 |
US9259844B2 (en) * | 2014-02-12 | 2016-02-16 | General Electric Company | Vision-guided electromagnetic robotic system |
JP2016070762A (ja) * | 2014-09-29 | 2016-05-09 | ファナック株式会社 | 対象物の三次元位置を検出する検出方法および検出装置 |
JP6458474B2 (ja) | 2014-12-10 | 2019-01-30 | 沖電気工業株式会社 | 監視システム、映像解析装置、映像解析方法およびプログラム |
JP6605611B2 (ja) * | 2015-09-03 | 2019-11-13 | 株式会社Fuji | ロボットシステム |
WO2017115425A1 (ja) * | 2015-12-28 | 2017-07-06 | オリンパス株式会社 | 医療用マニピュレータシステム |
EP3506238A4 (en) * | 2016-08-26 | 2019-11-27 | Panasonic Intellectual Property Corporation of America | THREE-DIMENSIONAL INFORMATION PROCESSING METHOD AND THREE-DIMENSIONAL INFORMATION PROCESSING DEVICE |
JP2018075121A (ja) * | 2016-11-08 | 2018-05-17 | ソニー株式会社 | 医療用支持アーム装置 |
JP7095677B2 (ja) * | 2017-02-28 | 2022-07-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
JP6392922B1 (ja) * | 2017-03-21 | 2018-09-19 | ファナック株式会社 | 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法 |
US10690466B2 (en) * | 2017-04-19 | 2020-06-23 | Global Tel*Link Corporation | Mobile correctional facility robots |
US11202051B2 (en) * | 2017-05-18 | 2021-12-14 | Pcms Holdings, Inc. | System and method for distributing and rendering content as spherical video and 3D asset combination |
US10816939B1 (en) * | 2018-05-07 | 2020-10-27 | Zane Coleman | Method of illuminating an environment using an angularly varying light emitting device and an imager |
JP7163115B2 (ja) | 2018-09-12 | 2022-10-31 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体 |
-
2018
- 2018-09-12 JP JP2018170833A patent/JP7163115B2/ja active Active
-
2019
- 2019-08-08 EP EP19860262.5A patent/EP3851255A4/en active Pending
- 2019-08-08 CN CN201980059795.4A patent/CN113165186B/zh active Active
- 2019-08-08 WO PCT/JP2019/031302 patent/WO2020054281A1/ja unknown
-
2021
- 2021-03-04 US US17/192,737 patent/US11992960B2/en active Active
-
2022
- 2022-10-19 JP JP2022167636A patent/JP7423726B2/ja active Active
-
2024
- 2024-05-01 US US18/652,644 patent/US20240269857A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06270076A (ja) * | 1993-03-25 | 1994-09-27 | Nippon Steel Corp | 遠隔操作用カメラ制御装置 |
US5553609A (en) * | 1995-02-09 | 1996-09-10 | Visiting Nurse Service, Inc. | Intelligent remote visual monitoring system for home health care service |
US20010037163A1 (en) * | 2000-05-01 | 2001-11-01 | Irobot Corporation | Method and system for remote control of mobile robot |
CN102990678A (zh) * | 2011-09-15 | 2013-03-27 | 株式会社安川电机 | 机器人系统和摄像方法 |
US20160008078A1 (en) * | 2012-12-10 | 2016-01-14 | Intuitive Surgical Operations, Inc. | Collision avoidance during controlled movement of image capturing device and manipulatable device movable arms |
US20170217021A1 (en) * | 2014-01-07 | 2017-08-03 | Orin P.F. Hoffman | Remotely operating a mobile robot |
US20170066131A1 (en) * | 2014-02-28 | 2017-03-09 | Sony Corporation | Robot arm apparatus, calibration method, and program |
JP2017124468A (ja) * | 2016-01-14 | 2017-07-20 | キヤノン株式会社 | ロボット制御方法、部品の製造方法、ロボット装置、プログラム及び記録媒体 |
Non-Patent Citations (1)
Title |
---|
JIANG YU ZHENG ET AL: "Active Camera Controlling for Manipulator", 1991 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, pages 413 - 418 * |
Also Published As
Publication number | Publication date |
---|---|
EP3851255A4 (en) | 2022-06-15 |
US20210187751A1 (en) | 2021-06-24 |
US11992960B2 (en) | 2024-05-28 |
JP2022183308A (ja) | 2022-12-08 |
JP7163115B2 (ja) | 2022-10-31 |
JP2020040184A (ja) | 2020-03-19 |
WO2020054281A1 (ja) | 2020-03-19 |
CN113165186B (zh) | 2024-07-30 |
JP7423726B2 (ja) | 2024-01-29 |
US20240269857A1 (en) | 2024-08-15 |
EP3851255A1 (en) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6814735B2 (ja) | 遠隔操縦マニピュレータシステム及びその運転方法 | |
CN113165186B (zh) | 机器人系统及其控制装置和方法、摄像装置和存储介质 | |
JP7490349B2 (ja) | 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体 | |
CN111093903B (zh) | 机器人系统及其运行方法 | |
EP1512499A2 (en) | Robot having a camera mounted at the distal end of its arm and method for operating such a robot | |
US20180281197A1 (en) | Teaching Device And Teaching Method | |
CN114670189A (zh) | 存储介质、以及生成机器人的控制程序的方法及系统 | |
CN112109078A (zh) | 具有以视频方式拍摄机器人装置的动作的照相机的监视装置 | |
JP7447568B2 (ja) | シミュレーション装置およびプログラム | |
CN111899629B (zh) | 柔性机器人教学系统和方法 | |
JP2005335000A (ja) | 人間介入型ロボットの制御装置 | |
JP7462046B2 (ja) | ロボットシステム | |
KR20140008659A (ko) | 로봇을 모니터링하는 교시조작 시스템 및 교시조작 방법 | |
JP2024102426A (ja) | 画像の生成方法、自由視点画像の生成方法、および、提供方法 | |
KR20240062199A (ko) | 로봇적용 센서 기반 신호처리 알고리즘을 이용한 모니터링 방법 및 시스템 | |
JP2024070336A (ja) | ロボット操作システムの動作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |