CN110505947B - 机器人系统及其运行方法 - Google Patents
机器人系统及其运行方法 Download PDFInfo
- Publication number
- CN110505947B CN110505947B CN201880024568.3A CN201880024568A CN110505947B CN 110505947 B CN110505947 B CN 110505947B CN 201880024568 A CN201880024568 A CN 201880024568A CN 110505947 B CN110505947 B CN 110505947B
- Authority
- CN
- China
- Prior art keywords
- robot
- information
- display device
- operator
- transmissive display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000005540 biological transmission Effects 0.000 claims abstract description 5
- 230000005856 abnormality Effects 0.000 claims description 18
- 230000001133 acceleration Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 13
- 238000002834 transmittance Methods 0.000 claims description 9
- 230000007423 decrease Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 2
- 230000003247 decreasing effect Effects 0.000 claims 2
- 230000000007 visual effect Effects 0.000 description 30
- 230000004048 modification Effects 0.000 description 27
- 238000012986 modification Methods 0.000 description 27
- 239000012636 effector Substances 0.000 description 26
- 230000008901 benefit Effects 0.000 description 12
- 238000012937 correction Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000006073 displacement reaction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000012888 cubic function Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 238000012887 quadratic function Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
- G05B19/41865—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32128—Gui graphical user interface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39001—Robot, manipulator control
Abstract
一种机器人系统及其运行方法,具备:操作器(2),接受来自操作人员的操作指示;机器人(1),设置于作业空间内,并进行由多个工序构成的一系列的作业;传感器(3),设置于作业空间内;透射式显示装置(6),构成为操作人员能够目视辨认物理的现实世界,并构成为将传感器(3)探测到的信息作为影像画面进行显示;以及控制装置(4),若通过操作器(2)操作机器人(1),则控制装置(4)将传感器(3)探测到的第1信息作为影像画面显示于透射式显示装置(6)。
Description
技术领域
本发明涉及机器人系统及其运行方法。
背景技术
公知有使用操作人员操作的机器人教导装置向机器人教导动作的交互式操作系统(例如,参照专利文献1)。在专利文献1中记载有:通过始终重叠地感知配置于机器人的感觉信息检测部的感觉信息(影像信息)和操作人员自身检测的实际的感觉信息(周边信息),操作人员能够边留意周围的环境边进行机器人的操作。
专利文献1:日本特开2013-091114号公报
然而,在上述专利文献1公开的交互式操作系统中,始终重叠地在头戴式显示器放映出配置于机器人的照相机拍摄到的影像信息、和操作人员周边的实际的周边信息,但根据机器人的作业工序,存在不需要影像信息或周边信息中的任一信息的情况。即使在这样的情况下,也放映出影像信息或周边信息,因此对于操作人员来说比较麻烦,对操作人员的负担较大,从作业效率的提高的观点出发尚有改善的余地。
发明内容
本发明是为了解决上述以往的课题而完成的,其目的在于提供一种能够减轻操作人员的负担并且使作业效率提高的机器人系统及其运行方法。
为了解决上述以往的课题,本发明所涉及的机器人系统具备:操作器,接受来自操作人员的操作指示;机器人,设置于作业空间内,并进行由多个工序构成的一系列的作业;传感器,设置于上述作业空间内;透射式显示装置,构成为可供上述操作人员目视辨认物理的现实世界,并构成为显示影像画面;以及控制装置,若通过上述操作器操作上述机器人,则上述控制装置将上述传感器探测到的信息亦即第1信息作为影像画面显示于上述透射式显示装置。
由此,能够在需要作为传感器探测到的信息的第1信息时,使其显示于透射式显示装置。因此,能够减轻操作人员的负担,从而能够使作业效率提高。
另外,对于本发明所涉及的机器人系统的运行方法而言,机器人系统具备:操作器,接受来自操作人员的操作指示;机器人,设置于作业空间内,并进行由多个工序构成的一系列的作业;传感器,设置于上述作业空间内;以及透射式显示装置,构成为可供上述操作人员目视辨认物理的现实世界,并构成为显示影像画面,上述本发明所涉及的机器人系统的运行方法具备:若通过上述操作器操作上述机器人,则将上述传感器探测到的信息亦即第1信息作为影像画面显示于上述透射式显示装置的(A)。
由此,能够在需要作为传感器探测到的信息的第1信息时,使其显示于透射式显示装置。因此,能够减轻操作人员的负担,从而能够使作业效率提高。
根据本发明的机器人系统及其运行方法,能够减轻操作人员的负担,从而能够使作业效率提高。
附图说明
图1是表示本实施方式1所涉及的机器人系统的概略结构的框图。
图2是表示图1所示的机器人系统的透射式显示装置的一个例子的示意图。
图3是表示图1所示的机器人系统中的机器人的概略结构的示意图。
图4是表示本实施方式1所涉及的机器人系统的动作的一个例子的流程图。
图5是表示操作人员经由图2所示的透射式显示装置目视辨认的视野的示意图。
图6是表示操作人员经由图2所示的透射式显示装置目视辨认的视野的示意图。
图7是表示操作人员经由本实施方式1的变形例1的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图8是表示操作人员经由本实施方式2所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图9是表示本实施方式2所涉及的机器人系统的动作的一个例子的流程图。
图10是表示操作人员经由本实施方式2的变形例1的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图11是表示操作人员经由本实施方式2的变形例2的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图12是表示操作人员经由本实施方式2的变形例3的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图13是表示操作人员经由本实施方式2的变形例4的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图14是表示本实施方式3所涉及的机器人系统的概略结构的框图。
图15是表示本实施方式3所涉及的机器人系统的动作的一个例子的流程图。
图16是表示操作人员经由本实施方式4所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图17是表示操作人员经由本实施方式4所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图18是表示操作人员经由本实施方式4所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图19是表示操作人员经由本实施方式5所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图20是表示操作人员经由本实施方式5所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图21是表示操作人员经由本实施方式5所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图22是表示本实施方式6所涉及的机器人系统的动作的一个例子的流程图。
图23是表示操作人员经由本实施方式7所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
图24是表示操作人员经由本实施方式7的变形例1的机器人系统中的透射式显示装置目视辨认的视野的示意图。
具体实施方式
以下,边参照附图边对本发明的实施方式进行说明。此外,在所有的附图中,对于相同或者相当的部分标注相同的附图标记,并省略重复的说明。另外,在所有的附图中,摘录并图示用于对本发明进行说明的构成要素,对于其他的构成要素,存在省略图示的情况。并且,本发明并不限定于以下的实施方式。
(实施方式1)
本实施方式1所涉及的机器人系统具备接受来自操作人员的操作指示的操作器、设置于作业空间内并进行由多个工序构成的一系列的作业的机器人、设置于作业空间内的传感器、构成为可供操作人员目视辨认物理的现实世界并构成为显示影像画面的透射式显示装置、以及控制装置,若通过操作器操作机器人,则控制装置将传感器探测到的信息亦即第1信息作为影像画面显示于透射式显示装置。
另外,在本实施方式1所涉及的机器人系统中,传感器也可以配设于机器人的末端部。
另外,在本实施方式1所涉及的机器人系统中,传感器也可以由照相机构成。
并且,在本实施方式1所涉及的机器人系统中,透射式显示装置也可以构成为佩戴于操作人员。
以下,边参照图1~图6边对本实施方式1所涉及的机器人系统的一个例子进行说明。
[机器人系统的结构]
图1是表示本实施方式1所涉及的机器人系统的概略结构的框图。图2是表示图1所示的机器人系统的透射式显示装置的一个例子的示意图。
如图1所示,本实施方式1所涉及的机器人系统100具备机器人1、操作器2、传感器3、控制装置4、存储装置5、以及透射式显示装置6,并构成为通过操作人员操作操作器2,从而机器人1进行动作。另外,本实施方式1所涉及的机器人系统100构成为:若操作人员操作操作器2,则控制装置4将传感器3探测的信息亦即第1信息作为影像画面显示于透射式显示装置6。以下,对本实施方式1所涉及的机器人系统100具备的各设备进行说明。
机器人1构成为:设置于作业空间内,并进行由多个工序构成的一系列的作业。此外,作为由多个工序构成的一系列的作业,能够例示部件相对于产品的组装、涂装等作业。
本实施方式1所涉及的机器人1是在以生产线生产方式或单元生产方式组装电气·电子部件等来生产产品的生产工厂中被利用,沿着设置于该生产工厂的作业台配置,针对作业台上的工件,能够进行移送、零件的组装或配置改变、姿势变换等作业中的至少一个的多关节机器人。其中,机器人1的实施方式并不限定于上述情况,无论水平多关节型·垂直多关节型,都能够广泛地适用于多关节机器人。
这里,边参照图3边对机器人1的具体的结构进行说明。
图3是表示图1所示的机器人系统中的机器人的概略结构的示意图。
如图3所示,机器人1是具有多个连杆(这里,第1连杆11a~第6连杆11f)的连接体、多个关节(这里,第1关节JT1~第6关节JT6)、以及支承这些部件的基台15的多关节机器人臂。
在第1关节JT1处,基台15与第1连杆11a的基端部连结为能够绕在铅垂方向上延伸的轴旋转。在第2关节JT2处,第1连杆11a的末端部与第2连杆11b的基端部连结为能够绕在水平方向上延伸的轴旋转。在第3关节JT3处,第2连杆11b的末端部与第3连杆11c的基端部连结为能够绕在水平方向上延伸的轴旋转。
另外,在第4关节JT4处,第3连杆11c的末端部与第4连杆11d的基端部连结为能够绕在第4连杆11d的长边方向上延伸的轴旋转。在第5关节JT5处,第4连杆11d的末端部与第5连杆11e的基端部连结为能够绕与第4连杆11d的长边方向正交的轴旋转。在第6关节JT6处,第5连杆11e的末端部与第6连杆11f的基端部连结为能够扭转旋转。
而且,在第6连杆11f的末端部设置有机械接口。在该机械接口可装卸地安装与作业内容对应的末端执行器12。另外,在该机械接口(机器人1的末端部)设置有构成传感器3的照相机3A。照相机3A构成为将拍摄的影像信息向控制装置4输出。
另外,在第1关节JT1~第6关节JT6分别设置有作为使各关节连结的两个部件相对地旋转的致动器的一个例子的驱动马达(未图示)。驱动马达例如也可以是由控制装置4伺服控制的伺服马达。另外,在第1关节JT1~第6关节JT6分别设置有检测驱动马达的旋转位置的旋转传感器、和对控制驱动马达的旋转的电流进行检测的电流传感器(均未图示)。旋转传感器例如也可以是编码器。
操作器2是设置于作业空间外并接受来自操作人员的操作指示的装置。作为操作器2,例如能够举出主臂、操纵杆、或输入板等。另外,操作器2也可以具备用于调整机器人1的动作速度的调整器。
存储装置(存储器)5是能够读写的记录介质,存储任务程序51和机器人系统100的动作顺序信息52。此外,在本实施方式1所涉及的机器人系统100中,存储装置5与控制装置4分体设置,但也可以与控制装置4一体设置。
任务程序51例如通过操作人员使用由示教器等构成的操作器2进行示教而制成,并与机器人1的识别信息和任务对应地储存于存储装置5。此外,任务程序51也可以作为每个作业的动作流程而制成。
动作顺序信息52是指与规定在作业空间内由机器人1实施的一系列的作业工序的动作顺序有关的信息。在动作顺序信息52中,作业工序的动作顺序与机器人1的控制模式相对应。另外,在动作顺序信息52中,用于使机器人1自动地执行其作业的任务程序与各作业工序相对应。此外,动作顺序信息52也可以包括用于使机器人1针对各作业工序自动地执行其作业的程序。
控制装置4控制机器人1的动作,具备接收部40、动作控制部41以及输出控制部42作为功能模块。控制装置4例如能够由运算部(未图示)和存储器部(未图示)构成,其中,上述运算部由微型控制器、MPU、PLC(Programmable Logic Controller-可编程逻辑控制器)、逻辑电路等构成,上述存储器部由ROM或RAM等构成。另外,控制装置4具备的各功能模块能够通过控制装置4的运算部读出并执行在存储器部(存储器)或存储装置5储存的程序而实现。
此外,控制装置4不仅可以是由单独的控制装置构成的方式,还可以是由多个控制装置配合来执行机器人1(机器人系统100)的控制的控制装置群构成的方式。
接收部40接收从控制装置4的外部发送的输入信号。作为由接收部40接收的输入信号,例如能够举出从操作器2发送的信号、和从操作器2以外的未图示的操作指示部发送的信号等。
在接收部40从操作器2接受到操作指示作为输入信号的情况下,动作控制部41基于接收部40从操作器2接收到的操作指示控制机器人1,使得机器人1进行动作。
另外,若接收部40从操作器2接受操作指示(操作信号)作为输入信号,则动作控制部41将传感器3探测到的第1信息作为影像画面,经由输出控制部42向透射式显示装置6输出。具体而言,在本实施方式1中,动作控制部41将从照相机3A输入至接收部40的影像信息(第1信息)作为影像画面,经由输出控制部42向透射式显示装置6输出。
此外,也可以构成为:动作控制部41通过从操作器2将使机器人1以预先设定好的规定的第1速度以下的速度进行动作的操作指示信号输入至接收部40,从而将从照相机3A输入至接收部40的影像信息作为影像画面,经由输出控制部42向透射式显示装置6输出。
这里,第1速度能够通过预先实验等而设定,例如,可以是机器人1的各关节中的最高速度(°/秒)的25~35%,也可以是在机器人1使工件移动时的机器人1的移动速度(末端执行器12或工件的移动速度)的最高速度(mm/秒)的25~35%。另外,在机器人1使工件在直线上或曲线上移动的情况下,作为第1速度,例如机器人1的移动速度(末端执行器12或工件的移动速度)也可以是250~350mm/秒。
透射式显示装置6构成为可供操作人员目视辨认物理的现实世界,并构成为显示由照相机3A拍摄到的影像(影像信息)。具体而言,如图2所示,也可以构成为:透射式显示装置6由具有用于映射从控制装置4的输出控制部42输出的影像信息的显示部6a,并且以操作人员佩带使用的头戴式显示器或眼镜的形式构成。另外,透射式显示装置6也可以由放置于桌子、地面等来使用的固定式的透射显示器构成。
此外,如图2所示,也可以在透射式显示装置6设置有取得操作人员目视辨认的现实世界的信息的照相机6b。
[机器人系统的动作和作用效果]
接下来,边参照图1~图6边对本实施方式1所涉及的机器人系统100的动作和作用效果进行说明。此外,通过控制装置4的运算部读出在存储器部或者存储装置5储存的程序来执行以下的动作。
图4是表示本实施方式1所涉及的机器人系统的动作的一个例子的流程图。
如图4所示,控制装置4判定是否从操作器2输入了用于操作机器人1的操作信号(步骤S101)。具体而言,控制装置4的动作控制部41判定是否从操作器2向接收部40输入了操作信号。
在判定为未从操作器2输入操作信号的情况(在步骤S101中为否)下,控制装置4结束本程序。此外,在结束了本程序的情况下,控制装置4例如在50msec后再次执行本程序。
另一方面,在判定为从操作器2输入了操作信号的情况(在步骤S101中为是)下,控制装置4执行步骤S102的处理。
在步骤S102中,控制装置4判定是否使机器人1以第1速度以下的速度动作。具体而言,控制装置4的动作控制部41判定是否从操作器2输入了使机器人1以第1速度以下的速度动作的操作信号。
在判定为使机器人1以大于第1速度的速度动作的情况(在步骤S102中为否)下,控制装置4结束本程序。此外,在结束了本程序的情况下,控制装置4例如在50msec后再次执行本程序。
另一方面,在判定为使机器人1以第1速度以下的速度动作的情况(在步骤S102中为是)下,控制装置4使从照相机3A输入的影像信息向透射式显示装置6输出(步骤S103),并结束本程序。此外,在结束了本程序的情况下,控制装置4例如在50msec后再次执行本程序。
接下来,边参照图1~图6边对本实施方式1所涉及的机器人系统100的具体的动作例进行说明。
图5和图6是表示操作人员经由图2所示的透射式显示装置目视辨认的视野的示意图。此外,以下,如图5和图6所示,作为本实施方式1所涉及的机器人系统100的动作的具体例,对使机器人1保持的筒状工件20嵌入于在基台21设置的突起部21a的动作进行说明。
首先,操作人员操作操作器2,使机器人1的末端执行器12保持工件20。此时,如图6所示,也可以构成为:控制装置4控制透射式显示装置6,使得将由照相机3A拍摄到的影像信息作为影像画面30显示于透射式显示装置6的显示部6a。
接下来,操作人员操作操作器2,使机器人1动作,使得保持于末端执行器12的工件20接近基台21的突起部21a。此时,也可以构成为:控制装置4控制透射式显示装置6,使得将由照相机3A拍摄到的影像信息作为影像画面30显示于透射式显示装置6的显示部6a。另外,如图5所示,也可以构成为:在操作人员操作机器人1,使其以大于第1速度的速度进行动作的情况下,控制装置4控制透射式显示装置6,以便不使由照相机3A拍摄到的影像信息显示于透射式显示装置6的显示部6a。
接下来,操作人员操作操作器2,使机器人1动作,使得保持于末端执行器12的工件20嵌入于突起部21a。此时,如图6所示,也可以构成为:控制装置4控制透射式显示装置6,使得将由照相机3A拍摄到的影像信息作为影像画面30显示于透射式显示装置6的显示部6a。
由此,操作人员能够容易地把握工件20与突起部21a的位置关系,从而能够容易地进行机器人1的操作。因此,能够使操作人员的作业负担减轻,并能够使操作人员的作业效率提高。
此外,控制装置4通过设置于透射式显示装置6的照相机,取得映射于操作人员的眼睛的视野信息,解析该视场信息,并控制透射式显示装置6,使得在没有映射机器人1和基台21的视场显示影像画面30。
在这样构成的本实施方式1所涉及的机器人系统100中,若操作人员操作操作器2来操作机器人1,则控制装置4将传感器3探测到的第1信息作为影像画面30,并使拍摄到的影像显示于透射式显示装置6。由此,能够在需要传感器3探测到的第1信息时使其显示于透射式显示装置6。因此,能够减轻操作人员的负担,并使作业效率提高。
另外,在如使机器人1进行保持工件20的动作、使工件20嵌入于突起部21a的动作等那样的需要机器人1的末端部(末端执行器12)的定位的动作的情况下,操作人员为了慎重地操作机器人1而使机器人1以第1速度以下的速度进行动作。另外,在使机器人1进行需要机器人1的末端部(末端执行器12)的定位的动作的情况下,若有机器人1的末端部附近的影像信息,则能够容易地进行定位。
因此,在本实施方式1所涉及的机器人系统100中,控制装置4通过从操作器2输入使机器人1的动作以第1速度以下的速度进行动作的操作指示信号,从而将照相机3A拍摄到的影像信息作为影像画面30显示于透射式显示装置6。
由此,能够在需要由照相机3A拍摄的影像信息时使其显示于透射式显示装置6。因此,能够减轻操作人员的负担,并使作业效率提高。
[变形例1]
接下来,边参照图7边对本实施方式1所涉及的机器人系统的变形例进行说明。
图7是表示操作人员经由本实施方式1的变形例1的机器人系统中的透射式显示装置目视辨认的视野的示意图。
如图7所示,对于本变形例1的机器人系统100而言,基本的结构与实施方式1所涉及的机器人系统100相同,但传感器3由照相机3A构成,该照相机3A构成为从上方拍摄机器人1。
而且,如图7所示,在本变形例1的机器人系统100中,若操作操作器2并使机器人1进行动作,则控制装置4将照相机3A拍摄到的影像信息作为影像画面30显示于透射式显示装置6。
即使是这样构成的本变形例1的机器人系统100,也起到与实施方式1所涉及的机器人系统100相同的作用效果。
(实施方式2)
本实施方式2所涉及的机器人系统构成为:在实施方式1(包括变形例在内)所涉及的机器人系统的基础上,传感器探测由振动信息、声音信息、压力信息、加速度信息、倾斜信息、位置信息以及影像信息构成的信息群中的至少一种信息。
另外,也可以构成为:在本实施方式2所涉及的机器人系统中,还具备存储预先设定好的规定的第1阈值的存储器,在传感器探测到的第1信息为第1阈值以上的情况下,控制装置使作为表示发生了异常这一情况的信息的异常信息显示于透射式显示装置。
以下,边参照图8和图9边对本实施方式2所涉及的机器人系统的一个例子进行说明。
[机器人系统的结构]
图8是表示操作人员经由本实施方式2所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
如图8所示,本实施方式2所涉及的机器人系统100的机器人1具备振动传感器3B作为传感器3。在构成为探测与人的触觉对应的频带(例如,数Hz~约1kHz)的振动(以下,称为触觉振动)的情况下,振动传感器3B将探测到的振动作为振动信息(第1信息)向控制装置4输出。
另外,在构成为探测与人的听觉对应的频带(例如,约20Hz~约20kHz)的振动(以下,称为听觉振动)的情况下,振动传感器3B将探测到的振动作为声音信息(第1信息)向控制装置4输出。
此外,在本实施方式2中,振动传感器3B构成为:探测振动信息和/或声音信息,并向控制装置4输出。
而且,控制装置4将从振动传感器3B取得的振动信息和/或声音信息作为影像画面30显示于透射式显示装置6。具体而言,如图8所示,控制装置4针对各频带(2Hz、4Hz、8Hz、16Hz、32Hz、64Hz、125Hz、250Hz、500Hz、1kHz、2kHz、4kHz、8kHz以及16kHz),将用条形表示音量的画面作为影像画面30显示于透射式显示装置6。此外,在本实施方式2中,将2Hz、4Hz、8Hz以及16Hz作为振动信息,将32Hz、64Hz、125Hz、250Hz、500Hz、1kHz、2kHz、4kHz、8kHz以及16kHz作为声音信息来对待。
另外,控制装置4也可以使预先设定好的第1阈值显示于影像画面30。具体而言,如图8所示,作为第1阈值,显示粗线。这里,第1阈值能够通过预先实验等来设定,并存储于控制装置4的存储器部或者存储装置5。
第1阈值也可以根据各频带分别独立地设定。另外,第1阈值也可以根据机器人1执行的作业内容适当地变更。作为第1阈值,例如可以为对在配置机器人1的作业空间内产生的音量加上1~20dB而得的值,可以为加上1~5dB而得的值,可以为加上5~10dB而得的值,也可以为加上10~20dB而得的值。
[机器人系统的动作和作用效果]
接下来,边参照图8和图9边对本实施方式2所涉及的机器人系统100的动作和作用效果进行说明。此外,对于若通过操作器操作机器人,则将传感器3探测到的第1信息作为影像画面显示于透射式显示装置6的动作,与实施方式1所涉及的机器人系统100相同地进行执行,因此省略其详细的说明。另外,通过控制装置4的运算部读出在存储器部或存储装置5储存的程序来执行以下的动作。
图9是表示本实施方式2所涉及的机器人系统的动作的一个例子的流程图。
如图9所示,控制装置4从振动传感器3B取得该振动传感器3B探测到的振动信息和/或声音信息(步骤S201)。顺便,控制装置4判定在步骤S201中取得的振动信息或声音信息是否为第1阈值以上(步骤S202)。
在判定为在步骤S201中取得的振动信息或声音信息不足第1阈值的情况(在步骤S202中为否)下,控制装置4结束本程序。此外,在结束了本程序的情况下,控制装置4例如在50msec后再次执行本程序。
另一方面,在判定为在步骤S201中取得的振动信息或声音信息为第1阈值以上的情况(在步骤S202中为是)下,控制装置4使作为表示发生了异常这一情况的信息的异常信息显示于透射式显示装置6(步骤S203),并结束本程序。此外,在结束了本程序的情况下,控制装置4例如在50msec后再次执行本程序。
作为异常信息的显示方法,例如,控制装置4也可以使异常发生或错误等文字显示于透射式显示装置6的显示部6a。另外,控制装置4也可以使表示发生了异常这一情况的图画、图像、或者动画等显示于透射式显示装置6的显示部6a。并且,控制装置4也可以使规定的色彩(例如,红、蓝等)显示于透射式显示装置6的显示部6a。
即使是这样构成的本实施方式2所涉及的机器人系统100,也起到与实施方式1所涉及的机器人系统100相同的作用效果。
另外,在本实施方式2所涉及的机器人系统100中,在振动传感器3B探测到的振动信息或声音信息为第1阈值以上的情况下,控制装置4使异常信息显示于透射式显示装置6。由此,操作人员能够容易地理解发生了异常这一情况,从而能够提前应对已发生的异常。
[变形例1]
接下来,边参照图10边对本实施方式2所涉及的机器人系统100的变形例进行说明。
图10是表示操作人员经由本实施方式2的变形例1的机器人系统中的透射式显示装置目视辨认的视野的示意图。此外,在图10中,示出了突起部21a与机器人1保持的筒状的工件20的内周面接触的状态。
如图10所示,对于本变形例1的机器人系统100的机器人1而言,基本的结构与实施方式2所涉及的机器人系统100相同,但具备设置于机器人1的第6连杆11f或末端执行器12的力觉传感器3C作为传感器3。力觉传感器3C构成为:探测从外部作用于末端执行器12的反作用力、或末端执行器12作用于外部的力,并将探测到的力的分量(压力信息;力觉信息)向控制装置4输出。
而且,控制装置4将从力觉传感器3C取得的压力信息(力觉信息)作为影像画面30显示于透射式显示装置6。具体而言,如图10所示,控制装置4将力觉传感器3C探测到的X方向、Y方向以及Z方向的力分量分别用由粗线示出的第1箭头表示,并将该第1箭头、和表示机器人1中的X方向、Y方向以及Z方向的第2箭头作为影像画面30显示于透射式显示装置6。此外,X、Y、Z方向分别表示以机器人1为基准的方向,X方向表示机器人1的左右方向,Y方向表示机器人1的前后方向,Z方向表示机器人1的上下方向。
此时,控制装置4可以控制透射式显示装置6,使得在工件20或末端执行器12附近显示影像画面30,也可以控制透射式显示装置6,使得在产生X方向和Y方向的力分量的部分(工件20与突起部21a接触的部分)显示影像画面30。
此外,控制装置4也可以将力觉传感器3C探测到的X方向、Y方向以及Z方向的扭矩分量分别表示为箭头,并将该箭头作为影像画面30显示于透射式显示装置6。
由此,操作人员能够容易地理解施加于工件20的力的方向,从而能够直观地操作机器人1。
另外,也可以构成为:在力觉传感器3C探测到预先设定好的第1阈值以上的压力值的情况下,控制装置4控制透射式显示装置6,使得将异常信息向影像画面30输出。这里,作为第1阈值,能够根据机器人1执行的作业内容适当地设定,例如,也可以设为工件20有可能破损的压力值。
即使是这样构成的本变形例1的机器人系统100,也起到与本实施方式2所涉及的机器人系统100相同的作用效果。
[变形例2]
图11是表示操作人员经由本实施方式2的变形例2的机器人系统中的透射式显示装置目视辨认的视野的示意图。
如图11所示,对于本变形例2的机器人系统100的机器人1而言,基本的结构与实施方式2所涉及的机器人系统100相同,但具备设置于机器人1的末端执行器12的加速度传感器3D作为传感器3。加速度传感器3D构成为:探测末端执行器12(准确地来说是末端执行器12把持的工件20)的加速度,并将探测到的加速度作为加速度信息向控制装置4输出。
而且,控制装置4将从加速度传感器3D取得的加速度信息作为影像画面30显示于透射式显示装置6。具体而言,如图11所示,控制装置4将从加速度传感器3D取得的加速度信息作为文字信息(加速度○○G),并成为影像画面30显示于透射式显示装置6。
另外,也可以构成为:在加速度传感器3D探测到预先设定好的第1阈值以上的加速度的情况下,控制装置4控制透射式显示装置6,使得将异常信息向影像画面30输出。这里,作为第1阈值,也可以根据机器人1执行的作业内容适当地设定,例如,也可以设为工件20有可能破损的加速度。
即使是这样构成的本变形例2的机器人系统100,也起到与本实施方式2所涉及的机器人系统100相同的作用效果。
[变形例3]
图12是表示操作人员经由本实施方式2的变形例3的机器人系统中的透射式显示装置目视辨认的视野的示意图。
如图12所示,对于本变形例3的机器人系统100的机器人1而言,基本的结构与实施方式2所涉及的机器人系统100相同,但具备设置于机器人1的末端执行器12的陀螺仪传感器3E作为传感器3。陀螺仪传感器3E构成为:探测末端执行器12(准确地来说是末端执行器12把持的工件20)的角度(或角速度),并将探测到的角度(或角速度)作为倾斜信息向控制装置4输出。
而且,控制装置4将从陀螺仪传感器3E取得的倾斜信息作为影像画面30显示于透射式显示装置6。具体而言,如图12所示,控制装置4将工件20中绕X轴的角度信息、和工件20中的绕Y轴的角度信息作为带状的箭头来表示,并将该带状的箭头、和表示X轴及Y轴的箭头作为影像画面30显示于透射式显示装置6。此外,X轴和Y轴分别是与机器人1中的X方向和Y方向相同朝向的轴。
此时,控制装置4也可以将从陀螺仪传感器3E取得的角度信息表示为相对于绕各自的轴整体(360°)的比例。具体而言,如图12所示,在带状的白箭头中,涂黑的部分示出了旋转角度的比例。
由此,操作人员能够容易地理解工件20朝向的方向(角度),从而能够直观地操作机器人1。
另外,也可以构成为:在陀螺仪传感器3E探测到预先设定好的第1阈值以上的角度的情况下,控制装置4控制透射式显示装置6,使得将异常信息向影像画面30输出。这里,作为第1阈值,能够根据机器人1执行的作业内容适当地设定,例如,在工件20是容纳液体或粉状体等的容器的情况下,也可以设为液体等有可能从该容器溢出的角度。
即使是这样构成的本变形例3的机器人系统100,也起到与本实施方式2所涉及的机器人系统100相同的作用效果。
[变形例4]
图13是表示操作人员经由本实施方式2的变形例4的机器人系统中的透射式显示装置目视辨认的视野的示意图。此外,在图13中,示出了执行将机器人1保持的工件20等间隔(这里为15cm)地载置于基台21上的作业的状态。
如图13所示,对于本变形例4的机器人系统100的机器人1而言,基本的结构与实施方式2所涉及的机器人系统100相同,但具备设置于机器人1的末端执行器12的位移传感器(位置传感器)3F作为传感器3。位移传感器3F构成为:探测(测定)末端执行器12把持的工件20、与和该工件20邻接的工件20A的距离,并将探测到的距离作为位置信息向控制装置4输出。此外,在本变形例中,对于位移传感器3F而言,末端执行器12把持的工件20、与和该工件20邻接的工件20A的距离为14.5cm。
而且,控制装置4将从位移传感器3F取得的位置信息作为影像画面30显示于透射式显示装置6。具体而言,如图13所示,控制装置4使从位移传感器3F取得的位置信息(这里为14.5cm)成为文字,并作为影像画面30显示于透射式显示装置6。
由此,操作人员能够容易地理解邻接的工件间的距离,从而能够直观地操作机器人1。
另外,也可以构成为:在位移传感器3F探测到预先设定好的第1阈值以上的距离的情况下,控制装置4控制透射式显示装置6,使得将异常信息向影像画面30输出。这里,作为第1阈值,能够根据机器人1执行的作业内容适当地设定。
即使是这样构成的本变形例4的机器人系统100,也起到与本实施方式2所涉及的机器人系统100相同的作用效果。
此外,在本变形例4中,采用了将位移传感器3F设置为位置传感器的形态,但并不限定于此。例如,也可以采用将配置于机器人1的第1关节JT1~第6关节JT6的探测驱动马达(伺服马达)的旋转位置的旋转传感器作为位置传感器的形态。在该情况下,控制装置4也可以构成为:取得各旋转传感器探测到的各驱动马达的旋转位置,根据该旋转位置计算末端执行器12(工件20)的位置坐标,并根据已计算的位置坐标计算与邻接的工件20A的距离。
(实施方式3)
本实施方式3所涉及的机器人系统构成为:在实施方式1或2(包括变形例在内)所涉及的机器人系统的基础上,还具备输出装置,控制装置在规定的第1工序结束后,使输出装置输出关于作为第1工序的下一个工序的第2工序,使机器人以自动运行模式、手动运行模式以及混合运行模式3种运行模式中的哪一种运行模式进行动作的询问,若选择手动运行模式或混合运行模式,则将传感器探测到的信息亦即第1信息作为影像画面显示于透射式显示装置。
此外,自动运行模式是指机器人按照预先设定好的程序,自动地实施动作。另外,手动运行模式是指机器人按照从操作器接受的操作指示进行动作,可以使机器人以完全按照从操作器接受的操作指示的方式进行动作,也可以针对从操作器接受的操作指示,通过预先设定好的程序进行修正(例如,抖动补偿),从而使机器人动作。并且,混合运行模式是指对于通过自动运行而进行动作中的机器人通过手动运行修正动作。
以下,边参照图14和图15边对本实施方式3所涉及的机器人系统的一个例子进行说明。
[机器人系统的结构]
图14是表示本实施方式3所涉及的机器人系统的概略结构的框图。
如图14所示,对于本实施方式3所涉及的机器人系统100而言,基本的结构与实施方式1所涉及的机器人系统100相同,但还具备输出装置7这一点不同。另外,在本实施方式3所涉及的机器人系统100中,控制装置4具有修正部43这一点与实施方式1所涉及的机器人系统100不同。
输出装置7构成为:输出从控制装置4发送的信息,并输出使机器人1以自动运行模式、手动运行模式以及混合运行模式3种运行模式中的哪一种运行模式进行动作的询问信息。
作为输出装置7,例如能够举出监视器等显示装置、扬声器、打印机等。例如,在输出装置7由显示装置构成的情况下,将从控制装置4发送的信息作为文字、图画、图像、动画等影像显示(输出)。另外,在输出装置7由扬声器构成的情况下,将从控制装置4发送的信息作为声音信息输出。并且,在输出装置7由打印机构成的情况下,将从控制装置4发送的信息印字。此外,透射式显示装置6也可以兼作输出装置7。
在接收部40在机器人1的混合运行中接收到表示修正指示的输入信号的情况下,控制装置4的修正部43向动作控制部41指示机器人1的动作的修正。具体而言,若接收部40在机器人1的混合运行中从操作器2接收修正指示信号作为输入信号,则修正部43向动作控制部41指示,对动作控制部41指示为将基于机器人1的自动运行的动作修正为按照来自操作器2的修正指示信号的动作。此外,动作控制部41根据来自修正部43的指示控制机器人1,使之进行反映了来自操作器2的修正指示的动作。
另外,在本实施方式3所涉及的机器人系统100中,在接收部40从操作器2接受了操作指示作为输入信号的情况下,控制装置4的动作控制部41判定以该操作指示为契机在一系列的作业中机器人1实施的工序的运行模式。动作控制部41能够参照存储于存储装置5的动作顺序信息52进行接下来机器人1实施的工序的运行模式的判定。动作控制部41若判定出运行模式,则控制为以已判定的运行模式使机器人1动作。
例如,在判定为将机器人1设为自动运行的情况下,动作控制部41读出动作顺序信息52,并控制机器人1,使之实施由动作顺序信息52所包含的程序规定的动作。
另外,在判定为将机器人1设为手动运行的情况下,动作控制部41控制机器人1,使得机器人1基于接收部40从操作器2接收到的操作指示进行动作。
并且,在判定为将机器人1设为混合运行的情况下,动作控制部41读出动作顺序信息52,实施由动作顺序信息52所包含的程序规定的动作,若在通过自动运行使机器人1动作的过程中,接收部40从操作器2接收修正指示信号作为输入信号,则将机器人1的基于自动运行的动作修正为按照来自操作器2的修正指示信号的动作。而且,在从操作器2停止修正指示信号的输出并且接收部40停止了该修正指示信号的接收的情况下,或在接收部40从操作器2接收到指示机器人1的自动运行的重新开始的信号的情况下,动作控制部41重新开始机器人1的自动运行。
此外,也可以构成为:在通过自动运行模式使机器人1进行动作的情况下,若机器人1的自动运行模式结束,则动作控制部41将表示自动运行模式结束的信息向输出控制部42发送。由此,输出控制部42将表示自动运行模式结束的信息朝向操作人员输出至输出装置7,由此操作人员能够理解自动运行模式已结束这一情况。
另外,动作控制部41在规定的工序结束后,将使机器人1以自动运行模式、手动运行模式以及混合运行模式3种运行模式中的哪一种运行模式进行动作的询问信息向输出控制部42输出。
例如,也可以构成为:在从动作控制部41接收到表示自动运行开始的信息的情况下,或在从动作控制部41经由接收部40接收到表示来自操作器2的手动运行开始的信息的情况下,或在机器人1的混合运行中从动作控制部41经由接收部40接收到表示来自操作器2的修正指示的输入信号的情况下,输出控制部42控制输出装置7,使之输出该信息。
另外,也可以构成为:在从动作控制部41接收到表示自动运行结束的信息的情况下,或在从动作控制部41经由接收部40接收到来自操作器2的表示手动运行结束的信息、或表示混合运行结束的信息的情况下,输出控制部42控制输出装置7,使之输出该信息。
并且,在从动作控制部41接收到询问信息的情况下,输出控制部42控制输出装置7,使之输出该信息。由此,操作人员通过选择以3种运行模式中的哪一种运行模式使机器人1动作,并操作操作器2,从而能够将选择信息向控制装置4的接收部40输出。
另外,在本实施方式3所涉及的机器人系统100中,操作器2也可以构成为:将3种运行模式中的操作人员选择了的运行模式作为选择信息输出。操作器2也可以构成为:若通过操作人员进行操作从而手动运行模式或混合运行模式结束,则输出表示该运行模式的结束的信息。此外,也可以在操作器2另外设置有输入作业的开始指示、基于手动运行的作业的完成通知等的输入部等。
[机器人系统的动作和作用效果]
接下来,边参照图14和图15边对本实施方式3所涉及的机器人系统100的动作和作用效果进行说明。此外,通过控制装置4的运算部读出在存储器部或存储装置5储存的程序来执行以下的动作。
图15是表示本实施方式3所涉及的机器人系统的动作的一个例子的流程图。
如图15所示,控制装置4判定作为多个工序中的至少任意一个工序的第1工序是否已结束(步骤S301)。具体而言,控制装置4的动作控制部41判定是否结束了自动运行、或是否经由接收部40从操作器2接收到表示手动运行结束的信息或表示混合运行结束的信息。
在判定为未结束自动运行、或没有经由接收部40从操作器2接收到表示手动运行结束的信息或表示混合运行结束的信息的情况(在步骤S301中为否)下,控制装置4的动作控制部41结束本程序。此外,在结束了本程序的情况下,控制装置4例如在50msec后再次执行本程序。
另一方面,在判定为已结束自动运行、或经由接收部40从操作器2接收到表示手动运行结束的信息或表示混合运行结束的信息的情况(在步骤S301中为是)下,控制装置4的动作控制部41执行步骤S302的处理。
在步骤S302中,控制装置4使输出装置7显示(输出)使机器人1以自动运行模式、手动运行模式以及混合运行模式3种运行模式中的哪一种运行模式进行动作的询问信息。具体而言,控制装置4的动作控制部41经由输出控制部42将询问信息向输出装置7输出。而且,通过输出装置7取得该询问信息,从而向操作人员显示以3种运行模式中的哪一种运行模式进行动作的询问信息。
接收到该询问信息,操作人员选择以3种运行模式中的哪一种运行模式进行动作,并操作操作器2,将已选择的运行模式作为选择信息输出。
接下来,控制装置4的动作控制部41判定是否从操作器2向接收部40输入了选择信息(步骤S303)。在判定为没有从操作器2向接收部40输入选择信息的情况(在步骤S303中为否)下,动作控制部41返回至步骤S302,并到从操作器2向接收部40输入选择信息为止,反复进行步骤S302和步骤S303。另一方面,在判定为从操作器2向接收部40输入了选择信息的情况(在步骤S303中为是)下,动作控制部41进入至步骤S304。
在步骤S304中,控制装置4的动作控制部41判定从操作器2经由接收部40输入的选择信息是否是手动运行模式或混合运行模式。
在判定为在步骤S303中取得的选择信息为自动运行模式的情况(在步骤S304中为否)下,控制装置4的动作控制部41结束本程序。另一方面,在判定为在步骤S303中取得的选择信息为手动运行模式或混合运行模式的情况(在步骤S304中为是)下,控制装置4的动作控制部41将传感器3探测到的第1信息作为影像画面向透射式显示装置6输出(步骤S305)。具体而言,控制装置4使由照相机3A拍摄到的影像显示于透射式显示装置6。
其后,控制装置4结束本程序。此外,在结束了本程序的情况下,控制装置4例如在50msec后再次执行本程序。
在这样构成的本实施方式3所涉及的机器人系统100中,控制装置4在操作人员针对机器人1的运行模式选择了手动运行模式或混合运行模式时,将传感器3探测到的第1信息作为影像画面显示于透射式显示装置6。在以手动运行模式或混合运行模式运行机器人1的情况下,操作人员操作操作器2,从而操作机器人1。因此,能够在需要传感器3探测到的第1信息时,将该第1信息作为影像画面显示于透射式显示装置6。因此,能够减轻操作人员的负担,并使作业效率提高。
此外,在本实施方式3中,采用了由照相机3A构成传感器3的形态,但并不限定于此。也可以采用由振动传感器等各种的传感器构成传感器3的形态。
(实施方式4)
本实施方式4所涉及的机器人系统构成为:在实施方式1~3(包括变形例在内)中的至少任意一个实施方式所涉及的机器人系统的基础上,传感器由照相机构成,控制装置若通过操作器操作机器人,则将照相机拍摄到的影像信息作为影像画面显示于透射式显示装置。
另外,在本实施方式4所涉及的机器人系统中,也可以构成为:控制装置根据机器人的动作速度,使影像画面的大小变动,并使其显示于透射式显示装置。
并且,在本实施方式4所涉及的机器人系统中,也可以构成为:若机器人的动作速度变小,则增大影像画面的大小,并使照相机拍摄到的影像信息显示于透射式显示装置。
以下,边参照图13~图15边对本实施方式4所涉及的机器人系统的一个例子进行说明。此外,本实施方式4所涉及的机器人系统100是与实施方式1所涉及的机器人系统100相同的结构,因此省略其结构的详细的说明。
图16~图18是表示操作人员经由本实施方式4所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。此外,在图16~图18中,按照该顺序机器人1的动作速度变小。
如图16~图18所示,控制装置4控制透射式显示装置6,使之根据机器人1的动作速度,改变显示于透射式显示装置6的映有由照相机3A拍摄到的影像信息的影像画面30的大小。具体而言,控制装置4控制透射式显示装置6,使得若机器人1的动作速度变小,则增大映有由照相机3A拍摄到的影像信息的影像画面30的大小。
此时,也可以构成为:控制装置4控制透射式显示装置6,使得影像画面30的大小与机器人1的动作速度成反比地平滑地变大。另外,也可以构成为:控制装置4控制透射式显示装置6,使得机器人1的动作速度与影像画面30的大小的关系成为用二次函数、三次函数等高次函数、指数函数、或者对数函数等表示的函数。并且,也可以构成为:控制装置4控制透射式显示装置6,使得相对于机器人1的动作速度影像画面30的大小阶梯状地变大。
即使是这样构成的本实施方式4所涉及的机器人系统100,也起到与实施方式1所涉及的机器人系统100相同的作用效果。
如上述那样,在使机器人1进行需要机器人1的末端部(末端执行器12)的定位的动作等的情况下,操作人员为了慎重地操作机器人1而减小机器人1的动作速度。此时,操作人员注视机器人1的末端部附近的影像信息。
因此,在本实施方式4所涉及的机器人系统100中,控制装置4控制透射式显示装置6,使得若机器人1的动作速度变小,则增大影像画面30的大小。
由此,容易观察影像画面30,从而能够进一步减轻操作人员的负担,并使作业效率进一步提高。
(实施方式5)
本实施方式5所涉及的机器人系统构成为:在实施方式1~4(包括变形例在内)中的至少任意一个实施方式所涉及的机器人系统的基础上,由照相机构成传感器,控制装置根据机器人的动作速度,变动影像画面的透射率,并使其显示于透射式显示装置。
另外,在本实施方式5所涉及的机器人系统中,也可以构成为:若机器人的动作速度变小,则控制装置减小影像画面的透射率,并使照相机拍摄到的影像信息显示于透射式显示装置。
以下,边参照图19~图21边对本实施方式5所涉及的机器人系统的一个例子进行说明。此外,本实施方式5所涉及的机器人系统100是与实施方式1所涉及的机器人系统100相同的结构,因此省略其结构的详细的说明。
图19~图21是表示操作人员经由本实施方式5所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。此外,在图19~图21中,按照该顺序机器人1的动作速度变小。
如图19~图21所示,控制装置4控制透射式显示装置6,使之根据机器人1的动作速度,改变显示于透射式显示装置6的映有由照相机3A拍摄到的影像信息的影像画面30的透射率。具体而言,控制装置4控制透射式显示装置6,使得若机器人1的动作速度变小,则减小显示于透射式显示装置6的映有由照相机3A拍摄到的影像信息的影像画面30的透射率。
此时,也可以构成为:控制装置4控制透射式显示装置6,使得根据机器人1的动作速度,影像画面30的透射率平滑地变小。另外,也可以构成为:控制装置4控制透射式显示装置6,使得机器人1的动作速度与影像画面30的大小的关系成为由二次函数、三次函数等高次函数、指数函数、或对数函数等表示的函数。并且,也可以构成为:控制装置4控制透射式显示装置6,使得相对于机器人1的动作速度影像画面30的透射率阶梯状地变小。
即使是这样构成的本实施方式5所涉及的机器人系统100,也起到与实施方式1所涉及的机器人系统100相同的作用效果。
如上述那样,在使机器人1进行需要机器人1的末端部(末端执行器12)的定位的动作等的情况下,操作人员注视机器人1的末端部附近的影像信息。此时,若影像画面30和机器人1等以与透射式显示装置6的显示部6a重叠的方式显示,则对于操作人员来说,可能难以看到影像画面30。
因此,在本实施方式5所涉及的机器人系统100中,控制装置4控制透射式显示装置6,使得若机器人1的动作速度变小,则减小影像画面30的透射率。由此,操作人员看不到处于影像画面30的背景的机器人1等,而能够容易看到影像画面30。因此,能够进一步减轻操作人员的负担,并使作业效率进一步提高。
(实施方式6)
本实施方式6所涉及的机器人系统构成为:在实施方式1~5(包括变形例在内)中的至少任意一个实施方式所涉及的机器人系统的基础上,传感器由照相机构成,控制装置根据机器人的动作速度,改变显示于透射式显示装置的由照相机拍摄到的影像画面的色彩。
另外,在本实施方式6所涉及的机器人系统中,也可以构成为:在机器人的动作速度为预先设定好的规定的第1速度以下的情况下,控制装置使透射式显示装置以单色影像在影像画面上显示由照相机拍摄到的影像信息,并在机器人的动作速度大于第1速度的情况下,以彩色影像在影像画面上显示由照相机拍摄到的影像画面。
以下,边参照图22边对本实施方式6所涉及的机器人系统的一个例子进行说明。此外,本实施方式6所涉及的机器人系统100是与实施方式1所涉及的机器人系统100相同的结构,因此省略其结构的详细的说明。
图22是表示本实施方式6所涉及的机器人系统的动作的一个例子的流程图。
如图22所示,关于本实施方式6所涉及的机器人系统100的动作,基本执行与实施方式1所涉及的机器人系统100相同的动作,但步骤S102以后的动作不同。具体而言,控制装置4判定是否使机器人1以第1速度以下的速度动作之后的动作不同。
在判定为以第1速度以下的速度操作机器人1的情况(在步骤S102中为是)下,控制装置4将从照相机3A输入的影像信息作为彩色影像向透射式显示装置6输出(步骤S103A),并结束本程序。此外,在结束了本程序的情况下,控制装置4例如在50msec后再次执行本程序。
另一方面,在将机器人1以大于第1速度的速度使机器人1动作的情况(在步骤S102中为否)下,控制装置4将从照相机3A输入的影像信息作为单色影像向透射式显示装置6输出(步骤S104),并结束本程序。此外,在结束了本程序的情况下,控制装置4例如在50msec后再次执行本程序。
即使是这样构成的本实施方式6所涉及的机器人系统100,也起到与实施方式1所涉及的机器人系统100相同的作用效果。
如上述那样,在使机器人1进行需要机器人1的末端部(末端执行器12)的定位的动作等的情况下,操作人员注视机器人1的末端部附近的影像信息。
因此,在本实施方式6所涉及的机器人系统100中,在机器人1的动作速度为第1速度以下的情况下,控制装置4使影像画面30以彩色影像显示于透射式显示装置6。由此,对于操作人员来说,能够容易看到影像画面30。因此,能够进一步减轻操作人员的负担,并能够使作业效率进一步提高。
(实施方式7)
本实施方式7所涉及的机器人系统构成为:在实施方式1~6(包括变形例在内)中的至少任意一个实施方式所涉及的机器人系统的基础上,还具备存储预先设定好的作为规定的工序中的机器人能够工作的区域的第1工作区域的存储器,若由操作器操作机器人,则控制装置使第1工作区域显示于透射式显示装置。
以下,边参照图23边对本实施方式7所涉及的机器人系统的一个例子进行说明。此外,本实施方式7所涉及的机器人系统100是与实施方式1所涉及的机器人系统100相同的结构,因此省略其结构的详细的说明。
图23是表示操作人员经由本实施方式7所涉及的机器人系统中的透射式显示装置目视辨认的视野的示意图。
如图23所示,对于本实施方式7所涉及的机器人系统100而言,若操作人员操作操作器2并使机器人1进行动作,则控制装置4使预先存储于存储装置5的第1工作区域31显示于透射式显示装置6。
这里,第1工作区域31是指规定的工序中的机器人1能够工作的区域,是在作业人员使机器人1执行规定的工序时,在操作机器人1时成为指标的区域。第1工作区域31能够预先通过实验等适当地设定,并根据机器人1执行的作业内容适当地设定。
作为第1工作区域31,例如也可以是根据机器人1的大小和各关节的可动范围等确定的机器人1能够进行动作的范围(区域)。另外,作为第1工作区域31,也可以是机器人1把持的工件20的能够移动的范围(区域)。并且,作为第1工作区域31,也可以是相对于在机器人1最佳地执行了作业时(机器人1能够最早结束作业时)的工件20的轨迹为-10~+10cm的范围(区域)。
在本实施方式7中,如图23所示,控制装置4为了使机器人1保持的工件20向突起部21a嵌入,将工件20能够位于的范围(工件20能够移动的范围;阴影部分)作为第1工作区域31,并使其显示于透射式显示装置6。即,在本实施方式7中,控制装置4将第1工作区域31作为增强现实显示于透射式显示装置6。
由此,操作人员能够容易地操作机器人1,从而能够实现作业的效率化。
即使是这样构成的本实施方式7所涉及的机器人系统100,也起到与实施方式1所涉及的机器人系统100相同的作用效果。
此外,也可以构成为:第1工作区域31以根据机器人1的动作速度其区域进行变动的方式存储于存储装置5。具体而言,也可以构成为:第1工作区域31以若机器人1的动作速度变小,则减小其区域的方式存储于存储装置5。
[变形例1]
接下来,边参照图24边对本实施方式7所涉及的机器人系统100的变形例进行说明。此外,本变形例1的机器人系统100是与实施方式1所涉及的机器人系统100相同的结构,因此省略其结构的详细的说明。
图24是表示操作人员经由本实施方式7的变形例1的机器人系统中的透射式显示装置目视辨认的视野的示意图。
如图24所示,在本变形例1的机器人系统100中,控制装置4控制透射式显示装置6,使得在映有由照相机3A拍摄到的影像信息的影像画面30显示第1工作区域31。
此外,也可以构成为:控制装置4将第1工作区域31显示于影像画面30,并且如上述实施方式7那样将第1工作区域31作为增强现实进行显示。
即使是这样构成的本变形例1的机器人系统100,也起到与实施方式7所涉及的机器人系统100相同的作用效果。
根据上述说明,对于本领域技术人员而言,本发明的许多改进或其他的实施方式是显而易见的。因此,上述说明应仅作为例示来解释,并且是以向本领域技术人员教导执行本发明的最优的形态的目的而提供的。只要不脱离本发明的精神,就能够实质上变更其构造和/或功能的详细内容。
工业实用性
根据本发明的机器人系统及其运行方法,能够减轻操作人员的负担,从而能够使作业效率提高,因此可适用于机器人的领域。
附图标记说明
1…机器人;2…操作器;3…传感器;3A…照相机;3B…振动传感器;3C…力觉传感器;3D…加速度传感器;3E…陀螺仪传感器;3F…位移传感器;4…控制装置;5…存储装置;6…透射式显示装置;6a…显示部;6b…照相机;7…输出装置;11a…第1连杆;11b…第2连杆;11c…第3连杆;11d…第4连杆;11e…第5连杆;11f…第6连杆;12…末端执行器;15…基台;20…工件;20A…工件;21…基台;21a…突起部;30…影像画面;31…第1工作区域;40…接收部;41…动作控制部;42…输出控制部;43…修正部;51…任务程序;52…动作顺序信息;100…机器人系统;JT1…第1关节;JT2…第2关节;JT3…第3关节;JT4…第4关节;JT5…第5关节;JT6…第6关节。
Claims (22)
1.一种机器人系统,其中,
所述机器人系统具备:
操作器,接受来自操作人员的操作指示;
机器人,设置于作业空间内,并进行由多个工序构成的一系列的作业;
至少一个传感器,设置于所述作业空间内;
透射式显示装置,构成为可供所述操作人员目视辨认物理的现实世界,并构成为显示影像画面;以及
控制装置,
所述控制装置构成为:若所述机器人通过所述操作器被进行操作,则将所述至少一个传感器探测到的信息亦即第1信息作为影像画面显示于所述透射式显示装置,
所述至少一个传感器中的第1传感器构成为配置于所述机器人以外的场所,探测由声音信息、位置信息以及影像信息构成的信息群中的至少一种信息。
2.根据权利要求1所述的机器人系统,其中,
所述至少一个传感器中的第2传感器构成为配置于所述机器人,探测由振动信息、声音信息、压力信息、加速度信息、倾斜信息、位置信息以及影像信息构成的信息群中的至少一种信息。
3.根据权利要求2所述的机器人系统,其中,
所述第2传感器配设于所述机器人的末端部。
4.根据权利要求1所述的机器人系统,其中,
还具备输出装置,
所述控制装置构成为:在规定的第1工序结束后,使所述输出装置输出关于作为所述第1工序的下一个工序的第2工序,使所述机器人以自动运行模式、手动运行模式以及混合运行模式的3种运行模式中的哪一种运行模式进行动作的询问,若选择所述手动运行模式或所述混合运行模式,则将所述至少一个传感器探测到的探测信息作为影像画面显示于所述透射式显示装置。
5.根据权利要求1所述的机器人系统,其中,
还具备存储预先设定好的规定的第1阈值的存储器,
所述控制装置构成为:在所述至少一个传感器探测到的第1信息为所述第1阈值以上的情况下,使作为表示发生了异常这一情况的信息的异常信息显示于所述透射式显示装置。
6.根据权利要求1所述的机器人系统,其中,
所述传感器的至少一个由照相机构成,
所述控制装置构成为:若所述机器人通过所述操作器被进行操作,则将所述照相机拍摄到的影像信息作为影像画面显示于所述透射式显示装置。
7.根据权利要求6所述的机器人系统,其中,
所述控制装置构成为:若所述机器人的动作速度变小,则增大所述影像画面的大小,并使所述照相机拍摄到的影像信息显示于所述透射式显示装置。
8.根据权利要求6或7所述的机器人系统,其中,
所述控制装置构成为:若所述机器人的动作速度变小,则减小所述影像画面的透射率,并使所述照相机拍摄到的影像信息显示于所述透射式显示装置。
9.根据权利要求6所述的机器人系统,其中,
所述控制装置构成为:在所述机器人的动作速度为预先设定好的规定的第1速度以下的情况下,使所述透射式显示装置将由所述照相机拍摄到的影像信息以彩色影像显示于所述影像画面,在所述机器人的动作速度大于所述第1速度的情况下,将由所述照相机拍摄到的影像信息以单色影像显示于所述影像画面。
10.根据权利要求1所述的机器人系统,其中,
所述透射式显示装置构成为能够佩戴于所述操作人员。
11.根据权利要求1所述的机器人系统,其中,
还具备存储器,所述存储器存储预先设定好的作为规定的工序中的所述机器人能够工作的区域的第1工作区域,
所述控制装置构成为:若所述机器人通过所述操作器被进行操作,则使所述第1工作区域显示于所述透射式显示装置。
12.一种机器人系统的运行方法,其中,
所述机器人系统具备:
操作器,接受来自操作人员的操作指示;
机器人,设置于作业空间内,并进行由多个工序构成的一系列的作业;
至少一个传感器,设置于所述作业空间内;以及
透射式显示装置,构成为可供所述操作人员目视辨认物理的现实世界,并构成为显示影像画面,
所述机器人系统的运行方法具备:
若所述机器人通过所述操作器被进行操作,则所述透射式显示装置显示所述至少一个传感器探测到的信息亦即第1信息作为影像画面的步骤A,
所述至少一个传感器中的第1传感器构成为配置于所述机器人以外的场所,探测由声音信息、位置信息以及影像信息构成的信息群中的至少一种信息。
13.根据权利要求12所述的机器人系统的运行方法,其中,
所述至少一个传感器中的第2传感器构成为配置于所述机器人,探测由振动信息、声音信息、压力信息、加速度信息、倾斜信息、位置信息以及影像信息构成的信息群中的至少一种信息。
14.根据权利要求13所述的机器人系统的运行方法,其中,
所述第2传感器配设于所述机器人的末端部。
15.根据权利要求12所述的机器人系统的运行方法,其中,
所述机器人系统还具备输出装置,
所述机器人系统的运行方法还具备:在规定的第1工序结束后,使所述输出装置输出关于作为所述第1工序的下一个工序的第2工序,使所述机器人以自动运行模式、手动运行模式以及混合运行模式的3种运行模式中的哪一种运行模式进行动作的询问的步骤B,
若选择所述手动运行模式或所述混合运行模式,则执行所述步骤A。
16.根据权利要求12所述的机器人系统的运行方法,其中,
所述机器人系统还具备存储预先设定好的规定的第1阈值的存储器,
所述机器人系统的运行方法还具备:在所述至少一个传感器探测到的第1信息为所述第1阈值以上的情况下,所述透射式显示装置显示作为表示发生了异常这一情况的信息的异常信息的步骤C。
17.根据权利要求12所述的机器人系统的运行方法,其中,
所述传感器的至少一个由照相机构成,
在所述步骤A中,若所述机器人通过所述操作器被进行操作,则所述透射式显示装置显示所述照相机拍摄到的影像信息作为影像画面。
18.根据权利要求17所述的机器人系统的运行方法,其中,
在所述步骤A中,若所述机器人的动作速度变小,则所述透射式显示装置增大所述影像画面的大小,并且显示所述照相机拍摄到的影像信息。
19.根据权利要求17或18所述的机器人系统的运行方法,其中,
在所述步骤A中,若所述机器人的动作速度变小,则所述透射式显示装置减小所述影像画面的透射率,并且显示所述照相机拍摄到的影像信息。
20.根据权利要求17所述的机器人系统的运行方法,其中,
在所述步骤A中,在所述机器人的动作速度为预先设定好的规定的第1速度以下的情况下,所述透射式显示装置将由所述照相机拍摄到的影像信息以彩色影像显示于所述影像画面,在所述机器人的动作速度大于所述第1速度的情况下,将由所述照相机拍摄到的影像信息以单色影像显示于所述影像画面。
21.根据权利要求12所述的机器人系统的运行方法,其中,
所述透射式显示装置构成为能够佩戴于所述操作人员。
22.根据权利要求12所述的机器人系统的运行方法,其中,
还具备存储器,所述存储器存储预先设定好的作为规定的工序中的所述机器人能够工作的区域的第1工作区域,
所述机器人系统的运行方法还具备:若所述机器人通过所述操作器被进行操作,则所述透射式显示装置显示所述第1工作区域的步骤D。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-078190 | 2017-04-11 | ||
JP2017078190A JP6850183B2 (ja) | 2017-04-11 | 2017-04-11 | ロボットシステム及びその運転方法 |
PCT/JP2018/015132 WO2018190345A1 (ja) | 2017-04-11 | 2018-04-10 | ロボットシステム及びその運転方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110505947A CN110505947A (zh) | 2019-11-26 |
CN110505947B true CN110505947B (zh) | 2022-10-11 |
Family
ID=63793421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880024568.3A Active CN110505947B (zh) | 2017-04-11 | 2018-04-10 | 机器人系统及其运行方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11358286B2 (zh) |
EP (1) | EP3610996A4 (zh) |
JP (1) | JP6850183B2 (zh) |
CN (1) | CN110505947B (zh) |
WO (1) | WO2018190345A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7000364B2 (ja) * | 2019-01-29 | 2022-01-19 | ファナック株式会社 | ロボットシステム |
KR20220017893A (ko) * | 2019-04-06 | 2022-02-14 | 일렉트릭 쉽 로보틱스, 아이앤씨. | 원격작동로봇을 위한 시스템, 장치 및 방법 |
JP7048539B2 (ja) * | 2019-04-26 | 2022-04-05 | ファナック株式会社 | 振動表示装置、動作プログラム作成装置、およびシステム |
CN111203884B (zh) * | 2020-01-19 | 2021-10-15 | 吉利汽车研究院(宁波)有限公司 | 机器人控制方法及装置 |
CN112873214B (zh) * | 2021-03-18 | 2024-02-23 | 中国工程物理研究院机械制造工艺研究所 | 一种基于加速度信息的机器人状态实时监控系统及方法 |
US11898996B2 (en) * | 2022-01-03 | 2024-02-13 | Teng-Jen Yang | Test system with detection feedback |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2728726Y (zh) * | 2004-04-02 | 2005-09-28 | 李朝辉 | 生物信息随动即时示教控制机器人 |
CN102781631A (zh) * | 2010-03-10 | 2012-11-14 | 佳能株式会社 | 信息处理装置及控制该装置的方法 |
JP2013091114A (ja) * | 2011-10-05 | 2013-05-16 | Kyokko Denki Kk | インタラクション操作システム |
CN104220219A (zh) * | 2012-04-02 | 2014-12-17 | 株式会社安川电机 | 机器人系统及作业设备 |
CN104416576A (zh) * | 2013-09-03 | 2015-03-18 | 株式会社安川电机 | 机器人手部、机器人系统、物品的卸垛方法 |
CN105666505A (zh) * | 2014-12-08 | 2016-06-15 | 发那科株式会社 | 具备扩展现实对应显示器的机器人系统 |
CN106393121A (zh) * | 2016-10-31 | 2017-02-15 | 江苏华航威泰机器人科技有限公司 | 一种移动机器人控制系统 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09200650A (ja) * | 1996-01-17 | 1997-07-31 | Nippon Steel Corp | 映像表示方法及びその装置 |
SE0203908D0 (sv) | 2002-12-30 | 2002-12-30 | Abb Research Ltd | An augmented reality system and method |
US7843431B2 (en) * | 2007-04-24 | 2010-11-30 | Irobot Corporation | Control system for a remote vehicle |
JP2012218120A (ja) * | 2011-04-12 | 2012-11-12 | Seiko Epson Corp | マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 |
US9037297B2 (en) * | 2011-09-15 | 2015-05-19 | Persimmon Technologies Corporation | System and method for operation of a robot |
CN105189327B (zh) * | 2014-03-28 | 2017-03-15 | 住友重机械搬运系统工程株式会社 | 信息提示装置、起重机系统及信息提示方法 |
JP6350011B2 (ja) * | 2014-06-20 | 2018-07-04 | オムロン株式会社 | ロボット制御システム |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
KR101776576B1 (ko) * | 2015-09-25 | 2017-09-08 | 숭실대학교산학협력단 | 로봇 제어 시스템 및 방법 |
US10646289B2 (en) * | 2015-12-29 | 2020-05-12 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
US10956739B2 (en) * | 2016-06-27 | 2021-03-23 | Autodesk, Inc. | Augmented reality robotic system visualization |
US10684480B2 (en) * | 2017-03-16 | 2020-06-16 | Denso Wave Incorporated | Information display system |
JP7187820B2 (ja) * | 2018-05-29 | 2022-12-13 | セイコーエプソン株式会社 | 制御装置、ヘッドマウントディスプレイ、及びロボットシステム |
-
2017
- 2017-04-11 JP JP2017078190A patent/JP6850183B2/ja active Active
-
2018
- 2018-04-10 WO PCT/JP2018/015132 patent/WO2018190345A1/ja unknown
- 2018-04-10 EP EP18784839.5A patent/EP3610996A4/en active Pending
- 2018-04-10 US US16/604,719 patent/US11358286B2/en active Active
- 2018-04-10 CN CN201880024568.3A patent/CN110505947B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2728726Y (zh) * | 2004-04-02 | 2005-09-28 | 李朝辉 | 生物信息随动即时示教控制机器人 |
CN102781631A (zh) * | 2010-03-10 | 2012-11-14 | 佳能株式会社 | 信息处理装置及控制该装置的方法 |
JP2013091114A (ja) * | 2011-10-05 | 2013-05-16 | Kyokko Denki Kk | インタラクション操作システム |
CN104220219A (zh) * | 2012-04-02 | 2014-12-17 | 株式会社安川电机 | 机器人系统及作业设备 |
CN104416576A (zh) * | 2013-09-03 | 2015-03-18 | 株式会社安川电机 | 机器人手部、机器人系统、物品的卸垛方法 |
CN105666505A (zh) * | 2014-12-08 | 2016-06-15 | 发那科株式会社 | 具备扩展现实对应显示器的机器人系统 |
CN106393121A (zh) * | 2016-10-31 | 2017-02-15 | 江苏华航威泰机器人科技有限公司 | 一种移动机器人控制系统 |
Also Published As
Publication number | Publication date |
---|---|
US11358286B2 (en) | 2022-06-14 |
WO2018190345A1 (ja) | 2018-10-18 |
JP2018176342A (ja) | 2018-11-15 |
EP3610996A1 (en) | 2020-02-19 |
CN110505947A (zh) | 2019-11-26 |
EP3610996A4 (en) | 2021-01-13 |
US20200055194A1 (en) | 2020-02-20 |
JP6850183B2 (ja) | 2021-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110505947B (zh) | 机器人系统及其运行方法 | |
CN107848113B (zh) | 机器人系统及其运转方法 | |
CN111093903B (zh) | 机器人系统及其运行方法 | |
CN106891321B (zh) | 作业装置 | |
JP7041492B2 (ja) | ロボットシステム | |
US11865697B2 (en) | Robot system and method for operating same | |
US11458618B2 (en) | Collaborative operation support device | |
US10315305B2 (en) | Robot control apparatus which displays operation program including state of additional axis | |
US11618166B2 (en) | Robot operating device, robot, and robot operating method | |
CN112423946B (zh) | 机器人系统 | |
US20210268656A1 (en) | Method for controlling drives of a robot, and robot system | |
JP2023166547A (ja) | ロボットシステム | |
JP2020037165A (ja) | 動作プログラムの変数を監視するロボットの制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |