CN113386125A - 机器人、控制装置、信息处理装置、方法及存储介质 - Google Patents

机器人、控制装置、信息处理装置、方法及存储介质 Download PDF

Info

Publication number
CN113386125A
CN113386125A CN202110249417.1A CN202110249417A CN113386125A CN 113386125 A CN113386125 A CN 113386125A CN 202110249417 A CN202110249417 A CN 202110249417A CN 113386125 A CN113386125 A CN 113386125A
Authority
CN
China
Prior art keywords
motion
robot
input
action
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110249417.1A
Other languages
English (en)
Other versions
CN113386125B (zh
Inventor
岩田益光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN113386125A publication Critical patent/CN113386125A/zh
Application granted granted Critical
Publication of CN113386125B publication Critical patent/CN113386125B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39319Force control, force as reference, active compliance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40414Man robot interface, exchange of information between operator and robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种机器人、控制装置、信息处理装置、方法及存储介质。一种机器人包括输入检测部、动作检测部和控制部。输入检测部被构造为检测操作者对机器人主体的输入。动作检测部被构造为通过使用输入检测部来检测动作,所述动作由操作者给出。控制部被构造为执行与动作检测部检测到的动作相关联的动作指令。

Description

机器人、控制装置、信息处理装置、方法及存储介质
技术领域
本发明涉及一种机器人等。
背景技术
近年来,已经开发了与人进行协作工作的机器人。为了提高协作工作的效率,重要的是在它们进行协作工作时人适当地并容易地向机器人给出动作指令。例如,日本特开第2019-93522号公报提出了一种机器人系统,其中,向机器人给出动作指令。在该机器人系统中,向机器人给出基于语音的动作指令,以使机器人与用于对工件进行工作的外围装置一起工作。
当人和机器人在彼此靠近的位置进行协作工作时,如果如在日本特开第2019-93522号公报所公开的那样向机器人给出基于语音的动作指令,那么是方便的。然而,特别是在机器人工业机器人的情况下,有其它工业机器安装在机器人周围并产生噪声。来自其它机器的噪声、机器人本身产生的操作声音以及由机器人进行的工作(例如,加工)产生的工作声可能会阻止基于语音的动作指令被精确识别。如果人必须向机器人发出极大的声音以可靠地向机器人给出基于语音的动作指令,或者必须从机器人附近移动到安静的位置以向机器人发出语音,则协作工作的效率将被降低。
因此,在工作机器人的领域中,期望一种向机器人精确地给出动作指令的方法。
发明内容
根据本发明的第一方面,机器人包括输入检测部、动作检测部和控制部。输入检测部被构造为检测从操作者对机器人主体的输入。动作检测部被构造为通过使用输入检测部来检测动作,所述动作由操作者给出。控制部被构造为执行与动作检测部检测到的动作相关联的动作指令。
根据本发明的第二方面,控制装置包括动作检测部和控制部。动作检测部被构造为通过使用输入检测部来检测动作,该输入检测部被构造为检测操作者对机器人主体的输入,所述动作由操作者给出。控制部被构造为使机器人主体执行与动作检测部检测到的动作相关联的动作指令。
根据本发明的第三方面,信息处理装置包括动作检测部和控制部。动作检测部被构造为通过使用输入检测部来检测动作,该输入检测部被构造为检测从操作者对机器人主体的输入,所述动作由操作者给出。控制部被构造为输出与动作检测部检测到的动作相关联的动作指令。
根据本发明的第四方面,控制方法包括:检测从操作者对机器人主体的输入;检测操作者给出的动作;以及使机器人主体执行与检测到的动作相关联的动作指令。
根据下面参照附图对示例性实施例的描述,本发明的进一步特征将变得显而易见。
附图说明
图1是示意性地示出第一实施例的机器人的外观的立体图。
图2是示出实施例的机器人的电连接的图。
图3A是示出实施例的控制装置的内部构造的框图。
图3B是示出实施例的机器人的关节的内部构造的框图。
图4是示出第一实施例的机器人的系统构造的图。
图5是实施例的整个工序1和工序2的流程图。
图6是实施例的用户动作分析处理的流程图。
图7A是实施例的显示图像的一个示例。
图7B是实施例的显示图像的另一个示例。
图8A是由用户动作引起并在第一关节中检测到的时序扭矩检测信号的示例。
图8B是由用户动作引起并在第二关节中检测到的时序扭矩检测信号的示例。
图8C是由用户动作引起并在第三关节中检测到的时序扭矩检测信号的示例。
图9A是由用户动作引起并在第四关节中检测到的时序扭矩检测信号的示例。
图9B是由用户动作引起并在第五关节中检测到的时序扭矩检测信号的示例。
图9C是由用户动作引起并在第六关节中检测到的时序扭矩检测信号的示例。
图10是实施例中的动作分析波形的曲线图。
图11A是示出用户动作的一个示例的图。
图11B是示出用户动作的另一个示例的图。
图11C是示出用户动作的又一个示例的图。
图12A是示出用户动作的一个示例的图。
图12B是示出用户动作的另一个示例的图。
图12C是示出用户动作的又一个示例的图。
图13是用于示出用户动作与动作指令关联处理的示意图。
图14是实施例的工序3的流程图。
图15是示出第二实施例的机器人的机器人臂的外观的图。
图16A是示出第二实施例的用户动作的一个示例的图。
图16B是示出第二实施例的用户动作的另一个示例的图。
图17是示出第二实施例中的输入用户动作的图。
图18是示出当删除用户动作时显示的第二实施例的弹出窗口的图。
图19是示出第二实施例的用户动作和动作指令的列表的图。
具体实施方式
在下文中,将参照附图描述本发明的某些实施例。具体地,将描述与人一起进行协作工作的机器人、控制与人一起进行协作工作的机器人的控制装置、控制与人一起进行协作工作的机器人的方法等。请注意,在以下实施例的描述中将参照的附图中,除非另有说明,否则赋予相同附图标记的部件具有相同的功能。
第一实施例
机器人
在第一实施例中,将描述具有六轴控制机器人臂的工业机器人。然而,本发明的本实施例不限于这种类型的机器人,并且本发明可以应用于各种类型的机器人,只要各机器人可以在与它们相互靠近的位置与人一起进行协作工作即可。另外,在本发明的本实施例中,机器人的关节数和机器人的轴数不限于特定值。例如,本实施例可以应用于垂直多关节机器人、SCARA机器人、并联连杆机器人、笛卡尔坐标机器人、双臂机器人等。另外,根据与人的协作工作,机器人可以具有各种致动器和传感器。
图1是示意性地示出第一实施例的机器人500的外观的透视图。如图1所示,机器人500包括保持并将工件W组装为产品的多关节机器人臂100、控制机器人臂100的控制装置200以及连接到控制装置200的系统控制面板300。多关节机器人臂100是六轴控制机器人臂,并且具有连接到机械人臂100前端的手(末端执行器)102。
机器人臂100包括固定至工作台的基部103、传递位移和力的多个连杆121至126以及将多个连杆121至126可枢转或可旋转地相互连接的多个关节111至116。为了使机器人500进行工作,控制装置200通过驱动关节111至116来控制机器人臂100的位置和姿势。
当机器人500与人一起进行协作工作时,控制装置200通过使用来自各关节111至116的扭矩检测装置的输出信号来检测人触摸机器人臂100(或输入用户动作);并且分析(检测)触摸的方式(即,触摸模式)。即,在本实施例中,扭矩检测装置用作检测操作者对机器人主体的触摸的触摸检测部,并且,用作动作检测部的用户动作分析部通过使用来自扭矩检测装置的输出信号来检测操作者的动作。换句话说,控制装置200在人触摸机器人臂100时分析(检测)人的动作。在检测到人触摸机器人臂100时获得的人的触摸模式(动作)之后,控制装置200根据已预先存储并与检测到的动作相关联的动作模式(指令)控制机器人的动作。
当操作者向机器人500教导动作或向机器人500发送指令时,连接到控制装置200的系统控制面板300用作输入/输出装置。系统控制面板300包括通过其输入操作指令的输入部;以及显示关于机器人臂等的状态的信息的显示部。另外,系统控制面板300可以包括紧急停止开关。在本实施例中,系统控制面板300还可以用于使控制装置200学习人的触摸模式(动作),并且用于使控制装置200将动作模式与人的动作相关联并存储该动作模式。
图2是示出机器人500的电连接的图。图3A是示出控制装置200的内部构造的框图。图3B是示出机器人臂的关节的内部构造的框图。在图2中,示出了电源装置101、控制装置200、系统控制面板300以及关节111至116。
电源装置101向整个系统供应电力。例如,电源装置101向控制装置200的电源电路(参见图3A)供应交流电。控制装置200的电源电路将交流电转换为直流电,并经由电源线路145将直流电供应给各关节111至116的电源电路(参见图3B)。请注意,也可以使用除上述供电方法外的另一种方法为各部件供电。
控制装置200经由通信线路146连接至关节111至116,控制装置200可以通过该通信线路传输控制信号。控制装置200通过控制关节111至116的动作来控制机器人臂100的位置和姿势。如图3A所示,控制装置200包括电源电路、通信控制装置、轨迹产生装置、外围I/O控制部、存储器和CPU。另外,控制装置200包括用户动作分析部501、用户动作存储部502、用户动作与动作指令关联部503以及动作指令存储部504。这些功能块的操作将在后面与根据用户动作进行的机器人动作控制相关联地进行描述。
图2所示的关节111至116具有相同或相似的内部构造。因此,在本实施例中,作为示例,将参照图3B描述关节116的内部构造。关节116包括关节控制部109、位置检测装置30a、电机30、使从电机30传递来的旋转减速的减速齿轮31以及检测施加到关节116的扭矩的扭矩检测装置20。关节控制部109是包括电源电路、通信控制装置、计算装置、串行通信装置、AD转换器、电流检测装置和电机驱动器的控制电路。
通信控制装置经由通信线路146与控制装置200连接,并且例如以10毫秒为周期向/从控制装置200发送/接收信号。通信控制装置将信号传输到控制装置200。例如,该信号是来自位置检测装置30a的输出信号、来自扭矩检测装置20的输出信号、来自位置检测装置30a或扭矩检测装置20的输出信号被处理成的信号或者指示关于关节状态的信息并且包含错误或警报信息的信号。当通信控制装置传输来自位置检测装置30a或扭矩检测装置20的输出信号被处理成的信号时,可以由计算装置或AD转换器适当地处理来自位置检测装置30a或扭矩检测装置20的输出信号。通信控制装置从控制装置200接收用于控制电机30的操作的指令。当通信控制装置从控制装置200接收用于控制电机30的操作的指令时,关节控制部109通过使用电机驱动器来驱动电机30。
电机30是伺服电机,并且可以是无刷DC电机或AC伺服电机。电机30经由螺栓等紧固到连杆125,并且来自电机30的动力被传递到减速齿轮31的减速齿轮输入轴。位置检测装置30a直接安装在电机30的旋转轴上,并且根据电机30的旋转产生脉冲信号并输出该脉冲信号。请注意,制动单元可以根据需要设置在电机30与位置检测装置30a之间,以在断电时保持机器人臂100的姿势。如通用旋转编码器一样,位置检测装置30a可以是光学装置或磁性装置。
减速齿轮31适合为应变波齿轮减速齿轮,但是可以是另一种减速齿轮。减速齿轮31包括接收来自电机30的动力的减速齿轮输入轴、保持减速齿轮31自身的减速齿轮固定部以及输出扭矩的速度已经降低的减速齿轮输出轴。如果减速齿轮31是应变波齿轮减速齿轮,则减速齿轮输入轴包括椭圆形凸轮和弹性轴承。另外,环状减速齿轮固定部的内周部分和作为弹性构件的杯状减速齿轮输出轴的外周部分具有齿。内周部分的齿数与外周部分的齿数不同,并且内周部分的齿与外周部分的齿相互啮合。当椭圆减速齿轮输入轴被电机30旋转时,作为弹性构件的减速齿轮输出轴椭圆形地变形,并且减速齿轮输出轴和减速齿轮固定部在椭圆的主轴的两端彼此啮合。因此,当减速齿轮输入轴被来自电机30的动力旋转时,减速齿轮输出轴在以椭圆形变形的同时与减速齿轮固定部啮合,并且连杆126(图3B中未示出)相对于在减速齿轮固定部一侧的连杆125和扭矩检测装置20旋转。
扭矩检测装置20是使用光学编码器等来检测结构的变形量并将该变形量转换为扭矩值的扭矩传感器。扭矩检测装置20设置在连杆125与减速齿轮固定部之间,并检测施加到关节的扭矩。请注意,磁性编码器或电致伸缩力传感器可以用作扭矩检测装置20。
接下来,参照图4,将描述机器人500的系统构造。机器人500包括用作计算单元的CPU 1201、ROM 1202、RAM 1203、存储部(HDD)1204、记录盘驱动器1205以及各种接口211至216。
CPU 1201经由总线217与ROM 1202、RAM 1203、HDD 1204、记录盘驱动器1205以及各种接口211至216连接。ROM 1202是非暂时性记录介质,并存储基本程序(例如BIOS)。RAM1203是临时存储由CPU1201进行的计算处理的结果的存储装置。
HDD 1204是存储单元,其存储作为由CPU 1201进行的计算处理的结果的各种数据;并存储使CPU 1201执行各种类型的处理的程序330。CPU 1201根据记录(存储)在作为记录介质的HDD 1204中的程序330来执行各种类型的计算处理。记录盘驱动器1205可以读取存储在记录盘331中的各种类型的数据和程序。
在本实施例中,在HDD 1204中实现了图3A中所示的用户动作存储部502和动作指令存储部504。另外,用于实现诸如图3A所示的用户动作分析部501和用户动作与动作指令关联部503等的功能块的程序被包括在HDD 1204中存储的程序330中。
接口211与用户可以操作的系统控制面板300连接。接口212与扭矩检测装置20连接,扭矩检测装置20经由接口212和总线217将扭矩检测值输出至CPU 1201。接口213与位置检测装置30a连接,位置检测装置30a经由接口213和总线217将位置检测输出信号输出至CPU 1201。接口214与显示各种图像的显示部311连接;接口215与诸如可重写非易失性存储器或外部HDD等的外部存储装置312连接。接口216与伺服控制装置313连接。
根据从CPU 1201发送的驱动指令,伺服控制装置313计算向电机30供应的电流量、向电机30供应电流并且对机器人臂100的各关节111至116进行关节角度控制。例如,当进行力控制时,CPU 1201经由伺服控制装置313控制电机30,并且使电机30驱动关节111至116,从而使得各关节111至116的扭矩检测值(即,扭矩传感器单元的输出信号)变成等于目标扭矩值。另外,当进行位置控制时,CPU 1201根据来自位置检测装置30a的输出信号,以预定间隔经由总线217和接口216,将用于驱动电机30并指示对电机30的旋转角度的控制量的指令数据输出到伺服控制装置313。
通过使用用户动作进行的机器人动作控制
为了使机器人500进行诸如已经教导过的预定动作等的动作,控制装置200的轨迹产生装置产生控制信息,并且根据该控制信息来驱动关节111至116,从而控制机器人臂100的位置和姿势。
然而,在机器人500与人一起进行协作工作的情况下,机器人500不必重复预定动作(例如,已经教导过的机器人动作)。代替地,当与人一起进行协作工作时,机器人500可以在人触摸机器人500的主体时分析用户动作,将用户动作解释为动作指令,并改变机器人500的动作。请注意,用户动作表示当人触摸机器人500的主体(通常是机器人臂100)时获得的触摸的规律性、风格、相似类型等。例如,根据人用手触摸机器人壳体(即,人输入用户动作)的触摸时间的长度、力的强度、力的方向、周期、预定时间内的触摸次数、触摸位置、触摸位置的变化等来确定所述规律性、风格、相似类型等。然后,将确定的规律性、风格、相似类型识别为用户动作。即,分析触摸时间的长度、触摸时施加的力的强度、触摸时施加的力的方向、触摸的周期、在预定时间内的触摸次数、触摸位置以及触摸位置的轨迹中的至少一者,从而检测用户动作。
图11A至图11C是用于示出用户动作的多种模式的示意图。图11A示出了人保持长时间触摸机器人臂的连杆的用户动作“长触摸”。图11B示出了人连续两次、每次短时间地触摸机器人臂的连杆用户动作“两次触摸”。图11C示出了人连续三次、每次短时间地触摸机器人臂的另一根连杆用户动作“三次触摸”。因此,控制装置200可以例如通过分析人触摸机器人的次数M来识别这三种类型的用户动作。
另外,如作为示例的图12A至图12C所示,通过不仅分析人触摸机器人的次数M,而且分析触摸时间长度Tn、触摸时间间隔In、力强度(接触压力)等,可以提高识别用户动作的能力。请注意,Tn和In的下标n指示各触摸事件的索引。
当识别到用户动作时,读取预先已经与用户动作相关联并存储的动作指令,并且控制装置200根据该动作指令执行或改变机器人的动作。例如,动作指令指示减速、加速、停止、重启动、位置控制开始、力控制开始和错误复位开始中的一种或其组合。然而,动作指令可以指示另一动作。为了允许机器人根据用户动作来改变动作,本实施例的机器人500的控制装置200根据以下工序进行处理。
工序1:用户动作存储处理
控制装置200分析并学习人通过触摸机器人500来给出动作指令的触摸方式(用户动作),并且用户动作存储部502存储分析后的用户动作的相似类型。请注意,当控制装置200分析并学习用户动作时,控制装置200可以使用利用神经网络等的所谓的机器学习方法。
工序2:动作指令存储处理
动作指令存储部504存储通过人触摸机器人500给出的各动作指令。如前所述,例如,动作指令指示减速、加速、停止、重启动、位置控制开始、力控制开始和错误复位开始中的一种或其组合。用户动作与动作指令关联部503存储用户动作的相似类型与对应的动作指令之间的关系。
请注意,重启动可以是恢复动作。在恢复动作中,在控制装置200确定机器人500由于某种原因而不能移动,并停止了机器人500之后,控制装置200恢复处于异常状态的机器人500。在恢复动作中,对机器人500进行控制,以使预定部分(在本实施例中为作为机器人臂100的前端的连杆126)位于预定位置。预定位置被设置为使得机器人500的机器人臂100的前端不干扰其周围,并且被称为恢复位置或原始位置。如果给出了重启动指令,则机器人500将连杆126移动到恢复位置或原始位置,以从异常状态返回。另外,操作者可以将紧急停止指令与用户动作相关联,通过该紧急停止指令,操作者出于某种原因立即停止机器人500;并且操作者可以使控制装置200执行紧急停止指令。
力控制开始可以是使工件与另一个工件接触的动作的开始。在这种情况下,预定的手被附装到机器人500,并且根据扭矩检测装置检测到的力而使工件与另一个工件接触。位置控制开始可以是传送工件的动作的开始。在这种情况下,预定的手被附装到机器人500,并且通过该手来传送工件。当机器人500被重启动时,可以使用这种用于力控制开始和位置控制开始的指令。
工序3:根据用户动作进行的动作改变处理
当人在协作工作中触摸机器人500时,用户动作分析部501通过使用来自各关节的扭矩检测装置20的输出信号和存储在用户动作存储部502中的关于用户动作的信息来检测用户动作。请注意,用户动作分析部501可以使用通过使用神经网络等产生的所谓的学习模型。
如果检测到用户动作,则用户动作与动作指令关联部503从存储在动作指令存储部504中的关于动作指令的信息当中识别关于与检测到的用户动作相对应的动作指令的信息。控制装置200将所识别的信息作为动作指令接受,然后根据该动作指令控制机器人500的动作。
工序描述
首先,将参照图5和图6所示的流程图描述工序1和工序2。图5是整个工序1和工序2的流程图。图6是包括在工序1中的用户动作分析处理的流程图。
如图5所示,在工序1中,在步骤S301中进行用户动作识别开始处理。例如,当操作者按下系统控制面板300的开始按钮时,步骤S301开始,并且图7A所示的画面显示在系统控制面板300的显示部311上。请注意,显示部311可以是仅显示图像的显示装置,或者可以是不仅显示图像而且还接收输入数据的触摸面板装置。
如图7A所示,画面包含模式显示部201、动作登记编号显示部202、动作登记取消按钮203、动作存储按钮204、编号前进/后退按钮205、操作状态显示部206和数字输入键207。在该步骤中,模式显示部201显示消息“INPUT MOTION(输入动作)”,以提示操作者进行用户动作的输入操作。
当操作者按下动作存储按钮204时,开始用于存储用户动作的步骤S302,并且在显示部311上显示图7B所示的画面。具体地,模式显示部201显示消息“ENTRY MOTION(输入动作)”,并且动作登记编号显示部202显示用于将要存储的用户动作与其它用户动作区分开的识别号。
操作者通过触摸机器人500输入要存储的用户动作。例如,如果操作者期望存储拍打两次机器人臂壳体侧面的一个用户动作,则操作者进行这一个用户动作。当操作者进行用户动作时,时序输出信号从各关节111至116的扭矩检测装置20传输至控制装置200;并存储在控制装置200的存储器中。当操作者再次按下动作存储按钮204时,与用户动作相对应的时序扭矩检测信号的存储完成。
在步骤S303中,确定是否已经存储了与预定数目的用户动作(期望类型的用户动作)相对应的扭矩检测信号。例如,在期望存储五种类型的用户动作的情况下,如果已经存储了与五种类型的用户动作相对应的扭矩检测信号(步骤S303:“是”),则处理进入步骤S304。然而,如果尚未存储与五种类型的用户动作相对应的扭矩检测信号(步骤S303:“否”),则处理返回至步骤S302并存储另一用户动作。即,重复步骤S302,直到存储了预定数目的用户动作为止。
如果与预定数目的用户动作相对应的时序扭矩检测信号被存储在存储器中(步骤S303:“是”),则处理进入步骤S304,并且用户动作分析部501分析各用户动作。即,用户动作分析部501根据扭矩检测信号来分析各用户动作的触摸方式的特征;并且将分析出的特征存储在用户动作存储部502中。
图6是步骤S304的用户动作分析处理的流程图。图8A至图8C和图9A至图9C是从一个用户动作产生并在各个关节中测量的时序扭矩检测信号的曲线图。时序扭矩检测信号存储在控制装置200的存储器中。
在步骤S401中,对由对应的扭矩检测装置检测到的各时序扭矩检测信号进行低通滤波处理。在图8A至图8C和图9A至图9C的曲线图中,由扭矩检测装置检测到的扭矩检测信号由虚线示出,并且低通滤波后的扭矩检测信号由实线示出。
在步骤S402中,进行偏移去除处理。具体地,从关节的对应的低通滤波后的扭矩检测信号中去除了施加到机器人臂的各关节的负载。在步骤S403中,对各关节的偏移去除后的扭矩检测信号进行平方运算处理。在步骤S404中,对已经在步骤S403中进行了平方运算处理的关节的扭矩检测信号进行合计处理。在本实施例中,对已经进行了平方运算处理的六个关节的扭矩检测信号进行合计。合计结果称为动作分析波形。图10示出了动作分析波形的曲线图的示例。
在步骤S405中,进行峰值搜索处理以进行特征提取,以通过使用动作分析波形来识别用户动作。首先,从动作分析波形中提取峰-峰值大于预设阈值的波。在图10的示例中,由于阈值为-3,因此提取了两个波M1和M2。
然后,求得各提取波形的面积。为了简单起见,可以计算峰-峰值的半值和时间轴上的半值宽度的乘积。在图10的示例中,计算峰-峰值的半值P1和时间轴上的半值宽度T1的乘积S1以求得M1,并且计算峰-峰值的半值P2和时间轴上的半值宽度T2的乘积S2以求得M2。然后,将针对M1计算出的乘积S1和针对M2计算出的乘积S2作为用户动作的特征值存储在用户动作存储部502中。即,乘积S1和乘积S2与在系统控制面板300的显示部311的动作登记编号显示部202中显示的识别号相关联,并存储在用户动作存储部502中。
请注意,用户动作的特征值不限于上述乘积S1和乘积S2。例如,特征值可以是M1与M2之间的时间间隔、M1与M2的峰值或者是识别其中已经测量到扭矩检测信号的最大值的关节的信息。另外,为了获得特征值,可以通过使用最小二乘法对模型波形进行拟合,并且可以确定残差;或者,可以使用利用机器学习等的波形模式识别。
返回参照图5,在步骤S304中分析了用户动作的特征并且完成了各用户动作的特征的存储之后,处理进入步骤S305,该步骤S305进行动作指令存储处理。在步骤S305中,将由进行用户动作(即,人触摸机器人的预定动作)的人给予机器人的动作指令存储在控制装置200的动作指令存储部504中。例如,动作指令指示减速、加速、停止、重启动、位置控制开始、力控制开始和错误复位开始中的一种或其组合。
在步骤S306中,进行用户动作与动作指令关联处理。图13是用于示出用户动作与动作指令关联处理的示意图。在用户动作存储部502中,用户动作的特征值与相应的标识符UM1、UM2、UM3、……相关联并被存储。在动作指令存储部504中,动作指令与相应的标识符F1、F2、F3、……相关联并被存储。在步骤S306中,将各用户动作与对应的动作指令相关联并存储。具体地,在用户动作与动作指令关联部503中创建表,并且用户动作与对应的动作指令之间的关系被存储在该表中。因此,操作者可以通过使用系统控制面板300来登记用户动作与对应的动作指令之间的关系。
当步骤S306完成时,上述工序1和工序2完成。请注意,当步骤S306完成时,系统控制面板300的显示部311可以显示各用户动作与对应的动作指令相关联的列表,以允许操作者容易地理解用户动作与动作指令之间的关系。
接下来,将描述上述工序3,即,根据用户动作进行的动作改变处理。例如,当机器人500根据已经教导过的操作程序进行预定动作时,由控制装置200的轨迹产生装置产生控制信息,并且根据控制信息驱动关节111至116,从而控制机械人臂100的位置和姿势。在本实施例中,在机器人500正在操作的同时,用户动作分析部501监视从各关节的扭矩检测装置20发送的扭矩检测信号。用户动作分析部501通过使用存储在用户动作存储部502中的关于用户动作的信息来检测用户动作。当检测到用户动作时,用户动作与动作指令关联部503从存储在动作指令存储部504中的动作指令当中识别与检测到的用户动作相对应的动作指令。控制装置200接受所识别的动作指令,并且根据该动作指令改变机器人500的动作。
参照图14的流程图,将描述在工序3中进行的处理。在启动之后,机器人500执行作为系统初始化处理的步骤S501。系统初始化处理包括顺序控制;并且在该顺序控制中,在内部处理中初始化内部变量,自动建立机器人500的内部部件之间以及机器人500与外部装置之间的通信,并启动各部件的电源。
在完成步骤S501之后,执行步骤S502以设置用于使机器人500根据操作程序进行预定动作的命令。控制装置200周期性地与关节111至关节116进行交互通信。另外,控制装置200将由轨迹产生装置产生的控制命令设置为内部变量ExecCmd;并从各关节获取状态信息。
在执行了步骤S502之后,执行步骤S503,以监视由各关节的扭矩检测装置20测量的扭矩检测信号。在步骤S503中,用户动作分析部501通过使用从各关节发送的扭矩检测信号来进行用户动作分析处理(参见图6)。
在步骤S504中,用户动作分析部501通过参考存储在用户动作存储部502中的特征信息来确定人是否已经进行了用户动作。如果未检测到用户动作(步骤S504:“否”),则在保持步骤S502中设置为内部变量ExecCmd的控制命令的同时,处理进入步骤S506并执行该控制命令。即,由于没有用户动作,因此处理不改变动作并执行当前命令。
另一方面,如果检测到用户动作(步骤S504:“是”),则处理进入步骤S505,并且用户动作与动作指令关联部503从动作指令存储部504读取与检测到的用户动作相对应的动作指令。然后,处理将与已经读取的动作指令相对应的控制命令重写到内部变量ExecCmd中。然后,处理进入步骤S506,并执行重写的控制命令。在这种情况下,由于检测到用户动作,因此已经根据与检测到的用户动作相对应的动作指令改变了动作。
在执行步骤S506之后,处理进入步骤S507,并且关于机器人臂的各关节的状态的信息经由通信线路146发送至控制装置200。然后,处理返回到步骤S502,并且例如以10毫秒为周期针对人与机器人500之间的协作工作重复步骤S502至S507。
如上所述,在本实施例中,当人和同该人一起进行协作工作的机器人在彼此靠近的位置进行协作工作时,人可以精确且容易地向机器人给出动作指令。特别地,当人和机器人在彼此靠近的位置中通过协作工作(例如,将部件组装到产品中或诸如打磨、切割或喷漆等的加工)制造产品时,人可以精确且容易地向工业机器人给出动作指令。
第二实施例
在第一实施例中,通过使用设置在机器人臂的各关节中的扭矩检测装置来分析当人在协作工作中触摸机器人时获得的用户动作。然而,本发明的实施例并不局限于此。以下描述的第二实施例与第一实施例的不同之处在于,通过使用附装到机器人臂的触摸面板来分析当人在协作工作中触摸机器人的主体时获得的用户动作。即,在本实施例中,触摸面板用作检测操作者对机器人主体的触摸的触摸检测部,并且,用作动作检测部的用户动作分析部通过使用来自触摸面板的输出信号来检测操作者的动作。在下文中,在描述中将省略与第一实施例相同的特征,并且将主要描述与第一实施例不同的特征。
在第二实施例中使用的触摸面板可以是任何触摸面板,只要该触摸面板可以在人可以容易地触摸该触摸面板的位置处附装到机器人的壳体即可。另外,触摸面板可以固定到机器人,或者可以可拆卸地附装到机器人。触摸面板可以具有任何系统,只要该触摸面板可以检测系统中人的触摸即可。触摸面板可以附装到显示画面上。
图15是示出第二实施例的机器人的机器人臂的外观的图。面板支架902设置在机器人臂901的壳体的侧面上,并且触摸面板904可以附装到面板支架902。优选地,触摸面板904被设计为使得操作者可以通过使用手指触摸触摸面板904来进行用户动作,诸如长触摸、短触摸、顺序触摸、重复触摸、轻拂、滑动、捏和画线等。适当地,分析触摸时间的长度、触摸时施加的力的强度、触摸时施加的力的方向、触摸的周期、在预定时间内的触摸次数、触摸位置以及触摸位置的轨迹中的至少一者,从而检测用户动作。通过该分析,可以识别出长触摸、短触摸、顺序触摸、重复触摸、轻拂、滑动、捏和画线中的至少一种用户动作。在本实施例中,将以触摸面板904包括显示画面905并且还可以用作操作面板的情况为例进行描述,该操作面板可以显示机器人臂的状态,并且通过该操作面板可以将信息输入到机器人中。
触摸面板904可以与控制装置200进行无线或有线通信。如果触摸面板904与控制装置200进行无线通信,则触摸面板904可以具有电池并且通过使用红外通信、无线LAN、蓝牙(注册商标)等与控制装置200通信。如果触摸面板904与控制装置200进行有线通信,则触摸面板904与机器人臂可以经由连接器903彼此连接,并且信号线路和电源线路可以连接至触摸面板904和机器人臂。
由于触摸面板904还可以用作操作面板,因此触摸面板904可以在进行教导时用作示教器,或者可以像第一实施例的系统控制面板300一样使用。然而,当人在机器人附近进行协作工作时,触摸面板904用作用于通过进行用户动作来输入动作指令的装置。因此,由于通过其可以从外部输入动作指令的诸如示教器等的信息处理装置可拆卸地附装到对应的机器人,因此操作者可以立即找到哪个示教器与哪个机器人相对应。因此,操作者可以通过使用对应的示教器来精确地向机器人给出动作指令。
在本实施例中,人触摸触摸面板904的触摸方式(触摸位置、触摸时间的长度、周期以及预定时间内的触摸次数)以及触摸位置的轨迹(在时间序列中的触摸位置的变化)作为用户动作的特征被分析。图16A示出了人通过触摸用于输入动作指令的触摸面板904进行的用户动作的示例。图16B示出了人通过触摸用于输入动作指令的触摸面板904进行的另一用户动作的示例。
同样在本实施例中,如在第一实施例中一样,在机器人与人一起进行协作工作之前预先分析用户动作,并且将用户动作的特征存储在用户动作存储部中。另外,动作指令预先存储在动作指令存储部中。此外,用户动作与对应的动作指令之间的关系被预先存储在用户动作与动作指令关联部中。例如,在图16A中示出的用户动作与停止机器人臂的动作指令相关联,并且在图16B中示出的用户动作与重启动机器人臂的动作指令相关联。
作为用户动作的特征的示例,存储由触摸面板904检测到的触摸位置的轨迹。请注意,当触摸位置的轨迹(模式)作为用户动作输入时,如图17所示,显示画面905的模式显示部201的显示改变为“模式动作(PATTERN MOTION)”,并且显示模式输入部906。另外,模式删除按钮907和模式存储按钮908显示在模式输入部906附近。当操作者期望在模式输入部906中输入预定模式并存储该模式时,操作者触摸模式存储按钮908。如果操作者触摸模式存储按钮908,则存储操作者输入的模式。首先,清除模式输入部906,然后改变模式登记编号909,以提示操作者输入新的模式。如果触摸了模式删除按钮907,则删除已经输入到模式输入部906中的模式,以允许操作者输入另一模式。如果触摸了模式删除按钮907,则显示弹出窗口912,如图18所示,以允许操作者确认模式的删除。
如果操作者期望编辑已经登记的模式,则操作者触摸动作编辑按钮910。然后,模式登记编号909开始闪烁。如果操作者触摸编号前进/后退按钮911,则模式登记编号909在闪烁的同时改变,并且以顺序的方式显示已经登记在模式输入部906中的模式。如果操作者在模式输入部906中显示了操作者期望编辑的模式的状态下触摸模式删除按钮907,则显示图18所示的弹出窗口912。此后,如果操作者触摸“是”按钮,则删除已登记的模式。然后,操作者可以在模式输入部906中输入新的模式,以编辑该模式。模式登记编号909闪烁,以允许操作者通过使用编号前进/后退按钮911容易地将检查登记模式的方式与输入模式的方式区分开。如果操作者错误地触摸了动作编辑按钮910,或者如果操作者仅仅期望检查登记的模式,则操作者再次触摸动作编辑按钮910。然后,模式登记编号909停止闪烁。
如在第一实施例中所述,显示画面905可以显示各模式与对应的动作指令相关联的列表,以允许操作者容易地理解模式和动作指令之间的关系。图19示出了各模式与对应的动作指令相关联的列表的示例。可以通过按下编号前进/后退按钮911来顺序显示模式和对应的动作指令。在本实施例中,各显示的模式均设置有指示该模式如何被输入的箭头。请注意,如果操作者触摸显示有模式的部分,并然后触摸动作编辑按钮910,则可以将画面改变为图17所示且与该模式相对应的显示画面,以允许操作者编辑该模式。因此,由于用户动作和对应的动作指令被显示在列表中,因此操作者可以容易地理解模式与对应的动作指令之间的关系。另外,如图19所示的显示画面可以用作机器人的指令手册的一部分。请注意,通过按下按钮(未示出)或设置在触摸面板904上的物理按钮可以改变上述显示方式。
当实际检测到人的用户动作时,由触摸面板904检测触摸位置的轨迹,然后校正轨迹的起点、斜率和比例,然后将校正后的轨迹与已经存储在存储器中的轨迹进行比较。具体地,通过使用采用最小二乘法对校正后的轨迹和存储在存储器中的轨迹进行拟合处理;并计算两条轨迹之间的距离。如果方差等于或小于预设阈值,则确定已经检测到用户动作。
请注意,当分析和学习用户动作的特征时,可以使用利用神经网络等所谓的机器学习方法。在这种情况下,为了在机器人进行协作工作时检测用户动作,可以使用通过使用神经网络等产生的所谓的学习模型。
在上述的第二实施例中,当人和机器人进行协作工作时,在人和机器人在彼此靠近的位置进行协作工作的同时,人可以精确且容易地向机器人给出动作指令。特别地,当人和机器人在彼此靠近的位置中通过协作工作(例如,将部件组装到产品中或诸如打磨、切割或喷漆等的加工)制造产品时,人可以精确且容易地向工业机器人给出动作指令。
变型例
本发明不限于上述实施例,并且在本发明的技术构思内可以进行各种修改或组合。例如,在第一实施例中,在图5的流程图的步骤S303中,确定是否已经存储了与期望类型的用户动作相对应的扭矩检测信号。然而,可以以不同的方式进行确定。例如,存在以下情况:通过使操作者多次进行一种类型的用户动作来收集预定数量的测量样本(学习数据),以提高用户动作的学习精度。在这种情况下,处理可以在步骤S303中确定相同类型的用户动作是否已经进行了预定次数。在这种情况下,在作为用户动作分析和存储处理的步骤S303中,可以通过使用神经网络来产生关于用户动作的学习模型并存储该学习模型。
另外,第一实施例的扭矩检测装置和第二实施例的触摸面板都可以附装到同一机器人,并用作用于检测用户动作的机构。在这种情况下,扭矩检测装置和触摸面板可以根据情况而并行使用或交替地使用。
本发明也可以通过如下方式来实现:经由网络或存储介质向系统或装置提供进行上述实施例的一种或多种功能的程序,并且通过包括在该系统或装置中的处理器来读取并执行该程序。另外,本发明也可以通过使用进行一种或多种功能的诸如ASIC等的电路来实现。
另外,根据存储在控制装置的存储装置中的信息数据,上述各种实施例可以应用于可以自动进行伸展和收缩动作、弯曲和拉伸动作、上下动作、左右动作、枢转动作或者这些动作的组合动作的任何机器。
其它实施例
另外,可以通过读出并执行记录在存储介质(也可更完整地称为“非暂时性计算机可读存储介质”)上的计算机可执行指令(例如,一个或更多程序)以执行上述实施例中的一个或更多的功能、并且/或者包括用于执行上述实施例中的一个或更多的功能的一个或更多电路(例如,专用集成电路(ASIC))的系统或装置的计算机,来实现本发明的实施例,并且,可以利用通过由所述系统或装置的所述计算机例如读出并执行来自所述存储介质的所述计算机可执行指令以执行上述实施例中的一个或更多的功能、并且/或者控制所述一个或更多电路执行上述实施例中的一个或更多的功能的方法,来实现本发明的实施例。所述计算机可以包括一个或更多处理器(例如,中央处理单元(CPU),微处理单元(MPU)),并且可以包括分开的计算机或分开的处理器的网络,以读出并执行所述计算机可执行指令。所述计算机可执行指令可以例如从网络或存储介质被提供给计算机。所述存储介质可以包括例如硬盘、随机存取存储器(RAM)、只读存储器(ROM)、分布式计算系统的存储器、光盘(诸如压缩光盘(CD)、数字通用光盘(DVD)或蓝光光盘(BD)TM)、闪存设备以及存储卡等中的一者或更多。
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
虽然针对示例性实施例描述了本发明,但是,应该理解,本发明不限于公开的示例性实施例。下述权利要求的范围应当被赋予最宽的解释,以涵盖所有这类修改以及等同的结构和功能。

Claims (24)

1.一种机器人,包括:
输入检测部,其被构造为检测从操作者对机器人主体的输入;
动作检测部,其被构造为通过使用输入检测部来检测动作,所述动作由操作者给出;以及
控制部,其被构造为执行与由动作检测部检测到的动作相关联的动作指令。
2.根据权利要求1所述的机器人,其中,所述输入检测部通过使用配设在机器人主体中的扭矩检测装置来检测输入。
3.根据权利要求1所述的机器人,其中,所述输入检测部通过使用附装到机器人主体的机器人臂的触摸面板来检测输入。
4.根据权利要求3所述的机器人,其中,所述触摸面板可拆卸地附装到机器人臂。
5.根据权利要求3所述的机器人,其中,所述触摸面板包括显示部。
6.根据权利要求1所述的机器人,其中,所述动作检测部通过分析所述输入的输入时间长度、所述输入的力强度、施加所述输入的力的方向、所述输入的周期、在预定时间内所述输入的次数、施加所述输入的位置以及所述输入的位置的轨迹中的至少一者,来检测由操作者给出的动作。
7.根据权利要求6所述的机器人,其中,所述输入是通过操作者触摸机器人主体来进行的。
8.根据权利要求1所述的机器人,所述机器人还包括用户动作存储部,所述用户动作存储部被构造为存储关于动作的特征的信息,
其中,所述动作检测部通过使用存储在所述用户动作存储部中的信息并使用所述输入检测部来检测操作者的动作。
9.根据权利要求8所述的机器人,其中,所述用户动作存储部存储关于多个动作模式中的各模式的特征的信息,
其中,所述动作检测部将由操作者给出的所述输入的动作识别为所述多个动作模式中的一个,并且
其中,所述控制部执行与所识别的动作模式相关联的动作指令。
10.根据权利要求9所述的机器人,其中,所述多个动作模式包括长触摸、短触摸、顺序触摸、重复触摸、轻拂、滑动、捏和画线中的至少一者。
11.根据权利要求1至10中任意一项所述的机器人,其中,所述控制部包括动作指令存储部,所述动作指令存储部被构造为存储当由动作检测部检测到对应的动作时执行的动作指令,并且
其中,所述动作指令包括减速、加速、停止、重启动、位置控制开始、力控制开始和错误复位开始中的至少一者。
12.根据权利要求11所述的机器人,其中,用于重启动的指令是控制机器人以将机器人的预定部分移动至预定位置的指令。
13.根据权利要求12所述的机器人,其中,所述预定位置是恢复位置,并且用于重启动的指令是控制机器人以从机器人由于异常状况而停止的状态使机器人恢复的指令。
14.根据权利要求11所述的机器人,其中,用于力控制开始的指令是根据力值来控制机器人的指令。
15.根据权利要求11所述的机器人,其中,用于位置控制开始的指令是根据位置值来控制机器人的指令。
16.根据权利要求5所述的机器人,其中,所述显示部被构造为显示动作登记取消按钮和动作存储按钮。
17.根据权利要求5所述的机器人,其中,所述显示部被构造为显示动作登记编号显示部和编号前进/后退按钮。
18.根据权利要求16所述的机器人,其中,所述显示部显示动作编辑按钮,并且如果动作编辑按钮被触摸,则动作登记编号显示部闪烁。
19.根据权利要求18所述的机器人,其中,如果在动作登记编号显示部闪烁的状态下触摸编号前进/后退按钮,则以顺序方式显示与动作登记编号相对应的动作。
20.一种控制装置,包括:
动作检测部,其被构造为通过使用输入检测部来检测动作,所述输入检测部被构造为检测从操作者对机器人主体的输入,所述动作由操作者给出;以及
控制部,其被构造为使机器人主体执行与由动作检测部检测到的动作相关联的动作指令。
21.一种信息处理装置,包括:
动作检测部,其被构造为通过使用输入检测部来检测动作,所述输入检测部被构造为检测从操作者对机器人主体的输入,所述动作由操作者给出;以及
控制部,其被构造为输出与由动作检测部检测到的动作相关联的动作指令。
22.一种控制方法,包括:
检测从操作者对机器人主体的输入;
检测由操作者给出的动作;以及
使机器人主体执行与检测到的动作相关联的动作指令。
23.一种方法,其通过使用由根据权利要求22所述的控制方法控制的机器人主体来制造产品。
24.一种计算机可读非暂时性记录介质,其存储有使计算机进行根据权利要求22所述的控制方法的程序。
CN202110249417.1A 2020-03-12 2021-03-08 机器人、控制装置、信息处理装置、方法及存储介质 Active CN113386125B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-043049 2020-03-12
JP2020043049A JP7483420B2 (ja) 2020-03-12 2020-03-12 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体

Publications (2)

Publication Number Publication Date
CN113386125A true CN113386125A (zh) 2021-09-14
CN113386125B CN113386125B (zh) 2024-01-16

Family

ID=77617348

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110249417.1A Active CN113386125B (zh) 2020-03-12 2021-03-08 机器人、控制装置、信息处理装置、方法及存储介质

Country Status (3)

Country Link
US (1) US11731272B2 (zh)
JP (1) JP7483420B2 (zh)
CN (1) CN113386125B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105446350B (zh) * 2014-09-26 2018-05-29 科沃斯机器人股份有限公司 自移动机器人移动界限划定方法
JP6838017B2 (ja) * 2018-08-31 2021-03-03 ファナック株式会社 レーザ加工のための教示装置、教示方法、及び教示プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180281173A1 (en) * 2017-04-03 2018-10-04 Fanuc Corporation Robot teaching apparatus
US20180311814A1 (en) * 2017-04-28 2018-11-01 Omron Corporation Industrial robot, controller, and method thereof
CN108789403A (zh) * 2017-04-26 2018-11-13 发那科株式会社 操作装置、机器人系统以及操作方法
WO2019190487A1 (en) * 2018-03-27 2019-10-03 Productive Robotics, Inc. Collaborative robot system incorporating enhanced human interface

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011240468A (ja) 2010-05-21 2011-12-01 Toyota Motor Corp ロボットの接触種類判別システム
JP5839806B2 (ja) 2011-02-02 2016-01-06 キヤノン株式会社 ロボット制御装置及びロボット制御方法
JP6450960B2 (ja) 2014-03-20 2019-01-16 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
JP6858124B2 (ja) 2015-08-25 2021-04-14 川崎重工業株式会社 遠隔操縦マニピュレータシステム及びその運転方法
CN107717981B (zh) 2016-08-12 2021-01-05 财团法人工业技术研究院 机械手臂的控制装置及其教导系统与方法
JP6571618B2 (ja) 2016-09-08 2019-09-04 ファナック株式会社 人間協調型ロボット
KR102631147B1 (ko) * 2016-10-07 2024-01-31 엘지전자 주식회사 공항용 로봇 및 그의 동작 방법
JP6392910B2 (ja) 2017-01-13 2018-09-19 ファナック株式会社 ロボットの安全確保動作機能を備えた人間協働ロボットシステム
JP7049069B2 (ja) 2017-05-19 2022-04-06 川崎重工業株式会社 ロボットシステム及びロボットシステムの制御方法
JP6633580B2 (ja) 2017-08-02 2020-01-22 ファナック株式会社 ロボットシステム及びロボット制御装置
JP6958091B2 (ja) 2017-08-08 2021-11-02 セイコーエプソン株式会社 ロボットシステム、及びロボット制御方法
JP7095980B2 (ja) 2017-11-27 2022-07-05 川崎重工業株式会社 ロボットシステム
JP6882249B2 (ja) * 2018-11-29 2021-06-02 ファナック株式会社 ロボット用操作装置
JP6810173B2 (ja) * 2019-01-29 2021-01-06 日本金銭機械株式会社 物体把持システム
US11376742B2 (en) * 2019-05-15 2022-07-05 Lg Electronics Inc. Robot and method of controlling the same
US20210039262A1 (en) * 2019-08-09 2021-02-11 Medtech S.A. Robotic controls for a surgical robot
JP2021133470A (ja) * 2020-02-28 2021-09-13 セイコーエプソン株式会社 ロボットの制御方法およびロボットシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180281173A1 (en) * 2017-04-03 2018-10-04 Fanuc Corporation Robot teaching apparatus
CN108789403A (zh) * 2017-04-26 2018-11-13 发那科株式会社 操作装置、机器人系统以及操作方法
US20180311814A1 (en) * 2017-04-28 2018-11-01 Omron Corporation Industrial robot, controller, and method thereof
WO2019190487A1 (en) * 2018-03-27 2019-10-03 Productive Robotics, Inc. Collaborative robot system incorporating enhanced human interface

Also Published As

Publication number Publication date
CN113386125B (zh) 2024-01-16
US20210283774A1 (en) 2021-09-16
JP2021142608A (ja) 2021-09-24
JP7483420B2 (ja) 2024-05-15
US11731272B2 (en) 2023-08-22

Similar Documents

Publication Publication Date Title
CN113386125B (zh) 机器人、控制装置、信息处理装置、方法及存储介质
CN107921645B (zh) 远程操作机器人系统
JP5512048B2 (ja) ロボットアームの制御装置及び制御方法、ロボット、制御プログラム、並びに、集積電子回路
CN104972473B (zh) 具有引入功能的人协调型工业用机器人
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
CN108789457B (zh) 工业用机器人、控制器及控制方法
CN110709211B (zh) 机器人系统和机器人系统的控制方法
JP4534015B2 (ja) マスタ・スレーブ式ロボット制御情報確定方法
JP2018167334A (ja) 教示装置および教示方法
CN112109077A (zh) 学习工具状态的机器学习装置、机器人系统以及机器学习方法
JP7324121B2 (ja) 使用器具推定装置及び方法並びに手術補助ロボット
CN111975763B (zh) 算术设备、控制程序、机器学习器、抓握装置和控制方法
JP7381280B2 (ja) 診断装置及び機械学習装置
JP7079435B2 (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム
WO2023162248A1 (ja) 教示操作盤およびロボット制御システム
JP2013043250A (ja) ロボットアームの制御装置及び制御方法、ロボット、制御プログラム、並びに、集積電子回路
CN114161424A (zh) 一种scara机器人动态制动的控制方法及控制系统
JP2006315128A (ja) ロボットハンドの持ち替え把持制御方法。
JP6922733B2 (ja) ロボット、自己診断プログラム、及び自己診断方法
KR20110060319A (ko) 커뮤니케이션이 가능한 로봇 및 이의 조작방법
JP2005335000A (ja) 人間介入型ロボットの制御装置
US20230264353A1 (en) Manipulation apparatus, robot system, manipulation apparatus control method, and robot system control method
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法
US20240109188A1 (en) Operation apparatus, robot system, manufacturing method, control method, and recording medium
JP7327991B2 (ja) 制御方法、制御プログラム、記録媒体、ロボットシステム、物品の製造方法および入力装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant