CN111975745B - 机器人系统 - Google Patents

机器人系统 Download PDF

Info

Publication number
CN111975745B
CN111975745B CN202010431044.5A CN202010431044A CN111975745B CN 111975745 B CN111975745 B CN 111975745B CN 202010431044 A CN202010431044 A CN 202010431044A CN 111975745 B CN111975745 B CN 111975745B
Authority
CN
China
Prior art keywords
robot
person
distance
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010431044.5A
Other languages
English (en)
Other versions
CN111975745A (zh
Inventor
濑下勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of CN111975745A publication Critical patent/CN111975745A/zh
Application granted granted Critical
Publication of CN111975745B publication Critical patent/CN111975745B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40317For collision avoidance and detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

本申请提供了一种当确定出距机器人规定距离的范围内有人时进行使机器人的动作减速或者停止的控制,并且不易于使作业的生产率降低的机器人系统。所述机器人系统的特征在于,具备:机器人,与人协作而进行动作;确定部,确定处于距所述机器人规定距离的区域内的人;以及控制部,当通过所述确定部确定出所述区域内有人时,使所述机器人的动作减速或者停止,所述控制部基于所述确定部的人的确定结果来变更所述距离。

Description

机器人系统
技术领域
本发明涉及机器人系统。
背景技术
人机协作机器人是与人共有共同作业空间而与人协调而进行作业的机器人。
例如,在专利文献1中公开了一种信息处理装置,具备:第一保持单元,保持个人信息;第二保持单元,保持作业工序信息;计测单元,取得用于识别个人的计测数据;识别单元,基于计测数据与个人信息来识别个人;管理单元,管理包括被识别的个人的个人信息与对应于该个人的作业工序信息的作业信息;以及控制单元,基于作业信息来控制机器人。
其中,识别个人的识别单元基于计测数据来检测人物,但是在与个人信息不一致的情况下,识别为未确认人物。并且公开有在识别为未确认人物的情况下,使机器人的驱动速度减速或者使驱动停止。
然而,在专利文献1所记载的信息处理装置中,由于仅识别到未确认人物,机器人的驱动被限制。因此,在将机器人设置于不确定多数的人往来的环境的情况下,存在驱动频繁地被限制,机器人的作业的生产率降低的技术问题。
专利文献1:日本特开2015-230621号公报
发明内容
本发明的适用例涉及的机器人系统的特征在于,具备:机器人,与人协作而进行动作;确定部,确定处于距所述机器人规定距离的区域内的人;以及控制部,当通过所述确定部确定出所述区域内有人时,使所述机器人的动作减速或者停止,所述控制部基于所述确定部的人的确定结果来变更所述距离。
附图说明
图1是表示第一实施方式涉及的机器人系统的图。
图2是图1所示的机器人系统的概略图。
图3是表示图1以及图2所示的机器人系统的硬件结构的一例的框图。
图4是用于更详细地说明图3的功能框图。
图5是表示控制装置的机器人的控制方法的流程图。
图6是用于说明图5所示的机器人的控制方法的图。
图7是用于说明图5所示的机器人的控制方法的图。
图8是第二实施方式涉及的机器人系统的概略图。
图9是第三实施方式涉及的机器人系统的概略图。
图10是第三实施方式涉及的机器人系统的概略图。
图11是第三实施方式涉及的机器人系统的概略图。
图12是第三实施方式涉及的机器人系统的概略图。
图13是第三实施方式涉及的机器人系统的概略图。
图14是第四实施方式涉及的机器人系统的功能框图。
附图标记说明:
1…机器人;3…拍摄部;5…控制装置;9…人;9A…人;9B…人;9C…人;10…机器人机械臂;11…机械臂;12…机械臂;13…机械臂;14…机械臂;15…机械臂;16…机械臂;17…把持手;30…拍摄范围;51…控制部;52…存储部;53…外部输入输出部;54…确定部;55…登记部;56…视线检测部;61…控制器;62…计算机;70…设置位置;100…机器人系统;110…基台;120…力传感器;130…驱动部;140…位置传感器;401…显示装置;402…输入装置;1000…区域;2000…区域;L0…标准距离;L1…距离;L2…距离;L9…距离;LL1…第一距离;LL2…第二距离;S01…步骤;S02…步骤;S03…步骤;S04…步骤;S05…步骤;S06…步骤;S07…步骤;S08…步骤;S09…步骤;S10…步骤;S11…步骤;S12…步骤;S13…步骤;S14…步骤。
具体实施方式
以下,基于附图对本发明的机器人系统的优选的实施方式进行详细的说明。
1.第一实施方式
首先,对第一实施方式涉及的机器人系统进行说明。
图1是表示第一实施方式涉及的机器人系统的图。图2是图1所示的机器人系统的概略图。图3是表示图1以及图2所示的机器人系统的硬件结构的一例的框图。图4是用于更详细地说明图3的功能框图。
此外,在图1中,作为相互正交的三轴,图示有X轴、Y轴以及Z轴。另外,在本说明书中,“连接”包括直接地连接的情况与通过任意的部件而间接地连接地情况双方。
1.1机器人系统
图1所示的机器人系统100在例如作业对象物的保持、输送以及组装等的作业中使用。该机器人系统100具有:机器人1;控制装置5,控制机器人1的驱动;力传感器120,检测作用于机器人1的力;拍摄部3,拍摄机器人1的周围。此外,这些各部可以通过有线或者无线来进行通信,该通信也可以通过互联网那样的网络来进行。
1.1.1机器人
如图1以及图2所示,机器人1是所谓的六轴的垂直多关节机器人,具有基台110以及连接于基台110的机器人机械臂10。
基台110是将机器人1安装于任意的设置位置的部分。在本实施方式中,基台110设置在例如由图2所示的X-Y平面构成的设置位置70上。此外,基台110的设置位置70不限定于地面等,例如也可以是壁、天花板、可移动的台车上等。另外,在机器人1与设置位置70之间配置有力传感器120,能够检测作用于机器人1的力。
如图1以及图2所示,机器人机械臂10具有机械臂11、机械臂12、机械臂13、机械臂14、机械臂15以及机械臂16。这些机械臂11~16以从基端侧即基台110侧朝向前端侧即基台110的相反侧的顺序连结。各机械臂11~16能够相对于相邻的机械臂或者基台110转动。例如,机械臂16如图1所示成为圆盘状,能够相对于机械臂15转动。
如图1所示,这种机器人机械臂10的前端连接有把持作业对象物的把持手17。此外,把持手17是可更换的,也可以使用吸附手、磁手、螺丝固定工具、卡合工具等来代替把持手17。
如图4所示,机器人1具有驱动部130,该驱动部130具备使一个机械臂相对于其他机械臂或者基台110转动的未图示的电机以及未图示的减速器。作为电机,例如能够使用AC伺服电机、DC伺服电机等的伺服电机。作为减速器,例如能够使用行星齿轮型减速器、波动齿轮装置等。另外,机器人1具有检测电机或者减速器的旋转轴的旋转角度的位置传感器140。位置传感器140中例如能够使用旋转编码器等。另外,驱动部130以及位置传感器140设置于例如基台110以及各机械臂11~16,在本实施方式中,机器人1具有六个驱动部130以及六个位置传感器140。另外,各驱动部130例如通过内置于机器人1的未图示的电机驱动器而电连接于控制装置5。并且,各位置传感器140在图4中也未图示,但是电连接于控制装置5。
在机器人1中此外还设置有任意的部件、设备等。
1.1.2控制装置
如图4所示,控制装置5具有控制机器人1的驱动的功能,相对于机器人1可通信地连接。此外,控制装置5与机器人1之间可以通过有线连接,也可以通过无线连接。另外,控制装置5连接有具备例如显示器等的显示装置401(显示部)以及具备例如键盘、触摸面板等的输入装置402。
如图4所示,控制装置5包括:控制部51;存储部52;外部输入输出部53;确定部54,确定处于机器人1的周围的人;以及登记部55,登记人的个人信息。控制装置5的各结构元件通过各种总线而相互可通信地连接。
控制部51执行存储于存储部52的各种程序等。由此,能够实现机器人1的驱动的控制、各种运算以及判断等的处理。本实施方式涉及的控制部51在通过确定部54确定距机器人1规定距离的范围内有人时,使机器人1的动作减速或者停止。使机器人1的动作减速是指减小机器人机械臂10、把持手17的驱动速度。由此,能够防止机器人1与人、物发生碰撞,或者即使发生了碰撞也能够缓和冲击。另外,控制部51还具有通过来自力传感器120的输出而使机器人1的动作减速或者停止的功能。由此,即使机器人1与人、物发生碰撞,也能够缓和冲击。
存储部52中保存有能够通过控制部51执行的各种程序。另外,存储部52中能够保存由外部输入输出部53接收的各种数据。
外部输入输出部53具备外部接口,用于与机器人1、显示装置401以及输入装置402的连接。
确定部54确定处于距机器人1规定距离的范围内的人。确定人是指识别为人并且计测其位置。确定部54确定人的方法没有特别限定,但是在本实施方式中,能够利用拍摄部3的拍摄结果。具体而言,对拍摄结果实施图像处理来提取被摄体的轮廓,例如通过模板匹配来检测是否是人。另外,除了利用拍摄部3的拍摄结果的方法以外,例如列举利用距离传感器的方法、计测温度分布的方法、利用声音的录音结果的方法以及检测动作的特征的方法等。
并且,确定部54的确定结果,即距机器人1规定距离的范围内是否有人的信息以及在有人的情况下与其位置相关的信息被输出至控制部51。
如前所述,控制部51基于确定部54的人的确定结果来使机器人1的动作减速或者停止,并且作为这样限制驱动的条件,使用在距机器人1规定距离的区域内是否确定有人这样的信息。即,在距机器人1规定距离的范围内有人是通过确定部54而被确定的情况下,基于该确定结果,控制部51限制机器人1的驱动。这样,控制部51基于距机器人1的距离来规定存在与机器人1发生碰撞可能的范围。
在此基础上,控制部51具有基于确定部54的人的确定结果来变更该距离的功能。由此,能够根据人的确定结果而使机器人1的附近进行作业等的人可与机器人1接近的距离不同。作为结果,根据因人而不同的作业的熟练度、资格的有无等,允许在机器人1的更附近处进行作业,因此能够提高作业的效率。作为结果,通过在确定规定距离的范围内有人时限制机器人1的驱动的控制,能够维持安全性,并且提高机器人1的作业的生产率。
登记部55登记人的个人信息。个人信息例如列举识别个人的识别信息、表示个人的属性的属性信息等。其中,作为识别信息,例如列举名字、识别编号、面部图像、身高、声音、动作方式、惯用手等。另外,作为属性信息,例如列举作业的熟练度、资格、作业历史、作业动作轨迹等。
用于实现这样的各部分的功能的控制装置5的硬件结构没有特别限定,但是例如,如图3所示,构成为包括:可通信地连接于机器人1的控制器61以及可通信地连接于控制器61的计算机62。
其中,作为图3所示的处理器,例如列举CPU(Central Processing Unit,中央处理器)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、ASIC(ApplicationSpecific Integrated Circuit,专用集成电路)等。
另外,作为图3所示的存储器,例如列举RAM(Random Access Memory)等的易失性存储器、ROM(Read Only Memory)等的非易失性存储器等。此外,存储器不限于非装卸式,也可以是具有装卸式的外部存储装置的结构。
并且,作为图3所示的外部接口,列举各种的通信用连接器。作为一例,列举USB(Universal Serial Bus,通用串行总线)连接器、RS-232C连接器、有线LAN(Local AreaNetwork,局域网)、无线LAN等。
此外,控制部51、确定部54以及登记部55中的至少两个也可以在硬件结构中集合于一个元件。
另外,在控制装置5中,在所述的结构基础上,还可以附加其他结构。另外,保存于存储部52的各种程序、数据等既可以预先存储于存储部52,例如可以保存于例如CD-ROM等的记录介质,从该记录介质提供,也可以通过网络等提供。
1.1.3力传感器
图1所示的力传感器120设置于机器人1的基台110的内部。由此,能够检测作用于把持手17、机器人机械臂10的力。
作为这样的力传感器120,优选使用六轴力觉传感器、三轴力觉传感器那样的力觉传感器。在力觉传感器中,能够高精度地检测力。另外,由于能够检测力的大小以及朝向,因此例如能够把握力在哪个方向上对把持手17、机器人机械臂10进行作用。力传感器120将检测到的力转换为电信号,并将该电信号向控制装置5输出。
另外,具备控制装置5的控制部51基于来自力传感器120的输出来使机器人1的动作减速或者停止。由此,即使在把持手17、机器人机械臂10与例如障碍物等发生碰撞的情况下,也能够将冲击限制为最小限度。
1.1.4拍摄部
图1以及图2所示的拍摄部3以处于设置位置70上,能够拍摄机器人1的周围的方式设置。
没有图示拍摄部3,但是例如具有:拍摄元件,由具有多个像素的CCD(ChargeCoupled Device,电荷耦合器件)图像传感器构成;以及光学系,包括透镜。该拍摄部3通过透镜而使来自拍摄对象等的光在拍摄元件的受光面成像,将光转换为电信号,将该电信号向控制装置5输出。此外,拍摄部3只要是具有拍摄功能的结构,就不限定于所述的结构,也可以是其他结构。
此外,拍摄部3的位置不限定于图示的位置。例如,拍摄部3也可以设置于设置有机器人1的房间的天花板或者壁。此外,根据拍摄部3的位置,存在不易于对人的面部进行撮影的情况,但是在该情况下,也可以使人戴头盔,并将识别标记例如二维条形码等贴于该头盔的上表面。
另外,拍摄部3可以根据需要而设置,也可以用能够检测人的其他设备代替。作为能够检测人的设备,例如,在使人持有发送光、红外线、电波、超声波等的装备的情况下,列举能够求出发送这些电波等的方向与至装备为止的距离的设备。
1.1.5显示装置以及输入装置
图4所示的显示装置401具备显示器,具有显示各种画面等的功能。因此,作业者能够通过显示装置401来确认机器人1的驱动状态等。
输入装置402具备有例如键盘等。因此,作业者能够通过操作输入装置402来对控制装置5进行各种处理等的指示。此外,虽然没有图示,但是输入装置402也可以具备例如示教器等。
另外,作为显示装置401以及输入装置402的代替,也可以使用兼具显示装置401以及输入装置402的功能的显示输入装置。作为显示输入装置,例如能够使用触摸面板显示器等。另外,机器人系统100可以分别具有一个显示装置401以及输入装置402,也可以具有多个。
1.2机器人的控制方法
接着,对第一实施方式涉及的机器人的控制方法进行说明。
图5是表示控制装置5的机器人1的控制方法的流程图。图6以及图7分别是用于说明图5所示的机器人1的控制方法的图。
首先,作为图5所示的步骤S01,通过拍摄部3拍摄设定于图6以及图7所示的机器人1的周围的拍摄范围30。拍摄范围30由例如拍摄部3的光学系决定。取得的图像被输出至确定部54。
接着,作为图5所示的步骤S02,通过确定部54检测图6以及图7所示的拍摄范围30内是否有人9。此外,在该阶段中,假设即使在拍摄范围30内检测到人9的情况下,也不需要将检测到的人9与登记于登记部55的数据库的个人信息进行对照,至少仅检测不确定的人9即可。因此,例如,在通过拍摄部3取得的图像中勾勒被摄体的轮廓,如果勾勒的形状为人型,则能够检测到人9。并且,在检测到拍摄范围30内有人9的情况下,移至下一个步骤S03。另一方面,在未能检测到处于拍摄范围30内的人9的情况下,返回步骤S01。
接着,作为图5所示的步骤S03,基于取得的图像来判断是否能够通过确定部54进行面部认证。面部认证是指将取得的图像中的面部的特征与登记于登记部55的数据库的面部图像进行对照。因此,在本工序中,基于例如图像的画质、所拍摄的人的大小、面部的角度等来判断是否能够进行面部认证。并且,如果能够进行面部认证,则移至下一个步骤S04。另一方面,如果不能够进行面部认证,则不开始机器人1的动作,而使流程结束。在不能够进行面部认证的例子中,也包括只没有拍到手、脚等,面部以外的一部分的情况。通过这种面部认证,确保仅登记于数据库的人接近机器人1而进行协作作业。作为结果,能够实现安全性特别高的机器人系统100。
接着,作为图5所示的步骤S04,基于取得的图像,通过确定部54进行面部认证。此外,在面部认证中,优选为与登记于登记部55的数据库的面部图像对照来确定一人的个人,但是也可以限制为多个候补。
接着,作为图5所示的步骤S05,从所述的面部认证的结果以及其他元素来确定登记于数据库的个人。所述的面部认证的结果是如果能够将取得的图像中拍摄的人集中为一人,则该人成为在本工序中应当确定的人。此外,列举多个候补的情况下,所述的面部认证的结果也可以基于其他元素,例如在图像中人穿在身上的特定的图案、人所进行的特定的手势、人的身高等的次要的元素来最终地确定一人。
此外,在成为面部认证的对象的人没有登记于数据库的情况下,只要处理为未登记者即可。
另外,面部认证不是必须的,也可以只通过其他元素的来确定个人。
接着,作为图5所示的步骤S06,首先,控制部51基于确定部54的人的确定结果来决定机器人1的动作模式。动作模式是指确定的人所许可的动作内容。即,机器人1的动作内容根据从后述的机器人1至人9的距离而被限制,但是在本工序中决定的动作模式与施加基于该距离的限制前的动作内容相当。因此,该动作模式是基于被确定的人的个人信息而决定的,只要预先保存于登记部55的数据库即可。
作为动作模式的具体例,列举当确定的人侵入后述的规定区域1000时,被允许的机器人1的驱动速度,接触机器人1时能够继续驱动的力的阈值等的参数。并且,在确定的人是例如使用机器人1的作业的责任者的立场的情况下,能够增大被允许的机器人1的驱动速度,或者增大能够继续驱动的力的阈值。另一方面,在是未登记者的情况下,将这些驱动速度、阈值设定为最小即可。
接着,作为图5所示的步骤S07,如图6以及图7所示,通过控制部51算出从机器人1至人9的距离L9。距离L9例如从图像上的机器人1与脚的分离距离求出并在图像上提取地面与人9的脚的位置关系。
接着,作为图5所示的步骤S08,通过控制部51来判断是否需要基于人9的确定结果来将从标准距离L0变更限制机器人1的驱动的距离L1。具体而言,如图6以及图7所示,将当人9侵入时限制机器人1的驱动的区域设为区域1000,将从机器人1至区域1000的外缘的距离设为距离L1。如前所述,当人侵入区域1000时,本实施方式涉及的控制部51使机器人1的动作减速或者停止。因此,当人9接近机器人1时,距离L1左右限制机器人1的驱动的定时。
并且,在本实施方式中,基于人9的确定结果,通过控制部51来判断是否需要从标准距离L0变更距离L1,在需要变更时移至下一个步骤S09。步骤S09如下面例子那样进行。
具体而言,在确定的人9是例如作业的无经验者的情况下,不变更距离L1。并且,图6是距离L1比从机器人1至人9的距离L9更大的例子。由此,在图6中,由于人9处于区域1000的内侧,因此机器人1的驱动被限制。作为结果,即使如作业的无经验者那样,对作业的熟练度低的人过于接近机器人1,而侵入区域1000,也能够防止机器人1发生碰撞,或者缓和冲击。
另一方面,在确定的人9是例如所述的责任者那样的立场的人的情况下,只要使距离L1从标准距离L0减小即可。图7是对距离L1变得比图6所示的距离L1小的状况进行图示的图。在图7中,这样的距离L1的变更的结果是变更后的距离L1变得比从机器人1至人9的距离L9小。由此,由于区域1000变得更狭窄,如图7所示,人9处于区域1000之外,即使在接近机器人1的状态下,机器人1的驱动也不被限制。由此,如果是责任者那样立场的人9,则即使在接近机器人1的状态下,也能够使机器人1高效地进行作业。
此外,距离L1例如可以登记于登记部55的数据库。以下的表1是表示登记于登记部55的数据库的距离L1、其他数据的一例的表。
【表1】
此外,表1的驱动速度是相对于最高速度的比率。
在表1中,姓名A的人是熟练的作业者,相当于充分接受教育等的人。另外,姓名B的人是作业的熟练度比姓名A的人差的人,相当于接受了教育等但是经验还较少的人。并且,姓名C的人是作业的熟练度比姓名B的人差的人,相当于没有接受教育等的所谓的无经验者。
姓名A~C中,姓名A的人的距离L1最小,并且即使侵入区域1000,驱动速度的减少幅度也最小。姓名C的人的距离L1最大,并且侵入区域1000时的驱动速度的减少幅度也最大。姓名B的人的距离L1是姓名A的人与姓名C的人的中间,并且侵入区域1000时的驱动速度的减少幅度也是同样的。
此外,在步骤S08中,如果不需要变更当初设定的距离L1,也可以不变更。在该情况下,省略步骤S09,移至步骤S10即可。另外,初次的步骤S08中的距离L1只要设为标准距离L0即可。该标准距离L0应当是对所述的未登记者设定的距离,无论人9的确定结果,都设为实质地能够设定的最大距离。
步骤S09之后移至步骤S10。在步骤S10中,判断变更后的距离L1的区域1000内是否有人9。即判断变更后的距离L1是否在从机器人1至人9的距离L9以上。并且,在图6的状态即区域1000内有人9的情况下,移至步骤S11。另一方面,在图7的状态即区域1000内没有人9的情况下,移至步骤S12。
接着,作为图5所示的步骤S11,决定对已决定的动作模式进一步施加限制的动作内容。即,在本步骤S11中,由于是比变更后的距离L1更接近机器人1的位置处有人9的状态,相对于此,需要进一步限制机器人1的驱动。
另一方面,在图5所示的步骤S12中,将已决定的动作模式直接决定为机器人1的动作内容。即,在本步骤S12中,由于是比变更后的距离L1距机器人1更远的位置处有人9的状态,因此不需要对机器人1的驱动追加限制。
接着,作为图5所示的步骤S13,通过控制部51而使机器人1以决定的动作内容进行动作。
接着,作为图5所示的步骤S14,判断是否结束机器人1的动作。并且,当结束机器人1的动作时,结束流程。另一方面,当继续机器人1的动作时,使流程返回步骤S01。
如上所述,第一实施方式涉及的机器人系统100具备:机器人1,与人协作而进行动作;确定部54,确定处于距机器人1规定距离L1的区域1000内的人9;以及控制部51,在通过确定部54确定区域1000内有人9时,使机器人1的动作减速或者停止。并且,控制部51以基于确定部54的人9的确定结果来变更距离L1的方式构成。
在这种机器人系统100中,当人9接近机器人1时,以不是统一限制机器人1的驱动,而是基于人9的确定结果来变更限制驱动的距离L1的方式构成。因此,例如通过在作业的熟练度高的人接近的情况下减小距离L1,即使在熟练度高的人接近机器人1的状态下,机器人1的驱动也不被限制。由此,能够使机器人1高效地进行作业。即,根据本实施方式,能够实现如下的机器人系统100:当确定距机器人1规定距离的区域1000内有人9时,进行使机器人1的动作减速或者停止的控制,并且不易使作业的生产率降低。
2.第二实施方式
接着,对第二实施方式涉及的机器人系统进行说明。
图8是第二实施方式涉及的机器人系统的概略图。
以下,对第二实施方式进行说明,但是在以下的说明中,以与第一实施方式的不同点为中心进行说明,对同样的事项省略其说明。此外,在图8中,对与第一实施方式同样的结构标注相同的附图标记。
第二实施方式除了与控制部51的控制不同以外,其余与第一实施方式相同。
在所述的第一实施方式中,将区域1000设定于机器人1的周围,当人9侵入该区域1000时,限制机器人1的驱动。与此相对,在本实施方式中,将限制机器人1的驱动的区域1000分为两阶段。即,将其他区域2000设定于区域1000的内侧。并且,以当人9侵入区域2000时更严格地限制机器人1的驱动的方式构成。
图8是将更严格地限制机器人1的驱动的区域2000设定于图6所示的区域1000的内侧的例子。若将从机器人1至区域2000的外缘的距离设为距离L2,则距离L2比距离L1小。并且,与人9侵入区域1000时相比,当人9侵入区域2000时以被允许的机器人1的驱动速度、与机器人1接触时能够继续驱动的力的阈值等的参数变得更严格的方式设定。
此外,距离L1、L2只要预先登记于例如登记部55的数据库即可。下面的表2是表示登记于登记部55的数据库的距离L1、L2、其他数据的一例的表。
【表2】
此外,表2的记载如同所述的表1的记载。
姓名A~C中,姓名A的人的距离L2最小,并且即使侵入区域2000,驱动速度的减少幅度也最小。姓名C的人的距离L2最大,并且,当侵入区域2000时使机器人1停止。姓名B的人的距离L2在姓名A的人与姓名C的人的中间,并且,侵入区域2000时的驱动速度的减少幅度也是同样的。
通过设定这样的区域2000,例如,人9易于与机器人1的机器人机械臂10直接接触,进行示教机器人1的动作的作业,即所谓的直接示教。在直接示教中,要求人9进行持着机器人机械臂10向目标方向引导的作业。因此,需要人9处于机器人1的附近,并且,允许将力施加于机器人1。即,所述的距离L2成为能够与机器人1接触而进行作业的脚下的最短距离,即基台110与人9的脚的最短距离。此外,距离L1、L2的定义不限定于上述。
从该观点出发,本实施方式涉及的控制部51设定区域2000,即使人9侵入该区域2000,也以低速并且继续机器人1的驱动的方式控制机器人1。另外,即使在力传感器120检测到作用于机器人1的力的情况下,控制部51也以允许至规定大小的载荷为止的方式控制机器人1。通过进行这种控制,能够高效率地进行直接示教,因此能够实现作业的生产率更高的机器人系统100。
换言之,本实施方式涉及的机器人系统100具备检测作用于机器人1的力的力传感器120,控制部51在通过力传感器120检测到的力为规定值以上,即表2所示的允许载荷以上时,以使机器人1的动作减速或者停止的方式限制驱动。
由此,例如即使在进行直接示教等的作业的情况下,也能够确保安全性。
另外,控制部51也可以具有基于确定部54的人9的确定结果来变更所述的规定值,即表2所示的允许载荷那样的限制机器人1的驱动的力的阈值的功能。通过具有这种功能,例如如表2所示的姓名A的人那样,当作业的熟练度高的人进行作业时,能够缓和机器人1的驱动被限制的条件。由此,能够确保机器人1的安全性,并且进一步提高作业的效率。
在以上那样的第二实施方式中,也能得到与第一实施方式同样的效果。
3.第三实施方式
接着,对第三实施方式涉及的机器人系统进行说明。
图9至图13分别是第三实施方式涉及的机器人系统的概略图。
以下,对第三实施方式进行说明,但是在以下的说明中,以与第一实施方式的不同点为中心进行说明,对同样的事项省略其说明。此外,在图9至图13中,对与第一实施方式同样的结构标注相同的附图标记。
第三实施方式除了控制部51的控制不同以外,其余与第一实施方式相同。
图9是在拍摄范围30的内侧有人9A以及人9B两人的例子。另一方面,图10是在拍摄范围30的内侧有人9A、人9B以及人9C三人的例子。此外,图9以及图10所示的人9A、9B、9C均通过确定部54而被确定。另外,为了便于说明,人9A、9B、9C具有与表2的姓名A、B、C对应的属性,即个人信息被登记于登记部55的数据库。即人9A是表2的姓名A的人,人9B是表2的姓名B的人,人9C是表2的姓名C的人。
在这样多个人处于机器人1的周围的情况下,机器人1与人更易于接触。因此,在通过控制部51限制机器人1的驱动的情况下,控制部51也可以以基于通过确定部54确定的人数来变更所述的距离L1的方式构成。
具体而言,若比较如图9所示的在拍摄范围30内有两人的情况与如图10所示的拍摄范围30内有三人的情况,则可以认为图10所示的状况的一方引起机器人1与人的接触的概率变高。因此,与图9相比,在图10中以距离L1变长的方式设定。由此,即使在机器人1的周围有多个人的情况下,也能够确保安全性。
另外,图11是表示在图9所示的区域1000的内侧追加有人9C的状态的图。
在这样的状况下,机器人系统100也可以是具备登记人的个人信息的登记部55,当将登记于登记部55的人作为登记对象者时,控制部51以基于通过确定部54确定的处于区域1000内的登记对象者的人数来变更距离L1的方式构成。
具体而言,在图9中,相对于区域1000内没有人,在图11中,在与人9A同样的位置处追加有人9C。在这样的状况下,可以认为虽然是图9所示的区域1000的外侧,但由于登记对象者的人数增加,就概率而言,易于引起机器人1与人的接触。因此,与图9相比,在图11中以距离L1变长的方式设定。由此,即使在机器人1的周围有多个人的情况下,也能够更确保安全性。
此外,下面的表3是假定确定拍摄范围30内有多个人时的登记于登记部55的数据库的数据的一例。这里,表示距离L1、L2、其他数据的一例。
【表3】
此外,表3的记载如同所述的表1的记载。如表3所示,优选为在登记多个人的情况下预先考虑多个人被同时确定的情况。另外,此时可以根据第一人与第二人而使驱动的限制的内容不同。
另外,下面的表4是假定确定拍摄范围30内有多个人,并且该确定的人中包括作为作业的责任者的人与不是责任者的人的情况时的登记于登记部55的数据库的数据的一例。这里,表示距离L1、L2、其他数据的一例。
【表4】
此外,表4的记载如同所述的表1的记载。如表4所示,可以根据责任者的有无而使驱动的限制的内容不同。
另外,图12以及图13是分别表示拍摄范围30的内侧有作业的熟练度相互不同的人的例子。
在图12中,拍摄范围30的内侧有人9A。另一方面,在图13中,拍摄范围30的内侧有人9C。在图12以及图13所示的机器人系统100中分别具备有登记有作业的熟练度为第一熟练度的人9A(第一人)的个人信息与作业的熟练度为比第一熟练度低的第二熟练度的人9C(第二人)的个人信息的登记部55。
此时,当控制部51基于登记于登记部55的信息来通过确定部54确定有人9A时,将从机器人1至区域1000的外缘的距离设为第一距离LL1。另一方面,当控制部51基于登记于登记部55的信息通过确定部54确定有人9C时,将从机器人1至区域1000的外缘的距离设为比第一距离LL1长的第二距离LL2。
通过进行这样的控制,即使在作业的熟练度相对高的人9A接近机器人1的状态下,机器人1的驱动也不易于被限制。由此,即使在人9A接近的状态下,也能够使机器人1高效地进行作业。
此外,如图11所示,当确定有作业的熟练度为第一熟练度的人9A(第一人)以及作业的熟练度为第二熟练度的人9C(第二人)的双方时,优选为控制部51将从机器人1至区域1000的外缘的距离设为第二距离LL2。即,优选为当熟练度相互不同的人9A、9C同时处于拍摄范围30的内侧时,与熟练度低的人9C相配合来设定从机器人1至区域1000的外缘的距离。
由此,能够实现对人9A、9C的双方安全性高的机器人系统100。
4.第四实施方式
接着,对第四实施方式涉及的机器人系统进行说明。
图14是第四实施方式涉及的机器人系统的功能框图。
以下,对第四实施方式进行说明,但是在以下的说明中,以与第一实施方式的不同点为中心进行说明,对同样的事项省略其说明。此外,在图14中对与第一实施方式同样的结构标注相同的附图标记。
第四实施方式除了控制装置5的结构不同以外,与第一实施方式同样。
图14所示的控制装置5具有与确定部54连接的视线检测部56。该视线检测部56具有在通过拍摄部3拍摄的图像中检测人的视线的方向的功能。并且,检测的视线的信息通过确定部54而输出至控制部51。
控制部51基于通过视线检测部56检测的人的视线的朝向来变更机器人1至区域1000的外缘的距离L1。进行这样控制的理由为人的视线的朝向与该人的注意所朝向的方向一致。即在视线朝向机器人1的情况下,该人的注意朝向机器人1,在视线不朝向机器人1的情况下,该人的注意也不朝向机器人1。并且,在视线朝向机器人1的情况下,即使缩小机器人1至区域1000的外缘的距离L1,也易于避免机器人1与人的接触。由此,允许视线朝向机器人1的人在机器人1的更附近进行作业,因此能够提高作业的效率。作为结果,能够确保机器人1的安全性,并且提高生产率。
此外,在视线检测中能够使用已知的视线检测技术。具体而言,在通过拍摄部3拍摄的图像中,能够找到作为人的眼睛的不动的部分的基准点以及作为动的部分的动点,能够基于相对于基准点的动点的位置来检测视线。在基准点中,例如能够使用眼角、角膜等。另外,在动点中能够使用虹膜、瞳孔等。
以上,基于图示的实施方式对本发明的机器人系统进行了说明,但本发明并不限定于此,各部分的结构能够替换为具有相同功能的任意结构。另外,在机器人系统的所述实施方式中,也可以分别附加其他任意的结构物。

Claims (5)

1.一种机器人系统,其特征在于,具备:
机器人,与人协作而进行动作;
图像获取部,获取所述机器人的周围的图像,
确定部,基于通过图像获取部获取到图像确定处于距所述机器人规定距离的区域内的人;
登记部,登记人的面部图像和作业的熟练度;以及
执行如下处理的控制部,
通过比较所述面部图像和通过所述图像获取部获取到图像来执行面部认证,基于所述面部认证的结果识别所述人,
基于识别到的所述人的作业的熟练度来确定用于限制所述机器人的驱动的规定距离是否被变更为另一距离,
当不变更为所述另一距离且所述人与所述机器人的距离在所述规定距离之内时,使所述机器人的动作减速或者停止,
当确定为变更为所述另一距离且所述人与所述机器人的距离在所述另一距离之内时,使所述机器人的动作减速或者停止。
2.根据权利要求1所述的机器人系统,其特征在于,
所述控制部基于通过所述确定部确定的人数来变更所述距离。
3.根据权利要求1所述的机器人系统,其特征在于,
当将登记于所述登记部的人作为登记对象者时,所述控制部基于通过所述确定部确定的处于所述区域内的所述登记对象者的人数来变更所述距离。
4.根据权利要求1至3中任一项所述的机器人系统,其特征在于,
所述机器人系统具备检测作用于所述机器人的力的力传感器,
当通过所述力传感器检测到的力在规定值以上时,所述控制部使所述机器人的动作减速或者停止。
5.根据权利要求1至3中任一项所述的机器人系统,其特征在于,
所述机器人系统具备检测人的视线的视线检测部,
所述控制部基于通过所述视线检测部检测到的人的视线的朝向来变更所述距离。
CN202010431044.5A 2019-05-22 2020-05-20 机器人系统 Active CN111975745B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-095791 2019-05-22
JP2019095791A JP2020189367A (ja) 2019-05-22 2019-05-22 ロボットシステム

Publications (2)

Publication Number Publication Date
CN111975745A CN111975745A (zh) 2020-11-24
CN111975745B true CN111975745B (zh) 2023-08-15

Family

ID=73442047

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010431044.5A Active CN111975745B (zh) 2019-05-22 2020-05-20 机器人系统

Country Status (3)

Country Link
US (1) US11565418B2 (zh)
JP (1) JP2020189367A (zh)
CN (1) CN111975745B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7294880B2 (ja) * 2019-05-20 2023-06-20 ファナック株式会社 ロボット制御装置、ロボットシステム、及びロボット制御方法
WO2021041213A1 (en) * 2019-08-23 2021-03-04 Veo Robotics, Inc. Safe operation of machinery using potential occupancy envelopes
KR20210039635A (ko) * 2019-10-02 2021-04-12 엘지전자 주식회사 로봇 시스템 및 그 제어 방법
JP2022136604A (ja) * 2021-03-08 2022-09-21 キヤノン株式会社 ロボットシステム、端末、ヘッドマウントディスプレイ、ヘルメット、腕時計端末、ティーチングペンダント、ロボットシステムの制御方法、端末の制御方法、ロボットシステムを用いた物品の製造方法、制御プログラムおよび記録媒体
JP2022175508A (ja) * 2021-05-13 2022-11-25 オムロン株式会社 領域設定装置、ラック、制御システム、領域設定方法及びプログラム
JP7553825B2 (ja) * 2021-09-10 2024-09-19 株式会社デンソーウェーブ ロボット制御システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017080845A (ja) * 2015-10-28 2017-05-18 株式会社デンソーウェーブ ロボット制御システム
JP2017100207A (ja) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット安全システム
CN108426160A (zh) * 2017-02-15 2018-08-21 欧姆龙株式会社 监控系统、监控装置及监控方法
CN109219856A (zh) * 2016-03-24 2019-01-15 宝利根 T·R 有限公司 用于人类及机器人协作的系统及方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1586423B1 (en) * 2002-12-10 2011-10-05 Honda Motor Co., Ltd. Robot control device, robot control method, and robot control program
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JP2005103690A (ja) * 2003-09-30 2005-04-21 Yaskawa Electric Corp 産業用制御コントローラ
DE102005003827B4 (de) * 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
JP4137932B2 (ja) * 2005-10-28 2008-08-20 ファナック株式会社 ロボット制御装置
JP4751192B2 (ja) * 2005-12-12 2011-08-17 本田技研工業株式会社 移動ロボット
JP4675811B2 (ja) * 2006-03-29 2011-04-27 株式会社東芝 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム
JP4760612B2 (ja) * 2006-08-28 2011-08-31 富士ゼロックス株式会社 画像形成装置、画像形成システム及びプログラム
JP5523900B2 (ja) 2009-03-31 2014-06-18 綜合警備保障株式会社 人物検索装置、人物検索方法、及び人物検索プログラム
US8660322B2 (en) * 2011-08-25 2014-02-25 King Saud University Passive continuous authentication method
CN104428107B (zh) * 2012-07-10 2016-06-29 西门子公司 机器人布置和用于控制机器人的方法
JP5549724B2 (ja) * 2012-11-12 2014-07-16 株式会社安川電機 ロボットシステム
JP6397226B2 (ja) * 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム
JP6726442B2 (ja) * 2014-06-30 2020-07-22 日本信号株式会社 ロボット装置
JP5937706B1 (ja) * 2015-01-21 2016-06-22 ファナック株式会社 ロボットに加わる外力に基づいてロボットを制御するロボット制御装置、およびロボットシステム
JP6162736B2 (ja) * 2015-03-19 2017-07-12 ファナック株式会社 機械と可搬式無線操作盤との間の距離に応じて通信品質基準を変化させる機能を備えたロボット制御システム
JP6659231B2 (ja) * 2015-04-08 2020-03-04 富士電機株式会社 生産ライン監視システム
JP6824622B2 (ja) * 2015-05-01 2021-02-03 キヤノン株式会社 ロボットの制御装置、制御方法およびシステム
JP2017061026A (ja) * 2015-09-25 2017-03-30 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボットシステム及びコンピュータプログラム
JP6852447B2 (ja) * 2016-05-16 2021-03-31 セイコーエプソン株式会社 ロボットシステム
CN107378941B (zh) * 2016-05-16 2022-02-18 精工爱普生株式会社 机器人、控制装置以及机器人系统
DE102016007519A1 (de) * 2016-06-20 2017-12-21 Kuka Roboter Gmbh Überwachung einer Anlage mit wenigstens einem Roboter
JP6821987B2 (ja) * 2016-07-21 2021-01-27 富士電機株式会社 ロボットシステム、ロボットシステムの制御方法、プログラム
US10414048B2 (en) * 2016-09-14 2019-09-17 Faro Technologies, Inc. Noncontact safety sensor and method of operation
JP6585574B2 (ja) * 2016-09-30 2019-10-02 ファナック株式会社 作業者とロボットとの協働作業を行う生産システム
JP6822069B2 (ja) * 2016-11-01 2021-01-27 オムロン株式会社 監視システム、監視装置、および監視方法
CN110494900A (zh) * 2017-02-07 2019-11-22 韦奥机器人股份有限公司 工作空间安全监控和设备控制
JP7052203B2 (ja) * 2017-03-22 2022-04-12 日本電気株式会社 安全制御装置、安全制御方法およびプログラム
CN107463883A (zh) * 2017-07-18 2017-12-12 广东欧珀移动通信有限公司 生物识别方法及相关产品
CN107150342B (zh) * 2017-07-18 2020-04-28 广东工业大学 一种工业机器人及其工业机器人避障系统
JP6633584B2 (ja) * 2017-10-02 2020-01-22 ファナック株式会社 ロボットシステム
WO2019097676A1 (ja) * 2017-11-17 2019-05-23 三菱電機株式会社 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム
JP6680752B2 (ja) * 2017-11-28 2020-04-15 ファナック株式会社 ロボットの速度を制限する制御装置
JP6748145B2 (ja) * 2018-05-15 2020-08-26 ファナック株式会社 ロボットシステム
WO2020011337A1 (de) * 2018-07-10 2020-01-16 HELLA GmbH & Co. KGaA Arbeitsvorrichtung mit unter-tisch-roboter
JP7167518B2 (ja) * 2018-07-20 2022-11-09 セイコーエプソン株式会社 制御装置、ヘッドマウントディスプレイおよびロボットシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017080845A (ja) * 2015-10-28 2017-05-18 株式会社デンソーウェーブ ロボット制御システム
JP2017100207A (ja) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット安全システム
CN109219856A (zh) * 2016-03-24 2019-01-15 宝利根 T·R 有限公司 用于人类及机器人协作的系统及方法
CN108426160A (zh) * 2017-02-15 2018-08-21 欧姆龙株式会社 监控系统、监控装置及监控方法

Also Published As

Publication number Publication date
US20200368909A1 (en) 2020-11-26
CN111975745A (zh) 2020-11-24
JP2020189367A (ja) 2020-11-26
US11565418B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
CN111975745B (zh) 机器人系统
CN107378941B (zh) 机器人、控制装置以及机器人系统
US20140135984A1 (en) Robot system
JP6360105B2 (ja) ロボットシステム
EP3383593B1 (en) Teaching an industrial robot to pick parts
CN108349078B (zh) 操纵器系统的保护区调整
US10987810B2 (en) Robot system
US20200056742A1 (en) Sensor arrangement and method of securing a monitored zone
US10759056B2 (en) Control unit for articulated robot
CN103302664A (zh) 机器人设备、用于控制机器人设备的方法以及计算机程序
CN110856932A (zh) 干涉回避装置以及机器人系统
JP2018126800A (ja) 可搬型ロボット
CN117841041B (zh) 基于多臂协同的机械臂组合装置
EP3835002B1 (en) Remote control system and remote control method
WO2022244747A1 (ja) 作業現場管理システム、作業現場管理方法、及び作業現場管理プログラム
US11511430B2 (en) Robot controller and management system
KR102267514B1 (ko) 작업대상물의 피킹 및 플레이스 방법
EP4260992A1 (en) System and method for verifying positional and spatial information using depth sensors
CN114536402B (zh) 基于关联标识的机器人系统故障检测处理方法及机器人系统
US11130241B2 (en) Robot
Kim et al. Human body part multicontact recognition and detection methodology
US11254005B2 (en) Robot control device
JP2022096933A (ja) ロボットシステムの報知方法およびロボットシステム
CN114536401B (zh) 基于多个位姿标识的机器人系统故障检测处理方法及机器人系统
US20200134330A1 (en) Object detection system and method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant