CN109571461A - 机器人系统 - Google Patents

机器人系统 Download PDF

Info

Publication number
CN109571461A
CN109571461A CN201811118513.7A CN201811118513A CN109571461A CN 109571461 A CN109571461 A CN 109571461A CN 201811118513 A CN201811118513 A CN 201811118513A CN 109571461 A CN109571461 A CN 109571461A
Authority
CN
China
Prior art keywords
conveying device
automatic conveying
sensor
arm
robots arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811118513.7A
Other languages
English (en)
Other versions
CN109571461B (zh
Inventor
日野真希子
沟口安志
若林修
若林修一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of CN109571461A publication Critical patent/CN109571461A/zh
Application granted granted Critical
Publication of CN109571461B publication Critical patent/CN109571461B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • B25J9/0087Dual arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Abstract

本申请公开了一种机器人系统,其具备自动搬运装置、搭载于所述自动搬运装置的机器人臂、配置在所述机器人臂的物体识别传感器、环境识别传感器、配置在所述自动搬运装置且能够载置多个成套部件的载置部和控制器,所述控制器基于所述物体识别传感器的识别结果,进行所述机器人臂的控制以使其从部件收纳部将所述部件取出而在所述载置部制作多个成套部件,之后,基于所述环境识别传感器的识别结果,进行所述自动搬运装置的控制以使其向作业台移动,并基于所述物体识别传感器的识别结果,进行所述机器人臂的控制以将多个成套部件从所述载置部装载到所述作业台。

Description

机器人系统
技术领域
本发明涉及机器人系统。
背景技术
已知使用具有机器人臂的机器人来制作由多个部件构成的成套部件的机器人系统(例如,参照专利文献1)。例如,在专利文献1所记载的机器人系统中,机器人将为了生产产品所需的多个部件从收纳有多个部件的部件收纳部逐个取出,并在与部件收纳部分开的支承台上形成成套部件。
专利文献1:日本特开2010-188459号公报
但是,专利文献1所记载的机器人系统为了在与部件收纳部分开的支承台上制作成套部件,而根据应制作的成套部件的数量和构成成套部件的部件数量,使机器人在部件收纳部和支承台之间往返的次数变多,存在作业效率差的课题。
发明内容
本发明的目的在于提供一种能够高效地制作成套部件的机器人系统。
本发明是为了解决上述课题的至少一部分而完成的,能够实现为以下的应用例或形态。
本应用例的机器人系统,其特征在于,具备:
能够自动移动的自动搬运装置;
机器人臂,搭载于所述自动搬运装置且对对象物进行作业;
物体识别传感器,配置在所述机器人臂且识别所述对象物;
环境识别传感器,识别所述自动搬运装置所移动的方向上的环境;
载置部,配置在所述自动搬运装置且能够载置多个成套部件;以及
控制器,
所述控制器基于所述物体识别传感器的识别结果,进行所述机器人臂的控制以使其从收纳有部件的部件收纳部将多个所述部件取出而在所述载置部上制作多个所述成套部件,之后,所述控制器基于所述环境识别传感器的识别结果,进行所述自动搬运装置的控制以使其向作业台移动,所述控制器基于所述物体识别传感器的识别结果,进行所述机器人臂的控制以将所述多个所述成套部件从所述载置部上转移装载到所述作业台。
根据这样的机器人系统,由于在从部件收纳部分别取出多个部件而在载置部上制作多个成套部件之后,向作业台移动,将多个成套部件从载置部上转移装载到作业台,所以与从部件收纳部分别取出多个部件而直接在作业台上制作多个成套部件的情况相比,能够减少自动搬运装置在部件收纳部与作业台之间往返移动的次数。因此,能够高效地制作成套部件。
优选地,在本应用例的机器人系统中,所述物体识别传感器具有:
投影部,对所述对象物投影条纹状的图案光;
拍摄部,拍摄所述图案光;以及
计算部,基于所述拍摄部的拍摄结果来计算所述对象物的形状,
所述投影部具有:
光源部,射出线状的激光;以及
光学扫描仪,将来自所述光源部的激光向所述对象物反射而进行扫描。
由此,能够实现小型的物体识别传感器。
优选地,在本应用例的机器人系统中,所述投影部具有输出对所述光学扫描仪进行非共振驱动的驱动信号的扫描仪驱动部。
由此,即使产生温度变化,也能够以稳定的振幅和频率进行光学扫描仪的驱动。因此,不需要用于减少由温度变化引起的特性变化的电路,能够实现物体识别传感器的小型化。
优选地,在本应用例的机器人系统中,所述驱动信号的波形为正弦波形。
由此,驱动信号的生成变得容易。此外,能够减少在驱动信号的频率分量中包含除了光学扫描仪的驱动频率以外的频率的情况,稳定地进行光学扫描仪的非共振驱动。
优选地,在本应用例的机器人系统中,所述自动搬运装置能够以无轨道的方式移动。
由此,不需要或简化用于引导自动搬运装置的行驶的导轨等设备,因此能够使设备费低廉。
优选地,在本应用例的机器人系统中,所述控制器基于所述环境识别传感器的识别结果来生成所述自动搬运装置的移动路线信息,并基于所述移动路线信息来对所述自动搬运装置进行行驶控制。
由此,即使在自动搬运装置的移动中不进行环境识别传感器的环境识别,也能够基于行驶路线信息使自动搬运装置行驶。
优选地,在本应用例的机器人系统中,所述控制器基于所述物体识别传感器的识别结果来进行所述自动搬运装置的移动或改变姿势。
由此,能够高精度地进行自动搬运装置的位置调整。
优选地,在本应用例的机器人系统中,所述控制器能够驱动所述机器人臂以改变位于所述部件收纳部的所述部件的姿势。
由此,在部件的姿势处于难以通过机器人臂取出的状态的情况下,能够将该部件的姿势改变为容易取出的状态。
附图说明
图1是概略地示出本发明的第一实施方式的机器人系统的立体图。
图2是示出图1所示的机器人系统的控制系统的框图。
图3是图1所示的机器人系统所具备的物体识别传感器的示意图。
图4是示出图3所示的物体识别传感器所具备的投影部生成的投影图案(图案光)的明暗状态的图。
图5是图3所示的物体识别传感器所具备的光学扫描仪的立体图。
图6是示出来自图3所示的物体识别传感器所具备的扫描仪驱动部的驱动信号的波形的图。
图7是示出从图3所示的物体识别传感器所具备的光源驱动部输出的调制信号的波形(图中下部)和可动反射镜部的偏转角(图中上部)的图。
图8是用于说明图1所示的机器人系统的动作的流程图。
图9是用于说明图8所示的成套部件制作模式的动作的流程图。
图10是用于说明图9所示的取出作业的动作的流程图。
图11是用于说明部件处于不能作业的状态的情况的图。
图12是用于说明图10所示的步骤S34的图。
图13是用于说明第一种部件的取出作业的图。
图14是用于说明第二种部件的取出作业的图。
图15是用于说明第三种部件的取出作业的图。
图16是用于说明图8所示的成套部件转移装载模式的动作的流程图。
图17是示出转移装载完成时的作业台的状态的图。
图18是示出本发明的第二实施方式的机器人系统所使用的机器人的立体图。
附图标记说明
1:机器人、1A:机器人、2:自动搬运装置、2A:自动搬运装置、3:机器人主体、3A:机器人主体、4:环境识别传感器、4a:环境识别传感器、4b:环境识别传感器、5:物体识别传感器(形状测定部)、6:控制装置、6A:控制装置、7:载置部、7A:载置部、10:机器人臂、10A:机器人臂、11:力检测传感器、11A:力检测传感器、12:手、12A:手、13:臂驱动部、14:角度传感器、21:车体、21A:前轮、22:前轮、22A:前轮、23:后轮、23A:后轮、24:操舵机构、25:驱动部、30:基座、30A:基座、31:臂、31A:臂、32:臂、32A:臂、33:臂、33A:臂、34:臂、34A:臂、35:臂、35A:臂、36:臂、36A:臂、37A:臂、51:投影部、52:拍摄部、53:电路部、54:故障检测部、55:投影面、61:处理器、62:存储器、100:机器人系统、100A:机器人系统、200:部件收纳部、201:周转箱、211:车体、212:柱部、300:作业台、301:载置部、511:光源部、512:光学扫描仪、521:拍摄元件、522:成像光学系统、531:光源驱动部、532:扫描仪驱动部、533:故障判断部、534:计算部、5111:光源、5112:透镜、5113:透镜、5121:可动反射镜部、5122:轴部、5123:支承部、5124:永磁体、5125:线圈、5126:应变传感器、5221:透镜、5222:透镜、C1:部件、C2:部件、C3:部件、CK:成套部件、LL:光(线状的激光)、LP:图案光、S1:步骤、S11:步骤、S12:步骤、S13:步骤、S14:步骤、S15:步骤、S16:步骤、S17:步骤、S18:步骤、S19:步骤、S2:步骤、S20:步骤、S21:步骤、S22:步骤、S23:步骤、S24:步骤、S25:步骤、S26:步骤、S27:步骤、S28:步骤、S29:步骤、S32:步骤、S33:步骤、S34:步骤、S35:步骤、S36:步骤、T:周期、TR:托盘、a:中心轴、a1:中心轴、a2:光轴、as:摇动轴、b1:中心轴方向、b2:宽度方向。
具体实施方式
以下,基于附图所示的优选实施方式来详细说明本发明的机器人系统。
<第一实施方式>
图1是概略地示出本发明的第一实施方式的机器人系统的立体图。图2是示出图1所示的机器人系统的控制系统的框图。图3是图1所示的机器人系统所具备的物体识别传感器的示意图。图4是示出图3所示的物体识别传感器所具备的投影部生成的投影图案(图案光)的明暗状态的图。图5是图3所示的物体识别传感器所具备的光学扫描仪的立体图。图6是示出来自图3所示的物体识别传感器所具备的扫描仪驱动部的驱动信号的波形的图。图7是示出从图3所示的物体识别传感器所具备的光源驱动部输出的调制信号的波形(图中下部)和可动反射镜部的偏转角(图中上部)的图。
图1所示的机器人系统100是机器人1进行从部件收纳部200(部件供给部)分别取出相互不同的种类的多个部件C1、C2、C3,制作由多种部件C1、C2、C3构成的成套部件CK,并将成套部件CK提供给作业台300(下一工序部)的作业的系统。
部件收纳部200是通过在垂直方向上被分隔为4层,在水平方向上被分隔为3列(左侧、中央、右侧)而具有12个收纳空间的部件架,在各收纳空间收纳有周转箱201。这里,各周转箱201呈向上方开放的托盘状或箱状。并且,在位于部件收纳部200的左侧的列的各周转箱201收纳有多个部件C1。在位于部件收纳部200的中央的列的各周转箱201收纳有多个部件C2。在位于部件收纳部200的右侧的列的各周转箱201收纳有多个部件C3。此外,各周转箱201被配置为能够从部件收纳部200抽出。由此,能够容易地从各周转箱201取出部件C1、C2、C3。
需要说明的是,部件收纳部200不限于图示的收纳空间的数量、构成和配置等,例如,部件收纳部200也可以由按部件种类独立的多个架构成,在此情况下,多个架的配置是任意的。此外,如果机器人1能够在能够作业的状态下载置部件C1、C2、C3,则可以省略周转箱201。
部件C1、C2、C3是种类相互不同的部件。作为部件C1、C2、C3,分别没有特别限定,但可列举例如各种电子部件等。成套部件CK的构成包括部件C1、C2、C3各一个。需要说明的是,成套部件CK也可以包括除了部件C1、C2、C3以外的部件,也可以包括多个同种类的部件。
作业台300是用于进行使用了成套部件CK的作业的台。图示的作业台300具有能够载置多个成套部件CK的载置部301。作为在作业台300上的作业,没有特别限定,但可列举包括成套部件CK在内的部件组的组装、喷涂、表面处理、排列、搬运等。
需要说明的是,作业台300只要能够载置多个成套部件CK或托盘TR即可,不限于图示的构成和配置等,例如,也可以是带式输送机等装置。
机器人系统100具备自动搬运装置2、搭载于自动搬运装置2的具有机器人臂10的机器人主体3、配置于自动搬运装置2的环境识别传感器4、配置于机器人臂10的物体识别传感器5(形状测定部)、控制自动搬运装置2和机器人臂10的动作的控制装置6(控制器)、和配置于自动搬运装置2上的载置部7,它们构成能够行驶的机器人1。需要说明的是,机器人系统100也可称为具有机器人1、部件收纳部200和作业台300的系统。
这里,控制装置6能够基于环境识别传感器4的识别结果来移动自动搬运装置2以使机器人臂10处于能够对部件收纳部200或作业台300进行作业的位置。此外,控制装置6能够在机器人主体3位于能够对部件收纳部200进行作业的位置时,基于物体识别传感器5的识别结果来驱动机器人主体3以在载置部7上制作多个成套部件CK。此外,控制装置6能够在机器人主体3位于能够对作业台300进行作业的位置时,基于物体识别传感器5的识别结果来驱动机器人主体3以将多个成套部件CK从载置部7上转移装载到作业台300。
这样,机器人1能够在载置部7上制作了多个成套部件CK之后将多个成套部件CK转移装载到作业台300。由此,能够减少自动搬运装置2在部件收纳部200与作业台300之间往返的次数,提高作业效率。在本实施方式中,在制作成套部件CK前的载置部7上载置有多个托盘TR,并在托盘TR上制作成套部件CK。然后,成套部件CK连同托盘TR被从载置部7上转移装载到作业台300。由此,能够实现转移装载作业的简化。
以下,对构成机器人系统100(机器人1)的各部分依次进行说明。
[自动搬运装置]
图1所示的自动搬运装置2是能够无轨道行驶(移动)的无人搬运车。这里,“能够无轨道行驶(移动)”是指能够不需要成为自动搬运装置2的行驶(移动)轨道的导轨和/或用于引导的引导线等设备,而以朝向被指示的目的位置的方式进行行驶(移动)控制。
该自动搬运装置2如图1和图2所示具备车体21、安装于车体21而位于作为通常行进方向侧的前方的一对前轮22、位于后方的一对后轮23、能够改变一对前轮22的舵角的操舵机构24、和能够驱动一对后轮23的驱动部25。
如图1所示,在车体21的上部设置有能够载置多个(图示中为3个)包括多个部件C1、C2、C3的成套部件CK的载置部7。该载置部7被构成为能够在将成套部件CK载置到托盘TR的状态下载置。这里,在一个托盘TR中载置一个成套部件CK。因此,载置部7被构成为能够载置多个(图示中为3个)托盘TR。此外,能够载置到载置部7的托盘TR的数量与能够载置到载置部7的成套部件CK的数量相等。这样的托盘TR是在成套部件CK的制作以前,使用机器人主体3载置于载置部7上,或者通过人工载置于载置部7上。
需要说明的是,能够载置到载置部7的成套部件CK和托盘TR的数量分别不限于图示的数量,是任意的。此外,能够载置到载置部7的托盘TR的数量可以与能够载置到载置部7的成套部件CK的数量不同,例如可以将多个成套部件CK载置于一个托盘TR。
另一方面,在车体21的下部,在前方侧设置有左右一对前轮22,在后方侧设置有左右一对后轮23。
一对前轮22是操舵轮,经由图2所示的操舵机构24安装于车体21。利用该操舵机构24来改变一对前轮22的舵角,从而进行自动搬运装置2的操舵。由此,能够改变车体21的行驶方向。需要说明的是,可以是一对后轮23能够操舵,也可以是一对前轮22和一对后轮23全部能够操舵。
此外,一对后轮23是驱动轮,经由驱动部25安装于车体21。该驱动部25具有马达等驱动源(未图示),将该驱动源的驱动力传递到一对后轮23。由此,能够使车体21向前方或后方行驶。需要说明的是,可以是一对前轮22能够驱动,也可以是一对前轮22和一对后轮23全部能够驱动。
此外,在车体21内配置有用于向前述的驱动源提供电力的电池(未图示),该电池也用于机器人臂10、环境识别传感器4和物体识别传感器5等的驱动。
[机器人主体]
图1所示的机器人主体3是所谓的单臂6轴垂直多关节机器人。该机器人主体3具有基座30和能够转动地连结于基座30的机器人臂10。此外,在机器人臂10经由力检测传感器11安装有手12。
基座30在前述的自动搬运装置2的车体21的上部由未图示的螺栓等固定。需要说明的是,基座30相对于自动搬运装置2的设置位置只要是机器人主体3能够将部件C1、C2、C3分别载置多个到前述的自动搬运装置2的载置部7上,则可以是任何位置。此外,基座30可以与自动搬运装置2一体构成。
机器人臂10具有相对于基座30能够转动地连结的臂31(第一臂)、相对于臂31能够转动地连结的臂32(第二臂)、相对于臂32能够转动地连结的臂33(第三臂)、相对于臂33能够转动地连结的臂34(第四臂)、相对于臂34能够转动地连结的臂35(第五臂)、和相对于臂35能够转动地连结的臂36(第六臂)。
在这些臂31~36的各关节部设置有图2所示的臂驱动部13,各臂31~36通过各臂驱动部13的驱动而转动。这里,各臂驱动部13具有未图示的马达和减速器。作为马达,例如可以使用AC伺服马达、DC伺服马达等伺服马达、压电马达等。作为减速器,例如可以使用行星齿轮型的减速器、谐波齿轮装置等。此外,在各臂驱动部13设置有旋转编码器等角度传感器14(参照图2),角度传感器14检测臂驱动部13的马达或减速器的旋转轴的旋舵角度。
此外,如图1所示,在位于机器人臂10的前端部的臂36经由力检测传感器11安装有手12。
力检测传感器11例如是能够检测施加到力检测传感器11的外力的6轴分量的6轴力传感器。这里,6轴分量是相互垂直的三个轴的各个方向的平移力(剪切力)分量和围绕该三个轴的各个轴的旋转力(力矩)分量。需要说明的是,力检测传感器11的检测轴的数量不限于6个,例如也可以是1个以上且5个以下。
手12具有能够分别握持作为机器人系统100的作业的对象物的部件C1、C2、C3的两根手指。需要说明的是,手12所具有的手指的数量不限于两根,也可以是三根以上。此外,根据部件C1、C2、C3的种类,也可以使用通过吸附等保持部件C1、C2、C3的末端执行器来代替手12。
[环境识别传感器]
环境识别传感器4分别设置于前述的自动搬运装置2的车体21的前方部和后方部。设置于车体21的前方部的环境识别传感器4(4a)具有输出与相对于车体21位于前方侧的物体(例如,部件收纳部200、作业台300等对象物或未图示的墙壁、对行驶和/或搬运造成障碍的未图示的障碍物)的存在(距离)或其形状对应的信号的功能。此外,设置于车体21的后方部的环境识别传感器4(4b)具有输出与相对于车体21位于后方侧的物体(例如,部件收纳部200、作业台300等对象物或未图示的墙壁、对行驶和/或搬运造成障碍的未图示的障碍物)的存在(距离)或其形状对应的信号的功能。
需要说明的是,环境识别传感器4的设置位置和设置数量只要是环境识别传感器4能够识别机器人1的行驶和作业所需的范围即可,不限于前述的位置和数量,例如,既可以省略环境识别传感器4b,也可以除了环境识别传感器4a、4b之外,在车体21的右侧部和左侧部中的至少一方设置环境识别传感器4。此外,环境识别传感器4也可以安装于自动搬运装置2的周围的地板、天花板、柱子等构造物。
环境识别传感器4只要具有前述功能即可,不特别限定,可以使用利用了TOF(TimeOf Flight:飞行时间)方式等的各种三维测定设备。此外,环境识别传感器4可以构成为与后述的物体识别传感器5相同。但是,环境识别传感器4优选测定范围(能够测定的区域范围)比物体识别传感器5更宽。由此,能够在宽范围识别机器人1的周围的环境。因此,机器人1可以减少所需的环境识别传感器4的设置数量,或减少环境识别传感器4的死角而提高安全性。
在环境识别传感器4设定有用于表示其识别结果的三维的直角坐标系,环境识别传感器4能够将该坐标系中的物体的坐标信息作为识别结果输出。这里,在控制装置6中,设定在环境识别传感器4的坐标系能够与设定在机器人1的机器人坐标系(控制装置6用于机器人1的驱动控制的坐标系)关联。
[物体识别传感器]
物体识别传感器5设置于前述的机器人主体3的机器人臂10的前端部。在图示中,物体识别传感器5安装于机器人臂10所具有的臂31~36中最靠前端侧的臂36。物体识别传感器5具有输出与位于机器人臂10的前端部的周围或附近的物体(例如,部件C1、C2、C3、部件收纳部200、作业台300、载置部7等对象物)的形状对应的信号的功能。
需要说明的是,物体识别传感器5的设置位置不限于臂36,也可以是其他臂31~35。此外,物体识别传感器5的设置数量可以是2个以上。
物体识别传感器5例如被构成为使用相移法来测定位于机器人臂10的前端部的周围或附近的物体(对象物)的形状。即,物体识别传感器5进行形状测定的对象物是机器人臂10作业的对象物。此外,在物体识别传感器5设定有用于表示其识别结果的三维的直角坐标系,物体识别传感器5将该坐标系中的物体的坐标信息作为识别结果输出。这里,设定在物体识别传感器5的坐标系,在控制装置6中,与设定在机器人1的机器人坐标系(控制装置6用于机器人1的驱动控制的坐标系)关联。
具体地,如图3所示,物体识别传感器5具备在测定范围进行图案光LP的投影的投影部51、进行测定范围的拍摄的拍摄部52和分别电连接于投影部51和拍摄部52的电路部53。
投影部51具有在测定范围投影作为利用亮度值的明暗表示正弦波的条纹图案的影像光的图案光LP的功能。该图案光LP如图4所示将测定范围在预定方向上分割为n份(优选为5份以上且50份以下的范围内,在图4中分割为5份),将各区域的范围作为一个周期而使亮度值在预定方向(图4中所示的X方向)上沿正弦波变化。
该投影部51如图3所示具有射出线状的光LL的光源部511、和一边反射来自光源部511的光LL一边进行扫描而生成图案光LP的光学扫描仪512。
光源部511具有光源5111和透镜5112、5113。这里,光源5111例如是半导体激光器。此外,透镜5112是准直透镜,使透过透镜5112的光为平行光。透镜5113是线性发生器透镜(鲍威尔棱镜)、柱面透镜或棒形透镜,将来自光源5111的光以沿着预定方向(图4中所示的Y方向)的线状延长而生成光LL。需要说明的是,透镜5112可以根据需要设置,也可以省略。也可以使用凹柱面镜或光学扫描仪代替透镜5113来将来自光源5111的光以线状延长。此外,在来自光源5111的光为线状的情况下,能够省略透镜5113。
光学扫描仪512是动磁式的光学扫描仪,将来自光源部511的线状的光LL反射而沿预定方向(图4中所示的X方向)扫描,从而生成图案光LP。该光学扫描仪512如图5所示具备可动反射镜部5121、一对轴部5122、支承部5123、永磁体5124、线圈5125和应变传感器5126。
可动反射镜部5121经由一对轴部5122(扭力杆)以相对于支承部5123能够围绕摇动轴as摇动的方式被支承。这样的可动反射镜部5121、轴部5122和支承部5123利用硅等构成为一体,例如,通过对硅基板或SOI(Silicon on Insulator:绝缘体上的硅)基板进行蚀刻而得到。
此外,可动反射镜部5121的一面(镜面)是具有光反射性且将来自光源部511的光LL反射的部分。这里,在该一面可以根据需要设置金属膜。此外,可动反射镜部5121呈沿摇动轴as的长条形状。由此,能够实现可动反射镜部5121的小型化,并进行线状的光LL的扫描。需要说明的是,可动反射镜部5121的俯视下形状在图示中为四边形(长方形),但并不限于此,例如也可以是椭圆形。此外,轴部5122和支承部5123的形状也不限于图示的形状。
在与可动反射镜部5121的镜面为相反侧的面通过粘合剂等接合(固定)有永磁体5124。永磁体5124例如是钕磁铁、铁氧体磁铁、钐钴磁铁、铝镍钴磁铁或粘结磁体。
在永磁体5124的正下方(与可动反射镜部5121为相反侧)配置有线圈5125。该线圈5125通过来自后述的扫描仪驱动部532(参照图3)的通电(驱动信号),以使可动反射镜部5121围绕摇动轴as摇动的方式产生与永磁体5124相互作用的磁场。需要说明的是,永磁体5124和线圈5125的配置等只要能够使可动反射镜部5121围绕摇动轴as摇动即可,不限于图示的配置等。
应变传感器5126是设置于轴部5122和支承部5123的边界部的压阻元件,电阻值根据轴部5122的变形而变化。在可动反射镜部5121围绕摇动轴as摇动(转动)时,伴随有轴部5122的扭转变形,因此能够利用应变传感器5126检测由此产生的轴部5122的变形,并掌握可动反射镜部5121的运动。该应变传感器5126可通过在构成轴部5122和支承部5123的边界部的硅中掺入磷或硼等杂质而得到。
以上所述的投影部51的图案光LP的射出方向(中心轴a1方向)相对于拍摄部52的光轴a2方向倾斜。由此,能够高精度地测定三维形状。该倾斜角度优选为20°以上且40°以下的范围内,更优选为25°以上且35°以下的范围内。由此,扩大能够测定的范围,并且能够高精度地测定三维形状。如果该倾斜角度过小,则虽然能够测定的范围变宽,但在高度方向上的测定精度变低,另一方面,如果该倾斜角度过大,则虽然提高在高度方向上的测定精度,但能够测定的范围变窄。
拍摄部52具有成像光学系统522和具有多个像素的拍摄元件521,拍摄元件521经由成像光学系统522来拍摄投影到测定范围的图案光LP。
拍摄元件521将拍摄图像转换为每个像素的电信号而输出。作为拍摄元件521不特别限定,但可列举例如CCD(Charge Coupled Devices:电荷耦合器件)、CMOS(Complementary Metal Oxide Semiconductor:互补金属氧化物半导体)等。
成像光学系统522具有两个透镜5221、5222,使位于测定范围的物体表面上的图案光在拍摄元件521的光接收表面(传感器表面)成像。需要说明的是,成像光学系统522所具有的透镜的数量只要是拍摄元件521能够拍摄图案光即可,不限于图示的数量,是任意的。
拍摄部52的拍摄方向(光轴a2方向)相对于机器人臂10的前端部的中心轴a(参照图1)平行。由此,能够将机器人臂10的前端部所朝向的方向作为测定范围。
电路部53如图3所示具有驱动投影部51的光源部511的光源驱动部531、驱动投影部51的光学扫描仪512的扫描仪驱动部532、判断光学扫描仪512是否故障的故障判断部533、和基于来自拍摄部52的拍摄元件521的信号来计算出位于测定范围内的物体(对象物)的形状的计算部534。
图3所示的扫描仪驱动部532电连接于光学扫描仪512的线圈5125。该扫描仪驱动部532被构成为包括驱动线圈5125的驱动电路,如图6所示,生成电流值周期性地(周期T)变化的驱动信号(在偏置电流上叠加调制电流而得到的驱动电流),并将其提供给线圈5125。该驱动信号的频率(驱动频率)与由前述的可动反射镜部5121和一对轴部5122构成的振动系统的共振频率偏离。物体识别传感器5(电路部53)由于不具有与前述的振动系统的共振频率对应地控制驱动信号的频率的电路,所以可动反射镜部5121成为非共振驱动。即,不需要用于减少由温度变化引起的特性变化的电路,能够实现形状测定部的小型化。此外,在非共振驱动可动反射镜部5121的情况下,与共振驱动可动反射镜部5121的情况相比,还有能够缩短光学扫描仪512的启动时间(可动反射镜部5121从停止状态到成为所期望的振幅和频率所需要的时间)的优点。
这里,优选地,驱动信号的频率以使增益为0.8以上且1.2以下的范围内的方式具有与由可动反射镜部5121和一对轴部5122构成的振动系统的共振频率的差。此外,驱动信号的具体频率没有特别限定,但例如优选为100Hz以上且4kHz以下的范围内。由此,使物体识别传感器5(形状测定部)的测定精度优异,并能够容易地实现光学扫描仪512的非共振驱动。
特别地,扫描仪驱动部532输出的驱动信号呈正弦波形(参照图6)。由此,驱动信号的频率分量单一(仅驱动频率),因此能够简化驱动信号的生成(波形的成形)。此外,由于驱动信号不含有驱动频率以外的其他的频率分量,所以能够减少因该其他的频率分量而使可动反射镜部5121共振驱动。其结果是能够非共振稳定地驱动可动反射镜部5121。
图3所示的光源驱动部531电连接于光源部511的光源5111。该光源驱动部531被构成为包括驱动光源5111的驱动电路,生成电流值周期性地变化的调制信号(对偏置电流叠加调制电流而得到的驱动电流),并将其提供给光源5111。光源驱动部531所生成的调制信号是大致呈正弦波的波形的信号。
但是,如前所述,扫描仪驱动部532所输出的驱动信号是正弦波信号(呈正弦波形的信号)。因此,由光学扫描仪512进行扫描的光LL在投影面55(与将光学扫描仪512和测定投影的对象物连结的线段垂直的面)上的扫描速度因可动反射镜部5121摇动而根据其摇动角度发生变化,不是固定的。因此,假设光源驱动部531所生成的调制信号为正弦波信号,则投影的图案光LP不会成为预期的条纹图案。因此,为了修正它,光源驱动部531所生成的调制信号的波形如图7的下部所示,与正弦波形(图7的上部所示的波形)不同。具体地,在将可动反射镜部5121的偏转角度设为θ,驱动频率设为f,最大振幅(机械角)设为θmax,MEMS反射镜与投影面的距离设为h,时间设为t,亮度范围设为A和亮度偏移量设为B时,激光亮度由式(1)来表示。
【数学式1】
由此,即使光学扫描仪512的偏转角的速度不是固定的,也能够画出利用如图4所示的亮度值的明暗来表示正弦波的条纹状的图案光LP。
此外,光源驱动部531能够输出相位各偏移π/2而成的驱动信号。由此,能够生成相位各偏移π/2的条纹状的图案光LP。
图3所示的故障判断部533电连接于光学扫描仪512的应变传感器5126(参照图5)。该故障判断部533基于应变传感器5126的电阻值来判断光学扫描仪512是否故障(未正常动作)。例如,故障判断部533测定应变传感器5126的电阻值,在该电阻值的变化(频率)与驱动信号的频率不同步时,判断为光学扫描仪512故障。这里,应变传感器5126和故障判断部533构成检测光学扫描仪512的故障的故障检测部54。
图3所示的计算部534虽然未图示,但具有CPU(Central Processing Unit:中央处理单元)等处理器、ROM(read only memory:只读存储器)、RAM(Random Access Memory:随机存取存储器)等存储器。并且,计算部534通过使处理器执行存储在存储器的测定程序,从而基于拍摄部52的拍摄结果计算出对象物的形状。
如上所述的物体识别传感器5将图案光LP从投影部51向测定范围进行投影,并利用拍摄部52拍摄该投影而得到的图案光LP。此时,例如,光源驱动部531输出四个相位各偏移π/2的驱动信号,将相位各偏移π/2而投影得到的图案光LP进行四次投影,并且每次都利用拍摄部52拍摄投影而得到的图案光LP。通过四次的拍摄得到的四个拍摄图像的相同坐标处的亮度值即使绝对值因该坐标处的测定对象物的表面状态和/或颜色等而变化,相对值也仅变化图案光LP的相位差的量。由此,能够减少受到环境光和/或测定对象物的表面状态等的影响,并求出在该坐标上的条纹图案的相位值。
这里,首先相位值在拍摄图像中不是连续的值,而是针对条纹图案的每个条纹在-π~+π的范围内求出的。然后,以使这样的相位值成为拍摄图像中的连续的值的方式进行相位连结(相位连接)。由此,能够基于相位值测定测定对象物的形状。
如上所述的物体识别传感器5如前所述具有对对象物投影条纹状的图案光LP的投影部51、拍摄图案光LP的拍摄部52、基于拍摄部52的拍摄结果计算对象物的形状的计算部534。并且,投影部51具有射出作为线状的激光的光LL的光源部511和将来自光源部511的光LL向对象物反射而进行扫描的光学扫描仪512。由此,能够实现小型的物体识别传感器5。
此外,投影部51具有输出将光学扫描仪512非共振驱动的驱动信号的扫描仪驱动部532。由此,即使产生温度变化,也能够以稳定的振幅和频率进行光学扫描仪512的驱动。因此,不需要用于减少由温度变化引起的特性变化的电路,能够实现物体识别传感器5的小型化。
进一步地,扫描仪驱动部532所输出的驱动信号的波形是正弦波形(参照图6)。由此,驱动信号的生成变得容易。此外,能够减少在驱动信号的频率分量中包含除了光学扫描仪512的驱动频率以外的频率的情况,稳定地进行光学扫描仪512的非共振驱动。
[控制装置]
图2所示的控制装置6(控制器)具有基于环境识别传感器4和物体识别传感器5的识别结果来控制自动搬运装置2和机器人臂10的驱动的功能。
该控制装置6(控制器)具备CPU(Central Processing Unit:中央处理单元)等处理器61和ROM(read only memory:只读存储器)、RAM(Random Access Memory:随机存取存储器)等存储器62(存储部)。需要说明的是,控制装置6配置在自动搬运装置2的车体21内,但不限于此,例如也可以配置在机器人主体3的基座30内、车体21的外部等。
存储器62中存储有进行自动搬运装置2和机器人臂10的驱动控制的程序、作为作业的对象物的部件C1、C2、C3的部件形状信息、和机器人系统100被使用的环境(机器人1的周围的环境)的地图信息。这里,地图信息中包括处于机器人1被使用的环境的物体(部件收纳部200、作业台300等)的位置信息和形状信息。
处理器61通过适当读取存储在存储器62的程序和各种信息而进行执行,从而进行自动搬运装置2和机器人臂10的驱动控制。
在这样的控制装置6中,作为将控制装置6用于自动搬运装置2和机器人臂10的驱动控制的坐标系,设定有机器人坐标系。该机器人坐标系与设定在机器人臂10的前端部(例如,工具中心点)的坐标系关联。由此,控制装置6能够使机器人臂10的前端部或手12处于所期望的位置和姿势。此外,如前所述,机器人坐标系也与设定在环境识别传感器4和物体识别传感器5的坐标系关联,基于这些传感器的识别结果能够进行自动搬运装置2和机器人臂10的所期望的动作。
以下,对由控制装置6进行的自动搬运装置2和机器人臂10的驱动控制进行说明。
图8是用于说明图1所示的机器人系统的动作的流程图。图9是用于说明图8所示的成套部件制作模式的动作的流程图。图10是用于说明图9所示的取出作业的动作的流程图。图11是用于说明部件处于不能作业的状态的情况的图。图12是用于说明图10所示的步骤S34的图。图13是用于说明第一种部件的取出作业的图。图14是用于说明第二种部件的取出作业的图。图15是用于说明第三种部件的取出作业的图。图16是用于说明图8所示的成套部件转移装载模式的动作的流程图。图17是示出转移装载完成时的作业台的状态的图。
如图8所示,控制装置6具有成套部件制作模式(步骤S1)和成套部件转移装载模式(步骤S2),它们依次执行。这里,成套部件制作模式是从部件收纳部200取出部件C1、C2、C3而在载置部7上制作多个成套部件CK的模式。成套部件转移装载模式是将多个成套部件CK从载置部7上转移装载到作业台300上的模式。以下,对各模式进行详细描述。
(成套部件制作模式)
在成套部件制作模式中,如图9所示,首先,设定对象部件(步骤S11)。该对象部件为部件C1、C2、C3中的任一个,例如,将部件C1设定为对象部件。
接下来,判断基于环境识别传感器4的识别结果的机器人1(更具体地为自动搬运装置2)的位置是否为停止位置(步骤S12)。此时,通过将存储在存储器62的地图信息(特别是部件收纳部200的位置信息)与环境识别传感器4的识别结果进行对照,从而掌握自动搬运装置2的当前位置。并且,将该当前位置与地图信息内的部件收纳部200的位置进行比较,判断该当前位置是否为停止位置。该停止位置为机器人臂10能够对对象部件进行作业的位置(作业位置),或物体识别传感器5能够识别部件收纳部200的对象位置(对象部件所处的位置)的位置。
在基于环境识别传感器4的识别结果的自动搬运装置2的当前位置不是停止位置的情况下(步骤S12的否),基于环境识别传感器4的识别结果使自动搬运装置2移动到停止位置(步骤S13)。此时,可以利用在前述的步骤S12中比较的结果,确定自动搬运装置2的到停止位置的行驶路线,并基于该行驶路线控制自动搬运装置2的驱动,也可以一边对照存储在存储器62的地图信息和环境识别传感器4的识别结果,一边以使自动搬运装置2的当前位置与停止位置一致的方式控制自动搬运装置2的驱动。在这样的步骤S13之后,进入到后述的步骤S14。需要说明的是,自动搬运装置2的驱动中(移动中),优选停止机器人臂10的驱动(在其他步骤中的移动中也同样)。由此,例如能够减少安装于机器人臂10的物体识别传感器5因碰撞等而损坏的情况。
这里,优选地,控制装置6(控制器)基于环境识别传感器4的识别结果来生成自动搬运装置2的行驶路线信息(移动路线信息),并基于该行驶路线信息对自动搬运装置2进行行驶控制。由此,即使在自动搬运装置2的移动中不进行环境识别传感器4的环境识别,也能够基于行驶路线信息使自动搬运装置2行驶。
另一方面,在基于环境识别传感器4的识别结果的自动搬运装置2的当前位置是停止位置的情况下(步骤S12的是),判断基于物体识别传感器5的识别结果的机器人1(更具体地为自动搬运装置2)的位置是否为停止位置(步骤S14)。此时,通过将存储在存储器62的地图信息(特别是部件收纳部200的形状信息)与物体识别传感器5的识别结果进行对照,从而掌握自动搬运装置2的当前位置。并且,将该当前位置与地图信息内的部件收纳部200的作业位置(例如应该进行作业的周转箱201的位置)进行比较,判断该当前位置是否为停止位置。该停止位置是机器人臂10能够对对象部件作业的位置。
在基于物体识别传感器5的识别结果的自动搬运装置2的当前位置不是停止位置的情况下(步骤S14的否),基于物体识别传感器5的识别结果使自动搬运装置2移动到停止位置(步骤S15)。由此,能够进行自动搬运装置2的位置的微调。此时,可以利用在前述的步骤S14中比较的结果确定自动搬运装置2的到停止位置的行驶路线,并基于该行驶路线控制自动搬运装置2的驱动,也可以一边对照存储在存储器62的地图信息和物体识别传感器5的识别结果,一边以使自动搬运装置2的当前位置与停止位置一致的方式控制自动搬运装置2的驱动。在这样的步骤S15之后进入到后述的步骤S16。
这样,控制装置6(控制器)根据需要基于物体识别传感器5的识别结果来进行自动搬运装置2的移动或改变姿势。由此,能够高精度地进行自动搬运装置2的位置调整。
另一方面,在基于物体识别传感器5的识别结果的自动搬运装置2的当前位置是停止位置的情况下(步骤S14的是),基于物体识别传感器5的识别结果来识别对象部件(步骤S16)。此时,使用手12抽出目标周转箱201。并且,通过对照存储在存储器62的形状信息(部件C1、C2、C3中的对象部件的形状信息)和物体识别传感器5的识别结果来掌握周转箱201内的对象部件的位置和姿势。
接下来,进行对象部件的取出作业(步骤S17)。此时,如图10所示,首先,确定在周转箱201内的多个对象部件中的应取出的一个部件(步骤S32)。然后,判断是否能够作业(步骤S33)。此时,如图11所示,在多个对象部件(在图示中为部件C1)全部重叠的情况下,判断为不能作业。
在判断为不能作业的情况下(步骤S33的否),改变对象部件的状态(步骤S34)。此时,如图12所示,使用手12以使多个对象部件不重叠的方式改变多个对象部件的状态。这里,例如将手12沿其中心轴方向b1和宽度方向b2中的至少一方移动,对至少一个对象部件进行碰撞、推倒、推平等作业。重复这样的步骤S34直到判断为能够作业为止(步骤S35的否)。
这样,控制装置6(控制器)能够以改变位于部件收纳部200的部件C1、C2或C3的姿势的方式驱动机器人臂10。由此,在部件C1、C2或C3的姿势处于难以通过机器人臂10取出的状态的情况下,能够将该部件C1、C2或C3的姿势改变为容易取出的状态。
在判断为能够作业的情况下(步骤S33、S35的是),实施取出对象部件的作业(步骤S36)。此时,通过对照存储在存储器62的形状信息(部件C1、C2、C3中的对象部件的形状信息)和物体识别传感器5的识别结果来掌握确定的一个对象部件的位置和姿势。然后,基于该位置和姿势使机器人臂10和手12动作而利用手12把持对象部件将其载置到载置部7上。需要说明的是,机器人臂10的驱动中(作业中),优选停止自动搬运装置2的驱动(后述的转移装载作业也同样)。由此,能够提高作业精度。
重复这样的取出作业直到取出的部件数量成为设定数量(本实施方式的情况下为三个)为止(步骤S18的否)。这样通过重复取出作业,如图13所示在载置部7上的各托盘TR上载置对象部件(在图示中为部件C1)。然后,在取出的部件数量成为设定数量的情况下,判断是否完成了成套部件CK的制作(步骤S19)。此时,在载置于各托盘TR上的部件为部件C1、C2、C3中的一个(参照图13)或两个(参照图14)时,判断为未完成成套部件CK的制作(步骤S19的否),改变对象部件(步骤S20)。此时,例如,在图13所示的情况下,将对象部件改变为部件C2,在图14所示的情况下,将对象部件改变为C3。然后,进入到前述的步骤S12。
在如图15所示在各托盘TR上载置有全部的部件C1、C2、C3时,判断为完成了成套部件CK的制作(步骤S19的是),结束成套部件制作模式(图8所示的步骤S1),进入到成套部件转移装载模式(图8所示的步骤S2)。
(成套部件转移装载模式)
在成套部件转移装载模式中,如图16所示,首先,设定转移装载目的地(步骤S21)。该转移装载目的地为作业台300。
接下来,判断基于环境识别传感器4的识别结果的机器人1(更具体地为自动搬运装置2)的位置是否为停止位置(步骤S22)。此时,通过对照存储在存储器62的地图信息(特别是作业台300的位置信息)和环境识别传感器4的识别结果来掌握自动搬运装置2的当前位置。然后,将该当前位置与地图信息内的作业台300的位置进行比较,判断该当前位置是否为停止位置。该停止位置是机器人臂10能够将成套部件CK载置到载置部30上的位置(作业位置),或物体识别传感器5能够识别作业台300的载置部301的位置。
在基于环境识别传感器4的识别结果的自动搬运装置2的当前位置不是停止位置的情况下(步骤S22的否),基于环境识别传感器4的识别结果使自动搬运装置2移动到停止位置(步骤S23)。此时,可以利用在前述的步骤S22中比较的结果确定自动搬运装置2的到停止位置的行驶路线,并基于该行驶路线控制自动搬运装置2的驱动,也可以一边对照存储在存储器62的地图信息和环境识别传感器4的识别结果,一边以使自动搬运装置2的当前位置与停止位置一致的方式控制自动搬运装置2的驱动。在这样的步骤S23之后,进入到后述的步骤S24。
另一方面,在基于环境识别传感器4的识别结果的自动搬运装置2的当前位置是停止位置的情况下(步骤S22的是),判断基于物体识别传感器5的识别结果的机器人1(更具体地为自动搬运装置2)的位置是否为停止位置(步骤S24)。此时,通过对照存储在存储器62的地图信息(特别是作业台300的形状信息)和物体识别传感器5的识别结果来掌握自动搬运装置2的当前位置。然后,将该当前位置与地图信息内的作业台300的作业位置(例如载置部301的位置)进行比较,判断该当前位置是否为停止位置。该停止位置是机器人臂10能够将成套部件CK载置到载置部301的位置。
在基于物体识别传感器5的识别结果的自动搬运装置2的当前位置不是停止位置的情况下(步骤S24的否),基于物体识别传感器5的识别结果使自动搬运装置2移动到停止位置(步骤S25)。由此,能够进行自动搬运装置2的位置的微调。此时,可以利用在前述的步骤S24中比较的结果确定自动搬运装置2的到停止位置的行驶路线,并基于该行驶路线控制自动搬运装置2的驱动,也可以一边对照存储在存储器62的地图信息和物体识别传感器5的识别结果,一边以使自动搬运装置2的当前位置与停止位置一致的方式控制自动搬运装置2的驱动。在这样的步骤S25之后,进入到后述的步骤S26。
另一方面,在基于物体识别传感器5的识别结果的自动搬运装置2的当前位置是停止位置的情况下(步骤S24的是),基于物体识别传感器5的识别结果识别作为转移装载目的地的载置部301(步骤S26)。此时通过对照存储在存储器62的信息(作业台300的形状信息)和物体识别传感器5的识别结果来掌握载置部301的位置和姿势。
接下来,进行成套部件CK的转移装载作业(步骤S27)。此时,利用手12把持托盘TR而将成套部件CK连同托盘TR从载置部7转移装载到载置部301。然后,判断是否完成了成套部件CK的转移装载(步骤S28)。在判断为未完成成套部件CK的转移装载时(步骤S28的否),根据需要改变转移装载目的地(步骤S29)。然后,进入到前述的步骤S22。由此,如图17所示,能够将全部成套部件CK转移装载到载置部301上。
在判断为完成了成套部件CK的转移装载时(步骤S28的是),结束成套部件转移装载模式(图8所示的步骤S2)。
以上那样的机器人系统100具备:能够自动移动的自动搬运装置2、搭载于自动搬运装置2且对对象物进行作业的一个机器人臂10、配置于机器人臂且识别对象物的物体识别传感器5、和识别自动搬运装置2移动的方向的环境的环境识别传感器4。特别地,机器人系统100具备:配置于自动搬运装置2且能够载置多个包含种类彼此不同的多个部件C1、C2、C3的成套部件CK的载置部7、和作为基于环境识别传感器4和物体识别传感器5的识别结果进行自动搬运装置2和机器人臂10的驱动控制的控制器的控制装置6。并且,控制装置6基于物体识别传感器5的识别结果,以从收纳有多个部件C1、C2、C3的部件收纳部200分别取出多个部件C1、C2、C3而在载置部7上制作多个成套部件CK的方式进行机器人臂10的驱动控制,之后,基于环境识别传感器4的识别结果,以向配置在与部件收纳部200不同的位置的作业台300移动的方式进行自动搬运装置2的驱动控制,并基于物体识别传感器5的识别结果,以将多个成套部件CK从载置部7上转移装载到作业台300的方式进行机器人臂10的驱动控制。
根据这样的机器人系统100,由于在从部件收纳部200分别取出多个部件C1、C2、C3而在载置部7上制作多个成套部件CK之后,向作业台300移动,将多个成套部件CK从载置部7上直接转移装载到作业台300,所以与从部件收纳部200分别取出多个部件C1、C2、C3而在作业台300上制作多个成套部件CK的情况相比,能够减少自动搬运装置2在部件收纳部200与作业台300之间往返移动的次数。因此,能够高效地制作成套部件CK。
这里,自动搬运装置2能够无轨道行驶。由此,不需要或简化用于引导自动搬运装置的行驶的导轨等设备,因此能够使设备费低廉。需要说明的是,在作业所需的行驶路线一定的情况下,可以使自动搬运装置2沿导轨等行驶。
<第二实施方式>
图18是示出本发明的第二实施方式的机器人系统所使用的机器人的立体图。
本实施方式除了将本发明应用于双臂机器人以外,与前述的第一实施方式相同。以下,以与前述的实施方式之间的不同点为中心对第二实施方式进行说明,对于相同的事项省略其说明。
机器人系统100A具备:自动搬运装置2A、搭载于自动搬运装置2A的具有两根机器人臂10A的机器人主体3A、配置于自动搬运装置2A的环境识别传感器4、分别配置于自动搬运装置2A和各机器人臂10A的物体识别传感器5(形状测定部)、控制自动搬运装置2A和各机器人臂10A的动作的控制装置6A(控制器)、和配置在自动搬运装置2A的载置部7A,它们构成能够行驶的机器人1A。
自动搬运装置2A具备:车体211、安装于车体211的一对前轮22A和一对后轮23A、直立设置在车体211的柱部212、能够改变一对前轮21A的舵角的操舵机构(未图示)、和能够驱动一对后轮23A的驱动部(未图示)。这里,在柱部212安装有能够载置前述的第一实施方式的多个成套部件CK的载置部7A。
机器人主体3A是多臂机器人,具有连接于自动搬运装置2A的柱部212的上部的基座30A(主体部)、和能够转动地连结于基座30A的左右的两个机器人臂10A。此外,在各机器人臂10A经由力检测传感器11A连接有手12A。这里,在基座30A配置有环境识别传感器4和物体识别传感器5。需要说明的是,基座30A相对于自动搬运装置2A固定地设置,也可以称为自动搬运装置2A的一部分。
各机器人臂10A具有臂31A(第一臂)、臂32A(第二臂)、臂33A(第三臂)、臂34A(第四臂)、臂35A(第五臂)、臂36A(第六臂)和臂37A(第七臂)。这些臂31A~37A从基端侧向前端侧按该顺序连结。各臂31A~37A中,相邻的两个臂彼此能够相互转动。这里,在各机器人臂10A的臂37A配置有物体识别传感器5。
控制装置6A(控制器)具有基于环境识别传感器4和物体识别传感器5的识别结果控制自动搬运装置2A和机器人臂10A的驱动的功能。
更具体地,控制装置6A能够基于环境识别传感器4的识别结果以使各机器人臂10A处于能够对前述的第一实施方式的部件收纳部200或作业台300进行作业的位置的方式使自动搬运装置2A移动。此外,控制装置6A能够在机器人主体3A(机器人臂10A)位于能够对部件收纳部200进行作业的位置时,基于物体识别传感器5的识别结果,以在载置部7A上制作多个成套部件CK的方式驱动机器人主体3A。此外,控制装置6A能够在机器人主体3A位于能够对作业台300进行作业的位置时,基于物体识别传感器5的识别结果,以将多个成套部件CK从载置部7A上转移装载到作业台300的方式驱动机器人主体3A。此外,可以不将物体识别传感器5配置在基座30A和各机器人臂10A的全部位置,而配置在任意一个或两个位置。
通过以上说明的第二实施方式,也能够达到与前述的第一实施方式相同的效果。此外,本实施方式的机器人系统100A的机器人臂10A的数量为两个。由此,能够提高作业效率,或进行更复杂的作业。此外,不仅是在载置部7A上制作成套部件CK,也可以在载置部7A上进行该成套部件CK的组装等作业。
以上,基于图示的实施方式对本发明的机器人系统进行了说明,但本发明并不限于此,各部分的构成可以替换为具有相同功能的任意构成。此外,本发明也可以增加其他的任意构成物。
此外,本发明也可以是将前述的实施方式中的任意两个以上的构成(特征)进行组合而成。
在前述的实施方式中,以制作包含三种部件C1、C2、C3各一个的成套部件的情况为例进行了说明,但构成成套部件CK的部件的数量和种类并不限于此,例如成套部件CK所包含的部件的数量可以是两个或四个以上,成套部件CK也可以包含多个同种部件。
此外,机器人臂所具有的臂的数量(关节的数量)不限于前述的实施方式的数量(六个或七个),也可以是一个以上且五个以下或八个以上。
此外,物体识别传感器只要能够得到机器人臂能够对对象物进行作业的识别结果即可,不限于前述的实施方式的构成,例如,可以是使用除了相移法以外的方法(例如TOF法)的传感器,也可以是投影部使用液晶面板将图案光进行投影的构成。
此外,在前述的实施方式中,以物体识别传感器所使用的光学扫描仪为移动磁铁方式的情况为例进行了说明,但光学扫描仪的驱动方式不限于此,也可以是移动线圈方式、静电驱动方式、压电驱动方式等。

Claims (8)

1.一种机器人系统,其特征在于,具备:
进行移动的自动搬运装置;
机器人臂,搭载于所述自动搬运装置且对对象物进行作业;
物体识别传感器,配置在所述机器人臂且识别所述对象物;
环境识别传感器,识别所述自动搬运装置所移动的方向上的环境;
载置部,配置在所述自动搬运装置且能够载置多个成套部件;以及
控制器,
所述控制器基于所述物体识别传感器的识别结果,进行所述机器人臂的控制以使所述机器人臂从收纳有部件的部件收纳部将多个所述部件取出而在所述载置部制作多个所述成套部件,之后,所述控制器基于所述环境识别传感器的识别结果,进行所述自动搬运装置的控制以使所述自动搬运装置向作业台移动,所述控制器基于所述物体识别传感器的识别结果,进行所述机器人臂的控制以将所述多个所述成套部件从所述载置部装载到所述作业台。
2.根据权利要求1所述的机器人系统,其特征在于,
所述物体识别传感器具有:
投影部,对所述对象物投影条纹状的图案光;
拍摄部,拍摄所述图案光;以及
计算部,基于所述拍摄部的拍摄结果来计算所述对象物的形状,
所述投影部具有:
光源部,射出线状的激光;以及
光学扫描仪,将来自所述光源部的激光向所述对象物反射而进行扫描。
3.根据权利要求2所述的机器人系统,其特征在于,
所述投影部具有输出对所述光学扫描仪进行非共振驱动的驱动信号的扫描仪驱动部。
4.根据权利要求3所述的机器人系统,其特征在于,
所述驱动信号的波形为正弦波形。
5.根据权利要求4所述的机器人系统,其特征在于,
所述自动搬运装置以无轨道的方式移动。
6.根据权利要求5所述的机器人系统,其特征在于,
所述控制器基于所述环境识别传感器的识别结果来生成所述自动搬运装置的移动路线信息,并基于所述移动路线信息来控制所述自动搬运装置。
7.根据权利要求1所述的机器人系统,其特征在于,
所述控制器基于所述物体识别传感器的识别结果来进行所述自动搬运装置的移动或改变姿势。
8.根据权利要求1所述的机器人系统,其特征在于,
所述控制器能够驱动所述机器人臂来改变位于所述部件收纳部的所述部件的姿势。
CN201811118513.7A 2017-09-28 2018-09-25 机器人系统 Active CN109571461B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017187414A JP2019059004A (ja) 2017-09-28 2017-09-28 ロボットシステム
JP2017-187414 2017-09-28

Publications (2)

Publication Number Publication Date
CN109571461A true CN109571461A (zh) 2019-04-05
CN109571461B CN109571461B (zh) 2023-04-07

Family

ID=65806382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811118513.7A Active CN109571461B (zh) 2017-09-28 2018-09-25 机器人系统

Country Status (3)

Country Link
US (1) US11040453B2 (zh)
JP (1) JP2019059004A (zh)
CN (1) CN109571461B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109927012A (zh) * 2019-04-08 2019-06-25 清华大学 移动抓取机器人和自动取货方法
US20200376678A1 (en) * 2019-05-31 2020-12-03 Denso Corporation Visual servo system
CN113772347A (zh) * 2020-06-09 2021-12-10 丰田自动车株式会社 移动机器人、服务器装置以及搬运方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106878697A (zh) * 2016-06-29 2017-06-20 鲁班嫡系机器人 一种拍摄方法及其成像方法、装置和设备
JP7222200B2 (ja) * 2018-08-27 2023-02-15 株式会社リコー 光学装置、計測装置、ロボット、電子機器、移動体、および造形装置
JP7467041B2 (ja) * 2018-09-27 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
JP7286963B2 (ja) * 2018-12-26 2023-06-06 セイコーエプソン株式会社 ロボットシステムおよびロボット制御方法
US10766141B1 (en) * 2019-05-09 2020-09-08 Mujin, Inc. Robotic system with a coordinated transfer mechanism
CN110508706B (zh) * 2019-09-18 2024-04-05 福州中澳科技集团股份有限公司 冲压产线机器人自动上下料系统及其控制方法
JP7310481B2 (ja) * 2019-09-19 2023-07-19 セイコーエプソン株式会社 深度センサーの制御方法、深度センサーおよびロボットシステム
JP7405575B2 (ja) * 2019-11-19 2023-12-26 ファナック株式会社 ロボットの制御装置、ロボットの制御方法、および協働作業ユニット
JP2021089405A (ja) * 2019-12-06 2021-06-10 セイコーエプソン株式会社 光走査装置、三次元計測装置、及び、ロボットシステム
JP7243603B2 (ja) * 2019-12-09 2023-03-22 トヨタ自動車株式会社 搬送ロボットシステム
CN114789455A (zh) * 2021-01-25 2022-07-26 上海松尚网络科技有限公司 一种可精确控制运动轨迹的图书盘点机器人
US11731282B2 (en) * 2021-03-03 2023-08-22 Dishcare Inc. Dish handling robot
US20230333254A1 (en) * 2022-04-15 2023-10-19 Zebra Technologies Corporation Lidar Sensor System for Enabling or Disabling Use of a Robotic Arm

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010089211A (ja) * 2008-10-08 2010-04-22 Panasonic Corp 組立部品供給システム
JP2011215323A (ja) * 2010-03-31 2011-10-27 Brother Industries Ltd 光走査装置及び画像表示装置
CN102998795A (zh) * 2011-09-08 2013-03-27 富士胶片株式会社 反射镜驱动设备、驱动该反射镜驱动设备的方法和制造该反射镜驱动设备的方法
CN105313126A (zh) * 2014-07-29 2016-02-10 精工爱普生株式会社 控制系统、机器人系统、以及控制方法
WO2016142981A1 (ja) * 2015-03-06 2016-09-15 株式会社日立製作所 作業ロボット及びグリッパ
CN106239471A (zh) * 2016-08-29 2016-12-21 上海电机学院 一种转运机器人
CN106969704A (zh) * 2015-12-16 2017-07-21 精工爱普生株式会社 测量系统、测量方法、机器人控制方法、机器人、机器人系统以及拾取装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614427B1 (en) * 1999-02-01 2003-09-02 Steve Aubrey Process for making stereoscopic images which are congruent with viewer space
US6374155B1 (en) * 1999-11-24 2002-04-16 Personal Robotics, Inc. Autonomous multi-platform robot system
US6836701B2 (en) * 2002-05-10 2004-12-28 Royal Appliance Mfg. Co. Autonomous multi-platform robotic system
US7054716B2 (en) * 2002-09-06 2006-05-30 Royal Appliance Mfg. Co. Sentry robot system
JPWO2004106009A1 (ja) * 2003-06-02 2006-07-20 松下電器産業株式会社 物品取扱いシステムおよび物品取扱いサーバ
US20070061041A1 (en) * 2003-09-02 2007-03-15 Zweig Stephen E Mobile robot with wireless location sensing apparatus
US7099745B2 (en) * 2003-10-24 2006-08-29 Sap Aktiengesellschaft Robot system using virtual world
US7854108B2 (en) * 2003-12-12 2010-12-21 Vision Robotics Corporation Agricultural robot system and method
US7908040B2 (en) * 2004-07-15 2011-03-15 Raytheon Company System and method for automated search by distributed elements
JP3920317B2 (ja) * 2004-08-02 2007-05-30 松下電器産業株式会社 物品運搬用ロボット
CN100556623C (zh) 2004-10-19 2009-11-04 松下电器产业株式会社 自动机械装置
JP4348276B2 (ja) * 2004-11-02 2009-10-21 本田技研工業株式会社 ロボット制御装置
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
US8374721B2 (en) * 2005-12-02 2013-02-12 Irobot Corporation Robot system
US7539557B2 (en) * 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
US8271132B2 (en) * 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US8180486B2 (en) * 2006-10-02 2012-05-15 Honda Motor Co., Ltd. Mobile robot and controller for same
TWI306051B (en) * 2006-12-14 2009-02-11 Ind Tech Res Inst Robotic apparatus with surface information displaying and interaction capability
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
US8961695B2 (en) * 2008-04-24 2015-02-24 Irobot Corporation Mobile robot for cleaning
JP5345869B2 (ja) 2009-02-17 2013-11-20 ファナック株式会社 部品キットを用いた生産システム
US8234010B2 (en) * 2010-02-16 2012-07-31 Deere & Company Tethered robot positioning
US9020636B2 (en) * 2010-12-16 2015-04-28 Saied Tadayon Robot for solar farms
WO2013112907A1 (en) * 2012-01-25 2013-08-01 Adept Technology, Inc. Autonomous mobile robot for handling job assignments in a physical environment inhabited by stationary and non-stationary obstacles
ES2827192T3 (es) * 2012-02-08 2021-05-20 Omron Tateisi Electronics Co Sistema de gestión de tareas para una flota de robots móviles autónomos
US20130343640A1 (en) * 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US9527211B2 (en) * 2013-05-10 2016-12-27 Cnh Industrial America Llc Control architecture for multi-robot system
US20170183157A9 (en) * 2013-06-18 2017-06-29 Hdt Robotics, Inc. Robotic manipulator for warehouses
US9427874B1 (en) * 2014-08-25 2016-08-30 Google Inc. Methods and systems for providing landmarks to facilitate robot localization and visual odometry
US10065314B2 (en) * 2014-08-29 2018-09-04 General Electric Company System and method for manipulation platform
US9457970B1 (en) * 2015-03-30 2016-10-04 Google Inc. Modular cross-docking system
DE102015004087B3 (de) * 2015-03-31 2016-12-29 gomtec GmbH Fahrbarer Roboter mit Kollisionserkennung
US9625571B1 (en) * 2015-08-06 2017-04-18 X Development Llc Disabling robot sensors
US9880561B2 (en) * 2016-06-09 2018-01-30 X Development Llc Sensor trajectory planning for a vehicle
US10071856B2 (en) * 2016-07-28 2018-09-11 X Development Llc Inventory management
US10949940B2 (en) * 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010089211A (ja) * 2008-10-08 2010-04-22 Panasonic Corp 組立部品供給システム
JP2011215323A (ja) * 2010-03-31 2011-10-27 Brother Industries Ltd 光走査装置及び画像表示装置
CN102998795A (zh) * 2011-09-08 2013-03-27 富士胶片株式会社 反射镜驱动设备、驱动该反射镜驱动设备的方法和制造该反射镜驱动设备的方法
CN105313126A (zh) * 2014-07-29 2016-02-10 精工爱普生株式会社 控制系统、机器人系统、以及控制方法
WO2016142981A1 (ja) * 2015-03-06 2016-09-15 株式会社日立製作所 作業ロボット及びグリッパ
CN106969704A (zh) * 2015-12-16 2017-07-21 精工爱普生株式会社 测量系统、测量方法、机器人控制方法、机器人、机器人系统以及拾取装置
CN106239471A (zh) * 2016-08-29 2016-12-21 上海电机学院 一种转运机器人

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109927012A (zh) * 2019-04-08 2019-06-25 清华大学 移动抓取机器人和自动取货方法
CN109927012B (zh) * 2019-04-08 2021-07-30 清华大学 移动抓取机器人和自动取货方法
US20200376678A1 (en) * 2019-05-31 2020-12-03 Denso Corporation Visual servo system
CN113772347A (zh) * 2020-06-09 2021-12-10 丰田自动车株式会社 移动机器人、服务器装置以及搬运方法

Also Published As

Publication number Publication date
US11040453B2 (en) 2021-06-22
US20190091870A1 (en) 2019-03-28
CN109571461B (zh) 2023-04-07
JP2019059004A (ja) 2019-04-18

Similar Documents

Publication Publication Date Title
CN109571461A (zh) 机器人系统
CN109551472B (zh) 机器人系统
Liu et al. Low-cost retina-like robotic lidars based on incommensurable scanning
CN109927012B (zh) 移动抓取机器人和自动取货方法
CN104520750B (zh) 双轴式扫描镜
JP4843190B2 (ja) 画像センサシステムのキャリブレーション方法および装置
JP3645141B2 (ja) 三次元コーム加振構造物及びこれを採用した慣性感知センサーとアクチュエータ
CN107632602A (zh) Agv小车运行轨道纠偏方法及系统、地标二维码获取装置
CN107379016A (zh) 可动部的振动测定方法、机器人的振动测定方法以及控制装置
JPH08166813A (ja) ウィービング動作を伴うロボットのトラッキング制御方法
US20040255640A1 (en) Quadrature compensation technique for vibrating gyroscopes
JP2003505681A (ja) 自動車のホイールジオメトリ及び/又は軸線ジオメトリを規定する装置
CN105572679B (zh) 一种二维扫描型激光雷达的扫描数据修正方法及系统
EP3998451A1 (en) Navigation method, mobile carrier, and navigation system
US5475600A (en) Mobile robot which utilizes inertial navigation to calculate shortest return distance
JP2000242330A (ja) 自動操舵移動体およびその移動体の操舵補正装置、並びに移動体の操舵補正方法
CN101872055B (zh) 驱动装置、光学装置以及驱动信号控制电路
KR101417431B1 (ko) Lidar센서를 이용한 3차원 공간정보 생성시스템
US11536952B2 (en) Scanning mirror system with attached coil
JP5336955B2 (ja) 倒立振子型移動体及びその制御方法
JP2009109219A (ja) 移動体の障害物位置認識方法及び移動体
JP6740116B2 (ja) 移動車両
JP2010204922A (ja) 移動体
US20220026538A1 (en) Distance Measuring Device And Robot
JP2010262461A (ja) 移動体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant