WO2021070574A1 - エンドエフェクタおよびエンドエフェクタの制御装置 - Google Patents

エンドエフェクタおよびエンドエフェクタの制御装置 Download PDF

Info

Publication number
WO2021070574A1
WO2021070574A1 PCT/JP2020/034843 JP2020034843W WO2021070574A1 WO 2021070574 A1 WO2021070574 A1 WO 2021070574A1 JP 2020034843 W JP2020034843 W JP 2020034843W WO 2021070574 A1 WO2021070574 A1 WO 2021070574A1
Authority
WO
WIPO (PCT)
Prior art keywords
brush
work
coating
end effector
tip
Prior art date
Application number
PCT/JP2020/034843
Other languages
English (en)
French (fr)
Inventor
河野 秀行
柚香 磯邉
哲生 阪田
遼河 坂口
江口 政史
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2021550565A priority Critical patent/JP7223930B2/ja
Priority to CN202080070539.8A priority patent/CN114555240A/zh
Publication of WO2021070574A1 publication Critical patent/WO2021070574A1/ja
Priority to US17/716,544 priority patent/US11999069B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05CAPPARATUS FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05C5/00Apparatus in which liquid or other fluent material is projected, poured or allowed to flow on to the surface of the work
    • B05C5/02Apparatus in which liquid or other fluent material is projected, poured or allowed to flow on to the surface of the work the liquid or other fluent material being discharged through an outlet orifice by pressure, e.g. from an outlet device in contact or almost in contact, with the work
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05CAPPARATUS FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05C1/00Apparatus in which liquid or other fluent material is applied to the surface of the work by contact with a member carrying the liquid or other fluent material, e.g. a porous member loaded with a liquid to be applied as a coating
    • B05C1/02Apparatus in which liquid or other fluent material is applied to the surface of the work by contact with a member carrying the liquid or other fluent material, e.g. a porous member loaded with a liquid to be applied as a coating for applying liquid or other fluent material to separate articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05CAPPARATUS FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05C1/00Apparatus in which liquid or other fluent material is applied to the surface of the work by contact with a member carrying the liquid or other fluent material, e.g. a porous member loaded with a liquid to be applied as a coating
    • B05C1/04Apparatus in which liquid or other fluent material is applied to the surface of the work by contact with a member carrying the liquid or other fluent material, e.g. a porous member loaded with a liquid to be applied as a coating for applying liquid or other fluent material to work of indefinite length
    • B05C1/06Apparatus in which liquid or other fluent material is applied to the surface of the work by contact with a member carrying the liquid or other fluent material, e.g. a porous member loaded with a liquid to be applied as a coating for applying liquid or other fluent material to work of indefinite length by rubbing contact, e.g. by brushes, by pads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05CAPPARATUS FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05C11/00Component parts, details or accessories not specifically provided for in groups B05C1/00 - B05C9/00
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05CAPPARATUS FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05C11/00Component parts, details or accessories not specifically provided for in groups B05C1/00 - B05C9/00
    • B05C11/10Storage, supply or control of liquid or other fluent material; Recovery of excess liquid or other fluent material
    • B05C11/1002Means for controlling supply, i.e. flow or pressure, of liquid or other fluent material to the applying apparatus, e.g. valves
    • B05C11/1015Means for controlling supply, i.e. flow or pressure, of liquid or other fluent material to the applying apparatus, e.g. valves responsive to a conditions of ambient medium or target, e.g. humidity, temperature ; responsive to position or movement of the coating head relative to the target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0075Manipulators for painting or coating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0052Gripping heads and other end effectors multiple gripper units or multiple end effectors
    • B25J15/0066Gripping heads and other end effectors multiple gripper units or multiple end effectors with different types of end effectors, e.g. gripper and welding gun
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/02Gripping heads and other end effectors servo-actuated
    • B25J15/0206Gripping heads and other end effectors servo-actuated comprising articulated grippers
    • B25J15/022Gripping heads and other end effectors servo-actuated comprising articulated grippers actuated by articulated links
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Definitions

  • the present disclosure relates to an end effector and an end effector control device.
  • Patent Document 1 recognizes a slave mechanism unit having a multi-degree-of-freedom articulated robot arm capable of reproducing the movement of a human arm, and a writing operation including writing characters or drawing drawings performed by a writer on a work. Then, the master mechanism unit that reproducibly teaches the writing operation to the multi-degree-of-freedom articulated robot arm, and the writing operation connected to the slave mechanism unit and the master mechanism unit and recognized by the master mechanism unit are performed.
  • a robot teaching system including a controller that performs arithmetic processing and controls the multi-degree-of-freedom articulated robot arm of the slave mechanism unit is described.
  • the master mechanism unit is grasped by the writer, is attached to the work by a writing instrument for performing the writing operation, and detects a three-dimensional position and orientation of the writing instrument that sequentially changes according to the writing operation.
  • a writing information acquisition means acquired as writing information
  • a work information acquisition means that detects the tilt angle and rotation angle of the work when the writing operation is performed, and acquires the writing information as work information corresponding to a time series.
  • It also has a written work information transmitting means for transmitting the acquired written information and the work information to the controller.
  • the controller performs the writing operation on the multi-degree-of-freedom articulated robot arm based on the writing information receiving means for receiving the writing information and the work information sent from the master mechanism unit and the received writing information.
  • the writing control data sending means that performs arithmetic processing on the writing control data to be reproduced and sends it to the slave mechanism unit and the received work information. It has a work control data sending means for arithmetically processing work control data for controlling the movement of the slave-side work used in the above and sending the work control data to the slave mechanism unit.
  • the slave mechanism unit is controlled based on the writing control data receiving means for receiving the writing control data sent from the controller and the received writing control data, and is a slave-side writing tool for reproducing the writing operation at one end.
  • the present disclosure is an end effector that can be connected to a robot arm, and an object of the present disclosure is to provide an end effector including a camera, a support member, and a brush.
  • the present disclosure is an end effector that can be connected to a robot arm, and includes a camera, a support member having a marker and capable of supporting the work, and a brush that applies coating to the work.
  • a marker and a marker are arranged at a position where they can be imaged at the same time.
  • an end effector that is connectable to a robot arm and includes a camera, a support member, and a brush.
  • Front view showing a state at the time of application of a coating agent such as a moisture-proof agent on the surface of the work Wk by the brush Br included in the end effector 2.
  • a plan view showing a state at the time of application in which a coating agent such as a moisture-proof agent is applied to the surface of the work Wk by the brush Br included in the end effector 2.
  • Enlarged view of end effector 2 It is a figure which shows the arrangement example of a camera CAM, (a) front view, (b) side view.
  • Block diagram showing a hardware configuration example of the control device 100 Flow chart showing the coating process based on the control by the control device 100 It is a figure which shows the state which the brush tip of the brush Br is not in contact with the work Wk (the state which is not applied), (a) the front view, (b) the side view, (c) the brush tip of the brush Br reflected in the captured image.
  • Diagram showing the shape of It is a figure which shows the state which applies to the work Wk downward of the captured image, (a) the front view, (b) the front side view, (c) the brush Br reflected in the captured image.
  • FIGS. 14 to 17 It is a figure which shows the end effector 2, (a) front view, (b) plan view, (c) side view.
  • a robot device used in a factory or the like can perform various operations by attaching an end effector to a robot arm.
  • a robot hand is used as an end effector to pick parts flowing on a factory production line.
  • the robot arm and the end effector are controlled by a control device (controller) connected to the robot arm.
  • Types of end effectors include those with fingers and those with a deformable tip of the hand, such as the so-called soft hand, which support the work. That is, as a support member for supporting the work, there are a finger, a soft hand, and the like.
  • the brush-shaped end effector makes it possible to apply a coating agent such as a moisture-proof agent to a work such as a substrate used for a vehicle. This application prevents deterioration of the work and moisture.
  • the moisture-proof agent is an example of a coating agent, and other coating agents include an insulating agent for ensuring insulation, a dust-proofing agent for preventing dust, an insect-proofing agent for preventing insect damage, and a vibration-resistant agent. Includes anti-vibration agents and the like.
  • the coating agent is applied by an end effector equipped with a brush. Then, the shape of the brush tip of the brush to be coated is imaged by a camera, and it is checked whether or not the above-mentioned coating is properly performed based on the captured image.
  • Example of coating work with end effector 2 gripping state
  • a coating agent such as a moisture-proof agent
  • the support member that supports the work Wk is a finger.
  • the support member may include various members other than fingers such as a soft hand.
  • the work Wk may be a vehicle substrate or the like.
  • 1 to 4 are views showing a gripping state in which the end effector 2 is gripping the work Wk. 1 is a perspective view, FIG. 2 is a side view, FIG. 3 is a front view, and FIG. 4 is a plan view.
  • a Cartesian coordinate system consisting of an x-axis, a y-axis, and a z-axis is defined as shown in each figure.
  • the z-axis is perpendicular to the x-axis and the y-axis and extends in the height direction.
  • the positive direction of each axis is defined in the direction of the arrow in FIG. 1, and the negative direction is defined in the direction opposite to the arrow.
  • the robot device 500 shown in FIG. 1 includes a robot arm 1, and the robot arm 1 is slidably attached to a rail R. However, the robot arm 1 may be directly fixed to the work table T without using the rail R.
  • the robot arm 1 is an articulated type and includes a plurality of joints (links) L. Each of the joints (links) L is connected via a joint axis J.
  • the end effector 2 is connected to the robot arm 1. Since each joint (link) L rotates about each joint axis J, the robot arm 1 can freely change the position and angle of the work Wk gripped by the end effector 2.
  • the end effector 2 includes a finger F capable of supporting the work Wk and a brush Br.
  • the finger F includes two fingers, a first finger F1 and a second finger F2.
  • the number of fingers is not limited to two, as long as it can support the work Wk.
  • the finger F and the brush Br may be arranged substantially in parallel, but the finger F and the brush Br may be arranged so as not to be substantially parallel.
  • the finger F is gripped so as to sandwich the work Wk between the tip portions of the two first finger F1 and the second finger F2. This work Wk is stored in a stock shelf or the like (not shown) before the work.
  • the end effector 2 connected to the robot arm 1 grips the work Wk and places the work Wk on the mounting portion T1 provided on the work table T.
  • the end portion of the work Wk is received by the groove G provided in each of the first finger F1 and the second finger F2. Grasp it in this way.
  • the positions of the first finger F1 and the second finger F2 in the state where the work Wk is gripped are defined as the gripping positions of the finger F.
  • the end effector 2 is equipped with a camera CAM.
  • the camera CAM comprises two lenses, but the number of lenses may be other than two. The use and arrangement of this camera CAM will be described later.
  • 5 to 8 are views showing a state at the time of application in which a coating agent such as a moisture-proof agent is applied to the surface of the work Wk by the brush Br included in the end effector 2.
  • 5 is a perspective view
  • FIG. 6 is a side view
  • FIG. 7 is a front view
  • FIG. 8 is a plan view.
  • the tip of the brush Br is attached to the hole C1 of the container C containing the coating agent. Since the container C contains a coating agent, the coating agent adheres to the tip of the brush Br. In this state, the brush Br included in the end effector 2 moves so as to trace over the work Wk, which is a substrate, so that the coating agent is applied to the surface of the work Wk.
  • the coating agent may contain a dye or the like that glows with black light.
  • the end effector 2 is equipped with a camera CAM.
  • the camera CAM images the brush tip of the brush Br during coating (at the time of coating) on the work Wk. This captured image is used to confirm whether or not the coating is performed correctly.
  • the length of the brush Br is longer than the length of the finger F at the time of coating. If the finger F is of a type having a joint (link) L and a joint axis J as shown in the figure, the finger F is bent so as to open, and the brush tip of the brush Br is on the work Wk side of the finger F. The posture may be such that it protrudes.
  • the brush tip of the brush Br is configured to protrude toward the work Wk side from the finger F. As a result, it is possible to prevent the finger F from colliding with the work Wk during coating.
  • FIG. 9 is an enlarged view of the above-mentioned end effector 2.
  • a groove G is provided at the tip of the first finger F1 and the second finger F2, and the groove G receives the end portion of the work Wk so that the first finger F1 and the second finger F1 and the second finger are received. F2 grips the work Wk so as to sandwich it.
  • the width d of the groove G may be about the same as the thickness of the substrate which is the work Wk, but the width d of the groove G may be larger than the thickness of the substrate.
  • the width d of the groove G is larger than the thickness of the substrate, when the first finger F1 and the second finger F2 are gripped so as to sandwich the work Wk, some play occurs at the tip of each finger. That is, some rattling occurs when the end effector 2 is moved. This rattling absorbs the impact on the work Wk generated when the end effector 2 carries the work Wk. As a result, it is possible to avoid damage or failure of the work Wk.
  • first finger F1 and the second finger F2 each have a marker M.
  • the marker M may be, for example, a red lamp or the like, and by detecting the position of the marker M from the captured image captured by the camera CAM, the current shape of the end effector 2 (first finger F1 and second finger) It is possible to identify the degree of opening of F2, etc.) and the presence / absence of gripping the work Wk.
  • FIG. 10 is a diagram showing an arrangement example of the camera CAM, (a) a front view, and (b) a survey surface view.
  • the camera CAM is arranged at a position where the brush tip of the brush Br can be imaged. Further, the camera CAM is arranged at a position where the markers M provided on the first finger F1 and the second finger F2 of the end effector 2 can be imaged.
  • By arranging the camera CAM at such a position it is possible to simultaneously confirm the state of the brush tip of the brush Br and the state of the first finger F1 and the second finger F2 of the end effector 2 by using a captured image. it can.
  • the end effector 2 is in a state where a coating agent can be applied to the work Wk.
  • the camera CAM is attached so that the direction of the camera can be changed along the x-axis direction of the illustrated orthogonal coordinate system.
  • a conventional mounting method may be used. Let ⁇ be the mounting angle of the camera CAM in the x-axis direction. Further, the angle of view of the camera CAM in the x-axis direction is set to ⁇ 1 .
  • H the distance between the lens tip of the camera CAM and the marker M in the direction of the perpendicular line drawn from the center of the camera CAM along the z-axis of the illustrated orthogonal coordinate system.
  • L the distance from the marker M to the center of the camera CAM in the x-axis direction.
  • arctan (L / H).
  • the mounting angle alpha of the camera by setting such that ⁇ 1/2 + ⁇ > ⁇ , so that the marker M is within the field angle of the camera CAM.
  • the angle of view of the camera CAM in the y-axis direction is ⁇ 2 .
  • the value of ⁇ 2 may be set so that both the marker M included in the first finger F1 and the marker M included in the second finger F2 are within the angle of view ⁇ 2 of the camera CAM.
  • the angle of view ⁇ 2 of the camera CAM may be determined in consideration of the mounting angle of the camera CAM.
  • the camera CAM is attached to the end effector 2. That is, when the end effector 2 is moved by the robot arm 1, the camera CAM also moves following it.
  • the relative position of the camera CAM with respect to the brush Br and the marker M is fixed, which is preferable because image processing and calculation processing based on the image captured by the camera CAM are reduced.
  • the camera CAM may be at a position where the brush tip of the brush Br and the marker M can be imaged at the same time. Therefore, the camera CAM does not have to be attached to the end effector 2.
  • the camera CAM may be mounted on the ceiling of a factory or the like.
  • FIG. 11 is a block diagram showing a hardware configuration example of the control device 100.
  • the control device 100 is connected to the end effector 2 and controls the end effector 2.
  • the control device 100 may be connected to the robot arm 1 and the end effector 2 to control the robot arm 1 and the end effector 2.
  • the control device 100 includes a processor 101, a memory 102, an input device 103, an image acquisition unit 104, an end effector connection unit 105, a communication device 106, and an input / output interface 107.
  • the memory 102, the input device 103, the image acquisition unit 104, the end effector connection unit 105, the communication device 106, and the input / output interface 107 are each connected to the processor 101 by an internal bus or the like so that data or information can be input and output. To.
  • the processor 101 is configured by using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array).
  • the processor 101 functions as a control unit of the control device 100, and controls processing for overall control of the operation of each part of the control device 100, data or information input / output processing with and from each part of the control device 100, and data. And store data or information.
  • the processor 101 also functions as a control unit that controls the end effector 2.
  • the memory 102 may include an HDD, a ROM, a RAM, etc., and stores various programs (OS, application software, etc.) and various data executed by the processor 101. Further, the memory 102 may store data indicating the shape of the brush tip of the brush Br, which will be described later.
  • the input device 103 may include a keyboard, a mouse, etc., has a function as a human interface with the user, and inputs the user's operation. In other words, the input device 103 is used for input or instruction in various processes executed by the control device 100.
  • the input device 103 may be a programming pendant connected to the control device 100.
  • the image acquisition unit 104 can be connected to the camera CAM via a wire or wirelessly, and acquires an image captured by the camera CAM.
  • the control device 100 can appropriately perform image processing on the image acquired by the image acquisition unit 104.
  • the main body of this image processing may be the processor 101.
  • the control device 100 may further include an image processing unit (not shown), and the image processing unit may be connected to the control device 100. Image processing can be performed by this image processing unit under the control of the processor 101.
  • the end effector connection portion 105 is a component that secures the connection with the end effector 2, and the control device 100 and the end effector 2 (and the robot arm 1) are connected via the end effector connection portion 105.
  • This connection may be a wired connection using a connector, a cable, or the like, but may be a wireless connection.
  • the end effector connection unit 105 acquires identification information for identifying the end effector 2 from the end effector 2. That is, the end effector connection unit 105 functions as an identification information acquisition unit. The identification information may be further acquired by the processor 101 from the end effector connection unit 105. With this identification information, it is possible to identify the type of the connected end effector 2.
  • the communication device 106 is a component for communicating with the outside via a network. Note that this communication may be wired communication or wireless communication.
  • the input / output interface 107 has a function as an interface for inputting / outputting data or information between the control devices 100.
  • control device 100 is an example, and it is not always necessary to include all the above components.
  • control device 100 may further include additional components.
  • the box-shaped control device 100 may have wheels, and the robot arm 1 and the end effector 2 may be mounted on the control device 100 to self-propell. In this case, the rail R as shown in FIGS. 1 to 4 becomes unnecessary.
  • FIG. 12 is a flowchart showing a coating process based on the control by the control device 100.
  • this flowchart shows the processing process for one work Wk.
  • a plurality of work Wk may be sequentially applied according to the same flow.
  • the robot device 500 sets the work Wk on the mounting portion T1 of the work table T (step St101). More specifically, the robot device 500 controlled by the processor 101 grips the work Wk arranged on the stock shelf for storage or the like by the first finger F1 and the second finger F2, moves the work Wk, and moves the work table. The work Wk is placed on the mounting portion T1 of T.
  • the end effector 2 applies a coating agent to the work Wk (step St102). This coating is performed by the brush Br included in the end effector 2.
  • the processor 101 determines whether or not the coating is successful based on the captured image captured by the camera CAM (step St103).
  • the camera CAM captures at least the tip of the brush Br. This imaging may be performed at predetermined time intervals, or may be performed continuously.
  • the captured image is acquired via the image acquisition unit 104, and the determination process is performed by the processor 101. A specific example of this determination process will be described later based on FIGS. 13 and later.
  • step St103 coating OK
  • the robot device 500 removes the work Wk from the mounting portion T1 of the work table T under the control of the processor 101 (step St104). The removed work Wk is transferred to the next work process by the robot device 500.
  • step St103 coating NG
  • the processor 101 determines whether or not the number of coatings to the work Wk during the coating operation exceeds a predetermined number of times (N).
  • step St105 Yes
  • the processor 101 detects an abnormality (step St106).
  • the abnormality may be notified to the outside of the control device 100 by using a notification means (alarm, fluorescent lamp, etc.) (not shown).
  • step St106 When an abnormality is detected (step St106), the process transitions to step St104, in which the work Wk is removed from the mounting portion T1 of the workbench T. However, since the work Wk in which the abnormality is detected has failed to be applied, the removed work Wk is not transferred to the next work process, and is reused or discarded after repair.
  • step St105 If the number of coatings does not exceed the predetermined number (N) in step St105 (step St105: No), the process returns to step St102 and recoating (repainting) is performed on the work Wk.
  • recoating may be performed under conditions different from the coating conditions in the previous coating.
  • the previous coating means changing the coating direction from the vertical direction (x-axis direction) to the horizontal direction (y-axis direction), making the coating location (coordinates) different from the previous coating, and the like.
  • the work Wk for which application has been completed may be inspected.
  • the coating agent applied to the work Wk may contain a dye or the like that shines with black light.
  • a black light not shown
  • This inspection may be performed before or after the work Wk is removed from the mounting portion T1 of the work table T (step St104).
  • the camera CAM images the brush tip of the brush Br. Based on this captured image, the processor 101 determines the success / failure of coating. More specifically, the processor 101 determines the success / failure of coating based on the shape of the brush tip of the brush Br imaged by the camera CAM.
  • FIG. 13 is a view showing a state in which the brush tip of the brush Br is not in contact with the work Wk (a state in which the brush is not applied), and is reflected in (a) front view, (b) side view, and (c) captured image. It is a figure which shows the shape of the brush tip of the brush Br.
  • the shape of the brush tip of the brush Br reflected in the captured image shows the shape in the initial state without deformation (hereinafter referred to as the initial shape).
  • the initial shape of the brush tip of the brush Br used by the end effector 2 can be various, but in the example of FIG. 13 (c), it is illustrated as being substantially rectangular. Data indicating the shape of the brush tip in this initial state may be stored in the memory 102 or the like of the control device 100.
  • FIG. 14 is a view showing a state in which the work Wk is coated in the downward direction (+ x direction) of the captured image. c) The first figure showing the shape of the brush tip of the brush Br reflected in the captured image, and (d) the second figure showing the shape of the brush tip of the brush Br reflected in the captured image.
  • the vertical direction (x-axis direction) and the horizontal direction (y-axis direction) indicate the vertical and horizontal directions in the captured image captured by the camera CAM.
  • the shape of the brush tip of the brush Br reflected in the captured image is a substantially rectangular shape that is longer than the initial shape. That is, the shape of the brush tip of the brush Br is deformed so as to be recognizable on the captured image. Therefore, the processor 101 determines that the coating is successful when the tip of the brush tip is deformed, as shown in (c) and (d) of FIG. 14 (step St103: coating OK). .. On the contrary, when it is not possible to detect from the captured image that the tip of the brush tip is deformed, the processor 101 determines that the coating has failed (step St103: coating NG).
  • the broken line shown in FIG. 14D indicates the position of the tip of the brush tip in the initial shape. If it can be detected from the captured image that the tip of the brush tip protrudes upward from the broken line portion of the captured image, it is determined that the coating is successful (step St103: coating OK). This is because the tip of the brush tip of the brush Br naturally moves upward in the captured image because the brush is applied by moving the brush downward in the captured image.
  • the processor 101 may acquire data indicating the initial shape of the brush tip of the brush Br stored in the memory 102 and compare it with the initial shape to make the above determination.
  • FIG. 15 is a view showing a state in which the work Wk is coated in the upward direction ( ⁇ x direction) of the captured image, (a) front view, (b) side view, and (c). It is the first figure which shows the shape of the brush tip of the brush Br reflected in the captured image, and (d) is the 2nd figure which shows the shape of the brush tip of the brush Br reflected in the captured image.
  • the shape of the brush tip of the brush Br reflected in the captured image is a substantially rectangular shape shorter in the vertical direction than the initial shape. That is, the shape of the brush tip of the brush Br is deformed so as to be recognizable on the captured image. Therefore, the processor 101 determines that the coating is successful when the tip of the brush tip is deformed, as shown in (c) and (d) of FIG. 15 (step St103: coating OK). .. On the contrary, when it is not possible to detect from the captured image that the tip of the brush tip is deformed, the processor 101 determines that the coating has failed (step St103: coating NG).
  • the broken line shown in FIG. 15D indicates the position of the tip of the brush tip in the initial shape.
  • step St103 coating OK
  • the processor 101 may acquire data indicating the initial shape of the brush tip of the brush Br stored in the memory 102 and compare it with the initial shape to make the above determination.
  • FIG. 16 is a view showing a state in which the work Wk is coated in the left direction (+ y direction) of the captured image, and is (a) front view, (b) side view, and (c) imaging. It is the first figure which shows the shape of the brush tip of the brush Br reflected in the image, and (d) is the 2nd figure which shows the shape of the brush tip of the brush Br reflected in the captured image.
  • the shape of the brush tip of the brush Br reflected in the captured image is such that the tip of the hair is shifted to the right side as compared with the initial shape. That is, the shape of the brush Br is deformed so as to be recognizable on the image. Therefore, the processor 101 determines that the coating is successful when the tip of the brush tip is deformed, as shown in (c) and (d) of FIG. 16 (step St103: coating OK). .. In the example of FIG. 16, the movement of the tip of the brush tip to the right in the captured image is detected. On the contrary, when it is not possible to detect from the captured image that the tip of the brush tip is deformed, the processor 101 determines that the coating has failed (step St103: coating NG).
  • the broken line shown in FIG. 16D indicates the position of the tip of the brush tip in the initial shape.
  • step St103 coating OK
  • the processor 101 may acquire data indicating the initial shape of the brush tip of the brush Br stored in the memory 102 and compare it with the initial shape to make the above determination.
  • FIG. 17 is a view showing a state in which the work Wk is coated in the right direction ( ⁇ y direction) of the captured image, (a) front view, (b) side view, and (c). It is the first figure which shows the shape of the brush tip of the brush Br reflected in the captured image, and (d) is the 2nd figure which shows the shape of the brush tip of the brush Br reflected in the captured image.
  • the shape of the brush tip of the brush Br reflected in the captured image has a shape in which the tip of the brush tip is shifted to the left side as compared with the initial shape. That is, the shape of the brush Br is deformed so as to be recognizable on the image. Therefore, the processor 101 determines that the coating is successful (step St103: coating OK) when the tip of the brush tip is deformed, for example, as shown in FIGS. 17C and 17D. In the example of FIG. 17, the movement of the tip of the brush tip to the left in the captured image is detected. On the contrary, when it is not possible to detect from the captured image that the tip of the brush tip is deformed, the processor 101 determines that the coating has failed (step St103: coating NG).
  • the broken line shown in FIG. 17D indicates the position of the tip of the brush tip in the initial shape.
  • step St103 coating OK
  • the processor 101 may acquire data indicating the initial shape of the brush tip of the brush Br stored in the memory 102 and compare it with the initial shape to make the above determination.
  • FIG. 18 summarizes these.
  • the shape of the brush tip of the brush Br shown in the central portion of FIG. 18 is the initial shape of the brush tip.
  • the initial shape if it is applied downward, it is applied upward of the captured image, if it is applied upward, it is applied downward of the captured image, if it is applied rightward, it is applied leftward of the captured image, and it is applied leftward. If so, the tip of the brush tip moves and deforms to the right of the captured image. This movement and deformation are detected by the camera CAM.
  • the success / failure determination of coating when the coating is performed in the vertical and horizontal directions of the captured image has been described above, but the coating has been directed in the diagonal direction, for example, in the upper right direction and the lower right direction of the captured image. It is also conceivable to apply. Even in such a case, the success / failure of coating can be determined by detecting the shape change of the brush tip based on the image captured by the camera CAM. For example, when the coating is applied toward the upper right of the captured image, the tip of the brush tip is deformed so as to move in the lower left direction, and this deformation can be detected based on the captured image. In this case, the movement of the tip of the brush tip to the left and downward may be detected from the captured image. When coating is performed in another diagonal direction, success / failure determination of coating can be performed in the same manner.
  • FIG. 19 is a view showing the end effector 2, which is (a) a front view, (b) a plan view, and (c) a side view.
  • the finger F may be provided with a marker M.
  • the camera CAM is arranged at a position where both the brush tip of the brush Br and the marker M of the finger F are reflected (both are within the angle of view). As a result, the camera CAM can simultaneously image the brush tip of the brush Br and the marker M.
  • the support member is a member other than the finger F, the support member may be provided with a marker, or the support member itself may be configured so that some characteristic shape or pattern appears. Markers (including characteristic shapes and patterns) can be imaged at the same time.
  • the camera CAM and the finger F of the end effector 2 when viewed from the brush Br. Is not on the same side.
  • a coating agent is applied to the work Wk shown in FIG. 10A.
  • Each member is arranged in the order of the camera CAM, the brush Br, and the finger F in the x-axis direction in the state where the coating can be applied.
  • the brush Br when viewed from the camera CAM is arranged at a position closer than the first finger F1 and the second finger F2 when viewed from the camera CAM. ..
  • the brush tip of the brush Br reflected in the captured image can be imaged with higher accuracy, so that the determination accuracy for determining whether or not the coating is successful (step St103) is improved.
  • the relative positional relationship between the camera CAM, the brush Br, and the marker M may be different from the above.
  • the positional relationship can be set so that the camera CAM and the brush Br are not on the same side when viewed from the marker M.
  • each member is arranged in the order of camera CAM, marker M, and brush Br.
  • the marker M is arranged in the order of camera CAM, marker M, and brush Br.
  • the brush tip of the brush Br projects toward the work Wk side from the support member (Finger F, etc.). As a result, it is possible to prevent the support member from colliding with the work Wk or the like during coating.
  • the camera CAM and the support member are not on the same side as seen from the brush Br.
  • the brush Br when viewed from the camera CAM is arranged at a position closer than the support members (first finger F1, second finger F2, etc.) when viewed from the camera CAM.
  • the brush Br in the captured image can be imaged with higher accuracy, so that the determination accuracy for determining whether or not the coating is successful is improved.
  • control device 100 that controls the end effector 2 is provided with a control unit (processor 101), and the control unit is a brush in the captured image captured by the camera CAM when the work Wk is coated with the brush Br.
  • the control unit is a brush in the captured image captured by the camera CAM when the work Wk is coated with the brush Br.
  • This disclosure is useful as an end effector including a camera, a support member, and a brush.
  • Robot arm 2 End effector 100 Control device 101
  • Processor 102 Memory 103
  • Input device 104 Image acquisition unit 105
  • End effector connection unit 106 Communication device 107
  • Input / output interface 500 Robot device Br Brush CAM camera
  • F finger (support member) F1 1st finger F2 2nd finger G groove J joint axis L joint (link)

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

ロボットアームに接続可能なエンドエフェクタが、カメラと、マーカを有し、ワークを支持可能な支持部材と、前記ワークに塗布を行う筆とを備える。前記カメラが、前記筆の筆先と前記マーカとを同時に撮像可能な位置に配置される。

Description

エンドエフェクタおよびエンドエフェクタの制御装置
 本開示は、エンドエフェクタおよびエンドエフェクタの制御装置に関する。
 特許文献1には、人の腕の動きを再現可能な多自由度多関節ロボットアームを有するスレーブ機構部と、筆記者がワークに対して行う文字の筆記または図画の描画を含む筆記動作を認識し、前記多自由度多関節ロボットアームに前記筆記動作を再現可能に教示するマスター機構部と、前記スレーブ機構部及び前記マスター機構部に接続され、前記マスター機構部によって認識された前記筆記動作を演算処理し、前記スレーブ機構部の前記多自由度多関節ロボットアームを制御するコントローラと、を具備するロボット教示システムが記載されている。前記マスター機構部は、前記筆記者が把持し、前記ワークに前記筆記動作を行うための筆記具に取設され、前記筆記動作に応じて逐次変化する前記筆記具の三次元位置及び姿勢を検出し、筆記情報として取得する筆記情報取得手段と、前記筆記動作が行われる際の前記ワークの傾き角度及び回転角度を検出し、前記筆記情報と時系列を対応させたワーク情報として取得するワーク情報取得手段と、取得した前記筆記情報及び前記ワーク情報を前記コントローラに対して送出する筆記ワーク情報送出手段とを有する。前記コントローラは、前記マスター機構部から送出される前記筆記情報及び前記ワーク情報を受付ける筆記ワーク情報受付手段と、受付けた前記筆記情報に基づいて、前記多自由度多関節ロボットアームに前記筆記動作を再現させる筆記制御データを演算処理し、前記スレーブ機構部に送出する筆記制御データ送出手段と、受付けた前記ワーク情報に基づいて、前記多自由度多関節ロボットアームによって再現される前記筆記動作の際に使用されるスレーブ側ワークの動きを制御するワーク制御データを演算処理し、前記スレーブ機構部に送出するワーク制御データ送出手段とを有する。前記スレーブ機構部は、前記コントローラから送出された前記筆記制御データを受付ける筆記制御データ受付手段と、受付けた前記筆記制御データに基づいて制御され、一端に前記筆記動作を再現するためのスレーブ側筆記具が取設された前記多自由度多関節ロボットアームと、前記コントローラから送出された前記ワーク制御データを受付けるワーク制御データ受付手段と、受付けた前記ワーク制御データに基づいて制御され、前記筆記動作の際の前記ワークの変化に応じて前記スレーブ側ワークの傾き角度及び回転角度を変化させるワーク駆動部とを有する。
特開2006-62052号公報
 本開示は、ロボットアームに接続可能なエンドエフェクタであって、カメラと、支持部材と、筆とを備えたエンドエフェクタを提供することを目的とする。
 本開示は、ロボットアームに接続可能なエンドエフェクタであって、カメラと、マーカを有し、ワークを支持可能な支持部材と、ワークに塗布を行う筆とを備え、カメラが、筆の筆先とマーカとを同時に撮像可能な位置に配置される、エンドエフェクタを提供する。
 本開示によれば、ロボットアームに接続可能なエンドエフェクタであって、カメラと、支持部材と、筆とを備えたエンドエフェクタを提供することができる。
エンドエフェクタ2がワークWkを把持している把持状態を示す斜視図 エンドエフェクタ2がワークWkを把持している把持状態を示す側面図 エンドエフェクタ2がワークWkを把持している把持状態を示す正面図 エンドエフェクタ2がワークWkを把持している把持状態を示す平面図 エンドエフェクタ2が備える筆Brによって、ワークWkの表面に防湿剤等のコーティング剤を塗布する塗布時の状態を示す斜視図 エンドエフェクタ2が備える筆Brによって、ワークWkの表面に防湿剤等のコーティング剤を塗布する塗布時の状態を示す側面図 エンドエフェクタ2が備える筆Brによって、ワークWkの表面に防湿剤等のコーティング剤を塗布する塗布時の状態を示す正面図 エンドエフェクタ2が備える筆Brによって、ワークWkの表面に防湿剤等のコーティング剤を塗布する塗布時の状態を示す平面図 エンドエフェクタ2の拡大図 カメラCAMの配置例を示す図であり、(a)正面図、(b)側面図 制御装置100のハードウェア構成例を示すブロック図 制御装置100による制御に基づいた、塗布工程を示すフローチャート ワークWkに筆Brの筆先が接していない状態(塗布していない状態)を示す図であり、(a)正面図、(b)側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す図 ワークWkに対して、撮像画像の下方向に向けて塗布を行っている状態を示す図であり、(a)正面図、(b)正側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す第1の図、(d)撮像画像に写りこんだ筆Brの筆先の形状を示す第2の図 ワークWkに対して、撮像画像の上方向に向けて塗布を行っている状態を示す図であり、(a)正面図、(b)側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す第1の図、(d)撮像画像に写りこんだ筆Brの筆先の形状を示す第2の図 ワークWkに対して、撮像画像の左方向に向けて塗布を行っている状態を示す図であり、(a)正面図、(b)側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す第1の図、(d)撮像画像に写りこんだ筆Brの筆先の形状を示す第2の図 ワークWkに対して、撮像画像の右方向に向けて塗布を行っている状態を示す図であり、(a)正面図、(b)側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す第1の図、(d)撮像画像に写りこんだ筆Brの筆先の形状を示す第2の図 図14から図17のまとめ図 エンドエフェクタ2を示す図であり、(a)正面図、(b)平面図、(c)側面図
 (本開示に至る経緯)
 工場等で用いられるロボット装置は、ロボットアームにエンドエフェクタを取り付けることで、種々の作業を行うことができる。例えば、エンドエフェクタとしてロボットハンドを用いて、工場の生産ライン上を流れる部品をピッキングする、等の作業である。このロボットアームおよびエンドエフェクタは、ロボットアームに接続された制御装置(コントローラ)によって制御される。
 エンドエフェクタの種類としては、フィンガを有するものや、いわゆるソフトハンドのようにハンドの先端が変形可能であるもの等があり、これらがワークを支持する。すなわち、ワークを支持する支持部材として、フィンガやソフトハンド等がある。また、筆状のエンドエフェクタも存在する。筆状のエンドエフェクタは、例えば車両に用いられる基板等のワークに、防湿剤等のコーティング剤を塗布することを可能にする。この塗布により、ワークの劣化や湿気などを防ぐ。なお、防湿剤はコーティング剤の一例であり、コーティング剤には他にも、絶縁性を確保するための絶縁剤、塵を防ぐ防塵剤、虫害を防ぐ防虫剤、振動に対する耐性を持たせるための耐振動剤などが含まれる。
 従来、基板に対する自動コーティングを行うための装置は、基板に対してコーティング剤を噴射するスプレータイプのものが多かった。基板に対して噴霧によってコーティングを行う場合、基板の端部にはマスキングが必要となる。また、基板には通常、電子部品が取付けられており、基板上に凹凸があるので、凹凸によって生じる側面部の塗布ができないという問題があった。
 そこで本開示においては、筆を備えたエンドエフェクタによってコーティング剤の塗布を行う。そして、塗布を行っている筆の筆先形状を、カメラによって撮像し、撮像された画像に基づいて、前述の塗布が適切に行われているか否かをチェックする。
 上記の構成により、マスキングを行わなくとも基板の端部に塗布を行うことができる。また、基板上に凹凸があっても、側面部の塗布をムラなく行うことができる。以下、このような利点を有する本開示のエンドエフェクタについて説明する。また、本開示のエンドエフェクタを制御する制御装置についても説明する。
 (エンドエフェクタ2による塗布作業例:把持状態)
 まず、本開示のエンドエフェクタ2を用いて、ワークWkに対して防湿剤等のコーティング剤の塗布を行う作業例について説明する。以下の説明においては、ワークWkを支持する支持部材は、フィンガであるという前提で説明を行う。ただし、本開示の範囲をフィンガに限定しようとする意図はなく、支持部材はソフトハンド等の、フィンガ以外の各種の部材を含んでいてよい。なお、ワークWkは、車両用の基板などであってよい。図1~図4は、エンドエフェクタ2がワークWkを把持している把持状態を示す図である。図1は斜視図であり、図2は側面図であり、図3は正面図であり、図4は平面図である。
 ここで、理解を容易とするため、各図に示すように、x軸、y軸、z軸からなる直交座標系が規定される。z軸は、x軸およびy軸に対して垂直であり、高さ方向に延びる。また、各軸の正の方向は、図1における矢印の方向に規定され、負の方向は、矢印と逆向きの方向に規定される。
 図1に示されたロボット装置500はロボットアーム1を備えており、ロボットアーム1がレールRにスライド可能に取り付けられている。ただし、レールRが用いられずに、ロボットアーム1が作業台Tに対して直接固定されていてもよい。図示した例においては、ロボットアーム1は多関節タイプのものであり、複数の関節(リンク)Lを備えている。この各関節(リンク)Lが関節軸Jを介して接続されている。
 ロボットアーム1には、エンドエフェクタ2が接続されている。各関節(リンク)Lは各関節軸Jを中心として回転するので、ロボットアーム1は、エンドエフェクタ2が把持したワークWkの位置や角度を自在に変えることができる。
 エンドエフェクタ2は、ワークWkを支持可能なフィンガFと、筆Brとを備えており、本例においては、フィンガFは第1フィンガF1と第2フィンガF2の2本のフィンガを備えている。ただし、フィンガの本数は2本には限られず、ワークWkを支持できるものであればよい。
 各図、特に図3に示したように、フィンガFと筆Brとは、略平行に配置されていてよいが、フィンガFと筆Brとを、略平行でないように配置してもよい。また、図1~図4に見られるように、フィンガFは、2本の第1フィンガF1および第2フィンガF2の先端部分でワークWkを挟み込むようにして把持している。このワークWkは、作業前には図示を省略するストック棚等に収納されている。ロボットアーム1に接続されたエンドエフェクタ2がワークWkを把持して、作業台Tに設けられた載置部T1の上にワークWkを置く。
 ワークWkが基板などのような薄い平面状のものである場合、図2に示されているように、第1フィンガF1および第2フィンガF2がそれぞれ備える溝GでこのワークWkの端部を受け入れるようして把持する。ワークWkを把持した状態の第1フィンガF1および第2フィンガF2の位置を、フィンガFの把持位置とする。
 また、エンドエフェクタ2はカメラCAMを備えている。図示した例においては、カメラCAMは2つのレンズを備えているが、レンズの数は2つ以外であってもよい。このカメラCAMの用途および配置については後述する。
 (エンドエフェクタ2による塗布作業例:塗布時)
 図5~図8は、エンドエフェクタ2が備える筆Brによって、ワークWkの表面に防湿剤等のコーティング剤を塗布する塗布時の状態を示す図である。図5は斜視図であり、図6は側面図であり、図7は正面図であり、図8は平面図である。
 ロボットアーム1およびエンドエフェクタ2の基本構成は、図1から図4に基づいて上述した通りであるので説明を省略し、塗布時における筆Brを撮像するカメラCAMについて説明する。図5~図8に示したように、エンドエフェクタ2は、ワークWkを作業台T上に載置した後、コーティング剤の入った容器Cの孔C1に、筆Brの先端をつける。容器Cにはコーティング剤が入っているため、筆Brの先端部にはコーティング剤が付着する。その状態で、エンドエフェクタ2が備える筆Brが基板であるワークWkの上をなぞるように移動することで、コーティング剤をワークWkの表面に塗布する。なお、このコーティング剤には、ブラックライトで光る染料等が混入していてもよい。塗布作業が終了したワークWkに図示を省略するブラックライトを当てることで、塗布の漏れ部分を特定することもできる。
 エンドエフェクタ2は、カメラCAMを備えている。カメラCAMは、ワークWkに対して塗布を行っている最中(塗布時)の筆Brの筆先を撮像する。この撮像画像は、塗布が正しく行われているか否かの確認に用いられる。なお、塗布時にフィンガFがワークWk等と衝突することを避けるために、筆Brの長さは、塗布時におけるフィンガFの長さよりも長いと好適である。なお、フィンガFが図示したように関節(リンク)Lと関節軸Jとを備えるタイプのものである場合は、フィンガFを開くように折り曲げて、筆Brの筆先がフィンガFよりもワークWk側に突出するような姿勢にしてもよい。すなわち、ワークWkに対する筆Brによる塗布を行う塗布時において、筆Brの筆先が、フィンガFよりもワークWk側に突出するように構成する。これにより、塗布時にフィンガFがワークWkと衝突することを回避できる。
 (エンドエフェクタ2の拡大図)
 図9は、上述のエンドエフェクタ2の拡大図である。図示したように、第1フィンガF1および第2フィンガF2の先端部には溝Gが設けられており、この溝GがワークWkの端部を受け入れるようにして、第1フィンガF1および第2フィンガF2がワークWkを挟み込むように把持する。この溝Gの幅dは、ワークWkである基板の厚みと同程度であってよいが、基板の厚みよりも溝Gの幅dが大きくても良い。基板の厚みよりも溝Gの幅dが大きければ、第1フィンガF1および第2フィンガF2がワークWkを挟むように把持した時に、各フィンガの先端部に多少のあそびが発生する。すなわち、エンドエフェクタ2を移動させた時に多少のガタつきが発生する。このガタつきが、エンドエフェクタ2がワークWkを運ぶ際に生じるワークWkに対する衝撃を吸収する。その結果、ワークWkの破損や故障を回避することができる。
 また、第1フィンガF1および第2フィンガF2はそれぞれ、マーカMを備えている。マーカMは、例えば赤色のランプ等であってよく、カメラCAMで撮像した撮像画像から、このマーカMの位置を検出することにより、エンドエフェクタ2の現在の形状(第1フィンガF1および第2フィンガF2の開き具合等)やワークWkの把持の有無を識別することができる。
 (カメラの配置)
 図10は、カメラCAMの配置例を示す図であり、(a)正面図、(b)測面図である。カメラCAMは、筆Brの筆先を撮像可能な位置に配置される。また、カメラCAMは、エンドエフェクタ2の第1フィンガF1および第2フィンガF2に設けられたマーカMを撮像可能な位置に配置される。このような位置にカメラCAMが配置されることにより、筆Brの筆先の状態と、エンドエフェクタ2の第1フィンガF1および第2フィンガF2の状態とを同時に、撮像画像を用いて確認することができる。
 図10の(a)において、エンドエフェクタ2は、ワークWkに対してコーティング剤を塗布できる状態にある。この状態においてカメラCAMは、図示した直交座標系のx軸方向に沿ってカメラの向きを変更可能なように取り付けられている。この取り付け方法については、従来の取り付け方法を用いてよい。x軸方向における、カメラCAMの取り付け角度をαとする。また、x軸方向における、カメラCAMの画角をθとする。
 また、図示した直交座標系のz軸に沿ってカメラCAMの中心から降ろした垂線方向についての、カメラCAMのレンズ先端部とマーカMまでの距離をHとする。x軸方向についての、マーカMからカメラCAMの中心までの距離をLとする。また、β=arctan(L/H)とする。
 この時、カメラの取り付け角度αを、θ/2+α>βとなるように設定することによって、マーカMがカメラCAMの画角内に収まることになる。
 図10の(b)においては、カメラCAMについての、y軸方向における画角をθとする。この時、第1フィンガF1が備えるマーカMと、第2フィンガF2が備えるマーカMとが両方とも、カメラCAMの画角θ内に収まるように、θの値を設定してよい。なお、図10の(a)と同様に、カメラCAMの取り付け角度を考慮して、カメラCAMの画角θを決定してもよい。
 ここで、図示した例においては、カメラCAMはエンドエフェクタ2に取付けられている。すなわち、ロボットアーム1によってエンドエフェクタ2が移動されると、カメラCAMも追随して移動する。前記構成により、筆BrおよびマーカMに対するカメラCAMの相対位置が固定されるので、カメラCAMが撮像した画像に基づいた画像処理や計算処理が減るので好適である。しかし、カメラCAMは、筆Brの筆先およびマーカMを同時に撮像可能な位置にあればよい。そのため、カメラCAMはエンドエフェクタ2に取り付けられていなくともよい。例えば、カメラCAMは工場の天井等に取付けられていてもよい。
 (制御装置100の構成)
 次に、本開示のエンドエフェクタ2を制御する制御装置100の例について説明する。図11は、制御装置100のハードウェア構成例を示すブロック図である。制御装置100は、エンドエフェクタ2と接続され、エンドエフェクタ2を制御する。なお、制御装置100は、ロボットアーム1およびエンドエフェクタ2と接続され、ロボットアーム1およびエンドエフェクタ2を制御しても良い。
 制御装置100は、プロセッサ101と、メモリ102と、入力装置103と、画像取得部104と、エンドエフェクタ接続部105と、通信装置106と、入出力インターフェース107とを含む構成である。メモリ102、入力装置103、画像取得部104、エンドエフェクタ接続部105、通信装置106、入出力インターフェース107は、それぞれプロセッサ101との間でデータもしくは情報の入出力が可能に内部バス等で接続される。
 プロセッサ101は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、あるいはFPGA(Field Programmable Gate Array)を用いて構成される。プロセッサ101は、制御装置100の制御部として機能し、制御装置100の各部の動作を全体的に統括するための制御処理、制御装置100の各部との間のデータもしくは情報の入出力処理、データの計算処理、およびデータもしくは情報の記憶処理を行う。また、プロセッサ101は、エンドエフェクタ2を制御する制御部としても機能する。
 メモリ102は、HDDやROM、RAM等を含んでいてよく、プロセッサ101によって実行される各種プログラム(OS、アプリケーションソフト等)や各種データを格納している。また、メモリ102は、後述の、筆Brの筆先の形状を示すデータを保存していてよい。
 入力装置103は、キーボードやマウス等を含んでいてよく、ユーザとの間のヒューマンインターフェースとしての機能を有し、ユーザの操作を入力する。言い換えると、入力装置103は、制御装置100により実行される各種の処理における、入力または指示に用いられる。なお、入力装置103は、制御装置100に接続されたプログラミングペンダントであってよい。
 画像取得部104は、カメラCAMと有線あるいは無線を介して接続可能であり、カメラCAMが撮像した画像を取得する。制御装置100は、画像取得部104が取得した画像に対し、画像処理を適宜行うことができる。この画像処理の主体は、プロセッサ101であってよい。また、制御装置100が、図示を省略する画像処理ユニットを更に備えてよく、該画像処理ユニットが制御装置100に接続される構成でもよい。プロセッサ101による制御の下、この画像処理ユニットによって、画像処理を行うことができる。
 エンドエフェクタ接続部105は、エンドエフェクタ2との接続を確保する構成要素であり、エンドエフェクタ接続部105を介して制御装置100とエンドエフェクタ2(およびロボットアーム1)とが接続される。この接続は、コネクタおよびケーブル等を用いた有線接続であってよいが、無線による接続であってもよい。この接続の際、エンドエフェクタ接続部105は、エンドエフェクタ2を識別する識別情報をエンドエフェクタ2から取得する。すなわち、エンドエフェクタ接続部105は、識別情報取得部として機能する。なお、識別情報を、プロセッサ101がエンドエフェクタ接続部105からさらに取得してよい。この識別情報によって、接続されたエンドエフェクタ2の種類を特定することが可能である。
 通信装置106は、ネットワークを介して外部と通信を行うための構成要素である。なお、この通信は有線通信であっても、無線通信であってもよい。
 入出力インターフェース107は、制御装置100の間でデータもしくは情報の入出力を行うインターフェースとしての機能を有する。
 なお、制御装置100の上記構成は一例であり、必ずしも上記の構成要素を全て備えていなくともよい。また、制御装置100は追加の構成要素をさらに備えていてもよい。例えば、箱型の制御装置100が車輪を有し、制御装置100の上にロボットアーム1およびエンドエフェクタ2を載せて自走してもよい。この場合、図1から図4に示したようなレールRは不要となる。
 (コーティング剤の塗布制御例)
 図12は、上記の制御装置100による制御に基づいた、塗布工程を示すフローチャートである。なお、このフローチャートは、1つのワークWkに対する処理工程を示している。しかし、複数のワークWkを、同様のフローに従って順次、塗布処理してよい。
 まず、プロセッサ101による制御の下、ロボット装置500がワークWkを作業台Tの載置部T1にセットする(ステップSt101)。より詳しくは、プロセッサ101によって制御されたロボット装置500は、保管用のストック棚等に配置されたワークWkを第1フィンガF1および第2フィンガF2によって把持し、ワークWkを移動させて、作業台Tの載置部T1にワークWkを載置する。
 次に、プロセッサ101による制御の下、エンドエフェクタ2が、ワークWkに対してコーティング剤の塗布を行う(ステップSt102)。この塗布は、エンドエフェクタ2が備える筆Brによって行われる。
 次に、プロセッサ101が、カメラCAMによって撮像された撮像画像に基づき、塗布が成功しているか否かを判定する(ステップSt103)。なお、カメラCAMは、少なくとも筆Brの筆先を撮像する。この撮像は、所定の時間経過ごとに行われて良く、連続的に行われてもよい。撮像された画像は、画像取得部104を介して取得され、プロセッサ101によって判定処理が行われる。この判定処理の具体例については、図13以降に基づき後述する。
 塗布が成功していると判定された場合(ステップSt103:塗布OK)、プロセッサ101による制御の下、ロボット装置500がワークWkを作業台Tの載置部T1から取り外す(ステップSt104)。取り外されたワークWkは、ロボット装置500によって、次の作業工程へと移送される。
 塗布が失敗していると判定された場合(ステップSt103:塗布NG)、プロセッサ101は、塗布作業中のワークWkに対する塗布回数が、所定の回数(N)を超えたか否かを判定する。塗布作業中のワークWkに対する塗布回数がN回を超えていた場合(ステップSt105:Yes)、プロセッサ101が異常を検知する(ステップSt106)。なお、異常を検知した際には、図示を省略する通知手段(アラーム、蛍光ランプ等)を用いて、制御装置100の外部に対して異常を通知してもよい。
 異常を検知した場合(ステップSt106)、ワークWkを作業台Tの載置部T1から取り外す、ステップSt104へと処理が遷移する。ただし、異常が検知されたワークWkは、塗布が失敗しているので、取り外されたワークWkは次の作業工程へは移送されず、修繕後、再利用または破棄等される。
 ステップSt105において、塗布回数が所定の回数(N)を超えていない場合(ステップSt105:No)は、ステップSt102へと戻って、ワークWkに対する再度の塗布(塗りなおし)を行う。なお、塗りなおしの際には、前回の塗布における塗布条件とは異なる条件で、再度の塗布を行ってもよい。例えば、前回の塗布とは塗布方向を縦方向(x軸方向)から横方向(y軸方向)に変える、塗布する箇所(座標)を前回とは異なるものにする、等である。
 また、塗布が終了したワークWkに対しては、検査を行ってもよい。上述のように、ワークWkに塗布するコーティング剤には、ブラックライトで光る染料等が混入していてもよい。塗布作業が終了したワークWkに図示を省略するブラックライトを当てることで、塗布の漏れ部分やムラが無いかどうかを検査することができる。この検査は、ワークWkを作業台Tの載置部T1から取り外す(ステップSt104)より前に行ってもよく、後に行ってもよい。
 (塗布の成功/失敗判定)
 次に、図13以降を参照し、前述のステップSt103における、塗布の成功/失敗を判定する具体例について説明する。前述の通り、カメラCAMは、筆Brの筆先を撮像している。この撮像画像に基づいて、プロセッサ101が塗布の成功/失敗を判定する。より特定的には、カメラCAMによって撮像された筆Brの筆先の形状に基づいて、プロセッサ101が塗布の成功/失敗を判定する。
 まず、図13は、ワークWkに筆Brの筆先が接していない状態(塗布していない状態)を示す図であり、(a)正面図、(b)側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す図である。
 図13の(a)および(b)に示すように、塗布が行われていない場合には、筆Brの筆先がワークWkに接していない。そのため、撮像画像に写りこんだ筆Brの筆先の形状は、変形の無い初期状態の形状(以下、初期形状)を呈している。なお、エンドエフェクタ2が用いる筆Brの筆先の初期形状は種々のものが考えられるが、図13の(c)の例においては、略長方形であるとして例示している。この初期状態における筆先の形状を示すデータが、制御装置100のメモリ102等に保存されてよい。
 次に、図14は、ワークWkに対して、撮像画像の下方向(+x方向)に向けて塗布を行っている状態を示す図であり、(a)正面図、(b)側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す第1の図、(d)撮像画像に写りこんだ筆Brの筆先の形状を示す第2の図である。なお、図14~図18において、上下方向(x軸方向)および左右方向(y軸方向)は、カメラCAMによって撮像された撮像画像における上下左右の各方向を示している。
 図14の(a)および(b)に示すように、撮像画像の下方向に向けて塗布を行っている場合、筆Brの筆先はワークWkに接触して変形する。この変形が、カメラCAMによる撮像画像に写りこむことになる。
 図14の(c)に示すように、撮像画像に写りこんだ筆Brの筆先の形状は、初期形状と比べて、より縦長の略長方形の形状を呈している。すなわち、筆Brの筆先の形状が、撮像画像上で認識可能なほどに変形している。そこで、プロセッサ101は、例えば図14の(c)、(d)に示すように、筆先の先端部が変形している場合に、塗布が成功していると判定する(ステップSt103:塗布OK)。反対に、筆先の先端部が変形していることを撮像画像から検知できない場合に、プロセッサ101は、塗布が失敗していると判定する(ステップSt103:塗布NG)。
 より具体的な判定例を説明する。図14の(d)に示した破線は、初期形状における筆先の先端部の位置を示している。この破線部から撮像画像の上方向に、筆先の先端部がはみ出ていることが、撮像画像から検知できる場合に、塗布が成功していると判定する(ステップSt103:塗布OK)。撮像画像における下方向に筆を動かして塗布しているので、筆Brの筆先の先端部は撮像画像における上方向に移動するのが自然だからである。なお、メモリ102に保存された、筆Brの筆先の初期形状を示すデータをプロセッサ101が取得し、この初期形状との比較を行うことにより、上記の判定を行ってよい。
 図15は、ワークWkに対して、撮像画像の上方向(-x方向)に向けて塗布を行っている状態を示す図であり、(a)正面図、(b)側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す第1の図、(d)撮像画像に写りこんだ筆Brの筆先の形状を示す第2の図である。
 図15の(a)および図15(b)に示すように、撮像画像の上方向に向けて塗布を行っている場合、筆Brの筆先はワークWkに接触して変形する。この変形が、カメラCAMによる撮像画像に写りこむことになる。
 図15の(c)に示すように、撮像画像に写りこんだ筆Brの筆先の形状は、初期形状と比べて、上下方向により短い略長方形の形状を呈している。すなわち、筆Brの筆先の形状が、撮像画像上で認識可能なほどに変形している。そこで、プロセッサ101は、例えば図15の(c)、(d)に示すように、筆先の先端部が変形している場合に、塗布が成功していると判定する(ステップSt103:塗布OK)。反対に、筆先の先端部が変形していることを撮像画像から検知できない場合に、プロセッサ101は、塗布が失敗していると判定する(ステップSt103:塗布NG)。
 より具体的な判定例を説明する。図15の(d)に示した破線は、初期形状における筆先の先端部の位置を示している。この破線部よりも撮像画像の下方向へと、筆先の先端部が引き込まれていることが、撮像画像から検知できる場合に、塗布が成功していると判定する(ステップSt103:塗布OK)。撮像画像における上方向に筆を動かして塗布しているので、筆Brの筆先の先端部は撮像画像における下方向に移動するのが自然だからである。なお、メモリ102に保存された、筆Brの筆先の初期形状を示すデータをプロセッサ101が取得し、この初期形状との比較を行うことにより、上記の判定を行ってよい。
 図16は、ワークWkに対して、撮像画像の左方向(+y方向)に向けて塗布を行っている状態を示す図であり、(a)正面図、(b)側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す第1の図、(d)撮像画像に写りこんだ筆Brの筆先の形状を示す第2の図である。
 図16の(a)および(b)に示すように、カメラCAMの左方向に向けて塗布を行っている場合、筆Brの筆先はワークWkに接触して変形する。この変形が、カメラCAMによる撮像画像に写りこむことになる。
 図16の(c)に示すように、撮像画像に写りこんだ筆Brの筆先の形状は、初期形状と比べて、毛先が右側にずれたような形状を呈している。すなわち、筆Brの形状が、画像上で認識可能なほどに変形している。そこで、プロセッサ101は、例えば図16の(c)、(d)に示すように、筆先の先端部が変形している場合に、塗布が成功していると判定する(ステップSt103:塗布OK)。図16の例においては、撮像画像における右方向への筆先の先端部の移動を検知した場合である。反対に、筆先の先端部が変形していることを撮像画像から検知できない場合に、プロセッサ101は、塗布が失敗していると判定する(ステップSt103:塗布NG)。
 より具体的な判定例を説明する。図16の(d)に示した破線は、初期形状における筆先の先端部の位置を示している。この破線部よりも撮像画像の右方向へと、筆先の先端部が引き込まれていることが、撮像画像から検知できる場合に、塗布が成功していると判定する(ステップSt103:塗布OK)。撮像画像における左方向に筆を動かして塗布しているので、筆Brの筆先の先端は撮像画像における右方向に移動するのが自然だからである。なお、メモリ102に保存された、筆Brの筆先の初期形状を示すデータをプロセッサ101が取得し、この初期形状との比較を行うことにより、上記の判定を行ってよい。
 図17は、ワークWkに対して、撮像画像の右方向(-y方向)に向けて塗布を行っている状態を示す図であり、(a)正面図、(b)側面図、(c)撮像画像に写りこんだ筆Brの筆先の形状を示す第1の図、(d)撮像画像に写りこんだ筆Brの筆先の形状を示す第2の図である。
 図17の(a)および(b)に示すように、撮像画像の左方向に向けて塗布を行っている場合、筆Brの筆先はワークWkに接触して変形する。この変形が、カメラCAMによる撮像画像に写りこむことになる。
 図17の(c)に示すように、撮像画像に写りこんだ筆Brの筆先の形状は、初期形状と比べて、筆先の先端部が左側にずれた形状を呈している。すなわち、筆Brの形状が、画像上で認識可能なほどに変形している。そこで、プロセッサ101は、例えば図17(c)、(d)に示すように、筆先の先端部が変形している場合に、塗布が成功していると判定する(ステップSt103:塗布OK)。図17の例においては、撮像画像における左方向への筆先の先端部の移動を検知した場合である。反対に、筆先の先端部が変形していることを撮像画像から検知できない場合に、プロセッサ101は、塗布が失敗していると判定する(ステップSt103:塗布NG)。
 より具体的な判定例を説明する。図17の(d)に示した破線は、初期形状における筆先の先端部の位置を示している。この破線部よりも撮像画像の左方向へと、筆先の先端部が移動していることが、撮像画像から検知できる場合に、塗布が成功していると判定する(ステップSt103:塗布OK)。撮像画像における右方向に筆を動かして塗布しているので、筆Brの筆先の先端は撮像画像における左方向に移動するのが自然だからである。なお、メモリ102に保存された、筆Brの筆先の初期形状を示すデータをプロセッサ101が取得し、この初期形状との比較を行うことにより、上記の判定を行ってよい。
 以上のように、ワークWkに対して、撮像画像の上下左右の各方向に向けて塗布を行った場合について説明した。図18は、これらをまとめたものである。図18の中央部に示された筆Brの筆先の形状が、筆先の初期形状である。この初期形状と比較した場合、下方向塗布であれば撮像画像の上方向に、上方向塗布であれば撮像画像の下方向に、右方向塗布であれば撮像画像の左方向に、左方向塗布であれば撮像画像の右方向に、筆先の先端部が移動、変形する。この移動および変形をカメラCAMによって検知する。
 以上、撮像画像の上下左右方向に向けて塗布を行っている場合の、塗布の成功/失敗判定について説明したが、例えば撮像画像の右上方向、右下方向等のように、斜め方向に向けて塗布を行う場合も考えられる。このような場合も、筆先の形状変化をカメラCAMによる撮像画像に基づいて検知することにより、塗布の成功/失敗判定を行うことができる。例えば撮像画像の右上に向けて塗布を行っている場合は、筆先の先端部は左下方向に移動するように変形するので、この変形を撮像画像に基づいて検知することができる。この場合は、筆先の先端部の左方向および下方向への移動を、撮像画像から検知すればよい。他の斜め方向に塗布を行う場合も、同様にして塗布の成功/失敗判定を行うことができる。
 (カメラCAM、筆Br、マーカMの相対位置関係)
 次に、図19に基づいて、カメラCAMと、筆Brと、マーカMとの間の相対位置関係を示す。図19は、エンドエフェクタ2を示す図であり、(a)正面図、(b)平面図、(c)側面図である。
 図19にあるように、フィンガFはマーカMを備えていてよい。この場合、カメラCAMは、筆Brの筆先と、フィンガFのマーカMとが両方映り込む(画角内に両者が入る)位置に配置されている。その結果、カメラCAMが筆Brの筆先とマーカMとを同時に撮像することができる。なお、支持部材がフィンガF以外の部材であった場合も、支持部材にマーカを設ける、または支持部材自体に何らかの特徴的な形状や模様等が現れるように構成する、等の手段により、筆先とマーカ(特徴的な形状や模様等を含む)とを同時に撮像することができる。
 さらに好適には、図19の(a)~(c)に示されているように、筆Brから見た時に、カメラCAMと、エンドエフェクタ2のフィンガF(およびフィンガFが備えるマーカM)とが同じ側にない。これを言い換えると、図19の(a)、(c)に示すフィンガFがワークWkを把持している把持状態ではz軸方向(図10の(a)に示すワークWkに対してコーティング剤を塗布できる状態ではx軸方向)に、カメラCAM、筆Br、フィンガFの順番で各部材が並んでいる。このような相対位置関係であれば、カメラCAMから見た時の筆Brは、カメラCAMから見たときの第1フィンガF1および第2フィンガF2よりも、より近い位置に配置されることになる。その結果、撮像画像に写りこむ筆Brの筆先をより高精度に撮像することができるので、塗布が成功しているか否かを判定(ステップSt103)する判定精度が向上する。
 ただし、カメラCAMと、筆Brと、マーカMとの間の相対的位置関係は、上記とは異なるものであってもよい。例えば、マーカMから見た時に、カメラCAMと筆Brとが同じ側にないような位置関係にすることができる。これを言い換えると、カメラCAM、マーカM、筆Brの順番で各部材が並んでいる。このような相対的位置関係であっても、カメラCAMによって撮像を行う際に、マーカMが筆Brの筆先を遮らないような位置に、マーカMを配置することにより、撮像画像に筆先とマーカMとが両方同時に写りこむようにすることができる。
 以上のように、ワークWkに対する筆Brによる塗布を行う塗布状態において、筆Brの筆先が、支持部材(フィンガF等)よりも、ワークWk側に突出する。これにより、塗布を行う際に、支持部材がワークWk等に衝突することを回避できる。
 また、カメラCAMと支持部材とが、筆Brから見た同じ側にない。これにより、カメラCAMから見た時の筆Brが、カメラCAMから見たときの支持部材(第1フィンガF1および第2フィンガF2等)よりも、より近い位置に配置されることになる。その結果、撮像画像中における筆Brをより高精度に撮像することができるので、塗布が成功しているか否かを判定する判定精度が向上する。
 また、エンドエフェクタ2を制御する制御装置100が制御部(プロセッサ101)を備え、制御部は、筆BrによりワークWkに対して塗布を行っている際の、カメラCAMが撮像した撮像画像における筆Brの筆先の形状が、筆先の初期形状から変化している場合に、塗布が成功していると判定する。これにより、カメラCAMを用いて筆先の形状変化を検知して、塗布の成功/失敗を判定することができる。
 また、塗布における筆Brの移動方向とは反対側の方向に向けて、筆Brの先端部の位置が変化している場合に、塗布が成功していると判定する。これにより、塗布の成功/失敗を、筆Brの移動方向に応じて正しく判定することができる。
 以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
 本開示は、カメラと、支持部材と、筆とを備えたエンドエフェクタとして有用である。
1   ロボットアーム
2   エンドエフェクタ
100 制御装置
101 プロセッサ
102 メモリ
103 入力装置
104 画像取得部
105 エンドエフェクタ接続部
106 通信装置
107 入出力インターフェース
500 ロボット装置
Br  筆
CAM カメラ
F   フィンガ(支持部材)
F1  第1フィンガ
F2  第2フィンガ
G   溝
J   関節軸
L   関節(リンク)
M   マーカ
R   レール
T   作業台
T1  載置部
Wk  ワーク

Claims (5)

  1.  ロボットアームに接続可能なエンドエフェクタであって、
     カメラと、
     マーカを有し、ワークを支持可能な支持部材と、
     前記ワークに塗布を行う筆と、を備え、
     前記カメラが、前記筆の筆先と前記マーカとを同時に撮像可能な位置に配置される、
     エンドエフェクタ。
  2.  前記筆が前記塗布を行う塗布状態において、
     前記筆の筆先が、前記支持部材よりも、前記ワーク側に突出する、
     請求項1に記載のエンドエフェクタ。
  3.  前記カメラと前記支持部材とが、前記筆から見た同じ側に位置しない、
     請求項1または請求項2に記載のエンドエフェクタ。
  4.  請求項1から請求項3のいずれか1つに記載のエンドエフェクタを制御する制御装置であって、
     前記筆が前記塗布を行っている際の、前記カメラが撮像した撮像画像における前記筆の筆先の形状が、前記筆先の初期形状から変化している場合に、前記塗布が成功していると判定する、制御部を備える、
     制御装置。
  5.  前記制御部は、前記塗布における前記筆の移動方向とは反対側の方向に向けて、前記筆の先端部の位置が変化している場合に、前記塗布が成功していると判定する、
     請求項4に記載の制御装置。
PCT/JP2020/034843 2019-10-11 2020-09-15 エンドエフェクタおよびエンドエフェクタの制御装置 WO2021070574A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021550565A JP7223930B2 (ja) 2019-10-11 2020-09-15 エンドエフェクタおよびエンドエフェクタの制御装置
CN202080070539.8A CN114555240A (zh) 2019-10-11 2020-09-15 末端执行器以及末端执行器的控制装置
US17/716,544 US11999069B2 (en) 2019-10-11 2022-04-08 End effector, and control device for controlling end effector

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-188193 2019-10-11
JP2019188193 2019-10-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/716,544 Continuation US11999069B2 (en) 2019-10-11 2022-04-08 End effector, and control device for controlling end effector

Publications (1)

Publication Number Publication Date
WO2021070574A1 true WO2021070574A1 (ja) 2021-04-15

Family

ID=75437891

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/034843 WO2021070574A1 (ja) 2019-10-11 2020-09-15 エンドエフェクタおよびエンドエフェクタの制御装置

Country Status (4)

Country Link
US (1) US11999069B2 (ja)
JP (1) JP7223930B2 (ja)
CN (1) CN114555240A (ja)
WO (1) WO2021070574A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230100638A1 (en) * 2021-02-05 2023-03-30 Shenzhen Institutes Of Advanced Technology Chinese Academy Of Sciences Soft-bodied apparatus and method for opening eyelid
CN117884321A (zh) * 2024-03-15 2024-04-16 宁德时代新能源科技股份有限公司 涂布错位纠偏设备、涂布系统以及纠偏控制方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006062052A (ja) * 2004-08-30 2006-03-09 Gifu Prefecture ロボット教示システム
JP2007229567A (ja) * 2006-02-28 2007-09-13 Fuji Heavy Ind Ltd 塗布剤の塗布状態検査装置
JP2009172452A (ja) * 2008-01-21 2009-08-06 Nippo Kosan Kk 自動塗布システム、および自動塗布システムの制御方法
JP2011038773A (ja) * 2009-08-06 2011-02-24 Sanyu Kogyo Kk ロボット追従式画像検査装置、ロボット追従式画像検査方法及びロボット追従式画像検査に用いるコンピュータプログラム
JP2018085951A (ja) * 2016-11-29 2018-06-07 川崎重工業株式会社 ロボット及びその運転方法、並びに塗布システム
JP2019147230A (ja) * 2018-02-28 2019-09-05 セイコーエプソン株式会社 ロボットシステム及び調整方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002028558A (ja) * 2000-07-18 2002-01-29 Asahi Kasei Corp パネル板の塗装方法および塗装品質管理装置
JP2009255192A (ja) * 2008-04-14 2009-11-05 Canon Inc マニュピュレーション装置及びその制御方法
CN108463313A (zh) * 2016-02-02 2018-08-28 Abb瑞士股份有限公司 机器人系统校准
CN108607718A (zh) * 2016-12-02 2018-10-02 新昌县羽林街道永多模具厂 一种高效率自动涂料设备
CN106743550B (zh) * 2016-12-12 2018-12-28 吴江市金澜机械制造有限公司 柔性补偿机器人自动上下料系统
CN106863334B (zh) * 2016-12-29 2019-09-06 嘉兴敏胜汽车零部件有限公司 用于机械手的多功能夹具装置
CN106622870A (zh) * 2017-01-09 2017-05-10 大连扬天科技有限公司 六轴机器人涂胶系统及工艺方法
US11413761B2 (en) * 2018-05-29 2022-08-16 Abb Schweiz Ag Modular platform for robotic end effector
EP3976324A4 (en) * 2019-05-26 2023-07-05 B.G. Negev Technologies & Applications Ltd., at Ben-Gurion University GRIPPING OBJECTS BY ADHESION

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006062052A (ja) * 2004-08-30 2006-03-09 Gifu Prefecture ロボット教示システム
JP2007229567A (ja) * 2006-02-28 2007-09-13 Fuji Heavy Ind Ltd 塗布剤の塗布状態検査装置
JP2009172452A (ja) * 2008-01-21 2009-08-06 Nippo Kosan Kk 自動塗布システム、および自動塗布システムの制御方法
JP2011038773A (ja) * 2009-08-06 2011-02-24 Sanyu Kogyo Kk ロボット追従式画像検査装置、ロボット追従式画像検査方法及びロボット追従式画像検査に用いるコンピュータプログラム
JP2018085951A (ja) * 2016-11-29 2018-06-07 川崎重工業株式会社 ロボット及びその運転方法、並びに塗布システム
JP2019147230A (ja) * 2018-02-28 2019-09-05 セイコーエプソン株式会社 ロボットシステム及び調整方法

Also Published As

Publication number Publication date
JPWO2021070574A1 (ja) 2021-04-15
US20220227002A1 (en) 2022-07-21
JP7223930B2 (ja) 2023-02-17
US11999069B2 (en) 2024-06-04
CN114555240A (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
US11999069B2 (en) End effector, and control device for controlling end effector
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
JP3876234B2 (ja) コネクタ把持装置、同装置を備えたコネクタ検査システム及びコネクタ接続システム
EP2993002B1 (en) Robot apparatus and method for controlling robot apparatus
EP1215017B1 (en) Robot teaching apparatus
US9227327B2 (en) Robot system and method for operating robot system
CN111618843B (zh) 机器人系统以及控制方法
JP2011093014A (ja) ハンドアイ式ビンピッキングロボットの制御装置
US20220111533A1 (en) End effector control system and end effector control method
JP2018167334A (ja) 教示装置および教示方法
DE102020129967A1 (de) Simulationsvorrichtung und Robotersystem mit erweiterter Realität
US11654567B2 (en) Robot system and control method
JP2022163719A (ja) 対象物を挿入部に挿入するようにロボットを制御するための装置及び方法
CN111618845B (zh) 机器人系统
JP6586644B2 (ja) 電子機器製造装置および電子機器製造方法
TWI812257B (zh) 電子設備組裝裝置和電子設備組裝方法(二)
WO2020157875A1 (ja) 作業座標作成装置
KR20230112359A (ko) 비젼 검사기능 다관절 로봇
KR102253409B1 (ko) 워크 유지 기구
EP3603904B1 (en) Robot system
US20230101717A1 (en) Arrangement for the assembly and wiring of electrical components in switchgear construction and a corresponding method
JP2019198930A (ja) 制御装置およびロボットシステム
WO2023007980A1 (ja) 電子機器組立装置および電子機器組立方法
JP7481432B2 (ja) ロボットの教示位置を修正するための装置、教示装置、ロボットシステム、教示位置修正方法、及びコンピュータプログラム
CN117655575A (zh) 一种灵动岛内共享视觉的补焊方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20875516

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2021550565

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20875516

Country of ref document: EP

Kind code of ref document: A1