WO2019106720A1 - 部品移載装置 - Google Patents

部品移載装置 Download PDF

Info

Publication number
WO2019106720A1
WO2019106720A1 PCT/JP2017/042626 JP2017042626W WO2019106720A1 WO 2019106720 A1 WO2019106720 A1 WO 2019106720A1 JP 2017042626 W JP2017042626 W JP 2017042626W WO 2019106720 A1 WO2019106720 A1 WO 2019106720A1
Authority
WO
WIPO (PCT)
Prior art keywords
component
unit
claws
pair
held
Prior art date
Application number
PCT/JP2017/042626
Other languages
English (en)
French (fr)
Inventor
信夫 大石
Original Assignee
株式会社Fuji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Fuji filed Critical 株式会社Fuji
Priority to CN201780096217.9A priority Critical patent/CN111278612B/zh
Priority to PCT/JP2017/042626 priority patent/WO2019106720A1/ja
Priority to EP17933724.1A priority patent/EP3718709B1/en
Priority to JP2019556434A priority patent/JP6993426B2/ja
Publication of WO2019106720A1 publication Critical patent/WO2019106720A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39102Manipulator cooperating with conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40007Optimize sequence of pick and place operations upon arrival of workpiece on conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the present disclosure relates to a component transfer apparatus including a component supply unit that supplies a plurality of components in a scattered state.
  • the component transfer device includes a device in which a plurality of components scattered in the component supply unit are picked up by the operation of a component holding robot or the like.
  • the following patent documents describe an example of such a component supply device.
  • the present disclosure is to stably transfer components from a component supply unit.
  • the present specification describes a component supply unit having a component supply surface on which a plurality of components are scattered and a wall surface that prevents components from falling off the component supply surface, and a component placed on the component supply surface A holder holding and holding a pair of claws, and a moving unit for moving the holder on the part placed on the part supply surface and moving the holder in the vertical direction from above the part;
  • the holding tool avoids interference with the wall portion for the parts placed on the part supply surface A pinchable area that can be pinched by a pair of claws
  • the part to be held is held by the pair of claws of the holder while avoiding interference with the wall based on the setting unit which is
  • the holding unit holds a holding target by holding a pair of claws between a judgment unit which judges whether or not it is a holdable component, and a holding target component which is judged to be a holdable component by the judgment unit.
  • a component transfer device is disclosed that includes a holder and a control unit that controls the operation of the moving unit.
  • the component transfer device can stably transfer components from the component supply unit.
  • FIG. 1 is a block diagram schematically showing the configuration of a robot system 10;
  • FIG. 2 is a configuration diagram showing an outline of a configuration of a robot 20.
  • FIG. 7 is a block diagram showing an electrical connection relationship between the robot 20, the robot control device 70, and the image processing device 80.
  • It is explanatory drawing which illustrates the search area
  • It is explanatory drawing which illustrates the interference check area
  • FIG. 8 is an explanatory view showing a captured image I when each of the works W1 to W8 is extracted in the search area AS. It is an explanatory view which illustrates gripping possible field AA. It is explanatory drawing which illustrates whether it is a clamping possible part.
  • FIG. 1 is a block diagram schematically showing the configuration of a robot system 10.
  • FIG. 2 is a block diagram schematically showing the configuration of the robot 20.
  • FIG. 3 is a block diagram showing the electrical connection between the robot 20, the robot control device 70, and the image processing device 80.
  • the left-right direction is the X-axis direction
  • the front-rear direction is the Y-axis direction
  • the up-down direction is the Z-axis direction.
  • the robot system 10 includes a robot 20, a robot control device 70, and an image processing device 80.
  • the robot system 10 picks (grips) the workpiece W supplied by the workpiece supply device 12 and aligns and places the picked workpiece W on the tray T conveyed by the tray conveyance device 14. Configured as a pick and place system.
  • the robot system is not limited to the pick and place system, and any robot can be applied to any work system as long as the robot 20 performs work on the workpiece W.
  • the robot 20 includes a 5-axis vertical articulated arm (hereinafter referred to as an arm) 22.
  • the arm 22 has six links (first to sixth links 31 to 36) and five joints (first to fifth joints 41 to 45) that rotatably or pivotally connect the links.
  • a motor servo motor
  • an encoder rotary encoder
  • the picking tool T1 is an electromagnetic chuck that adsorbs the work W made of a magnetic material by an electromagnet.
  • the picking tool T2 is a mechanical chuck (hereinafter referred to as a mechanical chuck) having a pair of clamp claws C, C movable between a proximity position for clamping the workpiece W and a separation position for releasing the clamping of the workpiece W. is there.
  • picking tool T3 is an adsorption nozzle which adsorbs work W by negative pressure. The picking tool attached to the tip link is appropriately selected in accordance with the shape and material of the workpiece W to be picked.
  • the camera 24 is attached to the distal end (fifth link 35) of the arm 22.
  • the camera 24 images the work W on the work supply device 12 in order to recognize the position and posture of each work W supplied by the work supply device 12, and the position of the tray T conveyed by the tray conveyance device 14 To recognize the tray T.
  • the proximal end link (first link 31) of the arm 22 is fixed to the work bench 11.
  • the work supply device 12 and the tray transfer device 14 are disposed on the work table 11.
  • the work supply device 12 is configured by a belt conveyor device including a drive roller disposed spaced apart in the front-rear direction (Y-axis direction) and a conveyor belt 13 stretched over a driven roller.
  • a plurality of works W are loosely placed on the conveyor belt 13, and the work supply device 12 supplies the plurality of works W on the conveyor belt 13 from the rear to the front by rotationally driving the drive rollers.
  • a pair of wall portions S, S are provided along the conveyor belt 13 on the left and right sides of the conveyor belt 13.
  • a pair of wall portions S, S are provided over the conveyor belt 13 at the front and back of the supply direction (Y-axis direction) of the work W. These wall portions S are provided to stand along the Z-axis direction (vertical direction) to prevent the workpiece W from falling from the conveyor belt 13. Furthermore, the rear side wall portion S is rotatably supported by the left and right side wall portions S, S via an unshown shaft at upper portions of the left and right ends thereof. Thereby, the wall S on the rear side can be rotated forward or backward with the direction (X-axis direction) orthogonal to the supply direction of the workpiece W as the rotation center.
  • the work supply device may be a case supply device that supplies a plurality of works housed in a case (component box) together with the belt conveyor device or in parallel with the belt conveyor device.
  • the tray conveyance device 14 is configured of a belt conveyor device, conveys the tray T in a direction (X-axis direction) orthogonal to the supply direction of the work W, and positions and holds the tray T at a substantially central position.
  • the robot control device 70 is configured as a microprocessor centering on the CPU 71, and, in addition to the CPU 71, includes a ROM 72, an HDD 73, a RAM 74, an input / output interface not shown, a communication interface not shown. Detection signals from the encoders 61 to 65 and the like are input to the robot control device 70.
  • the robot control device 70 outputs control signals to the workpiece supply device 12, the tray transfer device 14, the motors 51 to 55, the tool actuator 56 and the like.
  • the tool actuator 56 is an actuator for driving a picking tool attached to the robot 20.
  • the robot control device 70 executes driving control of the respective motors 51 to 55 of the robot 20 to execute picking processing for causing the robot 20 to pick the workpiece W and place processing for placing the picked workpiece W on the tray T. Do. Specifically, the picking process is performed as follows. That is, the robot control device 70 acquires the target position of each joint of the arm 22 corresponding to the targeted picking position and posture. Subsequently, the robot control device 70 drives and controls the corresponding motors 51 to 55 so that the position of each joint matches the acquired target position. Then, the robot control device 70 controls the tool actuator 56 so that the workpiece W is picked up by the picking tool.
  • the robot control device 70 moves the picking tool to the interference check area of the workpiece W to be picked, the picking tool is lowered and raised along the Z-axis direction (vertical direction) from directly above the workpiece W
  • the drive control of the motors 51 to 55 is performed so that Specifically, place processing is performed as follows. That is, the robot control device 70 acquires the target position of each joint of the arm 22 corresponding to the target place position and posture. Subsequently, the robot control device 70 drives and controls the corresponding motors 51 to 55 so that the position of each joint matches the acquired target position. Then, the robot control device 70 controls the tool actuator 56 such that the picked-up work W is placed (the picking of the work W is released).
  • the image processing apparatus 80 is configured as a microprocessor centering on the CPU 81.
  • the image processing apparatus 80 includes a ROM 82, an HDD 83, a RAM 84, an input / output interface not shown, a communication interface not shown.
  • An image signal from the camera 24, an input signal from the input device 85, and the like are input to the image processing apparatus 80.
  • a drive signal to the camera 24, an output signal to the output device 86, and the like are output.
  • the input device 85 is an input device such as a keyboard or a mouse that the operator performs input operation.
  • the output device 86 is a display device for displaying various information, such as a liquid crystal display, for example.
  • the image processing device 80 is communicably connected to the robot control device 70, and exchanges control signals and data with each other.
  • the image processing device 80 transmits a control signal to the robot control device 70 to move the arm 22 (camera 24) to the imaging point of the workpiece W supplied in the workpiece supply device 12, and drives the camera 24. And images the workpiece W on the conveyor belt 13. Thereby, the obtained image signal (captured image) is input from the camera 24 to the image processing apparatus 80. Subsequently, the image processing apparatus 80 processes the input image signal to recognize the work W in the captured image. Then, the image processing apparatus 80 extracts, from among the recognized workpieces W, target workpieces that can be picked while avoiding that the picking tool interferes with each wall portion S of the workpiece supply device 12, and the target workpieces The target position and target attitude of the picking tool for picking are determined and transmitted to the robot controller 70. Such processing is performed according to an image processing sequence based on image processing data (two-dimensional data).
  • FIG. 4 is an explanatory view showing a search area AS used in the image processing sequence.
  • the search area AS defines the search range of the workpiece W in the image captured by the camera 24.
  • the search area AS is a range in which the work W can be disposed on the conveyor belt 13 of the work supply device 12, that is, the search area AS of the work supply device 12. It is a range within a rectangular frame surrounded by the inner edge of each wall portion S. Therefore, when the rear side wall S of the work supply device 12 is provided substantially at the center of the conveyor belt 13 in the front-rear direction as shown in FIG. 4B, for example, the search area AS is It becomes smaller than that shown in FIG. 4 (A).
  • Each search area AS is registered in the robot system 10 by being stored in the HDD 83 of the image processing apparatus 80 while being associated with the arrangement position of the wall portion S on the rear side of the work supply device 12.
  • the registration of the search area is also performed for all supply devices (for example, the above-described case supply device and the like) which can be installed on the work table 11.
  • FIG. 5 is an explanatory view showing the interference check area AI and the grip center position PP used in the image processing sequence.
  • the interference check area AI is used when the image processing apparatus 80 checks for interference between the picking tool and (the respective wall portions S of) the work supply apparatus 12.
  • the picking tool T1 is an electromagnetic chuck
  • a circular shadow portion formed by projecting the electromagnetic chuck in the picking posture in the vertical direction is the picking
  • the interference check area AI of the tool T1 is used.
  • the central point of the interference check area AI is taken as the gripping center position PP of the picking tool T1.
  • the interference check area AI is expanded in consideration of the magnetic force of the electromagnetic chuck.
  • the picking tool T1 is shown in a side view
  • the interference check area AI is shown in a plan view. This point is the same in FIGS. 5 (B) and 5 (C).
  • each interference check area AI, AI of the picking tool T2 indicates the movable range of the pair of clamp claws C, C at the time of picking. Further, a central point between the interference check areas AI and AI is set as a gripping center position PP of the picking tool T2.
  • the picking tool T3 is a suction nozzle, as shown in FIG.
  • a circular shadow portion formed by projecting the suction nozzle in the posture at picking in the vertical direction is an interference check of the picking tool T3. It is considered as an area AI. Furthermore, the central point of the interference check area AI is taken as the gripping center position PP of the picking tool T3.
  • the respective interference check areas AI and the respective gripping center positions PP shown in FIGS. 5A, 5B, and 5C are stored in the HDD 83 of the image processing apparatus 80 while being associated with the respective picking tools T1, T2, and T3. Is registered in the robot system 10. Registration of the interference check area is also performed for all picking tools that can be attached to and detached from the tip link (sixth link 36) of the arm 22.
  • FIG. 6 is an explanatory view showing an example of the image processing sequence.
  • FIG. 7 to FIG. FIG. 7 is an explanatory view showing a captured image I when the works W1 to W8 are extracted in the search area AS.
  • FIG. 8 is an explanatory view illustrating the grippable area AA.
  • FIG. 9 is an explanatory view illustrating whether or not the component is a sandwichable part.
  • the robot system 10 the work supply device 12 shown in FIG. 1 is installed on the work bench 11, and further, the picking tool T2 (that is, the mechanical chuck) shown in FIG. It is assumed that the robot 20 is attached. Further, it is assumed that the information representing such an aspect is input to the image processing apparatus 80 by the operator operating the input device 85.
  • the image processing device 80 picks up an image of the work supply device 12 from directly above the conveyor belt 13 with the camera 24 (S10). Subsequently, the image processing apparatus 80 sets a search area AS on the captured image (S12). At this time, the image processing apparatus 80 reads from the HDD 83 the search area AS (that is, the one shown in FIG. 4A) stored in association with the work supply apparatus 12 shown in FIG. Then, the image processing apparatus 80 extracts the workpiece W in the search area AS of the captured image (S14). Specifically, for example, in the captured image I shown in FIG. 7, eight works W1 to W8 are extracted in the search area AS. In addition, since the technique of extraction is a well-known technique, the detailed description is abbreviate
  • the image processing apparatus 80 specifies a picking candidate of the picking tool T2 as a sandwiching target part from within the search area AS of the captured image I (S16).
  • a specific technique is a well-known technique, the detailed description is abbreviate
  • the workpiece W1 in the captured image I shown in FIG. 7 is to be a component to be held, it is referred to as a component to be held W1. This point is the same as in the case where a workpiece other than the workpiece W1 is described as a component to be held.
  • the image processing apparatus 80 determines whether or not the mode is switched to the fixed mode (S18).
  • the fixed mode refers to a mode in which the grippable area described later is fixed to a minimum.
  • the information as to whether or not the mode is switched to the fixed mode is input to the image processing apparatus 80 by the operator operating the input device 85.
  • the image processing apparatus 80 performs the process of calculating the angle (S20) according to the case where the mode is not switched to the fixed mode (S18: NO).
  • the image processing apparatus 80 is suitable for clamping the clamping claws C and C of the picking tool T2 according to the contour (posture) of the clamping target component W1 at the time of extraction.
  • the direction (hereinafter, referred to as the holding direction of the holding target part W1) is specified, and the angle at which the specified direction intersects the inner wall surface SW of the wall portion S of the work supply device 12 is calculated (S20).
  • the image processing device 80 sets, among the wall portions S of the work supply device 12, a wall portion S closest to the component W1 to be held as a target of angle calculation.
  • the sandwiching direction D1 of the sandwiching target part W1 is in a parallel relationship with the inner wall surface SW of the wall S closest to the sandwiching target part W1. Therefore, an angle of zero degrees is calculated.
  • the image processing apparatus 80 interlocks with the calculated angle to set a grippable area (S22).
  • the grippable area is an area in which the workpiece W can be picked up while avoiding the picking tool from interfering with the walls S of the workpiece supply device 12.
  • the image processing apparatus 80 sets the grippable area AA shown in FIG. 8A with respect to the sandwiching target part W1.
  • the long side of each of the interference check areas AI, AI directed in the sandwiching direction D1 of the part W1 to be clamped is the search area AS adjacent to the wall S closest to the part W1 to be clamped. Inscribed in the boundary.
  • a straight line AA1 parallel to the boundary of the search area AS passes on the grip center position PP of each interference check area AI, AI (picking tool T2) in such a state.
  • An area on the central side of the search area AS from the straight line AA1 is taken as a grippable area AA. Therefore, when the calculated angle is zero degree, the length from the boundary of the search area AS to the straight line AA1 (that is, the grippable area AA) is constant at the distance L1. Therefore, the image processing apparatus 80 sets the grippable area AA from the calculated angle (zero degree).
  • the processes of S20 and S22 are performed as follows.
  • the directions suitable for the clamp claws C and C of the picking tool T2 to clamp the clamping target component W2 in accordance with the contour (posture) of the clamping target component W2 at the time of extraction The holding direction of the part W2 to be held is specified, and the angle at which the specified direction intersects the inner wall surface SW of the wall portion S of the work supply device 12 is calculated.
  • the image processing device 80 sets, among the wall portions S of the work supply device 12, the wall portion S closest to the sandwiching target part W 2 as a target of angle calculation. In terms of condition, as shown in FIG. 8B, the sandwiching direction D2 of the sandwiching target part W2 intersects with the inner wall surface SW of the wall part S closest to the sandwiching target part W2 at 45 degrees. Therefore, an angle ⁇ of 45 degrees is calculated.
  • the image processing device 80 interlocks with the calculated angle ⁇ of 45 degrees to set the grippable area AA. Specifically, the image processing apparatus 80 sets the grippable area AA shown in FIG. 8 (B) for the component W2 to be held.
  • the corner of the interference check area AI located closer to the wall S closest to the holding target part W2 Is inscribed in the boundary of the search area AS adjacent to the wall S.
  • a straight line AA1 parallel to the boundary of the search area AS passes on the grip center position PP of each interference check area AI, AI (picking tool T2) in such a state.
  • An area on the central side of the search area AS from the straight line AA1 is taken as a grippable area AA. Therefore, when the calculated angle ⁇ is 45 degrees, the length from the boundary of the search area AS to the straight line AA1 (that is, the grippable area AA) is constant at the distance L2. Therefore, the image processing apparatus 80 sets the grippable area AA from the calculated angle ⁇ (45 degrees).
  • the distance L2 is longer than the above-described distance L1.
  • the processes of S20 and S22 are performed as follows.
  • the direction suitable for the clamp claws C and C of the picking tool T2 to clamp the clamping target component W3 according to the contour (posture) of the clamping target component W3 at the time of extraction The holding direction of the part W3 to be held is specified, and the angle at which the specified direction intersects the inner wall surface SW of the wall portion S of the work supply device 12 is calculated.
  • the image processing apparatus 80 sets, among the wall sections S of the work supply apparatus 12, the wall section S closest to the sandwiching target part W 3 as a target of angle calculation. In terms of condition, as shown in FIG. 8C, the sandwiching direction D3 of the sandwiching target part W3 intersects with the inner wall surface SW of the wall S closest to the sandwiching target part W2 at 90 degrees. Therefore, an angle ⁇ of 90 degrees is calculated.
  • the image processing apparatus 80 interlocks with the calculated angle ⁇ of 90 degrees to set the grippable area AA. Specifically, the image processing apparatus 80 sets the grippable area AA shown in FIG. 8C with respect to the sandwiching target part W3.
  • the short side of the interference check area AI located closer to the wall S closest to the holding target part W3. Is inscribed in the boundary of the search area AS adjacent to the wall S.
  • a straight line AA1 parallel to the boundary of the search area AS passes on the grip center position PP of each interference check area AI, AI (picking tool T2) in such a state.
  • An area on the central side of the search area AS from the straight line AA1 is taken as a grippable area AA. Therefore, when the calculated angle ⁇ is 90 degrees, the length from the boundary of the search area AS to the straight line AA1 (that is, the grippable area AA) is constant at the distance L3. Therefore, the image processing apparatus 80 sets the grippable area AA from the calculated angle ⁇ (90 degrees).
  • the distance L3 is longer than the above distance L2.
  • the image processing apparatus 80 sets the grippable area AA in conjunction with the angle ⁇ calculated at S20.
  • the angle ⁇ calculated in S20 is calculated in the range of 0 degrees to 90 degrees. Therefore, since the distance from the boundary of the search area AS to the straight line AA1 (that is, the grippable area AA) becomes longer as the angle ⁇ calculated in the above S20 becomes larger, the grippable area set in the above S22 AA becomes narrow.
  • the image processing apparatus 80 performs the process of fixed calculation (S24).
  • the image processing apparatus 80 sets a predetermined nipping area.
  • the pinchable area is the same as that set when the angle ⁇ calculated at S20 is 90 degrees (see FIG. 8C), and all the graspable areas AA that can be set at S22 are Of which is the smallest.
  • the image processing apparatus 80 determines whether the offset amount is input (S26).
  • the offset amount refers to the distance from the straight line AA1.
  • the information on the offset amount is input to the image processing apparatus 80 by the operator operating the input device 85.
  • the image processing apparatus 80 executes the process of S30 described later according to the case where the offset amount is not input (S26: NO).
  • the image processing apparatus 80 performs processing of reduction setting according to the case where the offset amount is input (S26: YES) (S28).
  • the image processing apparatus 80 reduces the grippable area AA according to the offset amount.
  • the setting state of the grippable area AA is set to an area on the center side of the search area AS from the straight line AA1.
  • the state is changed from the straight line AA2 parallel to the straight line AA1 to the state set in the center side of the search area AS.
  • the straight line AA2 is located at a distance from the straight line AA1 to the center side of the search area AS by a distance of the offset amount F. Therefore, the grippable area AA set in S28 is narrower than the grippable area AA set in S22 or S24.
  • the image processing apparatus 80 executes the process of S30.
  • the image processing apparatus 80 determines whether the workpiece W specified as the component to be held at S16 is a component that can be held.
  • the part that can be held means a work that can be held while the picking tool T2 avoids interference with each wall S of the work supply device 12.
  • the gripping center position PP of the picking tool T2 when gripping the workpiece W, and the grippable area AA set in the above S22, S24 or S28 are used.
  • a workpiece W9 (hereinafter referred to as a component to be held W9) is identified as a component to be held, a picking tool T2 in holding the component to be held W9.
  • the grasping center position PP of is located outside the graspable area AA.
  • the grippable area AA set in S22 including the grippable area AA reduced in S28 described above
  • the grip target part W9 is set.
  • the grippable area AA is used.
  • the gripping center position PP of the picking tool T2 when gripping the component to be clamped W10 is a grippable area Located inside AA.
  • the grippable area AA set in S22 including the grippable area AA reduced in S28 described above
  • the grip target part W10 is set. The grippable area AA is used.
  • the image processing apparatus 80 executes the processing of S38 described later according to the case where the workpiece W specified as the component to be held at S16 is not a component that can be held (S32: NO).
  • the image processing apparatus 80 picks the picking tool T2 at the time of holding the work W according to the case where the work W specified as the holding target part at S16 is the holdable part (S32: YES).
  • the target position and the target attitude of the picking tool T2 are set based on the grip center position PP and the like, and the set target position and the target attitude are coordinate-converted to the target positions of the motors 51 to 55 (S34).
  • the image processing device 80 transmits the coordinate-transformed target position to the robot control device 70 together with the information indicating the presence or absence of the setting of the fixed mode (S36).
  • the robot control device 70 moves the picking tool T2 just above the work W determined to be a pinchable part as described above, and then the work W
  • the motors 51 to 55 are drive-controlled so as to lower and raise the picking tool T2 along the Z-axis direction (vertical direction) from directly above.
  • the robot control device 70 at least selects each of the picking tools T2 until the picking tool T2 descends to the height of the wall S closest to the work W.
  • the picking tool T2 is rotated so that the direction in which the clamp claws C and C operate moves in line with the direction suitable for clamping the work W.
  • the image processing apparatus 80 determines whether or not all the works W present in the search area AS of the captured image I have been identified as the component to be held (S38).
  • the image processing apparatus 80 repeatedly executes the process after S16 according to the case where all the workpieces W are not specified as the component to be held (S38: NO).
  • the image processing apparatus 80 ends the image processing sequence according to the case where all the workpieces W are specified as the clamping target parts (S38: YES).
  • the picking tool T1 that is, the electromagnetic chuck
  • the picking tool T3 that is, the suction nozzle
  • the same image processing sequence as that described above is performed.
  • the grippable area set in S22 is specified as the gripping target component Even if the posture of the workpiece W is fixed, it becomes constant.
  • the robot system 10 can stably transfer the work W onto the tray T from the work supply device 12.
  • the robot system 10 is an example of a component transfer device.
  • the work supply device 12 is an example of a component supply unit.
  • the conveyor belt 13 is an example of a component supply surface.
  • the arm 22 is an example of a moving unit.
  • the camera 24 is an example of an imaging unit.
  • the robot control device 70 is an example of a control unit.
  • the image processing device 80 is an example of a calculation unit, a setting unit, and a determination unit.
  • the input device 85 is an example of a switching unit and an input unit.
  • the grippable area AA is an example of the grippable area.
  • the straight line AA1 is an example of the boundary of the pinchable area.
  • the pair of clamp claws C, C is an example of the pair of claw portions.
  • the sandwiching directions D1 to D3 of the sandwiching target parts W1 to W3 are an example of directions in which the pair of claws clamps the sandwiching target parts.
  • the captured image I is an example of an image.
  • the picking tool T2 is an example of a holder.
  • the work W is an example of a plurality of parts.
  • a manual mode may be added.
  • the operator can set the grippable area AA by operating the input device 85.
  • the robot 20 may be provided with a vertical articulated arm other than the five axes instead of the five-axis vertical articulated arm, or may be provided with a horizontal articulated arm.

Abstract

撮像部によって撮像された画像に基づいて、一対の爪部による挟持対象の部品である挟持対象部品を一対の爪部が挟持する方向と、壁面とが交わる角度を算出する算出部と、算出部で算出された角度が大きくなるに連れて、部品供給面に置かれている部品を保持具が壁部との干渉を回避しながら一対の爪部で挟持することが可能な挟持可能領域を、より狭く設定する設定部と、設定部で設定された挟持可能領域と画像とに基づいて、挟持対象部品が、壁部との干渉を回避しながら保持具の一対の爪部によって挟持されることが可能な挟持可能部品であるか否かを判定する判定部と、判定部で挟持可能部品であると判定された挟持対象部品を保持具が一対の爪部で挟持して保持するように、保持具と移動部の作動を制御する制御部とを備える部品移載装置。

Description

部品移載装置
 本開示は、複数の部品を散在した状態で供給する部品供給部を備えた部品移載装置に関するものである。
 部品移載装置には、部品供給部で散在された複数の部品が、部品保持ロボットなどの作動により、ピックアップされる装置がある。下記特許文献には、このような部品供給装置の一例が記載されている。
特開平10-202569号公報
 本開示は、部品供給部から安定的に部品を移載することである。
 本明細書は、複数の部品が散在した状態で置かれる部品供給面と、部品供給面から部品が脱落することを防止する壁面とを有する部品供給部と、部品供給面に置かれている部品を一対の爪部で挟持して保持する保持具と、部品供給面に置かれている部品の上に保持具を移動させると共に、部品の上から上下方向に保持具を移動させる移動部と、部品供給面の上から部品供給部を撮像する撮像部と、撮像部によって撮像された画像に基づいて、一対の爪部による挟持対象の部品である挟持対象部品を一対の爪部が挟持する方向と、壁面とが交わる角度を算出する算出部と、算出部で算出された角度が大きくなるに連れて、部品供給面に置かれている部品を保持具が壁部との干渉を回避しながら一対の爪部で挟持することが可能な挟持可能領域を、より狭く設定する設定部と、設定部で設定された挟持可能領域と画像とに基づいて、挟持対象部品が、壁部との干渉を回避しながら保持具の一対の爪部によって挟持されることが可能な挟持可能部品であるか否かを判定する判定部と、判定部で挟持可能部品であると判定された挟持対象部品を保持具が一対の爪部で挟持して保持するように、保持具と移動部の作動を制御する制御部とを備える部品移載装置を開示する。
 本開示によれば、部品移載装置は、部品供給部から安定的に部品を移載することが可能である。
ロボットシステム10の構成の概略を示す構成図である。 ロボット20の構成の概略を示す構成図である。 ロボット20とロボット制御装置70と画像処理装置80との電気的な接続関係を示すブロック図である。 画像処理シーケンスで使用される検索領域ASを例示する説明図である。 画像処理シーケンスで使用される干渉チェック領域AIと把持中心位置PPを例示する説明図である。 画像処理シーケンスの一例を示す説明図である。 検索領域AS内で各ワークW1~W8が抽出された際の撮像画像Iを示す説明図である。 把持可能領域AAを例示する説明図である。 挟持可能部品であるか否かを例示する説明図である。
 次に、本開示を実施するための形態について図面を参照しながら説明する。
 図1は、ロボットシステム10の構成の概略を示す構成図である。図2は、ロボット20の構成の概略を示す構成図である。図3は、ロボット20とロボット制御装置70と画像処理装置80の電気的な接続関係を示すブロック図である。なお、図1中、左右方向はX軸方向であり、前後方向はY軸方向であり、上下方向はZ軸方向である。
 ロボットシステム10は、ロボット20と、ロボット制御装置70と、画像処理装置80とを備える。ロボットシステム10は、本実施形態では、ワーク供給装置12により供給されたワークWをピッキング(把持)し、ピッキングしたワークWを、トレイ搬送装置14により搬送されたトレイT上に整列させてプレースするピックアンドプレースシステムとして構成される。なお、ロボットシステムは、ピックアンドプレースシステムに限られず、ロボット20を用いてワークWに対して作業を行うものであれば、如何なる作業システムにも適用できる。
 ロボット20は、5軸の垂直多関節アーム(以下、アームという)22を備える。アーム22は、6つのリンク(第1~第6リンク31~36)と、各リンクを回転または旋回可能に連結する5つの関節(第1~第5関節41~45)とを有する。各関節(第1~第5関節41~45)には、対応する関節を駆動するモータ(サーボモータ)51~55と、対応するモータの回転位置を検出するエンコーダ(ロータリエンコーダ)61~65とが設けられている。
 アーム22の先端リンク(第6リンク36)には、エンドエフェクタとしての複数種のピッキングツールT1~T3が着脱可能となっている。本実施形態では、ピッキングツールT1は、磁性体からなるワークWを電磁石により吸着する電磁チャックである。また、ピッキングツールT2は、ワークWを挟持する近接位置とワークWの挟持を解除する離間位置との間を移動可能な一対のクランプ爪C,Cを有するメカニカルチャック(以下、メカチャックという)である。さらに、ピッキングツールT3は、ワークWを負圧によって吸着する吸着ノズルである。先端リンクに装着するピッキングツールは、ピッキングしようとするワークWの形状や素材に合わせて適宜選択される。
 また、アーム22の先端部(第5リンク35)には、カメラ24が取り付けられている。カメラ24は、ワーク供給装置12により供給された各ワークWの位置および姿勢を認識するために、当該ワーク供給装置12上のワークWを撮像し、トレイ搬送装置14により搬送されたトレイTの位置を認識するために当該トレイTを撮像するためのものである。
 アーム22の基端リンク(第1リンク31)は、作業台11に固定されている。作業台11には、ワーク供給装置12やトレイ搬送装置14などが配置されている。ワーク供給装置12は、本実施形態では、前後方向(Y軸方向)に離間して配置された駆動ローラおよび従動ローラに架け渡されたコンベアベルト13を備えるベルトコンベア装置により構成される。コンベアベルト13には複数のワークWがバラ置きされ、ワーク供給装置12は、駆動ローラを回転駆動することにより、コンベアベルト13上の複数のワークWを後方から前方へ供給する。コンベアベルト13の左右側には、一対の壁部S,Sがコンベアベルト13に沿って設けられている。これに対して、ワークWの供給方向(Y軸方向)の前方及び後方には、コンベアベルト13上に一対の壁部S,Sが架け渡して設けられている。これらの壁部Sは、Z軸方向(上下方向)に沿って立った状態で設けられており、ワークWがコンベアベルト13から落下することを防いでいる。さらに、後方側の壁部Sは、その左右端の上部において、図示しない軸を介して、左右側の壁部S,Sに回転可能に支持されている。これにより、後方側の壁部Sは、ワークWの供給方向とは直交する方向(X軸方向)を回転中心として、前方又は後方へ回転することが可能である。そのため、後方側の壁部Sは、例えば、その下部に対して、後方から前方へ供給されるワークWが突き当たると、そのワークWに押されながら前方へ回転することにより、そのワークWが通過することを許し、いずれのワークWにも押されなくなると、自重で後方へ回転することにより、Z軸方向(上下方向)に沿って立った状態に戻る。なお、ワーク供給装置は、ベルトコンベア装置に代えて或いはベルトコンベア装置に併設して、ケース(部品箱)に収容された複数のワークをケースごと供給するケース供給装置とされてもよい。トレイ搬送装置14は、ベルトコンベア装置により構成され、ワークWの供給方向とは直交する方向(X軸方向)にトレイTを搬送し、そのトレイTを略中央位置にて位置決め保持する。
 ロボット制御装置70は、CPU71を中心としたマイクロプロセッサとして構成され、CPU71の他に、ROM72やHDD73、RAM74、図示しない入出力インターフェース、図示しない通信インターフェースなどを備える。ロボット制御装置70には、エンコーダ61~65などからの検知信号が入力される。また、ロボット制御装置70からは、ワーク供給装置12やトレイ搬送装置14、モータ51~55、ツールアクチュエータ56などへの制御信号が出力される。ツールアクチュエータ56は、ロボット20に装着されているピッキングツールを駆動するためのアクチュエータである。
 ロボット制御装置70は、ロボット20の各モータ51~55を駆動制御することにより、ロボット20に、ワークWをピッキングさせるピッキング処理と、ピッキングさせたワークWをトレイTにプレースさせるプレース処理とを実行する。ピッキング処理は、具体的には、以下のようにして行われる。即ち、ロボット制御装置70は、目標とされるピッキング位置および姿勢に対応するアーム22の各関節の目標位置を取得する。続いて、ロボット制御装置70は、各関節の位置が当該取得した目標位置に一致するように対応するモータ51~55を駆動制御する。そして、ロボット制御装置70は、ピッキングツールによってワークWがピッキングされるようツールアクチュエータ56を制御する。その際、ロボット制御装置70は、ピッキング対象のワークWの干渉チェック領域にピッキングツールを移動させた後、そのワークWの真上からピッキングツールをZ軸方向(上下方向)に沿って下降及び上昇させるように、モータ51~55を駆動制御する。プレース処理は、具体的には、以下のようにして行われる。即ち、ロボット制御装置70は、目標とされるプレース位置および姿勢に対応するアーム22の各関節の目標位置を取得する。続いて、ロボット制御装置70は、各関節の位置が当該取得した目標位置に一致するように対応するモータ51~55を駆動制御する。そして、ロボット制御装置70は、ピッキングしたワークWがプレース(ワークWのピッキングが解除)されるようツールアクチュエータ56を制御する。
 画像処理装置80は、CPU81を中心としたマイクロプロセッサとして構成され、CPU81の他に、ROM82やHDD83、RAM84、図示しない入出力インターフェース、図示しない通信インターフェースなどを備える。画像処理装置80には、カメラ24からの画像信号や入力装置85からの入力信号などが入力される。また、画像処理装置80からは、カメラ24への駆動信号や出力装置86への出力信号などが出力される。ここで、入力装置85は、例えばキーボードやマウスなど、オペレータが入力操作を行う入力デバイスである。出力装置86は、例えば液晶ディスプレイなど、各種情報を表示するための表示デバイスである。画像処理装置80は、ロボット制御装置70と通信可能に接続されており、互いに制御信号やデータのやり取りを行っている。
 画像処理装置80は、ロボット制御装置70に制御信号を送信することにより、アーム22(カメラ24)を、ワーク供給装置12において供給されているワークWの撮像ポイントへ移動させ、カメラ24を駆動して、コンベアベルト13上のワークWを撮像する。これにより、得られた画像信号(撮像画像)は、カメラ24から画像処理装置80に入力される。続いて、画像処理装置80は、入力された画像信号を処理して、撮像画像中のワークWを認識する。そして、画像処理装置80は、認識したワークWのうち、ピッキングツールがワーク供給装置12の各壁部Sと干渉することを回避しながらピッキングすることが可能な対象ワークを抽出し、当該対象ワークをピッキングするためのピッキングツールの目標位置および目標姿勢を割り出し、ロボット制御装置70に送信する。こうした処理は、画像処理データ(2次元データ)に基づく画像処理シーケンスに従って実行される。
 図4は、画像処理シーケンスで使用される検索領域ASを示す説明図である。検索領域ASは、カメラ24の撮像画像において、ワークWのサーチ範囲を定めるものである。具体的には、検索領域ASは、図4(A)に示されるように、ワーク供給装置12のコンベアベルト13上でワークWが配置されることが可能な範囲、つまり、ワーク供給装置12の各壁部Sの内側縁で囲まれた矩形状の枠内の範囲である。従って、ワーク供給装置12の後方側の壁部Sが、例えば、図4(B)に示されるように、前後方向においてコンベアベルト13の略中央に設けられた場合には、検索領域ASは、図4(A)に示されたものと比べて小さくなる。各検索領域ASは、ワーク供給装置12の後方側の壁部Sの配置箇所に関連付けされながら、画像処理装置80のHDD83に記憶されることによって、ロボットシステム10に登録される。検索領域の登録は、作業台11に設置可能な全ての供給装置(例えば、上記のケース供給装置など)についても行われる。
 図5は、画像処理シーケンスで使用される干渉チェック領域AIと把持中心位置PPを示す説明図である。干渉チェック領域AIは、ピッキングツールとワーク供給装置12(の各壁部S)の干渉を画像処理装置80がチェックする際に使用される。具体的には、ピッキングツールT1が電磁チャックである場合には、図5(A)に示されるように、ピッキング時の姿勢にある電磁チャックを上下方向で投影してなる円形影部が、ピッキングツールT1の干渉チェック領域AIとされる。さらに、干渉チェック領域AIの中心点が、ピッキングツールT1の把持中心位置PPとされる。但し、ワーク供給装置12の各壁部Sが電磁チャックに引きつけられるものである場合には、電磁チャックの磁力を考慮して、干渉チェック領域AIが拡大される。なお、図5(A)では、ピッキングツールT1が側面図で示され、干渉チェック領域AIが平面図で示されている。この点は、図5(B)(C)においても、同様である。
 ピッキングツールT2がメカチャックである場合には、図5(B)に示されるように、ピッキング時の姿勢にある一対のクランプ爪C,Cを上下方向で投影してなる一対の矩形影部が、ピッキングツールT2の一対の干渉チェック領域AI,AIとされる。但し、一対のクランプ爪C,Cは、近接位置と離間位置とを往復中のものとされる。従って、ピッキングツールT2の各干渉チェック領域AI,AIは、ピッキング時における一対のクランプ爪C,Cの可動範囲を示している。さらに、各干渉チェック領域AI,AI間の中心点が、ピッキングツールT2の把持中心位置PPとされる。ピッキングツールT3が吸着ノズルである場合には、図5(C)に示されるように、ピッキング時の姿勢にある吸着ノズルを上下方向で投影してなる円形影部が、ピッキングツールT3の干渉チェック領域AIとされる。さらに、干渉チェック領域AIの中心点が、ピッキングツールT3の把持中心位置PPとされる。
 図5(A)(B)(C)に示された各干渉チェック領域AIと各把持中心位置PPは、各ピッキングツールT1,T2,T3に関連付けされながら、画像処理装置80のHDD83に記憶されることによって、ロボットシステム10に登録される。干渉チェック領域の登録は、アーム22の先端リンク(第6リンク36)に着脱可能な全てのピッキングツールについても行われる。
 図6は、画像処理シーケンスの一例を示す説明図である。なお、以下の説明では、図6に加え、図7乃至図9などが参照される。図7は、検索領域AS内で各ワークW1~W8が抽出された際の撮像画像Iを示す説明図である。図8は、把持可能領域AAを例示する説明図である。図9は、挟持可能部品であるか否かを例示する説明図である。また、以下の説明では、ロボットシステム10において、図1に示されたワーク供給装置12が作業台11に設置されており、さらに、図2に示されたピッキングツールT2(つまり、メカチャック)がロボット20に装着されているものとする。さらに、そのような態様を表した情報は、オペレータが入力装置85を操作することにより、画像処理装置80に入力されているものとする。
 画像処理シーケンスにおいて、画像処理装置80は、コンベアベルト13の真上からワーク供給装置12をカメラ24で撮像する(S10)。続いて、画像処理装置80は、撮像画像に対して検索領域ASを設定する(S12)。その際、画像処理装置80は、図1に示されたワーク供給装置12に関連付けられて記憶されている検索領域AS(つまり、図4(A)に示されたもの)を、HDD83から読み出す。そして、画像処理装置80は、撮像画像の検索領域AS内にあるワークWを抽出する(S14)。具体的には、例えば、図7に示された撮像画像Iでは、その検索領域AS内において、8個のワークW1~W8が抽出されている。なお、抽出の技術は、公知技術であるので、その詳細な説明は省略する。
 次に、画像処理装置80は、撮像画像Iの検索領域AS内から、ピッキングツールT2のピッキング候補を、挟持対象部品として特定する(S16)。なお、特定の技術は、公知技術であるので、その詳細な説明は省略する。また、以下の説明において、図7に示された撮像画像I内のワークW1を挟持対象部品とする場合は、挟持対象部品W1と表記する。この点は、ワークW1以外のワークを挟持対象部品として説明する場合も、同様である。
 続いて、画像処理装置80は、固定モードに切り替えられているか否かを判定する(S18)。ここで、固定モードとは、後述する把持可能領域を最小に固定するモードをいう。なお、固定モードに切り替えられているか否かについての情報は、オペレータが入力装置85を操作することにより、画像処理装置80に入力される。画像処理装置80は、固定モードに切り替えられていない場合に応じて(S18:NO)、角度算出の処理を行う(S20)。
 この処理において、画像処理装置80は、上記の抽出時における挟持対象部品W1の輪郭(姿勢)に応じて、ピッキングツールT2の各クランプ爪C,Cが挟持対象部品W1を挟持するのに適した方向(以下、挟持対象部品W1の挟持方向という)を特定し、その特定方向とワーク供給装置12の壁部Sの内側壁面SWとが交わる角度を算出する(S20)。その際、画像処理装置80は、ワーク供給装置12の各壁部Sのうち、挟持対象部品W1に直近の壁部Sを、角度算出の対象とする。具合的には、図8(A)に示されるように、挟持対象部品W1の挟持方向D1は、挟持対象部品W1に直近の壁部Sの内側壁面SWと平行関係にある。そのため、零度の角度が算出される。
 そして、画像処理装置80は、算出した角度に連動させて、把持可能領域を設定する(S22)。把持可能領域は、ピッキングツールがワーク供給装置12の各壁部Sと干渉することを回避しながらワークWをピッキングすることが可能な範囲である。具体的には、画像処理装置80は、挟持対象部品W1に対して、図8(A)に示された把持可能領域AAを設定する。図8(A)では、挟持対象部品W1の挟持方向D1に向けられた各干渉チェック領域AI,AIの長辺が、挟持対象部品W1に直近の壁部Sに対して隣接する検索領域ASの境界に内接している。そのような状態にある各干渉チェック領域AI,AI(ピッキングツールT2)の把持中心位置PP上を、検索領域ASの境界に平行な直線AA1が通っている。その直線AA1から検索領域ASの中心側にある領域が、把持可能領域AAとされる。従って、算出された角度が零度である場合には、検索領域ASの境界から直線AA1(つまり、把持可能領域AA)までの長さが、距離L1で一定である。そこで、画像処理装置80は、算出した角度(零度)から把持可能領域AAを設定する。
 なお、上記S16でワークW2が挟持対象部品に特定されると、上記S20及び上記S22の各処理は、以下のようにして行われる。画像処理装置80は、上記の抽出時における挟持対象部品W2の輪郭(姿勢)に応じて、ピッキングツールT2の各クランプ爪C,Cが挟持対象部品W2を挟持するのに適した方向(以下、挟持対象部品W2の挟持方向という)を特定し、その特定方向とワーク供給装置12の壁部Sの内側壁面SWとが交わる角度を算出する。その際、画像処理装置80は、ワーク供給装置12の各壁部Sのうち、挟持対象部品W2に直近の壁部Sを、角度算出の対象とする。具合的には、図8(B)に示されるように、挟持対象部品W2の挟持方向D2は、挟持対象部品W2に直近の壁部Sの内側壁面SWと45度で交わる。そのため、45度の角度θが算出される。
 そして、画像処理装置80は、算出した45度の角度θに連動させて、把持可能領域AAを設定する。具体的には、画像処理装置80は、挟持対象部品W2に対して、図8(B)に示された把持可能領域AAを設定する。図8(B)では、挟持対象部品W2の挟持方向D2に向けられた各干渉チェック領域AI,AIのうち、挟持対象部品W2に直近の壁部Sにより近く位置する干渉チェック領域AIの角部が、その壁部Sに対して隣接する検索領域ASの境界に内接している。そのような状態にある各干渉チェック領域AI,AI(ピッキングツールT2)の把持中心位置PP上を、検索領域ASの境界に平行な直線AA1が通っている。その直線AA1から検索領域ASの中心側にある領域が、把持可能領域AAとされる。従って、算出された角度θが45度である場合には、検索領域ASの境界から直線AA1(つまり、把持可能領域AA)までの長さが、距離L2で一定である。そこで、画像処理装置80は、算出した角度θ(45度)から把持可能領域AAを設定する。なお、距離L2は、上記の距離L1よりも長い。
 また、上記S16でワークW3が挟持対象部品に特定されると、上記S20及び上記S22の各処理は、以下のようにして行われる。画像処理装置80は、上記の抽出時における挟持対象部品W3の輪郭(姿勢)に応じて、ピッキングツールT2の各クランプ爪C,Cが挟持対象部品W3を挟持するのに適した方向(以下、挟持対象部品W3の挟持方向という)を特定し、その特定方向とワーク供給装置12の壁部Sの内側壁面SWとが交わる角度を算出する。その際、画像処理装置80は、ワーク供給装置12の各壁部Sのうち、挟持対象部品W3に直近の壁部Sを、角度算出の対象とする。具合的には、図8(C)に示されるように、挟持対象部品W3の挟持方向D3は、挟持対象部品W2に直近の壁部Sの内側壁面SWと90度で交わる。そのため、90度の角度θが算出される。
 そして、画像処理装置80は、算出した90度の角度θに連動させて、把持可能領域AAを設定する。具体的には、画像処理装置80は、挟持対象部品W3に対して、図8(C)に示された把持可能領域AAを設定する。図8(C)では、挟持対象部品W3の挟持方向D3に向けられた各干渉チェック領域AI,AIのうち、挟持対象部品W3に直近の壁部Sにより近く位置する干渉チェック領域AIの短辺が、その壁部Sに対して隣接する検索領域ASの境界に内接している。そのような状態にある各干渉チェック領域AI,AI(ピッキングツールT2)の把持中心位置PP上を、検索領域ASの境界に平行な直線AA1が通っている。その直線AA1から検索領域ASの中心側にある領域が、把持可能領域AAとされる。従って、算出された角度θが90度である場合には、検索領域ASの境界から直線AA1(つまり、把持可能領域AA)までの長さが、距離L3で一定である。そこで、画像処理装置80は、算出した角度θ(90度)から把持可能領域AAを設定する。なお、距離L3は、上記の距離L2よりも長い。
 このようにして、画像処理装置80は、上記S20で算出された角度θに連動させて、把持可能領域AAを設定する。なお、上記S20で算出される角度θは、0度から90度の範囲で算出される。そのため、上記S20で算出される角度θが大きくなるに連れて、検索領域ASの境界から直線AA1(つまり、把持可能領域AA)までの距離が長くなるので、上記S22で設定される把持可能領域AAが狭くなる。
 これに対して、画像処理装置80は、固定モードに切り替えられている場合に応じて(S18:YES)、固定算出の処理を行う(S24)。この処理では、画像処理装置80は、所定の挟持可能領域を設定する。その挟持可能領域は、上記S20で算出された角度θが90度の場合に設定されるもの(図8(C)参照)と同一であり、上記S22で設定可能な全ての把持可能領域AAのうち、最小のものである。
 次に、画像処理装置80は、オフセット量が入力されているか否かを判定する(S26)。ここで、オフセット量とは、直線AA1からの距離をいう。なお、オフセット量に関する情報は、オペレータが入力装置85を操作することにより、画像処理装置80に入力される。画像処理装置80は、オフセット量が入力されていない場合に応じて(S26:NO)、後述するS30の処理を実行する。これに対して、画像処理装置80は、オフセット量が入力されている場合に応じて(S26:YES)、縮小設定の処理を行う(S28)。
 この処理では、画像処理装置80は、オフセット量に応じて把持可能領域AAを縮小する。具体的には、例えば、図8(A)(B)(C)に示されるように、把持可能領域AAの設定状態は、直線AA1から検索領域ASの中心側にある領域に設定されている状態から、その直線AA1に対して平行な直線AA2から検索領域ASの中心側にある領域に設定されている状態に変更される。この点、直線AA2は、直線AA1から検索領域ASの中心側へオフセット量Fの距離まで離れた位置にある。よって、このS28で設定される把持可能領域AAは、上記S22または上記S24で設定された把持可能領域AAよりも狭い。
 続いて、画像処理装置80は、S30の処理を実行する。この処理において、画像処理装置80は、上記S16で挟持対象部品に特定されたワークWが、挟持可能部品であるか否かを判定する。挟持可能部品とは、ピッキングツールT2がワーク供給装置12の各壁部Sとの干渉を回避しながら挟持することが可能なワークをいう。この判定では、ワークWを挟持する際におけるピッキングツールT2の把持中心位置PPと、上記S22、上記S24、または上記S28で設定された把持可能領域AAが使用される。
 具体的には、例えば、図9に示されるように、挟持対象部品としてワークW9(以下、挟持対象部品W9という)が特定された場合には、挟持対象部品W9を挟持する際におけるピッキングツールT2の把持中心位置PPが、把持可能領域AAの外側に位置する。このような場合には、画像処理装置80により、挟持対象部品W9が挟持可能部品でないと判定される。なお、この判定において、上記S22で設定された把持可能領域AA(その後に、上記S28で縮小された把持可能領域AAを含む)が使用される場合には、挟持対象部品W9に対して設定された把持可能領域AAが使用される。これに対して、挟持対象部品としてワークW10(以下、挟持対象部品W10という)が特定された場合には、挟持対象部品W10を挟持する際におけるピッキングツールT2の把持中心位置PPが、把持可能領域AAの内側に位置する。このような場合には、画像処理装置80により、挟持対象部品W9が挟持可能部品であると判定される。なお、この判定において、上記S22で設定された把持可能領域AA(その後に、上記S28で縮小された把持可能領域AAを含む)が使用される場合には、挟持対象部品W10に対して設定された把持可能領域AAが使用される。
 そして、画像処理装置80は、上記S16で挟持対象部品に特定されたワークWが挟持可能部品でない場合に応じて(S32:NO)、後述するS38の処理を実行する。これに対して、画像処理装置80は、上記S16で挟持対象部品に特定されたワークWが挟持可能部品である場合に応じて(S32:YES)、そのワークWを挟持する際におけるピッキングツールT2の把持中心位置PPなどに基づいて、ピッキングツールT2の目標位置及び目標姿勢を設定すると共に、その設定した目標位置及び目標姿勢を各モータ51~55の目標位置に座標変換する(S34)。さらに、画像処理装置80は、座標変換した目標位置を、固定モードの設定の有無が示された情報と共に、ロボット制御装置70へ送信する(S36)。
 なお、ロボット制御装置70は、ピッキングツールT2を目標位置に移動させる際は、上述したように、挟持可能部品と判断されたワークWの真上にピッキングツールT2を移動させた後、そのワークWの真上からピッキングツールT2をZ軸方向(上下方向)に沿って下降及び上昇させるように、モータ51~55を駆動制御する。但し、固定モードに設定されていない場合には、ロボット制御装置70は、少なくとも、そのワークWに直近の壁部Sの高さにピッキングツールT2が下降するまでの間において、ピッキングツールT2の各クランプ爪C,Cが動作する方向が、そのワークWを挟持するのに適した方向と一致するように、ピッキングツールT2を回動させる。
 次に、画像処理装置80は、撮像画像Iの検索領域AS内にある全てのワークWが、挟持対象部品に特定されたか否かを判定する(S38)。画像処理装置80は、全てのワークWが挟持対象部品に特定されていない場合に応じて(S38:NO)、上記S16以降の処理を繰り返し実行する。これにより、例えば、図7に示された撮像画像Iでは、抽出された各ワークW1~W8が挟持対象部品に特定される。これに対して、画像処理装置80は、全てのワークWが挟持対象部品に特定された場合に応じて(S38:YES)、画像処理シーケンスを終了する。
 なお、図1に示されたワーク供給装置12以外の供給装置が作業台11に設置された場合でも、上述した場合と同様な画像処理シーケンスが行われる。但し、上記S12では、その設置された供給装置に関連付けられて記憶されている検索領域が、HDD83から読み出される。
 また、図2に示されたピッキングツールT1(つまり、電磁チャック)がロボット20に装着されている場合、図2に示されたピッキングツールT3(つまり、吸着ノズル)がロボット20に装着されている場合、または、各ピッキングツールT1,T2,T3以外のピッキングツールが装着されている場合でも、上述した場合と同様な画像処理シーケンスが行われる。但し、ピッキングツールT1またはピッキングツールT3がロボット20に装着されている場合のように、ワークWを挟持する方向が特定できないときは、上記S22で設定される把持可能領域は、挟持対象部品に特定されたワークWの姿勢がいずれであっても一定となる。
以上詳細に説明したように、ロボットシステム10は、ワーク供給装置12から安定的にワークWをトレイTに移載することが可能である。
 ちなみに、本実施形態において、ロボットシステム10は、部品移載装置の一例である。ワーク供給装置12は、部品供給部の一例である。コンベアベルト13は、部品供給面の一例である。アーム22は、移動部の一例である。カメラ24は、撮像部の一例である。ロボット制御装置70は、制御部の一例である。画像処理装置80は、算出部、設定部、及び判定部の一例である。入力装置85は、切替部及び入力部の一例である。把持可能領域AAは、挟持可能領域の一例である。直線AA1は、挟持可能領域の境界の一例である。一対のクランプ爪C,Cは、一対の爪部の一例である。各挟持対象部品W1~W3の挟持方向D1~D3は、挟持対象部品を一対の爪部が挟持する方向の一例である。撮像画像Iは、画像の一例である。ピッキングツールT2は、保持具の一例である。ワークWは、複数の部品の一例である。
 尚、本発明は上記実施形態に限定されるものでなく、その趣旨を逸脱しない範囲で様々な変更が可能である。
 例えば、画像処理シーケンスにおいて、マニュアルモードが追加されてもよい。マニュアルモードでは、オペレータが入力装置85を操作することによって、把持可能領域AAを設定することが可能である。
 また、ロボット20は、5軸の垂直多関節アームに代えて、5軸以外の垂直多関節アームを備えたものであってもよいし、水平多関節アームを備えたものであってもよい。
10 ロボットシステム
12 ワーク供給装置
13 コンベアベルト
22 アーム
24 カメラ
70 ロボット制御装置
80 画像処理装置
85 入力装置
AA 把持可能領域
C,C 一対のクランプ爪
D1~D3 挟持対象部品を一対のクランプ爪が挟持する方向
F  オフセット量
I  撮像画像
SW 壁面
T2 ピッキングツール
W ワーク
W1~W3 ワーク(挟持対象部品)
W10 ワーク(挟持可能部品)
θ  角度

Claims (3)

  1.  複数の部品が散在した状態で置かれる部品供給面と、該部品供給面から該部品が脱落することを防止する壁面とを有する部品供給部と、
     前記部品供給面に置かれている部品を一対の爪部で挟持して保持する保持具と、
     前記部品供給面に置かれている部品の上に前記保持具を移動させると共に、該部品の上から上下方向に該保持具を移動させる移動部と、
     前記部品供給面の上から前記部品供給部を撮像する撮像部と、
     前記撮像部によって撮像された画像に基づいて、前記一対の爪部による挟持対象の部品である挟持対象部品を該一対の爪部が挟持する方向と、前記壁面とが交わる角度を算出する算出部と、
     前記算出部で算出された前記角度が大きくなるに連れて、前記部品供給面に置かれている部品を前記保持具が前記壁部との干渉を回避しながら前記一対の爪部で挟持することが可能な挟持可能領域を、より狭く設定する設定部と、
     前記設定部で設定された前記挟持可能領域と前記画像とに基づいて、前記挟持対象部品が、前記壁部との干渉を回避しながら前記保持具の前記一対の爪部によって挟持されることが可能な挟持可能部品であるか否かを判定する判定部と、
     前記判定部で前記挟持可能部品であると判定された前記挟持対象部品を前記保持具が前記一対の爪部で挟持して保持するように、前記保持具と前記移動部の作動を制御する制御部とを備える部品移載装置。
  2.  前記挟持可能領域が一定となる固定モードに切り替え可能な切替部を備え、
     前記設定部は、前記固定モードに切り替えられたことに応じて前記挟持可能領域を最小に固定する請求項1に記載の部品移載装置。
  3.  前記挟持可能領域の境界からの距離であるオフセット量が入力可能な入力部を備え、
     前記設定部は、前記オフセット量に応じて前記挟持可能領域を狭く設定する請求項1又は請求項2に記載の部品移載装置。
PCT/JP2017/042626 2017-11-28 2017-11-28 部品移載装置 WO2019106720A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780096217.9A CN111278612B (zh) 2017-11-28 2017-11-28 元件移载装置
PCT/JP2017/042626 WO2019106720A1 (ja) 2017-11-28 2017-11-28 部品移載装置
EP17933724.1A EP3718709B1 (en) 2017-11-28 2017-11-28 Component moving device
JP2019556434A JP6993426B2 (ja) 2017-11-28 2017-11-28 部品移載装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/042626 WO2019106720A1 (ja) 2017-11-28 2017-11-28 部品移載装置

Publications (1)

Publication Number Publication Date
WO2019106720A1 true WO2019106720A1 (ja) 2019-06-06

Family

ID=66665450

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/042626 WO2019106720A1 (ja) 2017-11-28 2017-11-28 部品移載装置

Country Status (4)

Country Link
EP (1) EP3718709B1 (ja)
JP (1) JP6993426B2 (ja)
CN (1) CN111278612B (ja)
WO (1) WO2019106720A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022013935A1 (ja) * 2020-07-14 2022-01-20 株式会社Fuji ロボットシステム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10202569A (ja) 1997-01-28 1998-08-04 Matsushita Electric Works Ltd 部品供給方法及び装置
JP2002331480A (ja) * 2001-05-09 2002-11-19 Fanuc Ltd 干渉回避装置
JP2007326160A (ja) * 2006-06-06 2007-12-20 Fanuc Ltd ロボットシミュレーション装置
JP2008062376A (ja) * 2006-09-05 2008-03-21 Adept Technology Inc 無作為におかれた対象物のためのビンピッキングシステム
JP2014205209A (ja) * 2013-04-11 2014-10-30 三菱電機株式会社 ロボットシステム、及びロボットシステムの制御方法
JP2017170560A (ja) * 2016-03-23 2017-09-28 日産自動車株式会社 ロボットのワーク移送方法及びワーク移送装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4303411B2 (ja) * 2000-10-06 2009-07-29 セイコーインスツル株式会社 トラッキング方法、及びトラッキングシステム
JP2002200588A (ja) * 2000-12-28 2002-07-16 Denso Corp ロボットによる把持可能部品の把持位置検出方法及びその装置
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
JP4390758B2 (ja) * 2005-09-08 2009-12-24 ファナック株式会社 ワーク取出し装置
JP5089533B2 (ja) * 2008-08-28 2012-12-05 株式会社神戸製鋼所 ロボットの干渉回避方法及びロボットシステム
JP2010105081A (ja) * 2008-10-28 2010-05-13 Kondo Seisakusho:Kk ビンピッキング装置
JP5266377B2 (ja) * 2011-12-19 2013-08-21 ファナック株式会社 物品の姿勢を修正する機能を備えた取出し装置
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10202569A (ja) 1997-01-28 1998-08-04 Matsushita Electric Works Ltd 部品供給方法及び装置
JP2002331480A (ja) * 2001-05-09 2002-11-19 Fanuc Ltd 干渉回避装置
JP2007326160A (ja) * 2006-06-06 2007-12-20 Fanuc Ltd ロボットシミュレーション装置
JP2008062376A (ja) * 2006-09-05 2008-03-21 Adept Technology Inc 無作為におかれた対象物のためのビンピッキングシステム
JP2014205209A (ja) * 2013-04-11 2014-10-30 三菱電機株式会社 ロボットシステム、及びロボットシステムの制御方法
JP2017170560A (ja) * 2016-03-23 2017-09-28 日産自動車株式会社 ロボットのワーク移送方法及びワーク移送装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3718709A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022013935A1 (ja) * 2020-07-14 2022-01-20 株式会社Fuji ロボットシステム
JP7440635B2 (ja) 2020-07-14 2024-02-28 株式会社Fuji ロボットシステム

Also Published As

Publication number Publication date
CN111278612B (zh) 2023-12-12
EP3718709A4 (en) 2020-12-02
JP6993426B2 (ja) 2022-01-13
EP3718709B1 (en) 2023-06-07
CN111278612A (zh) 2020-06-12
EP3718709A1 (en) 2020-10-07
JPWO2019106720A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
US10751871B2 (en) Robot and method of controlling the same
US20220314455A1 (en) Production system
JP5678979B2 (ja) ロボットシステム、校正方法及び被加工物の製造方法
US10406681B2 (en) Robot
JP6667548B2 (ja) エンドエフェクタ、ロボット、及びロボットの作業方法
US10589420B2 (en) Hand device
JP2006035397A (ja) 搬送ロボットシステム
US20130085604A1 (en) Robot apparatus, robot system, and method for producing a to-be-processed material
JP2009148845A (ja) 小型生産設備
CN110303494B (zh) 机器人加工系统
US10293499B2 (en) Movable robot
CN111687819A (zh) 把持包括连接器的工件的作业工具以及具备作业工具的机器人装置
JP7197653B2 (ja) 画像処理装置
CN108326864B (zh) 加工系统
WO2021053750A1 (ja) 作業ロボットおよび作業システム
JP2019130646A (ja) 作業ロボットシステム
WO2019106720A1 (ja) 部品移載装置
JP2020055059A (ja) 作業システム
JP2007237394A (ja) ワーク位置決め装置
US20200037478A1 (en) Three-dimensional mounting device and three-dimensional mounting method
JP6832408B1 (ja) 生産システム
WO2021048579A1 (ja) システム及び工作機械
JP2005177770A (ja) トランスファ装置及びそのワーク保持装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17933724

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019556434

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017933724

Country of ref document: EP

Effective date: 20200629