WO2021039829A1 - 生産システム - Google Patents

生産システム Download PDF

Info

Publication number
WO2021039829A1
WO2021039829A1 PCT/JP2020/032140 JP2020032140W WO2021039829A1 WO 2021039829 A1 WO2021039829 A1 WO 2021039829A1 JP 2020032140 W JP2020032140 W JP 2020032140W WO 2021039829 A1 WO2021039829 A1 WO 2021039829A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
robot
machine tool
identification
work
Prior art date
Application number
PCT/JP2020/032140
Other languages
English (en)
French (fr)
Inventor
秀樹 長末
昌昭 中川
勇太 大場
Original Assignee
Dmg森精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dmg森精機株式会社 filed Critical Dmg森精機株式会社
Priority to CN202080061398.3A priority Critical patent/CN114340842A/zh
Priority to US17/639,329 priority patent/US20220314455A1/en
Priority to EP20856131.6A priority patent/EP4019200A4/en
Publication of WO2021039829A1 publication Critical patent/WO2021039829A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/248Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods
    • B23Q17/249Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods using image analysis, e.g. for radar, infrared or array camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q7/00Arrangements for handling work specially combined with or arranged in, or specially adapted for use in connection with, machine tools, e.g. for conveying, loading, positioning, discharging, sorting
    • B23Q7/04Arrangements for handling work specially combined with or arranged in, or specially adapted for use in connection with, machine tools, e.g. for conveying, loading, positioning, discharging, sorting by means of grippers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • B25J11/0055Cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39394Compensate hand position with camera detected deviation, new end effector attitude
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40604Two camera, global vision camera, end effector neighbourhood vision camera

Definitions

  • the present invention includes a machine tool that processes a workpiece, a robot that works on the machine tool, an automatic guided vehicle that is equipped with a robot and passes through a work position set for the machine tool, and these robots and an automatic guided vehicle. It relates to a production system composed of a control device for controlling the operation of.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2017-132002
  • an automatic guided vehicle equipped with a robot moves to a work position set for the machine tool, and at the work position, the robot performs work such as attaching / detaching the work to the machine tool. Will be executed.
  • one robot moved by an automatic guided vehicle can perform work such as attaching / detaching a work to a plurality of machine tools, so that the robot is fixed to the machine tool. Since the degree of freedom in the layout of the machine tool is increased as compared with the case where the machine tool is arranged in the state, the layout of the machine tool can be set to a layout capable of further improving the production efficiency. In addition, compared to the conventional production system in which the robots are arranged in a fixed state, it is possible to work on more machine tools with one robot, so that the equipment cost can be reduced. ..
  • the automatic guided vehicle since the automatic guided vehicle has a structure that self-propells using wheels, its positioning accuracy of stopping at the working position is not necessarily high. Therefore, in order for the robot to perform accurate work on the machine tool, the posture of the robot when the automatic guided vehicle is positioned at the work position and the robot set at the time of so-called teaching, which is a control reference, are used. It is necessary to compare with the reference posture, detect the amount of the error, and correct the working posture of the robot according to the amount of the error.
  • a position correction method as disclosed in Japanese Patent Application Laid-Open No. 2016-221622 (Patent Document 2 below) is conventionally known.
  • a visual target composed of two calibration markers is arranged on the outer surface of the machine tool, and the visual target is imaged by a camera provided on a movable part of the robot.
  • the relative positional relationship between the robot and the machine tool is measured based on the captured image and the position and orientation of the camera, and the working posture of the robot is corrected based on the measured positional relationship. ..
  • the automatic guided vehicle since the automatic guided vehicle is configured to move by the movement of the wheels having a relatively high degree of freedom, the mounting surface on which the robot is mounted tends to tilt with respect to the floor surface, and the tilting is easy to tilt. , In other words, it has a characteristic that it easily fluctuates according to a change in the position of the center of gravity of the robot according to a change in the posture of the mounted robot.
  • the robot takes a posture in which the hand is inserted into the machine tool when attaching / detaching the work described above, in other words, when the arm of the robot is in a state of being significantly overhanged from the automatic guided vehicle.
  • the tilt of the above-mentioned mounting surface is larger than the tilt when the robot hand is outside the machine tool and the arm is not overhanged from the automatic guided vehicle, or even if it is overhanged, it is a small amount. It becomes a thing.
  • the visual target which is a calibration marker
  • the position correction amount of the robot in the state where the robot is outside the machine tool
  • the obtained position correction amount is used to accurately determine the posture of the robot for the work attachment / detachment operation executed when the robot hand is inside the machine tool. It cannot be corrected.
  • the robot hand cannot be accurately positioned with respect to the chuck.
  • the chuck is a collet chuck or the like.
  • stroke movement allowance
  • the present invention has been made in view of the above circumstances, and in a production system configured to perform work on a machine tool by a robot mounted on an automatic guided vehicle, the working posture of the robot with respect to the machine tool.
  • the purpose is to provide a production system that can correct the above with higher accuracy.
  • the present invention for solving the above problems Machine tools that perform predetermined machining on workpieces and A robot that has a camera that captures images and works on the machine tool, An automatic guided vehicle equipped with the robot and passing through a work position set for the machine tool. After moving the automatic guided vehicle to the work position according to an operation program including a preset operation command, the robot is given an identification figure for posture correction provided on the machine tool from the work start posture. It is equipped with a control device configured to take an imaging posture that can be imaged by a camera and then to take multiple working postures in sequence.
  • the work start posture, the imaging posture, and the work posture are production systems that are preset by the teaching operation of the robot.
  • the identification figure is arranged in the machining area of the machine tool.
  • the control device stores in advance an image of the identification figure captured by the camera as a reference image in a state where the robot is shifted to the imaging posture during the teaching operation, and the automatic guided vehicle according to the operation program. And, when the robot is repeatedly operated, the robot is shifted from the work start posture to the imaging posture, and the robot is based on an image of the identification figure captured by the camera and a reference image.
  • the present invention relates to a production system configured to estimate the amount of error between the current posture of the robot and the posture during a teaching operation and correct the working posture based on the estimated amount of error.
  • the automatic guided vehicle and the robot are controlled by the control device, and the automatic guided vehicle passes through a working position set for the machine tool. Then, under the control of the control device, the robot sequentially takes a plurality of working postures according to an operation program including a preset operation command, so that, for example, a work such as attaching / detaching a work to a machine tool can be performed. Execute.
  • the operation of the robot is controlled according to the operation program, and after the automatic guided vehicle moves to the work position, the robot starts the operation from the work start posture, and then the identification figure for posture correction provided in the machine tool is displayed on the camera. Therefore, it operates so as to take an imaging posture capable of imaging and then take a plurality of working postures in sequence.
  • the work start posture, the imaging posture, and the work posture are set in advance by teaching the robot.
  • the control device stores in advance an image of the identification figure captured by the camera as a reference image in a state where the robot is shifted to the imaging posture during the teaching operation.
  • the image of the identification figure captured by the camera and the reference in the state where the robot is shifted from the work start posture to the imaging posture is estimated, and the working posture is corrected based on the estimated amount of error.
  • the working posture of the robot is corrected by using the identification figure arranged in the machining area of the machine tool in which the robot actually works, so that the working posture can be accurately corrected. It can be corrected, so that the robot can perform the work with high accuracy even in the work requiring high operation accuracy.
  • the production system operates at a high operating rate without causing unnecessary interruption, and as a result, according to the production system, the production is highly reliable. It is possible to achieve highly efficient unmanned operation.
  • the identification figure can be displayed on a structure that can be arranged in the processing area of the machine tool, or can be projected onto the structure using a projector.
  • the display on the structure can take a mode in which the identification figure is directly drawn on the structure or a mode in which the sheet body on which the identification figure is drawn is attached to the structure.
  • a tool presetter provided so as to be able to advance and retreat with respect to the machining area of the machine tool can be adopted, or a holder provided detachably on the tool spindle of the machine tool can be adopted. Can be done.
  • the identification figure can be displayed on a display provided so as to be arranged in the processing area of the machine tool. Then, this display can be attached to the above-mentioned tool presetter or holder.
  • the identification figure can take a mode having a matrix structure in which a plurality of pixels are arranged two-dimensionally.
  • the working posture of the robot is corrected by using the identification figure arranged in the processing area of the machine tool in which the robot actually works.
  • the working posture can be accurately corrected, whereby the robot can perform the work with high accuracy even in the work requiring high operation accuracy.
  • the production system 1 of this example includes a machine tool 10, a material stocker 20 as a peripheral device, a product stocker 21, an automatic guided vehicle 35, and a robot 25 mounted on the automatic guided vehicle 35. , A camera 31 mounted on the robot 25, and a control device 40 for controlling the robot 25 and the automatic guided vehicle 35.
  • the machine tool 10 is a so-called multi-tasking type NC (numerical control) including a work spindle 11 on which a chuck for gripping a workpiece is mounted and a tool spindle 12 on which a tool is held. ) It is a machine tool and can perform both turning and milling. Further, a tool presetter 13 provided with a contact 14 and a support bar 15 for supporting the contact 14 is provided in the vicinity of the work spindle 11, and the support bar 15 is machined along the axis of the work spindle 11. A display plate 16 is provided on the end portion on the processing region side and the side surface on the operation side so as to be able to advance and retreat with respect to the region, and the identification figure shown in FIG.
  • FIGS. 4 and 5 show a state in which the support bar 15 and the contactor 14 have advanced into the processing region. Further, in FIGS. 4 and 5, the chuck is not shown for convenience.
  • the material stocker 20 is a device arranged on the left side of the machine tool 10 in FIG. 1 and stocks a plurality of materials (work before processing) processed by the machine tool 10.
  • the product stocker 21 is a device arranged on the right side of the machine tool 10 in FIG. 1 and stocks a plurality of products or semi-finished products (processed workpieces) processed by the machine tool 10.
  • the automatic guided vehicle 35 is provided with the robot 25 mounted on a mounting surface 36 which is an upper surface thereof, and an operation panel 37 which can be carried by an operator.
  • the operation panel 37 includes an input / output unit for inputting / outputting data, an operation unit for manually operating the automatic guided vehicle 35 and the robot 25, a display capable of displaying a screen, and the like.
  • the automatic guided vehicle 35 is provided with a sensor capable of recognizing its own position in the factory (for example, a distance measurement sensor using a laser beam), and the machine tool 10 is controlled by the control device 40.
  • the material stocker 20 and the product stocker 21 are configured to travel on an automated guided vehicle in the factory including the area where the material stocker 20 and the product stocker 21 are arranged.
  • the machine tool 10, the material stocker 20, and the product stocker 21 are set for each of the machine tools 10. Go through each work position.
  • the robot 25 is an articulated robot having three arms, a first arm 26, a second arm 27, and a third arm 28, and a hand 29 as an end effector is attached to the tip of the third arm 28. It is mounted, and two cameras 31 are mounted via the support bar 30.
  • the control device 40 includes an operation program storage unit 41, a moving position storage unit 42, an operation posture storage unit 43, a map information storage unit 44, a reference image storage unit 45, a manual operation control unit 46, and an automatic operation device 40. It is composed of an operation control unit 47, a map information generation unit 48, a position recognition unit 49, a correction amount calculation unit 50, and an input / output interface 51.
  • the control device 40 is connected to the machine tool 10, the material stocker 20, the product stocker 21, the robot 25, the camera 31, the automatic guided vehicle 35, and the operation panel 37 via the input / output interface 51.
  • the control device 40 is composed of a computer including a CPU, RAM, ROM, etc., and includes the manual operation control unit 46, the automatic operation control unit 47, the map information generation unit 48, the position recognition unit 49, the correction amount calculation unit 50, and the like.
  • the function of the input / output interface 51 is realized by a computer program, and the processing described later is executed.
  • the operation program storage unit 41, the moving position storage unit 42, the operation posture storage unit 43, the map information storage unit 44, and the reference image storage unit 45 are appropriately composed of a storage medium such as a RAM.
  • the manual operation control unit 46 is a functional unit that operates the automatic guided vehicle 35, the robot 25, and the camera 31 according to an operation signal input from the operation panel 37 by the operator. That is, the operator can manually operate the automatic guided vehicle 35, the robot 25, and the camera 31 using the operation panel 37 under the control of the manual operation control unit 46.
  • the operation program storage unit 41 operates the automatic guided vehicle 35 when generating an automatic driving program for automatically driving the automatic guided vehicle 35 and the robot 25 at the time of production, and map information in a factory to be described later. It is a functional part that stores a program for generating a map.
  • the automatic operation program and the map generation program are, for example, input from the input / output unit provided on the operation panel 37 and stored in the operation program storage unit 41.
  • this automatic driving program includes a command code regarding a moving position, a moving speed, and a direction of the automatic guided vehicle 35 as a target position for the automatic guided vehicle 35 to move, and the operation of the robot 25 in which the robot 25 operates sequentially.
  • a command code relating to the operation of the camera 31 and a command code relating to the operation of the camera 31 are included.
  • the map generation program includes a command code for running the automatic guided vehicle 35 without a track in the factory so that the map information generation unit 48 can generate map information.
  • the map information storage unit 44 is a functional unit that stores map information including arrangement information of machines, devices, devices, etc. (devices, etc.) arranged in the factory where the unmanned carrier 35 travels. It is generated by the map information generation unit 48.
  • the map information generation unit 48 runs the automatic guided vehicle 35 according to the map generation program stored in the operation program storage unit 41 under the control of the automatic operation control unit 47 of the control device 40, which will be described in detail later.
  • the spatial information in the factory is acquired from the distance data detected by the sensor, and the planar shape of the device or the like arranged in the factory is recognized.
  • the planar shape of the device or the like registered in advance is recognized.
  • the position, plane shape, etc. (arrangement information) of the machine tool 10, the material stocker 20, and the product stocker 21 are recognized based on the specific device arranged in the factory.
  • the map information generation unit 48 stores the obtained spatial information and the arrangement information of the device or the like in the map information storage unit 44 as map information in the factory.
  • the position recognition unit 49 recognizes the position of the automatic guided vehicle 35 in the factory based on the distance data detected by the sensor and the map information in the factory stored in the map information storage unit 44.
  • the operation of the automatic guided vehicle 35 is controlled by the automatic driving control unit 47 based on the position of the automatic guided vehicle 35 recognized by the position recognition unit 49.
  • the moving position storage unit 42 is a moving position as a specific target position for the automatic guided vehicle 35 to move, and is a functional unit that stores a specific moving position corresponding to a command code in the operation program. Yes, this moving position includes each working position set for the machine tool 10, the material stocker 20, and the product stocker 21 described above.
  • the movement position is determined, for example, by manually driving the automatic guided vehicle 35 with the operation panel 37 under the control of the manual operation control unit 46 to move the automatic guided vehicle 35 to each target position, and then recognizing the position.
  • the position data recognized by the unit 49 is set by an operation of storing the position data in the moving position storage unit 42. This operation is called a so-called teaching operation.
  • the motion posture storage unit 43 is a posture (motion posture) of the robot 25 that changes sequentially when the robot 25 operates in a predetermined order, and is data related to the motion posture corresponding to the command code in the motion program. It is a functional part that memorizes.
  • the data related to this operating posture is obtained when the robot 25 is manually operated by the teaching operation using the operation panel 37 under the control of the manual operation control unit 46 to take each target posture. It is the rotation angle data of each joint (motor) of the robot 25 in each posture, and this rotation angle data is stored in the operation posture storage unit 43 as data related to the operation posture.
  • the specific operating posture of the robot 25 is set in the material stocker 20, the machine tool 10, and the product stocker 21, respectively.
  • the work start posture take-out start posture
  • the unprocessed work stored in the material stocker 20 are grasped by the hand 29, and the material stocker 20 is held.
  • Each work posture (each take-out posture) for taking out from and the posture when the take-out is completed (the take-out complete posture, which is the same as the take-out start posture in this example) are set as the take-out operation postures.
  • a work taking-out operation posture for taking out the machined work from the machine tool 10 and a work attachment operation posture for attaching the pre-machined work to the machine tool 10 are set.
  • the work taking-out operation posture for example, the work start posture before entering the machine tool 10 (see FIG. 4), and the posture in which the identification figure provided on the support bar 15 is imaged by the camera 31 (imaging posture).
  • the posture in which the hand 29 faces the processed work gripped by the chuck of the machine tool 10 (the posture for preparing to take out), the hand 29 is moved to the chuck side, and the hand 29 is gripped by the chuck.
  • a posture in which the processed work is gripped by the hand 29 (holding posture), a posture in which the hand 29 is separated from the chuck and the processed work is removed from the chuck (removal posture), and a posture in which the machined work is pulled out from the machine tool 10 (work completion posture).
  • Each posture is set.
  • the work mounting operation posture for example, the work start posture before entering the machine tool 10 (see FIG. 4) and the posture in which the identification figure provided on the support bar 15 is imaged by the camera 31 (imaging posture) (FIG. 5).
  • the posture in which the pre-machining work gripped by the hand 29 faces the chuck of the machine tool 10 mounting preparation posture
  • the hand 29 can be moved to the chuck side to grip the pre-machining work by the chuck.
  • Each posture is set: a set posture (mounting posture), a posture in which the hand 29 is separated from the chuck (separation posture), and a posture in which the hand 29 is separated from the machine tool 10 (work completion posture).
  • the work start posture (storage start posture) when the work is started in the product stocker 21, and each work posture (storage) for storing the processed work held by the hand 29 in the product stocker 21.
  • the posture) and the posture when the storage is completed (the storage completion posture, which is the same posture as the storage start posture in this example) are set as the storage operation postures.
  • the automatic driving control unit 47 uses any of the automatic driving program and the map generation program stored in the operation program storage unit 41, and operates the automatic guided vehicle 35, the robot 25, and the camera 31 according to the program. It is a department. At that time, the data stored in the moving position storage unit 42 and the operating posture storage unit 43 are used as needed.
  • the reference image storage unit 45 is the support bar 15 of the tool presetter 13 when the automatic guided vehicle 35 is in the working position set with respect to the machine tool 10 and the robot 25 is in the imaging posture during the teaching operation.
  • This is a functional unit that stores an image obtained by photographing the identification figure provided in the above with two cameras 31 as a reference image.
  • the correction amount calculation unit 50 causes the robot 25 to operate.
  • the identification figure is imaged by the two cameras 31 in the imaging posture, teaching is performed based on the image of the identification figure obtained during the automatic operation and the reference image stored in the reference image storage unit 45.
  • the amount of error between the imaging posture at the time and the imaging posture during automatic operation is estimated, and the correction amount for the work taking-out motion posture and the work mounting motion posture of the robot 25 is calculated based on the estimated error amount.
  • FIG. 6B shows an example of an identification figure captured during automatic operation.
  • the camera 31 is a so-called stereo camera, and from the images obtained by these, the relative positional relationship between the camera 31 and the identification figure and the rotation angle of the camera 31 with respect to the identification figure, for example, rotation around three orthogonal axes.
  • the angle can be calculated.
  • the imaging posture during teaching and the imaging posture during automatic operation are used.
  • the amount of error between the imaging posture and the image can be estimated.
  • unmanned automatic production is executed as follows.
  • the automatic operation program stored in the operation program storage unit 41 is executed, and according to this automatic operation program, for example, the automatic guided vehicle 35 and The robot 25 operates as follows.
  • the automatic guided vehicle 35 moves to the work position set for the machine tool 10, and the robot 25 takes the work start posture of the work take-out operation described above.
  • the machine tool 10 completes a predetermined machining, opens the door cover so that the robot 25 can enter the machining area, and receives a command from the automatic operation control unit 47. It is assumed that the support bar 15 of the tool presetter 13 is advanced into the processing region.
  • the robot 25 shifts to the imaging posture, and the identification figure provided on the support bar 15 is imaged by the camera 31. Then, when the identification figure is imaged by the camera 31 in this way, the correction amount calculation unit 50 uses the image of the identification figure and the reference image stored in the reference image storage unit 45 as a reference. The amount of error between the imaging posture during teaching of the robot 25 and the current imaging posture is estimated, and the correction amount for the subsequent work taking-out operation posture of the robot 25 is calculated based on the estimated error amount.
  • the automatic operation control unit 47 performs the subsequent work take-out operation posture, that is, the above-mentioned take-out preparation posture, gripping posture, removal posture, and work completion.
  • the posture is controlled, and the machined work gripped by the chuck of the machine tool 10 is gripped by the hand 29 and taken out from the machine tool 10.
  • the chuck is opened by transmitting a chuck opening command from the automatic operation control unit 47 to the machine tool 10.
  • the automatic operation control unit 47 moves the automatic guided vehicle 35 to the work position set for the product stocker 21, and causes the robot 25 to start the storage start posture when the product stocker 21 starts work.
  • Each storage posture for storing the processed work gripped by the hand 29 in the product stocker 21 and the storage completion posture when the storage is completed are sequentially taken, and the processed work gripped by the hand 29 is stored in the product stocker 21. Store in.
  • the automatic operation control unit 47 moves the automatic guided vehicle 35 to the work position set with respect to the material stocker 20, and causes the robot 25 to take out the material stocker 20 when starting work.
  • the unprocessed work stored in the material stocker 20 is grasped by the hand 29, and each take-out posture for taking out from the material stocker 20 and the take-out completion posture when the take-out is completed are sequentially taken, and the hand 29 is processed.
  • the front work is gripped.
  • the automatic operation control unit 47 moves the automatic guided vehicle 35 to the work position set for the machine tool 10 again, and causes the robot 25 to take the work start posture of the work mounting operation described above. Then, the robot 25 is shifted to the imaging posture, and the identification figure provided on the support bar 15 is imaged by the camera 31. Then, when the identification figure is imaged by the camera 31 in this way, the correction amount calculation unit 50 uses the image of the identification figure and the reference image stored in the reference image storage unit 45 as a reference. The amount of error between the imaging posture during teaching of the robot 25 and the current imaging posture is estimated, and the correction amount for the subsequent work mounting motion posture of the robot 25 is calculated based on the estimated error amount.
  • the automatic operation control unit 47 determines the work mounting operation posture of the subsequent robot 25, that is, the mounting preparation posture, the mounting posture, the separation posture, and the work described above, based on the correction amount calculated by the correction amount calculation unit 50.
  • the robot 25 is made to perform an operation of moving out of the machine tool after attaching the pre-machining work gripped by the hand 29 to the chuck of the machine tool 10.
  • the automatic operation control unit 47 transmits a machining start command to the machine tool 10 to cause the machine tool 10 to perform the machining operation.
  • the automatic operation control unit 47 sends a chuck closing command to the machine tool 10, so that the chuck is closed and the work before machining is gripped by the chuck.
  • the working posture of the robot 25 is corrected by using the identification figure arranged in the machining area of the machine tool 10 in which the robot 25 actually works.
  • the working posture can be accurately corrected, whereby the robot 25 can accurately execute the work even in a work requiring high operation accuracy.
  • the production system 1 operates at a high operating rate without causing unnecessary interruption, and as a result, according to the production system 1, reliability. It is possible to achieve unmanned production with high production efficiency.
  • the identification figure is provided on the support bar 15 of the tool presetter 13 stored outside the machining area, so that the identification figure is generated during machining. It is possible to prevent the stain from being soiled by chips and the like, and as a result, the above correction can be performed with high accuracy.
  • the sheet on which the identification figure is drawn is attached to the display board 16 provided on the support bar 15, but the present invention is not limited to this, and the identification figure is drawn directly on the display board 16. You may try to do it.
  • the identification figure is arranged on the holder 17 detachably provided on the tool spindle 12 of the machine tool 10, and the tool is provided only in this respect.
  • the configuration is different from that of the first embodiment in which the identification figure is arranged on the support bar 15 of the presetter 13.
  • this holder 17 can be stored outside the machining area when the machine tool 10 is performing machining, so that the identification figure is contaminated by chips or the like generated during machining. As a result, the above correction can be performed with high accuracy.
  • the arrangement of the identification figure on the holder 17 can be a mode in which the sheet on which the identification figure is drawn is attached to the holder 17, or a mode in which the identification figure is directly drawn on the holder 17.
  • the identification figure is projected on the display board 16 provided on the support bar 15 of the tool presetter 13 of the machine tool 10 by using the projector 18.
  • the configuration is different from the first embodiment in which the identification figure is arranged on the tool presetter 13. Even in such an aspect, the same effect as that of the first embodiment can be obtained.
  • a fourth embodiment of the present invention will be described.
  • a display 19 is provided on the support bar 15 of the tool presetter 13 of the machine tool 10, and an identification figure is displayed on the display 19. Only in that respect is its configuration different from that of the first embodiment. Even in such an aspect, the same effect as that of the first embodiment can be obtained.
  • a display 19 is provided in the holder 17 of the machine tool 10 and an identification figure is displayed on the display 19. .. Even in such an aspect, the same effect as that of the first embodiment can be obtained.
  • the identification figure a figure having a matrix structure in which a plurality of pixels are arranged two-dimensionally is adopted, but the present invention is not limited to this, and the posture of the robot 25 is determined from the captured image.
  • Various figures can be adopted as long as the correction amount of can be calculated.
  • two cameras 31 are provided, but the present invention is not limited to this, and one camera 31 may be used as long as the correction amount of the posture of the robot 25 can be calculated from the captured image.
  • holders and tool presetters have been adopted as objects for installing, projecting, and displaying the identification figures, but the present invention is not limited to these, and objects such as tailstocks, beds, and tables are placed in the processing area. All you need is.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

工作機械(10)と、カメラ(31)を有するロボット(25)と、ロボット(25)を搭載した無人搬送車(35)と、無人搬送車(35)及びロボット(25)を制御する制御装置(40)とを備え、工作機械(10)の加工領域内に識別図形が配置される。制御装置(40)は、ティーチング操作時に、ロボット(25)を撮像姿勢にした状態で、カメラ(31)により撮像された識別図形の画像を基準画像として記憶し、無人搬送車(35)及びロボット(25)の繰り返し動作時に、ロボット(25)を撮像姿勢にした状態で、カメラ(31)により撮像される識別図形の画像、及び基準画像に基づいて、ロボット(25)の現在の姿勢とティーチング操作時の姿勢との間の誤差量を推定し、推定された誤差量に基づいて、ロボット(25)の作業姿勢を補正する。

Description

生産システム
 本発明は、ワークを加工する工作機械、工作機械に対して作業を行うロボット、ロボットを搭載し、工作機械に対して設定された作業位置に経由する無人搬送車、並びにこれらロボット及び無人搬送車の動作を制御する制御装置から構成される生産システムに関する。
 従来、上述した生産システムの一例として、特開2017-132002号公報(下記特許文献1)に開示された生産システムが知られている。このような生産システムでは、ロボットを搭載した無人搬送車が、工作機械に対して設定された作業位置に移動し、当該作業位置において、ロボットにより当該工作機械に対してワークの着脱等の作業が実行される。
 このような、生産システムでは、無人搬送車によって移動する一台のロボットにより、複数の工作機械に対してワークの着脱等の作業を実施することができるので、工作機械に対してロボットを固定した状態で配設する場合に比べて、工作機械のレイアウトの自由度が増すため、工作機械のレイアウトをより生産効率を高めることが可能なレイアウトに設定することができる。また、ロボットを固定状態で配設した旧来の生産システムに比べて、一台のロボットにより、より多くの工作機械に対して作業を行うことができるので、設備費用の低廉化を図ることができる。
 その一方、無人搬送車は車輪を用いて自走する構造であるが故に、前記作業位置に停止するその位置決め精度は必ずしも高いものとは言えない。このため、ロボットが工作機械に対して正確な作業を行うためには、無人搬送車を前記作業位置へ位置決めした際のロボットの姿勢と、制御上の基準となる所謂ティーチング時に設定されたロボットの基準姿勢とを比較して、その誤差量を検出し、当該誤差量に応じてロボットの作業姿勢を補正する必要がある。
 このようなロボットの姿勢を補正する技術として、従来、特開2016-221622号公報(下記特許文献2)に開示されるような位置補正手法が知られている。具体的には、この位置補正手法は、2つの較正用マーカからなる視覚ターゲットを工作機械の外表面に配設し、ロボットの可動部に設けられたカメラにより、前記視覚ターゲットを撮像し、得られた画像と、カメラの位置及び姿勢とを基に、ロボットと工作機械との相対的な位置関係を測定し、測定された位置関係に基づいて、ロボットの作業姿勢を補正するというものである。
特開2017-132002号公報 特開2016-221622号公報
 ところが、上述した従来の位置補正手法では、例えば、ロボットのハンドなどを工作機械内に進入させ、当該ハンドを用いて工作機械のチャックなどに対してワークの着脱を行う際に、この着脱を行うロボットの作業姿勢を正確に補正することができないという問題があった。
 即ち、前記無人搬送車は、比較的自由度の高い車輪の動作によって移動するように構成されているため、ロボットが搭載された載置面は床面に対して傾き易く、また、当該傾きが、搭載するロボットの姿勢の変化に応じて、言い換えれば、ロボットの重心位置の変化に応じて、変動し易いという特性を有している。
 このため、上述したワークの着脱を行う際に、ロボットがそのハンドを工作機械内に進入させた姿勢を取るとき、言い換えれば、ロボットのアームが前記無人搬送車から大きくオーバハングした状態となるときの前記載置面の傾きは、ロボットのハンドが工作機械の機外に在り、アームが前記無人搬送車からオーバハングしていないか、或いはオーバハングしていたとしても少量である場合の傾きよりも、大きなものとなる。
 したがって、上述した従来の位置補正手法のように、較正用マーカである視覚ターゲットを工作機械の外表面に配設し、ロボットが工作機械の機外に在る状態で、ロボットの位置補正量(姿勢補正量)を取得しても、得られた位置補正量を用いては、ロボットのハンドが工作機械内にあるときに実行されるワークの着脱動作については、当該ロボットの姿勢を正確には補正することができないのである。
 そして、ワークを着脱する際のロボットの姿勢を正確に補正することができなければ、チャックに対してロボットハンドを正確に位置決めすることができず、例えば、前記チャックがコレットチャックなど、把持部の動き代(ストローク)が極僅かであるチャックの場合には、当該チャックに対してワークを確実に把持させることができないという問題を生じる。
 斯くして、このようにワークの着脱を確実に実行することができなければ、当該生産システムの稼働率が低下することになるため、当該生産システムにおいて、信頼性が高く、生産効率の良い無人化を実現することはできない。
 本発明は、以上の実情に鑑みなされたものであって、無人搬送車に搭載されたロボットにより、工作機械に対して作業を行うように構成された生産システムにおいて、工作機械に対するロボットの作業姿勢をより高精度に補正することができる生産システムの提供を、その目的とする。
 上記課題を解決するための本発明は、
 ワークに対して所定の加工を行う工作機械と、
 画像を撮像するカメラを有し、前記工作機械に対して作業を行うロボットと、
 前記ロボットを搭載し、前記工作機械に対して設定された作業位置に経由する無人搬送車と、
 予め設定された動作指令を含む動作プログラムに従って、前記無人搬送車を前記作業位置に移動させた後、前記ロボットに、作業開始姿勢から、前記工作機械に設けられた姿勢補正用の識別図形を前記カメラよって撮像可能な撮像姿勢を取らせ、ついで複数の作業姿勢を順次取らせるように構成された制御装置とを備え、
 前記作業開始姿勢、撮像姿勢及び作業姿勢は、前記ロボットをティーチング操作することによって予め設定される生産システムであって、
 前記識別図形は、前記工作機械の加工領域内に配置され、
 前記制御装置は、前記ティーチング操作時に、前記ロボットを撮像姿勢に移行させた状態で、前記カメラによって撮像される前記識別図形の画像を基準画像として予め記憶し、前記動作プログラムに従って、前記無人搬送車及びロボットを繰り返し動作させる際に、前記ロボットを、前記作業開始姿勢から前記撮像姿勢に移行させた状態で、前記カメラにより撮像される前記識別図形の画像、及び前記基準画像に基づいて、前記ロボットの現在の姿勢とティーチング操作時の姿勢との間の誤差量を推定し、推定された誤差量に基づいて、前記作業姿勢を補正するように構成された生産システムに係る。
 この生産システムによれば、前記制御装置により前記無人搬送車及びロボットが制御され、無人搬送車は工作機械に対して設定された作業位置に経由する。そして、ロボットは、前記制御装置による制御の下、予め設定された動作指令を含む動作プログラムに従った複数の作業姿勢を順次取ることにより、例えば、工作機械に対してワークの着脱などの作業を実行する。
 ロボットの動作は動作プログラムに従って制御され、無人搬送車が前記作業位置に移動した後、ロボットは、作業開始姿勢から動作を開始し、ついで工作機械に設けられた姿勢補正用の識別図形を前記カメラよって撮像可能な撮像姿勢をとり、次に複数の作業姿勢を順次取るように動作する。この作業開始姿勢、撮像姿勢及び作業姿勢は、予め、ロボットをティーチング操作することによって設定される。
 そして、制御装置は、前記ティーチング操作時に、前記ロボットを撮像姿勢に移行させた状態で、前記カメラによって撮像される前記識別図形の画像を基準画像として予め記憶する。次に、前記動作プログラムに従って、無人搬送車及びロボットを繰り返し動作させる際に、ロボットを、作業開始姿勢から撮像姿勢に移行させた状態で、カメラにより撮像される前記識別図形の画像、及び前記基準画像に基づいて、ロボットの現在の姿勢とティーチング操作時の姿勢との間の誤差量を推定し、推定された誤差量に基づいて、前記作業姿勢を補正する。
 斯くして、この生産システムでは、ロボットが実際に作業する工作機械の加工領域内に配置された識別図形を用いて、ロボットの作業姿勢を補正するようにしているので、当該作業姿勢を正確に補正することができ、これにより、ロボットは、高い動作精度が求められる作業でも、当該作業を精度良く実行することができる。
 そして、このようにロボットが精度の良い作業を実行することで、当該生産システムは不要な中断を招くことなく高い稼働率で稼働し、結果、当該生産システムによれば、信頼性が高く、生産効率の高い無人化を図ることが可能となる。
 尚、この生産システムにおいて、前記識別図形は、前記工作機械の加工領域内に配置可能に設けられる構造体に表示され、或いは該構造体に映写機を用いて映写される態様を採ることができる。また、前記構造体への表示は、当該構造体に識別図形を直接描画する態様や、識別図形が描画されたシート体を前記構造体に貼付ける態様を採ることができる。
 また、前記構造体としては、工作機械の加工領域に対して進退可能に設けられたツールプリセッタを採用することができ、或いは、工作機械の工具主軸に着脱可能に設けられるホルダを採用することができる。
 このようなツールプリセッタやホルダは、工作機械が加工を実行している間においては、これを加工領域外に配置することができるので、これらツールプリセッタやホルダが切屑等によって汚損されるのを防止することができ、識別図形を表示する場合には当該識別図形の汚損、或いは識別図形を映写する場合には、当該識別図形が歪むのを防止することができる。この結果、上記補正を精度良く行うことができる。
 また、この生産システムにおいて、前記識別図形は、工作機械の加工領域内に配置可能に設けられるディスプレイに表示される態様を採ることができる。そして、このディスプレイは、上記のツールプリセッタやホルダに付設することができる。
 また、この生産システムにおいて、前記識別図形は、複数の画素が二次元に配列されたマトリクス構造を備えた態様を採ることができる。
 以上のように、本発明に係る生産システムによれば、ロボットが実際に作業する工作機械の加工領域内に配置された識別図形を用いて、ロボットの作業姿勢を補正するようにしているので、当該作業姿勢を正確に補正することができ、これにより、ロボットは、高い動作精度が求められる作業でも、当該作業を精度良く実行することができる。
 そして、このように、ロボットが精度の良い作業を実行することで、当該生産システムは不要な中断を招くことなく高い稼働率で稼働し、結果、当該生産システムによれば、信頼性が高く、生産効率の高い無人化を図ることができる。
本発明の第1の実施形態に係る生産システムの概略構成を示した平面図である。 第1の実施形態に係る生産システムの構成を示したブロック図である。 第1の実施形態に係る無人搬送車及びロボットを示した斜視図である。 第1の実施形態に係るロボットの動作姿勢を説明するための説明図である。 第1の実施形態に係るロボットの動作姿勢を説明するための説明図である。 (a)は、第1の実施形態に係る識別図形を示した説明図であり、(b)は、ロボットが撮像姿勢のときに、カメラにより撮像される画像の一例を示した説明図である。 本発明の第2の実施形態におけるロボットの動作姿勢を説明するための説明図である。 本発明の第2の実他形態におけるロボットの動作姿勢を説明するための説明図である。 本発明の第3の実他形態におけるロボットの動作姿勢を説明するための説明図である。 本発明の第3の実他形態におけるロボットの動作姿勢を説明するための説明図である。 本発明の第4の実他形態におけるロボットの動作姿勢を説明するための説明図である。 本発明の第4の実他形態におけるロボットの動作姿勢を説明するための説明図である。
 以下、本発明の具体的な実施の形態について、図面を参照しながら説明する。
(第1の実施形態)
 まず、本発明の第1の実施形態について説明する。図1及び図2に示すように、本例の生産システム1は、工作機械10、周辺装置としての材料ストッカ20及び製品ストッカ21、無人搬送車35、この無人搬送車35に搭載されるロボット25、ロボット25に装着されるカメラ31、並びにロボット25及び無人搬送車35を制御する制御装置40などから構成される。
 図4及び図5に示すように、前記工作機械10は、ワークを把持するチャックが装着されるワーク主軸11、及び工具が保持される工具主軸12を備えた所謂複合加工型のNC(数値制御)工作機械であり、旋削加工及びミーリング加工の双方を行うことができるようになっている。また、ワーク主軸11の近傍には接触子14及びこれを支持する支持バー15を備えたツールプリセッタ13が設けられており、この支持バー15は、当該ワーク主軸11の軸線に沿って、加工領域に対して進退可能に設けられており、その加工領域側の端部且つ操作側の側面に表示板16が設けられ、この表示板16に、図6(a)に示した識別図形が描画されたシートが貼着されている。尚、本例の識別図形は複数の正方形をした画素が二次元に配列されたマトリクス構造を有するものであり、各画素が白または黒で表示されている。図6では、黒色の画素に斜線を付している。また、図4及び図5では、支持バー15及び接触子14が加工領域内に進出した状態を図示している。また、この図4及び図5では、都合によりチャックの図示を省略している。
 前記材料ストッカ20は、図1において工作機械10の左隣に配設され、当該工作機械10で加工される複数の材料(加工前ワーク)をストックする装置である。また、前記製品ストッカ21は、図1において工作機械10の右隣に配設され、当該工作機械10で加工された複数の製品、又は半製品(加工済ワーク)をストックする装置である。
 図1に示すように、前記無人搬送車35には、その上面である載置面36に前記ロボット25が搭載され、また、オペレータが携帯可能な操作盤37が付設されている。尚、この操作盤37は、データの入出力を行う入出力部、当該無人搬送車35及びロボット25を手動操作する操作部、並びに画面表示可能なディスプレイなどを備えている。
 また、無人搬送車35は、工場内における自身の位置を認識可能なセンサ(例えば、レーザ光を用いた距離計測センサ)を備えており、前記制御装置40による制御の下で、前記工作機械10、材料ストッカ20及び製品ストッカ21が配設される領域を含む工場内を無軌道で走行するように構成され、本例では、前記工作機械10、材料ストッカ20及び製品ストッカ21のそれぞれに対して設定された各作業位置に経由する。
 前記ロボット25は、第1アーム26、第2アーム27及び第3アーム28の3つのアームを備えた多関節型のロボットであり、第3アーム28の先端部にはエンドエフェクタとしてのハンド29が装着され、また、支持バー30を介して2つのカメラ31が装着されている。
 図2に示すように、前記制御装置40は、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44、基準画像記憶部45、手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51から構成される。そして、制御装置40は、この入出力インターフェース51を介して、前記工作機械10、材料ストッカ20、製品ストッカ21、ロボット25、カメラ31、無人搬送車35及び操作盤37に接続している。
 尚、制御装置40は、CPU、RAM、ROMなどを含むコンピュータから構成され、前記手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51は、コンピュータプログラムによってその機能が実現され、後述する処理を実行する。また、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44及び基準画像記憶部45はRAMなどの適宜記憶媒体から構成される。
 前記手動運転制御部46は、オペレータにより前記操作盤37から入力される操作信号に従って、前記無人搬送車35、ロボット25及びカメラ31を動作させる機能部である。即ち、オペレータは、この手動運転制御部46による制御の下で、操作盤37を用いた、前記無人搬送車35、ロボット25及びカメラ31の手動操作を実行することができる。
 前記動作プログラム記憶部41は、生産時に前記無人搬送車35及び前記ロボット25を自動運転するための自動運転用プログラム、並びに後述する工場内のマップ情報を生成する際に前記無人搬送車35を動作させるためのマップ生成用プログラムを記憶する機能部である。自動運転用プログラム及びマップ生成用プログラムは、例えば、前記操作盤37に設けられた入出力部から入力され、当該動作プログラム記憶部41に格納される。
 尚、この自動運転用プログラムには、無人搬送車35が移動する目標位置としての移動位置、移動速度及び無人搬送車35の向きに関する指令コードが含まれ、また、ロボット25が順次動作する当該動作に関する指令コード、及び前記カメラ31の操作に関する指令コードが含まれる。また、マップ生成用プログラムは、前記マップ情報生成部48においてマップ情報を生成できるように、無人搬送車35を無軌道で工場内を隈なく走行させるための指令コードが含まれる。
 前記マップ情報記憶部44は、無人搬送車35が走行する工場内に配置される機械、装置、機器など(装置等)の配置情報を含むマップ情報を記憶する機能部であり、このマップ情報は前記マップ情報生成部48によって生成される。
 前記マップ情報生成部48は、詳しくは後述する前記制御装置40の自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納されたマップ生成用プログラムに従って無人搬送車35を走行させた際に、前記センサによって検出される距離データから工場内の空間情報を取得するとともに、工場内に配設される装置等の平面形状を認識し、例えば、予め登録された装置等の平面形状を基に、工場内に配設された具体的な装置、本例では、工作機械10、材料ストッカ20及び製品ストッカ21の位置、平面形状等(配置情報)を認識する。そして、マップ情報生成部48は、得られた空間情報及び装置等の配置情報を工場内のマップ情報として前記マップ情報記憶部44に格納する。
 前記位置認識部49は、前記センサによって検出される距離データ、及び前記マップ情報記憶部44に格納された工場内のマップ情報を基に、工場内における無人搬送車35の位置を認識する機能部であり、この位置認識部49によって認識される無人搬送車35の位置に基づいて、当該無人搬送車35の動作が前記自動運転制御部47によって制御される。
 前記移動位置記憶部42は、前記無人搬送車35が移動する具体的な目標位置としての移動位置であって、前記動作プログラム中の指令コードに対応した具体的な移動位置を記憶する機能部であり、この移動位置には、上述した工作機械10、材料ストッカ20及び製品ストッカ21に対して設定される各作業位置が含まれる。尚、この移動位置は、例えば、前記手動運転制御部46による制御の下、前記操作盤37により前記無人搬送車35を手動運転して、目標とする各位置に移動させた後、前記位置認識部49によって認識される位置データを前記移動位置記憶部42に格納する操作によって設定される。この操作は所謂ティーチング操作と呼ばれる。
 前記動作姿勢記憶部43は、前記ロボット25が所定の順序で動作することによって順次変化するロボット25の姿勢(動作姿勢)であって、前記動作プログラム中の指令コードに対応した動作姿勢に係るデータを記憶する機能部である。この動作姿勢に係るデータは、前記手動運転制御部46による制御の下で、前記操作盤37を用いたティーチング操作により、当該ロボット25を手動運転して、目標とする各姿勢を取らせたときの、当該各姿勢におけるロボット25の各関節(モータ)の回転角度データであり、この回転角度データが動作姿勢に係るデータとして前記動作姿勢記憶部43に格納される。
 ロボット25の具体的な動作姿勢は、前記材料ストッカ20、工作機械10及び製品ストッカ21において、それぞれ設定される。例えば、材料ストッカ20では、当該材料ストッカ20において作業を開始するときの作業開始姿勢(取出開始姿勢)、当該材料ストッカ20に収納された加工前ワークをハンド29によって把持して、当該材料ストッカ20から取り出すための各作業姿勢(各取出姿勢)及び取出を完了したときの姿勢(取出完了姿勢であり、本例では、取出開始姿勢と同じ姿勢)が取出動作姿勢として設定される。
 また、工作機械10では、加工済のワークを工作機械10から取り出すワーク取出動作姿勢、及び加工前ワークを工作機械10に取り付けるワーク取付動作姿勢が設定される。
 具体的には、ワーク取出動作姿勢では、例えば、工作機械10に進入する前の作業開始姿勢(図4参照)、支持バー15に設けられた識別図形をカメラ31によって撮像する姿勢(撮像姿勢)(図5参照)、工作機械10のチャックに把持された加工済ワークに対してハンド29を対向させた姿勢(取出準備姿勢)、ハンド29をチャック側に移動させて、当該チャックに把持された加工済ワークをハンド29によって把持する姿勢(把持姿勢)、ハンド29をチャックから離隔させて加工済ワークをチャックから取り外した姿勢(取外姿勢)、工作機械10から抜け出させた姿勢(作業完了姿勢)の各姿勢が設定される。
 また、ワーク取付動作姿勢では、例えば、工作機械10に進入する前の作業開始姿勢(図4参照)、支持バー15に設けられた識別図形をカメラ31によって撮像する姿勢(撮像姿勢)(図5参照)、工作機械10のチャックに対してハンド29に把持された加工前ワークを対向させた姿勢(取付準備姿勢)、ハンド29をチャック側に移動させて、加工前ワークを当該チャックによって把持可能にした姿勢(取付姿勢)、ハンド29をチャックから離隔させた姿勢(離隔姿勢)、工作機械10から抜け出させた姿勢(作業完了姿勢)の各姿勢が設定される。
 前記製品ストッカ21では、当該製品ストッカ21において作業を開始するときの作業開始姿勢(収納開始姿勢)、ハンド29に把持した加工後のワークを製品ストッカ21内に収納するための各作業姿勢(収納姿勢)及び収納を完了したときの姿勢(収納完了姿勢であり、本例では、収納開始姿勢と同じ姿勢)が収納動作姿勢として設定される。
 前記自動運転制御部47は、前記動作プログラム記憶部41に格納された自動運転用プログラム及びマップ生成用プログラムの何れかを用い、当該プログラムに従って無人搬送車35、ロボット25及びカメラ31を動作させる機能部である。その際、前記移動位置記憶部42及び動作姿勢記憶部43に格納されたデータが必要に応じて使用される。
 前記基準画像記憶部45は、ティーチング操作時に、無人搬送車35が工作機械10に対して設定された作業位置に在り、ロボット25が撮像姿勢にあるときに、前記ツールプリセッタ13の支持バー15に設けられた識別図形を2つのカメラ31により撮像して得られた画像を、基準画像として記憶する機能部である。
 前記補正量算出部50は、前記自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納された自動運転用プログラムに従って前記ロボット25が自動運転される際に、当該ロボット25が撮像姿勢に在り、2つのカメラ31によって前記識別図形が撮像されると、当該自動運転時に得られた識別図形の画像と、前記基準画像記憶部45に格納された基準画像とを基に、ティーチング時の撮像姿勢と、自動運転時の撮像姿勢との間の誤差量を推定し、推定された誤差量に基づいて、ロボット25のワーク取出動作姿勢及びワーク取付動作姿勢に対する補正量を算出する。図6(b)に自動運転時に撮像された識別図形の一例を示している。
 前記カメラ31は所謂ステレオカメラであり、これらによって得られる画像から、カメラ31と識別図形との間の相対的な位置関係、及び識別図形に対するカメラ31の回転角、例えば、直交3軸周りの回転角を算出することができる。斯くして、前記基準画像を基に算出される位置関係及び回転角、並びに自動運転時に得られる画像を基に算出される位置関係及び回転角から、ティーチング時の撮像姿勢と、自動運転時の撮像姿勢との間の誤差量を推定することができる。
 以上の構成を備えた本例の生産システム1によれば、以下のようにして、無人自動生産が実行される。
 即ち、前記制御装置40の自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納された自動運転用プログラムが実行され、この自動運転用プログラムに従って、例えば、無人搬送車35及びロボット25が以下のように動作する。
 まず、無人搬送車35は、工作機械10に対して設定された作業位置に移動するとともに、ロボット25は上述したワーク取出動作の作業開始姿勢を取る。尚、この時、工作機械10は所定の加工を完了して、ロボット25が加工領域内に侵入可能なようにドアカバーを開いており、また、自動運転制御部47からの指令を受信して、前記ツールプリセッタ13の支持バー15を加工領域内に進出させているものとする。
 ついで、ロボット25は前記撮像姿勢に移行し、前記支持バー15に設けられた識別図形をカメラ31によって撮像する。そして、このようにして、カメラ31によって識別図形が撮像されると、前記補正量算出部50において、当該識別図形の画像と、前記基準画像記憶部45に格納された基準画像とを基に、ロボット25のティーチング時における撮像姿勢と、現在の撮像姿勢との間の誤差量が推定され、推定された誤差量に基づいて、ロボット25の以降のワーク取出動作姿勢に対する補正量が算出される。
 斯くして、自動運転制御部47は、補正量算出部50により算出された補正量に基づいて、以降のワーク取出動作姿勢、即ち、上述した取出準備姿勢、把持姿勢、取外姿勢及び作業完了姿勢を制御し、工作機械10のチャックに把持された加工済のワークをハンド29に把持して当該工作機械10から取り出す。尚、ロボット25に前記把持姿勢を取らせた後に、自動運転制御部47から工作機械10にチャック開指令を送信することで、当該チャックが開かれる。
 次に、自動運転制御部47は、無人搬送車35を、製品ストッカ21に対して設定された作業位置に移動させるとともに、ロボット25に、当該製品ストッカ21において作業を開始するときの収納開始姿勢、ハンド29に把持した加工済ワークを製品ストッカ21内に収納するための各収納姿勢及び収納を完了したときの収納完了姿勢を順次取らせて、ハンド29に把持した加工済ワークを製品ストッカ21に収納する。
 ついで、自動運転制御部47は、無人搬送車35を、材料ストッカ20に対して設定された作業位置に移動させるとともに、ロボット25に、当該材料ストッカ20において作業を開始するときの取出開始姿勢、当該材料ストッカ20に収納された加工前ワークをハンド29によって把持して、当該材料ストッカ20から取り出すための各取出姿勢及び取出を完了したときの取出完了姿勢を順次取らせて、ハンド29に加工前ワークを把持させる。
 次に、自動運転制御部47は、再度、無人搬送車35を工作機械10に対して設定された作業位置に移動させるとともに、ロボット25に上述したワーク取付動作の作業開始姿勢を取らせる。ついで、ロボット25を前記撮像姿勢に移行させ、前記支持バー15に設けられた識別図形をカメラ31によって撮像させる。そして、このようにして、カメラ31によって識別図形が撮像されると、前記補正量算出部50において、当該識別図形の画像と、前記基準画像記憶部45に格納された基準画像とを基に、ロボット25のティーチング時における撮像姿勢と、現在の撮像姿勢との間の誤差量が推定され、推定された誤差量に基づいて、ロボット25の以降のワーク取付動作姿勢に対する補正量が算出される。
 この後、自動運転制御部47は、補正量算出部50により算出された補正量に基づいて、以降のロボット25のワーク取付動作姿勢、即ち、上述した取付準備姿勢、取付姿勢、離隔姿勢及び作業完了姿勢を制御して、ロボット25に、ハンド29に把持された加工前ワークを工作機械10のチャックに取り付けた後、機外に退出する動作を行わせる。この後、自動運転制御部47は、工作機械10に加工開始指令を送信して、工作機械10に加工動作を行わせる。尚、ロボット25に前記取付姿勢を取らせた後に、自動運転制御部47から工作機械10にチャック閉指令を送信することで、当該チャックが閉じられ、当該チャックによって加工前ワークが把持される。
 そして、以上を繰り返すことにより、本例の生産システム1では、無人自動生産が連続して実行される。
 斯くして、本例の生産システム1では、ロボット25が実際に作業する工作機械10の加工領域内に配置された識別図形を用いて、ロボット25の作業姿勢を補正するようにしているので、当該作業姿勢を正確に補正することができ、これにより、ロボット25は、高い動作精度が求められる作業でも、当該作業を精度良く実行することができる。
 また、このように、ロボット25が精度の良い作業を実行することで、当該生産システム1は不要な中断を招くことなく高い稼働率で稼働し、結果、当該生産システム1によれば、信頼性が高く、生産効率の高い無人化を図ることが可能となる。
 また、本例では、工作機械10が加工を実行しているときには、加工領域外に格納されるツールプリセッタ13の支持バー15に識別図形を設けているので、当該識別図形が加工時に発生する切屑等によって汚損されるのを防止することができ、この結果、上記補正を精度良く行うことができる。
 尚、本例では、識別図形が描画されたシートを支持バー15に設けられた表示板16に貼着するようにしたが、これに限られるものではなく、識別図形を表示板16に直接描画するようにしても良い。
(第2の実施形態)
 次に、本発明の第2の実施形態について説明する。この第2の実施形態は、図7及び図8に示すように、工作機械10の工具主軸12に着脱可能に設けられるホルダ17に識別図形を配設したものであり、この点においてのみ、ツールプリセッタ13の支持バー15に識別図形を配設した第1の実施形態とは、その構成が異なる。
 このホルダ17は、ツールプリセッタ13と同様に、工作機械10が加工を実行しているときには、これを加工領域外に格納することができるので、識別図形が加工時に発生する切屑等によって汚損されるのを防止することができ、この結果、上記補正を精度良く行うことができる。
 尚、識別図形のホルダ17への配設は、識別図形が描画されたシートをホルダ17に貼着する態様や、識別図形をホルダ17に直接描画する態様を採ることができる。
(第3の実施形態)
 次に、本発明の第3の実施形態について説明する。この第3の実施形態は、図9に示すように、工作機械10のツールプリセッタ13の支持バー15に設けた表示板16に、映写機18を用いて識別図形を映写するようにした態様であり、この点においてのみ、ツールプリセッタ13に識別図形を配設した第1の実施形態とは、その構成が異なる。このような態様によっても、第1の実施形態と同様の効果が奏される。
 或いは、この第3の実施形態の変形例として、図10に示すように、工作機械10のホルダ17に、映写機18を用いて識別図形を映写するようにした態様を採ることができる。このような態様によっても、第1の実施形態と同様の効果が奏される。
(第4の実施形態)
 次に、本発明の第4の実施形態について説明する。この第4の実施形態は、図11に示すように、工作機械10のツールプリセッタ13の支持バー15にディスプレイ19を設け、このディスプレイ19に識別図形を表示するようにした態様であり、この点においてのみ、第1の実施形態とは、その構成が異なる。このような態様によっても、第1の実施形態と同様の効果が奏される。
 或いは、この第4の実施形態の変形例として、図12に示すように、工作機械10のホルダ17にディスプレイ19を設け、このディスプレイ19に識別図形を表示するようにした態様を採ることができる。このような態様によっても、第1の実施形態と同様の効果が奏される。
 以上、本発明の第1~第4の実施形態について説明したが、本発明が採り得る具体的な態様は、これら第1~第4の実施形態に限定されるものではない。
 例えば、上述した各実施形態では、前記識別図形として、複数の画素が二次元に配列されたマトリクス構造を備えたものを採用したが、これに限られるものではなく、撮像画像からロボット25の姿勢の補正量を算出することができるものであれば、様々な図形を採用することができる。また、上例では2つのカメラ31を設けたがこれに限られるものではなく、撮像画像からロボット25の姿勢の補正量を算出することができれば、1つのカメラ31であっても良い。また、前記識別図形を設置または映写並びに表示する対象物としてホルダやツールプリセッタを採用したが、これに限られるものではなく、テイルストック、ベッド、テーブルなど、加工領域内に配置される物であれば良い。
 繰り返しになるが、上述した実施形態の説明は、すべての点で例示であって、制限的なものではない。当業者にとって変形および変更が適宜可能である。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲内と均等の範囲内での実施形態からの変更が含まれる。
 1  生産システム
 10 工作機械
 11 ワーク主軸
 12 工具主軸
 13 ツールプリセッタ
 14 接触子
 15 支持バー
 16 表示板
 20 材料ストッカ
 21 製品ストッカ
 25 ロボット
 29 ハンド
 31 カメラ
 35 無人搬送車
 37 操作盤
 40 制御装置
 41 動作プログラム記憶部
 42 移動位置記憶部
 43 動作姿勢記憶部
 44 マップ情報記憶部
 45 基準画像記憶部
 46 手動運転制御部
 47 自動運転制御部
 48 マップ情報生成部
 49 位置認識部
 50 補正量算出部
 51 入出力インターフェース
 

Claims (8)

  1.  ワークに対して所定の加工を行う工作機械と、
     画像を撮像するカメラを有し、前記工作機械に対して作業を行うロボットと、
     前記ロボットを搭載し、前記工作機械に対して設定された作業位置に経由する無人搬送車と、
     予め設定された動作指令を含む動作プログラムに従って、前記無人搬送車を前記作業位置に移動させた後、前記ロボットに、作業開始姿勢から、前記工作機械に設けられた姿勢補正用の識別図形を前記カメラよって撮像可能な撮像姿勢を取らせ、ついで複数の作業姿勢を順次取らせるように構成された制御装置とを備え、
     前記作業開始姿勢、撮像姿勢及び作業姿勢は、前記ロボットをティーチング操作することによって予め設定される生産システムであって、
     前記識別図形は、前記工作機械の加工領域内に配置され、
     前記制御装置は、前記ティーチング操作時に、前記ロボットを撮像姿勢に移行させた状態で、前記カメラによって撮像される前記識別図形の画像を基準画像として予め記憶し、前記動作プログラムに従って、前記無人搬送車及びロボットを繰り返し動作させる際に、前記ロボットを、前記作業開始姿勢から前記撮像姿勢に移行させた状態で、前記カメラにより撮像される前記識別図形の画像、及び前記基準画像に基づいて、前記ロボットの現在の姿勢とティーチング操作時の姿勢との間の誤差量を推定し、推定された誤差量に基づいて、前記作業姿勢を補正するように構成されていることを特徴とする生産システム。
  2.  前記識別図形は、前記工作機械の加工領域内に配置可能に設けられる構造体に表示され、若しくは該構造体に映写機を用いて映写されることを特徴とする請求項1記載の生産システム。
  3.  前記工作機械は、前記加工領域に対して進退可能に設けられたツールプリセッタを備え、前記構造体は、該ツールプリセッタであることを特徴とする請求項2記載の生産システム。
  4.  前記工作機械は、工具を保持する工具主軸を備え、前記構造体は、該工具主軸に着脱可能に設けられるホルダであることを特徴とする請求項2記載の生産システム。
  5.  前記識別図形は、前記工作機械の加工領域内に配置可能に設けられるディスプレイに表示されることを特徴とする請求項1記載の生産システム。
  6.  前記工作機械は、前記加工領域に対して進退可能に設けられたツールプリセッタを備え、前記ディスプレイは、該ツールプリセッタに付設されることを特徴とする請求項5記載の生産システム。
  7.  前記工作機械は、工具を保持する工具主軸を備え、前記ディスプレイは、該工具主軸に着脱可能に設けられるホルダに付設されることを特徴とする請求項5記載の生産システム。
  8.  前記識別図形は、複数の画素が二次元に配列されたマトリクス構造を有するものである請求項1乃至7記載のいずれかの生産システム。
     
PCT/JP2020/032140 2019-08-30 2020-08-26 生産システム WO2021039829A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080061398.3A CN114340842A (zh) 2019-08-30 2020-08-26 生产系统
US17/639,329 US20220314455A1 (en) 2019-08-30 2020-08-26 Production system
EP20856131.6A EP4019200A4 (en) 2019-08-30 2020-08-26 PRODUCTION SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019158059A JP6785931B1 (ja) 2019-08-30 2019-08-30 生産システム
JP2019-158059 2019-08-30

Publications (1)

Publication Number Publication Date
WO2021039829A1 true WO2021039829A1 (ja) 2021-03-04

Family

ID=73219968

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/032140 WO2021039829A1 (ja) 2019-08-30 2020-08-26 生産システム

Country Status (5)

Country Link
US (1) US20220314455A1 (ja)
EP (1) EP4019200A4 (ja)
JP (1) JP6785931B1 (ja)
CN (1) CN114340842A (ja)
WO (1) WO2021039829A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115091094A (zh) * 2022-08-24 2022-09-23 山西锦荣智能技术有限公司 一种在线实时引导的机器人自适应焊接系统

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4013578A4 (en) * 2019-09-11 2024-01-17 Dmg Mori Co Ltd ROBOT-MOUNTED MOVEMENT DEVICE, SYSTEM AND MACHINE TOOL
US20220134577A1 (en) * 2020-10-30 2022-05-05 Dmg Mori Co., Ltd. Image processing method, image processing apparatus, robot-mounted transfer device, and system
CN112781498B (zh) * 2021-02-09 2022-07-08 南京景曜智能科技有限公司 一种机器人执行器位姿重复精度测量方法和装置
JP2022130897A (ja) * 2021-02-26 2022-09-07 Dmg森精機株式会社 加工システム
JP6906724B1 (ja) * 2021-03-25 2021-07-21 Dmg森精機株式会社 工作機械
JP7012181B1 (ja) 2021-06-15 2022-02-14 Dmg森精機株式会社 ロボットシステム
JP7093881B1 (ja) 2021-09-06 2022-06-30 Dmg森精機株式会社 システム、及び自動搬送車
JP7169478B1 (ja) 2022-04-06 2022-11-10 Dmg森精機株式会社 工作機械、工作機械、制御方法、および制御プログラム
WO2024018093A1 (es) * 2022-07-20 2024-01-25 Asociacion Centro Tecnologico Ceit Procedimiento y dispositivo de monitorización de tarea de una herramienta de un brazo robótico

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448304A (ja) * 1990-06-18 1992-02-18 Hitachi Ltd 自走ロボットの位置補正方法及びその装置
JPH0724587U (ja) * 1993-10-04 1995-05-09 神鋼電機株式会社 無人移動体の視覚補正用装置
JPH1011146A (ja) * 1996-06-25 1998-01-16 Shinko Electric Co Ltd 移動体の停止姿勢補正装置
JPH1158273A (ja) * 1997-08-12 1999-03-02 Denso Corp 移動ロボット装置
JP2016221622A (ja) 2015-05-29 2016-12-28 ファナック株式会社 位置補正機能を有するロボットを備えた生産システム
JP2017132002A (ja) 2016-01-28 2017-08-03 株式会社安川電機 ロボットアーム付自動搬送車、ロボットシステム、及びロボットアーム付自動搬送車の制御方法
JP2018058142A (ja) * 2016-10-04 2018-04-12 ファナック株式会社 移動可能な台車に支持されたロボットを備えるロボットシステム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH073990U (ja) * 1993-06-23 1995-01-20 神鋼電機株式会社 移動ロボット
JP2527403B2 (ja) * 1993-10-08 1996-08-21 岸本産業株式会社 レ―ザ光を利用したスペックルパタ―ンによる被計測物の移動量の修正方法ならびにその装置
JP3351228B2 (ja) * 1996-03-15 2002-11-25 神鋼電機株式会社 移動ロボットのハンドリング位置・姿勢補正装置
JP2003231078A (ja) * 2002-02-14 2003-08-19 Denso Wave Inc ロボットアームの位置制御方法およびロボット装置
JP4287788B2 (ja) * 2004-05-25 2009-07-01 富士フイルム株式会社 自走式ロボットハンド
JP4982493B2 (ja) * 2005-09-13 2012-07-25 スレッテモエン,グドムン 光機械位置測定器
US20080058993A1 (en) * 2006-09-05 2008-03-06 Okuma America Corporation System, Methods, Apparatuses and Computer Program Products for Use on a Machine Tool Controller
JP4869852B2 (ja) * 2006-09-28 2012-02-08 株式会社ダイヘン 搬送用ロボットの教示方法
US9533418B2 (en) * 2009-05-29 2017-01-03 Cognex Corporation Methods and apparatus for practical 3D vision system
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP5962394B2 (ja) * 2012-09-28 2016-08-03 株式会社デンソーウェーブ キャリブレーション装置、および撮像装置のキャリブレーション方法
JP2016032841A (ja) * 2014-07-30 2016-03-10 株式会社モトロニクス 画像認識装置付穴あけ加工機械の撮像ユニット−加工ユニット中心軸自動補正装置
JP6126067B2 (ja) * 2014-11-28 2017-05-10 ファナック株式会社 工作機械及びロボットを備えた協働システム
CN105014667B (zh) * 2015-08-06 2017-03-08 浙江大学 一种基于像素空间优化的相机与机器人相对位姿标定方法
JP6126183B2 (ja) * 2015-10-05 2017-05-10 ファナック株式会社 ターゲットマークを撮像するカメラを備えたロボットシステム
JP6666112B2 (ja) * 2015-10-27 2020-03-13 ファナック株式会社 工作機械の工具清掃装置
DE102016213663A1 (de) * 2016-07-26 2018-02-01 Siemens Aktiengesellschaft Verfahren zum Steuern eines Endelementes einer Werkzeugmaschine und eine Werkzeugmaschine
JP6404957B2 (ja) * 2017-01-20 2018-10-17 ファナック株式会社 加工機にワークを搬送するロボットを備える加工システム
JP6818565B2 (ja) * 2017-01-24 2021-01-20 三菱重工エンジン&ターボチャージャ株式会社 生産システム
JP6669713B2 (ja) * 2017-11-28 2020-03-18 ファナック株式会社 ロボットおよびロボットシステム
US20190246858A1 (en) * 2018-02-13 2019-08-15 Nir Karasikov Cleaning robot with arm and tool receptacles

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448304A (ja) * 1990-06-18 1992-02-18 Hitachi Ltd 自走ロボットの位置補正方法及びその装置
JPH0724587U (ja) * 1993-10-04 1995-05-09 神鋼電機株式会社 無人移動体の視覚補正用装置
JPH1011146A (ja) * 1996-06-25 1998-01-16 Shinko Electric Co Ltd 移動体の停止姿勢補正装置
JPH1158273A (ja) * 1997-08-12 1999-03-02 Denso Corp 移動ロボット装置
JP2016221622A (ja) 2015-05-29 2016-12-28 ファナック株式会社 位置補正機能を有するロボットを備えた生産システム
JP2017132002A (ja) 2016-01-28 2017-08-03 株式会社安川電機 ロボットアーム付自動搬送車、ロボットシステム、及びロボットアーム付自動搬送車の制御方法
JP2018058142A (ja) * 2016-10-04 2018-04-12 ファナック株式会社 移動可能な台車に支持されたロボットを備えるロボットシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115091094A (zh) * 2022-08-24 2022-09-23 山西锦荣智能技术有限公司 一种在线实时引导的机器人自适应焊接系统

Also Published As

Publication number Publication date
JP2021035708A (ja) 2021-03-04
EP4019200A1 (en) 2022-06-29
JP6785931B1 (ja) 2020-11-18
US20220314455A1 (en) 2022-10-06
CN114340842A (zh) 2022-04-12
EP4019200A4 (en) 2023-10-04

Similar Documents

Publication Publication Date Title
WO2021039829A1 (ja) 生産システム
US20220331970A1 (en) Robot-mounted moving device, system, and machine tool
EP1621296A1 (en) Transfer robot system comprising a manipulator and a temporary container depository moving synchronously with the manipulator
JP6913833B1 (ja) ワーク装着システム
JP6848110B1 (ja) 協働システム
WO2023032400A1 (ja) 自動搬送装置、及びシステム
JP6832408B1 (ja) 生産システム
WO2022091767A1 (ja) 画像処理方法、画像処理装置、ロボット搭載型搬送装置、及びシステム
US20230415353A1 (en) Robot-mounted mobile device and positioning control method for system
WO2022264597A1 (ja) ロボットシステム
WO2022195938A1 (ja) ロボットシステムの位置決め精度測定方法
WO2021048579A1 (ja) システム及び工作機械
WO2022075303A1 (ja) ロボットシステム
JP6906724B1 (ja) 工作機械
JP6712881B2 (ja) ワーク加工装置
JP6851535B1 (ja) ティーチング操作を用いた設定方法
JP7015949B1 (ja) 貼着位置測定装置及びこれを備えた工作機械
JP2017164829A5 (ja)
JP2020138315A (ja) 生産システム
JP2024068115A (ja) ロボット搭載移動装置
JP2021112809A (ja) 生産システム
CN118019620A (zh) 控制装置以及机器人系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20856131

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020856131

Country of ref document: EP

Effective date: 20220325