WO2022097536A1 - ロボット搭載移動装置及びシステムの位置決め制御方法 - Google Patents

ロボット搭載移動装置及びシステムの位置決め制御方法 Download PDF

Info

Publication number
WO2022097536A1
WO2022097536A1 PCT/JP2021/039470 JP2021039470W WO2022097536A1 WO 2022097536 A1 WO2022097536 A1 WO 2022097536A1 JP 2021039470 W JP2021039470 W JP 2021039470W WO 2022097536 A1 WO2022097536 A1 WO 2022097536A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
identification
axis
moving
posture
Prior art date
Application number
PCT/JP2021/039470
Other languages
English (en)
French (fr)
Inventor
勇太 大場
頼人 國府田
Original Assignee
Dmg森精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dmg森精機株式会社 filed Critical Dmg森精機株式会社
Priority to CN202180071171.1A priority Critical patent/CN116348249A/zh
Priority to EP21889089.5A priority patent/EP4227043A1/en
Priority to US18/035,689 priority patent/US20230415353A1/en
Publication of WO2022097536A1 publication Critical patent/WO2022097536A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/248Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods
    • B23Q17/249Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods using image analysis, e.g. for radar, infrared or array camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q7/00Arrangements for handling work specially combined with or arranged in, or specially adapted for use in connection with, machine tools, e.g. for conveying, loading, positioning, discharging, sorting
    • B23Q7/04Arrangements for handling work specially combined with or arranged in, or specially adapted for use in connection with, machine tools, e.g. for conveying, loading, positioning, discharging, sorting by means of grippers
    • B23Q7/046Handling workpieces or tools
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages

Definitions

  • the present disclosure discloses a robot-mounted mobile device including a robot having a hand portion that acts on an object, a moving portion that mounts the robot and moves to a predetermined work position, and positioning control of a system using the robot-mounted mobile device. Regarding the method etc.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2017-13202
  • an automatic guided vehicle equipped with a robot moves to a work position set for the machine tool, and at this work position, the robot executes work such as attaching / detaching the work to the machine tool. ..
  • one robot moved by an unmanned carrier can perform work such as attaching / detaching a work to a plurality of machine tools, so that the robot is fixed to the machine tool. Since the degree of freedom in the layout of the machine tool is increased as compared with the case of disposing in the above, the layout of the machine tool can be set to a layout capable of further improving the production efficiency. Further, as compared with the conventional system in which the robots are arranged in a fixed state, one robot can work on more machine tools, so that the equipment cost can be reduced.
  • the automatic guided vehicle since the automatic guided vehicle has a structure that self-propells using wheels, its positioning accuracy of stopping at the work position is not always high.
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2016-221622
  • a position correction method as disclosed in Japanese Patent Application Laid-Open No. 2016-221622 (Patent Document 2) is known.
  • a visual target consisting of two calibration markers is arranged on the outer surface of the machine tool, and the visual target is imaged by a camera provided on a movable part of the robot.
  • the relative positional relationship between the robot and the machine tool is measured based on the captured image and the position and posture of the camera, and the working posture of the robot is corrected based on the measured positional relationship. ..
  • the position of the action part (end effector) provided at the tip of the arm of the robot is determined by accumulating the postures of each arm that moves by the rotation of the motor constituting each joint part. Since there is a structural limit to the rotation angle at which each motor can rotate, there is a so-called singular point where the acting part cannot be moved any further in a certain direction depending on the posture of each arm. .. For example, when the arms are lined up in a straight line, the action unit cannot be moved in the extension line direction. Further, even when two or more movable axes are aligned in a straight line, there is a direction in which the acting portion cannot be moved.
  • FIGS. 10 and 11 it is assumed that the unmanned carrier moves in the X-axis-Y-axis plane, and it is on a plane parallel to the X-axis-Y-axis plane when the unmanned carrier is positioned at the working position during teaching.
  • the position (target position) of the tip (robot tip) of the action part of the robot during teaching is Pt, and the plane parallel to the X-axis-Y-axis plane when the unmanned carrier is positioned at the work position during automatic operation.
  • Pt the position of the tip of the robot (actual operation position) on the top.
  • the amount of positioning error of the automatic guided vehicle is set to ⁇ Xe and ⁇ Ye, and the movable distances in the X-axis and Y-axis directions of the robot tip with respect to the actual operating position Pa are set to Xc and Yc.
  • all of the positioning error amounts ⁇ Xe and ⁇ Ye of the automatic guided vehicle are from the movable distances Xc and Yc of the robot tip portion in the X-axis and Y-axis directions with respect to the actual operation position Pa. If it is small, that is, if the target position Pt, which is the position where the robot tip should be moved by correction, is within the movable area of the robot tip indicated by the two-dot chain line, the actual operation position Pa of the robot tip is set as the target position. It can be corrected to Pt (see dashed arrow).
  • At least one of the positioning error amounts ⁇ Xe and ⁇ Ye of the automatic guided vehicle determines the movable distances Xc and Yc of the robot tip portion in the X-axis and Y-axis directions with respect to the actual operating position Pa. If it exceeds ( ⁇ Xe> Xc in the example shown in FIG. 11), that is, if the target position Pt, which is the position where the robot tip should be moved by correction, is outside the movable region of the robot tip indicated by the two-dot chain line. , The actual operation position Pa of the robot tip cannot be corrected to the target position Pt (see the broken line arrow).
  • the present invention provides the robot-mounted mobile device, the positioning control method of the system, and the like according to the claims.
  • Embodiment 1 As shown in FIGS. 1 and 2, the system 1 of this example has a first machine tool 10A, a second machine tool 10B, and a third machine tool 10C having the same configuration (hereinafter, these are collectively referred to as a machine tool 10).
  • a material stocker 20 and a product stocker 21 as peripheral devices, an unmanned transport vehicle 35 as an example of a moving unit, a robot 25 mounted on the unmanned transport vehicle 35, and a camera 31 mounted on the robot 25. It includes a hand unit of the robot 25, a control device 40 for controlling the unmanned transport vehicle 35, and the like.
  • the robot-mounted mobile device is configured from the automatic guided vehicle 35, the robot 25, the camera 31, and the control device 40, but the configuration is not limited to this.
  • the robot-mounted moving device of the present embodiment may have at least a camera, a robot, a control unit for controlling the position of the hand portion of the robot, and a movable moving unit.
  • the machine tool 10 is a so-called horizontal NC (numerical control) lathe having a spindle 11 on which a chuck 12 for gripping the work W1 (W2) is mounted, and is a so-called horizontal NC (numerical control) lathe with respect to the work W1 (W2). It is possible to perform turning processing. Further, a tool presetter 13 provided with a contact 14 and a support bar 15 for supporting the contact 14 is provided in the vicinity of the spindle 11, and the support bar 15 is provided along the axis of the spindle 11 with respect to the machining region. A ceramic display plate 16 is provided on the end surface of the processing region side so as to be able to advance and retreat, and the identification figure shown in FIG. 5 is drawn on the display plate 16.
  • the identification figure is preferably imaged by the camera 31 when it is located in the machining area in the machine tool 10. Therefore, coolant, processing debris, or the like may adhere to the identification figure, and if foreign matter such as coolant adheres, the position of the identification figure may not be recognized from the image data including the identification figure. Therefore, the robot 25 may be provided with a cleaning means 32 such as an air blow or a rubber brush (indicated by a alternate long and short dash line in FIG. 4) to clean the display board 16 including the identification figure. Further, instead of providing the cleaning means 32 on the robot 25, the machine tool 10 may be provided with the cleaning means.
  • a cleaning means 32 such as an air blow or a rubber brush (indicated by a alternate long and short dash line in FIG. 4) to clean the display board 16 including the identification figure.
  • the machine tool 10 may be provided with the cleaning means.
  • a vibration generating means such as an ultrasonic vibration generating means composed of a piezoelectric element on the back of the display board 16 and vibrating the display board 16 including the identification figure, the surface of the display board 16 and the identification can be identified. Foreign matter adhering to the surface of the figure may be shaken off.
  • the display board 16 is provided horizontally, and therefore the identification figure is parallel to the horizontal plane.
  • FIG. 4 shows a state in which the support bar 15 and the contact 14 are advanced into the processing region, but the support bar 15 and the contact 14 are retracted, and the contact 14 and the display plate 16 are stored in the storage area.
  • the shutter 17 is closed while being housed inside, the contact 14 and the display plate 16 are isolated from the processing region.
  • the display board 16 can be provided parallel to the vertical plane, and as such an example, in FIG. 1, an example in which the display board 16 is arranged so as to be located in front of the robot 25 is shown by a broken line.
  • the identification figure of this example has a matrix structure in which a plurality of square pixels are arranged two-dimensionally, and each pixel is displayed in white or black. In FIG. 5, black pixels are shaded. Some such identification figures are called AR markers or AprilTags. Further, when the identification figure is small, a lens may be provided on the identification figure so that an enlarged image can be captured by the camera 31 described later.
  • the material stocker 20 is a device arranged on the left side of the first machine tool 10A in FIG. 1 and stocks a plurality of materials (work W1 before processing) processed by the first machine tool 10A.
  • the product stocker 21 is a device arranged on the right side of the third machine tool 10C in FIG. 1 and stocking a plurality of products or semi-finished products (processed work W2) processed by the third machine tool 10C. ..
  • an automatic guided vehicle 35 which is an example of a moving unit, has a robot 25 mounted on a mounting surface 36 which is an upper surface thereof, and an operation panel 37 which can be carried by an operator is attached.
  • the operation panel 37 includes an input / output unit for inputting / outputting data, an operation unit for manually operating the automatic guided vehicle 35 and the robot 25, a display capable of displaying a screen, and the like.
  • the unmanned carrier 35 is equipped with a sensor capable of recognizing its own position in the factory (for example, a distance measurement sensor using a laser beam), and is controlled by the control device 40 to have a horizontal X-axis-Y.
  • the machine tool 10A, the second machine tool 10B, the third machine tool 10C, the material stocker 20, and the product stocker 21 can travel in the factory without a track.
  • the robot-mounted mobile device of this example passes through each work position set for each of the first machine tool 10A, the second machine tool 10B, the third machine tool 10C, the material stocker 20, and the product stocker 21.
  • the robot 25 of the present embodiment is an articulated robot provided with three arms of a first arm 26, a second arm 27, and a third arm 28. Further, in the robot 25, a hand 29 as an end effector (acting part) is attached to the tip end portion of the third arm 28, and one camera 31 is attached via the support bar 30. The hand 29 and the camera 31 are moved in a three-dimensional space defined by a horizontal X-axis, a Y-axis, and a vertical Z-axis orthogonal to them.
  • the robot 25 is not limited to the above-mentioned form.
  • the robot has (i) a camera, (ii) a hand part for gripping an object such as a work or a tool, (iii) a second arm part that movably connects the hand part, and (iv). ) It suffices to have at least a first arm portion that movably connects the second arm portion.
  • the first arm 26 is the first arm portion
  • the second arm 27 is the second arm portion
  • the hand 29 is the hand portion
  • the second arm 27 is the first arm portion
  • the third arm 28 is the first arm portion.
  • the two-arm portion and the hand 29 may be used as the hand portion.
  • the control device 40 includes an operation program storage unit 41, a moving position storage unit 42, an operation posture storage unit 43, a map information storage unit 44, a reference image storage unit 45, a manual operation control unit 46, and automatic operation. It is composed of a control unit 47, a map information generation unit 48, a position recognition unit 49, a correction amount calculation unit 50, and an input / output interface 51.
  • the control device 40 of the present embodiment is connected to the robot 25, the camera 31, the automatic guided vehicle 35, and the operation panel 37 via the input / output interface 51, and is connected to the manual operation control unit 46 and the automatic operation control unit 46.
  • the 47 controls the position of the hand 29, operations such as opening and closing, the operation of the camera 31, and the operation of the automatic guided vehicle 35.
  • the control device 40 is composed of a computer including a CPU, RAM, ROM, and the like.
  • the functions of the manual operation control unit 46, the automatic operation control unit 47, the map information generation unit 48, the position recognition unit 49, the correction amount calculation unit 50, and the input / output interface 51 are realized by a computer program, and the processes described later are executed. It is a functional module.
  • the operation program storage unit 41, the moving position storage unit 42, the operation posture storage unit 43, the map information storage unit 44, and the reference image storage unit 45 are composed of an appropriate storage medium such as a RAM.
  • the control device 40 is attached to the automatic guided vehicle 35, and is connected to the robot 25, the camera 31, the automatic guided vehicle 35, and the operation panel 37 by wire or wirelessly.
  • control device 40 may be arranged at an appropriate position other than the automatic guided vehicle 35.
  • control device 40 may be arranged on the operation panel.
  • control device 40 is appropriately connected to each unit by communication means.
  • the operation program storage unit 41 is a program for automatically driving the automatic guided vehicle 35 and the robot 25 at the time of production, and a map for operating the automatic guided vehicle 35 when generating map information in a factory to be described later. It is a functional unit that stores the generation program.
  • the automatic operation program and the map generation program are, for example, input from an input / output unit provided on the operation panel 37 and stored in the operation program storage unit 41.
  • this automatic driving program includes a command code regarding a moving position, a moving speed, and a direction of the automatic guided vehicle 35 as a target position for the automatic guided vehicle 35 to move, and the operation of the robot 25 in which the robot 25 operates sequentially.
  • a command code related to the operation of the camera 31 and a command code related to the operation of the camera 31 are included.
  • the map generation program includes a command code for running the automatic guided vehicle 35 without a track in the factory so that the map information generation unit 48 can generate map information.
  • the map information storage unit 44 is a functional unit that stores map information including arrangement information of machines, devices, devices, etc. (devices, etc.) arranged in the factory where the unmanned carrier 35 travels, and the map information is described above. It is generated by the map information generation unit 48.
  • the map information generation unit 48 runs the unmanned carrier 35 according to the map generation program stored in the operation program storage unit 41 under the control of the automatic operation control unit 47 of the control device 40, which will be described in detail later. , Acquires spatial information in the factory from the distance data detected by the sensor, recognizes the planar shape of the equipment etc. arranged in the factory, for example, based on the planar shape of the equipment etc. registered in advance. Specific equipment arranged in the factory, in this example, the position of the first machine tool 10A, the position of the second machine tool 10B, the position of the third machine tool 10C, the position of the material stocker 20, and the product stocker 21. Recognize the position, these plane shapes, etc. (arrangement information). Then, the map information generation unit 48 stores the obtained spatial information and the arrangement information of the device and the like in the map information storage unit 44 as map information in the factory.
  • the moving position storage unit 42 is a moving position as a specific target position for the automatic guided vehicle 35 to move, and is a functional unit that stores a specific moving position corresponding to a command code in the operation program.
  • the moving position includes each working position set for the first machine tool 10A, the second machine tool 10B, the third machine tool 10C, the material stocker 20, and the product stocker 21 described above.
  • the working position of the present embodiment is a moving portion of the robot-mounted moving device, that is, a position such as a first device position or a second device position of the automatic guided vehicle 35.
  • the target moving position which is one of the moving positions of the present embodiment, is set to each target position by manually driving the automatic guided vehicle 35 by the operation panel 37 under the control of the manual operation control unit 46, for example. After moving, it is set by an operation of storing the position data recognized by the position recognition unit 49 in the movement position storage unit 42. This operation is a so-called teaching operation.
  • the motion posture storage unit 43 stores data related to the motion posture corresponding to the command code in the motion program, which is the posture (motion posture) of the robot 25 that changes sequentially when the robot 25 operates in a predetermined order. It is a functional module.
  • the data related to this operating posture is data when the robot 25 is manually operated by a teaching operation using the operation panel 37 under the control of the manual operation control unit 46 to take each target posture. Is stored in the motion posture storage unit 43.
  • the rotation angle data of each joint (motor) of the robot 25 in each posture is stored in the motion posture storage unit 43 as data related to the motion posture.
  • an identification figure is imaged by a camera in each posture, and a table in which the identification position (for example, coordinates of two axes) of the identification figure of the captured image data and the posture of the robot are associated with each other is stored in the operation posture storage unit 43. It may be in the form of. In this case, it is necessary to create a table in association with the identification position and the device position. For example, in the case of the first device position and the first identification position, the first device position and the second identification position are associated with the robot posture in which the angle formed by the first arm portion and the second arm portion is widened to 60 °.
  • the arm having an angle of 10 ° between the first arm portion and the second arm portion corresponds to the folded robot posture.
  • a configuration may be provided in which a calculation unit that performs calculation processing using a transformation matrix capable of conversion that matches the above-mentioned correspondence may be provided. That is, the position of the hand portion of the robot (two-dimensional coordinates, three-dimensional coordinates, etc.) may be calculated based on the coordinates of the identification figure.
  • the specific operating posture of the robot 25 of the present embodiment is set in the material stocker 20, the first machine tool 10A, the second machine tool 10B, the third machine tool 10C, and the product stocker 21, respectively.
  • the work start posture (take-out start posture) when the work is started in the material stocker 20
  • the unprocessed work W stored in the material stocker 20 are grasped by the hand 29 and taken out from the material stocker 20.
  • Each work posture (each take-out posture) and the posture when the take-out is completed are set as the take-out operation posture (target work posture).
  • the posture in the work taking-out operation (work taking-out operation posture) in which the machined work W2 is taken out from the machine tool 10 and the posture in the work mounting operation in which the pre-machining work W1 is attached to the machine tool 10 (work mounting operation). Posture) is set as the target work posture.
  • the work taking-out operation posture for example, there are the following postures.
  • a posture (imaging posture) (see FIG. 4) in which the hand 29 is brought into the processing region of the machine tool 10 and the identification figure arranged in the machine tool is imaged by the camera 31.
  • a posture (preparation posture for taking out) in which the hand 29 faces the processed work W2 gripped by the chuck 12 of the machine tool 10.
  • a posture (holding posture) in which the hand 29 is moved to the chuck 12 side and the processed work W2 gripped by the chuck 12 is gripped by the hand 29.
  • the posture of the camera 31 when the camera 31 is opposed to the identification figure is preferably a posture in which the optical axis of the camera is orthogonal to the plane including the identification figure.
  • the imaging posture in the present embodiment is not limited to this posture, although the hand 29 and the camera 31 are made to enter the machine tool. For example, as shown in FIG.
  • the hand 29 and the camera 31 may be outside the machine tool 10.
  • the camera 31 of the robot 25 faces the identification figure so that the identification figure arranged in the machine tool 10 can be imaged, in other words, the optical axis is a surface including the identification figure.
  • the position of the camera 31 may be adjusted by rotation or movement so as to intersect (preferably orthogonal).
  • the image pickup posture may be a posture in which the camera 31 is turned so as to face the identification figure from the work start posture of the present embodiment.
  • the work mounting operation posture for example, there are the following postures.
  • a posture (imaging posture) in which the hand 29 and the camera 31 are brought into the machining area of the machine tool 10, the camera 31 is opposed to the identification figure provided on the support bar 15, and the identification figure is imaged by the camera 31.
  • a posture (mounting preparation posture) in which the pre-machining work W1 gripped by the hand 29 faces the chuck 12 of the machine tool.
  • a posture (mounting posture) in which the hand 29 is moved to the chuck 12 side so that the work W1 before machining can be gripped by the chuck 12.
  • the imaging posture in the present embodiment is a posture in which the hand 29 and the camera 31 are inserted into the machine tool 10, but the posture is not limited to this posture.
  • the identification figure provided on the display board 16 inside the machine tool may be imaged while the hand 29 and the camera 31 are outside the machine tool 10.
  • the camera 31 of the robot 25 faces the identification figure so that the identification figure arranged in the machine tool 10 can be imaged, in other words, the optical axis is a surface including the identification figure.
  • the position of the camera 31 may be adjusted by rotation or movement so as to intersect (preferably orthogonal).
  • the image pickup posture may be a posture in which the camera 31 is turned so as to face the identification figure from the work start posture of the present embodiment.
  • the postures of the robot 25 with respect to the product stocker 21 include the work start posture (storage start posture) when the work is started in the product stocker 21, and the processed work W2 gripped by the hand 29 for storing in the product stocker 21.
  • these postures are set as the storage operation posture (target work posture).
  • the position recognition unit 49 recognizes the position of the unmanned carrier 35 in the factory based on the distance data detected by the sensor and the map information in the factory stored in the map information storage unit 44, and the robot. It is a functional module that executes a process of recognizing the positions of the hand 29 as an end effector and the camera 31 in the three-dimensional space based on the rotation angle of the motor provided in each of the 25 joints. Then, the operation of the automatic guided vehicle 35 is controlled by the automatic driving control unit 47 based on the position of the automatic guided vehicle 35 recognized by the position recognition unit 49.
  • the position of the unmanned carrier 35 recognized by the position recognition unit 49 in the X-axis-Y-axis plane, and the three-dimensional space of the hand 29 and the camera 31 (three-dimensional defined by the X-axis, Y-axis, and Z-axis).
  • the position in space) is displayed on the display of the operation panel 37.
  • the positions of the hand 29 and the camera 31 in the three-dimensional space can be calculated from a predetermined conversion formula based on the length of each arm of the robot 25 and the rotation angle of the motor provided at each joint.
  • the manual operation control unit 46 is a functional module that operates the automatic guided vehicle 35, the robot 25, and the camera 31 according to the operation signal input from the operation panel 37 by the operator. That is, under the control of the manual operation control unit 46, the operator uses the operation panel 37 to recognize the position of the automatic guided vehicle 35 recognized by the position recognition unit 49 and displayed on the display, as well as the hand 29 and the camera 31. While confirming the position of the automatic guided vehicle 35 in the three-dimensional space, the automatic guided vehicle 35 can be translated and moved along the X-axis and the Y-axis, and an image can be captured by the camera 31.
  • the hand 29 and the camera 31 of the robot 25 can be translated along the X-axis, the Y-axis, and the Z-axis, and are rotated around the X-axis, the Y-axis, and the Z-axis, respectively. be able to.
  • the rotation around each of the X-axis, Y-axis, and Z-axis is represented by rx, ry, and rz, respectively.
  • the automatic driving control unit 47 is a functional module that uses either the automatic driving program or the map generation program stored in the operation program storage unit 41 and operates the automatic guided vehicle 35, the robot 25, and the camera 31 according to the program. be. At that time, the data stored in the moving position storage unit 42 and the operating posture storage unit 43 are used as needed.
  • the reference image storage unit 45 is provided on the support bar 15 of the tool presetter 13 when the automatic guided vehicle 35 is in the working position set with respect to the machine tool 10 and the robot 25 is in the imaging posture during the teaching operation.
  • This is a functional module that stores an image obtained by capturing an image of the identification figure (FIG. 4) taken by the camera 31 as a reference image.
  • the identification figure is not limited to the one provided in the tool presetter as shown in FIG. As shown in FIG. 15, the identification figure of the attachment / detachment device with the identification figure that can be attached to the tool spindle may be used.
  • the display plate 16 is horizontally supported by a holder 106, and the holder 106 is mounted on the tool spindle 105. It is possible to take such an embodiment.
  • the holder 106 is stored in the tool magazine which is the tool accommodating portion, and when the work is performed by the robot 25, the holder 106 is taken out from the tool magazine and mounted on the tool spindle 105. do.
  • reference numeral 101 is a first spindle and reference numeral 103 is a second spindle, which are coaxially arranged so as to face each other.
  • reference numeral 102 is a first chuck mounted on the first spindle 101
  • reference numeral 104 is a second chuck mounted on the second spindle 103
  • reference numeral 107 is a turret
  • reference numeral 108 is a turret provided on the turret 107
  • reference numeral 109 is a support jig for supporting the work W, which is attached to the outer surface of the turret 108.
  • the robot 25 under the control of the automatic operation control unit 47, the robot 25 is automatically operated according to the automatic operation program stored in the operation program storage unit 41, and the work taking-out operation and the work mounting operation are executed.
  • the image of the current identification diagram obtained during automatic operation and the reference image (teaching) stored in the reference image storage unit 45 are used.
  • the amount of positional error of the camera 31 between the current posture (actual motion posture) of the robot 25 and the posture during the teaching operation (target motion posture) based on the image captured during the operation which is an identification diagram.
  • the rotation error amount ( ⁇ rz) of the camera 31 around the Z-axis is estimated, and the correction amount for the action part (corresponding to the hand 29 or the camera 31) in the actual motion posture is calculated based on each estimated error amount. (See FIG. 12).
  • the position error amount ( ⁇ x, ⁇ y) and the rotation error amount ( ⁇ rz) are caused by the positioning error with respect to the target working position of the automatic guided vehicle 35 set at the time of the teaching operation, and are substantially this target. This corresponds to the amount of positioning error of the difference 35 from the position where the automatic guided vehicle actually stopped with respect to the working position.
  • the correction amount calculated by the correction amount calculation unit 50 is the take-out preparation posture, the gripping posture and the removal posture in the work take-out operation posture when the robot 25 works on the machine tool 10, and the attachment in the work attachment operation posture. It is used when correcting the prepared posture, the mounting posture, and the separated posture, and the position (target position) of the hand 29 in each posture is corrected by the automatic operation control unit 47 based on the correction amount.
  • the correction amount is converted into angle data of each joint of the robot 25 by the automatic operation control unit 48 by a preset conversion formula, and the robot 25 is controlled according to the converted angle data.
  • the automatic driving control unit 47 of the control device 40 executes the automatic driving program stored in the operation program storage unit 41, and the automatic guided vehicle 35 and the robot. 25 is controlled to cause the machine tool 10, the material stocker 20, and the product stocker 21 to perform the operations shown in FIG.
  • the automatic operation control unit 47 first waits until it receives a signal from the machine tool 10 that processing is completed (step S1).
  • the machine tool 10 completes the machining
  • the machine tool 10 opens its door cover so that the robot 25 can enter the machining area, and the support bar 15 of the tool presetter 13 is placed in the machining area.
  • a machining completion signal is transmitted to the machine tool 10.
  • the automatic operation control unit 47 executes the take-out operation of the machined work W2 shown in FIGS. 7 and 8 (step S2). That is, after the robot 25 is made to take the work start posture (step S201), the automatic operation control unit 47 positions the automatic guided vehicle 35 at the work position set for the machine tool 10 (step S202).
  • the automatic operation control unit 47 shifts the robot 25 to the imaging posture (step S203), and captures the identification figure provided on the support bar 15 by the camera 31 (step S204). Then, when the identification figure is imaged by the camera 31 in this way, the correction amount calculation unit 50 bases the image including the identification figure and the reference image including the identification image stored in the reference image storage unit 45. In addition, the position error amount ⁇ x, ⁇ y and the rotation error amount ⁇ rz between the image pickup posture and the current image pickup posture during the teaching operation of the robot 25 are estimated, and the subsequent work of the robot 25 is based on each estimated error amount. The correction amount in the X-axis, Y-axis and rz directions with respect to the take-out operation posture is calculated.
  • the automatic operation control unit 47 acquires the calculated correction amount from the correction amount calculation unit 50 (step S205), and then causes the robot 25 based on the acquired correction amount in the X-axis, Y-axis, and rz directions. After shifting to the corrected take-out preparation posture (step S206), it is monitored whether or not this operation is completed (step S207).
  • the amount of positioning error of the automatic guided vehicle 35 to the working position when correcting the working posture of the robot 25 exceeds the movable range of the acting unit (in this case, the hand 29) limited by the singular point. , The robot 25 cannot complete the operation and is in a stopped state.
  • the automatic operation control unit 47 monitors whether or not the robot 25 can complete the operation (step S207), and if the operation can be completed, the robot 25 is moved to the next operation. After shifting to a certain gripping posture (step S214) and failing to complete the operation within the scheduled time, the recovery operation of steps S208 to S213 is executed.
  • the automatic driving control unit 47 first shifts the robot 25 to the posture immediately before the stop state, that is, the imaging posture (step S208), and then shifts the automatic guided vehicle 35 to the X-axis and the Y-axis.
  • the working position is adjusted by moving the position error amounts ⁇ x and ⁇ y in the direction opposite to the positional deviation in the direction, respectively (step S209).
  • the automatic guided vehicle 35 moves at the first speed SP1 and stops in front of the second machine tool 10B.
  • the automatic guided vehicle is transported at the second speed SP2, which is slower than the first speed SP1 by the calculated position error amount ⁇ x.
  • the position error amount ⁇ y 0.
  • the automatic guided vehicle 35 moves to the same position as the teaching position by moving by the position error amount ⁇ x.
  • the misalignment of the actual operating position of the automatic guided vehicle 35 with respect to the target working position set at the time of the teaching operation is eliminated, and the automatic guided vehicle 35 is substantially positioned with respect to the target working position.
  • the moving speed at the time of adjusting the position of the automatic guided vehicle 35 may be the same as the moving speed at the time of positioning to the target working position during automatic operation, but as described above, it is slower than this speed. Is preferable. By doing so, the position adjustment of the automatic guided vehicle 35 can be accurately performed, that is, with high accuracy. As a result, the accuracy of the robot's position is improved.
  • the automatic operation control unit 47 again captures the identification figure by the camera 31 (step S210), and then calculates the correction amount based on the image of the identification figure from the correction amount calculation unit 50. Whether or not this operation is completed by acquiring (step S211) and shifting the robot 25 to the take-out preparation posture corrected based on the acquired new correction amounts in the X-axis, Y-axis, and rz directions (step S212). Is monitored (step S213). Then, when the operation is completed, the process of step S214 is executed. On the other hand, if the operation is not completed, it is highly possible that the problem related to the singularity has been solved by the above recovery operation, but it is considered that the operation has not been completed due to other causes. Therefore, an alarm is output (step S220), and a series of processes is terminated (step S6).
  • step S214 the automatic operation control unit 47 shifts the robot 25 to the gripping posture, and after this operation is completed (step S215), shifts to the removal posture (step S216). Then, when this operation is completed (step S217), the automatic operation control unit 47 then shifts the robot 25 to the work completion posture, and after this operation is completed (step S219), a series of work is taken out. End the operation. While the robot 25 shifts from the gripping posture to the removing posture, the automatic operation control unit 47 transmits a chuck opening command to the machine tool 10, whereby the chuck 12 is opened.
  • step S6 if the transition to the gripping posture, the transition to the removal posture, and the transition to the work completion posture are not completed within the predetermined time, an alarm is output in the same manner as above (step S220), and a series of series. The process ends (step S6).
  • the automatic operation control unit 47 executes the storage operation of the post-machining work W2 (step S3).
  • the automatic operation control unit 47 moves the automatic guided vehicle 35 to the work position set for the product stocker 21, and stores the automatic guided vehicle 35 in the robot 25 when starting work on the product stocker 21.
  • the product is made to take the start posture, each storage posture for storing the processed work held by the hand 29 in the product stocker 21, and the storage completion posture when the storage is completed, and the processed work held by the hand 29 is produced. Store in the stocker 21.
  • the automatic operation control unit 47 executes an operation of taking out the pre-machining work W1 which is a material (step S4).
  • the automatic operation control unit 47 moves the automatic guided vehicle 35 to the work position set for the material stocker 20, and causes the robot 25 to start taking out the work at the material stocker 20.
  • the posture and the unprocessed work W1 stored in the material stocker 20 are grasped by the hand 29, and each take-out posture for taking out from the material stocker 20 and the take-out completion posture when the take-out is completed are sequentially taken by the hand 29.
  • the work W before processing is gripped.
  • the automatic operation control unit 47 executes the mounting operation of the work W1 before machining (step S5).
  • This mounting operation is the same as the operation shown in FIGS. 7 and 8, and the taking-out preparation posture, the gripping posture, and the taking-off posture of the taking-out operation shown in FIGS. 7 and 8 are the mounting in the mounting operation, respectively. It can be read as the preparation posture, the mounting posture, and the separation posture. Although detailed description of this mounting operation will be omitted, the pre-machining work W1 gripped by the hand 29 is delivered to the machine tool 10 to the chuck 12 and gripped by the chuck 12.
  • the automatic operation control unit 47 sends a machining start command to the machine tool 10 to cause the machine tool 10 to perform the machining operation.
  • step S6 unmanned automatic production is continuously executed.
  • the automatic guided vehicle 35 moves to each working position, it moves at the third speed SP3, which is faster than the second speed SP2.
  • the amount of positioning error when the automatic guided vehicle 35 is positioned at the working position set with respect to the machine tool 10 is limited by the singular point of the robot 25. Even if the robot 25 is stopped due to exceeding the movable range of 29, the robot 25 can be automatically recovered from the stopped state, and the working posture of the robot 25, That is, it is possible to appropriately correct the take-out preparation posture, the gripping posture and the removal posture in the taking-out operation, and the mounting preparation posture, the mounting posture and the separation posture (in other words, the position of the hand 29 in each posture) in the mounting operation. .. That is, the accuracy of the position of the robot can be improved. As a result, when the robot 25 is stopped, it is possible to avoid the troublesome work of manually returning the system 1 and re-doing the teaching operation, and improving the operating rate of the system 1. be able to.
  • the positioning error amount is detected again at the target working position of the unmanned carrier 35, and based on the detected positioning error amount, the removal preparation posture, the gripping posture, and the removal in the removal operation of the robot 25 are performed. Since the posture and the mounting preparation posture, the mounting posture, and the separated posture in the mounting operation are corrected, each posture can be controlled with high accuracy, in other words, the hand 29 of the robot 25 is set to the target position. , That is, it can be positioned accurately, that is, with high accuracy.
  • the present invention is not limited to such an embodiment. not.
  • the working posture of the robot 25 may not require highly accurate positioning.
  • the subsequent operation may be executed without detecting the amount of positioning error of the automatic guided vehicle 35 to the target working position again.
  • FIG. 9 An example of this is shown in FIG.
  • the operation shown in FIG. 9 follows step S209 shown in FIG. 7, and after adjusting the working position of the unmanned carrier 35, the X-axis and Y-axis directions are not corrected, while the rotation direction ( The correction amount for rz) is corrected by using the correction amount calculated in step S205, and the robot 25 is sequentially subjected to the take-out preparation posture (mounting preparation posture) (step S232) and the gripping posture (mounting posture) (Ste S234), removal posture (separation posture) (step S234), and work completion posture (step S236).
  • the automatic guided vehicle 35 is moved in the direction opposite to the positional deviation in the X-axis and Y-axis directions by the position error amounts ⁇ x and ⁇ y, respectively, and the working position is adjusted (step S209), which is set during the teaching operation.
  • the misalignment of the automatic guided vehicle 35 in the X-axis and Y-axis directions with respect to the target work position is almost eliminated, and the automatic guided vehicle 35 is in a state of being substantially positioned with respect to the target work position. Therefore, the working posture of the robot 25 can be set to the target working posture set by the teaching operation by correcting only the rotation direction (rz) without making any particular correction in the X-axis and Y-axis directions. ..
  • step S2308 if the transition to each working posture is not completed within the predetermined time, an alarm is output (step S238) and a series of processes is terminated in the same manner as described above (step S238). Step S6).
  • FIG. 14 is a diagram showing the difference in the appearance of the identification image when the image is captured by the camera 31 having the optical axis in the horizontal direction
  • FIG. 14A is a diagram showing the difference in the appearance of the identification image in the first machine tool 10A and the second machine tool 10B. The captured image of the identification figure is shown, and (b) shows the captured image of the identification figure in the third machine tool 10C.
  • FIG. 14A shows a camera in a state where the automatic guided vehicle 35 (robot-mounted moving device) is stopped in front of the first machine tool 10A in a state where the display board 16 is arranged as shown in FIG.
  • An example is shown in which the image of the identification figure captured by 31 is the same as the image captured during teaching, which is captured during teaching, and the automatic guided vehicle 35 is captured in a state of being stopped in front of the second machine tool 10B.
  • An example is shown in which the image is different from the image captured during teaching.
  • the control unit controls the hand unit of the robot to attach / detach a work or the like, or moves the robot-mounted moving device to change the position of the moving unit.
  • FIG. 16A there is an image corresponding to the camera frame.
  • a part of the image is set as a predetermined range.
  • the inside of the predetermined range on the image is set to be within the predetermined range, and the outside of the predetermined range is set to be outside the predetermined range.
  • the information related to the position of the identification figure is superimposed on the information of the image and the predetermined range.
  • the position of the center of the identification figure is used as information related to the position of the identification figure.
  • the control unit detects the center position of the identification figure in the captured image, and determines whether or not the detected position is within a predetermined range.
  • the control unit determines that the center position of the identification figure is within a predetermined range
  • the control unit controls the hand unit of the robot to transfer the work or the like.
  • the control unit determines that the center position of the identification figure is not within the predetermined range (outside the predetermined range)
  • the control unit moves the moving unit and corrects the position of the robot-mounted moving device. As shown in FIG.
  • the control unit moves on the robot. Move the moving part of the device to change the device position of the robot-mounted mobile device. After that, the identification figure is imaged by the camera, and if the center of the identification figure is within a predetermined range, the control unit controls the position of the hand portion of the robot of the robot-mounted mobile device, and attaches / detaches the work.
  • the predetermined range may be set to a circle having a radius of 1/4 of the diagonal line of the camera frame. Further, the entire area of the camera frame may be set as a predetermined range.
  • control unit may be set to control the position of the hand unit of the robot and attach / detach the work as long as the center of the identification figure is imaged on the camera frame.
  • the predetermined range can be appropriately set in consideration of the movable range of the robot arm.
  • FIG. 14B shows an example of an assumed camera frame when the automatic guided vehicle 35 is stopped in front of the third machine tool 10C and the identification figure is imaged by the camera 31. In this example, as shown in FIG. 1, the door 18 of the third machine tool 10C is in a closed state, and the identification image inside the third machine tool 10C cannot be captured (see FIGS. 1 and 14). ).
  • the control device 40 of the robot-mounted mobile device sends an instruction to open the door 18 to the third machine tool 10C, or the door 18 of the third machine tool 10C is opened to the worker or the supervisor. It is preferable to perform a process of notifying that the notification has not been performed. Further, as a form for avoiding a state in which the robot arm cannot be inserted inside the machine tool when the door is closed, a form in which a code for opening the door is inserted in an NC program executed by the machine tool may be used. Since there is a code to open the door in the NC program, if the block of the NC program before the code to open the door is being executed, the robot arm cannot enter with the door closed.
  • the robot arm does not enter the machine tool during the work of the machine tool such as during machining or measurement.
  • the automatic guided vehicle arrives at a predetermined position in front of the third machine tool 10C with the door closed, it is preferable to set the automatic guided vehicle to stand by at the predetermined position for a certain period of time.
  • the NC program in which the code for opening the door is inserted is executed, if the door is automatically opened, the machine tool work such as machining and measurement is not performed.
  • the open / closed state of the door can be easily opened even from a distance or remote monitoring, so that the supervisor can easily grasp the operating state of the machine tool.
  • the automatic guided vehicle 35 stops in front of the third machine tool 10C
  • the automatic guided vehicle may transmit a signal to the third machine tool.
  • the third machine tool can unlock the door and open the door by executing a process of confirming whether or not the door can be opened and closed when the signal transmitted by the automatic guided vehicle is received.
  • the door is opened.
  • safe automatic operation becomes possible by confirming safety and opening the door only when necessary.
  • the automatic guided vehicle 35 of the robot-mounted moving device of the present embodiment moves in the order of moving speed SP16> moving speed SP14> moving speed SP13> moving speed SP15> moving speed SP12> moving speed SP11.
  • the moving speed is not limited, it is preferable that the moving speed SP11 moving to the stop position of the imaging posture slows down the moving speed and improves the accuracy of the stop position.
  • the relationship may be such that movement speed SP14> movement speed SP16> movement speed SP15> movement speed SP13> movement speed SP11> movement speed SP12.
  • the arrow indicates the movement route of the automatic guided vehicle 35.
  • the movable range of the hand 29 of the robot 25 is within the broken line circle of MO1 if there is no obstacle.
  • the hand 29 is located in the area of MO3 with the crescent moon mark or the area of MO4 with the star mark. It is not possible to grip the arranged work or the like.
  • the hand portion of the robot can arrange or remove an object such as a work in the area of MO2.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)

Abstract

第1装置位置と異なる第2装置位置において、カメラ(31)で識別画像が撮像された際の識別図形の位置である第2識別位置に基づいて、第2識別位置が第2装置位置から所定の範囲内にある場合には、ハンド部(29)の位置を調整し、第2識別位置が前記第2装置位置から所定の範囲外にある場合には、前記移動部(35)を移動させ前記移動部(35)の位置を調整する。

Description

ロボット搭載移動装置及びシステムの位置決め制御方法
 本開示は、対象物に対して作用するハンド部を有するロボットと、このロボットを搭載して所定の作業位置に移動する移動部と、を備えるロボット搭載移動装置、これを用いたシステムの位置決め制御方法などに関する。
 従来、上述したシステムの一例として、特開2017-132002号公報(特許文献1)に開示されたシステムが知られている。このシステムでは、ロボットを搭載した無人搬送車が、工作機械に対して設定された作業位置に移動し、この作業位置において、ロボットにより、工作機械に対してワークの着脱等の作業が実行される。
 このようなシステムでは、無人搬送車によって移動する一台のロボットにより、複数の工作機械に対して、ワークの着脱等の作業を実施することができるので、工作機械に対してロボットを固定した状態で配設する場合に比べて、工作機械のレイアウトの自由度が増すため、工作機械のレイアウトを、より生産効率を高めることが可能なレイアウトに設定することができる。また、ロボットを固定状態で配設した旧来のシステムに比べて、一台のロボットにより、より多くの工作機械に対して作業を行うことができるので、設備費用の低廉化を図ることができる。
 その一方、無人搬送車は車輪を用いて自走する構造であるが故に、前記作業位置に停止するその位置決め精度は必ずしも高いものとは言えない。
 従来、固定状態で配設されたロボットの作業姿勢を補正する技術として、特開2016-221622号公報(特許文献2)に開示されるような位置補正手法が知られている。具体的には、この位置補正手法は、2つの較正用マーカからなる視覚ターゲットを工作機械の外表面に配設し、ロボットの可動部に設けられたカメラにより、前記視覚ターゲットを撮像し、得られた画像と、カメラの位置及び姿勢とを基に、ロボットと工作機械との相対的な位置関係を測定し、測定された位置関係に基づいて、ロボットの作業姿勢を補正するというものである。
 ロボットが多関節型の場合、ロボットのアーム先端部に設けられる作用部(エンドエフェクタ)の位置は、各関節部を構成するモータの回転によって移動する各アームの姿勢が累積されたものとして定まる。そして、各モータが回転できる当該回転角には構造上の限界があるため、各アームの姿勢によっては、作用部をある方向にはそれ以上動かすことができない、いわゆる、特異点となるところが存在する。例えば、各アームが一直線状に並んだ場合には、その延長線方向には作用部を動かすことができない。また、2つ以上の可動軸が一直線状に並んだときにも、前記作用部を動かすことができない方向が生じる。
 したがって、自動運転において、無人搬送車を作業位置に位置決めしたときのロボットの作業姿勢を補正する際に、無人搬送車の位置決め誤差量が特異点によって制限される作用部の可動範囲を超えている場合には、ロボットの作業姿勢を補正することができず、従来は、システムがアラーム状態となり、停止した状態となっていた。
 この点について、図10及び図11に基づいて、より具体的に説明する。尚、図10及び図11では、無人搬送車がX軸-Y軸平面で移動するとし、ティーチング時に無人搬送車を作業位置に位置決めしたときの、X軸-Y軸平面と平行な平面上における、ティーチング時の前記ロボットの作用部の先端(ロボット先端)の位置(目標位置)をPtとし、自動運転時に無人搬送車を作業位置に位置決めしたときの、X軸-Y軸平面と平行な平面上におけるロボット先端の位置(実動作位置)をPaとする。また、無人搬送車の位置決め誤差量をΔXe,ΔYeとし、実動作位置Paを基準としたロボット先端部のX軸及びY軸方向の各可動距離をXc,Ycとする。
 例えば、図10に示すように、無人搬送車の位置決め誤差量ΔXe,ΔYeのいずれもが、実動作位置Paを基準としたロボット先端部のX軸及びY軸方向の各可動距離Xc,Ycより小さい場合、即ち、補正によってロボット先端部を移動させるべき位置である前記目標位置Ptが2点鎖線で示すロボット先端部の可動領域内にあれば、当該ロボット先端部の実動作位置Paを目標位置Ptに補正することができる(破線の矢印を参照)。
 一方、図11に示すように、無人搬送車の位置決め誤差量ΔXe,ΔYeの少なくとも一方が、実動作位置Paを基準としたロボット先端部のX軸及びY軸方向の各可動距離Xc,Ycを超える場合(図11に示した例では、ΔXe>Xc)、即ち、補正によってロボット先端部を移動させるべき位置である前記目標位置Ptが2点鎖線で示すロボット先端部の可動領域外にあれば、当該ロボット先端部の実動作位置Paを目標位置Ptに補正することができない(破線の矢印を参照)。
特開2017-132002号公報 特開2016-221622号公報
 上記のように補正することができず、システムがアラーム状態となって停止した場合には、移動部及びロボットを初期位置に復帰させた後、再稼働させる必要がある。また、アラームが頻繁に発生する場合には、ティーチング操作によって、ロボットの位置及び移動部の移動位置を再設定するといった対応を採る必要がある。そして、このような対応を採ることによって、当該システムの稼働率が低下する。
 そのため、工作機械内で対象物に作用する動作を行うロボットの位置の正確性を向上させることが求められている。
 そこで、本発明は、請求項に記載のロボット搭載移動装置、システムの位置決め制御方法などを提供するものである。
 本発明により、工作機械内で対象物に作用する動作を行うロボットの位置の正確性を向上させることができる。
本実施形態に係るシステムの概略構成を示した平面図である。 本実施形態に係るシステムの構成を示したブロック図である。 本実施形態に係る移動部及びロボットを示した斜視図である。 本実施形態に係るロボットの撮像姿勢に関する説明図である。 本実施形態に係る識別図形を示した説明図である。 本実施形態におけるロボット搭載移動装置の制御に関する説明図である。 本実施形態におけるロボット搭載移動装置の制御に関する説明図である。 本実施形態におけるロボット搭載移動装置の制御に関する説明図である。 本実施形態における制御について説明するための説明図である。 設定方法の説明をするための説明図である。 設定方法の説明をするための説明図である。 本実施形態における補正量算出手法を説明するための説明図である。 本実施形態に係るシステムの概略構成を示した平面図である。 本実施形態に係る識別図形の撮像画像例を示す斜視図である。 識別図形を工作機械中に配置する変形例を示した説明図である。 識別図形を撮像した際の制御部における処理を説明するための説明図である。
 以下、本発明の具体的な実施の形態について、図面を参照しながら説明する。
<<実施形態1>>
 図1及び図2に示すように、本例のシステム1は、同じ構成を有する第1工作機械10A、第2工作機械10B及び第3工作機械10C(以下、これらを総称して工作機械10と称する場合がある)、周辺装置としての材料ストッカ20及び製品ストッカ21、移動部の一例である無人搬送車35、この無人搬送車35に搭載されたロボット25、ロボット25に装着されたカメラ31、ロボット25のハンド部、及び無人搬送車35を制御する制御装置40などを備える。
 なお、本実施形態では、無人搬送車35、ロボット25、カメラ31及び制御装置40からロボット搭載移動装置が構成されるが、この構成に限定されない。本実施形態のロボット搭載移動装置は、カメラ、ロボット、ロボットのハンド部の位置を制御する制御部、移動可能な移動部を少なくとも有していればよい。
 図4に示すように、工作機械10は、ワークW1(W2)を把持するチャック12が装着される主軸11を備え、いわゆる横形のNC(数値制御)旋盤であり、ワークW1(W2)に対して旋削加工を行うことができるようになっている。また、主軸11の近傍には接触子14及びこれを支持する支持バー15を備えたツールプリセッタ13が設けられており、この支持バー15は、主軸11の軸線に沿って、加工領域に対して進退可能に設けられており、その加工領域側の端面にセラミック製の表示板16が設けられ、この表示板16に、図5に示した識別図形が描画されている。
 また、識別図形は、好ましくは、工作機械10内の加工領域内に位置しているときに、カメラ31によって撮像される。このため、識別図形にクーラントや加工屑などが付着する場合があり、クーラントなどの異物が付着すると識別図形を含む画像データから識別図形の位置を認識できない恐れがある。そこで、ロボット25にエアブローやゴムブラシなどの清掃手段32(図4において、一点鎖線で示す。)を設けて、識別図形を含む表示板16を清掃するようにしてもよい。また、ロボット25に清掃手段32を設けるのではなく、工作機械10に清掃手段を設けてもよい。例えば、表示板16の裏に、圧電素子などから構成される超音波振動発生手段などの振動発生手段を設けて、識別図形を含む表示板16を振動させることにより、表示板16の表面や識別図形表面に付着した異物を振るい落すようにしてもよい。
 本実施形態では、表示板16は水平に設けられており、したがって、識別図形は水平面と平行になっている。また、図4では、支持バー15及び接触子14が加工領域内に進出した状態を図示しているが、支持バー15及び接触子14が後退して、接触子14及び表示板16が収納領域内に収納された状態で、シャッタ17が閉じることにより、接触子14及び表示板16は加工領域から隔離される。尚、表示板16は鉛直面に対して平行に設けることができ、このような例として、図1では、ロボット25に対して正面に位置するように配置した例を破線で示している。
 また、本例の識別図形は複数の正方形をした画素が二次元に配列されたマトリクス構造を有するものであり、各画素が白または黒で表示される。図5では、黒色の画素に斜線を付している。このような識別図形には、ARマーカやAprilTagと称されるものがある。また、識別図形が小さい場合には、当該識別図形上にレンズを設けるなどして、後述するカメラ31により拡大された画像が撮像されるようにしても良い。
 材料ストッカ20は、図1において第1工作機械10Aの左隣に配設され、第1工作機械10Aで加工される複数の材料(加工前ワークW1)をストックする装置である。また、製品ストッカ21は、図1において第3工作機械10Cの右隣に配設され、第3工作機械10Cで加工された複数の製品又は半製品(加工済ワークW2)をストックする装置である。
 図1に示すように、移動部の一例である無人搬送車35には、その上面である載置面36にロボット25が搭載され、また、オペレータが携帯可能な操作盤37が付設されている。なお、この操作盤37は、データの入出力を行う入出力部、当該無人搬送車35及びロボット25を手動操作する操作部、並びに画面表示可能なディスプレイなどを備えている。
 また、無人搬送車35は、工場内における自身の位置を認識可能なセンサ(例えば、レーザ光を用いた距離計測センサ)を備えており、制御装置40による制御の下、水平なX軸-Y軸平面内で、第1工作機械10A、第2工作機械10B、第3工作機械10C、材料ストッカ20及び製品ストッカ21が配設される領域を含む工場内を無軌道で走行することができる。本例のロボット搭載移動装置は、第1工作機械10A、第2工作機械10B、第3工作機械10C、材料ストッカ20及び製品ストッカ21のそれぞれに対して設定された各作業位置を経由する。
 図1及び図3に示すように、本実施形態のロボット25は、第1アーム26、第2アーム27及び第3アーム28の3つのアームを備えた多関節型のロボットである。また、ロボット25は、第3アーム28の先端部にはエンドエフェクタ(作用部)としてのハンド29が装着され、支持バー30を介して1つのカメラ31が装着されている。これらハンド29及びカメラ31を、水平なX軸,Y軸、及びこれらと直交する鉛直方向のZ軸で定義される3次元空間内で移動させる。
 ただし、ロボット25は、上述の形態に限定されるものではない。例えば、ロボットは、(i)カメラと、(ii)ワークや工具などの対象物を把持するためのハンド部と、(iii)ハンド部を可動可能に繋いでいる第2アーム部と、(iv)第2アーム部を可動可能に繋いでいる第1アーム部と、を少なくとも有していればよい。本実施形態では、第1アーム26を第1アーム部、第2アーム27を第2アーム部、ハンド29をハンド部としているが、第2アーム27を第1アーム部、第3アーム28を第2アーム部、ハンド29をハンド部としてもよい。
 図2に示すように、制御装置40は、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44、基準画像記憶部45、手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51から構成される。そして、本実施形態の制御装置40は、この入出力インターフェース51を介して、ロボット25、カメラ31、無人搬送車35及び操作盤37に接続しており、手動運転制御部46及び自動運転制御部47によって、ハンド29の位置及び開閉等の動作、カメラ31の動作、及び無人搬送車35の動作が制御される。
 なお、制御装置40は、CPU、RAM、ROMなどを含むコンピュータから構成される。手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51は、コンピュータプログラムによってその機能が実現され、後述する処理を実行する機能モジュールである。また、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44及び基準画像記憶部45はRAMなどの適宜記憶媒体から構成される。本例では、制御装置40は無人搬送車35に付設され、ロボット25、カメラ31、無人搬送車35及び操作盤37とは有線又は無線によって接続されている。但し、このような態様に限られるものではなく、制御装置40は無人搬送車35以外の適宜位置に配設されていても良い。例えば、制御装置40は、操作盤に配設されていても良い。この場合、制御装置40は適宜通信手段によって各部と接続される。
 動作プログラム記憶部41は、生産時に無人搬送車35及びロボット25を自動運転するための自動運転用プログラム、並びに後述する工場内のマップ情報を生成する際に無人搬送車35を動作させるためのマップ生成用プログラムを記憶する機能部である。自動運転用プログラム及びマップ生成用プログラムは、例えば、操作盤37に設けられた入出力部から入力され、当該動作プログラム記憶部41に格納される。
 なお、この自動運転用プログラムには、無人搬送車35が移動する目標位置としての移動位置、移動速度及び無人搬送車35の向きに関する指令コードが含まれ、また、ロボット25が順次動作する当該動作に関する指令コード、及びカメラ31の操作に関する指令コードが含まれる。また、マップ生成用プログラムは、前記マップ情報生成部48においてマップ情報を生成できるように、無人搬送車35を無軌道で工場内を隈なく走行させるための指令コードが含まれる。
 マップ情報記憶部44は、無人搬送車35が走行する工場内に配置される機械、装置、機器など(装置等)の配置情報を含むマップ情報を記憶する機能部であり、このマップ情報は前記マップ情報生成部48によって生成される。
 マップ情報生成部48は、詳しくは後述する制御装置40の自動運転制御部47による制御の下で、動作プログラム記憶部41に格納されたマップ生成用プログラムに従って無人搬送車35を走行させた際に、センサによって検出される距離データから工場内の空間情報を取得するとともに、工場内に配設される装置等の平面形状を認識し、例えば、予め登録された装置等の平面形状を基に、工場内に配設された具体的な装置、本例では、第1工作機械10Aの位置、第2工作機械10Bの位置、第3工作機械10Cの位置、材料ストッカ20の位置及び製品ストッカ21の位置、これらの平面形状等(配置情報)を認識する。そして、マップ情報生成部48は、得られた空間情報及び装置等の配置情報を工場内のマップ情報としてマップ情報記憶部44に格納する。
 移動位置記憶部42は、無人搬送車35が移動する具体的な目標位置としての移動位置であって、動作プログラム中の指令コードに対応した具体的な移動位置を記憶する機能部であり、この移動位置には、上述した第1工作機械10A、第2工作機械10B、第3工作機械10C、材料ストッカ20及び製品ストッカ21に対して設定される各作業位置が含まれる。本実施形態の作業位置は、ロボット搭載移動装置の移動部、即ち、無人搬送車35の第1装置位置や第2装置位置などの位置である。なお、本実施形態の移動位置の一つである目標移動位置は、例えば、手動運転制御部46による制御の下、操作盤37により無人搬送車35を手動運転して、目標とする各位置に移動させた後、位置認識部49によって認識される位置データを移動位置記憶部42に格納する操作によって設定される。この操作はいわゆるティーチング操作と呼ばれる。
 動作姿勢記憶部43は、ロボット25が所定の順序で動作することによって順次変化するロボット25の姿勢(動作姿勢)であって、動作プログラム中の指令コードに対応した動作姿勢に係るデータを記憶する機能モジュールである。この動作姿勢に係るデータは、手動運転制御部46による制御の下で、操作盤37を用いたティーチング操作により、当該ロボット25を手動運転して、目標とする各姿勢を取らせたときのデータを動作姿勢記憶部43に格納される。本実施形態では、各姿勢におけるロボット25の各関節(モータ)の回転角度データを動作姿勢に係るデータとして動作姿勢記憶部43に格納している。
 ただし、これに限定されない。例えば、各姿勢においてカメラで識別図形を撮像し、撮像された画像データの識別図形の識別位置(例えば、2軸の座標)とロボットの姿勢とを対応付けたテーブルを動作姿勢記憶部43で記憶している形態でもよい。この場合、識別位置と装置位置とも対応付けてテーブルを作成する必要がある。例えば、第1装置位置と第1識別位置との場合は、第1アーム部と第2アーム部とがなす角が60°に広がったロボット姿勢と対応付け、第1装置位置と第2識別位置(第1識別位置と異なる位置)との場合は、第1アーム部と第2アーム部とのなす角が10°であるアームが折り畳まれたロボット姿勢と対応付ける。さらに、テーブルでなく、上述の対応付けに合致する変換が可能な変換行列を用いた演算処理を行う演算部を設ける構成でもよい。つまり、識別図形の座標をもとに、ロボットのハンド部の位置(2次元座標、3次元座標など)を算出する形態でもよい。
 本実施形態のロボット25の具体的な動作姿勢は、材料ストッカ20、第1工作機械10A、第2工作機械10B、第3工作機械10C及び製品ストッカ21において、それぞれ設定される。例えば、材料ストッカ20では、材料ストッカ20において作業を開始するときの作業開始姿勢(取出開始姿勢)、材料ストッカ20に収納された加工前ワークWをハンド29により把持して、材料ストッカ20から取り出すための各作業姿勢(各取出姿勢)及び取出を完了したときの姿勢(取出完了姿勢であり、本例では、取出開始姿勢と同じ姿勢)が取出動作姿勢(目標作業姿勢)として設定される。
 また、工作機械10では、加工済のワークW2を工作機械10から取り出すワーク取出動作における姿勢(ワーク取出動作姿勢)、及び加工前ワークW1を工作機械10に取り付けるワーク取付動作における姿勢(ワーク取付動作姿勢)が目標作業姿勢として設定される。
 ワーク取出動作姿勢では、例えば、次のような姿勢がある。まず、工作機械10に進入する前の作業開始姿勢がある。次に、ハンド29を工作機械10の加工領域内に進入させて、カメラ31によって工作機械内に配された識別図形を撮像する姿勢(撮像姿勢)(図4参照)がある。そして、工作機械10のチャック12に把持された加工済ワークW2に対してハンド29を対向させた姿勢(取出準備姿勢)がある。その後、ハンド29をチャック12側に移動させて、チャック12に把持された加工済ワークW2をハンド29によって把持する姿勢(把持姿勢)がある。そして、ハンド29をチャック12から離隔させて加工済ワークW2をチャック12から取り外した姿勢(取外姿勢)があり、最後に、ハンド29及びカメラ31を工作機械10から抜け出させた姿勢(作業完了姿勢)がある。これらの各姿勢が本実施形態において目標作業姿勢として設定される。なお、本実施形態においては、カメラ31を識別図形に対して対向させたときのカメラ31の姿勢は、カメラの光軸が識別図形を含む平面に直交する姿勢が好ましい。
 また、本実形態における撮像姿勢は、ハンド29やカメラ31を工作機械内に進入させているが、この姿勢に限定されない。例えば、図1に示すように、ハンド29やカメラ31が工作機械10の外にあってもよい。この場合、ロボット25のカメラ31は、工作機械10内に配された識別図形を撮像できるように、言い換えれば、識別図形に対向するように、更に言い換えれば、光軸が識別図形を含む面と交差(好ましくは直交)するように、回転や移動で、カメラ31の位置を調整すればよい。さらに、撮像姿勢は、本実施形態の作業開始姿勢からカメラ31を識別図形と対向するように向きを変えた姿勢を撮像姿勢としてもよい。
 また、ワーク取付動作姿勢では、例えば、次のような姿勢がある。まず、工作機械10に進入する前の作業開始姿勢がある。つぎに、ハンド29及びカメラ31を工作機械10の加工領域内に進入させて、支持バー15に設けられた識別図形にカメラ31を対向させ、カメラ31によって識別図形を撮像する姿勢(撮像姿勢)(図4参照)がある。そして、工作機械のチャック12に対してハンド29に把持された加工前ワークW1を対向させた姿勢(取付準備姿勢)がある。その後、ハンド29をチャック12側に移動させて、加工前ワークW1をチャック12によって把持可能にした姿勢(取付姿勢)がある。そして、ハンド29をチャック12から離隔させた姿勢(離隔姿勢)がある。最後に、ハンド29及びカメラ31を工作機械10から抜け出させた姿勢(作業完了姿勢)がある。これらの各姿勢が本実施形態において目標作業姿勢として設定される。
 また、本実形態における撮像姿勢は、ハンド29やカメラ31を工作機械10内に進入させた姿勢としているが、この姿勢に限定されるものではない。例えば、図1に示すように、ハンド29やカメラ31が工作機械10の外にある状態で、機内にある表示板16に設けられた識別図形を撮像するようにしても良いい。この場合、ロボット25のカメラ31は、工作機械10内に配された識別図形を撮像できるように、言い換えれば、識別図形に対向するように、更に言い換えれば、光軸が識別図形を含む面と交差(好ましくは直交)するように、回転や移動で、カメラ31の位置を調整すればよい。さらに、撮像姿勢は、本実施形態の作業開始姿勢からカメラ31を識別図形と対向するように向きを変えた姿勢を撮像姿勢としてもよい。
 製品ストッカ21に対するロボット25の姿勢としては、製品ストッカ21において作業を開始するときの作業開始姿勢(収納開始姿勢)、ハンド29に把持した加工済ワークW2を製品ストッカ21内に収納するための各作業姿勢(収納姿勢)及び収納を完了したときの姿勢(収納完了姿勢であり、本例では、収納開始姿勢と同じ姿勢)がある。本実施径形態においては、これらの姿勢を収納動作姿勢(目標作業姿勢)として設定する。
 位置認識部49は、センサによって検出される距離データ、及びマップ情報記憶部44に格納された工場内のマップ情報を基に、工場内における無人搬送車35の位置を認識する処理、並びに、ロボット25の各関節に設けられるモータの回転角に基づいて、エンドエフェクタとしてのハンド29及びカメラ31の3次元空間内における位置を認識する処理を実行する機能モジュールである。そして、この位置認識部49によって認識される無人搬送車35の位置に基づいて、無人搬送車35の動作が自動運転制御部47によって制御される。また、位置認識部49によって認識された無人搬送車35のX軸-Y軸平面における位置、並びにハンド29及びカメラ31の3次元空間内(X軸,Y軸及びZ軸で定義される3次元空間内)における位置は、操作盤37のディスプレイ上に表示される。なお、ハンド29及びカメラ31の3次元空間内の位置は、ロボット25の各アーム長さ及び各関節に設けられるモータの回転角に基づいて、所定の変換式から算出することができる。
 手動運転制御部46は、オペレータにより操作盤37から入力される操作信号に従って、無人搬送車35、ロボット25及びカメラ31を動作させる機能モジュールである。即ち、オペレータは、この手動運転制御部46による制御の下で、操作盤37を用いて、位置認識部49により認識され、ディスプレイに表示される無人搬送車35の位置、並びにハンド29及びカメラ31の3次元空間内における位置を確認しながら、無人搬送車35をX軸及びY軸に沿って並進移動させることができるとともに、カメラ31により画像を撮像することができる。また、ロボット25のハンド29及びカメラ31を、X軸,Y軸及びZ軸の各軸に沿って並進移動させることができるとともに、X軸,Y軸及びZ軸の各軸回りにそれぞれ回転させることができる。尚、X軸,Y軸及びZ軸の各軸回りの回転はそれぞれrx,ry及びrzで表される。
 自動運転制御部47は、動作プログラム記憶部41に格納された自動運転用プログラム及びマップ生成用プログラムの何れかを用い、当該プログラムに従って無人搬送車35、ロボット25及びカメラ31を動作させる機能モジュールである。その際、移動位置記憶部42及び動作姿勢記憶部43に格納されたデータが必要に応じて使用される。
 基準画像記憶部45は、ティーチング操作時に、無人搬送車35が工作機械10に対して設定された作業位置で、ロボット25が撮像姿勢にあるときに、ツールプリセッタ13の支持バー15に設けられた識別図形(図4)をカメラ31により撮像して得られた画像を、基準画像として記憶する機能モジュールである。なお、識別図形は、図4に示すようにツールプリセッタに設けられるものに限られない。図15に示すように、工具主軸に取り付け可能な識別図形付き着脱器具の識別図形を用いてもよい。
 例えば、図15に示すような、工具を回転させる工具主軸105を備えた横形の旋盤100の場合、前記表示板16をホルダ106によって水平に支持するとともに、このホルダ106を工具主軸105に装着するようにした態様を採ることができる。この場合、旋盤100により加工を行うときには、ホルダ106を工具収容部である工具マガジンに格納しておき、前記ロボット25により作業を行うときに、ホルダ106を工具マガジンから取り出して工具主軸105に装着する。尚、図15において、符号101は第1主軸、符号103は第2主軸であり、これらは同軸且つ相互に対向するように配設される。また、符号102は第1主軸101に装着された第1チャック、符号104は第2主軸103に装着された第2チャックである。また、符号107は刃物台であり、符号108は刃物台107に設けられたタレット、符号109は、ワークWを支持する支持治具であり、タレット108の外面に取り付けられている。
 補正量算出部50は、自動運転制御部47による制御の下で、動作プログラム記憶部41に格納された自動運転用プログラムに従ってロボット25が自動運転され、ワーク取出動作及びワーク取付動作が実行される際に、当該ロボット25が撮像姿勢に在り、カメラ31によって識別図形が撮像されると、自動運転時に得られた現在の識別図形の画像と、基準画像記憶部45に格納された基準画像(ティーチング操作時に撮像された画像)とに基づいて、ロボット25の現在の姿勢(実動作姿勢)とティーチング操作時の姿勢(目標動作姿勢)との間におけるカメラ31の位置誤差量であって、識別図形と平行な平面内で設定される相互に直交する2軸方向(本例ではX軸及びY軸方向)におけるカメラ31の位置誤差量(Δx,Δy)、及び該平面と直交する垂直軸(本例ではZ軸)回りのカメラ31の回転誤差量(Δrz)を推定し、推定された各誤差量に基づいて、実動作姿勢における作用部(ハンド29又はカメラ31が対応)に対する補正量を算出する(図12参照)。なお、この位置誤差量(Δx,Δy)、及び回転誤差量(Δrz)は、ティーチング操作時に設定された無人搬送車35の目標作業位置に対する位置決め誤差に起因するもので、実質的に、この目標作業位置に対する実際に無人搬送車が停止した位置との差35の位置決め誤差量に相当するものである。
 そして、この補正量算出部50によって算出された補正量は、ロボット25が工作機械10で作業する際のワーク取出動作姿勢における取出準備姿勢、把持姿勢及び取外姿勢、並びにワーク取付動作姿勢における取付準備姿勢、取付姿勢及び離隔姿勢を補正する際に用いられ、補正量に基づいて、自動運転制御部47により、各姿勢におけるハンド29の位置(目標位置)が補正される。なお、この補正量は、自動運転制御部48により、予め設定された変換式により、ロボット25の各関節の角度データに変換され、変換された角度データに従って、ロボット25が制御される。
 以上の構成を備えた本例のシステム1によれば、制御装置40の自動運転制御部47は、動作プログラム記憶部41に格納された自動運転用プログラムを実行して、無人搬送車35及びロボット25を制御し、工作機械10、材料ストッカ20及び製品ストッカ21に対して、図6に示した動作を実行させる。
 即ち、自動運転制御部47は、まず、工作機械10から加工を完了した信号を受信するまで待機する(ステップS1)。尚、工作機械10において加工が完了されると、工作機械10は、ロボット25が加工領域内に侵入可能なようにそのドアカバーが開き、また、ツールプリセッタ13の支持バー15を加工領域内に進出させた後、工作機械10に対して加工完了信号を送信する。
 次に、自動運転制御部47は、図7及び図8に示した加工後ワークW2の取出動作を実行させる(ステップS2)。即ち、自動運転制御部47は、ロボット25に作業開始姿勢を取らせた後(ステップS201)、無人搬送車35を工作機械10に対して設定された作業位置に位置決めする(ステップS202)。
 ついで、自動運転制御部47は、ロボット25を撮像姿勢に移行させ(ステップS203)、支持バー15に設けられた識別図形をカメラ31によって撮像する(ステップS204)。そして、このようにして、カメラ31によって識別図形が撮像されると、補正量算出部50において、識別図形を含む画像と、基準画像記憶部45に格納された識別画像を含む基準画像とを基に、ロボット25のティーチング操作時における撮像姿勢と現在の撮像姿勢との間の位置誤差量Δx,Δy及び回転誤差量Δrzが推定され、推定された各誤差量に基づき、ロボット25の以降のワーク取出動作姿勢に対するX軸,Y軸及びrz方向の補正量が算出される。
 そして、自動運転制御部47は、算出された補正量を補正量算出部50から取得し(ステップS205)、ついで、ロボット25を、取得したX軸,Y軸及びrz方向の補正量に基づいて補正した取出準備姿勢に移行させた後(ステップS206)、この動作が完了されたかどうかを監視する(ステップS207)。ロボット25の作業姿勢を補正する際に、無人搬送車35の作業位置への位置決め誤差量が、特異点により制限される作用部(この場合はハンド29)の可動範囲を超えている場合には、ロボット25は動作を完了することができず、停止した状態となる。そこで、本例では、自動運転制御部47は、ロボット25が動作を完了できるかどうかを監視し(ステップS207)、動作を完了することができた場合には、ロボット25を、次の動作である把持姿勢に移行させ(ステップS214)、予定された時間内に動作を完了することができなかった場合には、ステップS208~ステップS213の回復動作を実行する。
 回復動作では、自動運転制御部47は、まず、ロボット25を停止状態となる一つ前の姿勢、即ち、撮像姿勢に移行させた後(ステップS208)、無人搬送車35をX軸及びY軸方向における位置ずれとは逆方向に、その位置誤差量Δx,Δyだけそれぞれ移動させて、その作業位置を調整する(ステップS209)。
 例えば、図1において、第1速度SP1で無人搬送車35(ロボット搭載移動装置)が移動して、第2工作機械10Bの前で停止し、停止後に、撮像姿勢で識別図形の撮像を行い、撮像された画像に基づいて補正動作を行った結果、回復動作が必要であると判断された場合に、算出された位置誤差量Δxだけ、第1速度SP1よりも遅い第2速度SP2で無人搬送車35を移動させる。図1の例では、位置誤差量Δy=0だった場合の例である。無人搬送車35は、位置誤差量Δxだけ移動することにより、ティーチング位置と同じ位置に移動する。これにより、ティーチング操作時に設定された目標作業位置に対する無人搬送車35の実動作位置の位置ずれが解消され、無人搬送車35は、目標作業位置に対してほぼ位置決めされた状態となる。尚、無人搬送車35の位置調整の際の移動速度は、自動運転時に目標作業位置に位置決めする際の移動速度と同速としてもよいが、上述のように、この速度よりも低速であるのが好ましい。このようにすることで、無人搬送車35の位置調整を正確に、即ち、高精度に実行することができる。結果として、ロボットの位置の正確性が向上する。
 次に、自動運転制御部47は、再度、カメラ31によって識別図形を撮像した後(ステップS210)、この識別図形の画像に基づいて算出される算出される補正量を前記補正量算出部50から取得して(ステップS211)、取得した新たなX軸,Y軸及びrz方向の補正量に基づいて補正した取出準備姿勢にロボット25を移行させ(ステップS212)、この動作が完了されるか否かを監視する(ステップS213)。そして、動作が完了された場合には、ステップS214の処理を実行する。一方、動作が完了されない場合には、上記の回復動作によって特異点に関する問題は解消されている可能性が高いが、他の原因により動作が完了していないと考えられる。このため、アラームを出力して(ステップS220)、一連の処理を終了する(ステップS6)。
 ステップS214では、自動運転制御部47は、ロボット25を把持姿勢に移行させ、この動作が完了された後(ステップS215)、取外姿勢に移行させる(ステップS216)。そして、この動作が完了されると(ステップS217)、次に、自動運転制御部47は、ロボット25を作業完了姿勢に移行させ、この動作が完了された後(ステップS219)、一連のワーク取出動作を終了する。尚、ロボット25が把持姿勢から取外姿勢に移行する間に、自動運転制御部47から工作機械10にチャック開指令を送信され、これにより、チャック12が開かれる。
 一方、把持姿勢への移行、取外姿勢への移行、及びに作業完了姿勢への移行が所定時間内に完了されない場合には、上記と同様に、アラームを出力し(ステップS220)、一連の処理を終了する(ステップS6)。
 以上により、加工後のワークW2の取出動作が完了する。
 次に、自動運転制御部47は、加工後ワークW2の格納動作を実行する(ステップS3)。この格納動作では、自動運転制御部47は、無人搬送車35を、製品ストッカ21に対して設定された作業位置に移動させるとともに、ロボット25に、当該製品ストッカ21において作業を開始するときの収納開始姿勢、ハンド29に把持した加工済ワークを製品ストッカ21内に収納するための各収納姿勢及び収納を完了したときの収納完了姿勢を順次取らせて、ハンド29に把持した加工済ワークを製品ストッカ21に収納する。
 ついで、自動運転制御部47は、材料である加工前ワークW1の取出動作を実行する(ステップS4)。この取出動作では、自動運転制御部47は、無人搬送車35を、材料ストッカ20に対して設定された作業位置に移動させるとともに、ロボット25に、材料ストッカ20において作業を開始するときの取出開始姿勢、材料ストッカ20に収納された加工前ワークW1をハンド29によって把持して、材料ストッカ20から取り出すための各取出姿勢及び取出を完了したときの取出完了姿勢を順次取らせて、ハンド29に加工前ワークWを把持させる。
 続いて、自動運転制御部47は、加工前ワークW1の取付動作を実行する(ステップS5)。この取付動作は、図7及び図8に示した動作と同様のものであり、図7及び図8に示した取出動作の取出準備姿勢、把持姿勢及び取外姿勢は、それぞれ、取付動作における取付準備姿勢、取付姿勢及び離隔姿勢と読み替えられる。この取付動作の詳しい説明は省略するが、当該取付動作によって、ハンド29に把持された加工前ワークW1が工作機械10にチャック12に受け渡され、当該チャック12によって把持される。尚、この取付動作では、ロボット25が取付姿勢に移行した後に、自動運転制御部47から工作機械10にチャック閉指令を送信され、これを受けて工作機械10は前記チャック12を閉じる。これにより、チャック12によって加工前ワークW1が把持される。
 そして、この取付動作を完了した後、自動運転制御部47は、工作機械10に加工開始指令を送信して、工作機械10に加工動作を行わせる。
 そして、以上を繰り返すことにより、本例のシステム1では、無人自動生産が連続して実行される(ステップS6)。尚、この実施形態では、無人搬送車35が各作業位置に移動する際には、第2速度SP2よりも速い第3速度SP3で移動する。
 以上のように、本例のシステム1によれば、無人搬送車35を工作機械10に対して設定された作業位置に位置決めしたときの位置決め誤差量が、ロボット25の特異点により制限されるハンド29の可動範囲を超えていることに起因して、ロボット25が停止した状態となったとしても、当該ロボット25を停止状態から自動的に回復させることができるとともに、当該ロボット25の作業姿勢、即ち、取出動作における取出準備姿勢、把持姿勢及び取外姿勢、並びに取付動作における取付準備姿勢、取付姿勢及び離隔姿勢(言い換えれば、各姿勢における前記ハンド29の位置)を適正に補正することができる。つまり、ロボットの位置の正確性を向上させることができる。これにより、ロボット25が停止した状態となった際に、当該システム1を手作業によって復帰させる作業や、ティーチング操作をやり直すといった煩わしい作業を回避することができ、当該システム1の稼働率を向上させることができる。
 また、上記の回復動作後に、無人搬送車35の目標作業位置に位置決め誤差量を再度検出し、検出された位置決め誤差量に基づいて、ロボット25の取出動作における取出準備姿勢、把持姿勢及び取外姿勢、並びに取付動作における取付準備姿勢、取付姿勢及び離隔姿勢を補正するようにしているので、各姿勢を高精度に制御することができる、言い換えれば、ロボット25のハンド29を目標とする位置に、正確に、即ち、高精度に位置決めすることができる。
 以上、本発明の一実施の形態について説明したが、本発明が採り得る具体的な態様は、何らこれに限定されるものではない。また、後述する実施形態で説明するシステムとも別々のシステムとして説明するものではなく、各実施形態の一部の構成同士を組み合わせて実施してもよい。
 例えば、上例では、前記回復動作の実行後に、無人搬送車35の目標作業位置への位置決め誤差量を再度検出するようにしたが(ステップS210~S211)、このような態様に限られるものではない。例えば、ロボット25の作業姿勢(ハンド29の位置決め)に、高精度な位置決めが求められない場合がある。このような場合には、回復動作を実行した後、無人搬送車35の目標作業位置への位置決め誤差量を再度検出することなく、以降の動作を実行するようにしても良い。
 この例を図9に示している。図9に示した動作は、図7に示したステップS209に続くもので、無人搬送車35の作業位置を調整した後、X軸及びY軸方向については補正することなく、一方、回転方向(rz)についての補正量については、ステップS205で算出された補正量を用いて補正しながら、ロボット25に、順次、取出準備姿勢(取付準備姿勢)(ステップS232)、把持姿勢(取付姿勢)(ステップS234)、取外姿勢(離隔姿勢)(ステップS234)及び作業完了姿勢(ステップS236)を取らせる。
 無人搬送車35をX軸及びY軸方向における位置ずれとは逆方向に、その位置誤差量Δx,Δyだけそれぞれ移動させて、作業位置を調整することにより(ステップS209)、ティーチング操作時に設定された目標作業位置に対する無人搬送車35のX軸及びY軸方向の位置ずれはほぼ解消され、当該無人搬送装置35は、目標作業位置に対してほぼ位置決めされた状態となっている。したがって、X軸及びY軸方向については特に補正をすることなく、回転方向(rz)についてのみ補正することで、ロボット25の作業姿勢を、ティーチング操作によって設定された目標作業姿勢とすることができる。
 尚、図9に示した例においても、前記各作業姿勢への移行が所定時間内に完了されない場合には、上記と同様に、アラームを出力し(ステップS238)、一連の処理を終了する(ステップS6)。
<<実施形態2>>
 実施形態1では、識別図形を水平面と平行に配置した例で説明したが、本実施形態では、水平面と交差する面(特に、直交する面)と平行に識別図形が配置された例を用いて説明を行う。図14は、水平方向に光軸があるカメラ31で撮像影した場合の識別画像の見え方の違いを示した図であり、(a)は、第1工作機械10A及び第2工作機械10Bにおける識別図形の撮像画像を示し、(b)は、第3工作機械10Cにおける識別図形の撮像画像を示している。
 図14(a)は、表示板16が図1に示すように配置された状態において、無人搬送車35(ロボット搭載移動装置)が第1工作機械10Aの前に停止している状態で、カメラ31により撮像された識別図形の画像が、ティーチング時に撮像したティーチング時撮像画像と同じ画像となる例を示すとともに、無人搬送車35が第2工作機械10Bの前に停止している状態で撮像された画像が、ティーチング時撮像画像と異なっている例を示している。これらの例は、y軸上のずれはない例であり、x軸とz軸との座標位置が異なっている例である。図16を用いて、識別画像を含む画像を撮像した際に、制御部が、ロボットのハンド部を制御してワーク等を着脱するか、ロボット搭載移動装置を移動させて移動部の位置を変更するかの判断をどのように行うか説明する。図16(a)に示すように、カメラフレームに対応した画像がある。画像処理は、図16(a)に示すように画像の一部の領域を所定範囲と設定する。そして、画像上の所定範囲の内側を所定範囲内とし、所定範囲の外側を所定範囲外と設定する。さらに、画像処理は、識別図形の位置と関連ある情報を画像と所定範囲との情報とを重ねる。本実施径形態では、識別図形の位置に関連ある情報として識別図形の中心の位置を用いる。制御部は、撮像された画像の中で、識別図形の中心位置を検出し、検出された位置が所定範囲内か否かで判定を行う。制御部は、識別図形の中心位置が所定範囲内にあると判断した場合、ロボットのハンド部を制御してワークの搬送などを行う。一方で、制御部は、識別図形の中心位置が所定範囲内にない(所定範囲の外)と判断した場合、移動部を移動させロボット搭載移動装置の位置の補正を行う。
 図16(b)に示すように識別図形の中心が、カメラで撮影したときに写る範囲であるカメラフレーム内において、予め設定されている所定範囲の外にある場合、制御部は、ロボット搭載移動装置の移動部を移動させロボット搭載移動装置の装置位置を変更する。その後、カメラで識別図形を撮像し、識別図形の中心が所定範囲内であれば、制御部は、ロボット搭載移動装置のロボットのハンド部の位置を制御し、ワークの着脱などを行う。なお、所定範囲は、カメラフレームの対角線の1/4の長さを半径とした円を所定範囲と設定してもよい。また、カメラフレーム全域を所定範囲としてもよい。例えば、カメラフレームに識別図形の中心が撮像されさえすれば、制御部は、ロボットのハンド部の位置を制御し、ワークの着脱を行うように設定してもよい。このように所定範囲は、ロボットアームの可動範囲を考慮して、適宜設定することができる。
 また、図14(b)は、無人搬送車35が第3工作機械10Cの前に停止している状態で、カメラ31で識別図形を撮像する場合の想定のカメラフレームの例を示している。この例では、図1に示すように、第3工作機械10Cのドア18が閉じた状態であり、第3工作機械10Cの内部にある識別画像を撮像することができない(図1及び図14参照)。この場合は、ロボット搭載移動装置の制御装置40は、第3工作機械10Cにドア18を開けるための指示を送信するか、または、作業者や監督者に第3工作機械10Cのドア18が開いていない旨の報知を行う処理を行うのが好ましい。
 また、ドアが閉じた状態で工作機械の内部にロボットアームが入れない状態を回避するための形態としては、工作機械で実行されるNCプログラムの中にドアを開けるコードを挿入する形態でもよい。NCプログラムの中にドアを開けるコードがあることにより、ドアを開けるコードの前のNCプログラムのブロックが実行中であれば、ドアは閉まった状態でロボットアームが進入できない。このため、加工中や計測中などの工作機械の作業中にロボットアームが工作機械に入ることがなくなり安全である。ドアが閉まった状態で、無人搬送車が第3工作機械10Cの前の所定位置に到着した場合は、無人搬送車に一定時間所定位置にて待機するように設定しておくことが好ましい。所定時間以上待機している場合は、作業者や監督者に報知を行う処理を行うことが好ましい。また、この形態は、ドアを開けるコードが挿入されたNCプログラムを実行しているため、ドアが自動で空いていれば、加工や計測等の工作機械の作業が行われていないことになる。このため、ドアの開閉状態は、遠方やリモート監視からでも容易であるため、監督者が工作機械の稼働状態を把握しやすくもなる。
 さらに、無人搬送車35が第3工作機械10Cの前に停止すると、無人搬送車が第3工作機械に信号を送信する形態でもよい。この場合、第3工作機械は、無人搬送車が送信する信号を受信するとドアの開閉動作が可能な状態か否かを確認する処理を実行し、ドアのロックを解除しドアを開くことが可能である状態であることが確認されると、ドアを開く処理を行う。このような形態であれば、安全を確認し必要なときにのみドアを開けることで安全な自動運転が可能になる。
 また、本実施形態のロボット搭載移動装置の無人搬送車35は、図13に示すように、移動速度SP16>移動速度SP14>移動速度SP13>移動速度SP15>移動速度SP12>移動速度SP11で移動するような態様を採ることができる。この移動速度に限定はされないが、撮像姿勢の停止位置に移動する移動速度SP11は、移動速度は遅くし、停止位置の正確性をあげることが好ましい。例えば、移動速度SP14>移動速度SP16>移動速度SP15>移動速度SP13>移動速度SP11>移動速度SP12のような関係でもよい。尚、図13において、矢印は無人搬送車35の移動経路を示している。
 また、図13に示すように、ロボット25のハンド29の可動範囲は、障害物がなければMO1の破線の円内になる。ただし、図13に示すように、ロボット25のハンド29の可動範囲には、工作機械10があるため、当該ハンド29は、三日月マークを付したMO3の領域や星マークを付したMO4の領域に配置されたワーク等を把持することができない。図13に示す例では、ロボットのハンド部は、MO2の領域にワーク等の対象物を配置したり、取り外したりできる。
 繰り返しになるが、上述した実施形態の説明は、すべての点で例示であって、制限的なものではない。当業者にとって変形および変更が適宜可能である。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲内と均等の範囲内での実施形態からの変更が含まれる。
 1  システム
 10 工作機械
 11 主軸
 12 チャック
 13 ツールプリセッタ
 14 接触子
 15 支持バー
 16 表示板
 20 材料ストッカ
 21 製品ストッカ
 25 ロボット
 29 ハンド
 31 カメラ
 35 無人搬送車
 37 操作盤
 40 制御装置
 41 動作プログラム記憶部
 42 移動位置記憶部
 43 動作姿勢記憶部
 44 マップ情報記憶部
 45 基準画像記憶部
 46 手動運転制御部
 47 自動運転制御部
 48 マップ情報生成部
 49 位置認識部
 50 補正量算出部
 51 入出力インターフェース
 W1 加工前ワーク
 W2 加工済ワーク

Claims (6)

  1.  開閉可能なドアを有する工作機械内で対象物に作用する動作を行うロボットを搭載したロボット搭載移動装置の位置としての第1装置位置に関連する関連情報として、工作機械内に配された識別図形と平行な平面内で設定される第1軸と第2軸とにおける前記第1装置位置における前記識別図形の位置を第1識別位置として設定されるロボット搭載移動装置であって、
     (i)前記対象物を把持するためのハンド部と、(ii)前記ハンド部を可動可能に繋いでいる第2アーム部と、(iii)第2アーム部を可動可能に繋いでいる第1アーム部とが順次連結された構成を有するとともに、(iv)前記第1アームとは反対側の前記ハンド部側に設けられたカメラを有するロボットと、
     前記ロボットのハンド部の位置を制御する制御部と、
     前記ロボットが搭載され移動可能な移動部と、を備え、
     前記制御部は、前記カメラによって撮像された画像に基づいて前記ドアの開閉状態を検知し、かつ
     前記制御部は、前記第1装置位置と異なる第2装置位置において、前記カメラで前記識別図形が撮像された際の前記平面内での前記識別図形の位置である第2識別位置に基づいて、前記第2識別位置が前記第2装置位置から所定の範囲内にある場合には、前記ハンド部の位置を調整し、前記第2識別位置が前記第2装置位置から所定の範囲内に無い場合には、前記移動部を移動させ前記移動部の位置を調整する、ロボット搭載移動装置。
  2.  工作機械内で対象物に作用する動作を行うロボットを搭載したロボット搭載移動装置の位置としての第1装置位置に関連する関連情報として、工作機械内に配された識別図形と平行な平面内で設定される第1軸と第2軸とにおける前記第1装置位置における前記識別図形の位置を第1識別位置として設定されるロボット搭載移動装置であって、
     (i)前記対象物を把持するためのハンド部と、(ii)前記ハンド部を可動可能に繋いでいる第2アーム部と、(iii)第2アーム部を可動可能に繋いでいる第1アーム部とが順次連結された構成を有するとともに、(iv)前記第1アームとは反対側の前記ハンド部側に設けられたカメラを有するロボットと、
     前記ロボットのハンド部の位置を制御する制御部と、
     前記ロボットが搭載され移動可能な移動部と、を備え、
     前記制御部は、前記第1装置位置と異なる第2装置位置において、前記カメラで前記識別図形が撮像された際の前記平面内での前記識別図形の位置である第2識別位置に基づいて、前記第2識別位置が前記第2装置位置から所定の範囲内にある場合には、前記ハンド部の位置を調整し、前記第2識別位置が前記第2装置位置から所定の範囲内に無い場合には、前記移動部を、前記カメラで撮像するために前記工作機械の前に移動してきた方向とは反対方向に移動させ前記移動部の位置を調整する、ロボット搭載移動装置。
  3.  前記第2装置位置まで移動する際の前記移動部の移動速度は、前記第2識別位置が前記第2装置位置から所定の範囲外にある場合の前記移動部の移動速度よりも速い、請求項1または2記載のロボット搭載移動装置。
  4.  前記移動部は、前記第1装置位置または第2装置位置で停止する直前で、工作機械間を移動する移動速度よりも移動速度を遅くし、前記第1装置位置または第2装置位置で停止する請求項1から3のいずれか1項に記載のロボット搭載移動装置。
  5.  対象物に対して作用する作用部を有するロボットと、該ロボットを搭載して、設定された作業位置に移動する搬送装置とを備えたシステムの前記ロボット及び搬送装置の動作を制御して、前記搬送装置を、相互に直交する第1軸及び第2軸で形成される水平面内で移動させて第1位置に位置決めした後、前記ロボットの作用部を、前記第1軸及び第2軸、並びにこれらと直交する第3軸によって形成される3次元空間内で移動させて第2位置に位置決めする制御方法であって、
     前記搬送装置を前記第1位置に位置決めした際の位置ずれ量を検出し、検出された位置ずれ量に基づいて、前記作用部を前記第2位置に位置決めする際の補正量を算出し、算出した補正量に基づいて前記作用部の位置決め位置を補正して、該作用部を前記第2位置に位置決めするようにした制御方法において、
     前記作用部の第2位置への位置決めが完了されたか否かを監視し、前記作用部を第2位置へ位置決めすることができない場合には、前記作用部を第2位置への位置決め動作を実行する前の位置に戻した後、前記搬送装置を、第1軸及び第2軸方向における位置ずれとは逆方向に、その位置ずれ量だけ移動させる位置調整を実行し、この後、該第1軸及び第2軸方向への補正を行わない状態で、前記作用部を第2位置に位置決めするようにしたことを特徴とするシステムの位置決め制御方法。
  6.  対象物に対して作用する作用部を有するロボットと、該ロボットを搭載して、設定された作業位置に移動する搬送装置とを備えたシステムの前記ロボット及び搬送装置の動作を制御して、前記搬送装置を、相互に直交する第1軸及び第2軸で形成される水平面内で移動させて第1位置に位置決めした後、前記ロボットの作用部を、前記第1軸及び第2軸、並びにこれらと直交する第3軸によって形成される3次元空間内で移動させて第2位置に位置決めする制御方法であって、
     前記搬送装置を前記第1位置に位置決めした際の位置ずれ量を検出し、検出された位置ずれ量に基づいて、前記作用部を前記第2位置に位置決めする際の補正量を算出し、算出した補正量に基づいて前記作用部の位置決め位置を補正して、該作用部を前記第2位置に位置決めするようにした制御方法において、
     前記作用部の第2位置への位置決めが完了されたか否かを監視し、前記作用部を第2位置へ位置決めすることができない場合には、前記作用部を第2位置への位置決め動作を実行する前の位置に戻した後、前記搬送装置を、第1軸及び第2軸方向における位置ずれとは逆方向に、その位置ずれ量だけ移動させる位置調整を実行し、この後、前記搬送装置の第1位置に対する位置ずれ量を再度検出し、検出された位置ずれ量に基づいて、前記作用部を前記第2位置に位置決めする際の補正量を算出し、算出した補正量に基づいて前記作用部の位置決め位置を補正して、該作用部を前記第2位置に位置決めするようにしたことを特徴とするシステムの位置決め制御方法。
     
PCT/JP2021/039470 2020-11-05 2021-10-26 ロボット搭載移動装置及びシステムの位置決め制御方法 WO2022097536A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180071171.1A CN116348249A (zh) 2020-11-05 2021-10-26 搭载了机器人的移动装置以及系统的定位控制方法
EP21889089.5A EP4227043A1 (en) 2020-11-05 2021-10-26 Robot-mounted mobile device and positioning control method for system
US18/035,689 US20230415353A1 (en) 2020-11-05 2021-10-26 Robot-mounted mobile device and positioning control method for system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-185030 2020-11-05
JP2020185030A JP7133604B2 (ja) 2020-11-05 2020-11-05 ロボット搭載移動装置及びシステムの位置決め制御方法

Publications (1)

Publication Number Publication Date
WO2022097536A1 true WO2022097536A1 (ja) 2022-05-12

Family

ID=81457752

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/039470 WO2022097536A1 (ja) 2020-11-05 2021-10-26 ロボット搭載移動装置及びシステムの位置決め制御方法

Country Status (5)

Country Link
US (1) US20230415353A1 (ja)
EP (1) EP4227043A1 (ja)
JP (2) JP7133604B2 (ja)
CN (1) CN116348249A (ja)
WO (1) WO2022097536A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116779411A (zh) * 2023-08-17 2023-09-19 成都超迈光电科技有限公司 一种物理化学效应复合的多功能等离子刻蚀机

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240323A (ja) * 1997-02-25 1998-09-11 Hitachi Ltd 移動ロボットの異常動作防止方法
JP2010162635A (ja) * 2009-01-14 2010-07-29 Fanuc Ltd 自走式ロボットの位置および姿勢の補正方法
JP2012011531A (ja) * 2010-07-05 2012-01-19 Yaskawa Electric Corp ロボット装置およびロボット装置による把持方法
WO2016103303A1 (ja) * 2014-12-26 2016-06-30 川崎重工業株式会社 自走式関節ロボット
JP2016221622A (ja) 2015-05-29 2016-12-28 ファナック株式会社 位置補正機能を有するロボットを備えた生産システム
JP2017074631A (ja) * 2015-10-13 2017-04-20 富士電機株式会社 製造システム
JP2017132002A (ja) 2016-01-28 2017-08-03 株式会社安川電機 ロボットアーム付自動搬送車、ロボットシステム、及びロボットアーム付自動搬送車の制御方法
JP2020078852A (ja) * 2018-11-14 2020-05-28 旭鉄工株式会社 学習システム、及びロボット位置調整システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103303A (ja) 2014-11-27 2016-06-02 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240323A (ja) * 1997-02-25 1998-09-11 Hitachi Ltd 移動ロボットの異常動作防止方法
JP2010162635A (ja) * 2009-01-14 2010-07-29 Fanuc Ltd 自走式ロボットの位置および姿勢の補正方法
JP2012011531A (ja) * 2010-07-05 2012-01-19 Yaskawa Electric Corp ロボット装置およびロボット装置による把持方法
WO2016103303A1 (ja) * 2014-12-26 2016-06-30 川崎重工業株式会社 自走式関節ロボット
JP2016221622A (ja) 2015-05-29 2016-12-28 ファナック株式会社 位置補正機能を有するロボットを備えた生産システム
JP2017074631A (ja) * 2015-10-13 2017-04-20 富士電機株式会社 製造システム
JP2017132002A (ja) 2016-01-28 2017-08-03 株式会社安川電機 ロボットアーム付自動搬送車、ロボットシステム、及びロボットアーム付自動搬送車の制御方法
JP2020078852A (ja) * 2018-11-14 2020-05-28 旭鉄工株式会社 学習システム、及びロボット位置調整システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116779411A (zh) * 2023-08-17 2023-09-19 成都超迈光电科技有限公司 一种物理化学效应复合的多功能等离子刻蚀机
CN116779411B (zh) * 2023-08-17 2023-11-03 成都超迈光电科技有限公司 一种物理化学效应复合的多功能等离子刻蚀机

Also Published As

Publication number Publication date
JP7133604B2 (ja) 2022-09-08
EP4227043A1 (en) 2023-08-16
JP2022074725A (ja) 2022-05-18
CN116348249A (zh) 2023-06-27
JP2022126768A (ja) 2022-08-30
US20230415353A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
WO2021039829A1 (ja) 生産システム
EP3222393B1 (en) Automated guidance system and method for a coordinated movement machine
CN114728414A (zh) 装有机器人的移动装置、系统和机床
CN111470309B (zh) 跟随机器人及作业机器人系统
US20240033931A1 (en) Transport System, Control Method for Transport System, and Control Program for Transport System
WO2022097536A1 (ja) ロボット搭載移動装置及びシステムの位置決め制御方法
WO2014123054A1 (ja) ロボット制御装置及びロボット制御方法
WO2023032400A1 (ja) 自動搬送装置、及びシステム
WO2022091767A1 (ja) 画像処理方法、画像処理装置、ロボット搭載型搬送装置、及びシステム
JP7012181B1 (ja) ロボットシステム
JP7482364B2 (ja) ロボット搭載移動装置及びシステム
JP6832408B1 (ja) 生産システム
JP6937444B1 (ja) ロボットシステムの位置決め精度測定方法
JP6851535B1 (ja) ティーチング操作を用いた設定方法
JP6906724B1 (ja) 工作機械
JP6712881B2 (ja) ワーク加工装置
JP7015949B1 (ja) 貼着位置測定装置及びこれを備えた工作機械
JP2024068115A (ja) ロボット搭載移動装置
JP2017164829A5 (ja)
JP6756941B1 (ja) 無人搬送車、及び該無人搬送車を備えた産業機械システム
JP2020138315A (ja) 生産システム
CN113146614B (zh) 移动机器人的控制方法和控制装置以及机器人系统
JP2021112809A (ja) 生産システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21889089

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18035689

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2021889089

Country of ref document: EP

Effective date: 20230509

NENP Non-entry into the national phase

Ref country code: DE