WO2021048579A1 - System and machine tool - Google Patents

System and machine tool Download PDF

Info

Publication number
WO2021048579A1
WO2021048579A1 PCT/IB2019/001004 IB2019001004W WO2021048579A1 WO 2021048579 A1 WO2021048579 A1 WO 2021048579A1 IB 2019001004 W IB2019001004 W IB 2019001004W WO 2021048579 A1 WO2021048579 A1 WO 2021048579A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
robot
axis
camera
machine tool
Prior art date
Application number
PCT/IB2019/001004
Other languages
French (fr)
Japanese (ja)
Inventor
大場勇太
櫻井努
長末秀樹
中川昌昭
コータ ウィーバー
アーナンド パルワル
Original Assignee
Dmg森精機株式会社
スカイラ テクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dmg森精機株式会社, スカイラ テクノロジーズ filed Critical Dmg森精機株式会社
Priority to PCT/IB2019/001004 priority Critical patent/WO2021048579A1/en
Priority to US17/642,573 priority patent/US20220331970A1/en
Priority to CN202080064275.5A priority patent/CN114728414A/en
Priority to EP20864229.8A priority patent/EP4013578A4/en
Priority to PCT/US2020/050073 priority patent/WO2021050646A1/en
Priority to JP2021526426A priority patent/JP7482364B2/en
Publication of WO2021048579A1 publication Critical patent/WO2021048579A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Definitions

  • This disclosure consists of a machine tool that processes a work machine, a robot that works on the machine tool, and a transfer device that can move to a work position set for the machine tool. Regarding the system to be used.
  • one robot moved by an automatic guided vehicle can perform work such as attaching / detaching a work to a plurality of machine tools.
  • work such as attaching / detaching a work to a plurality of machine tools.
  • the degree of freedom of the machine tool layout is increased, so the machine tool layout can be set to a layout that can further improve production efficiency. ..
  • the equipment cost can be reduced. be able to.
  • the automatic guided vehicle since the automatic guided vehicle has a structure of self-propelling using wheels, its positioning accuracy of stopping at the working position is not necessarily high. Therefore, in order for the robot to perform accurate work on the machine tool, it is set at the posture of the robot when the automatic guided vehicle is positioned at the work position and at the time of so-called teaching, which is a control standard. It is necessary to compare with the reference posture of the robot, detect the amount of error, and correct the working posture of the robot according to the amount of error.
  • a position correction method as disclosed in Japanese Patent Application Laid-Open No. 2016-221622 (Japanese Patent Application Publication, Patent Document 2 below) has been conventionally used.
  • a visual target consisting of two calibration markers is placed on the outer surface of the machine tool, and the visual target is measured by a camera provided on the movable part of the robot. Based on the image obtained by imaging and the position and orientation of the camera, the relative positional relationship between the robot and the machine tool is measured, and based on the measured positional relationship, the robot's working posture. Is to correct.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 201 7-1 32002
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2016-221622 [Summary of Invention]
  • the automatic guided vehicle is configured to move by the movement of wheels with a relatively high degree of freedom, so the mounting surface on which the robot is mounted is It has the characteristic that it easily tilts with respect to the floor surface, and that the tilt easily changes according to changes in the posture of the robot to be mounted, in other words, according to changes in the position of the center of gravity of the robot. ..
  • a visual target which is a calibration marker, is arranged on the outer surface of the machine tool, and the robot is outside the machine tool. Even if the position correction amount (posture correction amount) of the robot is acquired, the obtained position correction amount is used to attach / detach the work piece, which is executed when the robot hand is inside the machine tool. Regarding the movement, the posture of the robot cannot be corrected accurately.
  • the robot hand cannot be accurately positioned with respect to the chuck.
  • the chuck is described above.
  • the movement allowance (stroke) of the grip is very small, that is, the clearance between the work and the chuck is very small, the work is surely applied to the chuck. There is a possibility that it cannot be grasped.
  • the present disclosure has a machine tool that performs predetermined processing on the work, a camera that captures an image, and an action unit that acts on the work, and the machine tool has a function.
  • an operation program that includes a robot that performs work, a transfer device that is equipped with the robot and is configured to be movable to a work position set for the machine tool, and a preset operation command.
  • a control device configured to sequentially take one or more working postures for operating the working unit is provided, and the working start posture, the imaging posture, and the working posture are the teaching operations of the robot.
  • This is a preset system, in which the identification figure is formed on a predetermined plane and arranged in the machining area of the machine tool, and the control device is used during the teaching operation.
  • the image of the identification figure captured by the camera is stored in advance as a reference image, and when the robot is operated according to the operation program, the transport device is used.
  • the above work ⁇ 0 2021/048579 The image of the identification figure captured by the camera after shifting the robot from the work start posture to the imaging posture while moving to the position (: 17132019/001004), and Based on the reference image, the amount of error in the position of the camera between the current posture of the robot and the posture during the teaching operation, which is orthogonal to each other set in a plane parallel to the identification figure.
  • the amount of positional error of the camera in the two axial directions and the amount of rotation error of the camera around the vertical axis orthogonal to the plane are estimated, and the action in the working posture is based on each estimated error amount.
  • the present invention relates to a system configured to calculate a correction amount for a part and correct the position of the action part in the working posture based on the calculated correction amount.
  • the operation of the robot is controlled according to the operation program, and after the transfer device is moved to the work position, the robot starts the operation from the work start posture, and then is provided in the machine tool.
  • the camera By facing the camera with respect to the identification figure for posture correction, the camera takes an imaging posture for capturing the identification figure, and then operates so as to sequentially take one or more working postures.
  • the work start posture, the imaging posture, and the work posture are set in advance by teaching the robot.
  • the identification figure is formed on a predetermined plane and is arranged in the machining area of the machine tool. Also, when the robot takes the imaging posture, the camera faces the identification figure, that is, the camera is in a posture in which the lens and the identification figure are substantially parallel to each other.
  • the control device stores in advance the image of the identification figure captured by the camera as a reference image in a state where the robot is shifted to the imaging posture during the teaching operation.
  • the image of the identification figure captured by the camera and the reference image in a state where the robot is shifted from the work start posture to the imaging posture. Based on, the amount of error in the position of the camera between the current posture of the robot and the posture during the teaching operation, which is orthogonal to each other set in a plane parallel to the identification figure.
  • the amount of positional error of the camera in the biaxial direction and the amount of rotation error of the camera around the vertical axis orthogonal to the plane are estimated, and based on each estimated amount of error, with respect to the acting part in the working posture.
  • the correction amount is calculated, and the position of the working portion in the working posture is corrected based on the calculated correction amount.
  • the working posture of the robot is corrected by using the identification figure placed in the machining area of the machine tool that the robot actually works on.
  • the work posture can be corrected accurately, so that the robot can perform the work accurately even in a work that requires high operation accuracy.
  • the robot that operates according to the operation program is configured to execute this in one operation when the identification figure is imaged by the camera, so it is shorter than before. Accurate correction can be performed in time.
  • a robot having a camera for capturing an image including an identification figure provided in a machine tool and an acting part acting on a work is mounted on the robot.
  • the second position of the action part on the X-axis and the V-axis in the cubic element space of the X-axis, the V-axis, and the axis is corrected by making the action part perform linear movement and rotational movement.
  • a machine tool for machining a work in which the working portion acts on the work inside the machine tool after the second position is corrected, and the identification figure is arranged in the machining area of the machine tool.
  • the working posture of the robot is corrected by using the identification figure arranged in the machining area of the machine tool in which the robot actually works. Therefore, the working posture can be corrected accurately, so that the robot can perform the work with high accuracy even in the work requiring high operation accuracy.
  • FIG. 1 is a plan view showing a schematic configuration of a system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of a system according to the present embodiment.
  • FIG. 3 is a perspective view showing an automatic guided vehicle and a robot according to the present embodiment.
  • FIG. 4 is an explanatory diagram for explaining the imaging posture of the robot according to the present embodiment.
  • FIG. 5 is an explanatory diagram showing an identification figure according to the present embodiment.
  • FIG. 6 is an explanatory diagram for explaining a correction amount calculation method in the present embodiment.
  • FIG. 7 is an explanatory diagram for explaining a correction amount calculation method in the present embodiment.
  • FIG. 8 is an explanatory diagram for explaining a correction amount calculation method in the present embodiment.
  • FIG. 9 is an explanatory diagram for explaining position correction in the present embodiment.
  • the system 1 of this example is a machine tool 10 and a material stocker 2 0 as a peripheral device and a product stocker 2 1 and an automatic guided vehicle 3 5 ,
  • the robot 2 5 mounted on this automatic guided vehicle 35, the camera 3 1 mounted on the robot 2 5, and the control device 4 0 that controls the robot 2 5 and the automatic guided vehicle 3 5 Will be done.
  • the machine tool 1 0 is provided with a spindle 1 1 to which a chuck 1 2 for gripping a work ( ⁇ ') is mounted, and the spindle 1 1 is in the vertical direction. It is a so-called vertical N0 (numerical control) lathe installed along the line, and it is possible to perform turning on the work ( ⁇ ').
  • a tool presetter 1 3 equipped with a contactor 1 4 and a support bar 1 5 for supporting the contactor 1 4 is provided in the vicinity of the spindle 1 1, and the support bar 1 5 is located on the axis of the spindle 1 1.
  • the display board 16 is provided so as to be located on a horizontal plane.
  • Fig. 4 shows the state where the support bar 1 5 and the contact 1 4 have advanced into the machining area, but the support bar 1 5 and the contact 1 1 With the contacts 1 4 and the display board 1 6 retracted in the storage area, the contacts 1 4 and the display board 1 6 are separated from the application area by closing the shutter 1 7 with the 4 retracted.
  • the identification figure of this example has a matrix structure in which a plurality of square pixels are arranged two-dimensionally, and each pixel is displayed in white or black. In Figure 5, the black pixels are shaded. Some of these identification figures are called entry markers and entry pr 1 1 chome & 8. If the identification figure is small, a lens may be provided on the identification figure so that the enlarged image can be captured by the camera 31 described later.
  • the material stocker 20 is arranged on the left side of the machine tool 10 in FIG. 1, and a plurality of materials processed by the machine tool 10 (a device for stocking a work before machining).
  • the product stocker 2 1 is arranged on the right side of the machine tool 10 in Fig. 1, and is a plurality of products or semi-finished products processed by the machine tool 10 (processed work'). It is a device that stocks.
  • the automatic guided vehicle 3 5 is equipped with the robot 2 5 on a mounting surface 3 6 which is the upper surface thereof, and an operation panel which can be carried by an operator. 3 7 is attached.
  • the operation panel 37 is equipped with an input / output unit for inputting / outputting data, an operation unit for manually operating the automatic guided vehicle 35 and the robot 25, and a display capable of displaying a screen.
  • the automatic guided vehicle 35 is equipped with a sensor (for example, a distance measurement sensor using laser light) that can recognize its own position in the factory, and the control device 40 Under the control of the above-mentioned machine tool 10, the material stocker 20 and the product stocker 2 1 are configured to run on an automated guided vehicle in the factory including the area where the machine tool 10 and the product stocker 2 1 are arranged. It goes through each working position set for each of the machine tool 10 and the material stocker 2 0 and the product stocker 2 1.
  • a sensor for example, a distance measurement sensor using laser light
  • the robot 2 5 is articulated with three arms, a first arm 2 6, a second arm 27, and a third arm 28. It is a type robot, and a hand 2 9 as an end effector is attached to the tip of the 3rd arm 28, and one camera 3 1 is attached via a support bar 30.
  • the control device 4 0 includes an operation program storage unit 4 1, a moving position storage unit 4 2, an operation posture storage unit 4 3, a map information storage unit 4 4, and a reference image. It consists of a storage unit 4 5, a manual operation control unit 4 6, an automatic operation control unit 4 7, a map information generation unit 48, a position recognition unit 4 9, a correction amount calculation unit 50, and an input / output interface 5 1. Then, the control device 40 uses the machine tool 10, the material stocker 2 0, the product stocker 2 1, the robot 25, the camera 3 1, and the automatic guided vehicle 3 5 through the input / output interface 5 1. And it is connected to the operation panel 3 7.
  • the control device 40 is composed of a computer including 0 11, scale] ⁇ , scale ⁇ ] ⁇ , etc., and is composed of the manual operation control unit 4 6, the automatic operation control unit 4 7, and a map.
  • the functions of the information generation unit 48, the position recognition unit 49, the correction amount calculation unit 50, and the input / output interface 5 1 are realized by a computer program, and the processing described later is executed.
  • the operation program storage unit 41, the movement position storage unit 4 2, the operation posture storage unit 4 3, the map information storage unit 4 4 and the reference image storage unit 4 5 are composed of appropriate storage media such as R AM.
  • control device 40 is attached to the automatic guided vehicle 35, and is connected to the machine tool 10, the material stocker 2 0 and the product stocker 2 1 by appropriate communication means, and the robot 25, the camera 3 1, automatic guided vehicle 3 5 and operation panel 3 7 are connected by wire or wireless.
  • the present invention is not limited to this aspect, and the control device 40 may be arranged at an appropriate position other than the automatic guided vehicle 35. In this case, the control device 40 is appropriately connected to each part by communication means. ⁇ 0 2021/048579 ⁇ (: 17132019/001004
  • the manual operation control unit 4 6 is a functional unit that operates the automatic guided vehicle 35, the robot 25, and the camera 3 1 according to an operation signal input from the operation panel 3 7 by the operator. Is. That is, the operator can manually operate the automatic guided vehicle 35, the robot 25, and the camera 3 1 using the operation panel 3 7 under the control of the manual operation control unit 46.
  • the operation program storage unit 4 1 generates an automatic driving program for automatically driving the automatic guided vehicle 35 and the robot 2 5 at the time of production, and map information in a factory to be described later. It is a function unit that stores a program for generating a map for operating the automatic guided vehicle 35 at the time of operation.
  • the automatic operation program and the map generation program are, for example, input from the input / output unit provided on the operation panel 37 and stored in the operation program storage unit 41.
  • this automatic driving program includes a command code regarding the moving position, moving speed, and orientation of the automatic guided vehicle 35 as a target position for the automatic guided vehicle 35 to move. Includes a command code for the operation of the robot 2 5 in sequence and a command code for the operation of the camera 31.
  • the map generation program includes a command code for running the automatic guided vehicle 35 without a track throughout the factory so that the map information generation unit 48 can generate map information.
  • the map information storage unit 4 4 stores map information including arrangement information of machines, equipment, devices, etc. (devices, etc.) arranged in the factory where the automatic guided vehicle 35 runs. It is a functional unit, and this map information is generated by the map information generation unit 48.
  • the map information generation unit 4 8 generates a map stored in the operation program storage unit 4 1 under the control of the automatic operation control unit 4 7 of the control device 40, which will be described in detail later.
  • the spatial information in the factory is acquired from the distance data detected by the sensor, and the plane shape of the equipment installed in the factory is recognized. , For example, the position of a specific device arranged in the factory based on the plan shape of the device registered in advance, in this example, the machine tool 10 and the material stocker 20 and the product stocker 2 1. , Plane shape, etc. (arrangement information) is recognized.
  • the map information generation unit 4 8 stores the obtained spatial information and the arrangement information of the devices and the like in the map information storage unit 4 4 as map information in the factory.
  • the position recognition unit 4 9 is an automatic guided vehicle in the factory based on the distance data detected by the sensor and the map information in the factory stored in the map information storage unit 4 4. It is a functional unit that recognizes the position of the vehicle 3 5, and based on the position of the automatic guided vehicle 3 5 recognized by this position recognition unit 4 9, the operation of the automatic guided vehicle 3 5 is the automatic operation control unit 4 7 Is controlled by.
  • the moving position storage unit 4 2 is a moving position as a specific target position for the automatic guided vehicle 3 5 to move, and is a specific moving position corresponding to a command code in the operation program. It is a functional unit that memorizes the moving position, and this moving position includes each working position set for the machine tool 10, the material stocker 20 and the product stocker 2 1 described above. For example, this movement position is determined after the unmanned vehicle 35 is manually operated by the operation panel 37 under the control of the manual operation control unit 46 and moved to each target position. , The position data recognized by the position recognition unit 4 9 is set by the operation of storing the position data in the movement position storage unit 4 2. This operation is a so-called teaching operation.
  • the operation posture storage unit 4 3 is a posture (operation posture) of the robot 2 5 that changes sequentially when the robot 2 5 operates in a predetermined order, and is the operation program.
  • Command code inside ⁇ 0 2021/048579 ⁇ (: 17132019/001004 This is a functional unit that stores data related to the operating posture corresponding to the mode. The data related to this operating posture is under the control of the manual operation control unit 46.
  • the specific operating posture of the robot 2 5 is set in the material stocker 2 0 machine tool 10 and the product stocker 2 1, respectively.
  • the work start posture take-out start posture
  • the unprocessed work stored in the material stocker 20 are handed 2 9
  • Each work posture (each take-out posture) for grasping and taking out from the material stocker 20 and the posture when the take-out is completed (the take-out complete posture, which is the same as the take-out start posture in this example). Is set as the take-out operation posture.
  • the work taking-out operation posture for example, the work start posture before entering the machine machine 10
  • the hand 2 9 and the camera 3 1 enter the machining area of the machine machine 10
  • the camera 3 1 is made to face the identification figure provided on the support bar 15 and the identification figure is imaged by the camera 3 1 (imaging posture) (see Fig. 4)
  • the chuck of the machine tool 10 The machined work gripped by the chuck 1 2 is held by the chuck 1 2 by moving the hand 2 9 to the chuck 1 2 side in the posture in which the hand 2 9 is opposed to the machined work gripped by 1 2 (preparation posture for taking out).
  • the posture of gripping the workpiece with the hand 2 9 (holding posture), the posture of separating the hand 2 9 from the chuck 1 2 and removing the processed work ⁇ 'from the chuck 1 2 (removal posture), the hand 2 9 And each posture of the posture (work completion posture) in which the camera 3 1 is pulled out from the production machine 10 is set.
  • the posture of the camera 3 1 when the camera 3 1 is made to face the horizontal identification figure is a posture in which the lens and the identification figure are substantially parallel to each other.
  • the hand 2 9 and the camera 3 1 are made to enter the machining area of the machine tool 10.
  • the posture (imaging posture) (see Fig. 4) in which the camera 3 1 faces the identification figure installed on the support bar 1 5 and the identification figure is imaged by the camera 3 1, and the chuck 1 2 of the machine tool 10
  • the posture in which the pre-machine tool gripped by the hand 2 9 faces each other (preparation posture), and the posture in which the hand 2 9 is moved to the chuck 1 2 side so that the pre-machine tool can be gripped by the chuck 1 2.
  • Working posture Hand 2 9 separated from chuck 1 2
  • Separation posture Hand 2 9 and Camera 3 1 pulled out of machine tool 10
  • the work start posture (storage start posture) when the work is started in the product stocker 2 1 and the processed work gripped by the hand 2 9 are held in the product stocker 2 1.
  • the automatic driving control unit 4 7 uses either the automatic driving program or the map generation program stored in the operation program storage unit 41, and the automatic guided vehicle 3 5 according to the program. It is a functional part that operates the robot 2 5 and the camera 3 1. At that time, the data stored in the moving position storage unit 4 2 and the operating posture storage unit 4 3 are used as necessary.
  • the automatic guided vehicle 3 5 is in the working position set with respect to the machine tool 10 and the robot 2 5 is in the imaging posture during the teaching operation.
  • This is a functional unit that stores an image obtained by capturing an identification figure provided on the support bar 1 5 of the Lupresetter 1 3 with the camera 3 1 as a reference image.
  • the correction amount calculation unit 50 is controlled by the automatic operation control unit 47, and the robot 2 5 is in accordance with the automatic operation program stored in the operation program storage unit 41.
  • the robot 2 5 is in the imaging posture and the identification figure is imaged by the camera 31 when the robot is automatically operated, the image of the current identification figure obtained during the automatic operation and the reference figure are obtained.
  • the reference image image captured during the teaching operation
  • Fig. 6 shows an image of the identification figure captured by the camera 31 during the teaching operation, that is, the reference image.
  • the rectangular line shown by the solid line is the field of view of the camera 31, in other words, the outline of the reference image.
  • Fig. 7 shows the image of the current identification figure obtained during automatic operation with a solid line.
  • the rectangular line shown by the solid line is the outline of the current image
  • the rectangular line shown by the alternate long and short dash line is the outline of the reference image.
  • Figure 7 shows that there is a discrepancy between the reference image and the current image due to the discrepancy between the imaging posture during the teaching operation of Robot 25 and the current imaging posture. ing.
  • the X-axis and y-axis are two axes that are parallel to the identification figure and are directly intersecting with each other, and are the coordinate system of robot 25 during the teaching operation.
  • Rz is orthogonal to the X-axis and y-axis.
  • the x t axis, y t axis, X axis, and y axis are set in the horizontal plane (the same applies to the X'axis and y'axis described later).
  • the correction amount calculation unit 50 analyzes the current image in the same manner, and the graphic coordinate system set from the identification graphic on the frame of the camera 3 1 ( 1 axis 1 7 1). Based on the axis coordinate system), according to the above conversion formula, the current position of the camera 3 1 in the coordinate system of Robot 2 5 (X-axis 1 y-axis coordinate system) during the teaching operation (x curr , y cur r , rz cur r ) is calculated.
  • the correction amount calculation unit 50 has a position error amount AX, Ay and a position error between the position at the time of teaching operation of the camera 31 in the X-axis 1-y-axis coordinate system and the current position.
  • Estimate the amount of rotation error Arz by the following formula 1 — formula 3.
  • the rotation angle r z around the z-axis can be obtained by extracting two appropriate points with a predetermined distance from the image and calculating the angle with respect to the coordinate axes.
  • the coordinate system of the current Robot 25 is the X'axis 1'axis coordinate system, and as shown in Fig. 8, teaching Considering that there is a translational error of X, 17 between the X- axis uni-axis coordinate system, which is the coordinate system of Robot 2 5 of the time, the current camera 3 in the X'axis 1 7'-axis coordinate system.
  • the position of 1 (X', 7 ') is calculated by the following formula 4.
  • the translation error 1 X is calculated by the following formula 5 which is a modification of the above formula 4.
  • the correction amount calculation unit 50 calculates the translation error amount I X , according to this mathematical formula 5, and calculates the translation error amount X , 17 and the rotation error amount ⁇ ⁇ 2 as described above. The amount of correction in the working posture.
  • the automatic operation control unit 47 is in a working posture when the robot 25 works on the machine tool 10, for example, the taking-out preparation posture, the gripping posture, and the work-taking posture in the work taking-out operation posture.
  • the removal posture, the mounting preparation posture, the mounting posture, and the separation posture in the work mounting operation posture the hand 2 9 of the robot 2 5 is based on the correction amount calculated by the correction amount calculation unit 50. Correct the position.
  • position and position X. , Is the set position of hand 2 9 in the X-axis uniaxial coordinate system, which is the robot coordinate system during the teaching operation, and hand 2 9 is set for chuck 1 2 from the position X? In the imaging posture.
  • Position X. , V?. It is set to be positioned at. If there is no misalignment between the automatic guided vehicle 3 5 and the robot 2 5 positioned at the work position described above, c.
  • the position X ′′ 5 is the position of the hand 2 9 in the imaging posture in the X'axis uniaxial coordinate system, which is the robot coordinate system at the time of the current operation.
  • the automatic operation control unit 47 of the control device 40 under the control of the automatic operation control unit 47 of the control device 40, the automatic operation program stored in the operation program storage unit 41 is executed, and this automatic operation program is executed. Therefore, for example, the automatic guided vehicle 35 and the robot 25 operate as follows.
  • the automatic guided vehicle 3 5 moves to the work position set for the machine tool 10 and the robot 2 5 takes the work start posture of the work take-out operation described above.
  • the machine tool 10 has completed the predetermined machining, and the door cover has been opened so that the robot 25 can enter the machining area, and the automatic operation control unit 47 Upon receiving the command, it is assumed that the support bar 15 of the tool preset evening 13 is advanced into the machining area.
  • the robot 25 shifts to the imaging posture, and the identification diagram provided on the support bar 15 is imaged by the camera 31. Then, when the identification figure is imaged by the camera 31 in this way, the correction amount calculation unit 50 displays the image of the identification figure and the reference image stored in the reference image storage unit 45. Based on the image, according to the above formulas 1-3, the robot 2 5 ⁇ 0 2021/048579 ⁇ (: 17132019/001004 The amount of position error between the imaging posture during the eating operation and the current imaging posture ⁇ X and the rotation error amount 2 are estimated, and each estimated error amount Based on the above formula 4-15, the amount of correction for robot 2 5 1 7 and rotation error
  • the automatic operation control unit 47 performs the subsequent work take-out operation posture, that is, the above-mentioned take-out preparation posture and gripping posture.
  • the position of the hand 2 9 in the removal posture and the work completion posture is corrected according to Equation 9, and the rotation position around the axis is corrected, and the machined workpiece gripped by the chuck 1 2 of the machine tool 10 is c. Grip it to the machine tool 2 9 and take it out from the machine tool 10.
  • the chuck 1 2 is opened by transmitting a chuck opening command from the automatic operation control unit 47 to the machine tool 10.
  • the automatic operation control unit 4 7 moves the automatic guided vehicle 3 5 to the working position set for the product stocker 2 1 and at the robot 25 for the product.
  • the storage start posture when starting work in the stocker 2 1 each storage posture for storing the processed work gripped in the hand 2 9 in the product stocker 2 1 and the storage completion posture when the storage is completed. Take them in sequence and store the processed workpieces gripped by the hand 2 9 in the product stocker 2 1.
  • the automatic operation control unit 4 7 moves the automatic guided vehicle 3 5 to the working position set for the material stocker 2 0, and at the robot 25 the material concerned.
  • the take-out posture and the take-out completion posture when the take-out is completed are sequentially taken, and the hand 29 is made to grip the work before machining.
  • the automatic operation control unit 4 7 again moves the automatic guided vehicle 3 5 to the working position set for the machine tool 10 and the work described above in the robot 25. Get ready to start the installation operation. Then, the robot 25 is moved to the imaging posture, and the identification figure provided on the support bar 15 is imaged by the camera 31. Then, when the identification figure is imaged by the camera 31 in this way, the correction amount calculation unit 50 displays the image of the identification figure and the reference image stored in the reference image storage unit 45. Based on the above equations 1 to 3, the amount of positional error between the imaging posture during the teaching operation of Robot 2 5 and the current imaging posture, ⁇ 7, and the amount of rotation error ⁇ ⁇ 2 are estimated and estimated. Based on each of the error amounts, the translational error correction amounts 1, 17 and the rotation error correction amount ⁇ ⁇ 2 for the subsequent workpiece mounting motion posture of Robot 25 are calculated according to the above-mentioned formulas 4-15. Will be done.
  • the automatic operation control unit 4 7 uses the correction amount calculated by the correction amount calculation unit 50 to obtain the subsequent work mounting operation postures of the robot 25, that is, described above.
  • the position of the hand 2 9 in the mounting preparation posture, the mounting posture, the separation posture, and the work completion posture is corrected according to Equation 9, and the rotation position around the axis is corrected, and the robot 25 is gripped by the hand 2 9.
  • the automatic operation control unit 47 After attaching the pre-machining work to the chuck 1 2 of the machine tool 10 and then letting it move out of the machine.
  • the automatic operation control unit 47 sends a machining start command to the machine tool 10 to cause the machine tool 10 to perform the machining operation.
  • the automatic operation control unit 47 sends a chuck closing command to the machine tool 10 to close the chuck 1 2 and the chuck 1 2 The work before machining is gripped by.
  • the robot 2 5 uses the identification figure placed in the processing area of the machine tool 10 that the robot actually works on. Since the working posture of 25 is corrected, the working posture can be corrected accurately, and as a result, Robot 25 can perform the work accurately even in the work that requires high motion accuracy. Can be executed.
  • the robot 2 5 that operates according to the operation program is configured to execute this in one operation when the identification figure is imaged by the camera 3 1, so that it is compared with the conventional one. Therefore, accurate correction can be performed in a short time.
  • the discrimination figure since a plurality of pixels are assumed to have a Ma Torikusu structure arranged in a two-dimensional, the position error amount ⁇ X, ⁇ 7 and, The amount of rotation error ⁇ ⁇ 2 can be estimated with high accuracy and high repeatability.
  • the correction amount calculation unit 5 0 is configured to estimate the amount of position error in the two axial directions and calculate the corresponding correction amount
  • the automatic operation control unit 47 is the calculated amount of correction in the axial direction. Based on this, it may be configured to correct the axial position in each working position of Robot 25.
  • the amount of position error in the two-axis direction can be calculated, for example, from the magnification of the basic image size and the current image size.
  • an embodiment using an automatic guided vehicle 35 has been illustrated, but the present invention is not limited to this. It may be a transport device that can be pushed and moved by a person like a general trolley. A robot 25 is mounted on this transfer device, and the transfer device is manually transported to the working position of the machine tool 10 and the machine tool 10 is made to attach / detach the workpiece by the robot 25. It may be an embodiment.
  • a vertical lathe was illustrated as a machine tool, but it is not limited to this, and in addition to horizontal lathes, vertical and horizontal machining centers, tool spindles and workpieces. Any previously known machine tool, such as a multi-tasking machine with a spindle, can be applied.
  • the X-axis and the axes are set in the horizontal plane and the two axes are set in the vertical direction in the robot coordinate system.
  • the direction of the coordinate axes can be set arbitrarily.

Abstract

The present invention is provided with: a machine tool 10; a robot 25 having a camera 31; and a carrying device 35 on which the robot 25 is mounted, wherein an identification figure is disposed within a machining area of the machine tool 10.

Description

\¥02021/048579 卩(:17132019/001004 \\ 020 21/048579 卩 (: 17132019/001004
【書類名】 明細書 [Document name] Statement
【発明の名称】 システム及び工作機械 【技術分野】 [Title of Invention] System and Machine Tool [Technical Field]
【00 01 】 本開示は、 ワークを加工する工作機械、 工作機械に対して作業を行うロボッ ト、 ロボッ 卜を搭載し、 工作機械に対して設定された作業位置に移動可能な搬送装置から構成される システム等に関する。 [00 01] This disclosure consists of a machine tool that processes a work machine, a robot that works on the machine tool, and a transfer device that can move to a work position set for the machine tool. Regarding the system to be used.
【背景技術】 [Background technology]
【00 0 2】 従来、 上述したシステムの一例として、 特開 201 7- 1 32002号公報 (日本国特 許出願公開公報、 下記特許文献 1) に開示されたシステムが知られている。 このシステム では、 ロボッ トを搭載した無人搬送車が、 工作機械に対して設定された作業位置に移動し 、 当該作業位置において、 ロボッ トにより工作機械に対してワークの着脱等の作業が実行 される。 [00 0 2] Conventionally, as an example of the above-mentioned system, a system disclosed in Japanese Patent Application Laid-Open No. 201 7-1 32002 (Japanese Patent Application Publication No. 1, Patent Document 1 below) is known. In this system, the automatic guided vehicle equipped with the robot moves to the work position set for the machine tool, and at that work position, the robot executes work such as attaching and detaching the work to the machine tool. To.
【00 0 3】 このようなシステムでは、 無人搬送車によって移動する一台のロボッ トにより、 複数の 工作機械に対してワークの着脱等の作業を実施することができるので、 工作機械に対して ロボッ トを固定した状態で配設する場合に比べて、 工作機械のレイアウ トの自由度が増す ため、 工作機械のレイアウ トをより生産効率を高めることが可能なレイアウ トに設定する ことができる。 また、 ロボッ トを固定状態で配設した旧来のシステムに比べて、 一台の口 ボッ トにより、 より多くの工作機械に対して作業を行うことができるので、 設備費用の低 廉化を図ることができる。 [00 0 3] In such a system, one robot moved by an automatic guided vehicle can perform work such as attaching / detaching a work to a plurality of machine tools. Compared to the case where the robot is arranged in a fixed state, the degree of freedom of the machine tool layout is increased, so the machine tool layout can be set to a layout that can further improve production efficiency. .. In addition, compared to the conventional system in which the robots are arranged in a fixed state, it is possible to work on more machine tools with one mouth pot, so the equipment cost can be reduced. be able to.
【00 0 4】 その一方、 無人搬送車は車輪を用いて自走する構造であるが故に、 前記作業位置に停止 するその位置決め精度は必ずしも高いものとは言えない。 このため、 ロボッ トが工作機械 に対して正確な作業を行うためには、 無人搬送車を前記作業位置へ位置決めした際のロボ ッ トの姿勢と、 制御上の基準となる所謂ティーチング時に設定されたロボッ トの基準姿勢 とを比較して、 その誤差量を検出し、 当該誤差量に応じてロボッ トの作業姿勢を補正する 必要がある。 [00 0 4] On the other hand, since the automatic guided vehicle has a structure of self-propelling using wheels, its positioning accuracy of stopping at the working position is not necessarily high. Therefore, in order for the robot to perform accurate work on the machine tool, it is set at the posture of the robot when the automatic guided vehicle is positioned at the work position and at the time of so-called teaching, which is a control standard. It is necessary to compare with the reference posture of the robot, detect the amount of error, and correct the working posture of the robot according to the amount of error.
【00 0 5】 このようなロボッ トの姿勢を補正する技術として、 従来、 特開 2016 — 221622 号公報 (日本国特許出願公開公報、 下記特許文献 2) に開示されるような位置補正手法が 知られている。 具体的には、 この位置補正手法は、 2つの較正用マーカからなる視覚ター ゲッ トを工作機械の外表面に配設し、 ロボッ トの可動部に設けられたカメラにより、 前記 視覚ターゲッ トを撮像し、 得られた画像と、 カメラの位置及び姿勢とを基に、 ロボッ トと 工作機械との相対的な位置関係を測定し、 測定された位置関係に基づいて、 ロボッ トの作 業姿勢を補正するというものである。 [00 0 5] As a technique for correcting the posture of such a robot, a position correction method as disclosed in Japanese Patent Application Laid-Open No. 2016-221622 (Japanese Patent Application Publication, Patent Document 2 below) has been conventionally used. Are known. Specifically, in this position correction method, a visual target consisting of two calibration markers is placed on the outer surface of the machine tool, and the visual target is measured by a camera provided on the movable part of the robot. Based on the image obtained by imaging and the position and orientation of the camera, the relative positional relationship between the robot and the machine tool is measured, and based on the measured positional relationship, the robot's working posture. Is to correct.
【先行技術文献】 [Prior Art Document]
【特許文献】 [Patent Document]
【00 0 6】 [00 0 6]
【特許文献 1】 特開 201 7- 1 32002号公報 【特許文献 2】 特開 2016- 221622 号公報 【発明の概要】 [Patent Document 1] Japanese Patent Application Laid-Open No. 201 7-1 32002 [Patent Document 2] Japanese Patent Application Laid-Open No. 2016-221622 [Summary of Invention]
【発明が解決しよう とする課題】 [Problems to be Solved by the Invention]
【00 0 7】 ところが、 上述した従来の位置補正手法では、 例えば、 ロボッ トのハンドなどを工作機 械内に進入させ、 当該ハンドを用いて工作機械のチャックなどに対してワークの着脱を行 う際に、 この着脱作業を行うロボッ トの姿勢を正確に補正することができないという問題 があった。 However, in the conventional position correction method described above, for example, a robot hand or the like is inserted into the machine tool, and the hand is used to attach or detach the work to or from the chuck of the machine tool. At that time, there was a problem that the posture of the robot performing this attachment / detachment work could not be corrected accurately.
【00 0 8】 \¥0 2021/048579 卩(:17132019/001004 即ち、 前記無人搬送車は、 比較的自由度の高い車輪の動作によって移動するように構成 されているため、 ロボッ トが搭載された載置面は床面に対して傾き易く、 また、 搭載する ロボッ トの姿勢の変化に応じて、 言い換えれば、 ロボッ トの重心位置の変化に応じて、 当 該傾きが変動し易いという特性を有している。 [00 0 8] \\ 0 2021/048579 卩 (: 17132019/001004 That is, the automatic guided vehicle is configured to move by the movement of wheels with a relatively high degree of freedom, so the mounting surface on which the robot is mounted is It has the characteristic that it easily tilts with respect to the floor surface, and that the tilt easily changes according to changes in the posture of the robot to be mounted, in other words, according to changes in the position of the center of gravity of the robot. ..
【0 0 0 9】 このため、 上述したワークの着脱を行う際に、 ロボッ トがそのハンドを工作機械内に進 入させた姿勢を取るとき、 言い換えれば、 ロボッ トのアームが前記無人搬送車から大きく オーバハングした状態となるときの前記載置面の傾きは、 ロボッ トのハンドが工作機械の 機外に在り、 アームが前記無人搬送車からオーバハングしていないか、 或いはオーバハン グしていたとしても少量である場合の傾きよりも大きなものとなる。 [0 0 0 9] Therefore, when the robot takes a posture in which the hand is advanced into the machine tool when attaching / detaching the work described above, in other words, the arm of the robot is the automatic guided vehicle. The inclination of the above-mentioned mounting surface when a large overhang occurs from the above is based on the assumption that the robot hand is outside the machine tool and the arm is not overhanging or overhanging from the automatic guided vehicle. Is larger than the inclination when the amount is small.
【0 0 1 0】 したがって、 上述した従来の位置補正手法のように、 較正用マーカである視覚ターゲッ 卜を工作機械の外表面に配設し、 ロボッ トが工作機械の機外に在る状態で、 ロボッ トの位 置補正量 (姿勢補正量) を取得しても、 得られた位置補正量を用いては、 ロボッ トのハン ドが工作機械内にあるときに実行されるワークの着脱動作については、 当該ロボッ トの姿 勢を正確には補正することができない。 [0 0 1 0] Therefore, as in the conventional position correction method described above, a visual target, which is a calibration marker, is arranged on the outer surface of the machine tool, and the robot is outside the machine tool. Even if the position correction amount (posture correction amount) of the robot is acquired, the obtained position correction amount is used to attach / detach the work piece, which is executed when the robot hand is inside the machine tool. Regarding the movement, the posture of the robot cannot be corrected accurately.
【0 0 1 1】 そして、 ワークを着脱する際のロボッ トの姿勢を正確に補正することができなければ、 チャックに対してロボッ トハンドを正確に位置決めすることができず、 例えば、 前記チャ ックがコレッ トチャックなど、 把持部の動き代 (ス トローク) が極僅か、 即ち、 ワークと チャックとの間のタ リアランスが極僅かであるチャックの場合には、 当該チャックに対し てワークを確実に把持させることができない可能性が生じる。 [0 0 1 1] If the posture of the robot when attaching and detaching the work cannot be corrected accurately, the robot hand cannot be accurately positioned with respect to the chuck. For example, the chuck is described above. In the case of a chuck such as a collet chuck where the movement allowance (stroke) of the grip is very small, that is, the clearance between the work and the chuck is very small, the work is surely applied to the chuck. There is a possibility that it cannot be grasped.
【0 0 1 2】 そして、 ワークの着脱を確実に実行することができなければ、 当該システムの稼働率が 低下することになる。 当該システムにおいては、 信頼性が高く、 生産効率の良い無人化を 実現することはできない。 [0 0 1 2] If the work cannot be reliably attached and detached, the operating rate of the system will decrease. In this system, it is not possible to realize unmanned operation with high reliability and high production efficiency.
【0 0 1 3】 また、 特許文献 2に開示された位置補正手法では、 2つの較正用マーカをそれぞれカメ ラによって撮像するようにしているので、 較正用マーカを撮像するためのロボッ トの動作 時間が長く、 このため、 当該システムにおける生産効率が低くなるという問題もある。[0 0 1 3] Further, in the position correction method disclosed in Patent Document 2, since each of the two calibration markers is imaged by a camera, the operation of the robot for imaging the calibration markers is performed. There is also a problem that the production efficiency in the system is lowered because the time is long.
【課題を解決するための手段】 [Means for solving problems]
【0 0 1 4】 そこで、 本開示は、 ワークに対して所定の加工を行う工作機械と、 画像を撮像するカメラ、 及び前記ワークに対して作用する作用部を有し、 前記工作機械 に対して作業を行うロボッ トと、 前記ロボッ トを搭載し、 前記工作機械に対して設定された作業位置に移動可能に構成さ れた搬送装置と、 予め設定された動作指令を含む動作プログラムに従って、 前記ロボッ トに、 作業開始姿 勢、 前記工作機械に設けられた姿勢補正用の識別図形に対して前記カメラを正対させるこ とにより、 該カメラよって前記識別図形を撮像する撮像姿勢、 前記ワークに対して前記作 用部を作用させるための 1以上の作業姿勢を順次取らせるように構成された制御装置とを 備え、 前記作業開始姿勢、 撮像姿勢及び作業姿勢は、 前記ロボッ トをティーチング操作するこ とによって予め設定されるシステムであって、 前記識別図形は、 所定の平面上に形成されるとともに、 前記工作機械の加工領域内に配 置され、 前記制御装置は、 前記ティーチング操作時に、 前記ロボッ トを撮像姿勢に移行させた状 態で、 前記カメラによって撮像される前記識別図形の画像を基準画像として予め記憶し、 前記動作プログラムに従って、 前記ロボッ トを動作させる際に、 前記搬送装置を前記作業 \¥0 2021/048579 卩(:17132019/001004 位置に移動した状態で、 前記ロボッ トを、 前記作業開始姿勢から前記撮像姿勢に移行させ た後に前記カメラにより撮像される前記識別図形の画像、 及び前記基準画像に基づいて、 前記ロボッ トの現在の姿勢とティーチング操作時の姿勢との間における前記カメラの位置 の誤差量であって、 前記識別図形と平行な平面内で設定される相互に直交する 2軸方向に おける前記カメラの位置誤差量、 及び該平面と直交する垂直軸回りの前記カメラの回転誤 差量を推定し、 推定された各誤差量に基づいて、 前記作業姿勢における前記作用部に対す る補正量を算出し、 算出した補正量に基づいて、 前記作業姿勢における前記作用部の位置 を補正するように構成されたシステムに係る。 [0 0 1 4] Therefore, the present disclosure has a machine tool that performs predetermined processing on the work, a camera that captures an image, and an action unit that acts on the work, and the machine tool has a function. According to an operation program that includes a robot that performs work, a transfer device that is equipped with the robot and is configured to be movable to a work position set for the machine tool, and a preset operation command. The work start posture, the imaging posture in which the camera is made to face the identification figure for posture correction provided in the machine tool, and the imaging posture in which the identification figure is imaged by the camera, and the work. A control device configured to sequentially take one or more working postures for operating the working unit is provided, and the working start posture, the imaging posture, and the working posture are the teaching operations of the robot. This is a preset system, in which the identification figure is formed on a predetermined plane and arranged in the machining area of the machine tool, and the control device is used during the teaching operation. When the robot is moved to the imaging posture, the image of the identification figure captured by the camera is stored in advance as a reference image, and when the robot is operated according to the operation program, the transport device is used. The above work \\ 0 2021/048579 The image of the identification figure captured by the camera after shifting the robot from the work start posture to the imaging posture while moving to the position (: 17132019/001004), and Based on the reference image, the amount of error in the position of the camera between the current posture of the robot and the posture during the teaching operation, which is orthogonal to each other set in a plane parallel to the identification figure. The amount of positional error of the camera in the two axial directions and the amount of rotation error of the camera around the vertical axis orthogonal to the plane are estimated, and the action in the working posture is based on each estimated error amount. The present invention relates to a system configured to calculate a correction amount for a part and correct the position of the action part in the working posture based on the calculated correction amount.
【 0 0 1 5】 このシステムによれば、 前記搬送装置が工作機械に対して設定された作業位置に適宜移 動された後、 前記制御装置により前記ロボッ トが制御され、 予め設定された動作指令を含 む動作プログラムに従った作業姿勢を順次取ることにより、 例えば、 工作機械に対してワ ークの着脱などの作業を実行する。 [0 0 1 5] According to this system, after the transfer device is appropriately moved to a working position set for the machine tool, the robot is controlled by the control device, and a preset operation is performed. By sequentially taking a working posture according to an operation program including commands, work such as attaching / detaching a work to a machine tool is executed.
【 0 0 1 6】 ロボッ トの動作は動作プログラムに従って制御され、 前記搬送装置が前記作業位置に移 動した後、 ロボッ トは、 作業開始姿勢から動作を開始し、 ついで工作機械に設けられた姿 勢補正用の識別図形に対して前記カメラを正対させることにより、 該カメラによって前記 識別図形を撮像する撮像姿勢をとり、 次に 1以上の作業姿勢を順次取るように動作する。 この作業開始姿勢、 撮像姿勢及び作業姿勢は、 予め、 ロボッ トをティーチング操作するこ とによって設定される。 尚、 前記識別図形は、 所定の平面上に形成され、 工作機械の加工 領域内に配設されている。 また、 ロボッ トが撮像姿勢を取るとき、 カメラは識別図形に対 して正対、 即ち、 カメラはそのレンズと識別図形とが略平行になる姿勢となっている。[0 0 1 6] The operation of the robot is controlled according to the operation program, and after the transfer device is moved to the work position, the robot starts the operation from the work start posture, and then is provided in the machine tool. By facing the camera with respect to the identification figure for posture correction, the camera takes an imaging posture for capturing the identification figure, and then operates so as to sequentially take one or more working postures. The work start posture, the imaging posture, and the work posture are set in advance by teaching the robot. The identification figure is formed on a predetermined plane and is arranged in the machining area of the machine tool. Also, when the robot takes the imaging posture, the camera faces the identification figure, that is, the camera is in a posture in which the lens and the identification figure are substantially parallel to each other.
【 0 0 1 7】 そして、 制御装置は、 前記ティーチング操作時に、 前記ロボッ トを撮像姿勢に移行させ た状態で、 前記カメラによって撮像される前記識別図形の画像を基準画像として予め記憶 する。 次に、 前記動作プログラムに従って、 ロボッ トを動作させる際に、 ロボッ トを、 作 業開始姿勢から撮像姿勢に移行させた状態で、 カメラにより撮像される前記識別図形の画 像、 及び前記基準画像に基づいて、 前記ロボッ トの現在の姿勢とティーチング操作時の姿 勢との間における前記カメラの位置の誤差量であって、 前記識別図形と平行な平面内で設 定される相互に直交する 2軸方向における前記カメラの位置誤差量、 及び該平面と直交す る垂直軸回りの前記カメラの回転誤差量を推定し、 推定された各誤差量に基づいて、 前記 作業姿勢における前記作用部に対する補正量を算出し、 算出した補正量に基づいて、 前記 作業姿勢における前記作用部の位置を補正する。 Then, the control device stores in advance the image of the identification figure captured by the camera as a reference image in a state where the robot is shifted to the imaging posture during the teaching operation. Next, when the robot is operated according to the operation program, the image of the identification figure captured by the camera and the reference image in a state where the robot is shifted from the work start posture to the imaging posture. Based on, the amount of error in the position of the camera between the current posture of the robot and the posture during the teaching operation, which is orthogonal to each other set in a plane parallel to the identification figure. The amount of positional error of the camera in the biaxial direction and the amount of rotation error of the camera around the vertical axis orthogonal to the plane are estimated, and based on each estimated amount of error, with respect to the acting part in the working posture. The correction amount is calculated, and the position of the working portion in the working posture is corrected based on the calculated correction amount.
【 0 0 1 8】 そして、 このシステムでは、 ロボッ トが実際に作業する工作機械の加工領域内に配置さ れた識別図形を用いて、 ロボッ トの作業姿勢を補正するようにしているので、 当該作業姿 勢を正確に補正することができ、 これにより、 ロボッ トは、 高い動作精度が求められる作 業でも、 当該作業を精度良く実行することができる。 [0 0 1 8] In this system, the working posture of the robot is corrected by using the identification figure placed in the machining area of the machine tool that the robot actually works on. The work posture can be corrected accurately, so that the robot can perform the work accurately even in a work that requires high operation accuracy.
【 0 0 1 9】 そして、 このようにロボッ トが精度の良い作業を実行することで、 当該システムは不要 な中断を招くことなく高い稼働率で稼働し、 結果、 当該システムによれば、 信頼性が高く 、 生産効率の高い自動化を図ることが可能となる。 [0 0 1 9] And, by performing the work with high accuracy by the robot in this way, the system operates at a high operating rate without causing unnecessary interruption, and as a result, according to the system, it is reliable. It is possible to achieve automation with high performance and high production efficiency.
【 0 0 2 0】 また、 動作プログラムに従って動作するロボッ トは、 カメラによって識別図形を撮像す る際に、 一度の動作でこれを実行するように構成されているので、 従来に比べて、 短時間 で精度の良い補正を行うことができる。 [0 0 2 0] In addition, the robot that operates according to the operation program is configured to execute this in one operation when the identification figure is imaged by the camera, so it is shorter than before. Accurate correction can be performed in time.
【 0 0 2 1】 また、 他の開示は、 工作機械に設けられた識別図形を含む画像を撮像するためのカメラ と、 ワークに作用する作用部とを有するロボッ トが搭載され、 前記ロボッ トが前記ワーク を保持可能な第 1位置に、 前記ロボッ トを搬送するための搬送装置が、 前記ロボッ トを前 \¥0 2021/048579 卩(:17132019/001004 記第 1位置に搬送した後に、 前記工作機械に設けられた前記識別図形を含む画像を前記力 メラにより撮像し、 前記画像の前記識別図形の位置情報に応じて X軸と V軸と 軸の 3次 元空間における前記X軸と前記V軸における前記作用部の第 2位置を直線移動と回転移動 とを前記作用部にさせることにより補正し、 前記第 2位置を補正した後に、 前記工作機械 の内部でワークに前記作用部を作用させる、 ワークを加工するための工作機械であって、 前記識別図形は前記工作機械の加工領域内に配置された工作機械に係る。 [0 0 2 1] In addition, another disclosure is that a robot having a camera for capturing an image including an identification figure provided in a machine tool and an acting part acting on a work is mounted on the robot. The transport device for transporting the robot to the first position where the work can be held in front of the robot. \\ 0 2021/048579 卩 (: 17132019/001004) After transporting to the first position, an image including the identification figure provided on the machine tool is imaged by the force machine, and the position of the identification figure in the image is taken. According to the information, the second position of the action part on the X-axis and the V-axis in the cubic element space of the X-axis, the V-axis, and the axis is corrected by making the action part perform linear movement and rotational movement. A machine tool for machining a work, in which the working portion acts on the work inside the machine tool after the second position is corrected, and the identification figure is arranged in the machining area of the machine tool. Related to machine tools.
【発明の効果】 【Effect of the invention】
【0 0 2 2】 以上のように、 本開示に係るシステムによれば、 ロボッ トが実際に作業する工作機械の 加工領域内に配置された識別図形を用いて、 ロボッ トの作業姿勢を補正するようにしてい るので、 当該作業姿勢を正確に補正することができ、 これにより、 ロボッ トは、 高い動作 精度が求められる作業でも、 当該作業を精度良く実行することができる。 [0 0 2 2] As described above, according to the system according to the present disclosure, the working posture of the robot is corrected by using the identification figure arranged in the machining area of the machine tool in which the robot actually works. Therefore, the working posture can be corrected accurately, so that the robot can perform the work with high accuracy even in the work requiring high operation accuracy.
【 0 0 2 3】 そして、 このように、 ロボッ トが精度の良い作業を実行することで、 当該システムは不 要な中断を招く ことなく高い稼働率で稼働し、 結果、 当該システムによれば、 信頼性が高 く、 生産効率の高い自動化を図ることができる。 [0 0 2 3] In this way, the robot performs accurate work, and the system operates at a high operating rate without causing unnecessary interruption. As a result, according to the system. , Highly reliable and highly efficient automation can be achieved.
【 0 0 2 4】 また、 ロボッ トが動作プログラムに従って動作する際に、 カメラによって識別図形を撮 像する動作を一度行うことによって、 ロボッ トの作用部の位置を補正することができるの で、 従来に比べて、 短時間で精度の良い補正を行うことができる。 [0 0 2 4] In addition, when the robot operates according to the operation program, the position of the action part of the robot can be corrected by performing the operation of capturing the identification figure with the camera once. Compared to the conventional method, accurate correction can be performed in a short time.
【図面の簡単な説明】 [Simple explanation of drawings]
【 0 0 2 5】 [0 0 2 5]
【図 1】 本発明の一実施形態に係るシステムの概略構成を示した平面図である。FIG. 1 is a plan view showing a schematic configuration of a system according to an embodiment of the present invention.
【図 2】 本実施形態に係るシステムの構成を示したプロック図である。 FIG. 2 is a block diagram showing a configuration of a system according to the present embodiment.
【図 3】 本実施形態に係る無人搬送車及びロボッ トを示した斜視図である。 FIG. 3 is a perspective view showing an automatic guided vehicle and a robot according to the present embodiment.
【図 4】 本実施形態に係るロボッ トの撮像姿勢について説明するための説明図であるFIG. 4 is an explanatory diagram for explaining the imaging posture of the robot according to the present embodiment.
【図 5】 本実施形態に係る識別図形を示した説明図である。 FIG. 5 is an explanatory diagram showing an identification figure according to the present embodiment.
【図 6】 本実施形態における補正量算出手法を説明するための説明図である。 FIG. 6 is an explanatory diagram for explaining a correction amount calculation method in the present embodiment.
【図 7】 本実施形態における補正量算出手法を説明するための説明図である。 FIG. 7 is an explanatory diagram for explaining a correction amount calculation method in the present embodiment.
【図 8】 本実施形態における補正量算出手法を説明するための説明図である。 FIG. 8 is an explanatory diagram for explaining a correction amount calculation method in the present embodiment.
【図 9】 本実施形態における位置補正について説明するための説明図である。 FIG. 9 is an explanatory diagram for explaining position correction in the present embodiment.
【発明を実施するための形態】 BEST MODE FOR CARRYING OUT THE INVENTION
【0 0 2 6】 以下、 具体的な実施の形態について、 図面を参照しながら説明する。 [0 0 2 6] Hereinafter, specific embodiments will be described with reference to the drawings.
【 0 0 2 7】 図 1及び図 2に示すように、 本例のシステム 1は、 工作機械 1 0、 周辺装置としての材 料ス トッカ 2 0及び製品ス トッカ 2 1、 無人搬送車 3 5、 この無人搬送車 3 5に搭載され るロボッ ト 2 5、 ロボッ ト 2 5に装着されるカメラ 3 1、 並びにロボッ ト 2 5及び無人搬 送車 3 5を制御する制御装置 4 0などから構成される。 As shown in Fig. 1 and Fig. 2, the system 1 of this example is a machine tool 10 and a material stocker 2 0 as a peripheral device and a product stocker 2 1 and an automatic guided vehicle 3 5 , The robot 2 5 mounted on this automatic guided vehicle 35, the camera 3 1 mounted on the robot 2 5, and the control device 4 0 that controls the robot 2 5 and the automatic guided vehicle 3 5 Will be done.
【0 0 2 8】 図 4に示すように、 前記工作機械 1 0は、 ワーク (\¥ ’ ) を把持するチヤック 1 2が 装着される主軸 1 1を備え、 この主軸 1 1が鉛直方向に沿って設けられた所謂立形のN0 (数値制御) 旋盤であり、 ワーク (\¥ ’ ) に対して旋削加工を行うことができるよ うに なっている。 また、 主軸 1 1の近傍には接触子 1 4及びこれを支持する支持バー 1 5を備 えたツールプリセッタ 1 3が設けられており、 この支持バー 1 5は、 当該主軸 1 1の軸線 に沿って、 加工領域に対して進退可能に設けられており、 その加工領域側の端面にセラミ ック製の表示板 1 6が設けられ、 この表示板 1 6に、 図 5に示した識別図形が描画されて いる。 尚、 表示板 1 6は水平面上に位置するように設けられている。 As shown in FIG. 4, the machine tool 1 0 is provided with a spindle 1 1 to which a chuck 1 2 for gripping a work (\\') is mounted, and the spindle 1 1 is in the vertical direction. It is a so-called vertical N0 (numerical control) lathe installed along the line, and it is possible to perform turning on the work (\\'). In addition, a tool presetter 1 3 equipped with a contactor 1 4 and a support bar 1 5 for supporting the contactor 1 4 is provided in the vicinity of the spindle 1 1, and the support bar 1 5 is located on the axis of the spindle 1 1. Along the line, it is provided so that it can move forward and backward with respect to the processing area, and a ceramic display board 1 6 is provided on the end face on the processing area side, and the identification figure shown in Fig. 5 is provided on this display board 1 6. Is drawn. The display board 16 is provided so as to be located on a horizontal plane.
【 0 0 2 9】 \¥0 2021/048579 卩(:17132019/001004 尚、 図 4では、 支持バー 1 5及び接触子 1 4が加工領域内に進出した状態を図示してい るが、 支持バー 1 5及び接触子 1 4が後退して、 接触子 1 4及び表示板 1 6が収納領域内 に収納された状態で、 シャッタ 1 7が閉じることにより、 接触子 1 4及び表示板 1 6は加 エ領域から隔離される。 [0 0 2 9] \\ 0 2021/048579 卩 (: 17132019/001004 In addition, Fig. 4 shows the state where the support bar 1 5 and the contact 1 4 have advanced into the machining area, but the support bar 1 5 and the contact 1 1 With the contacts 1 4 and the display board 1 6 retracted in the storage area, the contacts 1 4 and the display board 1 6 are separated from the application area by closing the shutter 1 7 with the 4 retracted. To.
【 0 0 3 0】 また、 本例の識別図形は複数の正方形をした画素が二次元に配列されたマトリ クス構造 を有するものであり、 各画素が白または黒で表示される。 図 5では、 黒色の画素に斜線を 付している。 このような識別図形には、 入尺マーカや入 p r 1 1 丁 & 8 と称されるものが ある。 また、 識別図形が小さい場合には、 当該識別図形上にレンズを設けるなどして、 後 述するカメラ 3 1により拡大された画像が撮像されるようにしても良い。 [0 0 3 0] Further, the identification figure of this example has a matrix structure in which a plurality of square pixels are arranged two-dimensionally, and each pixel is displayed in white or black. In Figure 5, the black pixels are shaded. Some of these identification figures are called entry markers and entry pr 1 1 chome & 8. If the identification figure is small, a lens may be provided on the identification figure so that the enlarged image can be captured by the camera 31 described later.
【 0 0 3 1】 前記材料ス トッカ 2 0は、 図 1において工作機械 1 0の左隣に配設され、 当該工作機械 1 0で加工される複数の材料 (加工前ワーク をス トックする装置である。 また、 前記 製品ス トッカ 2 1は、 図 1において工作機械 1 0の右隣に配設され、 当該工作機械 1 0で 加工された複数の製品、 又は半製品 (加工済ワーク ’ ) をス トックする装置である。[0 0 3 1] The material stocker 20 is arranged on the left side of the machine tool 10 in FIG. 1, and a plurality of materials processed by the machine tool 10 (a device for stocking a work before machining). In addition, the product stocker 2 1 is arranged on the right side of the machine tool 10 in Fig. 1, and is a plurality of products or semi-finished products processed by the machine tool 10 (processed work'). It is a device that stocks.
【 0 0 3 2】 図 1に示すように、 前記無人搬送車 3 5には、 その上面である載置面 3 6に前記ロボッ 卜 2 5が搭載され、 また、 オペレータが携帯可能な操作盤 3 7が付設されている。 尚、 こ の操作盤 3 7は、 データの入出力を行う入出力部、 当該無人搬送車 3 5及びロボッ ト 2 5 を手動操作する操作部、 並びに画面表示可能なディスプレイなどを備えている。 As shown in FIG. 1, the automatic guided vehicle 3 5 is equipped with the robot 2 5 on a mounting surface 3 6 which is the upper surface thereof, and an operation panel which can be carried by an operator. 3 7 is attached. The operation panel 37 is equipped with an input / output unit for inputting / outputting data, an operation unit for manually operating the automatic guided vehicle 35 and the robot 25, and a display capable of displaying a screen.
【 0 0 3 3】 また、 無人搬送車 3 5は、 工場内における自身の位置を認識可能なセンサ (例えば、 レ ーザ光を用いた距離計測センサ) を備えており、 前記制御装置 4 0による制御の下で、 前 記工作機械 1 0、 材料ス トッカ 2 0及び製品ス トッカ 2 1が配設される領域を含む工場内 を無軌道で走行するように構成され、 本例では、 前記工作機械 1 0、 材料ス トッカ 2 0及 び製品ス トッカ 2 1のそれぞれに対して設定された各作業位置に経由する。 [0 0 3 3] In addition, the automatic guided vehicle 35 is equipped with a sensor (for example, a distance measurement sensor using laser light) that can recognize its own position in the factory, and the control device 40 Under the control of the above-mentioned machine tool 10, the material stocker 20 and the product stocker 2 1 are configured to run on an automated guided vehicle in the factory including the area where the machine tool 10 and the product stocker 2 1 are arranged. It goes through each working position set for each of the machine tool 10 and the material stocker 2 0 and the product stocker 2 1.
【 0 0 3 4】 図 1及び図 3に示すように、 前記ロボッ ト 2 5は、 第 1アーム 2 6、 第 2アーム 2 7及 び第 3アーム 2 8の 3つのアームを備えた多関節型のロボッ トであり、 第 3アーム 2 8の 先端部にはエンドエフェクタとしてのハンド 2 9が装着され、 また、 支持バー 3 0を介し て 1つのカメラ 3 1が装着されている。 As shown in FIGS. 1 and 3, the robot 2 5 is articulated with three arms, a first arm 2 6, a second arm 27, and a third arm 28. It is a type robot, and a hand 2 9 as an end effector is attached to the tip of the 3rd arm 28, and one camera 3 1 is attached via a support bar 30.
【 0 0 3 5】 図 2に示すように、 前記制御装置 4 0は、 動作プログラム記憶部 4 1、 移動位置記憶部 4 2、 動作姿勢記憶部 4 3、 マップ情報記憶部 4 4、 基準画像記憶部 4 5、 手動運転制御 部 4 6、 自動運転制御部 4 7、 マップ情報生成部 4 8、 位置認識部 4 9、 補正量算出部 5 0 及び入出カインターフェース 5 1から構成される。 そして、 制御装置 4 0は、 この入出 カインターフェース 5 1を介して、 前記工作機械 1 0、 材料ス トッカ 2 0、 製品ス トッカ 2 1、 ロボッ ト 2 5、 カメラ 3 1、 無人搬送車 3 5及び操作盤 3 7に接続している。As shown in FIG. 2, the control device 4 0 includes an operation program storage unit 4 1, a moving position storage unit 4 2, an operation posture storage unit 4 3, a map information storage unit 4 4, and a reference image. It consists of a storage unit 4 5, a manual operation control unit 4 6, an automatic operation control unit 4 7, a map information generation unit 48, a position recognition unit 4 9, a correction amount calculation unit 50, and an input / output interface 5 1. Then, the control device 40 uses the machine tool 10, the material stocker 2 0, the product stocker 2 1, the robot 25, the camera 3 1, and the automatic guided vehicle 3 5 through the input / output interface 5 1. And it is connected to the operation panel 3 7.
【 0 0 3 6】 尚、 制御装置 4 0は、 0 11、 尺入]^、 尺〇]^などを含むコンピュータから構成され、 前記手動運転制御部 4 6、 自動運転制御部 4 7、 マップ情報生成部 4 8、 位置認識部 4 9 、 補正量算出部 5 0及び入出カインターフェース 5 1は、 コンピュータプログラムによっ てその機能が実現され、 後述する処理を実行する。 また、 動作プログラム記憶部 4 1、 移 動位置記憶部 4 2、 動作姿勢記憶部 4 3、 マップ情報記憶部 4 4及び基準画像記憶部 4 5 は R AMなどの適宜記憶媒体から構成される。 本例では、 制御装置 4 0は無人搬送車 3 5 に付設され、 適宜通信手段によって工作機械 1 〇、 材料ス トッカ 2 0及び製品ス トッカ 2 1 と接続されるとともに、 ロボッ ト 2 5、 カメラ 3 1、 無人搬送車 3 5及び操作盤 3 7と は有線又は無線によって接続されている。 但し、 このような態様に限られるものではなく 、 制御装置 4 0は無人搬送車 3 5以外の適宜位置に配設されていても良い。 この場合、 制 御装置 4 0は適宜通信手段によって各部と接続される。 \¥0 2021/048579 卩(:17132019/001004[0 0 3 6] The control device 40 is composed of a computer including 0 11, scale] ^, scale 〇] ^, etc., and is composed of the manual operation control unit 4 6, the automatic operation control unit 4 7, and a map. The functions of the information generation unit 48, the position recognition unit 49, the correction amount calculation unit 50, and the input / output interface 5 1 are realized by a computer program, and the processing described later is executed. In addition, the operation program storage unit 41, the movement position storage unit 4 2, the operation posture storage unit 4 3, the map information storage unit 4 4 and the reference image storage unit 4 5 are composed of appropriate storage media such as R AM. In this example, the control device 40 is attached to the automatic guided vehicle 35, and is connected to the machine tool 10, the material stocker 2 0 and the product stocker 2 1 by appropriate communication means, and the robot 25, the camera 3 1, automatic guided vehicle 3 5 and operation panel 3 7 are connected by wire or wireless. However, the present invention is not limited to this aspect, and the control device 40 may be arranged at an appropriate position other than the automatic guided vehicle 35. In this case, the control device 40 is appropriately connected to each part by communication means. \\ 0 2021/048579 卩 (: 17132019/001004
【 0 0 3 7】 前記手動運転制御部 4 6は、 オペレータにより前記操作盤 3 7から入力される操作信号 に従って、 前記無人搬送車 3 5、 ロボッ ト 2 5及びカメラ 3 1 を動作させる機能部である 。 即ち、 オペレータは、 この手動運転制御部 4 6による制御の下で、 操作盤 3 7を用いた 、 前記無人搬送車 3 5、 ロボッ ト 2 5及びカメラ 3 1の手動操作を実行することができる[0 0 3 7] The manual operation control unit 4 6 is a functional unit that operates the automatic guided vehicle 35, the robot 25, and the camera 3 1 according to an operation signal input from the operation panel 3 7 by the operator. Is. That is, the operator can manually operate the automatic guided vehicle 35, the robot 25, and the camera 3 1 using the operation panel 3 7 under the control of the manual operation control unit 46.
【 0 0 3 8】 前記動作プログラム記憶部 4 1は、 生産時に前記無人搬送車 3 5及び前記ロボッ ト 2 5 を自動運転するための自動運転用プログラム、 並びに後述する工場内のマップ情報を生成 する際に前記無人搬送車 3 5を動作させるためのマップ生成用プログラムを記憶する機能 部である。 自動運転用プログラム及びマップ生成用プログラムは、 例えば、 前記操作盤 3 7 に設けられた入出力部から入力され、 当該動作プログラム記憶部 4 1に格納される。[0 0 3 8] The operation program storage unit 4 1 generates an automatic driving program for automatically driving the automatic guided vehicle 35 and the robot 2 5 at the time of production, and map information in a factory to be described later. It is a function unit that stores a program for generating a map for operating the automatic guided vehicle 35 at the time of operation. The automatic operation program and the map generation program are, for example, input from the input / output unit provided on the operation panel 37 and stored in the operation program storage unit 41.
【 0 0 3 9】 尚、 この自動運転用プログラムには、 無人搬送車 3 5が移動する目標位置としての移動 位置、 移動速度及び無人搬送車 3 5の向きに関する指令コードが含まれ、 また、 ロボッ ト 2 5が順次動作する当該動作に関する指令コード、 及び前記カメラ 3 1の操作に関する指 令コードが含まれる。 また、 マップ生成用プログラムは、 前記マップ情報生成部 4 8にお いてマップ情報を生成できるように、 無人搬送車 3 5を無軌道で工場内を隈なく走行させ るための指令コードが含まれる。 [0 0 3 9] In addition, this automatic driving program includes a command code regarding the moving position, moving speed, and orientation of the automatic guided vehicle 35 as a target position for the automatic guided vehicle 35 to move. Includes a command code for the operation of the robot 2 5 in sequence and a command code for the operation of the camera 31. In addition, the map generation program includes a command code for running the automatic guided vehicle 35 without a track throughout the factory so that the map information generation unit 48 can generate map information.
【 0 0 4 0】 前記マップ情報記憶部 4 4は、 無人搬送車 3 5が走行する工場内に配置される機械、 装 置、 機器など (装置等) の配置情報を含むマップ情報を記憶する機能部であり、 このマッ プ情報は前記マップ情報生成部 4 8によって生成される。 [0 0 4 0] The map information storage unit 4 4 stores map information including arrangement information of machines, equipment, devices, etc. (devices, etc.) arranged in the factory where the automatic guided vehicle 35 runs. It is a functional unit, and this map information is generated by the map information generation unit 48.
【 0 0 4 1】 前記マップ情報生成部 4 8は、 詳しくは後述する前記制御装置 4 0の自動運転制御部 4 7 による制御の下で、 前記動作プログラム記憶部 4 1に格納されたマップ生成用プロダラ ムに従って無人搬送車 3 5を走行させた際に、 前記センサによって検出される距離データ から工場内の空間情報を取得するとともに、 工場内に配設される装置等の平面形状を認識 し、 例えば、 予め登録された装置等の平面形状を基に、 工場内に配設された具体的な装置 、 本例では、 工作機械 1 0、 材料ス トッカ 2 0及び製品ス トッカ 2 1の位置、 平面形状等 (配置情報) を認識する。 そして、 マップ情報生成部 4 8は、 得られた空間情報及び装置 等の配置情報を工場内のマップ情報として前記マップ情報記憶部 4 4に格納する。 The map information generation unit 4 8 generates a map stored in the operation program storage unit 4 1 under the control of the automatic operation control unit 4 7 of the control device 40, which will be described in detail later. When the automatic guided vehicle 35 is driven according to the product for use, the spatial information in the factory is acquired from the distance data detected by the sensor, and the plane shape of the equipment installed in the factory is recognized. , For example, the position of a specific device arranged in the factory based on the plan shape of the device registered in advance, in this example, the machine tool 10 and the material stocker 20 and the product stocker 2 1. , Plane shape, etc. (arrangement information) is recognized. Then, the map information generation unit 4 8 stores the obtained spatial information and the arrangement information of the devices and the like in the map information storage unit 4 4 as map information in the factory.
【 0 0 4 2】 前記位置認識部 4 9は、 前記センサによって検出される距離データ、 及び前記マップ情 報記憶部 4 4に格納された工場内のマップ情報を基に、 工場内における無人搬送車 3 5の 位置を認識する機能部であり、 この位置認識部 4 9によって認識される無人搬送車 3 5の 位置に基づいて、 当該無人搬送車 3 5の動作が前記自動運転制御部 4 7によって制御され る。 [0 0 4 2] The position recognition unit 4 9 is an automatic guided vehicle in the factory based on the distance data detected by the sensor and the map information in the factory stored in the map information storage unit 4 4. It is a functional unit that recognizes the position of the vehicle 3 5, and based on the position of the automatic guided vehicle 3 5 recognized by this position recognition unit 4 9, the operation of the automatic guided vehicle 3 5 is the automatic operation control unit 4 7 Is controlled by.
【 0 0 4 3】 前記移動位置記憶部 4 2は、 前記無人搬送車 3 5が移動する具体的な目標位置としての 移動位置であって、 前記動作プログラム中の指令コードに対応した具体的な移動位置を記 憶する機能部であり、 この移動位置には、 上述した工作機械 1 0、 材料ス トッカ 2 0及び 製品ス トッカ 2 1に対して設定される各作業位置が含まれる。 尚、 この移動位置は、 例え ば、 前記手動運転制御部 4 6による制御の下、 前記操作盤 3 7により前記無人搬送車 3 5 を手動運転して、 目標とする各位置に移動させた後、 前記位置認識部 4 9によって認識さ れる位置データを前記移動位置記憶部 4 2に格納する操作によって設定される。 この操作 は所謂ティーチング操作と呼ばれる。 [0 0 4 3] The moving position storage unit 4 2 is a moving position as a specific target position for the automatic guided vehicle 3 5 to move, and is a specific moving position corresponding to a command code in the operation program. It is a functional unit that memorizes the moving position, and this moving position includes each working position set for the machine tool 10, the material stocker 20 and the product stocker 2 1 described above. For example, this movement position is determined after the unmanned vehicle 35 is manually operated by the operation panel 37 under the control of the manual operation control unit 46 and moved to each target position. , The position data recognized by the position recognition unit 4 9 is set by the operation of storing the position data in the movement position storage unit 4 2. This operation is a so-called teaching operation.
【 0 0 4 4】 前記動作姿勢記憶部 4 3は、 前記ロボッ ト 2 5が所定の順序で動作することによって順 次変化するロボッ ト 2 5の姿勢 (動作姿勢) であって、 前記動作プログラム中の指令コー \¥0 2021/048579 卩(:17132019/001004 ドに対応した動作姿勢に係るデータを記憶する機能部である。 この動作姿勢に係るデータ は、 前記手動運転制御部 4 6による制御の下で、 前記操作盤 3 7を用いたティーチング操 作により、 当該ロボッ ト 2 5を手動運転して、 目標とする各姿勢を取らせたときの、 当該 各姿勢におけるロボッ ト 2 5の各関節 (モータ) の回転角度データであり、 この回転角度 データが動作姿勢に係るデータとして前記動作姿勢記憶部 4 3に格納される。 [0 0 4 4] The operation posture storage unit 4 3 is a posture (operation posture) of the robot 2 5 that changes sequentially when the robot 2 5 operates in a predetermined order, and is the operation program. Command code inside \\ 0 2021/048579 卩 (: 17132019/001004 This is a functional unit that stores data related to the operating posture corresponding to the mode. The data related to this operating posture is under the control of the manual operation control unit 46. Each joint (motor) of the robot 2 5 in each posture when the robot 2 5 is manually operated by the teaching operation using the operation panel 3 7 to take each target posture. This is the rotation angle data of the above, and this rotation angle data is stored in the operation posture storage unit 4 3 as data related to the operation posture.
【0 0 4 5】 ロボッ ト 2 5の具体的な動作姿勢は、 前記材料ス トッカ 2 0 工作機械 1 0及び製品ス トッカ 2 1において、 それぞれ設定される。 例えば、 材料ス トッカ 2 0では、 当該材料ス トッカ 2 0において作業を開始するときの作業開始姿勢 (取出開始姿勢) 、 当該材料ス ト ッカ 2 0に収納された加工前ワーク をハンド 2 9により把持して、 当該材料ス トッカ 2 0 から取り出すための各作業姿勢 (各取出姿勢) 及び取出を完了したときの姿勢 (取出完 了姿勢であり、 本例では、 取出開始姿勢と同じ姿勢) が取出動作姿勢として設定される。 [0 0 4 5] The specific operating posture of the robot 2 5 is set in the material stocker 2 0 machine tool 10 and the product stocker 2 1, respectively. For example, in the material stocker 20, the work start posture (take-out start posture) when the work is started in the material stocker 20 and the unprocessed work stored in the material stocker 20 are handed 2 9 Each work posture (each take-out posture) for grasping and taking out from the material stocker 20 and the posture when the take-out is completed (the take-out complete posture, which is the same as the take-out start posture in this example). Is set as the take-out operation posture.
【0 0 4 6】 また、 工作機械 1 0では、 加工済のワーク
Figure imgf000009_0001
を工作機械 1 0から取り出すワーク取出 動作姿勢、 及び加工前ワーク を工作機械 1 0に取り付けるワーク取付動作姿勢が設定さ れる。
[0 0 4 6] In addition, in the machine tool 10 the machine tool has been machined.
Figure imgf000009_0001
The work taking-out operation posture for removing the work from the machine tool 10 and the work mounting operation posture for attaching the pre-machined work to the machine tool 10 are set.
【0 0 4 7】 具体的には、 ワーク取出動作姿勢では、 例えば、 工作機械 1 0に進入する前の作業開始 姿勢、 ハンド 2 9及びカメラ 3 1を工作機械 1 0の加工領域内に進入させて、 支持バー 1 5 に設けられた識別図形にカメラ 3 1を正対させ、 当該カメラ 3 1によって識別図形を撮 像する姿勢 (撮像姿勢) (図 4参照) 、 工作機械 1 0のチャック 1 2に把持された加工済 ワーク に対してハンド 2 9を対向させた姿勢 (取出準備姿勢) 、 ハンド 2 9をチャッ ク 1 2側に移動させて、 当該チャック 1 2に把持された加工済ワーク をハンド 2 9に よって把持する姿勢 (把持姿勢) 、 ハンド 2 9をチャック 1 2から離隔させて加工済ワー ク\¥ ’ をチャック 1 2から取り外した姿勢 (取外姿勢) 、 ハンド 2 9及びカメラ 3 1 をエ 作機械 1 0から抜け出させた姿勢 (作業完了姿勢) の各姿勢が設定される。 尚、 カメラ 3 1 を水平な識別図形に対して正対させたときのカメラ 3 1の姿勢は、 そのレンズと識別図 形とが略平行になる姿勢である。 [0 0 4 7] Specifically, in the work taking-out operation posture, for example, the work start posture before entering the machine machine 10, the hand 2 9 and the camera 3 1 enter the machining area of the machine machine 10 Then, the camera 3 1 is made to face the identification figure provided on the support bar 15 and the identification figure is imaged by the camera 3 1 (imaging posture) (see Fig. 4), and the chuck of the machine tool 10 The machined work gripped by the chuck 1 2 is held by the chuck 1 2 by moving the hand 2 9 to the chuck 1 2 side in the posture in which the hand 2 9 is opposed to the machined work gripped by 1 2 (preparation posture for taking out). The posture of gripping the workpiece with the hand 2 9 (holding posture), the posture of separating the hand 2 9 from the chuck 1 2 and removing the processed work \\'from the chuck 1 2 (removal posture), the hand 2 9 And each posture of the posture (work completion posture) in which the camera 3 1 is pulled out from the production machine 10 is set. The posture of the camera 3 1 when the camera 3 1 is made to face the horizontal identification figure is a posture in which the lens and the identification figure are substantially parallel to each other.
【0 0 4 8】 また、 ワーク取付動作姿勢では、 例えば、 工作機械 1 0に進入する前の作業開始姿勢、 ハンド 2 9及びカメラ 3 1を工作機械 1 0の加工領域内に進入させて、 支持バー 1 5に設 けられた識別図形にカメラ 3 1を正対させ、 当該カメラ 3 1によって識別図形を撮像する 姿勢 (撮像姿勢) (図 4参照) 、 工作機械 1 0のチャック 1 2に対してハンド 2 9に把持 された加工前ワーク を対向させた姿勢 (取付準備姿勢) 、 ハンド 2 9をチャック 1 2側 に移動させて、 加工前ワーク を当該チャック 1 2によって把持可能にした姿勢 (取付姿 勢) 、 ハンド 2 9をチャック 1 2から離隔させた姿勢 (離隔姿勢) 、 ハンド 2 9及びカメ ラ 3 1を工作機械 1 0から抜け出させた姿勢 (作業完了姿勢) の各姿勢が設定される。[0 0 4 8] In the work mounting operation posture, for example, the work start posture before entering the machine tool 10, the hand 2 9 and the camera 3 1 are made to enter the machining area of the machine tool 10. The posture (imaging posture) (see Fig. 4) in which the camera 3 1 faces the identification figure installed on the support bar 1 5 and the identification figure is imaged by the camera 3 1, and the chuck 1 2 of the machine tool 10 On the other hand, the posture in which the pre-machine tool gripped by the hand 2 9 faces each other (preparation posture), and the posture in which the hand 2 9 is moved to the chuck 1 2 side so that the pre-machine tool can be gripped by the chuck 1 2. (Mounting posture), Hand 2 9 separated from chuck 1 2 (Separation posture), Hand 2 9 and Camera 3 1 pulled out of machine tool 10 (Work completion posture) Set.
【0 0 4 9】 前記製品ス トッカ 2 1では、 当該製品ス トッカ 2 1において作業を開始するときの作業 開始姿勢 (収納開始姿勢) 、 ハンド 2 9に把持した加工済ワーク を製品ス トッカ 2 1 内に収納するための各作業姿勢 (収納姿勢) 及び収納を完了したときの姿勢 (収納完了姿 勢であり、 本例では、 収納開始姿勢と同じ姿勢) が収納動作姿勢として設定される。[0 0 4 9] In the product stocker 2 1, the work start posture (storage start posture) when the work is started in the product stocker 2 1 and the processed work gripped by the hand 2 9 are held in the product stocker 2 1. Each work posture for storing in 1 (storage posture) and the posture when storage is completed (the storage completion posture, which is the same as the storage start posture in this example) are set as the storage operation postures.
【0 0 5 0】 前記自動運転制御部 4 7は、 前記動作プログラム記憶部 4 1に格納された自動運転用プ ログラム及びマップ生成用プログラムの何れかを用い、 当該プログラムに従って無人搬送 車 3 5 ロボッ ト 2 5及びカメラ 3 1を動作させる機能部である。 その際、 前記移動位置 記憶部 4 2及び動作姿勢記憶部 4 3に格納されたデータが必要に応じて使用される。[0 0 5 0] The automatic driving control unit 4 7 uses either the automatic driving program or the map generation program stored in the operation program storage unit 41, and the automatic guided vehicle 3 5 according to the program. It is a functional part that operates the robot 2 5 and the camera 3 1. At that time, the data stored in the moving position storage unit 4 2 and the operating posture storage unit 4 3 are used as necessary.
【0 0 5 1】 前記基準画像記憶部 4 5は、 ティーチング操作時に、 無人搬送車 3 5が工作機械 1 0に 対して設定された作業位置に在り、 ロボッ ト 2 5が前記撮像姿勢にあるときに、 前記ツー ルプリセッタ 1 3の支持バー 1 5に設けられた識別図形を前記カメラ 3 1により撮像して 得られた画像を、 基準画像として記憶する機能部である。 [0 0 5 1] In the reference image storage unit 4 5, the automatic guided vehicle 3 5 is in the working position set with respect to the machine tool 10 and the robot 2 5 is in the imaging posture during the teaching operation. Sometimes said two This is a functional unit that stores an image obtained by capturing an identification figure provided on the support bar 1 5 of the Lupresetter 1 3 with the camera 3 1 as a reference image.
【 0 0 5 2】 前記補正量算出部 5 0は、 前記自動運転制御部 4 7による制御の下で、 前記動作プログ ラム記憶部 4 1に格納された自動運転用プログラムに従って前記ロボッ ト 2 5が自動運転 される際に、 当該ロボッ ト 2 5が撮像姿勢に在り、 カメラ 3 1によって前記識別図形が撮 像されると、 当該自動運転時に得られた現在の識別図形の画像と、 前記基準画像記憶部 4 5 に格納された基準画像 (ティーチング操作時に撮像された画像) とに基づいて、 ロボッ 卜 2 5の現在の姿勢とティーチング操作時の姿勢との間におけるカメラ 3 1の位置誤差量 であって、 識別図形と平行な平面内で設定される相互に直交する 2軸方向におけるカメラ 3 1の位置誤差量、 及び該平面と直交する垂直軸回りのカメラ 3 1の回転誤差量を推定し 、 推定された各誤差量に基づいて、 前記作業姿勢における前記作用部に対する補正量を算 出する。 [0 0 5 2] The correction amount calculation unit 50 is controlled by the automatic operation control unit 47, and the robot 2 5 is in accordance with the automatic operation program stored in the operation program storage unit 41. When the robot 2 5 is in the imaging posture and the identification figure is imaged by the camera 31 when the robot is automatically operated, the image of the current identification figure obtained during the automatic operation and the reference figure are obtained. Based on the reference image (image captured during the teaching operation) stored in the image storage unit 4 5, the amount of positional error of the camera 3 1 between the current posture of the robot 2 5 and the posture during the teaching operation. Estimate the amount of positional error of the camera 3 1 in the biaxial directions orthogonal to each other set in the plane parallel to the identification figure, and the amount of rotation error of the camera 3 1 around the vertical axis orthogonal to the plane. Then, based on each estimated error amount, the correction amount for the working part in the working posture is calculated.
【 0 0 5 3】 図 6に、 ティーチング操作時にカメラ 3 1によって撮像された識別図形の画像、 即ち、 前記基準画像を示している。 図中、 実線で示した矩形線はカメラ 3 1の視野、 言い換えれ ば基準画像の輪郭である。 また、 図 7に、 自動運転時に得られた現在の識別図形の画像を 実線で示している。 尚、 図 7において、 実線で示した矩形線は現在の画像の輪郭であり、 一点鎖線で示した矩形線は、 基準画像の輪郭である。 この図 7では、 ロボッ ト 2 5のティ ーチング操作時における前記撮像姿勢と、 現在の撮像姿勢にズレが生じたことによって、 基準画像と現在の画像との間にズレが生じていることを表している。 [0 0 5 3] Fig. 6 shows an image of the identification figure captured by the camera 31 during the teaching operation, that is, the reference image. In the figure, the rectangular line shown by the solid line is the field of view of the camera 31, in other words, the outline of the reference image. In addition, Fig. 7 shows the image of the current identification figure obtained during automatic operation with a solid line. In FIG. 7, the rectangular line shown by the solid line is the outline of the current image, and the rectangular line shown by the alternate long and short dash line is the outline of the reference image. Figure 7 shows that there is a discrepancy between the reference image and the current image due to the discrepancy between the imaging posture during the teaching operation of Robot 25 and the current imaging posture. ing.
【 0 0 5 4】 前記補正量算出部 5 0は、 まず、 図 6に示した基準画像を解析することにより、 例えば 、 この基準画像、 言い換えれば、 カメラ 3 1のフレーム上における識別図形から設定され る図形座標系 ( 軸一7 軸座標系) に基づいて、 予め設定された図形座標系 (xt軸一 yt 軸座標系) とロボッ ト座標系 (X軸一 y軸座標系) との間の変換式に従って、 ロボッ 卜座標系 (X軸一y軸座標系) におけるティーチング時のカメラ 3 1の位置 (X t e a c h, y teach, r Z t ea=h)を算出する。 尚、 X軸及び y軸は、 識別図形と平行な相互に直 交する 2軸であって、 ティーチング操作時におけるロボッ ト 2 5の座標系であり、 rzは 、 X軸及び y軸に直交する z軸回りのカメラ 3 1の回転角度である。 また、 本例において 、 前記 xt軸, yt軸、 及び X軸, y軸は水平面内で設定される (後述の X’ 軸及び y’ 軸も同様) 。 [0 0 5 4] The correction amount calculation unit 50 first sets by analyzing the reference image shown in FIG. 6, for example, from this reference image, in other words, the identification figure on the frame of the camera 31. Based on the graphic coordinate system (axis 17 axis coordinate system), the preset graphic coordinate system (x t axis 1 y t axis coordinate system) and robot coordinate system (X axis 1 y axis coordinate system) According to the conversion formula between, the position (X teach , y teach, r Z t ea = h) of the camera 3 1 at the time of teaching in the robot coordinate system (X-axis 1-y-axis coordinate system) is calculated. The X-axis and y-axis are two axes that are parallel to the identification figure and are directly intersecting with each other, and are the coordinate system of robot 25 during the teaching operation. Rz is orthogonal to the X-axis and y-axis. The rotation angle of the camera 3 1 around the z-axis. In this example, the x t axis, y t axis, X axis, and y axis are set in the horizontal plane (the same applies to the X'axis and y'axis described later).
【 0 0 5 5】 次に、 補正量算出部 5 0は、 同様にして、 現在の画像を解析し、 カメラ 3 1のフレーム 上における識別図形から設定される図形座標系 ( 1軸一 7 1軸座標系) に基づいて、 前 記変換式に従って、 ティーチング操作時におけるロボッ ト 2 5の座標系 (X軸一 y軸座標 系) における現在のカメラ 3 1の位置 (xc u r r , y cur r , r z cur r) を算出する。Next, the correction amount calculation unit 50 analyzes the current image in the same manner, and the graphic coordinate system set from the identification graphic on the frame of the camera 3 1 ( 1 axis 1 7 1). Based on the axis coordinate system), according to the above conversion formula, the current position of the camera 3 1 in the coordinate system of Robot 2 5 (X-axis 1 y-axis coordinate system) during the teaching operation (x curr , y cur r , rz cur r ) is calculated.
【 0 0 5 6】 そして、 補正量算出部 5 0は、 X軸一 y軸座標系におけるカメラ 3 1のティーチング操 作時の位置と、 現在の位置との間の位置誤差量 A X , Ay及び回転誤差量 A r zを以下の 数式 1 —数式 3によって推定する。 尚、 z軸回りの回転角度 r zは、 画像の中から所定の 距離を有する適宜 2点を抽出して、 座標軸に対する角度を算出することによって得ること ができる。 [0 0 5 6] Then, the correction amount calculation unit 50 has a position error amount AX, Ay and a position error between the position at the time of teaching operation of the camera 31 in the X-axis 1-y-axis coordinate system and the current position. Estimate the amount of rotation error Arz by the following formula 1 — formula 3. The rotation angle r z around the z-axis can be obtained by extracting two appropriate points with a predetermined distance from the image and calculating the angle with respect to the coordinate axes.
(数式 (Formula
△X ^c △ X ^ c
(数式 (Formula
△ —ノ c △ — ノ c
(数式 (Formula
Arz= T Arz = T
【 0
Figure imgf000010_0001
\¥0 2021/048579 卩(:17132019/001004 ここで、 図 7に示すように、 現在のロボッ ト 2 5の座標系を X ’ 軸一 ’ 軸座標系とし 、 図 8に示すように、 ティーチング時のロボッ ト 2 5の座標系である X軸一 軸座標系と の間に、 X, 1 7の並進誤差が存在すると考えると、 X ’ 軸一 7 ’ 軸座標系における現 在のカメラ 3 1の位置 ( X ’ , 7 ’ ) は、 以下の数式 4によって算出される。 尚、 下式中 の X, 7はそれぞれ X軸一 7軸座標系におけるティーチング時のカメラ 3 1の位置 ( 6 3 = ¾ , であり、 初期設定の値として既知である。
[0
Figure imgf000010_0001
\\ 0 2021/048579 卩 (: 17132019/001004 Here, as shown in Fig. 7, the coordinate system of the current Robot 25 is the X'axis 1'axis coordinate system, and as shown in Fig. 8, teaching Considering that there is a translational error of X, 17 between the X- axis uni-axis coordinate system, which is the coordinate system of Robot 2 5 of the time, the current camera 3 in the X'axis 1 7'-axis coordinate system. The position of 1 (X', 7 ') is calculated by the following formula 4. Note that X and 7 in the following formula are the positions of the camera 3 1 during teaching in the X-axis and 7-axis coordinate systems, respectively ( 6). 3 = ¾ , which is known as the default value.
(数式 4)
Figure imgf000011_0001
そして、 上記の数式 4を変形した下記数式 5によって上記並進誤差 1 X
Figure imgf000011_0002
を算出す ることができ、 補正量算出部 5 0は、 この数式 5に従って、 並進誤差量 I X, を算出 して、 この並進誤差量 X, 1 7及び前記回転誤差量 △ ^ 2を前記作業姿勢における補正 量とする。
(Formula 4)
Figure imgf000011_0001
Then, the translation error 1 X , is calculated by the following formula 5 which is a modification of the above formula 4.
Figure imgf000011_0002
The correction amount calculation unit 50 calculates the translation error amount I X , according to this mathematical formula 5, and calculates the translation error amount X , 17 and the rotation error amount △ ^ 2 as described above. The amount of correction in the working posture.
(数式 5) X’ 005/^å —sίnArz^ X + Ax y^ sinArz (:〇 ! + 但し、 X ’ 軸一 7 ’ 軸座標系における現在のカメラ 3 1の位置 ( X ’ , 7 ’ ) は、 X軸一 7 軸座標系における現在のカメラ 3 1の位置 ( X十 △ X, 7十厶 7) と一致するから、
Figure imgf000011_0003
である。
(Formula 5) X'005 / ^ å — sίnArz ^ X + Ax y ^ sinArz ( : 〇! + However, the current position of the camera 3 1 in the X'axis 1 7'axis coordinate system (X', 7') Is the same as the current position of the camera 3 1 in the X-axis 17-axis coordinate system (X 10 △ X, 7 ㎶ 7).
Figure imgf000011_0003
Is.
【0 0 5 9】 そして、 前記自動運転制御部 4 7は、 ロボッ ト 2 5が工作機械 1 0で作業する際の作業 姿勢、 例えば、 前記ワーク取出動作姿勢における前記取出準備姿勢、 把持姿勢及び取外姿 勢、 並びに前記ワーク取付動作姿勢における取付準備姿勢、 取付姿勢及び離隔姿勢につい て、 前記補正量算出部 5 0において算出された補正量に基づいて、 ロボッ ト 2 5のハンド 2 9に位置を補正する。 [0 0 5 9] Then, the automatic operation control unit 47 is in a working posture when the robot 25 works on the machine tool 10, for example, the taking-out preparation posture, the gripping posture, and the work-taking posture in the work taking-out operation posture. Regarding the removal posture, the mounting preparation posture, the mounting posture, and the separation posture in the work mounting operation posture, the hand 2 9 of the robot 2 5 is based on the correction amount calculated by the correction amount calculation unit 50. Correct the position.
【 0 0 6 0】 例えば、 ロボッ ト 2 5のハンド 2 9をチャック 1 2に対して位置決めする際には、 現在 のロボッ ト 2 5の座標系である X ’ 軸一 ’ 軸座標系におけるハンド 2 9の位置決め位置 が、 ティーチング操作時に設定された X軸一 7軸座標系におけるハンド 2 9の位置決め位 置と一致するように、 X ’ 軸一 7 ’ 軸座標系におけるハンド 2 9の位置決め位置が補正さ れる。 [0 0 6 0] For example, when positioning the hand 2 9 of the robot 2 5 with respect to the chuck 1 2, the hand in the X'axis 1'axis coordinate system, which is the current coordinate system of the robot 2 5. The positioning position of the hand 2 9 in the X'axis 1 7'axis coordinate system so that the positioning position of 2 9 matches the positioning position of the hand 2 9 in the X axis 17 axis coordinate system set during the teaching operation. Is corrected.
【 0 0 6 1】 この補正の態様を図 9に示している。 図 9において、 位置 , 及び位置 X 。, 。はティーチング操作時のロボッ ト座標系である X軸一 軸座標系におけるハ ンド 2 9の設定位置であり、 ハンド 2 9は撮像姿勢における位置 X ? からチャ ック 1 2に対して設定された位置 X 。, V ?。に位置決めされる設定となっている。 前 記作業位置に位置決めされた無人搬送車 3 5及びロボッ ト 2 5に位置ズレが無ければ、 ハ
Figure imgf000011_0004
図 9において、 位置 X ’ ’ 5は、 現在の動作時のロボッ ト座標系である X ’ 軸一 軸座標系における撮像姿勢時のハンド 2 9の位置である。 この位置 ’ , 7 ’ は、 前記作業位置に位置決めされた無人搬送車 3 5及びロボッ ト 2 5に位置ズレが 生じているため、 ティーチング操作時の位置 X 5) , 5)に対して、 位置誤差厶 , 厶 7 、 及び回転誤差厶 ^ 2を生じており、 X ’ 軸一 7 ’ 軸座標系において、 前記 X 7 !>に対応する位置である。 そして、 この X ’ 軸一 ’ 軸座標系において、 前記 。, 。に対応する位置は X ’ 。, ’ 。であるが、 この位置は、 チャック 1 2の真の位 置からズレた位置となっている。 そこで、 自動運転制御部 4 7は、 この ’ 。, 7 ’ \¥0 2021/048579 卩(:17132019/001004
[0 0 6 1] The mode of this correction is shown in FIG. In Figure 9, position and position X. , ,. Is the set position of hand 2 9 in the X-axis uniaxial coordinate system, which is the robot coordinate system during the teaching operation, and hand 2 9 is set for chuck 1 2 from the position X? In the imaging posture. Position X. , V?. It is set to be positioned at. If there is no misalignment between the automatic guided vehicle 3 5 and the robot 2 5 positioned at the work position described above, c.
Figure imgf000011_0004
In FIG. 9, the position X ″ 5 is the position of the hand 2 9 in the imaging posture in the X'axis uniaxial coordinate system, which is the robot coordinate system at the time of the current operation. These positions'and 7'are positioned with respect to the positions X 5 ) and 5 ) during the teaching operation because the automatic guided vehicles 35 and robots 25 positioned at the above working positions are misaligned. An error 厶, 厶 7, and a rotation error 厶 ^ 2 have occurred, and in the X'axis 1 7'axis coordinate system, the above X 7! > Corresponds to the position. Then, in this X'axis one'axis coordinate system, the above. , ,. The position corresponding to is X'. ,'. However, this position is deviated from the true position of chuck 1 2. Therefore, the automatic operation control unit 4 7 is this'. , 7 ' \\ 0 2021/048579 卩 (: 17132019/001004
=を、 前記補正量算出部 5 0によって算出された並進誤差量 1 X, に基づき、 下記数式 6に従って補正した 11 ’ 。, !! ’ 。を算出し、 この補正された位置 X 11 ’ 。, 11 ’ 。にハンド 2 9を移動させるとともに、 前記回転誤差量 △ r 2に基づいて 軸回り のハン ド 2 9の回転姿勢を補正する。 = Was corrected according to the following formula 6 based on the translational error amount 1 X , which was calculated by the correction amount calculation unit 50. ,! !! '. Is calculated and this corrected position X 11'. , 11'. While moving the hand 2 9 to, the rotation posture of the hand 2 9 around the axis is corrected based on the rotation error amount Δr 2.
(数式 6)
Figure imgf000012_0003
尚、 この位置データ X 11 ’ 。, V V h 。は、 予め設定された変換式により、 ロボッ 卜 2 5の各関節の角度データに変換され、 変換された角度データに従って、 ロボッ ト 2 5 は制御される。
(Formula 6)
Figure imgf000012_0003
This position data X 11'. , VV h. Is converted into the angle data of each joint of the robot 25 by a preset conversion formula, and the robot 25 is controlled according to the converted angle data.
【 0 0 6 4】 そして、 ロボッ ト 2 5が工作機械 1 0で作業する各作業姿勢として において設定されたハンド 2 9の各位置 X 1, V ? 1に対応する補 1 1 , V p h 1は、 上記数式 8を一般化した以下の数式 9によって 、 自動運転制御部 4 7は、 前記回転誤差量 △ r 2に基づいて 軸回り 姿勢を補正するとともに、 このよ うにして算出される各補正位置 X
Figure imgf000012_0001
にハン ド 2 9を移動させる。 但し、 1 は 1以上の自然数である。
[0 0 6 4] Then, the supplement 1 1 , V ph 1 corresponding to each position X 1 , V? 1 of the hand 2 9 set in each working posture in which the robot 2 5 works on the machine tool 10 Is a generalization of the above formula 8, and the automatic operation control unit 4 7 corrects the axial posture based on the rotation error amount △ r 2, and is calculated in this way. Correction position X
Figure imgf000012_0001
Move Hand 2 9 to. However, 1 is a natural number greater than or equal to 1.
(数式 9)
Figure imgf000012_0002
以上の構成を備えた本例のシステム 1によれば、 以下のようにして、 無人自動生産が実 行 される。
(Formula 9)
Figure imgf000012_0002
According to the system 1 of this example having the above configuration, unmanned automatic production is carried out as follows.
【0 0 6 6】 即ち、 前記制御装置 4 0の自動運転制御部 4 7による制御の下で、 前記動作プログラム 記憶部 4 1に格納された自動運転用プログラムが実行され、 この自動運転用プログラムに 従って、 例えば、 無人搬送車 3 5及びロボッ ト 2 5が以下のように動作する。 That is, under the control of the automatic operation control unit 47 of the control device 40, the automatic operation program stored in the operation program storage unit 41 is executed, and this automatic operation program is executed. Therefore, for example, the automatic guided vehicle 35 and the robot 25 operate as follows.
【 0 0 6 7】 まず、 無人搬送車 3 5は、 工作機械 1 0に対して設定された作業位置に移動するととも に、 ロボッ ト 2 5は上述したワーク取出動作の作業開始姿勢を取る。 尚、 この時、 工作機 械 1 0は所定の加工を完了して、 ロボッ ト 2 5が加工領域内に侵入可能なようにドアカバ 一を開いており、 また、 自動運転制御部 4 7からの指令を受信して、 前記ツールプリセッ 夕 1 3の支持バー 1 5を加工領域内に進出させているものとする。 [0 0 6 7] First, the automatic guided vehicle 3 5 moves to the work position set for the machine tool 10 and the robot 2 5 takes the work start posture of the work take-out operation described above. At this time, the machine tool 10 has completed the predetermined machining, and the door cover has been opened so that the robot 25 can enter the machining area, and the automatic operation control unit 47 Upon receiving the command, it is assumed that the support bar 15 of the tool preset evening 13 is advanced into the machining area.
【0 0 6 8】 ついで、 ロボッ ト 2 5は前記撮像姿勢に移行し、 前記支持バー 1 5に設けられた識別図 形をカメラ 3 1によって撮像する。 そして、 このよ うにして、 カメラ 3 1によって識別図 形が撮像されると、 前記補正量算出部 5 0において、 当該識別図形の画像と、 前記基準画 像記憶部 4 5に格納された基準画像とを基に、 上記数式 1 — 3に従ってロボッ ト 2 5のテ \¥0 2021/048579 卩(:17132019/001004 ィーチング操作時における撮像姿勢と、 現在の撮像姿勢との間の位置誤差量 △ X 及 び回転誤差量 2が推定され、 推定された各誤差量に基づき、 上述した数式 4一 5に従 って、 ロボッ ト 2 5 1 7及 び回転誤差の補正量
Figure imgf000013_0001
Next, the robot 25 shifts to the imaging posture, and the identification diagram provided on the support bar 15 is imaged by the camera 31. Then, when the identification figure is imaged by the camera 31 in this way, the correction amount calculation unit 50 displays the image of the identification figure and the reference image stored in the reference image storage unit 45. Based on the image, according to the above formulas 1-3, the robot 2 5 \\ 0 2021/048579 卩 (: 17132019/001004 The amount of position error between the imaging posture during the eating operation and the current imaging posture △ X and the rotation error amount 2 are estimated, and each estimated error amount Based on the above formula 4-15, the amount of correction for robot 2 5 1 7 and rotation error
Figure imgf000013_0001
【0 0 6 9】 そして、 自動運転制御部 4 7は、 補正量算出部 5 0により算出された各補正量に基づい て、 以降のワーク取出動作姿勢、 即ち、 上述した取出準備姿勢、 把持姿勢、 取外姿勢及び 作業完了姿勢におけるハンド 2 9の位置を数式 9に従って補正するとともに、 軸回りの 回転位置を補正して、 工作作機械 1 0のチャック 1 2に把持された加工済ワーク をハ ンド 2 9に把持して当該工作機械 1 0から取り出す。 尚、 ロボッ ト 2 5に前記把持姿勢を 取らせた後に、 自動運転制御部 4 7から工作機械 1 0にチャック開指令を送信することで 、 当該チャック 1 2が開かれる。 [0 0 6 9] Then, based on each correction amount calculated by the correction amount calculation unit 50, the automatic operation control unit 47 performs the subsequent work take-out operation posture, that is, the above-mentioned take-out preparation posture and gripping posture. , The position of the hand 2 9 in the removal posture and the work completion posture is corrected according to Equation 9, and the rotation position around the axis is corrected, and the machined workpiece gripped by the chuck 1 2 of the machine tool 10 is c. Grip it to the machine tool 2 9 and take it out from the machine tool 10. After the robot 25 is made to take the gripping posture, the chuck 1 2 is opened by transmitting a chuck opening command from the automatic operation control unit 47 to the machine tool 10.
【0 0 7 0】 次に、 自動運転制御部 4 7は、 無人搬送車 3 5を、 製品ス トッカ 2 1に対して設定され た作業位置に移動させるとともに、 ロボッ ト 2 5に、 当該製品ス トッカ 2 1において作業 を開始するときの収納開始姿勢、 ハンド 2 9に把持した加工済ワークを製品ス トッカ 2 1 内に収納するための各収納姿勢及び収納を完了したときの収納完了姿勢を順次取らせて、 ハンド 2 9に把持した加工済ワークを製品ス トッカ 2 1に収納する。 Next, the automatic operation control unit 4 7 moves the automatic guided vehicle 3 5 to the working position set for the product stocker 2 1 and at the robot 25 for the product. The storage start posture when starting work in the stocker 2 1, each storage posture for storing the processed work gripped in the hand 2 9 in the product stocker 2 1 and the storage completion posture when the storage is completed. Take them in sequence and store the processed workpieces gripped by the hand 2 9 in the product stocker 2 1.
【0 0 7 1】 ついで、 自動運転制御部 4 7は、 無人搬送車 3 5を、 材料ス トッカ 2 0に対して設定さ れた作業位置に移動させるとともに、 ロボッ ト 2 5に、 当該材料ス トッカ 2 0において作 業を開始するときの取出開始姿勢、 当該材料ス トッカ 2 0に収納された加工前ワークをハ ンド 2 9によって把持して、 当該材料ス トッカ 2 0から取り出すための各取出姿勢及び取 出を完了したときの取出完了姿勢を順次取らせて、 ハンド 2 9に加工前ワークを把持させ る。 [0 0 7 1] Next, the automatic operation control unit 4 7 moves the automatic guided vehicle 3 5 to the working position set for the material stocker 2 0, and at the robot 25 the material concerned. The take-out start posture when starting work on the stocker 20 and the work to be taken out from the material stocker 20 by grasping the unprocessed work stored in the material stocker 20 with the hand 2 9. The take-out posture and the take-out completion posture when the take-out is completed are sequentially taken, and the hand 29 is made to grip the work before machining.
【0 0 7 2】 次に、 自動運転制御部 4 7は、 再度、 無人搬送車 3 5を工作機械 1 0に対して設定され た作業位置に移動させるとともに、 ロボッ ト 2 5に上述したワーク取付動作の作業開始姿 勢を取らせる。 ついで、 ロボッ ト 2 5を前記撮像姿勢に移行させ、 前記支持バー 1 5に設 けられた識別図形をカメラ 3 1によって撮像させる。 そして、 このようにして、 カメラ 3 1 によって識別図形が撮像されると、 前記補正量算出部 5 0において、 当該識別図形の画 像と、 前記基準画像記憶部 4 5に格納された基準画像とを基に、 上記数式 1一 3に従って ロボッ ト 2 5のティーチング操作時における撮像姿勢と、 現在の撮像姿勢との間の位置誤 差量 , △ 7及び回転誤差量 △ ^ 2が推定され、 推定された各誤差量に基づき、 上述し た数式 4一 5に従って、 ロボッ ト 2 5の以降のワーク取付動作姿勢に対する並進誤差の補 正量 1 , 1 7及び回転誤差の補正量 △ ^ 2が算出される。 Next, the automatic operation control unit 4 7 again moves the automatic guided vehicle 3 5 to the working position set for the machine tool 10 and the work described above in the robot 25. Get ready to start the installation operation. Then, the robot 25 is moved to the imaging posture, and the identification figure provided on the support bar 15 is imaged by the camera 31. Then, when the identification figure is imaged by the camera 31 in this way, the correction amount calculation unit 50 displays the image of the identification figure and the reference image stored in the reference image storage unit 45. Based on the above equations 1 to 3, the amount of positional error between the imaging posture during the teaching operation of Robot 2 5 and the current imaging posture, △ 7, and the amount of rotation error △ ^ 2 are estimated and estimated. Based on each of the error amounts, the translational error correction amounts 1, 17 and the rotation error correction amount △ ^ 2 for the subsequent workpiece mounting motion posture of Robot 25 are calculated according to the above-mentioned formulas 4-15. Will be done.
【0 0 7 3】 この後、 自動運転制御部 4 7は、 補正量算出部 5 0により算出された各補正量に基づい て、 以降のロボッ ト 2 5のワーク取付動作姿勢、 即ち、 上述した取付準備姿勢、 取付姿勢 、 離隔姿勢及び作業完了姿勢におけるハンド 2 9の位置を数式 9に従って補正するととも に、 軸回りの回転位置を補正して、 ロボッ ト 2 5に、 ハンド 2 9に把持された加工前ワ ーク を工作機械 1 0のチャック 1 2に取り付けた後、 機外に退出する動作を行わせる。 この後、 自動運転制御部 4 7は、 工作機械 1 0に加工開始指令を送信して、 工作機械 1 0 に加工動作を行わせる。 尚、 ロボッ ト 2 5に前記取付姿勢を取らせた後に、 自動運転制御 部 4 7から工作機械 1 0にチャック閉指令を送信することで、 当該チャック 1 2が閉じら れ、 当該チャック 1 2によって加工前ワーク が把持される。 [0 0 7 3] After that, the automatic operation control unit 4 7 uses the correction amount calculated by the correction amount calculation unit 50 to obtain the subsequent work mounting operation postures of the robot 25, that is, described above. The position of the hand 2 9 in the mounting preparation posture, the mounting posture, the separation posture, and the work completion posture is corrected according to Equation 9, and the rotation position around the axis is corrected, and the robot 25 is gripped by the hand 2 9. After attaching the pre-machining work to the chuck 1 2 of the machine tool 10 and then letting it move out of the machine. After that, the automatic operation control unit 47 sends a machining start command to the machine tool 10 to cause the machine tool 10 to perform the machining operation. After the robot 2 5 is made to take the mounting posture, the automatic operation control unit 47 sends a chuck closing command to the machine tool 10 to close the chuck 1 2 and the chuck 1 2 The work before machining is gripped by.
【0 0 7 4】 そして、 以上を繰り返すことにより、 本例のシステム 1では、 無人自動生産が連続して 実行される。 By repeating the above, unmanned automatic production is continuously executed in the system 1 of this example.
【0 0 7 5】 \¥0 2021/048579 卩(:17132019/001004 そして、 本例のシステム 1では、 ロボッ ト 2 5が実際に作業する工作機械 1 0の加工領 域内に配置された識別図形を用いて、 ロボッ ト 2 5の作業姿勢を補正するようにしている ので、 当該作業姿勢を正確に補正することができ、 これにより、 ロボッ ト 2 5は、 高い動 作精度が求められる作業でも、 当該作業を精度良く実行することができる。 [0 0 7 5] \\ 0 2021/048579 卩 (: 17132019/001004 And in system 1 of this example, the robot 2 5 uses the identification figure placed in the processing area of the machine tool 10 that the robot actually works on. Since the working posture of 25 is corrected, the working posture can be corrected accurately, and as a result, Robot 25 can perform the work accurately even in the work that requires high motion accuracy. Can be executed.
【 0 0 7 6】 また、 このように、 ロボッ ト 2 5が精度の良い作業を実行することで、 当該システム 1 は不要な中断を招く ことなく高い稼働率で稼働し、 結果、 当該システム 1によれば、 信頼 性が高く、 生産効率の高い無人化を図ることが可能となる。 [0 0 7 6] In this way, the robot 2 5 performs accurate work, so that the system 1 operates at a high operating rate without causing unnecessary interruption, and as a result, the system 1 According to the report, it is possible to achieve unmanned operation with high reliability and high production efficiency.
【 0 0 7 7】 また、 動作プログラムに従って動作するロボッ ト 2 5は、 カメラ 3 1によって識別図形 を撮像する際に、 一度の動作でこれを実行するように構成されているので、 従来に比べて 、 短時間で精度の良い補正を行うことができる。 [0 0 7 7] In addition, the robot 2 5 that operates according to the operation program is configured to execute this in one operation when the identification figure is imaged by the camera 3 1, so that it is compared with the conventional one. Therefore, accurate correction can be performed in a short time.
【 0 0 7 8】 また、 本例では、 工作機械 1 0が加工を実行しているときには、 加工領域外に格納され るツールプリセッタ 1 3の支持バー 1 5に識別図形を設けているので、 当該識別図形が加 エ時に発生する切屑等によって汚損されるのを防止することができ、 この結果、 上記補正 を精度良く行うことができる。 [0 0 7 8] In this example, when the machine tool 10 is performing machining, an identification figure is provided on the support bar 1 5 of the tool presetter 1 3 stored outside the machining area. , It is possible to prevent the identification figure from being soiled by chips or the like generated at the time of addition, and as a result, the above correction can be performed with high accuracy.
【 0 0 7 9】 また、 本例では、 前記識別図形を、 複数の画素が二次元に配列されたマ トリクス構造を 有するものと しているので、 前記位置誤差量 △ X, △ 7、 及び回転誤差量 △ ^ 2 を高精度 に、 しかも高い繰り返し精度で推定することができる。 [0 0 7 9] Further, in this embodiment, the discrimination figure, since a plurality of pixels are assumed to have a Ma Torikusu structure arranged in a two-dimensional, the position error amount △ X, △ 7 and, The amount of rotation error △ ^ 2 can be estimated with high accuracy and high repeatability.
【0 0 8 0】 以上、 本発明の一実施の形態について説明したが、 本発明が採り得る具体的な態様は、 何らこれに限定されるものではない。 Although one embodiment of the present invention has been described above, the specific embodiments that the present invention can take are not limited thereto.
【0 0 8 1】 例えば、 上述した各実施形態では、 前記識別図形として、 複数の画素が二次元に配列さ れたマト リクス構造を備えたものを採用したが、 これに限られるものではなく、 撮像画像 からロボッ ト 2 5の姿勢の補正量を算出することができるものであれば、 様々な図形を採 用することができる。 [0 0 8 1] For example, in each of the above-described embodiments, as the identification figure, a figure having a matrix structure in which a plurality of pixels are arranged two-dimensionally is adopted, but the present invention is not limited to this. , Various figures can be used as long as the correction amount of the posture of Robot 25 can be calculated from the captured image.
【0 0 8 2】 また、 上例では、 X軸及び 7軸方向の位置誤差、 及び 2軸回り回転誤差を補正するよう にしたが、 これに限られるものではなく、 前記補正量算出部 5 0は、 2軸方向の位置誤差 量を推定して、 これに対応する補正量を算出するよ うに構成され、 また、 前記自動運転制 御部 4 7は、 算出された 軸方向の補正量に基づいて、 ロボッ ト 2 5の各作業姿勢におけ る 軸方向の位置を補正するように構成されていても良い。 尚、 2軸方向の位置誤差量は 、 例えば、 基本画像大きさと現在の画像大きさとの倍率から算出することができる。[0 0 8 2] In the above example, the position error in the X-axis and 7-axis directions and the rotation error around the 2-axis are corrected, but the present invention is not limited to this, and the correction amount calculation unit 5 0 is configured to estimate the amount of position error in the two axial directions and calculate the corresponding correction amount, and the automatic operation control unit 47 is the calculated amount of correction in the axial direction. Based on this, it may be configured to correct the axial position in each working position of Robot 25. The amount of position error in the two-axis direction can be calculated, for example, from the magnification of the basic image size and the current image size.
【 0 0 8 3】 また、 上例では、 無人搬送車 3 5を用いた態様を例示したが、 これに限定されるもので はない。 一般的な台車のように人が押して移動可能な搬送装置でもよい。 この搬送装置上 にロボッ ト 2 5を搭載し、 人力により当該搬送装置を工作機械 1 0の作業位置に搬送して 、 当該ロボッ ト 2 5により工作機械 1 0に対してワークの着脱を実行させる態様としても 良い。 [0 0 8 3] Further, in the above example, an embodiment using an automatic guided vehicle 35 has been illustrated, but the present invention is not limited to this. It may be a transport device that can be pushed and moved by a person like a general trolley. A robot 25 is mounted on this transfer device, and the transfer device is manually transported to the working position of the machine tool 10 and the machine tool 10 is made to attach / detach the workpiece by the robot 25. It may be an embodiment.
【 0 0 8 4】 また、 上例では、 工作機械として立形の旋盤を例示したが、 これに限られるものではな く、 横形の旋盤、 立形及び横形のマシニングセンタの他、 工具主軸とワーク主軸を備えた 複合加工型の加工機械など、 従前公知のあらゆる工作機械を適用することができる。[0 0 8 4] In the above example, a vertical lathe was illustrated as a machine tool, but it is not limited to this, and in addition to horizontal lathes, vertical and horizontal machining centers, tool spindles and workpieces. Any previously known machine tool, such as a multi-tasking machine with a spindle, can be applied.
【 0 0 8 5】 また、 上述した例では、 ロボッ ト座標系の内、 X軸及び 軸 (X ’ 軸及び ’ 軸) を水 平面内で設定し、 2軸を垂直方向に設定したが、 これに限られるものではなく、 座標軸の 方向は任意に設定することができる。 識別図形の座標軸 X I軸, 軸についても同様で \¥02021/048579 卩(:17132019/001004 ある。 [0 0 8 5] In the above example, the X-axis and the axes (X'axis and'-axis) are set in the horizontal plane and the two axes are set in the vertical direction in the robot coordinate system. Not limited to this, the direction of the coordinate axes can be set arbitrarily. The same applies to the coordinate axes of the identification figure, XI axes, and axes. \\ 020 21/048579 卩 (: 17132019/001004).
【00 8 6】 繰り返しになるが、 上述した実施形態の説明は、 すべての点で例示であって、 制限的な ものではない。 当業者にとって変形および変更が適宜可能である。 本発明の範囲は、 上述 の実施形態ではなく、 特許請求の範囲によって示される。 さらに、 本発明の範囲には、 特 許請求の範囲内と均等の範囲内での実施形態からの変更が含まれる。 [00 8 6] Again, the description of the embodiments described above is exemplary in all respects and is not restrictive. Modifications and changes can be made as appropriate for those skilled in the art. The scope of the present invention is indicated by the scope of claims, not by the embodiments described above. Further, the scope of the present invention includes modifications from the embodiment within the scope of the claims and within the scope of the claims.
【符号の説明】 [Explanation of symbols]
【00 8 7】 [00 8 7]
1 システム 1 system
1 0 工作機械 1 1 主軸 1 0 Machine tool 1 1 Spindle
1 2 チャック 1 2 chuck
1 3 ツールプリセッタ 1 3 Tool presetter
14 接触子 支持バー 表示板 14 Contact support bar Display board
2 0 材料ス トッカ 2 1 製品ス トッカ 2 5 ロボ、ソ ト 2 0 Material Stocker 2 1 Product Stocker 2 5 Robo, Soto
2 9 ハンド 2 9 hands
31 カメラ 31 camera
35 無人搬送車 35 Automatic guided vehicle
3 7 操作盤 3 7 Operation panel
40 制御装置 40 Control unit
41 動作プログラム記憶部 41 Operation program storage
42 移動位置記憶部 42 Moving position storage
43 動作姿勢記憶部 43 Motion posture memory
44 マ ップ情報記憶部 44 Map Information Storage
45 基準画像記憶部 45 Reference image storage
46 手動運転制御部 46 Manual operation control unit
47 自動運転制御部 47 Automatic operation control unit
48 マ ップ情報生成部 48 Map information generator
49 位置認識部 49 Position recognition unit
50 補正量算出部 50 Correction amount calculation unit
51 入出カインターフヱース 加工前ワーク ’ 加工済ワーク 51 Input / Exit Cainter Face Work before processing ‘Processed work

Claims

\¥0 2021/048579 卩(:171 2019/001004\\ 0 2021/048579 卩 (: 171 2019/001004
【書類名】 請求の範囲 【請求項 1】 ワークに対して所定の加工を行う工作機械と、 画像を撮像するカメラ、 及び前記ワークに対して作用する作用部を有し、 前記工作機械 に対して作業を行うロボッ トと、 前記ロボッ トを搭載し、 前記工作機械に対して設定された作業位置に移動可能に構成さ れた搬送装置と、 予め設定された動作指令を含む動作プログラムに従って、 前記ロボッ トに、 作業開始姿 勢、 前記工作機械に設けられた姿勢補正用の識別図形に対して前記カメラを正対させるこ とにより、 該カメラよって前記識別図形を撮像する撮像姿勢、 前記ワークに対して前記作 用部を作用させるための 1以上の作業姿勢を順次取らせるように構成された制御装置とを 備え、 前記作業開始姿勢、 撮像姿勢及び作業姿勢は、 前記ロボッ トをティーチング操作するこ とによって予め設定されるシステムであって、 前記識別図形は、 所定の平面上に形成されるとともに、 前記工作機械の加工領域内に配 置され、 前記制御装置は、 前記ティーチング操作時に、 前記ロボッ トを撮像姿勢に移行させた状 態で、 前記カメラによって撮像される前記識別図形の画像を基準画像として予め記憶し、 前記動作プログラムに従って、 前記ロボッ トを動作させる際に、 前記搬送装置が前記作業 位置に移動した状態で、 前記ロボッ トを、 前記作業開始姿勢から前記撮像姿勢に移行させ た後に前記カメラにより撮像される前記識別図形の画像、 及び前記基準画像に基づいて、 前記ロボッ トの現在の姿勢とティーチング操作時の姿勢との間における前記カメラの位置 の誤差量であって、 前記識別図形と平行な平面内で設定される相互に直交する 2軸方向に おける前記カメラの位置誤差量、 及び該平面と直交する垂直軸回りの前記カメラの回転誤 差量を推定し、 推定された各誤差量に基づいて、 前記作業姿勢における前記作用部に対す る補正量を算出し、 算出した補正量に基づいて、 前記作業姿勢における前記作用部の位置 を補正するように構成されたシステム。 [Document name] Scope of claim [Claim 1] A machine tool that performs predetermined processing on a workpiece, a camera that captures an image, and an acting part that acts on the workpiece, and the workpiece is According to an operation program including a robot for performing work, a transfer device equipped with the robot and configured to be movable to a work position set for the machine tool, and a preset operation command. The work start posture, the imaging posture in which the camera is made to face the identification figure for posture correction provided in the machine tool, and the imaging posture in which the identification figure is imaged by the camera, and the work. A control device configured to sequentially take one or more working postures for operating the working unit is provided, and the working start posture, the imaging posture, and the working posture are the teaching operations of the robot. This is a preset system, in which the identification figure is formed on a predetermined plane and arranged in the machining area of the machine tool, and the control device is used during the teaching operation. When the robot is moved to the imaging posture, the image of the identification figure captured by the camera is stored in advance as a reference image, and the robot is operated according to the operation program. Based on the image of the identification figure captured by the camera after shifting the robot from the work start posture to the imaging posture and the reference image, the robot is moved to the working position. The amount of error in the position of the camera between the current posture of the camera and the posture during the teaching operation, which is the amount of error in the position of the camera in two axes perpendicular to each other set in a plane parallel to the identification figure. The amount of positional error and the amount of rotation error of the camera around the vertical axis orthogonal to the plane are estimated, and the amount of correction for the working part in the working posture is calculated based on each estimated error amount. , A system configured to correct the position of the working part in the working posture based on the calculated correction amount.
【請求項 2】 前記制御装置は、 前記 2軸を、 前記ティーチング操作時におけるロボッ トの姿勢に対応した座標系である X 軸及び 7軸として、 該 軸一 7軸座標系における前記カメラの位置誤差量 △ X, 7、 及び X軸及び 7軸に直交する 2軸回りの前記カメラの回転誤差量 △ r 2を推定し、 推定した位置誤差量 , 7、 及び回転誤差量 △ ^ 2に基づいて、 前記 X軸一 軸座 標系における、 ティーチング操作時と現在との間の前記作用部の並進誤差量 1: , を 下記の数式によって算出し、 算出された並進誤差量 1 , 及び回転誤差量 2 に基づいて、 前記各作業姿勢 における前記作用部の位置を補正するように構成された請求項 1記載のシステム。
Figure imgf000016_0001
但し、 この数式において、 X, 7は、 X軸一 7軸座標系におけるティーチング操作時の 前記カメラの位置であり、 X ’ , は、 前記ロボッ トの現在の姿勢に対応した座標系で ある X ’ 軸一 軸座標系における現在の前記カメラの位置である。
2. The control device uses the two axes as the X-axis and the seven-axis, which are coordinate systems corresponding to the posture of the robot during the teaching operation, and the position of the camera in the seven-axis coordinate system. Estimate the amount of error △ X, 7 , and the amount of rotation error △ r 2 of the camera around the X-axis and the two axes orthogonal to the X-axis, and based on the estimated amount of position error, 7 , and the amount of rotation error △ ^ 2 . Then, in the X-axis uniaxial coordinate system, the translational error amount 1: of the working part between the teaching operation and the present is calculated by the following formula, and the calculated translational error amount 1 and the rotation error. The system according to claim 1, which is configured to correct the position of the working part in each of the working postures based on the quantity 2.
Figure imgf000016_0001
However, in this formula, X and 7 are the positions of the camera during the teaching operation in the X-axis and 17-axis coordinate systems, and X', is the coordinate system corresponding to the current posture of the robot. 'The current position of the camera in the uniaxial coordinate system.
【請求項 3】 前記制御装置は、 前記並進誤差量 , 及び回転誤差量 △ ^ 2 に基づいて、 前記ロボッ トの現在の 姿勢に対応した座標系である X ’ 軸一 軸座標系での、 前記各作業姿勢における前記作 用部の補正された位置 X 11 ’ 7 11 ’ 1を下記の数式により算出し、 前記各作業姿勢において、 前記作用部を補正された位置 X 11 ’ ’ 1に位置 決めするとともに、 前記回転誤差量 △ ^ 2を補償するように、 前記作用部を前記 2軸回り に回転させるように構成された請求項 2記載のシステム。 \¥0 2021/048579 卩(:171 2019/001004
Figure imgf000017_0001
但し、 この数式において、 1 は 1以上の自然数であり、 X ? 1 , は、 ティーチン グ操作時に設定された X軸一 7軸座標系における前記作用部の位置である。
3. The control device is based on the translational error amount and the rotation error amount Δ ^ 2, and is in the X'axis uniaxial coordinate system, which is the coordinate system corresponding to the current posture of the robot. The corrected position X 11 '7 11 ' 1 of the working part in each working posture is calculated by the following formula, and the corrected position X 11'' 1 of the working part in each working posture is calculated. The system according to claim 2, wherein the working part is configured to rotate around the two axes so as to determine and compensate for the rotation error amount Δ ^ 2. \\ 0 2021/048579 卩 (: 171 2019/001004
Figure imgf000017_0001
However, in this formula, 1 is a natural number of 1 or more, and X? 1, is the position of the action part in the X-axis 17-axis coordinate system set at the time of the teaching operation.
【請求項 4】 前記搬送装置は、 前記制御装置によって制御される無人搬送車であり、 前記制御装置に よる制御の下、 前記工作機械に対して設定された前記作業位置に経由するように構成され ていることを特徴とする請求項 1記載のシステム。 4. The automatic guided vehicle is an automatic guided vehicle controlled by the control device, and is configured to pass through the working position set for the machine tool under the control of the control device. The system according to claim 1, wherein the system is characterized by being used.
【請求項 5】 前記識別図形は、 複数の画素が二次元に配列されたマト リクス構造を有するものである 請求項 1記載のシステム。 5. The system according to claim 1, wherein the identification figure has a matrix structure in which a plurality of pixels are arranged two-dimensionally.
【請求項 6】 工作機械に設けられた識別図形を含む画像を撮像するためのカメラと、 ワークに作用す る作用部とを有するロボッ トが搭載され、 前記ロボッ トが前記ワークを保持可能な第 1位 置に、 前記ロボッ トを搬送するための搬送装置が、 前記ロボッ トを前記第 1位置に搬送し た後に、 前記工作機械に設けられた前記識別図形を含む画像を前記カメラにより撮像し、 前記画像の前記識別図形の位置情報に応じて X軸と V軸と 軸の 3次元空間における前記 X 軸と前記 V軸における前記作用部の第 2位置を直線移動と回転移動とを前記作用部にさ せることにより補正し、 前記第 2位置を補正した後に、 前記工作機械の内部でワークに前 記作用部を作用させる、 ワークを加工するための工作機械であって、 前記識別図形は前記工作機械の加工領域内に配置されていることを特徴とする工作機械 6. A robot provided in a machine tool for capturing an image including an identification figure and a robot having an acting portion acting on the work are mounted, and the robot can hold the work. In the first position, the transport device for transporting the robot transports the robot to the first position, and then the camera captures an image including the identification figure provided on the machine tool. Then, according to the position information of the identification figure in the image, the second position of the action part on the X-axis and the V-axis in the three-dimensional space of the X-axis, the V-axis, and the axis is linearly moved and rotationally moved. It is a machine tool for machining a work, in which the above-mentioned acting part is made to act on the work inside the machine tool after the correction is made by putting it on the working part and the second position is corrected. Is a machine tool, characterized in that it is located within the machining area of the machine tool.
PCT/IB2019/001004 2019-09-11 2019-09-11 System and machine tool WO2021048579A1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/IB2019/001004 WO2021048579A1 (en) 2019-09-11 2019-09-11 System and machine tool
US17/642,573 US20220331970A1 (en) 2019-09-11 2020-09-10 Robot-mounted moving device, system, and machine tool
CN202080064275.5A CN114728414A (en) 2019-09-11 2020-09-10 Mobile device with robot, system and machine tool
EP20864229.8A EP4013578A4 (en) 2019-09-11 2020-09-10 Robot-mounted moving device, system, and machine tool
PCT/US2020/050073 WO2021050646A1 (en) 2019-09-11 2020-09-10 Robot-mounted moving device, system, and machine tool
JP2021526426A JP7482364B2 (en) 2019-09-11 2020-09-10 Robot-mounted mobile device and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2019/001004 WO2021048579A1 (en) 2019-09-11 2019-09-11 System and machine tool

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
USPCT/US2019/050641 Continuation-In-Part 2019-09-11 2019-09-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/642,573 Continuation-In-Part US20220331970A1 (en) 2019-09-11 2020-09-10 Robot-mounted moving device, system, and machine tool

Publications (1)

Publication Number Publication Date
WO2021048579A1 true WO2021048579A1 (en) 2021-03-18

Family

ID=74866149

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2019/001004 WO2021048579A1 (en) 2019-09-11 2019-09-11 System and machine tool

Country Status (1)

Country Link
WO (1) WO2021048579A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116175256A (en) * 2023-04-04 2023-05-30 杭州纳志机器人科技有限公司 Automatic positioning method for loading and unloading of trolley type robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572102A (en) * 1995-02-28 1996-11-05 Budd Canada Inc. Method and apparatus for vision control of welding robots
US20090096148A1 (en) * 2007-10-10 2009-04-16 Denso Corporation Workpiece grasper and workpiece transfer apparatus using the same
US20160059419A1 (en) * 2014-09-03 2016-03-03 Canon Kabushiki Kaisha Robot apparatus and method for controlling robot apparatus
US20160082598A1 (en) * 2013-05-17 2016-03-24 Loxin 2002, S.L. Head and automated mechanized method with vision
CN109927012A (en) * 2019-04-08 2019-06-25 清华大学 Mobile crawl robot and automatic picking method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572102A (en) * 1995-02-28 1996-11-05 Budd Canada Inc. Method and apparatus for vision control of welding robots
US20090096148A1 (en) * 2007-10-10 2009-04-16 Denso Corporation Workpiece grasper and workpiece transfer apparatus using the same
US20160082598A1 (en) * 2013-05-17 2016-03-24 Loxin 2002, S.L. Head and automated mechanized method with vision
US20160059419A1 (en) * 2014-09-03 2016-03-03 Canon Kabushiki Kaisha Robot apparatus and method for controlling robot apparatus
CN109927012A (en) * 2019-04-08 2019-06-25 清华大学 Mobile crawl robot and automatic picking method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116175256A (en) * 2023-04-04 2023-05-30 杭州纳志机器人科技有限公司 Automatic positioning method for loading and unloading of trolley type robot
CN116175256B (en) * 2023-04-04 2024-04-30 杭州纳志机器人科技有限公司 Automatic positioning method for loading and unloading of trolley type robot

Also Published As

Publication number Publication date
JP2022530589A (en) 2022-06-30

Similar Documents

Publication Publication Date Title
JP6785931B1 (en) Production system
US20220331970A1 (en) Robot-mounted moving device, system, and machine tool
CN111182178B (en) Imaging device and machine tool
EP1621296A1 (en) Transfer robot system comprising a manipulator and a temporary container depository moving synchronously with the manipulator
CN111470309A (en) Following robot and operation robot system
JP6913833B1 (en) Work mounting system
WO2023032400A1 (en) Automatic transport device, and system
WO2021048579A1 (en) System and machine tool
WO2022091767A1 (en) Image processing method, image processing device, robot mounted-type conveyance device, and system
JP6832408B1 (en) Production system
WO2022097536A1 (en) Robot-mounted mobile device and positioning control method for system
WO2022264597A1 (en) Robot system
WO2022195938A1 (en) Robot system positioning accuracy measurement method
JP6906724B1 (en) Machine Tools
JP7482364B2 (en) Robot-mounted mobile device and system
JP6851535B1 (en) Setting method using teaching operation
JP7015949B1 (en) Sticking position measuring device and machine tool equipped with it
JP2024068115A (en) Robot-mounted moving device
JPH04269147A (en) Work feeding device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19945112

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19945112

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP