WO2022196052A1 - 貼着位置測定装置及びこれを備えた工作機械 - Google Patents

貼着位置測定装置及びこれを備えた工作機械 Download PDF

Info

Publication number
WO2022196052A1
WO2022196052A1 PCT/JP2022/000678 JP2022000678W WO2022196052A1 WO 2022196052 A1 WO2022196052 A1 WO 2022196052A1 JP 2022000678 W JP2022000678 W JP 2022000678W WO 2022196052 A1 WO2022196052 A1 WO 2022196052A1
Authority
WO
WIPO (PCT)
Prior art keywords
axis
identification
machine tool
camera
robot
Prior art date
Application number
PCT/JP2022/000678
Other languages
English (en)
French (fr)
Inventor
秀樹 長末
勇太 大場
Original Assignee
Dmg森精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dmg森精機株式会社 filed Critical Dmg森精機株式会社
Publication of WO2022196052A1 publication Critical patent/WO2022196052A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Definitions

  • the present invention relates to a measuring device for measuring the sticking position of an identification figure on a supporting member to which the identification figure is attached, and a machine tool equipped with this measuring device.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2017-132002.
  • This production system is equipped with a robot system consisting of a robot and an unmanned guided vehicle equipped with the robot. It is configured to perform operations such as attachment and detachment.
  • the automatic guided vehicle is generally self-propelled by wheels, and the positioning accuracy with respect to the machine tool is not necessarily high. Therefore, when a robot performs work on a machine tool, it is necessary to correct an error that occurs when the automatic guided vehicle is positioned with respect to the machine tool so that the work can be performed accurately.
  • the automatic guided vehicle is configured to move by means of wheels having elasticity, the posture of the robot tends to tilt when the tip portion (hand portion) of the robot is moved into the machine tool. have. Therefore, it is necessary to accurately correct the posture of the robot when performing work within the machine tool.
  • an identification figure (identification figure) is placed inside the machine tool, and this identification figure is attached to the tip of the robot.
  • a method of correcting the posture of a robot based on an image of an identification figure obtained by taking an image with a camera has been proposed.
  • this correction method first, when each working posture of the robot is set by a teaching operation, the automatic guided vehicle is moved to a predetermined working position with respect to the machine tool, and then the tip of the robot is moved. The part is inserted into the machine tool, and an identification figure (identification figure) placed inside the machine tool is imaged as a reference image by a camera attached to the tip of the robot, and during this teaching data relating to the posture (imaging posture) of the robot and the reference image.
  • the robot system when the robot system is to be automatically operated, after moving the automatic guided vehicle to the work position set with respect to the machine tool, the robot is first made to take the imaging posture and placed inside the machine tool.
  • the figure for identification identification figure
  • the figure for identification thus obtained is imaged by a camera attached to the tip of the robot.
  • the attitude error amount between the imaging attitude at the time of teaching and the current imaging attitude is calculated, and the obtained error amount is Based on this, each subsequent work posture of the robot is corrected.
  • a sticker on which the identification figure is drawn is appropriately attached to a support member, and the support member to which the sticker is attached is attached to the machine tool. It is designed to be installed inside the aircraft.
  • the correction using the identification graphic is performed. It will be placed in the processing area.
  • the identification figure is used at such a high frequency, the probability that the sticker with the identification figure comes into contact with chips, coolant, etc. existing in the machining area increases, so contact with such chips, coolant, etc.
  • the seal may be damaged due to the use of a large amount of water, and the seal may also be damaged due to age deterioration or the like.
  • the teaching operation is executed again to reset the previously set imaging posture during teaching, and the identification image is re-captured to serve as a reference. It is necessary to update the captured image during teaching.
  • the amount of positional error between the attaching position of the old sticker before replacement and the attaching position of the new sticker can be calculated. can be calculated. Then, if the positional error amount can be calculated, the current reference image with the new sticker is corrected by correcting the reference image of the old sticker obtained during the teaching operation based on this positional error amount. That is, it is possible to generate a reference image that would be obtained by capturing an image of a new sticker with a camera when the robot assumes the imaging posture for the teaching operation.
  • the reference image corrected as described above can be used without resetting by a complicated teaching operation.
  • To calculate a posture error amount of a robot, and to correct each work posture of the robot based on the obtained posture error amount, thereby preventing a decrease in the operating rate of a production system. can be done.
  • the present invention has been made in view of the above circumstances, and provides a sticking position measuring device capable of measuring the sticking position of a sticker on which an identification figure is drawn on a supporting member, and a machine tool equipped with the same. Its purpose is to provide machines.
  • the present invention for solving the above problems is A device for measuring the sticking position of a sticker on which an identification figure is drawn on a support member, a holding portion that holds the support member; a camera that is held by the holding portion and captures an image of the support member to which the seal is attached; a position information calculation unit that processes an image including the support member and the sticker captured by the camera and calculates position information of the identification figure based on a reference portion set on the support member. It relates to a landing position measuring device.
  • this sticking position measuring device first, the support member to which the seal is stuck is held by the holding part. In doing so, the support member is held on the holding part in such a way that a constant holding relationship with the holding part is ensured. Also, the holding part and the camera are arranged so as to ensure a constant positional relationship with each other.
  • the supporting member held by the holding portion is imaged by a camera to obtain an image including the supporting member and the seal.
  • the image including the support member and the sticker captured by the camera is processed by the position information calculation unit, and the position information of the identification figure is calculated based on the reference portion set on the support member.
  • the position information of the identification figure is calculated from the image including the supporting member and the sticker with reference to the reference portion set on the supporting member.
  • the shape of the identification figure is not limited at all, one example is a rectangular one, and another example is a matrix in which a plurality of square pixels are arranged two-dimensionally. Those having a structure can be exemplified.
  • the positional information of the identification figure is, for example, the position of the identification figure in two orthogonal directions of the first axis and the second axis set on the attachment surface of the support member with reference to the reference part, and the position of the identification figure in the direction of the first axis and the rotation angle of the identification figure around a third axis perpendicular to the second axis.
  • the position of the identification figure in the direction of the first axis and the second axis is, for example, the coordinate value at which the predetermined portion set for the identification figure is located in the coordinate system with the first axis and the second axis as the reference axes. defined as
  • the position information further includes the position of the identification figure in the direction of a third axis perpendicular to the first axis and the second axis, the rotation angle of the identification figure about the first axis, and the The rotation angle of the identification figure around two axes can be included. Thereby, it is possible to obtain the positional information of the identification figure in the three-dimensional space.
  • the sticking position measuring device having the above configuration can be incorporated into a machine tool.
  • a tool spindle for holding a tool, a tailstock device, a turret, a structure provided in the vicinity of a chuck, or a touch sensor support member constituting a tool presetter, which constitutes a machine tool. can be assigned at least one of Further, as the camera, an in-machine camera provided inside the machine for imaging the inside of the machining area of the machine tool can be assigned. Also, the position information calculation unit can be constructed in the control device of the machine tool.
  • the machine tool that constitutes a part of the production system and is the work target of the robot system can be used for correcting the posture of the machine tool. It is possible to measure the sticking position of the seal with respect to the supporting member, and furthermore, by using the measurement result, it is possible to correct the working posture of the robot in the machine tool. Therefore, even when the seal attached to the supporting member is replaced, the working posture of the robot during automatic operation can be corrected without resetting by a troublesome teaching operation.
  • the position information of the identification figure is calculated with reference to the reference portion set on the support member from the image including the support member and the sticker on which the identification image is drawn. can be done.
  • FIG. 1 is a plan view showing a schematic configuration of a production system to which a sticking position measuring device according to one embodiment of the present invention is applied;
  • FIG. 2 is a block diagram showing the configuration of the production system of FIG. 1;
  • FIG. 1 is a perspective view showing a main part of a machine tool that constitutes a production system;
  • FIG. 1 is a perspective view showing a robot system that constitutes a production system;
  • FIG. It is a perspective view showing the sticking position measuring device according to the present embodiment. It is the front view which showed the seal
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment;
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment
  • FIG. 4 is an explanatory diagram for explaining a position error amount calculation method according to the present embodiment
  • FIG. 10 is a perspective view showing a sticking position measuring device according to another embodiment of the present invention.
  • the production system 1 of this example is composed of a robot system 24, a machine tool 10, a material stocker 20 and a product stocker 21 as peripheral devices, etc.
  • the robot system 24 is , an automatic guided vehicle 35, a robot 25 mounted on the automatic guided vehicle 35, a control device 40 for controlling the robot 25 and the automatic guided vehicle 35, and the like.
  • the machine tool 10 is a compound processing type NC machine tool controlled by a numerical controller (not shown).
  • a numerical controller not shown
  • FIG. 3 shows a state in which a holder 16 as a support member to which a seal S is adhered is attached to the tool spindle 15 instead of a state in which a tool is attached.
  • an identification figure as shown in FIG. 6 is drawn on the seal S. As shown in FIG. This identification figure is a rectangular black pattern, and in FIG. 6, the black rectangular portion is hatched.
  • the tool spindle 15 is driven by a first X m -axis feed mechanism, a first Y m -axis feed mechanism, and a first Z m -axis feed mechanism (not shown) under the control of a numerical controller (not shown ) . It moves in the m -axis and Zm -axis directions, and similarly, the tool rest 17 moves in the Xm -axis and Zm -axis directions by a second Xm-axis feed mechanism and a second Zm-axis feed mechanism ( not shown ) .
  • the Zm-axis is a feed axis parallel to the axes of the first spindle 11 and the second spindle 13, the Xm -axis is a feed axis perpendicular to the Z-axis in the horizontal plane, and the Ym -axis is a feed axis in the vertical direction. It is the feed axis.
  • a first chuck 12 is attached to the first spindle 11 and a second chuck 14 is attached to the second spindle 13.
  • the first and second chucks 12 and 14 the workpiece W to be machined is and both ends of the machined work W' are gripped.
  • the first main spindle 11 and the second main spindle 13 rotate about their axes, and the tool main spindle 15 and the tool post 17 move along the X m axis. , Ym -axis and Zm -axis directions, the workpiece W to be machined is machined by the tool mounted on the tool spindle 15 and the tool mounted on the turret 18 .
  • a coordinate system having the X m -axis, Y m -axis, and Z m -axis as reference axes is called a machine coordinate system.
  • FIG. 3 shows a state in which the holder 16 to which the seal S is adhered is attached to the tool spindle 15 as described above. It is stored in a tool magazine (not shown), which is a tool storage section, and is taken out from the tool magazine (not shown) and mounted on the tool spindle 15 when measuring the positioning accuracy of the robot system 24 .
  • the holder 16 is composed of a tapered shank portion to be mounted in the holding hole of the tool spindle 15 and a rectangular parallelepiped seal sticking portion 16a connected to the tapered shank portion. affixed to one side of the
  • the material stocker 20 is arranged on the left side of the machine tool 10 in FIG.
  • the product stocker 21 is arranged on the right side of the machine tool 10 in FIG.
  • the automatic guided vehicle 35 has the robot 25 mounted on a mounting surface 36, which is the upper surface thereof, and is provided with an operation panel 37 that can be carried by an operator.
  • the operation panel 37 includes an input/output unit for inputting/outputting data, an operation unit for manually operating the automatic guided vehicle 35 and the robot 25, and a display capable of displaying a screen.
  • the automatic guided vehicle 35 is equipped with a sensor capable of recognizing its own position in the factory (for example, a distance measurement sensor using laser light), and under the control of the control device 40, the machine tool 10 , the machine tool 10, the material stocker 20 and the product stocker 21. route to each working position.
  • the control device 40 is arranged inside the automatic guided vehicle 35 .
  • the robot 25 is an articulated robot having three arms, a first arm 26, a second arm 27 and a third arm 28, which are manipulators. is attached, and a hand 30 as an end effector is attached to the support shaft 29 . Further, a support bar 31 is attached to the support shaft 29, and a camera 32 is attached to the support bar 31 as an end effector. Under the control of the controller 40, the robot 25 moves the hand 30 and the camera 32 within a three-dimensional space defined by three orthogonal axes xr , yr and zr . A coordinate system defined by three orthogonal axes xr , yr , and zr is called a robot coordinate system. Also, in this example, the xr axis is set substantially parallel to the front surface of the automatic guided vehicle 35 .
  • the control device 40 includes an operation program storage unit 41, a movement position storage unit 42, an operation posture storage unit 43, a map information storage unit 44, a reference image storage unit 45, a manual operation control unit 46, an automatic It is composed of an operation control unit 47 , a map information generation unit 48 , a position recognition unit 49 , a correction amount calculation unit 50 and an input/output interface 51 .
  • the control device 40 is connected to the machine tool 10 , material stocker 20 , product stocker 21 , robot 25 , camera 32 , automatic guided vehicle 35 and operation panel 37 via this input/output interface 51 .
  • the control device 40 is composed of a computer including a CPU, a RAM, a ROM, etc., and includes the manual operation control unit 46, the automatic operation control unit 47, the map information generation unit 48, the position recognition unit 49, the correction amount calculation unit 50, and the
  • the input/output interface 51 has its functions realized by a computer program, and executes processing to be described later.
  • the motion program storage unit 41, movement position storage unit 42, motion posture storage unit 43, map information storage unit 44, and reference image storage unit 45 are configured from appropriate storage media such as RAM.
  • the manual operation control unit 46 is a functional unit that operates the unmanned guided vehicle 35 and the robot 25 according to operation signals input from the operation panel 37 by the operator. That is, the operator can manually operate the automatic guided vehicle 35 and the robot 25 using the operation panel 37 under the control of the manual operation control section 46 .
  • the manual operation control unit 46 controls, for example, the automatic guided vehicle 35 from the operation panel 37 in two orthogonal axes (x, r , y r axis) is input, the automatic guided vehicle 35 is moved in the direction corresponding to the input signal by the corresponding distance, and is orthogonal to the xr axis and the yr axis.
  • the automatic guided vehicle 35 is turned according to the input signal.
  • the manual operation control unit 46 receives the input The tip of the robot 25 is moved by the corresponding distance in the direction corresponding to the signal. Further, when a signal for opening and closing the hand 30 is input from the operation panel 37, the manual operation control unit 46 opens and closes the hand 30 accordingly, and receives a signal for operating the camera 32 from the operation panel 37. Then, the camera 32 is operated accordingly.
  • the operation program storage unit 41 stores an automatic operation program for automatically operating the automatic guided vehicle 35 and the robot 25 during automatic production, and stores the automatic guided vehicle 35 when generating factory map information, which will be described later.
  • This is a functional unit that stores a map generation program for operation.
  • the automatic driving program and the map generating program are input from, for example, an input/output unit provided on the operation panel 37 and stored in the operation program storage unit 41 .
  • the automatic operation program includes command codes relating to the movement position as a target position to which the automatic guided vehicle 35 moves, the movement speed, and the orientation of the automatic guided vehicle 35. and a command code for operating the camera 32 are included.
  • the map generation program includes command codes for causing the automatic guided vehicle 35 to travel all over the factory without a track so that the map information generation unit 48 can generate map information.
  • the map information storage unit 44 is a functional unit that stores map information including arrangement information of machines, devices, equipment, etc. (devices, etc.) arranged in the factory where the automatic guided vehicle 35 travels. It is generated by the map information generator 48 .
  • the map information generation unit 48 causes the automatic guided vehicle 35 to travel according to the map generation program stored in the operation program storage unit 41 under the control of the automatic operation control unit 46 of the control device 40, Acquiring spatial information in the factory from the distance data detected by the sensor, and recognizing the planar shape of the equipment etc. installed in the factory, for example, based on the planar shape of the pre-registered equipment etc.
  • the machine tool 10, the material stocker 20, and the product stocker 21 in the present example, which are arranged in the factory, are recognized in terms of position, planar shape, etc. (layout information).
  • the map information generating unit 48 stores the obtained spatial information and arrangement information of the devices in the map information storage unit 44 as map information of the factory.
  • the position recognition unit 49 recognizes the position and posture of the automatic guided vehicle 35 in the factory based on the distance data detected by the sensor and the map information in the factory stored in the map information storage unit 44. Based on the position and orientation of the automatic guided vehicle 35 recognized by the position recognition section 49 , the operation of the automatic guided vehicle 35 is controlled by the automatic operation control section 47 .
  • the movement position storage unit 42 is a movement position as a specific target position to which the automatic guided vehicle 35 moves, and is a functional unit that stores a specific movement position corresponding to the command code in the operation program. These movement positions include the work positions set for the machine tool 10, the material stocker 20, and the product stocker 21 described above. This movement position is determined by, for example, manually operating the automatic guided vehicle 35 using the operation panel 37 under the control of the manual operation control unit 46 to move it to each target position, and then performing the position recognition. It is set by the operation of storing the position data recognized by the unit 49 in the movement position storage unit 42 . This operation is called a so-called teaching operation.
  • the motion posture storage unit 43 stores data relating to motion postures (motion postures) of the robot 25 that sequentially change as the robot 25 moves in a predetermined order, corresponding to command codes in the motion program. is a functional unit that stores the The data relating to the motion posture is obtained when the robot 25 is manually operated by teaching operation using the operation panel 37 under the control of the manual operation control unit 45 to take each target posture. , the rotation angle data of each joint (motor) of the robot 25 in each posture, and this rotation angle data is stored in the motion posture storage unit 43 as data relating to the motion posture.
  • Specific motion postures of the robot 25 are set in the material stocker 20, the machine tool 10 and the product stocker 21 respectively.
  • each work posture (each take-out posture) for taking out the unprocessed work W stored in the material stocker 20 is set.
  • each working posture is set for taking out the machined workpiece W' and mounting the unmachined workpiece W on the first chuck 12 and the second chuck 14.
  • the camera 32 is set to take an image of the seal S attached to the tool spindle 15 (imaging posture) when the hand 30 enters the machine tool 10.
  • each work posture is set for storing the machined work W′ taken out from the machine tool 10 into the product stocker 21 .
  • the automatic operation control unit 47 uses either the automatic operation program or the map generation program stored in the operation program storage unit 41, and operates the automatic guided vehicle 35, the robot 25, the hand 30, and the camera 32 according to the program. This is the functional part to operate. At that time, the data stored in the movement position storage section 42 and the motion posture storage section 43 are used as necessary.
  • the reference image storage unit 45 stores an identification figure imaged by the camera 32 when the automatic guided vehicle 35 is at the working position set with respect to the machine tool 10 and the robot 25 is in the imaging posture during the teaching operation. This is a functional unit that stores the image of as a reference image.
  • the correction amount calculation unit 50 is configured so that the robot 25 is automatically operated.
  • the identification figure is imaged by the camera 32 in the imaging posture
  • the image of the identification figure obtained during the automatic driving and the reference image during teaching stored in the reference image storage unit 45 are used as the basis.
  • an error amount between the imaging posture of the robot 25 during teaching and the imaging posture of the robot 25 during automatic operation is estimated, and the robot set for the machine tool 10 based on the estimated error amount.
  • a correction amount for each of the 25 working postures is calculated.
  • FIG. 7(a) shows an image of an identification figure (reference image) captured during teaching
  • FIG. 7(b) shows an image of an identification figure captured during automatic driving.
  • a coordinate system having the xc -axis, the zc -axis set for the frame of the camera 32 and the yc -axis perpendicular to these axes as reference axes is called a camera coordinate system.
  • the coordinate values in the x c -axis-z c -axis plane correspond to the positions of the imaging elements arranged on the imaging plane of the camera 32 . Further, in this example, as shown in FIG. 7A, the four corners of the identification figure are set at the reference positions Pc1 , Pc2 , Pc3 and Pc4 .
  • FIG. 8(a) is an image of an identification figure captured during teaching
  • FIG. 8(b) is an image of an identification figure captured during automatic driving.
  • ⁇ cy tan ⁇ 1 ((x c2 ⁇ x c1 )/(z c2 ⁇ z c1 ))
  • ⁇ cy ' tan -1 ((x c2 '-x c1 ')/(z c2 '-z c1 '))
  • ⁇ cy ⁇ cy ⁇ cy '
  • FIG. 9(a) is an image of an identification figure taken during teaching
  • FIG. 9(b) is an image of an identification figure taken during automatic operation
  • 9( c ) is an explanatory diagram relating to calculation of a position error ⁇ yc .
  • the distance d c1 in the z c -axis direction between the reference positions P c1 and P c2 set for the identification figure the x distance between the reference positions P c2 and P c3
  • FIG. 10(a) is an image of an identification figure captured during teaching and a diagram for explaining the calculation of the rotation error amount ⁇ cz .
  • FIG. 10(b) is an image of an identification figure captured during automatic operation and the calculation of the rotation error amount ⁇ cz .
  • the distance d c1 in the z c -axis direction between the reference positions P c1 and P c2 set for the identification figure and the x distance between the reference positions P c2 and P c3 c -axis direction distance d c2 , x c -axis direction distance d c4 between reference positions P c1 and P c4 , distance A of a part corresponding to identification figure distance d c2 , and imaging plane of camera 32
  • the rotation error amount ⁇ cx about the xc axis of the identification figure between the time of teaching and the present time is calculated .
  • FIG. 11(a) is an image of the identification figure captured during teaching and a diagram for explaining the calculation of the rotation error amount ⁇ cx ;
  • FIG. 11(b) is an image of the identification figure captured during automatic operation; and the calculation of the rotation error amount ⁇ cx .
  • the correction amount calculation unit 50 calculates the translation error amounts ⁇ x c , ⁇ y c and ⁇ z c of the identification figure in the camera coordinate system and the rotation error amounts ⁇ cx , ⁇ cy and ⁇ cz in the robot coordinate system. Then, the translation error amounts ⁇ x r , ⁇ y r and ⁇ z r and the rotation error amounts ⁇ rx , ⁇ ry and ⁇ rz in the robot coordinate system are calculated, and the calculated translation error amounts ⁇ x r and ⁇ y are calculated. Each action posture of the robot is corrected based on r and ⁇ z r and the amounts of rotational error ⁇ rx , ⁇ ry and ⁇ rz .
  • FIGS. 7 to 11 show captured images in which intended errors and the like are easy to understand, and in reality, an image in which these are combined is captured.
  • the automatic operation control unit 46 is a functional unit that uses either the automatic operation program or the map generation program stored in the operation program storage unit 41 and operates the automatic guided vehicle 35 and the robot 25 according to the program. . At that time, the data stored in the movement position storage section 42 and the motion posture storage section 43 are used as necessary.
  • the automatic operation program stored in the operation program storage unit 41 under the control of the automatic operation control unit 46 of the control device 40 is executed, the automatic guided vehicle 35 and the robot 25 are operated according to this automatic operation program, and unmanned automatic production is executed.
  • the sticking position measuring device 100 of this example includes a holding portion 101 that holds a holder (supporting member) 16 to which a seal S is stuck, and a holding portion 101 that is spaced from the holding portion 101 by a predetermined distance.
  • a support block 103 provided, a camera 102 fixed on the support block 103 for capturing an image of the holder 16 to which the seal S is attached, and an attached portion of the holder 16 and the seal captured by the camera 102.
  • a position information calculation unit 105 that processes an image including S and calculates position information of the identification figure with reference to the reference part set on the holder 16 .
  • the position information calculation unit 105 is configured by a computer including a CPU, RAM, ROM, and the like.
  • the holding portion 101 has a holding hole with a tapered inner surface. Rotation about its axis is restrained by a suitable positioning member. At this time, the sticker S stuck to the sticking portion 16a of the holder 16 faces the camera 102. As shown in FIG.
  • the position information calculation unit 105 receives an image including the attached portion 16 a of the holder 16 and the sticker S captured by the camera 102 from the camera 102 , processes the received image, and calculates the reference portion set in the holder 16 .
  • the position information of the identification figure (in other words, sticker S) is calculated with reference to .
  • the position information calculation unit 105 sets the lower left corner of the attaching surface of the holder 16 to which the sticker S is attached as the reference portion, and sets the lower left corner as the origin.
  • a holder coordinate system (x h -axis, y h -axis and zh -axis) is set. This holder coordinate system is obtained by shifting the camera coordinate system to the lower left corner (reference portion) of the sticking surface.
  • FIG. 12 shows a state in which the holder 16 to which the identification figure (sticker S) corresponding to the reference image stored in the reference image storage unit 45 is attached is held by the holding unit 101, and the camera 102 This is a reference image obtained by imaging. This image is captured in advance and held in the position information calculation unit 105 .
  • This seal S is a seal at the time of reference, and is called a reference seal Sr.
  • the position information calculation unit 105 calculates the reference positions P h1 (x h1 , z h1 ), P h2 (x h2 , zh2 ), P h3 (x h3 , zh3 ), and P h4 ( x h4 , zh4 ) are acquired from the camera coordinate system, and the distance d h1 , the distance dh2 in the xh -axis direction between the reference positions Ph2 and Ph3 , the distance dh3 in the zh -axis direction between the reference positions Ph3 and Ph4 , and the xh distance between the reference positions Ph4 and Ph1
  • the axial distance dh4 is calculated and stored in advance as the positional information of the reference seal Sr.
  • FIG. 13 is an image captured by the camera 102 while the current holder 16 to which the current sticker Sa is attached is held by the holding portion 101 .
  • the position information calculation unit 105 uses the four corners of the current image (identification figure image) shown in FIG.
  • P h2 '(x h2 ', zh2 '), P h3 '(x h3 ', zh3 '), and P h4 '(x h4 ', zh4 ') information (said position information) in the camera coordinate system , the distance d h1 ' in the zh -axis direction between the reference positions P h1 ' and P h2 ', the distance d h2 ' in the x h -axis direction between the reference positions P h2 ' and P h3 ', the reference position P A distance d h3 ' in the zh -axis direction between h3 ' and P h4 ' and a distance d h4 ' in the x- h -axis direction between the reference positions P h4 ' and P h1 ' are calculated as the position information.
  • the position information calculation unit 105 calculates, as the position information, the rotation angle ⁇ hy ' of the current seal Sa (identification figure) around the yh axis by the following equation in the same manner as the processing in FIG. 8 described above.
  • the rotation angle difference ⁇ hy about the yh axis which is the difference from the rotation angle ⁇ hy of the reference seal Sr (identification figure) calculated in the same manner, is calculated as the position information (see FIG. 15).
  • ⁇ hy tan ⁇ 1 ((x h2 ⁇ x h1 )/(z h2 ⁇ z h1 ))
  • ⁇ hy ' tan -1 ((x h2 '-x h1 ')/(z h2 '-z h1 '))
  • ⁇ hy ⁇ hy ⁇ hy '
  • the position information calculation unit 105 calculates the positional error ⁇ yh in the yh axis direction of the current seal Sa (identification figure) with respect to the reference seal Sr (identification figure) by the following equation.
  • a in FIG. 9 is the length of the part corresponding to the distance d h1 of the identification figure
  • L h is the distance between the imaging plane of the camera 32 and the seal S (Sa, Sr) (see FIG. 9). 16).
  • ⁇ y h L h (d h1 ⁇ d h1 ′)/(A ⁇ d h1 )
  • the position information calculation unit 105 calculates the angle ⁇ hz ' between the current seal Sa (identification figure) and the x h axis using the following formula in the same manner as the processing in FIG. 10 described above.
  • a rotational angle difference ⁇ hz about the zh axis which is the difference from the calculated rotational angle ⁇ hz of the reference seal Sr (identification figure), is calculated as the position information (see FIG. 17).
  • the position information calculation unit 105 calculates the angle ⁇ hx ' between the current sticker Sa (identification figure) and the z h axis using the following formula in the same manner as the processing in FIG. 11 described above.
  • a rotation angle difference ⁇ hx about the xh axis which is the difference from the calculated rotation angle ⁇ hx of the reference seal Sr (identification figure), is calculated as the position information (see FIG. 18).
  • ⁇ y h L h (d h2 ⁇ d h4 )/(A ⁇ d h2 )
  • ⁇ hx tan ⁇ 1 (L h (d h2 ⁇ d h4 )/((A ⁇ d h2 )(z h2 ⁇ z h1 )))
  • ⁇ hx ⁇ hx ⁇ hx '
  • the position information calculation unit 105 calculates the reference positions P h1 ', P h2 ', P h3 ' and P h4 ' as the position information of the sticker S attached to the holder 16, in other words, the identification figure.
  • the position information calculation unit 105 appropriately outputs the calculated position information to the outside through an output device, and the holder 16 to which the current seal Sr is attached is arranged in the machine tool 10 of the production system 1, and this When it is used, it is input to the control device 40 of the production system 1 by appropriate communication means. 7 to 11 described above, FIGS. 12 to 18 show captured images in which intended errors and the like are easy to understand, and in reality, an image in which these are combined is captured. be.
  • the correction amount calculation unit 50 receives the position information from the position information calculation unit 105, for example, the positional deviation amount ⁇ x h , y in the xh -axis direction with respect to the identification figure (in other words, the reference image) of the reference sticker Sr.
  • the reference image stored in the reference image storage unit 45 is shifted by the positional deviation amounts ⁇ x h , ⁇ y h and ⁇ zh .
  • An adjustment reference image is generated by shifting the position and rotating by each of the rotation angle differences ⁇ hx , ⁇ hy and ⁇ hz , and the generated adjustment reference image is stored in the reference image storage unit 45 together with the initial reference image.
  • the correction amount calculation unit 50 calculates the generated adjustment reference image during automatic operation. are used to calculate translational error amounts ⁇ x c , ⁇ y c , and ⁇ z c , and rotational error amounts ⁇ cx , ⁇ cy , and ⁇ cz of the identification figure in the camera coordinate system. Translation error amounts ⁇ x r , ⁇ y r and ⁇ z r and rotation error amounts ⁇ rx , ⁇ ry and ⁇ rz in the coordinate system are calculated, and the calculated translation error amounts ⁇ x r , ⁇ y r and ⁇ z r and rotation error amounts are calculated. Based on ⁇ rx , ⁇ ry and ⁇ rz , each working posture of the robot is corrected.
  • the attachment position of the seal S on the holder 16 is strictly changed from the attachment position before replacement. Since it is difficult to match, in order to accurately correct the working posture of the robot 25, the teaching operation is executed again to reset the previously set imaging posture at the time of teaching. , it is necessary to re-capture the identification image and update the reference captured image during teaching.
  • the camera 102 captures an image of the sticker S stuck to the holder 16 , and the position information calculation unit 105 analyzes the obtained image to determine whether the holder 16 has It is possible to calculate the positional information of the sticker S (in other words, the identification figure) with reference to the set reference portion. Then, if the accurate positional information of the seal S in the holder 16 is known, for example, the error amount (positional deviation amount ⁇ x h , ⁇ y h and ⁇ zh , and rotation angle difference ⁇ hx , rotation angle difference ⁇ hy and rotation angle difference ⁇ hz ) can be calculated.
  • the error amount positional deviation amount ⁇ x h , ⁇ y h and ⁇ zh , and rotation angle difference ⁇ hx , rotation angle difference ⁇ hy and rotation angle difference ⁇ hz
  • the reference image of the reference sticker Sr obtained during the teaching operation is corrected based on the positional error amount, so that the robot has the same posture as the imaging posture during the teaching operation. , it is possible to generate a reference image that will be obtained when the current new seal Sa is imaged by the camera 32, that is, an adjustment reference image.
  • the sticking position measuring device 100 of the present embodiment when the sticker S stuck to the holder 16 is replaced, the setting can be performed as described above without performing a complicated teaching operation.
  • the posture error amount of the robot during automatic operation can be calculated, and each working posture of the robot can be corrected based on the obtained posture error amount. Therefore, it is possible to prevent the operating rate of the production system from decreasing.
  • the position information calculation unit 105 calculates, as position information, the amount of positional deviation ⁇ xh in the xh -axis direction, the amount of positional deviation ⁇ yh in the yh -axis direction, and the position in the zh -axis direction with respect to the reference seal Sr.
  • the shift amount ⁇ z h , and the rotation angle difference ⁇ hx about the xh axis, the rotation angle difference ⁇ hy about the yh axis, and the rotation angle difference ⁇ hz about the zh axis with respect to the reference seal Sr are calculated.
  • the position information calculation unit 105 calculates, as position information, at least a positional deviation amount ⁇ xh in the xh -axis direction and a positional deviation amount ⁇ zh in the zh -axis direction with respect to the reference seal Sr, and It is only necessary to be configured to calculate the rotation angle difference ⁇ hy about the yh axis with respect to the reference seal Sr. Even in such a mode, it is possible to generate an adjustment reference image with practical accuracy.
  • the sticking position measuring device 100 is provided separately from the machine tool 10 , but the present invention is not limited to this. .
  • the camera 102 an existing camera that captures the inside of the machining area of the machine tool 10 can be applied.
  • the holding portion that holds the holder 16 includes a tailstock device, a turret, a structure provided near the chuck, or a touch sensor support that is a component of the tool presetter. Any of the members can be assigned.
  • the position information calculation unit 105 can be constructed within the control device of the machine tool 10 .
  • the machine tool 10 which constitutes a part of the production system 1 and which is the work target of the robot system 24, without using a specially manufactured measuring device, It is possible to measure the sticking position of the seal S used for correcting the posture with respect to the holder 16, and to perform such measurement with inexpensive equipment. Moreover, by using the measurement result, the working posture of the robot 25 in the machine tool 10 can be corrected. Therefore, even when the seal S attached to the holder 16 is replaced, the working posture of the robot 25 during automatic operation can be corrected without resetting by a troublesome teaching operation.
  • FIG. 1 An example of this aspect is shown in FIG.
  • a camera 102 is disposed above the first spindle 11 so as to be able to move forward and backward with respect to the machining area, and the tool spindle 15 is used as a holder for holding the holder 16. assigning.
  • the position information calculator 105 is built in the controller of the machine tool 10 .
  • the opening of the storage unit in which the camera 102 is stored is opened and closed by a shutter (not shown).
  • the method of calculating the correction amount for correcting the working posture of the robot is not limited to the calculation method described with reference to FIGS. If it is possible, naturally other calculation methods can be applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)

Abstract

識別図形が描画されたシール(S)の、支持部材(16)への貼着位置を測定する装置(100)である。支持部材(16)を保持する保持部(101)と、この保持部(101)に保持され、シール(S)が貼着された支持部材(16)を撮像するカメラ(102)と、カメラ(102)によって撮像された支持部材(16)及びシール(S)を含む画像を処理して、支持部材(16)に設定された基準部位を基準とした識別図形の位置情報を算出する位置情報算出部(105)とを備える。

Description

貼着位置測定装置及びこれを備えた工作機械
 本発明は、識別図形が貼着された支持部材において、当該識別図形の貼着位置を測定する測定装置、及びこの測定装置を備えた工作機械に関する。
 従来、特開2017-132002号公報(下記特許文献1)に開示されるような生産システムが知られている。この生産システムは、ロボット及びこれを搭載した無人搬送車から構成されるロボットシステムを備えており、無人搬送車を所定の工作機械に経由させた後、当該ロボットにより、工作機械に対してワークの着脱等の作業を行うように構成されている。
 前記無人搬送車は、一般的に、車輪によって自走するように構成されており、工作機械に対する位置決め精度は必ずしも高いものとは言えない。このため、ロボットが工作機械に対して作業を行う際に、当該作業が正確に行われるように、無人搬送車を工作機械に対して位置決めした際に生じる誤差を補正する必要がある。
 また、無人搬送車は、弾性を有する車輪によって移動するように構成されているため、ロボットの先端部(ハンド部)を工作機械内に進入させたときに、当該ロボットの姿勢が傾き易いという特性を有している。このため、工作機械内で作業を行う際のロボットの姿勢を正確に補正する必要がある。
 そこで、従来、工作機械内で作業を行う際のロボットの姿勢を正確に補正する手法として、工作機械の機内に識別用の図形(識別図形)を配置し、この識別図形をロボットの先端部に設けたカメラによって撮像し、得られた識別図形の画像に基づいて、ロボットの姿勢を補正する方法が提案されている。
 具体的には、この補正手法では、まず、ティーチング操作によってロボットの各作業姿勢を設定する際に、工作機械に対して予定された作業位置に前記無人搬送車を移動させた後、ロボットの先端部を工作機械の機内に進入させて、当該工作機械の機内に配置された識別用の図形(識別図形)を、ロボットの先端部に装着されたカメラにより基準画像として撮像するとともに、このティーチング時のロボットの姿勢(撮像姿勢)及び基準画像に係るデータを記憶する。
 そして、ロボットシステムを自動運転させる際には、工作機械に対して設定された作業位置に無人搬送車を移動させた後、まず、ロボットに前記撮像姿勢を取らせて、工作機械の機内に配置された識別用の図形(識別図形)を、ロボットの先端部に装着されたカメラにより撮像する。ついで、得られた識別図形の画像及びティーチング操作時に得られた基準画像に基づいて、ティーチング時の撮像姿勢と、現在の撮像姿勢との間の姿勢誤差量を算出し、得られた誤差量に基づいて、続いて実行されるロボットの各作業姿勢を補正する。
 尚、この補正手法では、前記識別図形を工作機械の機内に配置する態様として、識別図形が描画されたシールを適宜支持部材に貼着し、当該シールが貼着された支持部材を工作機械の機内に配設する態様が取られている。
特開2017-132002号公報 特開2016-221622号公報
 ところで、上記のような補正手法では、ロボットシステムが工作機械に対して作業を行う都度、前記識別図形を用いた補正が行われるため、この識別図形が貼着された支持部材は、高い頻度で加工領域内に配置されることになる。そして、このように高い頻度で識別図形を使用すると、識別図形が描かれたシールが加工領域内に存在する切屑やクーラント等と接触する確率が高まるため、このような切屑やクーラント等との接触によって、当該シールが損傷することがあり、また、経年劣化等によって前記シールに損傷が生じることもある。
 斯くして、このようにしてシールに損傷を生じると、ロボットの作業姿勢を正確に補正することができなくなるため、正確な補正に支障をきたす程度にシールが損傷した場合には、当該シールを新たなものと交換する必要がある。
 ところが、支持部材に貼着されたシールを交換する場合に、その支持部材におけるシールの貼着位置を、交換前の貼着位置に対して、厳密に一致させるのは困難であるため、ロボットの作業姿勢の正確な補正を実現するためには、再度、前記ティーチング操作を実行して、以前に設定されたティーチング時の撮像姿勢を再設定するとともに、識別画像を再度撮像して、基準となるティーチング時の撮像画像を更新する必要がある。
 しかしながら、シールを交換するたびに、ティーチング操作によって、撮像姿勢を再設定するとともに、基準となる撮像画像を更新するようにしたのでは、シール交換作業が煩雑なものとなり、また、生産システム全体の稼働率の低下を招くことになって、生産効率上、好ましくない。
 一方、支持部材に貼着されたシールの当該支持部材における正確な位置情報が分かれば、貼り替え前の旧シールの貼着位置と、新たなシールの貼着位置との間の位置誤差量を算出することができる。そして、位置誤差量を算出することができれば、この位置誤差量に基づいて、ティーチング操作時に得られた旧シールの基準画像を補正することにより、現在の新たなシールを用いた状態での基準画像、即ち、ロボットがティーチング操作時の撮像姿勢を取ったときに、新たなシールをカメラにより撮像することで得られるであろう基準画像を生成することができる。
 斯くして、支持部材に貼着されたシールを交換した際に、煩雑なティーチング操作による再設定を行わなくても、上記のようにして補正された基準画像を用いることで、自動運転時におけるロボットの姿勢誤差量を算出することができ、得られた姿勢誤差量に基づいて、ロボットの各作業姿勢を補正することができ、これにより、生産システムの稼働率が低下するのを防止することができる。
 本発明は、以上の実情に鑑みなされたものであって、識別図形が描画されたシールの、支持部材への貼着位置を測定することができる貼着位置測定装置、及びこれを備えた工作機械の提供を、その目的とする。
 上記課題を解決するための本発明は、
 識別図形が描画されたシールの、支持部材への貼着位置を測定する装置であって、
 前記支持部材を保持する保持部と、
 前記保持部に保持され、前記シールが貼着された支持部材を撮像するカメラと、
 前記カメラによって撮像された前記支持部材及びシールを含む画像を処理して、前記支持部材に設定された基準部位を基準とした前記識別図形の位置情報を算出する位置情報算出部とを備えた貼着位置測定装置に係る。
 この貼着位置測定装置によれば、まず、シールが貼着された支持部材を保持部により保持する。その際、支持部材は保持部に対して一定の保持関係が保証されるように、当該保持部に保持される。また、保持部及びカメラは、相互に一定の位置関係が保証されるように配置されている。
 次に、保持部に保持された支持部材をカメラにより撮像して、当該支持部材及びシールを含む画像を取得する。そして、このカメラにより撮像された支持部材及びシールを含む画像が前記位置情報算出部によって処理され、当該支持部材に設定された基準部位を基準にした前記識別図形の位置情報が算出される。
 斯くして、この貼着位置測定装置によれば、支持部材及びシールを含む画像から、支持部材に設定された基準部位を基準とした識別図形の位置情報が算出される。
 尚、前記識別図形は何らその形状が限定されるものでは無いが、一例として、矩形状をしたものが例示され、他の例としては、複数の正方形をした画素が二次元に配列されたマトリクス構造を有するものを例示することができる。
 また、識別図形の位置情報は、例えば、前記基準部位を基準として前記支持部材の貼着面に設定された第1軸及び第2軸の直交2軸方向における識別図形の位置、並びに第1軸及び第2軸と直交する第3軸回りの識別図形の回転角度が含まれる。そして、第1軸及び第2軸方向における識別図形の位置は、例えば、識別図形に対して設定された所定部位が、第1軸及び第2軸を基準軸とした座標系において位置する座標値として定義される。
 或いは、前記位置情報には、更に、第1軸及び第2軸方向に加えて、これらと直交する第3軸方向における識別図形の位置、並びに第1軸回りの識別図形の回転角度、及び第2軸回りの識別図形の回転角度を含めることができる。これにより、3次元空間内における識別図形の位置情報を得ることができる。
 そして、上記構成の貼着位置測定装置は、これを工作機械に組み込むことができる。その際、前記保持部として、工作機械を構成する、工具を保持する工具主軸、心押装置、タレット、チャックの近傍に設けられた構造物、又はツールプリセッタの構成物であるタッチセンサ支持部材の内の少なくともいずれかを割り当てることができる。また、前記カメラとして、工作機械の加工領域内を撮像するために機内に設けられた機内カメラを割り当てることができる。また、前記位置情報算出部は、これを工作機械の制御装置内に構築することができる。
 このようにすれば、特別に作製された測定装置を用いることなく、生産システムの一部を構成する工作機械であって、ロボットシステムの作業対象である工作機械において、その姿勢補正に使用されるシールの支持部材に対する貼着位置を測定することができ、更に、その測定結果を用いることにより、当該工作機械におけるロボットの作業姿勢を補正することができる。したがって、支持部材に貼着されたシールを交換した場合であっても、煩わしいティーチング操作による再設定を行うことなく、自動運転時のロボットの作業姿勢を補正することができる。
 本発明に係る貼着位置測定装置によれば、支持部材、及び識別画像が描画されたシールを含む画像から、支持部材に設定された基準部位を基準とした識別図形の位置情報を算出することができる。
本発明の一実施形態に係る貼着位置測定装置が適用される生産システムの概略構成示した平面図である。 図1の生産システムの構成を示したブロック図である。 生産システムを構成する工作機械の主要部を示した斜視図である。 生産システムを構成するロボットシステムを示した斜視図である。 本実施形態に係る貼着位置測定装置を示した斜視図である。 本実施形態に係るシールを示した正面図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本実施形態の位置誤差量算出方法について説明するための説明図である。 本発明の他の実施形態に係る貼着位置測定装置を示した斜視図である。
 以下、本発明の具体的な実施の形態ついて、図面を参照しながら説明する。
(生産システムの概要)
 まず、本発明に係る貼着位置測定装置が適用される生産システムの概要について説明する。図1及び図2に示すように、一例としての本例の生産システム1は、ロボットシステム24、工作機械10、周辺装置としての材料ストッカ20及び製品ストッカ21などから構成され、前記ロボットシステム24は、無人搬送車35、この無人搬送車35に搭載されるロボット25、並びにロボット25及び無人搬送車35を制御する制御装置40などから構成される。
 前記工作機械10は、数値制御装置(図示せず)によって制御される複合加工型のNC工作機械であって、図3に示すように、工具を保持して回転させる工具主軸15、それぞれの中心軸が同軸に設けられ、且つ相互に対向するように配設された第1主軸11及び第2主軸13、複数の工具を装着可能なタレット18、並びにこのタレット18を回転自在に保持する刃物台17などから構成される。尚、図3では、説明の都合上、工具主軸15には、工具が装着された状態ではなく、シールSが貼着された支持部材としてのホルダ16が装着された状態を示している。また、シールSには、図6に示すような識別図形が描画されている。この識別図形は、矩形状をした黒色の図柄であり、図6では、黒色をした矩形部に斜線を付している。
 工具主軸15は、図示しない数値制御装置による制御の下で、同じく図示しない第1X軸送り機構、第1Y軸送り機構及び第1Z軸送り機構によって、相互に直交するX軸、Y軸及びZ軸方向に移動し、同様にして、刃物台17は、図示しない第2X軸送り機構及び第2Z軸送り機構によって、X軸及びZ軸方向に移動する。尚、Z軸は前記第1主軸11及び第2主軸13の軸線と平行な送り軸であり、X軸は水平面内でZ軸に直交する送り軸であり、Y軸は鉛直方向の送り軸である。
 また、第1主軸11には第1チャック12が装着されるとともに、第2主軸13には第2チャック14が装着されており、これら第1チャック12及び第2チャック14によって、加工前ワークWや加工済ワークW’の両端が把持される。そして、この状態で、前記数値制御装置(図示せず)による制御の下、第1主軸11及び第2主軸13がその軸線回りに回転し、且つ前記工具主軸15や刃物台17がX軸、Y軸及びZ軸方向に適宜移動することで、工具主軸15に装着された工具やタレット18に装着された工具によって、加工前ワークWが加工される。ここで、X軸、Y軸及びZ軸を基準軸とした座標系を機械座標系という。
 尚、本例では、図3に示すように、前記タレット18の外周面に、加工済ワークW’を支持する支持具19が設けられており、前記ロボットシステム24によって、加工済ワークW’を取り外す際に、この支持具19に加工済ワークW’が仮置きされる。また、図3では、上述したように、シールSが貼着されたホルダ16を工具主軸15に装着した状態を図示しているが、このホルダ16は、工作機械10によって加工が行われるときには、工具収容部である工具マガジン(図示せず)に格納されており、ロボットシステム24の位置決め精度を測定する際に、工具マガジン(図示せず)から取り出されて工具主軸15に装着される。尚、ホルダ16は、工具主軸15の保持穴に装着されるテーパシャンク部と、このテーパシャンク部に接続される直方体状のシール貼着部16aとからなり、前記シールSはシール貼着部16aの一つの側面に貼着されている。
 前記材料ストッカ20は、図1において工作機械10の左隣に配設され、当該工作機械10で加工される加工前ワークW(材料)をストックする装置である。また、前記製品ストッカ21は、図1において工作機械10の右隣に配設され、当該工作機械10で加工された加工済ワークW’(製品又は半製品)をストックする装置である。
 図1及び図4に示すように、前記無人搬送車35は、その上面である載置面36に前記ロボット25が搭載され、また、オペレータが携帯可能な操作盤37が付設されている。尚、この操作盤37は、データの入出力を行う入出力部、当該無人搬送車35及びロボット25を手動操作する操作部、並びに画面表示可能なディスプレイなどを備えている。
 また、無人搬送車35は、工場内における自身の位置を認識可能なセンサ(例えば、レーザ光を用いた距離計測センサ)を備えており、前記制御装置40による制御の下で、前記工作機械10、材料ストッカ20及び製品ストッカ21が配設される領域を含む工場内を無軌道で走行するように構成され、本例では、前記工作機械10、材料ストッカ20及び製品ストッカ21のそれぞれに対して設定された各作業位置に経由する。尚、本例では、前記制御装置40は、この無人搬送車35内に配設されている。
 前記ロボット25は、マニピュレータ部である第1アーム26、第2アーム27及び第3アーム28の3つのアームを備えた多関節型のロボットであり、第3アーム28の先端部には支持軸29が取り付けられ、また、この支持軸29には、エンドエフェクタとしてのハンド30が装着されている。更に、前記支持軸29には、支持バー31が取り付けられ、この支持バー31には、同じくエンドエフェクタとしてのカメラ32が装着されている。そして、ロボット25は、前記制御装置40による制御の下で、これらハンド30及びカメラ32をx軸,y軸及びz軸の直交3軸で定義される3次元空間内で移動させる。尚、x軸,y軸及びz軸の直交3軸で定義される座標系をロボット座標系と称する。また、本例では、x軸は無人搬送車35の前面とほぼ平行に設定されている。
 前記制御装置40は、図2に示すように、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44、基準画像記憶部45、手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51から構成される。そして、制御装置40は、この入出力インターフェース51を介して、前記工作機械10、材料ストッカ20、製品ストッカ21、ロボット25、カメラ32、無人搬送車35及び操作盤37に接続している。
 尚、制御装置40は、CPU、RAM、ROMなどを含むコンピュータから構成され、前記手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51は、コンピュータプログラムによってその機能が実現され、後述する処理を実行する。また、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44及び基準画像記憶部45はRAMなどの適宜記憶媒体から構成される。
 前記手動運転制御部46は、オペレータにより前記操作盤37から入力される操作信号に従って、前記無人搬送車35及びロボット25を動作させる機能部である。即ち、オペレータは、この手動運転制御部46による制御の下で、操作盤37を用いた、前記無人搬送車35及びロボット25の手動操作を実行することができる。
 具体的には、手動運転制御部46は、前記操作盤37から、例えば、前記無人搬送車35を、水平面内で当該無人搬送車35に対して設定された直交2軸(x軸、y軸)の各方向に移動させる信号が入力されると、入力された信号に対応する方向に、対応する距離だけ、当該無人搬送車35を移動させ、前記x軸及びy軸と直交するz軸(鉛直軸)回りに旋回させる信号が入力されると、入力された信号に応じて当該無人搬送車35を旋回させる。
 また、操作盤37から、前記ロボット25の先端部を、前記x軸、y軸及びz軸の各方向に移動させる信号が入力されると、手動運転制御部46は、入力された信号に対応する方向に、対応する距離だけ、ロボット25の先端部を移動させる。また、手動運転制御部46は、操作盤37から前記ハンド30を開閉させる信号が入力されると、これに応じて当該ハンド30を開閉させ、操作盤37から前記カメラ32を動作させる信号が入力されると、これに応じて当該カメラ32を動作させる。
 前記動作プログラム記憶部41は、自動生産時に前記無人搬送車35及び前記ロボット25を自動運転するための自動運転用プログラム、並びに後述する工場内のマップ情報を生成する際に前記無人搬送車35を動作させるためのマップ生成用プログラムを記憶する機能部である。自動運転用プログラム及びマップ生成用プログラムは、例えば、前記操作盤37に設けられた入出力部から入力され、当該動作プログラム記憶部41に格納される。
 尚、この自動運転用プログラムには、無人搬送車35が移動する目標位置としての移動位置、移動速度及び無人搬送車35の向きに関する指令コードが含まれ、また、ロボット25が順次動作する当該動作に関する指令コード、及び前記カメラ32の操作に関する指令コードが含まれる。また、マップ生成用プログラムは、前記マップ情報生成部48においてマップ情報を生成できるように、無人搬送車35を無軌道で工場内を隈なく走行させるための指令コードが含まれる。
 前記マップ情報記憶部44は、無人搬送車35が走行する工場内に配置される機械、装置、機器など(装置等)の配置情報を含むマップ情報を記憶する機能部であり、このマップ情報は前記マップ情報生成部48によって生成される。
 前記マップ情報生成部48は、前記制御装置40の自動運転制御部46による制御の下で、前記動作プログラム記憶部41に格納されたマップ生成用プログラムに従って無人搬送車35を走行させた際に、前記センサによって検出される距離データから工場内の空間情報を取得するとともに、工場内に配設される装置等の平面形状を認識し、例えば、予め登録された装置等の平面形状を基に、工場内に配設された具体的な装置、本例では、工作機械10、材料ストッカ20及び製品ストッカ21の位置、平面形状等(配置情報)を認識する。そして、マップ情報生成部48は、得られた空間情報及び装置等の配置情報を工場内のマップ情報として前記マップ情報記憶部44に格納する。
 前記位置認識部49は、前記センサによって検出される距離データ、及び前記マップ情報記憶部44に格納された工場内のマップ情報を基に、工場内における無人搬送車35の位置及び姿勢を認識する機能部であり、この位置認識部49によって認識される無人搬送車35の位置及び姿勢に基づいて、当該無人搬送車35の動作が前記自動運転制御部47によって制御される。
 前記移動位置記憶部42は、前記無人搬送車35が移動する具体的な目標位置としての移動位置であって、前記動作プログラム中の指令コードに対応した具体的な移動位置を記憶する機能部であり、この移動位置には、上述した工作機械10、材料ストッカ20及び製品ストッカ21に対して設定される各作業位置が含まれる。尚、この移動位置は、例えば、前記手動運転制御部46による制御の下、前記操作盤37により前記無人搬送車35を手動運転して、目標とする各位置に移動させた後、前記位置認識部49によって認識される位置データを前記移動位置記憶部42に格納する操作によって設定される。この操作は所謂ティーチング操作と呼ばれる。
 前記動作姿勢記憶部43は、前記ロボット25が所定の順序で動作することによって順次変化するロボット25の姿勢(動作姿勢)であって、前記動作プログラム中の指令コードに対応した動作姿勢に係るデータを記憶する機能部である。この動作姿勢に係るデータは、前記手動運転制御部45による制御の下で、前記操作盤37を用いたティーチング操作により、当該ロボット25を手動運転して、目標とする各姿勢を取らせたときの、当該各姿勢におけるロボット25の各関節(モータ)の回転角度データであり、この回転角度データが動作姿勢に係るデータとして前記動作姿勢記憶部43に格納される。
 ロボット25の具体的な動作姿勢は、前記材料ストッカ20、工作機械10及び製品ストッカ21において、それぞれ設定される。例えば、材料ストッカ20では、当該材料ストッカ20に収納された加工前ワークWを取り出すための各作業姿勢(各取出姿勢)が設定される。また、工作機械10では、加工済ワークW’を取出して、加工前ワークWを第1チャック12及び第2チャック14に装着するための各作業姿勢が設定されるが、ロボット25が工作機械10内で行う作業姿勢を補正するために、工作機械10内にハンド30を進入させたときに、カメラ32により、工具主軸15に装着されたシールSを撮像させる姿勢(撮像姿勢)が設定される。また、前記製品ストッカ21では、工作機械10から取り出した加工済ワークW’を当該製品ストッカ21内に収納するための各作業姿勢が設定される。
 前記自動運転制御部47は、前記動作プログラム記憶部41に格納された自動運転用プログラム及びマップ生成用プログラムの何れかを用い、当該プログラムに従って無人搬送車35、ロボット25、ハンド30及びカメラ32を動作させる機能部である。その際、前記移動位置記憶部42及び動作姿勢記憶部43に格納されたデータが必要に応じて使用される。
 前記基準画像記憶部45は、ティーチング操作時に、無人搬送車35が工作機械10に対して設定された作業位置に在り、ロボット25が撮像姿勢にあるときに、前記カメラ32によって撮像された識別図形の画像を基準画像として記憶する機能部である。
 前記補正量算出部50は、前記自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納された自動運転用プログラムに従って前記ロボット25が自動運転される際に、当該ロボット25が撮像姿勢にあるときに、前記カメラ32によって識別図形が撮像されると、当該自動運転時に得られた識別図形の画像と、前記基準画像記憶部45に格納されたティーチング時の基準画像とを基に、ティーチング時におけるロボット25の撮像姿勢と、自動運転時におけるロボット25の撮像姿勢との間の誤差量を推定し、推定された誤差量に基づいて、工作機械10に対して設定されたロボット25の各作業姿勢に対する補正量を算出する。
 一例として、図7(a)にティーチング時に撮像された識別図形の画像(基準画像)を示し、図7(b)に自動運転時に撮像された識別図形の画像を示している。これらの画像を解析することで、ティーチング時のロボット25の撮像姿勢と、自動運転時のロボット25の撮像姿勢との間の並進誤差量を推定することができる。例えば、カメラ32のフレームに対して設定されたx軸-z軸平面において、識別図形に対して設定された基準位置Pc1を、各画像について検出して、その差分を算出することにより、ティーチング時と現在との間の識別図形の並進誤差量Δx,Δzを算出することができる。即ち、
Δx=xc1-xc1
Δz=zc1-zc1
 尚、カメラ32のフレームに対して設定されたx軸,z軸及びこれらと直交するy軸を基準軸とする座標系をカメラ座標系という。x軸-z軸平面内における座標値は、カメラ32の結像面に配置される撮像素子の位置に対応する。また、本例では、図7(a)に示すように、識別図形の4隅を、基準位置Pc1、Pc2,Pc3,Pc4に設定している。
 また、図8(a)に示すように、識別図形に対して設定された2つの基準部位Pc1,Pc2を結ぶ直線(Pc1-Pc2)が基準軸、例えば、z軸となす角度θcyを算出することにより、ティーチング時と現在との間の識別図形のy軸回りの回転誤差Δθcyを算出することができる。図8(a)はティーチング時に撮像された識別図形の画像であり、図8(b)は自動運転時に撮像された識別図形の画像である。
θcy=tan-1((xc2-xc1)/(zc2-zc1))
θcy =tan-1((xc2’-xc1’)/(zc2’-zc1’))
Δθcy=θcy-θcy
 また、図9(a)に示すように、例えば、識別図形に対して設定された2つの基準位置Pc1,Pc2間のz軸方向の距離dc1を算出し、得られた距離dc1、並びに識別図形の距離dc1に対応する部位の距離A、及びカメラ32の結像面と識別図形との間の距離Lから、ティーチング時と現在との間の識別図形のy軸方向の位置誤差Δyを算出することができる。図9(a)はティーチング時に撮像された識別図形の画像、図9(b)は自動運転時に撮像された識別図形の画像、図9(c)は位置誤差Δyの算出に関する説明図である。
c1=zc2-zc1
c1’=zc2’-zc1
(A-dc1)/L=(dc1-dc1’)/Δy
Δy=L(dc1-dc1’)/(A-dc1
 また、図10(a)に示すように、例えば、識別図形に対して設定された基準位置Pc1,Pc2間のz軸方向の距離dc1、基準位置Pc2,Pc3間のx軸方向の距離dc2、及び基準位置Pc3,Pc4間の距離z軸方向のdc3、並びに識別図形の距離dc3に対応する部位の距離A、及びカメラ32の結像面と識別図形との間の距離Lからから、識別図形がx軸となす角度θczを算出することにより、ティーチング時と現在との間の識別図形のz軸回りの回転誤差量Δθczを算出することができる。図10(a)はティーチング時に撮像された識別図形の画像、及び回転誤差量Δθczの算出を説明するための図であり、図10(b)は自動運転時に撮像された識別図形の画像、及び回転誤差量Δθczの算出を説明するための図である。
c1=zc2-zc1
c3=zc3-zc4
Δy=L(dc3-dc1)/(A-dc3
c2=xc3-xc2
θcz=tan-1(L(dc3-dc1)/((A-dc3)(xc3-xc2)))
c1’=zc2’-zc1
c3’=zc3’-zc4
Δy’=L(dc3’-dc1’)/(A-dc3’)
c2’=xc3’-xc2
θcz’=tan-1(L(dc3’-dc1’)/((A-dc3’)(xc3’-xc2’)))
Δθcz=θcz-θcz
 また、図11(a)に示すように、例えば、識別図形に対して設定された基準位置Pc1,Pc2間のz軸方向の距離dc1、基準位置Pc2,Pc3間のx軸方向距離のdc2、及び基準位置Pc1,Pc4間のx軸方向の距離dc4、並びに識別図形の距離dc2に対応する部位の距離A、及びカメラ32の結像面と識別図形との間の距離Lからから、識別図形がz軸となす角度θcxを算出することにより、ティーチング時と現在との間の識別図形のx軸回りの回転誤差量Δθcxを算出することができる。図11(a)はティーチング時に撮像された識別図形の画像、及び回転誤差量Δθcxの算出を説明するための図であり、図11(b)は自動運転時に撮像された識別図形の画像、及び回転誤差量Δθcxの算出を説明するための図である。
c2=xc3-xc2
c4=xc4-xc1
Δy=L(dc2-dc4)/(A-dc2
c1=zc2-zc1
θcx=tan-1(L(dc2-dc4)/((A-dc2)(zc2-zc1)))
c2’=xc3’-xc2
c4’=xc4’-xc1
Δy’=L(dc2’-dc4’)/(A-dc2’)
c1’=zc2’-zc1
θcx’=tan-1(L(dc2’-dc4’)/((A-dc2’)(zc2’-zc1’)))
Δθcx=θcx-θcx
 そして、前記補正量算出部50は、以上のようにして算出したカメラ座標系における識別図形の並進誤差量Δx,Δy及びΔz、並びに回転誤差量Δθcx,Δθcy及びΔθczをロボット座標系に変換して、当該ロボット座標系における並進誤差量Δx,Δy及びΔz、並びに回転誤差量Δθrx,Δθry及びΔθrzを算出し、算出された並進誤差量Δx,Δy及びΔz、並びに回転誤差量Δθrx,Δθry及びΔθrzに基づいて、ロボットの各作用姿勢を補正する。尚、上記の図7~図11では、説明の便宜上、貼着部16aに係る画像部分については、その図示を省略している。また、図7~図11では、意図する誤差等が理解し易いような撮像画像を示しており、実際には、これらが複合された画像が撮像される。
 前記自動運転制御部46は、前記動作プログラム記憶部41に格納された自動運転用プログラム及びマップ生成用プログラムの何れかを用い、当該プログラムに従って無人搬送車35及びロボット25を動作させる機能部である。その際、前記移動位置記憶部42及び動作姿勢記憶部43に格納されたデータが必要に応じて使用される。
 斯くして、以上の構成を備えた本例の生産システム1によれば、前記制御装置40の自動運転制御部46による制御の下で、前記動作プログラム記憶部41に格納された自動運転用プログラムが実行され、この自動運転用プログラムに従って、無人搬送車35及びロボット25が動作されて、無人の自動生産が実行される。
(貼着位置測定装置)
 次に、本実施形態に係る貼着位置測定装置について説明する。図5に示すように、本例の貼着位置測定装置100は、シールSが貼着されたホルダ(支持部材)16を保持する保持部101と、この保持部101と所定間隔を空けて配設された支持ブロック103と、この支持ブロック103上に固設されて、シールSが貼着された前記ホルダ16を撮像するカメラ102と、カメラ102によって撮像されたホルダ16の貼着部及びシールSを含む画像を処理して、ホルダ16に設定された基準部位を基準とした識別図形の位置情報を算出する位置情報算出部105とを備えている。尚、位置情報算出部105はCPU、RAM、ROMなどを含むコンピュータから構成される。
 前記保持部101は前記工具主軸15と同様に、内面がテーパ面となった保持穴を備えており、前記ホルダ16はそのテーパシャンク部がこの保持穴に嵌入された状態で保持され、また、適宜位置決め部材によって、その軸回りの回転が制止される。尚、この時、ホルダ16の貼着部16aに貼着されたシールSは、カメラ102と対向している。
 位置情報算出部105は、カメラ102によって撮像されたホルダ16の貼着部16a及びシールSを含む画像を当該カメラ102から受信し、受信した画像を処理して、ホルダ16に設定された基準部位を基準とした識別図形(言い換えれば、シールS)の位置情報を算出する。
 例えば、図12及び図13に示すように、位置情報算出部105は、シールSが貼着されたホルダ16の貼着面の左下角部を基準部位に設定し、当該左下角部を原点としたホルダ座標系(x軸、y軸及びz軸)を設定する。このホルダ座標系は、前記カメラ座標系を前記貼着面の左下角部(基準部位)にシフトしたものである。
 尚、図12は、前記基準画像記憶部45に格納された基準画像に対応する識別図形(シールS)が貼着されたホルダ16を、前記保持部101に保持した状態で、前記カメラ102により撮像して得られた基準となる画像であり、この画像が予め撮像され、位置情報算出部105に保持されている。尚、このシールSは基準時のシールであり、基準シールSrと称する。そして、位置情報算出部105は、図12に示した基準画像(識別図形の画像)の4つの角部を基準位置として、基準位置Ph1(xh1,zh1),Ph2(xh2,zh2),Ph3(xh3,zh3),Ph4(xh4,zh4)の情報をカメラ座標系から取得するとともに、基準位置Ph1,Ph2間のz軸方向の距離dh1、基準位置Ph2,Ph3間のx軸方向の距離dh2、基準位置Ph3,Ph4間のz軸方向の距離dh3、及び基準位置Ph4,Ph1間のx軸方向の距離dh4を算出して、これらを基準シールSrの位置情報として予め保持する。
h1=zh2-zh1
h2=xh3-xh2
h3=zh3-zh4
h4=xh4-xh1
 また、図13は、現在のシールSaが貼着された現在のホルダ16を、前記保持部101に保持し状態で、前記カメラ102によって撮像して得られた画像である。位置情報算出部105は、上記同様にして、図13に示した現在の画像(識別図形の画像)の4つの角部を基準位置として、基準位置Ph1’(xh1’,zh1’),Ph2’(xh2’,zh2’),Ph3’(xh3’,zh3’),Ph4’(xh4’,zh4’)の情報(前記位置情報)をカメラ座標系から取得するとともに、基準位置Ph1’,Ph2’間のz軸方向の距離dh1’、基準位置Ph2’,Ph3’間のx軸方向の距離dh2’、基準位置Ph3’,Ph4’間のz軸方向の距離dh3’、及び基準位置Ph4’,Ph1’間のx軸方向の距離dh4’を前記位置情報としてそれぞれ算出する。
h1’=zh2’-zh1
h2’=xh3’-xh2
h3’=zh3’-zh4
h4’=xh4’-xh1
 そして、位置情報算出部105は、現在の識別図形の位置情報として、基準位置Ph1’(xh1’,zh1’)を認識するとともに、上述した図7における処理と同様にして、基準シールSrの識別図形と現在のシールSaの識別図形との間のx軸-z軸平面における位置ずれ量Δx,Δzを、現在のシールSaの識別図形の位置情報として、下式により算出する(図14参照)。
Δx=xh1-xh1
Δz=zh1-zh1
 また、位置情報算出部105は、上述した図8における処理と同様にして、下式により、現在のシールSa(識別図形)のy軸回りの回転角θhy’を前記位置情報として算出するとともに、同様にして算出される基準シールSr(識別図形)の回転角θhyとの差分であるy軸回りの回転角度差Δθhyを前記位置情報として算出する(図15参照)。
θhy=tan-1((xh2-xh1)/(zh2-zh1))
θhy =tan-1((xh2’-xh1’)/(zh2’-zh1’))
Δθhy=θhy-θhy
 また、位置情報算出部105は、上述した図9における処理と同様にして、下式により、基準シールSr(識別図形)に対する現在のシールSa(識別図形)のy軸方向の位置誤差Δyを算出する。ここで、図9におけるAは識別図形の距離dh1に対応した部位の長さであり、Lはカメラ32の結像面とシールS(Sa,Sr)との間の距離である(図16参照)。
Δy=L(dh1-dh1’)/(A-dh1
 また、位置情報算出部105は、上述した図10における処理と同様にして、下式により、現在のシールSa(識別図形)のx軸となす角度θhz’を算出するとともに、同様にして算出される基準シールSr(識別図形)の回転角θhzとの差分であるz軸回りの回転角度差Δθhzを前記位置情報として算出する(図17参照)。
Δy=L(dh3-dh1)/(A-dh3
θhz=tan-1(L(dh3-dh1)/((A-dh3)(xh3-xh2)))
Δy’=L(dh3’-dh1’)/(A-dh3’)
θhz’=tan-1(L(dh3’-dh1’)/((A-dh3’)(xh3’-xh2’)))
Δθhz=θhz-θhz
 更に、位置情報算出部105は、上述した図11における処理と同様にして、下式により、現在のシールSa(識別図形)のz軸となす角度θhx’を算出するとともに、同様にして算出される基準シールSr(識別図形)の回転角θhxとの差分であるx軸回りの回転角度差Δθhxを前記位置情報として算出する(図18参照)。
Δy=L(dh2-dh4)/(A-dh2
θhx=tan-1(L(dh2-dh4)/((A-dh2)(zh2-zh1)))
Δy’=L(dh2’-dh4’)/(A-dh2’)
θhx’=tan-1(L(dh2’-dh4’)/((A-dh2’)(zh2’-zh1’)))
Δθhx=θhx-θhx
 前記位置情報算出部105は、以上のようにして、ホルダ16に貼着されたシールS、言い換えれば識別図形の位置情報として、基準位置Ph1’,Ph2’,Ph3’及びPh4’、基準位置Ph1’,Ph2’間のz軸方向の距離dh1’、基準位置Ph2’,Ph3’間のx軸方向の距離dh2’、基準位置Ph3’,Ph4’間のz軸方向の距離dh3’及び基準位置Ph4’,Ph1’間のx軸方向の距離dh4’、基準シールSrの識別図形に対するx軸方向の位置ずれ量Δx,y軸方向の位置ずれ量Δy及びz軸方向の位置ずれ量Δz、x軸回りの回転角θhx’、y軸回りの回転角θhy’及びz軸回りの回転角θhz’、並びに、基準シールSrの識別図形に対するx軸回りの回転角度差Δθhx、y軸回りの回転角度差Δθhy及びz軸回りの回転角度差Δθhzを算出する。
 そして、位置情報算出部105は算出した位置情報を適宜出力装置によって外部に出力するとともに、現在のシールSrが貼着されたホルダ16が、前記生産システム1の工作機械10に配備されて、これが使用される際には、適宜通信手段によって、前記生産システム1の制御装置40に入力する。尚、上述した図7~図11と同様に、図12~図18では、意図する誤差等が理解し易いような撮像画像を示しており、実際には、これらが複合された画像が撮像される。
 一方、前記補正量算出部50は、前記位置情報算出部105から位置情報を受信すると、例えば、基準シールSrの識別図形(言い換えれば基準画像)に対するx軸方向の位置ずれ量Δx,y軸方向の位置ずれ量Δy及びz軸方向の位置ずれ量Δz、並びに、基準シールSrの識別図形(言い換えれば基準画像)に対するx軸回りの回転角度差Δθhx、y軸回りの回転角度差Δθhy及びz軸回りの回転角度差Δθhzに基づいて、前記基準画像記憶部45に格納された基準画像を、各位置ずれ量Δx、Δy及びΔz分だけ位置ずれさせるとともに、各回転角度差Δθhx、Δθhy及びΔθhzだけ回転させた調整基準画像を生成し、生成した調整基準画像を初期の基準画像とともに、基準画像記憶部45に格納する。
 そして、前記補正量算出部50は、現在のシールSrが貼着されたホルダ16が、前記生産システム1の工作機械10で使用される際には、自動運転時に、生成した前記調整基準画像を用いてカメラ座標系における識別図形の並進誤差量Δx,Δy及びΔz、並びに回転誤差量Δθcx,Δθcy及びΔθczを算出し、ついでこれらをロボット座標系に変換して、当該ロボット座標系における並進誤差量Δx,Δy及びΔz、並びに回転誤差量Δθrx,Δθry及びΔθrzを算出し、算出された並進誤差量Δx,Δy及びΔz、並びに回転誤差量Δθrx,Δθry及びΔθrzに基づいて、ロボットの各作用姿勢を補正する。
 上述したように、ホルダ16に貼着されたシールSを、当該シールSの劣化等によって交換する場合、ホルダ16におけるシールSの貼着位置を、交換前の貼着位置に対して、厳密に一致させるのは困難であるため、ロボット25の作業姿勢の正確な補正を実現するためには、再度、前記ティーチング操作を実行して、以前に設定されたティーチング時の撮像姿勢を再設定するとともに、識別画像を再度撮像して、基準となるティーチング時の撮像画像を更新する必要がある。
 しかしながら、シールSを交換するたびに、ティーチング操作によって、撮像姿勢を再設定するとともに、基準となる撮像画像を更新するようにしたのでは、シール交換作業が煩雑なものとなり、また、生産システム全体の稼働率の低下を招くことになって、生産効率上、好ましくない。
 本実施形態に係る貼着位置測定装置100によれば、ホルダ16に貼着されたシールSをカメラ102によって撮像し、得られた画像を位置情報算出部105によって解析することにより、ホルダ16に設定された基準部位を基準としたシールS(言い換えれば、識別図形)の位置情報を算出することができる。そして、当該ホルダ16におけるシールSの正確な位置情報が分かれば、例えば、貼り替え前の基準シールSrの貼着位置と、新たなシールSaの貼着位置との間の誤差量(位置ずれ量Δx,Δy及びΔz、並びに、回転角度差Δθhx、回転角度差Δθhy及び回転角度差Δθhz)を算出することができる。そして、この位置誤差量を算出することができれば、当該位置誤差量に基づいてティーチング操作時に得られた基準シールSrの基準画像を補正することにより、ロボットが前記ティーチング操作時における撮像姿勢と同じ姿勢を取って、現在の新たなシールSaをカメラ32により撮像したときに得られるであろう基準画像、即ち、調整基準画像を生成することができる。
 斯くして、本例の貼着位置測定装置100によれば、ホルダ16に貼着されたシールSを交換した際に、煩雑なティーチング操作による再設定を行わなくても、上記のようにして補正された調整基準画像を用いることで、自動運転時におけるロボットの姿勢誤差量を算出することができ、得られた姿勢誤差量に基づいて、ロボットの各作業姿勢を補正することができ、これにより、生産システムの稼働率が低下するのを防止することができる。
 以上、本発明の具体的な実施の形態について説明したが、本発明が採り得る具体的な態様は、何らこれに限定されるものでは無い。
 例えば、上例では、前記位置情報算出部105により、位置情報として、基準シールSrに対するx軸方向の位置ずれ量Δx,y軸方向の位置ずれ量Δy及びz軸方向の位置ずれ量Δz、並びに、基準シールSrに対するx軸回りの回転角度差Δθhx、y軸回りの回転角度差Δθhy及びz軸回りの回転角度差Δθhzを算出するようにしたが、これに限られるものではなく、位置情報算出部105は、位置情報として、少なくとも、基準シールSrに対するx軸方向の位置ずれ量Δx及びz軸方向の位置ずれ量Δz、並びに、基準シールSrに対するy軸回りの回転角度差Δθhyを算出するように構成されていれば良い。このような態様でも、実用可能な精度の調整基準画像を生成することができる。
 また、上例では、貼着位置測定装置100を工作機械10とは別に設けたが、これに限定されるものではなく、この貼着位置測定装置100を工作機械10に組み込んだ態様としても良い。この場合、カメラ102には、工作機械10の加工領域内を撮像する既存のカメラを適用することができる。また、ホルダ16を保持する保持部には、工具を保持する工具主軸15の他、心押装置、タレット、チャックの近傍に設けられた構造物、又はツールプリセッタの構成物であるタッチセンサ支持部材の内のいずれかを割り当てることができる。また、前記位置情報算出部105は、工作機械10の制御装置内に構築することができる。
 このような態様によれば、特別に作製された測定装置を用いることなく、生産システム1の一部を構成する工作機械10であって、ロボットシステム24の作業対象である工作機械10において、その姿勢補正に使用されるシールSのホルダ16に対する貼着位置を測定することができ、安価な設備でこのような測定を行うことができる。また、測定結果を用いることで、当該工作機械10におけるロボット25の作業姿勢を補正することができる。したがって、ホルダ16に貼着されたシールSを交換した場合であっても、煩わしいティーチング操作による再設定を行うことなく、自動運転時のロボット25の作業姿勢を補正することができる。
 この態様の一例を図19に示す。この態様では、図3に示した工作機械10において、その第1主軸11の上方に、加工領域に対して進退可能にカメラ102を配設し、ホルダ16を保持する保持部として工具主軸15を割り当てている。位置情報算出部105は、工作機械10の制御装置内に構築されている。尚、カメラ102が収納される収納部は、その開口がシャッタ(図示せず)によって開閉されるようになっている。
 また、ロボットの作業姿勢を補正するための補正量の算出手法は、図7-図11を用いて説明した算出手法に限られるものではなく、識別図形の撮像画像を用いて補正量を算出することができれば、当然に他の算出手法を適用することができる。
 繰り返しになるが、上述の実施形態の説明は、すべての点で例示であって、制限的なものではない。当業者にとって変形および変更が適宜可能である。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲内と均等の範囲内での実施形態からの変更が含まれる。
 1  生産システム
 10 工作機械
 11 第1主軸
 13 第2主軸
 15 工具主軸
 16 ホルダ
 17 刃物台
 18 タレット
 20 材料ストッカ
 21 製品ストッカ
 24 ロボットシステム
 25 ロボット
 32 カメラ
 35 無人搬送車
 37 操作盤
 40 制御装置
 41 動作プログラム記憶部
 42 移動位置記憶部
 43 動作姿勢記憶部
 44 マップ情報記憶部
 45 基準画像記憶部
 46 手動運転制御部
 47 自動運転制御部
 48 マップ情報生成部
 49 位置認識部
 50 補正量算出部
 51 入出力インターフェース
 100 貼着位置測定装置
 101 保持部
 102 カメラ
 103 支持ブロック
 S,Sa,Sr シール
 

Claims (5)

  1.  識別図形が描画されたシールの、支持部材への貼着位置を測定する装置であって、
     前記支持部材を保持する保持部と、
     前記保持部に保持され、前記シールが貼着された支持部材を撮像するカメラと、
     前記カメラによって撮像された前記支持部材及びシールを含む画像を処理して、前記支持部材に設定された基準部位を基準とした前記識別図形の位置情報を算出する位置情報算出部とを備えていることを特徴とする貼着位置測定装置。
  2.  前記位置情報は、前記基準部位を基準として前記支持部材の貼着面に設定された第1軸及び第2軸の直交2軸方向における位置、並びに前記第1軸及び第2軸と直交する第3軸回りの回転角度に関する情報を含む請求項1記載の貼着位置測定装置。
  3.  前記位置情報は、更に、前記第3軸方向の位置、前記第1軸回りの回転角度、及び前記第2軸回りの回転角度に関する情報を含む請求項2記載の貼着位置測定装置。
  4.  前記請求項1から3のいずれか1項に記載の貼着位置測定装置を備えた工作機械。
  5.  前記保持部には、前記工作機械を構成する、工具を保持する工具主軸、心押装置、タレット、チャックの近傍に設けられた構造物、又はツールプリセッタの構成物であるタッチセンサ支持部材の内の少なくともいずれかが割り当てられ、
     前記カメラには、加工領域内を撮像するために機内に設けられた機内カメラが割り当てられ、
     前記位置情報算出部は、工作機械の制御装置内に構築されていることを特徴とする請求項4記載の工作機械。
PCT/JP2022/000678 2021-03-15 2022-01-12 貼着位置測定装置及びこれを備えた工作機械 WO2022196052A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021041410A JP7015949B1 (ja) 2021-03-15 2021-03-15 貼着位置測定装置及びこれを備えた工作機械
JP2021-041410 2021-03-15

Publications (1)

Publication Number Publication Date
WO2022196052A1 true WO2022196052A1 (ja) 2022-09-22

Family

ID=80912392

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/000678 WO2022196052A1 (ja) 2021-03-15 2022-01-12 貼着位置測定装置及びこれを備えた工作機械

Country Status (2)

Country Link
JP (1) JP7015949B1 (ja)
WO (1) WO2022196052A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015136742A (ja) * 2014-01-21 2015-07-30 セイコーエプソン株式会社 制御装置、ロボットシステム、ロボット及びキャリブレーション方法
JP2016221622A (ja) * 2015-05-29 2016-12-28 ファナック株式会社 位置補正機能を有するロボットを備えた生産システム
JP2017071033A (ja) * 2015-10-09 2017-04-13 キヤノン株式会社 作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6199000B2 (ja) 2015-05-29 2017-09-20 三菱電機株式会社 情報処理装置
CN107309871A (zh) 2016-04-27 2017-11-03 广明光电股份有限公司 机器手臂的编程方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015136742A (ja) * 2014-01-21 2015-07-30 セイコーエプソン株式会社 制御装置、ロボットシステム、ロボット及びキャリブレーション方法
JP2016221622A (ja) * 2015-05-29 2016-12-28 ファナック株式会社 位置補正機能を有するロボットを備えた生産システム
JP2017071033A (ja) * 2015-10-09 2017-04-13 キヤノン株式会社 作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材

Also Published As

Publication number Publication date
JP2022141200A (ja) 2022-09-29
JP7015949B1 (ja) 2022-02-14

Similar Documents

Publication Publication Date Title
WO2021039829A1 (ja) 生産システム
US20220331970A1 (en) Robot-mounted moving device, system, and machine tool
JP6228120B2 (ja) 多関節型ロボットを備えた作業機および電気部品装着機
JP2005138223A (ja) ロボット用位置データ修正装置
JP6913833B1 (ja) ワーク装着システム
JPH11156764A (ja) 移動ロボット装置
JP2020116717A (ja) ロボット制御システム
WO2022196052A1 (ja) 貼着位置測定装置及びこれを備えた工作機械
WO2023032400A1 (ja) 自動搬送装置、及びシステム
US20230415353A1 (en) Robot-mounted mobile device and positioning control method for system
JP7482364B2 (ja) ロボット搭載移動装置及びシステム
WO2022195938A1 (ja) ロボットシステムの位置決め精度測定方法
JP6906724B1 (ja) 工作機械
JP6832408B1 (ja) 生産システム
WO2022091767A1 (ja) 画像処理方法、画像処理装置、ロボット搭載型搬送装置、及びシステム
JP2022190834A (ja) ロボットシステム
WO2022097535A1 (ja) ティーチング操作を用いた設定方法
JP7105223B2 (ja) ロボットシステム
JP2024068115A (ja) ロボット搭載移動装置
JP2021112809A (ja) 生産システム
JPS61131887A (ja) 視覚付ロボツトのキヤリブレ−シヨン方式
CN118019620A (zh) 控制装置以及机器人系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22770814

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22770814

Country of ref document: EP

Kind code of ref document: A1