WO2022009765A1 - ロボット制御装置 - Google Patents

ロボット制御装置 Download PDF

Info

Publication number
WO2022009765A1
WO2022009765A1 PCT/JP2021/024934 JP2021024934W WO2022009765A1 WO 2022009765 A1 WO2022009765 A1 WO 2022009765A1 JP 2021024934 W JP2021024934 W JP 2021024934W WO 2022009765 A1 WO2022009765 A1 WO 2022009765A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
action
unit
point
control device
Prior art date
Application number
PCT/JP2021/024934
Other languages
English (en)
French (fr)
Inventor
康広 内藤
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to CN202180047481.XA priority Critical patent/CN115803695A/zh
Priority to US18/010,571 priority patent/US20230249344A1/en
Priority to DE112021003659.9T priority patent/DE112021003659T5/de
Priority to JP2022535274A priority patent/JP7392154B2/ja
Publication of WO2022009765A1 publication Critical patent/WO2022009765A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40582Force sensor in robot fixture, base
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/405866-DOF force sensor

Definitions

  • the present invention relates to a robot control device.
  • Patent Document 1 As a method of setting the tool tip point of the robot, a method of operating the robot, teaching the tool tip point to touch a jig or the like in multiple postures, and calculating the tool tip point from the joint angle in each posture is known. ing. See, for example, Patent Document 1.
  • the setting accuracy of the tool tip point and the time required for the setting work are determined according to the skill level of the operator, and the setting accuracy and the setting time may not be stable.
  • One aspect of the robot control device of the present disclosure is an acquisition unit that acquires force data indicating an external force applied to a tool mounted on the robot detected by a sensor arranged on the robot, and the acquisition unit acquired by the acquisition unit. It includes an action point calculation unit that calculates the action point of the external force based on force data, and a setting unit that sets the action point of the external force as a tool tip point of the robot.
  • the tool tip point can be set easily and intuitively without operating the robot.
  • FIG. 1 is a functional block diagram showing a functional configuration example of the robot system according to the first embodiment.
  • the robot system 100 includes a robot 1 and a robot control device 2.
  • the robot 1 and the robot control device 2 may be directly connected to each other via a connection interface (not shown).
  • the robot 1 and the robot control device 2 may be connected to each other via a network such as a LAN (Local Area Network).
  • the robot 1 and the robot control device 2 may include a communication unit (not shown) for communicating with each other by such a connection.
  • FIG. 2 is a diagram showing an example of the robot 1.
  • the robot 1 is a 6-axis vertical articulated robot, and has six joint axes 11 (1) -11 (6) and joint axes 11 (1) -11 (6). It has an arm portion 12 connected by each.
  • the robot 1 drives a servomotor (not shown) arranged on each of the joint shafts 11 (1) -11 (6) based on a drive command from the robot control device 2, thereby driving a movable member such as an arm portion 12. To drive.
  • a tool 13 such as a grinder or a screwdriver is attached to the tip of the manipulator of the robot 1, for example, the tip of the joint shaft 11 (6).
  • a 6-axis force sensor is arranged as a sensor 10 on the base of the robot 1.
  • the robot 1 is a 6-axis vertical articulated robot, it may be a vertical articulated robot other than the 6-axis robot, a horizontal articulated robot, a parallel link robot, or the like. Further, in the following, when it is not necessary to individually distinguish each of the joint axes 11 (1) -11 (6), these are collectively referred to as "joint axis 11". Further, the robot 1 has a world coordinate system ⁇ w of a three-dimensional Cartesian coordinate system fixed in space and a mechanical interface coordinate system of three-dimensional Cartesian coordinates set on the flange at the tip of the joint axis 11 (6) of the robot 1. And have.
  • the position correlation between the world coordinate system ⁇ w and the mechanical interface coordinate system is taken by a calibration known in advance.
  • the robot control device 2 described later can control the position of the tip portion of the robot 1 to which the tool 13 described later is attached by using the position defined by the world coordinate system ⁇ w.
  • the robot control device 2 outputs a drive command to the robot 1 based on the program and controls the operation of the robot 1.
  • the teaching operation panel 25 that teaches the operation to the robot 1 is connected to the robot control device 2.
  • the robot control device 2 has a control unit 20, an input unit 21, a storage unit 22, and a display unit 23.
  • the control unit 20 includes an acquisition unit 201, an action point calculation unit 202, a setting unit 203, and a display control unit 204.
  • the input unit 21 is, for example, a keyboard or button (not shown) included in the robot control device 2, a touch panel of the display unit 23 described later, or the like, and receives an operation from the user U of the robot control device 2.
  • the storage unit 22 is, for example, a ROM (Read Only Memory), an HDD (Hard Disk Drive), or the like, and stores a system program, an application program, or the like executed by the control unit 20 described later. Further, the storage unit 22 may store the action points calculated by the action point calculation unit 202, which will be described later.
  • the display unit 23 is, for example, a display device such as an LCD (Liquid Crystal Display), and is a message instructed to the user U based on a control command of the display control unit 204 described later, or an action point calculation unit 202 described later. A screen showing the positional relationship between the action point calculated by the above and the robot 1 is displayed.
  • LCD Liquid Crystal Display
  • the control unit 20 has a CPU (Central Processing Unit), a ROM, a RAM, a CMOS (Complementary Metal-Oxide-Processor) memory, and the like, and these are known to those skilled in the art, which are configured to be communicable with each other via a bus. belongs to.
  • the CPU is a processor that controls the robot control device 2 as a whole.
  • the CPU reads out the system program and the application program stored in the ROM via the bus, and controls the entire robot control device 2 according to the system program and the application program.
  • the control unit 20 is configured to realize the functions of the acquisition unit 201, the action point calculation unit 202, the setting unit 203, and the display control unit 204.
  • CMOS memory is backed up by a battery (not shown), and is configured as a non-volatile memory in which the storage state is maintained even when the power of the robot control device 2 is turned off.
  • the acquisition unit 201 acquires force data indicating an external force applied to the tool 13 detected by the sensor 10 when the user U applies a force to the tool 13. Specifically, the acquisition unit 201 acquires force data of the force vector and the torque vector of the external force applied to the tool 13 detected by the sensor 10.
  • the action point calculation unit 202 calculates the action point of the external force, which is the position where the user U applies the force to the tool 13, based on the force data acquired by the acquisition unit 201.
  • the vector of the force F and the torque M acquired by the acquisition unit 201 is obtained from the sensor 10.
  • M d ⁇ F ( "X" indicates the outer product).
  • the black circle in the sensor 10 in FIG. 2 indicates the start point of the position vector d.
  • the position vector d to the nearest contact point to the straight line passing through the point of action is calculated.
  • the user U applies a force to the tip of the tool 13 in the Z-axis direction, but a force may be applied to an arbitrary position of the tool 13 in any direction.
  • FIG. 3 is a diagram showing an example in which the user U applies a force in another direction to the tip of the tool 13.
  • the action point calculation unit 202 may perform a force.
  • the point of action calculation unit 202 calculates the position vector d'to the nearest contact point to the straight line passing through the point of action by solving three simultaneous equations of unknowns (d'x , d' y , d' z). .. Then, the action point calculation unit 202 passes through the position vector d and has a straight line in the direction of the vector F (broken line in FIG. 2) and a straight line passing through the position vector d'in the direction of the vector F'(broken line in FIG. 3). The intersection of is found as the point of action. In this way, when the user U applies a force to the tool 13 in two different directions, the action point calculation unit 202 can accurately calculate the action point (intersection point).
  • the action point calculation unit 202 is the closest point of the two straight lines. May be obtained and the midpoint thereof may be used as the point of action. Further, although the user U applies a force in two different directions to the tip of the tool 13, a force in three or more different directions may be applied to the tip of the tool 13.
  • the setting unit 203 sets the action point calculated by the action point calculation unit 202 as the tool tip point of the tool 13 of the robot 1.
  • the display control unit 204 displays a message instructing the user U to press the tool 13 of the robot 1 when setting the tool tip point on the display unit 23, or is calculated by the action point calculation unit 202.
  • a screen showing the positional relationship between the robot 1 and the robot 1 is displayed on the display unit 23.
  • FIG. 4 is a flowchart illustrating the calculation process of the robot control device 2. The flow shown here is executed every time the user U receives a tool tip point setting instruction via the input unit 21.
  • step S1 the display control unit 204 displays a message such as "press the tip of the tool” on the display unit 23 to force the user U to apply force to the tool 13.
  • step S2 the acquisition unit 201 acquires the force data of the external force F and the torque M applied to the tool 13 detected by the sensor 10 when the user U applies a force to the tool 13.
  • step S3 the action point calculation unit 202 calculates the position vector d to the nearest contact point to the straight line passing through the action point of the tool 13 based on the force data acquired in step S2.
  • step S4 the action point calculation unit 202 determines whether or not the force data has been acquired a predetermined number of times (for example, twice). When the force data is acquired a predetermined number of times, the process proceeds to step S5. On the other hand, if the force data has not been acquired a predetermined number of times, the process returns to step S1. In this case, in step S1, the display control unit 204 preferably displays a message such as "Please push the tip of the tool in another direction" on the display unit 23.
  • step S5 the action point calculation unit 202 calculates the intersection of two straight lines as the action point based on the detected vectors F and F'and the calculated position vectors d and d'.
  • step S6 the setting unit 203 sets the action point calculated in step S5 as the tool tip point of the tool 13 of the robot 1.
  • the external force applied by the user U to the tool 13 mounted on the robot 1 is detected by the sensor 10 arranged on the robot 1 and the force F. Acquired as force data of torque M.
  • the robot control device 2 calculates the action point of the external force based on the acquired force data, and sets the action point as the tool tip point of the robot 1. As a result, the robot control device 2 can easily and intuitively set the tool tip point without operating the robot 1.
  • the first embodiment has been described above.
  • the robot control device 2 according to the first embodiment and the robot control device 2a according to the second embodiment are based on force data detected by the user U applying a force to the tip of the tool 13. It is common in that the tool tip point is set. However, in the first embodiment, the force data is detected by using the 6-axis force sensor. On the other hand, the second embodiment is different from the first embodiment in that the force data is detected by using the torque sensors arranged on each joint axis 11 of the robot 1. As a result, the robot control device 2a according to the second embodiment can easily and intuitively set the tool tip point without operating the robot 1a.
  • the second embodiment will be described below.
  • FIG. 5 is a functional block diagram showing a functional configuration example of the robot system according to the second embodiment.
  • the elements having the same functions as the elements of the robot system 100 of FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the robot system 100A has a robot 1a and a robot control device 2a as in the first embodiment.
  • the robot 1a is an industrial robot or the like known to those skilled in the art, as in the case of the first embodiment.
  • FIG. 6 is a diagram showing an example of the robot 1a.
  • the robot 1a is, for example, a 6-axis vertical articulated robot, as in the case of the first embodiment, and has 6 joint axes 11 (1) -11 (6) and joint axes 11 (1) -11 ( It has an arm portion 12 connected by each of 6).
  • the robot 1a drives a servomotor (not shown) arranged on each of the joint shafts 11 (1) -11 (6) based on a drive command from the robot control device 2a to drive a movable member such as an arm portion 12. To drive.
  • a tool 13 such as a grinder or a screwdriver is attached to the tip of the manipulator of the robot 1, for example, the tip of the joint shaft 11 (6).
  • a torque sensor sensor 10a (not shown) for detecting torque around the rotation axis is arranged on each of the joint shafts 11 (1) -11 (6) of the robot 1a.
  • the sensor 10a of each joint shaft 11 periodically detects the torque M as the pressing force of the tool 13 at a predetermined sampling time.
  • the sensor 10a of each joint shaft 11 detects the torque M of the force applied by the user U even when the user U applies a force to the tool 13.
  • the sensor 10a of each joint axis 11 outputs the detected force data to the robot control device 2a via a connection interface (not shown).
  • the robot control device 2a outputs a drive command to the robot 1a based on the program and controls the operation of the robot 1a, as in the case of the first embodiment.
  • the robot control device 2a according to the second embodiment has a control unit 20a, an input unit 21, a storage unit 22, and a display unit 23.
  • the control unit 20a includes an acquisition unit 201, an action point calculation unit 202a, a setting unit 203, and a display control unit 204.
  • the control unit 20a, the input unit 21, the storage unit 22, and the display unit 23 have the same functions as the control unit 20, the input unit 21, the storage unit 22, and the display unit 23 according to the first embodiment. Further, the acquisition unit 201, the setting unit 203, and the display control unit 204 have the same functions as the acquisition unit 201, the setting unit 203, and the display control unit 204 according to the first embodiment.
  • the action point calculation unit 202a is a sensor of each joint axis 11 when the user U applies a force to an arbitrary point of the tool 13 (for example, the tip of the tool 13) in the Z-axis direction.
  • the position of the point of action is determined using the torque M detected by 10a.
  • the rotation centers of the joint shaft 11 (4) and the joint shaft 11 (6) are offset.
  • FIG. 7 is a diagram showing an example of the offset of the rotation center between the joint axis 11 (4) and the joint axis 11 (6). As shown in FIG. 7, the rotation centers of the joint axis 11 (4) and the joint axis 11 (6) are offset from each other by the distance D3.
  • a force may be applied to an arbitrary position of the tool 13 in a predetermined direction.
  • the display control unit 204 displays a message such as "press the point you want to set in the + Z axis direction" on the display unit 23.
  • the sensor 10a of the joint axis 11 (3) and the sensor of the joint axis 11 (5) Using the torques M3 and M5 detected by 10a and the equation (1), the distance D2 from the joint axis 11 (5) to the straight line passing through the point of action indicated by the broken line is calculated.
  • D2 (M5 / (M3-M5)) D1 (1)
  • D1 is a known distance in which the direction of the force between the joint axis 11 (3) and the joint axis 11 (5) is orthogonal to the direction vector projected on the rotation plane of the joint axis. ..
  • the action point calculation unit 202a uses the torques M4 and M6 detected by the sensor 10a of the joint axis 11 (4) and the sensor 10a of the joint axis 11 (6), and the equation (2), as shown in FIG.
  • the offset distance D3 due to the user U applying a force (for example, a force in the Z-axis direction) to the tip of the tool 13 is calculated.
  • D3 (M6 / (M4-M6)) D4 (2)
  • D4 is a horizontal distance (distance in the X-axis direction) between the joint axis 11 (4) and the joint axis 11 (6).
  • FIG. 8 is a diagram showing an example in which the user U applies a horizontal force to the tip of the tool 13.
  • the action point calculation unit 202a has the joint axis 11 (2) and the joint axis 11 (5) when the user U applies a force in the horizontal direction (-X-axis direction) in the same manner as when the distances D2 and D3 are calculated.
  • the action point calculation unit 202a uses the calculated distances D2, D3, and height H together with the known distance D1, so that the force F is applied at the distance D2 from the joint axis 11 (5) shown by the broken line in FIG. Two three-dimensional straight lines, a straight line in the direction and a straight line in the direction of the force F'at the height H shown by the broken line in FIG. 8, are obtained.
  • the action point calculation unit 202a can calculate the intersection of the two obtained three-dimensional straight lines as the action point of the tool 13. That is, when the user U applies a force to the tip of the tool 13 in two different directions, the action point calculation unit 202a can accurately calculate the action point.
  • the two three-dimensional straight lines You may find the closest point of the above and use the middle point as the point of action. Further, although the user U applies a force in two different directions to the tip of the tool 13, a force in three or more different directions may be applied to the tip of the tool 13.
  • FIG. 9 is a flowchart illustrating the calculation process of the robot control device 2a. The flow shown here is executed every time the user U receives a tool tip point setting instruction via the input unit 21.
  • the processes of steps S11, S12, and S16 shown in FIG. 9 are the same as those of steps S1, S2, and S6 according to the first embodiment, and detailed description thereof will be omitted.
  • step S13 the action point calculation unit 202a calculates the distance to the straight line in the direction in which the force F is applied based on the force data acquired in step S12.
  • step S14 the action point calculation unit 202a determines whether or not the force data has been acquired a predetermined number of times (for example, twice). When the force data is acquired a predetermined number of times, the process proceeds to step S15. On the other hand, if the force data has not been acquired a predetermined number of times, the process returns to step S11. In this case, in step S11, it is preferable that the display control unit 204 displays a message such as "Please push the tip of the tool at the same point in the -X-axis direction" on the display unit 23.
  • step S15 the action point calculation unit 202 obtains two three-dimensional straight lines based on the distance to the straight line to which the force F calculated for each predetermined number of times is applied, and uses the intersection of the obtained two three-dimensional straight lines as the action point. calculate.
  • the robot control device 2a detects the external force applied by the user U to the tool 13 mounted on the robot 1a by the sensors 10a arranged on each joint axis 11 of the robot 1a. It is acquired as the force data of the obtained torque M.
  • the robot control device 2a calculates the action point of the external force based on the acquired force data, and sets the action point as the tool tip point of the robot 1a. As a result, the robot control device 2a can easily and intuitively set the tool tip point without operating the robot 1a.
  • the second embodiment has been described above.
  • the robot control devices according to each embodiment are common in that the tool tip point is set based on the force data detected by applying a force to the tool 13 by the user U.
  • the user U cannot directly apply a force to the tip of the tool 13, and by applying a force to any two points of the tool 13, the action points of each of the two points are calculated and calculated.
  • the midpoint of the straight line connecting the two points of action is set as the tool tip point.
  • FIG. 10 is a functional block diagram showing a functional configuration example of the robot system according to the third embodiment.
  • the elements having the same functions as the elements of the robot system 100 of FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the robot system 100B has a robot 1 and a robot control device 2b as in the first embodiment.
  • the robot 1 has a sensor 10 of a 6-axis force sensor on the base, as in the case of the first embodiment shown in FIG.
  • the robot 1 according to the third embodiment is equipped with, for example, a two-claw chuck that holds the tool as the tool 13.
  • FIG. 11 is a diagram showing an example of a chuck. As shown in FIG. 11, the chuck, which is the tool 13, has two claws 14a and 14b, and the two claws 14a and 14b move in the direction indicated by the arrow based on the operation command from the robot control device 2b. Holds tools etc.
  • the robot control device 2b calculates the action points of the claws 14a and 14b by applying a force to the user U to each of the two claws 14a and 14b of the chuck which is the tool 13, and the two calculated points are calculated. Set the midpoint of the straight line connecting the points of action as the tool tip point.
  • the robot 1 has the sensor 10 of the 6-axis force sensor in the third embodiment, the robot 1a having the sensor 10a of the torque sensor on each joint axis 11 may be used.
  • the robot control device 2b outputs a drive command to the robot 1 based on the program and controls the operation of the robot 1, as in the case of the first embodiment.
  • the robot control device 2b according to the third embodiment has a control unit 20b, an input unit 21, a storage unit 22, and a display unit 23.
  • the control unit 20b includes an acquisition unit 201, an action point calculation unit 202b, a setting unit 203b, and a display control unit 204.
  • control unit 20b, the input unit 21, the storage unit 22, and the display unit 23 have the same functions as the control unit 20, the input unit 21, the storage unit 22, and the display unit 23 according to the first embodiment. Further, the acquisition unit 201, the setting unit, and the display control unit 204 have the same functions as the acquisition unit 201 and the display control unit 204 according to the first embodiment.
  • the action point calculation unit 202b is the action of an external force which is a position where the user U applies a force to the tool 13 based on the force data acquired by the acquisition unit 201. Calculate the points. Specifically, the action point calculation unit 202b sets the vector values of the force F and the torque M detected by the sensor 10 by the user U applying a force to the claw 14a of the tool 13 which is a chuck, for example. Substituting into d ⁇ F, the position vector d to the nearest contact point to the straight line passing through the point of action of the claw 14a is calculated.
  • the action point calculation unit 202b obtains the intersection of the straight line passing through the position vector d and in the direction of the vector F and the straight line passing through the position vector d'and in the direction of the vector F'as the action point of the claw 14b.
  • the action point calculation unit 202b stores the obtained action point of the claw 14b in the storage unit 22.
  • the setting unit 203b reads out the action points of the two claws 14a and 14b stored in the storage unit 22, and sets the midpoint of the straight line connecting the read out two action points as the tool tip point.
  • FIG. 12 is a flowchart illustrating the calculation process of the robot control device 2b. The flow shown here is executed every time the user U receives a tool tip point setting instruction via the input unit 21.
  • step S21 the display control unit 204 displays on the display unit 23 a message such as "Please press one place of the tool” to force the user U to apply force to one of the claws 14a and 14b of the tool 13.
  • step S22 the acquisition unit 201 acquires the force data of the external force force F and the torque M applied to the claw 14a detected by the sensor 10 when the user U applies a force to the claw 14a of the tool 13.
  • step S23 the action point calculation unit 202b calculates the position vector d to the nearest contact point to the straight line passing through the action point of the claw 14a based on the force data acquired in step S22.
  • step S24 the action point calculation unit 202b determines whether or not the force data has been acquired a predetermined number of times (for example, twice, etc.) for one location.
  • the process proceeds to step S25.
  • the display control unit 204 displays a message such as "Please push the same place in a different direction" on the display unit 23.
  • step S25 the action point calculation unit 202b calculates the intersection of two straight lines as the action point based on the detected vectors F and F'and the calculated position vectors d and d'.
  • step S26 the action point calculation unit 202b determines whether or not the action points have been calculated at all the points (for example, the two claws 14a and 14b) of the tool 13. When the points of action are calculated at all points, the process proceeds to step S27. On the other hand, if the points of action have not been calculated at all points, the process returns to step S21. In this case, in step S21, it is preferable that the display control unit 204 displays a message such as "Please press another place" on the display unit 23.
  • step S27 the setting unit 203b reads out the action points of the two claws 14a and 14b stored in the storage unit 22, and sets the midpoint of the straight line connecting the read out two action points as the tool tip point.
  • the robot control device 2b is a sensor arranged on the robot 1 by applying an external force applied by the user U to each of the two claws 14a and 14b of the tool 13 mounted on the robot 1. It is acquired as force data of the force F and the torque M detected by 10.
  • the robot control device 2b calculates the action points for each of the claws 14a and 14b of the tool 13 based on the acquired force data, and the midpoint of the straight line connecting the action points of the two claws 14a and 14b is the tool tip point of the robot 1. Set as. As a result, the robot control device 2b can easily and intuitively set the tool tip point without operating the robot 1.
  • the third embodiment has been described above.
  • the tool 13 which is a chuck has two claws 14a and 14b, but the present invention is not limited to this.
  • the tool 13 may be a chuck having a plurality of claws of 3 or more.
  • FIG. 13 is a diagram showing an example of a chuck. As shown in FIG. 13, the chuck, which is the tool 13, has three claws 15a, 15b, and 15c, and the three claws 15a, 15b, and 15c are in the directions indicated by the arrows based on the operation command from the robot control device 2b. Hold tools etc. by moving to.
  • the action point calculation unit 202b may calculate the action points on the plurality of claws by causing the user U to apply a force to each of the plurality of claws of the chuck of the tool 13.
  • the setting unit 203b may set the midpoint of a polygon having a triangle or more connecting the calculated action points of the plurality of claws as the tool tip point of the robot 1.
  • the setting unit 203b sets the midpoint of the straight line connecting the action points of the two claws 14a and 14b of the chuck of the tool 13 as the tool tip point of the robot 1, but the present invention is not limited to this.
  • the display control unit 204 displays a screen showing the positional relationship between the robot 1 and the straight line connecting the action points of the two claws 14a and 14b on the display unit 23, and the setting unit 203b via the input unit 21.
  • An arbitrary position on a straight line designated based on the input of the user U may be set as the tool tip point of the robot 1.
  • FIG. 14 is a diagram showing an example in which an arbitrary position on a straight line connecting two points of action is designated by the user U.
  • FIG. 14 a position designated by the user U is shown on a straight line connecting the points of action of the two claws 14a and 14b indicated by circles.
  • the display control unit 204 displays a screen showing the positional relationship between the robot 1 and the polygon connecting the points of action of the plurality of claws on the display unit 23.
  • the setting unit 203b may set an arbitrary position in the polygon designated based on the input of the user U via the input unit 21 as the tool tip point of the robot 1.
  • the robot control devices 2, 2a and 2b have been described.
  • the present invention is not limited to the above-described embodiment, and includes modifications, improvements, and the like to the extent that the object can be achieved.
  • the robots 1 and 1a when the user U applies a force As the posture, the case of the posture shown in FIGS. 2 and 6 is shown, but the posture is not limited to this.
  • the robots 1 and 1a can take any posture.
  • the user U applies a force to Z.
  • the direction in which the user U applies the force may be any two directions as long as they are different from each other.
  • an arbitrary point on the straight line connecting the two points of action is set as the tool tip point, but the present invention is not limited to this.
  • the user U presses only once to calculate a straight line in the external force direction passing through the point of action, and a screen showing the positional relationship between the calculated straight line and the robots 1, 1a is displayed on the display unit 23, and the setting unit 203 is displayed. May set an arbitrary position on a straight line designated based on the input of the user U via the input unit 21 as the tool tip point of the robots 1 and 1a.
  • the functions included in the robot control devices 2, 2a and 2b according to the first embodiment, the second embodiment, the third embodiment, the modified example 1 of the third embodiment, and the modified example 2 of the third embodiment. Can be realized by hardware, software, or a combination thereof, respectively.
  • what is realized by software means that it is realized by a computer reading and executing a program.
  • each component included in the robot control devices 2, 2a and 2b can be realized by hardware, software including an electronic circuit or the like, or a combination thereof.
  • Non-transitory computer-readable media include various types of tangible recording media (Tangible storage media).
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), and CD-.
  • the program may also be supplied to the computer by various types of temporary computer-readable media (Transity computer readable medium).
  • temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the step of describing the program to be recorded on the recording medium is not only the processing performed in chronological order but also the processing executed in parallel or individually even if it is not necessarily processed in chronological order. Also includes.
  • the robot control device of the present disclosure can take various embodiments having the following configurations.
  • the robot control device 2 of the present disclosure has an acquisition unit 201 for acquiring force data indicating an external force applied to a tool mounted on the robot 1 detected by a sensor 10 arranged on the robot 1, and an acquisition unit 201. It includes an action point calculation unit 202 that calculates the action point of the external force based on the acquired force data, and a setting unit 203 that sets the action point of the external force as the tool tip point of the robot 1. According to the robot control device 2, the tool tip point can be easily and intuitively set without operating the robot 1.
  • the sensors 10 and 10a may be a 6-axis force sensor or a torque sensor. By doing so, the robot control devices 2 and 2a can exert the same effect as in (1).
  • a storage unit 22 for storing the action point calculated by the action point calculation unit 202b is provided, and two setting units 203b are stored in the storage unit 22.
  • the midpoint of the straight line connecting the two action points may be set as the tool tip point.
  • a display unit 23 that displays a screen showing the positional relationship between the robot 1 and the straight line connecting the two points of action, and an arbitrary on the straight line displayed on the screen.
  • An input unit 21 for designating the position of the above may be provided. By doing so, the robot control device 2b can set the optimum position as the tool tip point according to the tool 13 mounted on the robot 1.
  • a storage unit 22 for storing the action points calculated by the action point calculation unit 202b is provided, and the setting unit 203b has three or more in the storage unit 22.
  • the midpoint of a polygon connecting the plurality of action points may be set as the tool tip point.
  • a display unit 23 that displays a screen showing a positional relationship between the robot 1 and a polygon connecting a plurality of points of action, and the inside of the polygon displayed on the screen.
  • An input unit 21 for designating an arbitrary position of the above may be provided. By doing so, the robot control device 2b can achieve the same effect as in (4).
  • the display unit 23 and the input unit 21 are provided, and the action point calculation units 202 and 202a pass through the action point of the external force.
  • the straight line is calculated, the display unit 23 displays a screen showing the positional relationship between the straight line and the robots 1, 1a, and the input unit 21 specifies an arbitrary position on the straight line displayed on the screen, and the setting unit 203. May set any designated position as the tool tip point of the robots 1, 1a. By doing so, the robot control devices 2 and 2a can exert the same effect as in (4).
  • Robot 10 1, 1a Robot 10, 10a Sensor 2, 2a, 2b Robot control device 20, 20a, 20b Control unit 201 Acquisition unit 202, 202a, 202b Action point calculation unit 203, 203b Setting unit 204 Display control unit 21 Input unit 22 Storage unit 23 Display unit 100, 100A, 100B Robot system

Abstract

ロボットを動作させることなく、ツール先端点を容易かつ直感的に設定すること。 ロボット制御装置は、ロボットに配置されたセンサにより検出された前記ロボットに装着されたツールに加わる外力を示す力データを取得する取得部と、前記取得部により取得された前記力データに基づいて前記外力の作用点を算出する作用点算出部と、前記外力の作用点を前記ロボットのツール先端点として設定する設定部と、を備える。

Description

ロボット制御装置
 本発明は、ロボット制御装置に関する。
 ロボットのツール先端点を設定する方法として、ロボットを動作させ、ツール先端点を治具等に複数姿勢で接するように教示し、各姿勢での関節角度からツール先端点を算出する方法が知られている。例えば、特許文献1参照。
特開平8-085083号公報
 しかしながら、ツール先端点を算出するには、ツール先端点が治具等に接するようにロボットを動作させる必要があり、時間と技術が必要である。また、ツール先端点の設定精度と設定作業に要する時間とが作業者の熟練度に応じて定まり、設定精度及び設定時間が安定しない場合がある。
 そこで、ロボットを動作させることなく、ツール先端点を容易かつ直感的に設定することが望まれている。
 本開示のロボット制御装置の一態様は、ロボットに配置されたセンサにより検出された前記ロボットに装着されたツールに加わる外力を示す力データを取得する取得部と、前記取得部により取得された前記力データに基づいて前記外力の作用点を算出する作用点算出部と、前記外力の作用点を前記ロボットのツール先端点として設定する設定部と、を備える。
 一態様によれば、ロボットを動作させることなく、ツール先端点を容易かつ直感的に設定することができる。
第1実施形態に係るロボットシステムの機能的構成例を示す機能ブロック図である。 ロボットの一例を示す図である。 ユーザがツールの先端に別の方向の力を加えた一例を示す図である。 ロボット制御装置の算出処理について説明するフローチャートである。 第2実施形態に係るロボットシステムの機能的構成例を示す機能ブロック図である。 ロボットの一例を示す図である。 関節軸の回転中心のオフセットの一例を示す図である。 ユーザがツールの先端に水平方向の力を加えた一例を示す図である。 ロボット制御装置の算出処理について説明するフローチャートである。 第3実施形態に係るロボットシステムの機能的構成例を示す機能ブロック図である。 チャックの一例を示す図である。 ロボット制御装置の算出処理について説明するフローチャートである。 チャックの一例を示す図である。 ユーザUにより2つの作用点を結んだ直線上の任意の位置が指定された一例を示す図である。
 以下、第1実施形態について図面を用いて説明する。
<第1実施形態>
 図1は、第1実施形態に係るロボットシステムの機能的構成例を示す機能ブロック図である。
 図1に示すように、ロボットシステム100は、ロボット1、及びロボット制御装置2を有する。
 ロボット1とロボット制御装置2とは、図示しない接続インタフェースを介して互いに直接接続されてもよい。なお、ロボット1とロボット制御装置2とは、LAN(Local Area Network)等のネットワークを介して相互に接続されていてもよい。この場合、ロボット1、及びロボット制御装置2は、かかる接続によって相互に通信を行うための図示しない通信部を備えてもよい。
<ロボット1>
 ロボット1は、例えば、当業者にとって公知の産業用ロボット等である。
 図2は、ロボット1の一例を示す図である。
 ロボット1は、例えば、図2に示すように、6軸の垂直多関節ロボットであり、6つの関節軸11(1)-11(6)と、関節軸11(1)-11(6)の各々により連結されるアーム部12を有する。ロボット1は、ロボット制御装置2からの駆動指令に基づいて、関節軸11(1)-11(6)の各々に配置される図示しないサーボモータを駆動することにより、アーム部12等の可動部材を駆動する。また、ロボット1のマニピュレータの先端部、例えば、関節軸11(6)の先端部には、例えば、グラインダやスクリュードライバー等のツール13が取り付けられる。
 また、図2では、ロボット1のベースにセンサ10として6軸力センサが配置されている。これにより、センサ10は、ツール13の押付力として、所定のサンプリング時間で周期的に力F(=(F,F,F))とトルクM(=(M,M,M))とを検出する。また、センサ10は、ユーザUがツール13に力を加える場合も、ユーザUにより加えられた力の力FとトルクMとを検出する。センサ10は、図示しない接続インタフェースを介して、検出した力データをロボット制御装置2に出力する。
 なお、ロボット1は、6軸の垂直多関節ロボットとしたが、6軸以外の垂直多関節ロボットでもよく、水平多関節ロボットやパラレルリンクロボット等でもよい。
 また、以下において、関節軸11(1)-11(6)のそれぞれを個々に区別する必要がない場合、これらをまとめて「関節軸11」ともいう。
 また、ロボット1は、空間上に固定された3次元直交座標系のワールド座標系Σwと、ロボット1の関節軸11(6)の先端のフランジに設定された3次元直交座標のメカニカルインタフェース座標系とを有する。本実施形態においては、事前に公知のキャリブレーションによってワールド座標系Σwとメカニカルインタフェース座標系との位置の相関が取られている。これにより、後述するロボット制御装置2は、ワールド座標系Σwで定義される位置を用いて、後述するツール13が取付けられたロボット1の先端部の位置を制御することができる。
<ロボット制御装置2>
 ロボット制御装置2は、図1及び図2に示すように、プログラムに基づいて、ロボット1に対して駆動指令を出力し、ロボット1の動作を制御する。なお、図2では、ロボット1に対して動作を教示する教示操作盤25がロボット制御装置2に接続される。
 図1に示すように、本実施形態に係るロボット制御装置2は、制御部20、入力部21、記憶部22、及び表示部23を有する。また、制御部20は、取得部201、作用点算出部202、設定部203、及び表示制御部204を有する。
 入力部21は、例えば、ロボット制御装置2に含まれる図示しないキーボードやボタン、後述する表示部23のタッチパネル等であり、ロボット制御装置2のユーザUからの操作を受け付ける。
 記憶部22は、例えば、ROM(Read Only Memory)やHDD(Hard Disk Drive)等であり、後述する制御部20が実行するシステムプログラム及びアプリケーションプログラム等を格納する。また、記憶部22は、後述する作用点算出部202により算出された作用点を格納してもよい。
 表示部23は、例えば、LCD(Liquid Crystal Display)等の表示装置であり、後述する表示制御部204の制御指令に基づいて、ユーザUに対して指示するメッセージや、後述する作用点算出部202により算出された作用点とロボット1との位置関係等を示す画面を表示する。
<制御部20>
 制御部20は、CPU(Central Processing Unit)、ROM、RAM、CMOS(Complementary Metal-Oxide-Semiconductor)メモリ等を有し、これらはバスを介して相互に通信可能に構成される、当業者にとって公知のものである。
 CPUはロボット制御装置2を全体的に制御するプロセッサである。CPUは、ROMに格納されたシステムプログラム及びアプリケーションプログラムを、バスを介して読み出し、前記システムプログラム及びアプリケーションプログラムに従ってロボット制御装置2全体を制御する。これにより、図1に示すように、制御部20が、取得部201、作用点算出部202、設定部203、及び表示制御部204の機能を実現するように構成される。RAMには一時的な計算データや表示データ等の各種データが格納される。また、CMOSメモリは図示しないバッテリでバックアップされ、ロボット制御装置2の電源がオフされても記憶状態が保持される不揮発性メモリとして構成される。
 取得部201は、例えば、図2に示すように、ユーザUがツール13に力を加えることにより、センサ10により検出されたツール13に加わる外力を示す力データを取得する。
 具体的には、取得部201は、センサ10により検出されたツール13に加わる外力の力ベクトルとトルクベクトルとの力データを取得する。
 作用点算出部202は、取得部201により取得された力データに基づいて、ユーザUがツール13に力を加えた位置である外力の作用点を算出する。
 ここで、例えば、図2に示すように、ユーザUがツール13の先端にZ軸方向の力を加えることで、取得部201により取得された力FとトルクMとのベクトルは、センサ10からの作用点を通過する直線への最近接点への位置ベクトルd(=(d,d,d))とする場合、当業者にとって公知の力モーメントのつり合いにより、M=d×F(「×」は外積を示す)が成り立つ。なお、図2のセンサ10における黒丸は、位置ベクトルdの始点を示す。作用点算出部202は、取得部201により取得された力FとトルクMとのベクトルの値を、M=d×Fに代入し、未知数(d,d,d)の3つの連立方程式を解くことにより、作用点を通過する直線への最近接点への位置ベクトルdを算出する。
 これにより、作用点算出部202は、ツール先端点が存在する、センサ10の検出点から位置ベクトルdを通過しベクトルF(=(F,F,F))の向きの直線(図2の破線)を求めることができる。
 なお、図2では、ユーザUはツール13の先端にZ軸方向に力を加えたが、ツール13の任意の位置を任意の方向に力を加えてもよい。
 次に、作用点算出部202はツール先端点を求めるために、例えば、後述する表示制御部204は「別の方向に押してください」等のメッセージを表示部23に表示して、ユーザUに対してツール13の先端に別の方向の力を加えさせる。
 図3は、ユーザUがツール13の先端に別の方向の力を加えた一例を示す図である。
 図3に示すように、例えば、ユーザUがツール13の先端に図2の場合と異なる方向(例えば、水平方向(-X軸方向))の力を加えることで、作用点算出部202は、取得部201により取得された力F’とトルクM’とのベクトルの値を、M=d×Fに代入する。作用点算出部202は、未知数(d’,d’,d’)の3つの連立方程式を解くことにより、作用点を通過する直線への最近接点への位置ベクトルd’を算出する。
 そして、作用点算出部202は、位置ベクトルdを通過しベクトルFの向きの直線(図2の破線)と、位置ベクトルd’を通過しベクトルF’の向きの直線(図3の破線)との交点を作用点として求める。
 このように、ユーザUが互いに異なる2方向にツール13に力を加えることにより、作用点算出部202は、作用点(交点)を精度良く算出することができる。
 なお、作用点算出部202は、センサ10の検出誤差、及び/又はユーザUが力を加えるツール13の先端位置の誤差により2つの直線の交点が求められない場合、2つの直線の最接近点を求めて、その中点を作用点とするようにしてもよい。
 また、ユーザUはツール13の先端に互いに異なる2方向の力を加えたが、ツール13の先端に互いに異なる3以上の方向の力を加えるようにしてもよい。
 設定部203は、作用点算出部202により算出された作用点をロボット1のツール13のツール先端点として設定する。
 表示制御部204は、例えば、ツール先端点を設定するにあたりロボット1のツール13を押すように、ユーザUに対して指示するメッセージを表示部23に表示したり、作用点算出部202により算出された作用点をロボット1との位置関係を示す画面を表示部23に表示したりする。
<ロボット制御装置2の算出処理>
 次に、本実施形態に係るロボット制御装置2の算出処理に係る動作について説明する。
 図4は、ロボット制御装置2の算出処理について説明するフローチャートである。ここで示すフローは、入力部21を介してユーザUからツール先端点の設定指示を受ける度に実行される。
 ステップS1において、表示制御部204は、「ツールの先端を押してください」等のユーザUに対してツール13に力を加えさせるメッセージを表示部23に表示する。
 ステップS2において、取得部201は、ユーザUがツール13に力を加えることにより、センサ10により検出されたツール13に加えられた外力の力F及びトルクMの力データを取得する。
 ステップS3において、作用点算出部202は、ステップS2で取得された力データに基づいてツール13の作用点を通過する直線への最近接点への位置ベクトルdを算出する。
 ステップS4において、作用点算出部202は、力データを所定回数(例えば、2回等)取得したか否かを判定する。力データを所定回数取得した場合、処理はステップS5に進む。一方、力データを所定回数取得していない場合、処理はステップS1に戻る。なお、この場合、ステップS1において、表示制御部204は、「別の方向にツールの先端を押してください」等のメッセージを表示部23に表示することが好ましい。
 ステップS5において、作用点算出部202は、検出されたベクトルF、F’と算出した位置ベクトルd、d’とに基づいて2つの直線の交点を作用点として算出する。
 ステップS6において、設定部203は、ステップS5で算出された作用点をロボット1のツール13のツール先端点として設定する。
 以上のように、第1実施形態に係るロボット制御装置2は、ロボット1に装着されたツール13にユーザUにより加えられた外力を、ロボット1に配置されたセンサ10により検出された力F及びトルクMの力データとして取得する。ロボット制御装置2は、取得した力データに基づいて外力の作用点を算出し、作用点をロボット1のツール先端点として設定する。これにより、ロボット制御装置2は、ロボット1を動作させることなく、ツール先端点を容易かつ直感的に設定することができる。
 以上、第1実施形態について説明した。
<第2実施形態>
 次に、第2実施形態について説明する。
 ここで、第1実施形態に係るロボット制御装置2と、第2実施形態に係るロボット制御装置2aは、ユーザUによりツール13の先端に力が加えられたことにより検出された力データに基づいてツール先端点を設定するという点において共通する。
 ただし、第1実施形態では力データは6軸力センサを用いて検出される。これに対して第2実施形態では力データはロボット1の各関節軸11に配置されたトルクセンサを用いて検出される点で、第1実施形態と異なる。
 これにより、第2実施形態に係るロボット制御装置2aは、ロボット1aを動作させることなく、ツール先端点を容易かつ直感的に設定することができる。
 以下に、第2実施形態について説明する。
 図5は、第2実施形態に係るロボットシステムの機能的構成例を示す機能ブロック図である。なお、図1のロボットシステム100の要素と同様の機能を有する要素については、同じ符号を付し、詳細な説明は省略する。
 図5に示すように、ロボットシステム100Aは、第1実施形態と同様に、ロボット1a、及びロボット制御装置2aを有する。
<ロボット1a>
 ロボット1aは、第1実施形態の場合と同様に、当業者にとって公知の産業用ロボット等である。
 図6は、ロボット1aの一例を示す図である。
 ロボット1aは、例えば、第1実施形態の場合と同様に、6軸の垂直多関節ロボットであり、6つの関節軸11(1)-11(6)と、関節軸11(1)-11(6)の各々により連結されるアーム部12を有する。ロボット1aは、ロボット制御装置2aからの駆動指令に基づいて、関節軸11(1)-11(6)の各々に配置される図示しないサーボモータを駆動することにより、アーム部12等の可動部材を駆動する。また、ロボット1のマニピュレータの先端部、例えば、関節軸11(6)の先端部には、例えば、グラインダやスクリュードライバー等のツール13が取り付けられる。
 また、ロボット1aの関節軸11(1)-11(6)の各々には、回転軸周りのトルクを検出するトルクセンサのセンサ10a(図示しない)が配置されている。これにより、各関節軸11のセンサ10aは、ツール13の押付力として、所定のサンプリング時間で周期的にトルクMを検出する。また、各関節軸11のセンサ10aは、ユーザUがツール13に力を加える場合も、ユーザUにより加えられた力のトルクMを検出する。各関節軸11のセンサ10aは、図示しない接続インタフェースを介して、検出した力データをロボット制御装置2aに出力する。
<ロボット制御装置2a>
 ロボット制御装置2aは、第1実施形態の場合と同様に、プログラムに基づいて、ロボット1aに対して駆動指令を出力し、ロボット1aの動作を制御する。
 図5に示すように、第2実施形態に係るロボット制御装置2aは、制御部20a、入力部21、記憶部22、及び表示部23を有する。また、制御部20aは、取得部201、作用点算出部202a、設定部203、及び表示制御部204を有する。
 制御部20a、入力部21、記憶部22、及び表示部23は、第1実施形態に係る制御部20、入力部21、記憶部22、及び表示部23と同等の機能を有する。
 また、取得部201、設定部203、及び表示制御部204は、第1実施形態に係る取得部201、設定部203、及び表示制御部204と同等の機能を有する。
 作用点算出部202aは、例えば、図6に示すように、ユーザUがZ軸方向にツール13の任意の点(例えば、ツール13の先端)に力を加えることにより、各関節軸11のセンサ10aにより検出されたトルクMを用いて作用点の位置を求める。なお、この場合、関節軸11(4)と関節軸11(6)との回転中心はオフセットする。
 図7は、関節軸11(4)と関節軸11(6)との回転中心のオフセットの一例を示す図である。図7に示すように、関節軸11(4)と関節軸11(6)との回転中心は互いに距離D3だけオフセットしている。
 なお、図6では、ユーザUはZ軸方向にツール13の任意の点に力を加えるとしたが、ツール13の任意の位置を所定の方向に力を加えてもよい。例えば、表示制御部204は「設定したい点を+Z軸方向に押してください」等のメッセージを表示部23に表示する。
 具体的には、作用点算出部202aは、例えば、ユーザUがツール13の先端をZ軸方向に力を加えることにより、関節軸11(3)のセンサ10aと関節軸11(5)のセンサ10aとにより検出されたトルクM3、M5と式(1)とを用いて関節軸11(5)から破線で示す作用点を通る直線までの距離D2を算出する。
D2=(M5/(M3-M5))D1  (1)
 なお、D1は関節軸11(3)と関節軸11(5)との間の力の方向を、関節軸の回転平面に射影した方向ベクトルに対して直交する方向の距離であり、既知である。力の方向が+Z軸方向である場合は、関節軸11(3)と関節軸11(5)との間の水平距離(X軸方向の距離)である。また、式(1)は、M3=(D1+D2)×Fと、M5=D2×Fとの関係から算出される。
 また、作用点算出部202aは、関節軸11(4)のセンサ10aと関節軸11(6)のセンサ10aとにより検出されたトルクM4、M6と式(2)とを用いて、図7に示すように、ユーザUがツール13の先端に力(例えば、Z軸方向の力)を加えたことによるオフセットの距離D3を算出する。
D3=(M6/(M4-M6))D4  (2)
 なお、D4は、図7に示すように、関節軸11(4)と関節軸11(6)との間の水平距離(X軸方向の距離)である。
 次に、作用点算出部202aはツール先端点を求めるために、例えば、表示制御部204は「同じ点を-X軸方向に押してください」等のメッセージを表示部23に表示して、ユーザUに対してツール13の先端に別の所定の方向の力を加えさせる。
 図8は、ユーザUがツール13の先端に水平方向の力を加えた一例を示す図である。
 作用点算出部202aは、距離D2、D3を算出した場合と同様に、ユーザUが水平方向(-X軸方向)の力を加えたときの関節軸11(2)と関節軸11(5)とのセンサ10aにより検出されたトルクM2’、M5’を用いて、破線で示す直線までの距離(高さ方向(Z軸方向)の位置)H(=D5sinθ))を算出する。
 そして、作用点算出部202aは、既知の距離D1とともに、算出した距離D2、D3、及び高さHを用いることで、図6の破線で示す関節軸11(5)から距離D2で力Fの向きの直線と、図8の破線で示す高さHで力F’の向きの直線と、の2つの3次元直線を求める。作用点算出部202aは、求めた2つの3次元直線の交点をツール13の作用点として算出することができる。
 すなわち、ユーザUが互いに異なる2方向にツール13の先端に力を加えることにより、作用点算出部202aは、作用点を精度良く算出することができる。
 なお、作用点算出部202aは、センサ10aの検出誤差、及び/又はユーザUが力を加えるツール13の先端位置の誤差により2つの3次元直線の交点が求められない場合、2つの3次元直線の最接近点を求めて、その中点を作用点とするようにしてもよい。
 また、ユーザUはツール13の先端に互いに異なる2方向の力を加えたが、ツール13の先端に互いに異なる3以上の方向の力を加えるようにしてもよい。
<ロボット制御装置2aの算出処理>
 次に、本実施形態に係るロボット制御装置2aの算出処理に係る動作について説明する。
 図9は、ロボット制御装置2aの算出処理について説明するフローチャートである。ここで示すフローは、入力部21を介してユーザUからツール先端点の設定指示を受ける度に実行される。
 なお、図9に示すステップS11、ステップS12、ステップS16の処理は、第1実施形態に係るステップS1、ステップS2、ステップS6と同様であり、詳細な説明は省略する。
 ステップS13において、作用点算出部202aは、ステップS12で取得された力データに基づいて、力Fを加えた方向の直線までの距離を算出する。
 ステップS14において、作用点算出部202aは、力データを所定回数(例えば、2回等)取得したか否かを判定する。力データを所定回数取得した場合、処理はステップS15に進む。一方、力データを所定回数取得していない場合、処理はステップS11に戻る。なお、この場合、ステップS11において、表示制御部204は、「同じ点を-X軸方向にツールの先端を押してください」等のメッセージを表示部23に表示することが好ましい。
 ステップS15において、作用点算出部202は、所定回数それぞれで算出した力Fを加えた直線までの距離に基づいて2つの3次元直線を求め、求めた2つの3次元直線の交点を作用点として算出する。
 以上のように、第2実施形態に係るロボット制御装置2aは、ロボット1aに装着されたツール13にユーザUにより加えられた外力を、ロボット1aの各関節軸11に配置されたセンサ10aにより検出されたトルクMの力データとして取得する。ロボット制御装置2aは、取得した力データに基づいて外力の作用点を算出し、作用点をロボット1aのツール先端点として設定する。これにより、ロボット制御装置2aは、ロボット1aを動作させることなく、ツール先端点を容易かつ直感的に設定することができる。
 以上、第2実施形態について説明した。
<第3実施形態>
 次に、第3実施形態について説明する。
 ここで、各実施形態に係るロボット制御装置は、ユーザUによりツール13に力を加えることにより検出された力データに基づいてツール先端点を設定するという点において共通する。
 ただし、第3実施形態ではユーザUがツール13の先端に直接力を加えることができず、ツール13の任意の2つの箇所に力を加えることで2つの箇所それぞれの作用点を算出し、算出した2つの箇所の作用点を結んだ直線の中点をツール先端点として設定する点で、第1実施形態及び第2実施形態と異なる。
 こうすることで、第3実施形態に係るロボット制御装置2bは、ロボット1を動作させることなく、ツール先端点を容易かつ直感的に設定することができる。
 以下に、第3実施形態について説明する。
 図10は、第3実施形態に係るロボットシステムの機能的構成例を示す機能ブロック図である。なお、図1のロボットシステム100の要素と同様の機能を有する要素については、同じ符号を付し、詳細な説明は省略する。
 図10に示すように、ロボットシステム100Bは、第1実施形態と同様に、ロボット1、及びロボット制御装置2bを有する。
<ロボット1>
 ロボット1は、図2に示す第1実施形態の場合と同様に、ベースに6軸力センサのセンサ10を有する。なお、第3実施形態に係るロボット1は、例えば、ツール13としてツールを保持する2つ爪のチャックが装着される。
 図11は、チャックの一例を示す図である。
 図11に示すように、ツール13であるチャックは、2つの爪14a、14bを有し、2つの爪14a、14bがロボット制御装置2bからの動作指令に基づいて矢印で示す方向に移動することにより工具等を保持する。この場合、ツール13のツール先端点は、2つの爪14a、14bの間の位置、すなわち宙に浮いた位置のためユーザUが直接当該位置に力を加えることができない。
 そこで、後述するロボット制御装置2bは、ツール13であるチャックの2つの爪14a、14bそれぞれにユーザUに力を加えさせることで、各爪14a、14bの作用点を算出し、算出した2つの作用点を結んだ直線の中点をツール先端点として設定する。
 なお、第3実施形態では、6軸力センサのセンサ10を有するロボット1としたが、各関節軸11にトルクセンサのセンサ10aを有するロボット1aでもよい。
<ロボット制御装置2b>
 ロボット制御装置2bは、第1実施形態の場合と同様に、プログラムに基づいて、ロボット1に対して駆動指令を出力し、ロボット1の動作を制御する。
 図10に示すように、第3実施形態に係るロボット制御装置2bは、制御部20b、入力部21、記憶部22、及び表示部23を有する。また、制御部20bは、取得部201、作用点算出部202b、設定部203b、及び表示制御部204を有する。
 制御部20b、入力部21、記憶部22、及び表示部23は、第1実施形態に係る制御部20、入力部21、記憶部22、及び表示部23と同等の機能を有する。
 また、取得部201、設定部及び表示制御部204は、第1実施形態に係る取得部201、及び表示制御部204と同等の機能を有する。
 作用点算出部202bは、第1実施形態の作用点算出部202と同様に、取得部201により取得された力データに基づいて、ユーザUがツール13に力を加えた位置である外力の作用点を算出する。
 具体的には、作用点算出部202bは、例えば、チャックであるツール13の爪14aにユーザUが力を加えることで、センサ10に検知された力F及びトルクMのベクトルの値をM=d×Fに代入し、爪14aの作用点を通過する直線への最近接点への位置ベクトルdを算出する。また、作用点算出部202bは、爪14aにユーザUが別の方向の力を加えることで、センサ10に検知された力F’及びトルクM’のベクトルの値を、M’=d’×F’に代入し、爪14aの作用点を通過する直線への最近接点への位置ベクトルd’を算出する。そして、作用点算出部202bは、位置ベクトルdを通過しベクトルFの向きの直線と、位置ベクトルd’を通過しベクトルF’の向きの直線との交点を爪14aの作用点として求める。作用点算出部202bは、求めた爪14aの作用点を記憶部22に記憶する。
 次に、作用点算出部202bは、チャックであるツール13の爪14bにユーザUが力を加えることで、センサ10に検知された力F及びトルクMのベクトルの値をM=d×Fに代入し、爪14bの作用点を通過する直線への最近接点への位置ベクトルdを算出する。また、作用点算出部202bは、爪14bにユーザUが別の方向の力を加えることで、センサ10に検知された力F’及びトルクM’のベクトルの値をM’=d’×F’に代入し、爪14bの作用点を通過する直線への最近接点への位置ベクトルd’を算出する。そして、作用点算出部202bは、位置ベクトルdを通過しベクトルFの向きの直線と、位置ベクトルd’を通過しベクトルF’の向きの直線との交点を爪14bの作用点として求める。作用点算出部202bは、求めた爪14bの作用点を記憶部22に記憶する。
 設定部203bは、記憶部22に記憶された2つの爪14a、14bの作用点を読み出し、読み出した2つの作用点を結んだ直線の中点をツール先端点として設定する。
<ロボット制御装置2bの算出処理>
 次に、本実施形態に係るロボット制御装置2bの算出処理に係る動作について説明する。
 図12は、ロボット制御装置2bの算出処理について説明するフローチャートである。ここで示すフローは、入力部21を介してユーザUからツール先端点の設定指示を受ける度に実行される。
 ステップS21において、表示制御部204は、「ツールの1箇所を押してください」等のユーザUに対してツール13の爪14a、14bの1つに力を加えさせるメッセージを表示部23に表示する。
 ステップS22において、取得部201は、ユーザUがツール13の爪14aに力を加えることにより、センサ10により検出された爪14aに加えられた外力の力F及びトルクMの力データを取得する。
 ステップS23において、作用点算出部202bは、ステップS22で取得された力データに基づいて爪14aの作用点を通過する直線への最近接点への位置ベクトルdを算出する。
 ステップS24において、作用点算出部202bは、1箇所について力データを所定回数(例えば、2回等)取得したか否かを判定する。力データを所定回数取得した場合、処理はステップS25に進む。一方、力データを所定回数取得していない場合、処理はステップS21に戻る。なお、この場合、ステップS21において、表示制御部204は、「同じ個所を別の方向に押してください」等のメッセージを表示部23に表示することが好ましい。
 ステップS25において、作用点算出部202bは、検出されたベクトルF、F’と算出した位置ベクトルd、d’とに基づいて2つの直線の交点を作用点として算出する。
 ステップS26において、作用点算出部202bは、ツール13の全ての箇所(例えば、2つの爪14a、14b)において作用点を算出したか否かを判定する。全ての箇所において作用点を算出した場合、処理はステップS27に進む。一方、全ての箇所において作用点を算出していない場合、処理はステップS21に戻る。なお、この場合、ステップS21において、表示制御部204は、「別の箇所を押してください」等のメッセージを表示部23に表示することが好ましい。
 ステップS27において、設定部203bは、記憶部22に記憶された2つの爪14a、14bの作用点を読み出し、読み出した2つの作用点を結んだ直線の中点をツール先端点として設定する。
 以上のように、第3実施形態に係るロボット制御装置2bは、ロボット1に装着されたツール13の2つの爪14a、14b毎にユーザUにより加えられた外力を、ロボット1に配置されたセンサ10により検出された力F及びトルクMの力データとして取得する。ロボット制御装置2bは、取得した力データに基づいてツール13の爪14a、14b毎の作用点を算出し、2つの爪14a、14bの作用点を結ぶ直線の中点をロボット1のツール先端点として設定する。これにより、ロボット制御装置2bは、ロボット1を動作させることなく、ツール先端点を容易かつ直感的に設定することができる。
 以上、第3実施形態について説明した。
<第3実施形態の変形例1>
 第3実施形態では、チャックであるツール13が2つの爪14a、14bを有するとしたが、これに限定されない。例えば、ツール13が3以上の複数の爪を有するチャックでもよい。
 図13は、チャックの一例を示す図である。
 図13に示すように、ツール13であるチャックは、3つの爪15a、15b、15cを有し、3つの爪15a、15b、15cがロボット制御装置2bからの動作指令に基づいて矢印で示す方向に移動することにより工具等を保持する。
 この場合、作用点算出部202bは、ツール13のチャックの複数の爪それぞれをユーザUに力を加えさせることで、複数の爪における作用点を算出するようにしてもよい。設定部203bは、算出した複数の爪の作用点を結んだ3角形以上の多角形の中点をロボット1のツール先端点として設定するようにしてもよい。
<第3実施形態の変形例2>
 第3実施形態では、設定部203bは、ツール13のチャックの2つの爪14a、14bの作用点を結んだ直線の中点をロボット1のツール先端点として設定したが、これに限定されない。例えば、表示制御部204は、2つの爪14a、14bの作用点を結んだ直線とロボット1との位置関係を示す画面を表示部23に表示し、設定部203bは、入力部21を介したユーザUの入力に基づいて指定された直線上の任意の位置をロボット1のツール先端点として設定するようにしてもよい。
 図14は、ユーザUにより2つの作用点を結んだ直線上の任意の位置が指定された一例を示す図である。図14では、丸印で示す2つの爪14a、14bの作用点を結ぶ直線上に、ユーザUにより指定された位置を示す。
 なお、ツール13のチャックが複数の爪を有する場合についても、表示制御部204は、複数の爪の作用点を結んだ多角形とロボット1との位置関係を示す画面を、表示部23に表示し、設定部203bは、入力部21を介したユーザUの入力に基づいて指定された多角形内の任意の位置をロボット1のツール先端点として設定するようにしてもよい。
 以上、第1実施形態、第2実施形態、第3実施形態、第3実施形態の変形例1、及び第3実施形態の変形例2について説明したが、ロボット制御装置2、2a、2bは、上述の実施形態に限定されるものではなく、目的を達成できる範囲での変形、改良等を含む。
<変形例1>
 上述の第1実施形態、第2実施形態、第3実施形態、第3実施形態の変形例1、及び第3実施形態の変形例2では、ユーザUが力を加える際のロボット1、1aの姿勢として、図2や図6に示す姿勢の場合を示したが、これに限定されない。例えば、ロボット1、1aは、任意の姿勢を取ることができる。
<変形例2>
 また例えば、上述の第1実施形態、第2実施形態、第3実施形態、第3実施形態の変形例1、及び第3実施形態の変形例2では、ユーザUが力を加える方向として、Z軸方向と水平方向(例えば、-X軸方向)との2つの方向としたが、これに限定されない。例えば、ユーザUが力を加える方向は、互いに異なる方向であれば任意の2つの方向でもよい。
<変形例3>
 また例えば、第3実施形態の変形例2では、2つの作用点を結ぶ直線上の任意の点をツール先端点として設定したが、これに限定されない。例えば、ユーザUが一度だけ押して、作用点を通過する外力方向の直線を算出し、算出された直線とロボット1、1aとの位置関係を示す画面を、表示部23に表示し、設定部203は、入力部21を介したユーザUの入力に基づいて指定された直線上の任意の位置をロボット1、1aのツール先端点として設定するようにしてもよい。
 なお、第1実施形態、第2実施形態、第3実施形態、第3実施形態の変形例1、及び第3実施形態の変形例2に係るロボット制御装置2、2a、2bに含まれる各機能は、ハードウェア、ソフトウェア又はこれらの組み合わせによりそれぞれ実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
 また、ロボット制御装置2、2a、2bに含まれる各構成部は、電子回路等を含むハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。
 プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(Non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(Tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(Transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は、無線通信路を介して、プログラムをコンピュータに供給できる。
 なお、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
 以上を換言すると、本開示のロボット制御装置は、次のような構成を有する各種各様の実施形態を取ることができる。
 (1)本開示のロボット制御装置2は、ロボット1に配置されたセンサ10により検出されたロボット1に装着されたツールに加わる外力を示す力データを取得する取得部201と、取得部201により取得された力データに基づいて外力の作用点を算出する作用点算出部202と、外力の作用点をロボット1のツール先端点として設定する設定部203と、を備える。
 このロボット制御装置2によれば、ロボット1を動作させることなく、ツール先端点を容易かつ直感的に設定することができる。
 (2) (1)に記載のロボット制御装置2、2aにおいて、センサ10、10aは、6軸力センサ又はトルクセンサであってもよい。
 そうすることで、ロボット制御装置2、2aは、(1)と同様の効果を奏することができる。
 (3) (1)又は(2)に記載のロボット制御装置2bにおいて、作用点算出部202bにより算出された作用点を記憶する記憶部22を備え、設定部203bは、記憶部22に2つの作用点が記憶されている場合、2つの作用点を結んだ直線の中点をツール先端点として設定してもよい。
 そうすることで、ロボット制御装置2bは、宙に浮いた位置等のためユーザUが直接ツール13に力を加えることができない場合でもツール先端点を設定することができる。
 (4) (3)に記載のロボット制御装置2bにおいて、2つの作用点を結んだ直線とロボット1との位置関係を示す画面を表示する表示部23と、画面に表示された直線上の任意の位置を指定する入力部21と、を備えてもよい。
 そうすることで、ロボット制御装置2bは、ロボット1に装着されるツール13に応じて最適な位置をツール先端点として設定することができる。
 (5) (1)又は(2)に記載のロボット制御装置2bにおいて、作用点算出部202bにより算出された作用点を記憶する記憶部22を備え、設定部203bは、記憶部22に3以上の複数の作用点が記憶されている場合、複数の作用点を結んだ多角形の中点をツール先端点として設定してもよい。
 そうすることで、ロボット制御装置2bは、(3)と同様の効果を奏することができる。
 (6) (5)に記載のロボット制御装置2bにおいて、複数の作用点を結んだ多角形とロボット1との位置関係を示す画面を表示する表示部23と、画面に表示された多角形内の任意の位置を指定する入力部21と、を備えてもよい。
 そうすることで、ロボット制御装置2bは、(4)と同様の効果を奏することができる。
 (7) (1)又は(2)に記載のロボット制御装置2、2aにおいて、表示部23と、入力部21と、を備え、作用点算出部202、202aは、外力の作用点を通過する直線を算出し、表示部23は、直線とロボット1、1aとの位置関係を示す画面を表示し、入力部21は、画面に表示された直線上の任意の位置を指定し、設定部203は、指定された任意の位置をロボット1、1aのツール先端点として設定してもよい。
 そうすることで、ロボット制御装置2、2aは、(4)と同様の効果を奏することができる。
 1、1a ロボット
 10、10a センサ
 2、2a、2b ロボット制御装置
 20、20a、20b 制御部
 201 取得部
 202、202a、202b 作用点算出部
 203、203b 設定部
 204 表示制御部
 21 入力部
 22 記憶部
 23 表示部
 100、100A、100B ロボットシステム

Claims (7)

  1.  ロボットに配置されたセンサにより検出された前記ロボットに装着されたツールに加わる外力を示す力データを取得する取得部と、
     前記取得部により取得された前記力データに基づいて前記外力の作用点を算出する作用点算出部と、
     前記外力の作用点を前記ロボットのツール先端点として設定する設定部と、
     を備えるロボット制御装置。
  2.  前記センサは、6軸力センサ又はトルクセンサである、請求項1に記載のロボット制御装置。
  3.  前記作用点算出部により算出された前記作用点を記憶する記憶部を備え、
     前記設定部は、前記記憶部に2つの前記作用点が記憶されている場合、2つの前記作用点を結んだ直線の中点を前記ツール先端点として設定する、請求項1又は請求項2に記載のロボット制御装置。
  4.  2つの前記作用点を結んだ直線と前記ロボットとの位置関係を示す画面を表示する表示部と、
     前記画面に表示された前記直線上の任意の位置を指定する入力部と、を備える、前記請求項3に記載のロボット制御装置。
  5.  前記作用点算出部により算出された前記作用点を記憶する記憶部を備え、
     前記設定部は、前記記憶部に3以上の複数の前記作用点が記憶されている場合、複数の前記作用点を結んだ多角形の中点を前記ツール先端点として設定する、請求項1又は請求項2に記載のロボット制御装置。
  6.  複数の前記作用点を結んだ多角形と前記ロボットとの位置関係を示す画面を表示する表示部と、
     前記画面に表示された前記多角形内の任意の位置を指定する入力部と、を備える、前記請求項5に記載のロボット制御装置。
  7.  表示部と、
     入力部と、を備え、
     前記作用点算出部は、前記外力の作用点を通過する直線を算出し、
     前記表示部は、前記直線と前記ロボットとの位置関係を示す画面を表示し、
     前記入力部は、前記画面に表示された前記直線上の任意の位置を指定し、
     前記設定部は、指定された前記任意の位置を前記ロボットのツール先端点として設定する、請求項1又は請求項2に記載のロボット制御装置。
PCT/JP2021/024934 2020-07-08 2021-07-01 ロボット制御装置 WO2022009765A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180047481.XA CN115803695A (zh) 2020-07-08 2021-07-01 机器人控制装置
US18/010,571 US20230249344A1 (en) 2020-07-08 2021-07-01 Robot control device
DE112021003659.9T DE112021003659T5 (de) 2020-07-08 2021-07-01 Roboter-Steuerungsvorrichtung
JP2022535274A JP7392154B2 (ja) 2020-07-08 2021-07-01 ロボット制御装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-117899 2020-07-08
JP2020117899 2020-07-08

Publications (1)

Publication Number Publication Date
WO2022009765A1 true WO2022009765A1 (ja) 2022-01-13

Family

ID=79552509

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/024934 WO2022009765A1 (ja) 2020-07-08 2021-07-01 ロボット制御装置

Country Status (5)

Country Link
US (1) US20230249344A1 (ja)
JP (1) JP7392154B2 (ja)
CN (1) CN115803695A (ja)
DE (1) DE112021003659T5 (ja)
WO (1) WO2022009765A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022210186A1 (ja) * 2021-03-30 2022-10-06 ファナック株式会社 ロボットの位置および姿勢を制御するパラメータを算出する制御装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05111897A (ja) * 1991-10-21 1993-05-07 Fanuc Ltd 複数台のロボツトの相対位置関係取得方式
JPH06304893A (ja) * 1993-04-22 1994-11-01 Fanuc Ltd 位置決め機構のキャリブレーション方式

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2774939B2 (ja) 1994-09-16 1998-07-09 株式会社神戸製鋼所 ロボットのツールパラメータ導出方法及び較正方法
KR100723423B1 (ko) 2006-03-16 2007-05-30 삼성전자주식회사 필터링 방법과 장치 및 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체
JP6304893B2 (ja) 2015-05-01 2018-04-04 株式会社 鋳物屋 麺茹で圧力鍋
US10442080B2 (en) 2015-12-01 2019-10-15 Kawasaki Jukogyo Kabushiki Kaisha Monitoring device of robot system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05111897A (ja) * 1991-10-21 1993-05-07 Fanuc Ltd 複数台のロボツトの相対位置関係取得方式
JPH06304893A (ja) * 1993-04-22 1994-11-01 Fanuc Ltd 位置決め機構のキャリブレーション方式

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022210186A1 (ja) * 2021-03-30 2022-10-06 ファナック株式会社 ロボットの位置および姿勢を制御するパラメータを算出する制御装置
JP7477716B2 (ja) 2021-03-30 2024-05-01 ファナック株式会社 ロボットの位置および姿勢を制御するパラメータを算出する制御装置

Also Published As

Publication number Publication date
US20230249344A1 (en) 2023-08-10
DE112021003659T5 (de) 2023-04-27
CN115803695A (zh) 2023-03-14
JP7392154B2 (ja) 2023-12-05
JPWO2022009765A1 (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
JP6924145B2 (ja) ロボット教示方法及びロボットアーム制御装置
KR102039077B1 (ko) 원격조작 로봇시스템 및 그 운전방법
US11370105B2 (en) Robot system and method for operating same
TWI630081B (zh) Direct teaching method of robot
JP7339806B2 (ja) 制御システム、ロボットシステム及び制御方法
US11123864B2 (en) Motion teaching apparatus, robot system, and motion teaching method
CN110505947B (zh) 机器人系统及其运行方法
US11833687B2 (en) Robot apparatus, control method for the robot apparatus, assembly method using the robot apparatus, and recording medium
CN114905487B (zh) 示教装置、示教方法以及记录介质
US11865697B2 (en) Robot system and method for operating same
WO2022009765A1 (ja) ロボット制御装置
KR102426456B1 (ko) 협동 로봇을 위한 티칭 방법 및 기기
CN111844017B (zh) 显示方法
US20230001567A1 (en) Teaching Support Device
CN114905486A (zh) 示教装置、示教方法及记录介质
CN112643683A (zh) 示教方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21837911

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022535274

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 21837911

Country of ref document: EP

Kind code of ref document: A1