WO2022210186A1 - ロボットの位置および姿勢を制御するパラメータを算出する制御装置 - Google Patents

ロボットの位置および姿勢を制御するパラメータを算出する制御装置 Download PDF

Info

Publication number
WO2022210186A1
WO2022210186A1 PCT/JP2022/013623 JP2022013623W WO2022210186A1 WO 2022210186 A1 WO2022210186 A1 WO 2022210186A1 JP 2022013623 W JP2022013623 W JP 2022013623W WO 2022210186 A1 WO2022210186 A1 WO 2022210186A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
workpiece
robot
force
control
Prior art date
Application number
PCT/JP2022/013623
Other languages
English (en)
French (fr)
Inventor
優希 石井
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to DE112022000796.6T priority Critical patent/DE112022000796T5/de
Priority to JP2023511071A priority patent/JP7477716B2/ja
Priority to CN202280021089.2A priority patent/CN116997445A/zh
Publication of WO2022210186A1 publication Critical patent/WO2022210186A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39529Force, torque sensor in wrist, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40032Peg and hole insertion, mating and joining, remote center compliance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/405866-DOF force sensor

Definitions

  • the present invention relates to a control device that calculates parameters for controlling the position and orientation of a robot.
  • a robot device is equipped with a robot and a work tool attached to the robot, and can perform a predetermined task while the robot changes its position and posture.
  • a robot apparatus in which a hand for gripping a work is attached as a work tool and the work is arranged at a predetermined position.
  • a control of fitting one work to another work there is known a control of fitting one work to another work.
  • control is known in which another work is brought into contact with a predetermined position of one work.
  • a robot device that inserts a workpiece into a hole or the like of a member fixed to a workbench (for example, Japanese Unexamined Patent Publication No. 4-256526).
  • the robot controller corrects the position and posture of the robot while moving one work toward another work.
  • a force sensor to attach a force sensor to a robot to perform force control such as compliance control.
  • force control the position and posture of the robot can be corrected so that the force in a predetermined direction detected by the force sensor is within the determination range (for example, Japanese Patent Application Laid-Open No. 2008-307634 and Japanese Patent Laid-Open No. 2017-127932).
  • force control it is possible to adjust the position and orientation of the workpiece gripped by the robot based on the output of the force sensor attached to the robot.
  • control points for moving the workpiece by the robot can be set at the tip point of the workpiece or the tip point of the work tool.
  • a moving direction (vector) in advance as a moving direction for fitting or pressing a work.
  • Parameters including such control points and movement directions can be specified in at least one of the tool coordinate system having the origin in the work tool and the user coordinate system set by the operator.
  • the origin of the coordinate system can be set as the control point and the direction of one coordinate axis of the coordinate system can be set as the movement direction. Then, the robot can be controlled based on the position of the origin of the coordinate system and the movement direction.
  • the tool coordinate system and user coordinate system can be set by driving the actual robot.
  • the operator uses the reference coordinate system set on the robot to determine the positions of three points in space, and the X-axis and Y-axis Set a vector parallel to .
  • the operator sets up a user coordinate system including the X, Y, and Z axes by specifying the position of the origin.
  • One aspect of the present disclosure is a control device that calculates parameters for performing force control when a robot moves a first work toward a second work.
  • the control device includes a force detector that detects a force applied to one of the first workpiece and the contact member when the robot brings the first workpiece into contact with the contact member having the corner.
  • the control device includes a parameter calculator that calculates the direction of movement of the first work relative to the second work and the position of the work end point that is the control point of the force control when force control is performed.
  • the force detector detects force during a period in which the robot contacts the tip of the first workpiece with the corner of the contact member and presses the first workpiece along a predetermined pressing direction. do.
  • the parameter calculation unit acquires the force detected by the force detector corresponding to each pressing direction when the first workpiece is pressed against the contact member in a plurality of pressing directions, and corresponds to the plurality of pressing directions.
  • the moving direction of the first work and the position of the work end point of the first work are calculated based on the applied force.
  • the control device includes a force detector that detects a force applied to one of the first work piece and the contact member when the contact member having the corner portion is brought into contact with the first work piece by the robot.
  • the control device includes a parameter calculation unit that calculates the direction of movement of the second work relative to the first work when force control is performed and the position of the work end point that is the control point for force control.
  • the force detector detects the force while the robot contacts the corner of the contact member with the workpiece tip point of the first workpiece and presses the contact member along a predetermined pressing direction.
  • the parameter calculation unit acquires the force detected by the force detector corresponding to each pressing direction when the contact member is pressed against the first workpiece in a plurality of pressing directions, and corresponds to the plurality of pressing directions.
  • the movement direction of the second work and the position of the work end point of the first work are calculated based on the applied force.
  • FIG. 1 is a schematic diagram of a first robot device in an embodiment
  • FIG. 1 is a block diagram of a first robot device in an embodiment
  • FIG. FIG. 5 is an enlarged perspective view when fitting the first work to the second work
  • FIG. 4 is a schematic diagram of the first robot device when bringing the end face of the first work into contact with the corner of the second work
  • FIG. 11 is an enlarged perspective view when the corner of the second work is brought into contact with the first work
  • FIG. 4 is a first schematic diagram for explaining a method of calculating the position and moving direction of the tip point of the workpiece
  • FIG. 11 is a second schematic diagram for explaining a method of calculating the position and movement direction of the tip point of the workpiece
  • FIG. 10 is a schematic diagram of the first robot apparatus for explaining a work tip point and a moving direction generated by a parameter setting procedure; It is an image of a robot and a workpiece displayed on the display section of the teaching console.
  • FIG. 11 is a schematic diagram of the second robot device in an embodiment.
  • FIG. 11 is a schematic diagram of the second robot device when the corner of the second work is brought into contact with the end surface of the first work;
  • FIG. 11 is an enlarged perspective view when the corner of the second work is brought into contact with the end face of the first work;
  • FIG. 11 is a schematic diagram of a second robot apparatus for explaining a work tip point and a movement direction generated by a parameter setting procedure;
  • It is a schematic diagram of a third robot device in an embodiment.
  • FIG. 11 is a schematic diagram of the third robot device when bringing the end face of the first work into contact with the corner of the second work;
  • FIG. 11 is a schematic diagram of a third robot apparatus for explaining a work tip point and a movement direction generated by a parameter setting procedure;
  • It is a schematic diagram of a fourth robot device in the embodiment.
  • FIG. 11 is a schematic diagram of the fourth robot device when bringing the end face of the first work into contact with the corner of the second work;
  • FIG. 11 is a schematic diagram of a fourth robot apparatus for explaining a work tip point and a movement direction generated by a parameter setting procedure;
  • FIG. 1 is a schematic diagram of a first robot apparatus according to this embodiment.
  • a first robot device 5 includes a hand 2 as a work tool and a robot 1 that moves the hand 2 .
  • the robot 1 of this embodiment is a multi-joint robot including a plurality of joints 18 .
  • the robot 1 includes a plurality of moveable components.
  • the components of robot 1 are configured to rotate about respective drive axes.
  • the robot 1 includes a base portion 14 and a swivel base 13 that rotates with respect to the base portion 14 .
  • Robot 1 includes upper arm 11 and lower arm 12 .
  • the lower arm 12 is rotatably supported by the swivel base 13 .
  • the upper arm 11 is rotatably supported by the lower arm 12 .
  • the robot 1 includes a wrist portion 15 rotatably supported by the upper arm 11 .
  • the hand 2 is fixed to the flange 16 of the wrist portion 15 .
  • the upper arm 11 and flange 16 rotate about another drive axis.
  • the robot of this embodiment has six drive axes, it is not limited to this form. A robot that changes its position and orientation with any mechanism can be employed.
  • the work tool of the present embodiment is a hand having two claws, it is not limited to this form. Any device capable of gripping a workpiece can be employed as the work tool.
  • a reference coordinate system 81 is set in the robot device 5 of the present embodiment.
  • the origin of the reference coordinate system 81 is arranged on the base portion 14 of the robot 1 .
  • the reference coordinate system 81 is also called the world coordinate system.
  • the reference coordinate system 81 is a coordinate system in which the position of the origin is fixed and the directions of the coordinate axes are fixed. Even if the position and orientation of the robot 1 change, the position and orientation of the reference coordinate system 81 do not change.
  • the coordinate system of the present embodiment has an X-axis, a Y-axis, and a Z-axis that are orthogonal to each other as coordinate axes.
  • the coordinate system also has a W axis about the X axis, a P axis about the Y axis, and an R axis about the Z axis.
  • a tool coordinate system having an origin set at an arbitrary position on the work tool is set in the robot device 5 .
  • the origin of the tool coordinate system is set at the tool tip point, which is the middle point between the tips of the two claws of the hand 2 .
  • a tool coordinate system is a coordinate system that changes position and orientation with the work tool.
  • the position of the robot 1 corresponds to, for example, the position of the origin of the tool coordinate system.
  • the posture of the robot 1 corresponds to the orientation of the tool coordinate system with respect to the reference coordinate system 81 .
  • a flange coordinate system 83 having an origin at the flange 16 of the wrist portion 15 is set in the robot device 5 .
  • Flange coordinate system 83 is a coordinate system that moves and rotates with flange 16 .
  • the flange coordinate system 83 is set, for example, such that the origin is located on the surface of the flange 16 and the Z axis overlaps the rotation axis of the flange 16 .
  • FIG. 2 shows a block diagram of the robot device according to this embodiment.
  • robot 1 includes a robot driving device that changes the position and posture of robot 1 .
  • the robot drive includes robot drive motors 22 that drive components such as arms and wrists.
  • a plurality of robot drive motors 22 are arranged corresponding to each drive shaft.
  • the robot device 5 includes a hand driving device that drives the hand 2.
  • the hand drive device includes a hand drive motor 21 that drives the claw portion of the hand 2 . As the hand driving motor 21 is driven, the claw portion of the hand 2 is opened and closed.
  • the hand may be formed so as to be driven by air pressure or the like.
  • the robot device 5 includes a control device 4 that controls the robot 1 and the hand 2.
  • the control device 4 includes a control device main body 40 that performs control, and a teaching operation panel 37 for an operator to operate the control device main body 40 .
  • the control device body 40 includes an arithmetic processing device (computer) having a CPU (Central Processing Unit) as a processor.
  • the arithmetic processing unit has a RAM (Random Access Memory), a ROM (Read Only Memory), etc., which are connected to the CPU via a bus.
  • the teaching operation panel 37 is connected to the control device body 40 via a communication device.
  • the teaching operation panel 37 includes an input section 38 for inputting information regarding the robot 1 and the hand 2 .
  • the input unit 38 is composed of input members such as a keyboard and dials.
  • the teaching operation panel 37 includes a display section 39 that displays information regarding the robot 1 and hand 2 .
  • the display unit 39 can be configured by an arbitrary display panel such as a liquid crystal display panel or an organic EL (Electro Luminescence) display panel.
  • An operation program 46 created in advance for operating the robot 1 and the hand 2 is input to the control device 4 .
  • the operator can set the teaching point of the robot 1 by operating the teaching operation panel 37 to drive the robot 1 .
  • the control device 4 can generate an operation program 46 for the robot 1 and hand 2 based on the teaching points.
  • the operating program 46 is stored in the storage unit 42 .
  • the control device main body 40 includes a motion control section 43 that controls motions of the robot 1 and the hand 2 .
  • the motion control unit 43 sends motion commands for driving the robot 1 to the robot driving unit 45 based on the motion program 46 .
  • Robot drive section 45 includes an electrical circuit that drives robot drive motor 22 .
  • the robot driving section 45 supplies electricity to the robot driving motor 22 based on the operation command.
  • the motion control unit 43 also sends an operation command for driving the hand 2 to the hand driving unit 44 based on the operation program 46 .
  • the hand drive section 44 includes an electric circuit that drives the hand drive motor 21 .
  • the hand drive unit 44 supplies electricity to the hand drive motor 21 based on the operation command.
  • the control device main body 40 includes a storage section 42 that stores information regarding control of the robot 1 and hand 2 .
  • the storage unit 42 can be configured by a non-temporary storage medium capable of storing information.
  • the storage unit 42 can be configured with a storage medium such as a volatile memory, a nonvolatile memory, a magnetic storage medium, or an optical storage medium.
  • the operation control unit 43 corresponds to a processor driven according to the operation program 46.
  • the operation control section 43 is formed so as to be able to read information stored in the storage section 42 .
  • the processor functions as the operation control unit 43 by reading the operation program 46 and performing control defined in the operation program 46 .
  • Robot 1 includes a state detector for detecting the position and orientation of robot 1 .
  • the state detectors in this embodiment include position detectors 19 that detect the rotational positions attached to the robot drive motors 22 of the respective drive shafts.
  • the position detector 19 can be composed of an encoder that detects the rotation angle of the output shaft of the robot drive motor 22 .
  • the position and posture of robot 1 are detected based on the outputs of a plurality of position detectors 19 .
  • the control device 4 of the first robot device 5 includes a force sensor 24 as a force detector attached to the robot 1.
  • the force sensor 24 of this embodiment is a 6-axis sensor.
  • the force sensor 24 is arranged between the flange 16 and the hand 2 .
  • the force sensor 24 detects force and moment acting on the workpiece 71 .
  • any force sensor such as a sensor including a strain sensor or a capacitive sensor can be adopted.
  • the forces detected by the force sensor 24 in the present embodiment include forces in directions of three mutually orthogonal axes in the sensor coordinate system and forces around the three axes. More specifically, the force sensor 24 detects forces in directions of orthogonal three axes (X-axis, Y-axis and Z-axis) and forces in directions of axes (W-axis, P-axis and R-axis) around the three axes. to detect the moment (Mx, My, Mz) of .
  • the first robot device 5 in the present embodiment performs control to fit the first work 71 to the second work 72 .
  • the robot device 5 moves the first work 71 toward the second work 72 with the robot 1 .
  • the first work 71 is inserted into the concave portion 72 a of the second work 72 as indicated by an arrow 91 .
  • FIG. 3 shows an enlarged perspective view of the first work and the second work in this embodiment.
  • the first workpiece 71 of this embodiment has a cylindrical shape.
  • the end face of the first work 71 is circular.
  • the second workpiece 72 has a rectangular parallelepiped shape.
  • a second work 72 is fixed to a workbench 75 .
  • the second workpiece 72 has a recess 72a formed on its surface.
  • the concave portion 72a is formed in a cylindrical shape.
  • the concave portion 72a has a shape corresponding to the shape of the first work 71 so that the first work 71 is fitted therein.
  • the control device 4 performs control to fit the cylindrical work 71 into the recess 72 a of the work 72 as indicated by an arrow 91 .
  • the central axis 71a of the work 71 and the central axis 72aa of the recess 72a are aligned, the work 71 is smoothly inserted into the recess 72a of the work 72.
  • the central axis 72aa may deviate in position or posture with respect to the central axis 71a.
  • the control device 4 performs force control based on the output of the force sensor 24 when fitting the workpiece 71 into the recess 72a.
  • control for adjusting the position and posture of the robot based on the force detected by the force detector is called force control.
  • Force control utilizes the force generated when the workpieces come into contact with each other.
  • the control device 4 can perform control to change the speed in the direction perpendicular to the movement direction of the work and control to change the orientation of the work.
  • the control device 4 can perform compliance control, impedance control, or the like based on the force detected by the force sensor 24, for example.
  • a control point that serves as a reference for force control and a movement direction (vector) for moving the workpiece by the robot are required.
  • a control point can be placed at any arbitrary position of either the workpiece moved by the robot or another workpiece in contact with the workpiece.
  • a work tip point 65 as a control point is set on the end surface of the first work 71 .
  • the workpiece tip point 65 is arranged at the center of the planar circle on the end surface of the first workpiece 71 .
  • the direction indicated by an arrow 66 is set as the moving direction of the work 71 supported by the robot 1 when fitting the work 71 into the recess 72a.
  • the position and posture of the robot can be controlled so that the force applied to the control point in directions other than the direction parallel to the movement direction and the moment around the control point are less than predetermined judgment values.
  • the fitting operation can be performed while correcting the position and posture of the first work 71 with respect to the recess 72a.
  • the control device 4 includes a parameter calculator 51 that calculates parameters for performing force control.
  • the parameter calculator 51 includes a movement direction calculator 52 that calculates the direction of movement of the first work 71 relative to the second work 72 when performing force control.
  • the parameter calculation unit 51 includes a position calculation unit 53 that calculates the position of the work tip point placed on the end face of the first work 71 .
  • the parameter calculator 51 includes a display controller 54 that controls the image displayed on the display 39 of the teaching console 37 .
  • the operation program 46 includes a calculation program for calculating parameters for implementing force control.
  • the parameter calculator 51 corresponds to a processor driven according to this calculation program.
  • the processor functions as the parameter calculator 51 by executing control defined in the calculation program.
  • each unit of the movement direction calculation unit 52, the position calculation unit 53, and the display control unit 54 corresponds to a processor driven according to a calculation program.
  • the processors function as respective units by executing the control defined in the calculation program.
  • control for calculating parameters for performing force control is referred to as parameter setting procedure.
  • the position of the work tip point 65 as a control point is calculated.
  • a moving direction (vector) indicated by an arrow 66 for moving the first work 71 with respect to the second work 72 is calculated.
  • FIG. 4 shows a schematic diagram of the first robot device for explaining the operation of the robot in the parameter setting procedure.
  • FIG. 5 shows an enlarged perspective view of a portion where the first work is in contact with the second work. Referring to FIGS. 4 and 5, the operator manually changes the position and posture of robot 1 by operating teaching operation panel 37 .
  • the second work 72 is used as a contact member for bringing the first work 71 into contact.
  • the contact member is a member having a corner configured with a sharp tip that can be brought into contact with the first work 71 .
  • the operator changes the position and posture of the robot 1 so that the end face 71b of the work 71 contacts the corner 72b of the work 72 with the end point of the work 71 when performing the actual fitting work.
  • a contact point between the workpiece 71 and the workpiece 72 is a workpiece tip point 65 .
  • the control of pressing the first work 71 against the second work 72 is performed multiple times. At this time, the direction in which the first work 71 is pressed against the second work 72 is changed. In this embodiment, a direction in which one member is pressed toward another member is called a pressing direction.
  • the pressing direction can be determined in advance by the operator.
  • the parameter calculation unit 51 acquires the force detected by the force sensor 24 corresponding to each pressing direction.
  • the parameter calculator 51 calculates the movement direction of the first work and the position of the work end point of the first work based on the forces corresponding to the plurality of pressing directions.
  • the operator drives the robot 1 so as to press the first work 71 in the predetermined pressing direction indicated by the arrow 92 .
  • the arrow 92 corresponds to the direction (moving direction) in which the first workpiece 71 is moved when the actual fitting work is performed.
  • the operator drives the robot 1 so that the hand 2 moves in a direction substantially parallel to the central axis of the cylindrical workpiece 71 .
  • the force sensor 24 detects the force applied to the work 71 while the robot 1 is being driven so that the first work 71 presses the second work 72 .
  • a sensor coordinate system 82 is set in the force sensor 24 for detecting the force applied to the sensor.
  • the operator presses the first work 71 in a predetermined pressing direction indicated by an arrow 93 .
  • the robot 1 is driven so as to press the first work 71 against the second work 72 in a direction different from the direction in which the first work 71 is pressed the first time.
  • the force sensor 24 detects the force applied to the work 71 while the robot 1 is being driven so that the first work 71 presses the second work 72 .
  • FIG. 6 shows a first schematic diagram for explaining the method of calculating the pressing direction of the workpiece and the position of the contact point.
  • the first workpiece 71 is gripped by the gripping member 9 corresponding to the hand.
  • a force sensor 24 is attached to the grasping member 9 .
  • An origin 82 a of the sensor coordinate system is set in the force sensor 24 .
  • FIG. 6 shows a state in which the first workpiece 71 is pressed in the first pressing direction. By driving the robot, the first work 71 is pressed in the direction indicated by the arrow 92 toward the second work 72 .
  • the force sensor 24 detects forces in the X-, Y-, and Z-axis directions and moments in the W-, P-, and R-axis directions in the sensor coordinate system.
  • the first work In the first control of pressing the first work 71, the first work is pressed in the direction indicated by the arrow 92.
  • the movement direction calculator 52 detects the direction in which the first work 71 is pressed against the second work 72 .
  • the movement direction calculator 52 acquires the force component of each orthogonal axis (X-axis, Y-axis, and Z-axis) output by the force sensor 24 .
  • the movement direction calculator 52 calculates the pressing direction of the workpiece 71 indicated by an arrow 92 from the force components of the respective orthogonal axes.
  • the force sensor 24 detects moments (Mx, My, Mz) about each axis (W-axis, P-axis, and R-axis) around the orthogonal axis, as indicated by arrows 96 .
  • the position calculator 53 calculates the position vector of the proximity point 67 closest to the line parallel to the pressing direction of the workpiece from the origin 82a of the sensor coordinate system 82, as indicated by the arrow 97, based on the moment of each axis. .
  • the position calculator 53 calculates a line of action 85 that is parallel to the pressing direction of the workpiece 71 indicated by the arrow 92 and that passes through the proximity point 67 .
  • a work tip point 65 as a contact point exists on the line of action 85 . In this way, the line of action 85 passing through the proximity point 67 can be calculated as the range in which the workpiece tip point 65 exists.
  • Fig. 7 shows a second schematic diagram for explaining the method of calculating the pressing direction of the workpiece and the position of the contact point.
  • the pressing direction of the first work 71 is set to a direction different from that of the first work pressing control. That is, the first work 71 is pressed toward the second work along different directions.
  • the first workpiece 71 is pressed in the direction indicated by arrow 93 .
  • the movement direction calculator 52 calculates the pressing direction of the workpiece 71 indicated by an arrow 93 from the force components of the respective orthogonal axes.
  • the position calculator 53 calculates a line of action 86 passing through the proximity point 67 and parallel to the pressing direction of the workpiece 71 .
  • the work tip point 65 exists on the line of action 86 .
  • the position calculator 53 calculates the intersection of the line of action 85 corresponding to the first pressing direction and the line of action 86 corresponding to the second pressing direction.
  • the position calculator 53 sets this intersection point as the workpiece tip point 65 .
  • the position calculator 53 calculates the position of the intersection point as the position of the workpiece tip point 65 . In this way, the position calculator 53 can calculate the intersection point of a plurality of lines of action as the work tip point.
  • the moving direction calculation unit 52 can set one of the detected pressing directions in the control of pressing the workpiece a plurality of times as the moving direction when force control is performed.
  • the movement direction calculator 52 sets the direction indicated by the arrow 92 in the first pressing control as the movement direction. The operator can select the pressing direction to be set as the movement direction from among the plurality of pressing directions calculated by the pressing control performed multiple times.
  • control is performed to press the workpiece in two pressing directions, but the present invention is not limited to this mode.
  • Control for pressing the workpiece in three or more pressing directions may be performed.
  • the position calculator acquires the force detected by the detector corresponding to each pressing direction.
  • the position calculator calculates a plurality of lines of action corresponding to a plurality of pressing directions.
  • the position calculation unit can calculate intersection points of a plurality of lines of action as contact points.
  • the position calculator can calculate the position of the tip point of the workpiece based on the distances from the plurality of lines of action.
  • the position calculation unit can calculate a point having a small distance from a plurality of lines of action as a contact point. For example, the position calculator can calculate a point with the smallest sum or variance of distances from a plurality of lines of action as the contact point.
  • FIG. 8 shows a schematic diagram of the robot apparatus showing the workpiece tip point set on the first workpiece and the movement direction of the workpiece.
  • the moving direction indicated by the arrow 66 and the workpiece tip point 65 move together with the first workpiece 71 .
  • the direction of movement and the position of the tip of the workpiece can be calculated using the coordinate values of the sensor coordinate system 82 .
  • the movement direction calculator 52 can calculate the movement direction indicated by the arrow 66 in the sensor coordinate system 82 .
  • the position calculator 53 can calculate the position of the workpiece tip point 65 in the sensor coordinate system 82 .
  • the relative position and orientation of the sensor coordinate system 82 with respect to the flange coordinate system 83 set on the flange 16 of the robot 1 are determined in advance.
  • the parameter calculator 51 is calibrated so that the coordinate values of the sensor coordinate system 82 can be converted into the coordinate values of the flange coordinate system 83 .
  • the parameter calculation unit 51 converts the moving direction and the work end point position represented by the sensor coordinate system 82 into the moving direction and the work end point position represented by the flange coordinate system 83 .
  • the parameter calculation unit 51 can set the movement direction and the position of the tip end point of the workpiece expressed in the flange coordinate system 83 in the operation program 46 as parameters (set values) for force control.
  • the display control unit 54 can display the calculated movement direction and the position of the workpiece tip point on the display unit 39 .
  • the operator can set the position and movement direction of the workpiece end point in the operation program 46 by looking at the display on the display unit 39 .
  • the operator designates the position and posture of the work 71 with respect to the work 72 when starting the work of fitting the work 71 .
  • the operator operates the teaching operation panel 37 to change the position and posture of the robot 1 so that the workpiece 71 is placed directly above the recess 72a as shown in FIGS.
  • the position and attitude of the work 71 are changed so that the center axis 72aa of the recess 72a and the center axis 71a of the work 71 are arranged substantially linearly.
  • the position and posture of the robot 1 at this time are the initial position and posture of the robot when the control for fitting the first work 71 to the second work 72 is started.
  • the parameter calculation unit 51 sets the initial position and orientation of the robot in the motion program 46 .
  • the display control unit 54 can display the initial position and posture of the robot on the display unit 39 so that the operator can set it in the operation program 46 .
  • the motion control unit 43 adjusts the position and posture of the robot 1 based on the motion program 46 so that the workpiece 71 assumes the initial position and posture. Control.
  • the motion control section 43 starts force control.
  • the motion control unit 43 moves the work 71 in the moving direction indicated by the arrow 66 .
  • the force sensor 24 detects force.
  • the motion control unit 43 can convert the force detected by the force sensor 24 into a force acting on the tip point 65 of the workpiece. Then, the position and posture of the robot can be controlled so that the force acting on the workpiece tip point 65 is within a predetermined determination range. Thus, force control can be performed based on the direction of movement indicated by arrow 66 and the position of workpiece tip point 65 .
  • the second work 72 is used as the contact member that makes contact with the first work 71, but it is not limited to this form. Any member including a corner having a vertex can be adopted as the contact member.
  • a jig having corners may be fixed to a workbench, and the end face of the first work may be brought into contact with the corners of the jig.
  • the robot is operated using the teaching operation panel to bring the first work into contact with the second work, but the present invention is not limited to this form.
  • the operator can manually implement any controls that change the position and attitude of the robot. For example, by arranging a force sensor on the base of the robot, it is possible to operate the robot in a manner similar to direct teaching. The operator can change the position and posture of the robot by directly pushing or pulling the components of the robot.
  • display control unit 54 in the present embodiment performs the operation of bringing end face 71b of first work 71 into contact with corner 72b of second work 72, and displays the first An image can be displayed so that the direction of the force pressing the workpiece 71 can be seen.
  • Fig. 9 shows an image displayed on the display unit.
  • image 61 the portion where the first work contacts the second work is enlarged.
  • three-dimensional shape data 58 of robot device 5 first work 71 and second work 72 are stored in storage unit 42 in the present embodiment.
  • the display control unit 54 creates a model of each member based on the three-dimensional shape data 58 .
  • the actual position of the robot device and the position of the workpiece are entered in advance.
  • the display control unit 54 arranges the model in the virtual space according to the actual position of the robot device and the position of the workpiece.
  • the display control unit 54 generates an image of the model of the workpiece when viewed from a predetermined direction. Also, the display control unit 54 acquires the position and posture of the robot 1 based on the output of the position detector 19 .
  • the display control unit 54 generates a model image of the robot device based on the position and orientation of the robot 1 .
  • a first workpiece model 71M and a second workpiece model 72M are displayed.
  • a hand model 2M, a force sensor model 24M, a wrist model 15M, and an upper arm model 11M are displayed.
  • the display control unit 54 acquires the pressing direction of the work 71 from the moving direction calculation unit 52 .
  • the display control unit 54 displays an arrow indicating the pressing direction on the image.
  • the display control unit 54 displays an arrow 99M in the direction that the work 71 is pressing so as to extend from the corner of the model 72M of the second work.
  • the display control unit 54 controls the movement direction calculation unit 100 during the period in which the robot is driven so as to press one of the first work 71 and the second work 72 toward the other work.
  • the pressing direction of the work calculated at 52 is obtained and displayed superimposed on the image of the robot 1 .
  • the position calculation unit 53 can calculate the position of the contact point by performing the control of pressing the workpiece for the second and subsequent times. For this reason, the display control unit 54 may acquire the position of the contact point from the position calculation unit 53 and display the contact point superimposed on the image of the robot 1 .
  • the operator can confirm the pressing direction of the first work 71 against the second work 72 on the image 61 displayed on the display unit 39 .
  • the operator can judge whether or not the pressing direction of the workpiece is appropriate. For example, when the direction in which the first work is pressed is set as the movement direction of the first work, the operator can determine whether the pressing direction is appropriate.
  • the operator can change the position and posture of the robot 1 while viewing the image 61 .
  • the worker may find it difficult to see the part that the actual work is in contact with.
  • the work may be small and it may be difficult to check the posture of the work being pressed. Even in such a case, the operator can adjust the direction in which one work presses the other while viewing the image displayed on the display unit.
  • the display control unit 54 can display arbitrary information regarding the pressing direction of the workpiece and the position of the contact point on the display unit.
  • the direction of movement or the position of the contact point may be displayed in coordinate values of a predetermined coordinate system.
  • the pressing direction of the workpiece may be displayed by coordinate values of the W-axis, P-axis, and R-axis in the reference coordinate system.
  • FIG. 10 shows a schematic diagram of the second robot device according to the present embodiment.
  • a first workpiece 71 is fixed to a workbench 75 in the second robot device 6 .
  • a second work 72 is gripped by the hand 2 and moved by the second robot device 6 .
  • the second robot device 6 moves the work 72 as indicated by an arrow 91 to fit the work 71 into the recess 72 a of the work 72 .
  • force control is performed to control the position and attitude of the robot 1 so that the force applied to the tip of the first workpiece 71 in a predetermined direction is reduced. implement.
  • the position and attitude of the robot 1 are controlled so that the force applied to the tip of the work 71 in a direction other than the moving direction and the moment applied to the tip of the work 71 approach zero.
  • a workpiece tip point is set on the end surface 71b of the first workpiece 71 in order to perform force control.
  • the direction of movement of the second work 72 relative to the first work 71 is set.
  • FIG. 11 shows a schematic diagram of the second robot device when the corner of the second work is brought into contact with the first work.
  • FIG. 12 shows an enlarged perspective view of a portion where the second work contacts the first work.
  • the operator manually drives the robot device to press the second work 72 as the contact member against the first work 71 .
  • the operator brings the corner 72b of the second work 72 into contact with the end surface 71b of the work 71 .
  • the operator brings the corner portion 72b into contact with the front end point of the work in the actual fitting operation.
  • the parameter calculation unit 51 acquires the force detected by the force sensor 24 corresponding to each pressing direction.
  • the parameter calculator 51 calculates the movement direction of the second work 72 and the position of the work tip point of the first work 71 based on the forces corresponding to the plurality of pressing directions.
  • the robot 1 In the first control for pressing the second work 72 , the robot 1 is driven to press the second work 72 in the predetermined pressing direction indicated by the arrow 94 .
  • the robot 1 is driven so as to press the second work 72 against the first work 71 along the moving direction (moving direction) in the actual fitting work.
  • the position and posture of the robot 1 are changed so as to press the second work 72 in a direction parallel to the direction in which the central axis of the first work 71 extends.
  • the force sensor 24 detects the force applied to the second work 72 while the second work 72 is being pressed against the first work 71 .
  • the robot 1 is driven so as to press the second work 72 in the predetermined pressing direction indicated by the arrow 95 .
  • a direction different from the first pressing direction is adopted as the second pressing direction.
  • the force sensor 24 detects the force applied to the second work 72 while the second work 72 is being pressed against the first work 71 .
  • FIG. 13 shows a schematic diagram of a robot apparatus for explaining the parameters set by pressing the corner of the second work against the end surface of the first work. 2, 12, and 13, moving direction calculator 52 of parameter calculator 51 can calculate the pressing direction based on the force in the orthogonal axis direction in the sensor coordinate system. The movement direction calculator 52 sets one pressing direction calculated based on the output of the force sensor 24 to the movement direction indicated by the arrow 66 .
  • the position calculator 53 of the parameter calculator 51 calculates the line of action based on the pressing direction and the moment about the orthogonal axis in the sensor coordinate system.
  • the position calculator 53 calculates a plurality of lines of action corresponding to a plurality of pressing directions based on the output of the force sensor 24 . Then, the position calculator 53 can calculate the position of the workpiece tip point 65 of the workpiece 71 based on the plurality of lines of action.
  • the parameter calculation unit 51 calculates the moving direction and the position of the tip point of the workpiece in the sensor coordinate system 82 when the second workpiece 72 is in contact with the first workpiece 71 .
  • the parameter calculation unit 51 calculates the workpiece end point 65 represented by the sensor coordinate system 82 based on the position and posture of the robot when the second workpiece 72 is in contact with the first workpiece 71.
  • the position and movement direction are transformed into the position and movement direction of the workpiece tip point 65 represented by the reference coordinate system 81 .
  • the parameter calculator 51 sets the position and movement direction of the workpiece tip point 65 in the reference coordinate system 81 in the operation program 46 .
  • the operator can set the position and movement direction of the workpiece tip point 65 displayed on the display unit 39 in the operation program 46 . In this way, when the second work 72 is fitted to the first work 71 fixed to the workbench, the work end point 65 and the moving direction are set to the first work 71 fixed to the workbench. can be set.
  • the operator sets the initial position and attitude of the second work 72 when performing the control of fitting the work 72 to the work 71 .
  • the operator places the concave portion 72a of the work 72 right above the work 71 as shown in FIG.
  • the operator adjusts the position and attitude of the robot so that the central axis 71a of the workpiece 71 substantially coincides with the central axis 72aa of the recess 72a.
  • the parameter calculation unit 51 or the operator sets the position and orientation of the robot at this time in the operation program 46 as the initial position and orientation of the robot at which the work fitting control is started.
  • the motion control unit 43 starts force control after driving the robot 1 to the initial position and posture.
  • the motion control unit 43 drives the robot 1 to move the second work in the movement direction.
  • Forces detected by the force sensor 24 forces in the X-, Y-, and Z-axis directions and moments in the W-, P-, and R-axis directions
  • Forces detected by the force sensor 24 are calculated based on the robot's position and orientation at the workpiece end point 65. is converted into a force acting on
  • the motion control unit 43 controls the position and attitude of the robot so that the force applied to the workpiece tip point 65 in a predetermined direction is within a predetermined determination range. In this manner, the control device 4 can perform force control based on the workpiece tip point 65 and the movement direction indicated by the arrow 66 .
  • the display control unit 54 of the parameter calculation unit 51 displays an image on the display unit 39 when the robot 1 is being driven so as to press the second work 72 toward the first work 71 .
  • the display control unit 54 acquires the moving direction calculated by the moving direction calculating unit 52 and displays the moving direction superimposed on the image of the robot 1 . Further, the display control unit 54 may display the work tip point 65 calculated by the position calculation unit 53 as an image.
  • the second work is used as the contact member that contacts the first work, but it is not limited to this form.
  • the contact member any member including a corner portion having a tip can be adopted.
  • a jig including corners may be moved by a robot device.
  • FIG. 14 shows a schematic diagram of a third robot device according to the present embodiment.
  • the third robot device 7 differs from the first robot device 5 in the position where the force sensor 24 is arranged.
  • the force sensor 24 is arranged between the second work 72 supported by the workbench 75 and the surface of the workbench 75 .
  • the force sensor 24 is fixed to the workbench 75 via the support member 26 .
  • a second work 72 is fixed to a workbench 75 via a force sensor 24 and a support member 26 .
  • control similar to the parameter setting procedure of the first robot device 5 can be performed.
  • Fig. 15 shows a schematic diagram of the third robot device when pressing the first work against the second work.
  • the operator brings the workpiece tip point of the first workpiece 71 into contact with the corner 72 b of the second workpiece 72 .
  • the first work 71 is pressed toward the second work 72 as indicated by an arrow 92 .
  • the first work 71 is pressed toward the second work in a direction parallel to the moving direction of the first work 71 in the actual fitting work.
  • the force sensor 24 detects force applied to the second work 72 .
  • the first work 71 is pressed toward the second work 72 as indicated by an arrow 93 .
  • the pressing direction indicated by arrow 93 is different from the pressing direction indicated by arrow 92 .
  • the force sensor 24 detects force applied to the second work 72 .
  • the movement direction calculator 52 calculates the pressing direction acting on the second workpiece 72 based on the forces (forces in the X-axis, Y-axis, and Z-axis directions) detected by the force sensors 24 .
  • the pressing direction acting on the second work 72 corresponds to the direction in which the first work 71 is pressed against the second work 72 .
  • the moving direction calculator 52 sets the pressing direction indicated by the arrow 92 as the moving direction.
  • the position calculation unit 53 calculates the position of the workpiece tip point based on the pressing direction and the force detected by the force sensor 24 (moments in the directions of the W-axis, P-axis, and R-axis).
  • the position calculator 53 calculates a plurality of lines of action based on a plurality of pressing directions, and calculates the position of the tip point of the workpiece based on the plurality of lines of action.
  • the parameter calculator 51 calculates the moving direction and the position of the contact point in the sensor coordinate system 82 .
  • the parameter calculator 51 acquires the position and orientation of the robot 1 when the workpiece tip point of the first workpiece 71 is in contact with the corner of the second workpiece.
  • the parameter calculation unit 51 calculates the moving direction and the work end point position represented by the sensor coordinate system 82, and calculates the moving direction and the work end point position expressed by the flange coordinate system 83. to the position of The parameter calculator 51 or the operator can set the moving direction and the position of the tip point of the tool represented by the flange coordinate system 83 in the operation program 46 as parameters for force control.
  • FIG. 16 shows a perspective view of a third robot apparatus for explaining the tip point of the workpiece and the movement direction of the workpiece calculated by the parameter calculation unit.
  • a movement direction indicated by a workpiece tip point 65 and an arrow 66 is set for the first workpiece 71 gripped by the hand 2, as in the case of the first robot device 5.
  • FIG. The workpiece tip point 65 and the moving direction move together with the first workpiece 71 .
  • the motion control unit 43 adjusts the force detected by the force sensor 24 to the work end point 65 based on the position and orientation of the robot 1. can be converted into a force acting on Also in the third robot device 7, the same force control as in the first robot device 5 can be implemented. In other words, force control can be performed based on the tip point 65 of the workpiece and the moving direction indicated by the arrow 66 when performing the operation of fitting the first workpiece 71 into the recess 72a.
  • any jig having corners may be fixed to the workbench as a contact member instead of the second work. Also in this case, it is possible to perform control to press the first workpiece against the corner of the jig.
  • the contact member is fixed to the workbench and the robot moves the first workpiece, but the configuration is not limited to this.
  • the first workpiece may be fixed to the workbench and the contact member may be moved by the robot.
  • the first work may be fixed to the workbench via the force sensor, and the second work may be gripped and moved by the robot device.
  • force sensor 24 detects the force applied to the first workpiece.
  • the parameter setting procedure it is possible to set the position and movement direction of the workpiece tip point based on the output of a force sensor fixed to the workbench.
  • FIG. 17 shows a schematic diagram of a fourth robot device according to the present embodiment.
  • a torque sensor 25 is arranged as a force detector.
  • a plurality of torque sensors 25 are arranged on the drive shafts of the plurality of joints 18 of the robot 1 .
  • torque sensors 25 are arranged on all six drive shafts. Each torque sensor 25 detects torque around the drive shaft of the joint 18 .
  • a torque sensor 25 is arranged in the fourth robot device 8.
  • the output of the torque sensor 25 is transmitted to the parameter calculator 51 .
  • the parameter calculator 51 calculates the position of the tip end point of the first workpiece 71 and the moving direction of the first workpiece 71 based on the force (torque around the drive shaft) output from each torque sensor 25. .
  • FIG. 18 shows a schematic diagram of the robot device when the first work is in contact with the corner of the second work.
  • the operator brings the workpiece tip point of the first workpiece 71 into contact with the corner of the second workpiece 72 .
  • the robot 1 is driven to press the first work 71 toward the second work 72 as indicated by an arrow 92 .
  • the pressing direction indicated by the arrow 92 corresponds to the moving direction of the first work 71 in the actual fitting work.
  • the torque sensor 25 detects torque around each drive shaft.
  • the movement direction calculator 52 can calculate the pressing direction of the first work 71 indicated by the arrow 92 based on the outputs of the plurality of torque sensors 25 .
  • the movement direction calculator 52 can calculate the pressing direction using the principle of force balance or virtual work.
  • An arrow 92 corresponds to a line of action on which there is a contact point as the work tip point.
  • the movement direction calculator 52 can set the pressing direction of the first workpiece 71 indicated by the arrow 92 as the movement direction.
  • the pressing direction can be acquired in the control of pressing the workpiece in one direction, but the position of the front end point of the workpiece (the position of the contact point where the workpieces come into contact with each other) cannot be calculated.
  • the fourth robot device 8 in order to specify the position of the contact point arranged on the straight line in the pressing direction, the workpiece 71 is pressed against the workpiece 72 from another direction and the position of the tip point of the workpiece is calculated.
  • control is performed to press the first workpiece 71 from a direction different from the first pressing direction.
  • the robot 1 is driven to press the first work 71 against the corner 72 b of the second work 72 in the direction indicated by the arrow 93 .
  • the movement direction calculator 52 calculates the pressing direction of the first workpiece 71 indicated by an arrow 93 based on the outputs of the plurality of torque sensors 25 .
  • Arrow 93 corresponds to the line of action where the contact point exists.
  • the position calculation unit 53 calculates the intersection of the two pressing directions pressing the work 71 as the contact point where the first work 71 contacts the second work 72 . In other words, the position calculator 53 calculates the position of the intersection of the arrows 92 and 93 as the position of the workpiece tip point 65 . In this way, by performing control to press the first workpiece against the corner from two or more directions, the intersection point of the vectors in the pressing directions can be calculated as the position of the front end point of the workpiece.
  • FIG. 19 shows a schematic diagram of a fourth robotic device describing parameters generated for force control.
  • the parameter calculator 51 of the fourth robot device 8 calculates the position of the workpiece tip point 65 and the movement direction indicated by the arrow 66 in the flange coordinate system.
  • the motion control unit 43 calculates the force acting on the work tip point 65 based on the outputs of the plurality of torque sensors 25 .
  • the motion control section 43 can perform force control based on the position and moving direction of the workpiece tip point 65 .
  • the robot 1 supports the first work 71 and inserts the first work 71 into the recess 72a of the second work 72, but is not limited to this form.
  • the first work 71 may be fixed to the workbench 75 and the fourth robot device 8 may move the second work 72 .
  • the work tip point and movement direction are set to the first work.
  • the operator moves the contact member such as the second workpiece 72 with a robot, and moves the corner of the contact member to the workpiece tip point of the first workpiece 71. come into contact with
  • the parameter calculation unit 51 can calculate the position and movement direction of the workpiece tip point based on the output of the torque sensor 25 .
  • the measurement was performed by changing the direction of pressing the other workpiece without changing the posture of one workpiece, but the configuration is not limited to this.
  • the posture of the first work with respect to the second work can be changed in the second control of pressing the first work.
  • the position of the tip point of the workpiece can be calculated based on the line of action corresponding to the pressing direction.
  • control for fitting a cylindrical work is shown, but the control of the present embodiment can be applied to works of any shape.
  • the control of fitting one work to another work is shown, but the present invention is not limited to this form.
  • the control device of the present embodiment can be applied to any work of moving one work toward another work, such as aligning works or searching for a hole.
  • the control of the present embodiment can be applied to work that requires force control because the work contacts other objects when the robot moves the work.
  • the work of fitting is not limited to the work of inserting a workpiece into a concave portion or a hole, but includes, for example, the work of arranging a gear at a predetermined position while matching the phases of the teeth of the gear.

Abstract

制御装置は、力覚センサと、力制御を行う時に第1のワークを移動する移動方向およびワーク先端点の位置を算出するパラメータ算出部を備える。作業者は、ロボットにて第1のワークのワーク先端点を第2のワークの角部に接触させる。力覚センサは、第1のワークを押付け方向に沿って押し付けている期間中に力を検出する。パラメータ算出部は、複数の押付け方向に対応して力覚センサにて検出された力に基づいて移動方向およびワーク先端点の位置を算出する。

Description

ロボットの位置および姿勢を制御するパラメータを算出する制御装置
 本発明は、ロボットの位置および姿勢を制御するパラメータを算出する制御装置に関する。
 ロボット装置は、ロボットおよびロボットに取り付けられた作業ツールを備え、ロボットが位置および姿勢を変更しながら所定の作業を行うことができる。従来から作業ツールとしてワークを把持するハンドを取り付けて、ワークを所定の位置に配置するロボット装置が知られている。ワークの位置および姿勢を精密に調整する作業としては、1つのワークを他のワークに嵌合する制御が知られている。または、1つのワークの所定の位置に他のワークを接触させる制御が知られている。例えば、作業台に固定された部材の穴部等にワークを挿入する作業を行うロボット装置が知られている(例えば、特開平4-256526号公報)。
 このような作業を行う場合に、ロボットの制御装置は、1つのワークを他のワークに向かって移動しながらロボットの位置および姿勢を修正する。従来の技術においては、ロボットに力覚センサを取り付けてコンプライアンス制御等の力制御を実施することが知られている。力制御では、力覚センサにて検出される予め定められた方向の力が判定範囲内になるように、ロボットの位置および姿勢を修正することができる(例えば、特開2008-307634号公報および特開2017-127932号公報)。
特開平4-256526号公報 特開2008-307634号公報 特開2017-127932号公報
 力制御では、ロボットに取り付けられた力覚センサの出力に基づいて、ロボットにて把持されているワークの位置および姿勢を調整することができる。この制御を実施する場合には、ロボットにてワークを移動するための制御点を設定する必要が有る。力制御の制御点としては、ワークの先端点または作業ツールの先端点に設定することができる。また、ワークを嵌合したり押し付けたりするために移動する方向として移動方向(ベクトル)を予め設定する必要が有る。
 このような制御点および移動方向を含むパラメータは、作業ツールに原点を有するツール座標系および作業者が設定するユーザー座標系のうち少なくとも一方の座標系にて指定することができる。一般的には、座標系の原点を制御点に設定して、座標系の1つの座標軸の方向を移動方向に設定することができる。そして、座標系の原点の位置および移動方向に基づいてロボットを制御することができる。
 ツール座標系およびユーザー座標系は、実際のロボットを駆動して設定することができる。ところが、ロボットの操作を熟知していない作業者にとっては、座標系を設定することが難しいという問題がある。例えば、作業台に固定されたワークにユーザー座標系を設定する場合には、作業者は、ロボットに設定された基準座標系を用いて、空間に3点の位置を定め、X軸およびY軸に平行なベクトルを設定する。更に、作業者は、原点の位置を指定することにより、X軸、Y軸、およびZ軸を含むユーザー座標系を設定する。
 このように、座標系の設定には多くの手順が存在して、ロボットの操作に慣れていない作業者にとっては、座標系を設定する作業は難しいという問題がある。特に、3次元空間における方向を座標軸の方向にて指定する場合に、ロボットの操作が難しいという問題がある。
 本開示の1つの態様は、ロボットにて第1のワークを第2のワークに向かって移動する時に力制御を行うためのパラメータを算出する制御装置である。制御装置は、角部を有する接触部材にロボットにて第1のワークを接触させた時に、第1のワークおよび接触部材のうち一方に加わる力を検出する力検出器を備える。制御装置は、力制御を行う時に第2のワークに対して第1のワークを移動する移動方向および力制御の制御点となるワーク先端点の位置を算出するパラメータ算出部を備える。力検出器は、ロボットにて第1のワークのワーク先端点を接触部材の角部に接触させて、第1のワークを予め定められた押付け方向に沿って押し付けている期間中に力を検出する。パラメータ算出部は、複数の押付け方向にて第1のワークを接触部材に押付けた時に、それぞれの押付け方向に対応して力検出器にて検出される力を取得し、複数の押付け方向に対応する力に基づいて第1のワークの移動方向および第1のワークのワーク先端点の位置を算出する。
 本開示の他の態様は、ロボットにて第2のワークを第1のワークに向かって移動する時に力制御を行うためのパラメータを算出する制御装置である。制御装置は、ロボットにて角部を有する接触部材を第1のワークに接触させた時に、第1のワークおよび接触部材のうち一方に加わる力を検出する力検出器を備える。制御装置は、力制御を行う時に第1のワークに対して第2のワークを移動する移動方向および力制御の制御点となるワーク先端点の位置を算出するパラメータ算出部を備える。力検出器は、ロボットにて接触部材の角部を第1のワークのワーク先端点に接触させて、接触部材を予め定められた押付け方向に沿って押し付けている期間中に力を検出する。パラメータ算出部は、複数の押付け方向にて接触部材を第1のワークに押付けた時に、それぞれの押付け方向に対応して力検出器にて検出される力を取得し、複数の押付け方向に対応する力に基づいて第2のワークの移動方向および第1のワークのワーク先端点の位置を算出する。
 本開示の態様によれば、ロボットの力制御を行うためのパラメータを容易なロボットの操作にて算出する制御装置を提供することができる。
実施の形態における第1のロボット装置の概略図である。 実施の形態における第1のロボット装置のブロック図である。 第1のワークを第2のワークに嵌合する時の拡大斜視図である。 第2のワークの角部に第1のワークの端面を接触させる時の第1のロボット装置の概略図である。 第2のワークの角部に第1のワークを接触させる時の拡大斜視図である。 ワーク先端点の位置および移動方向を算出する方法を説明する第1の概略図である。 ワーク先端点の位置および移動方向を算出する方法を説明する第2の概略図である。 パラメータ設定手順にて生成されたワーク先端点および移動方向を説明する第1のロボット装置の概略図である。 教示操作盤の表示部に表示されるロボットおよびワークの画像である。 実施の形態における第2のロボット装置の概略図である。 第2のワークの角部を第1のワークの端面に接触させる時の第2のロボット装置の概略図である。 第2のワークの角部を第1のワークの端面に接触させる時の拡大斜視図である。 パラメータ設定手順にて生成されたワーク先端点および移動方向を説明する第2のロボット装置の概略図である。 実施の形態における第3のロボット装置の概略図である。 第2のワークの角部に第1のワークの端面を接触させる時の第3のロボット装置の概略図である。 パラメータ設定手順にて生成されたワーク先端点および移動方向を説明する第3のロボット装置の概略図である。 実施の形態における第4のロボット装置の概略図である。 第2のワークの角部に第1のワークの端面を接触させる時の第4のロボット装置の概略図である。 パラメータ設定手順にて生成されたワーク先端点と移動方向を説明する第4のロボット装置の概略図である。
 図1から図19を参照して、実施の形態における制御装置について説明する。本実施の形態の制御装置は、ロボットにより1つのワークを他のワークに向かって移動する時に力制御を行うためのパラメータを算出する。図1は、本実施の形態における第1のロボット装置の概略図である。第1のロボット装置5は、作業ツールとしてのハンド2と、ハンド2を移動するロボット1とを備える。
 本実施の形態のロボット1は、複数の関節部18を含む多関節ロボットである。ロボット1は、移動可能な複数の構成部材を含む。ロボット1の構成部材は、それぞれの駆動軸の周りに回転するように形成される。ロボット1は、ベース部14と、ベース部14に対して回転する旋回ベース13とを含む。ロボット1は、上部アーム11および下部アーム12を含む。下部アーム12は、旋回ベース13に回動可能に支持されている。上部アーム11は、下部アーム12に回動可能に支持されている。ロボット1は、上部アーム11に回動可能に支持されている手首部15を含む。手首部15のフランジ16には、ハンド2が固定されている。また、上部アーム11およびフランジ16は、他の駆動軸の周りに回転する。
 本実施の形態のロボットは、6個の駆動軸を有するが、この形態に限られない。任意の機構にて位置および姿勢を変更するロボットを採用することができる。また、本実施の形態の作業ツールは、2つの爪部を有するハンドであるが、この形態に限れられない。作業ツールは、ワークを把持できる任意の装置を採用することができる。
 本実施の形態のロボット装置5には、基準座標系81が設定されている。図1に示す例では、ロボット1のベース部14に基準座標系81の原点が配置されている。基準座標系81はワールド座標系とも称される。基準座標系81は、原点の位置が固定され、更に、座標軸の向きが固定されている座標系である。ロボット1の位置および姿勢が変化しても基準座標系81の位置および姿勢は変化しない。本実施の形態の座標系は、座標軸として互いに直交するX軸、Y軸、およびZ軸を有する。また、座標系は、X軸の周りのW軸、Y軸の周りのP軸、およびZ軸の周りのR軸を有する。
 ロボット装置5には、作業ツールの任意の位置に設定された原点を有するツール座標系が設定されている。本実施の形態では、ツール座標系の原点は、ハンド2の2つの爪部の先端同士の中間点であるツール先端点に設定されている。ツール座標系は、作業ツールと共に位置および姿勢が変化する座標系である。ロボット1の位置は、例えば、ツール座標系の原点の位置に対応する。また、ロボット1の姿勢は、基準座標系81に対するツール座標系の向きが対応する。
 ロボット装置5には、手首部15のフランジ16に原点を有するフランジ座標系83が設定されている。フランジ座標系83は、フランジ16と共に移動および回転する座標系である。フランジ座標系83は、例えば、原点がフランジ16の表面に配置され、Z軸がフランジ16の回転軸に重なるように設定される。
 図2に、本実施の形態におけるロボット装置のブロック図を示す。図1および図2を参照して、ロボット1は、ロボット1の位置および姿勢を変化させるロボット駆動装置を含む。ロボット駆動装置は、アームおよび手首部等の構成部材を駆動するロボット駆動モータ22を含む。本実施の形態では、それぞれの駆動軸に対応して複数のロボット駆動モータ22が配置されている。
 ロボット装置5は、ハンド2を駆動するハンド駆動装置を備える。ハンド駆動装置は、ハンド2の爪部を駆動するハンド駆動モータ21を含む。ハンド駆動モータ21が駆動することによりハンド2の爪部が開いたり閉じたりする。なお、ハンドは、空気圧等により駆動するように形成されていても構わない。
 ロボット装置5は、ロボット1およびハンド2を制御する制御装置4を備える。制御装置4は、制御を行う制御装置本体40と、作業者が制御装置本体40を操作するための教示操作盤37とを含む。制御装置本体40は、プロセッサとしてのCPU(Central Processing Unit)を有する演算処理装置(コンピュータ)を含む。演算処理装置は、CPUにバスを介して接続されたRAM(Random Access Memory)およびROM(Read Only Memory)等を有する。
 教示操作盤37は、通信装置を介して制御装置本体40に接続されている。教示操作盤37は、ロボット1およびハンド2に関する情報を入力する入力部38を含む。入力部38は、キーボードおよびダイヤルなどの入力部材により構成されている。教示操作盤37は、ロボット1およびハンド2に関する情報を表示する表示部39を含む。表示部39は、液晶表示パネルまたは有機EL(Electro Luminescence)表示パネル等の任意の表示パネルにて構成されることができる。
 制御装置4には、ロボット1およびハンド2の動作を行うために予め作成された動作プログラム46が入力される。または、作業者が教示操作盤37を操作してロボット1を駆動することにより、ロボット1の教示点を設定することができる。制御装置4は、教示点に基づいて、ロボット1およびハンド2の動作プログラム46を生成することができる。動作プログラム46は、記憶部42に記憶される。
 制御装置本体40は、ロボット1およびハンド2の動作を制御する動作制御部43を含む。動作制御部43は、動作プログラム46に基づいて、ロボット1を駆動するための動作指令をロボット駆動部45に送出する。ロボット駆動部45は、ロボット駆動モータ22を駆動する電気回路を含む。ロボット駆動部45は、動作指令に基づいてロボット駆動モータ22に電気を供給する。また、動作制御部43は、動作プログラム46に基づいてハンド2を駆動する動作指令をハンド駆動部44に送出する。ハンド駆動部44は、ハンド駆動モータ21を駆動する電気回路を含む。ハンド駆動部44は、動作指令に基づいてハンド駆動モータ21に電気を供給する。
 制御装置本体40は、ロボット1およびハンド2の制御に関する情報を記憶する記憶部42を含む。記憶部42は、情報の記憶が可能で非一時的な記憶媒体にて構成されることができる。例えば、記憶部42は、揮発性メモリ、不揮発性メモリ、磁気記憶媒体、または光記憶媒体等の記憶媒体にて構成することができる。
 動作制御部43は、動作プログラム46に従って駆動するプロセッサに相当する。動作制御部43は、記憶部42に記憶された情報を読み取り可能に形成されている。プロセッサが動作プログラム46を読み込んで、動作プログラム46に定められた制御を実施することにより、動作制御部43として機能する。ロボット1は、ロボット1の位置および姿勢を検出するための状態検出器を含む。
 本実施の形態における状態検出器は、それぞれの駆動軸のロボット駆動モータ22に取り付けられた回転位置を検出する位置検出器19を含む。位置検出器19は、ロボット駆動モータ22の出力シャフトの回転角を検出するエンコーダにより構成することができる。本実施の形態では、複数の位置検出器19の出力に基づいて、ロボット1の位置および姿勢が検出される。
 第1のロボット装置5の制御装置4は、ロボット1に取り付けられた力検出器としての力覚センサ24を含む。本実施の形態の力覚センサ24は、6軸のセンサである。第1のロボット装置5では、力覚センサ24は、フランジ16とハンド2との間に配置されている。力覚センサ24は、ワーク71に作用する力およびモーメントを検出する。力覚センサ24としては、歪みセンサを含むセンサまたは静電容量式のセンサ等の任意の力覚センサを採用することができる。
 本実施の形態における力覚センサ24にて検出される力には、センサ座標系における互いに直交する3軸の方向の力および3軸の周りの力が含まれる。より具体的には、力覚センサ24は、直交3軸(X軸、Y軸およびZ軸)方向の力と、3軸の回りの軸(W軸、P軸およびR軸)方向の力としてのモーメント(Mx,My,Mz)を検出する。
 本実施の形態における第1のロボット装置5は、第2のワーク72に第1のワーク71を嵌合させる制御を実施する。ロボット装置5は、ロボット1にて第1のワーク71を第2のワーク72に向かって移動する。そして、矢印91に示すように、第2のワーク72の凹部72aに第1のワーク71を挿入する。
 図3に、本実施の形態における第1のワークおよび第2のワークの拡大斜視図を示す。本実施の形態の第1のワーク71は、円柱の形状を有する。第1のワーク71の端面は円形である。第2のワーク72は、直方体の形状を有する。第2のワーク72は、作業台75に固定されている。第2のワーク72は表面に形成された凹部72aを有する。凹部72aは、円柱状に形成されている。凹部72aは、第1のワーク71が嵌合するように第1のワーク71の形状に対応する形状を有する。
 制御装置4は、矢印91に示すように、円柱状のワーク71をワーク72の凹部72aに嵌合させる制御を実施する。このときに、ワーク71の中心軸71aと凹部72aの中心軸72aaとが一直線状になる場合には、ワーク71は、滑らかにワーク72の凹部72aに挿入される。しかしながら、中心軸72aaは中心軸71aに対して位置または姿勢がずれる場合がある。
 図2および図3を参照して、制御装置4は、ワーク71を凹部72aに嵌合する時に、力覚センサ24の出力に基づいて力制御を実施する。本実施の形態では、力検出器にて検出される力に基づいて、ロボットの位置および姿勢を調整する制御を力制御と称する。力制御では、ワークが接触した時に生じる力を利用する。制御装置4は、力覚センサ24にて検出される力に基づいて、ワークの移動方向に直交する方向の速度を変化させる制御およびワークの向きを変化させる制御を実施することができる。制御装置4は、例えば、力覚センサ24にて検出される力に基づいて、コンプライアンス制御またはインピーダンス制御等を実施することができる。
 このような力制御を実施する時には、力制御の基準となる制御点およびロボットにてワークを移動するための移動方向(ベクトル)が必要になる。制御点は、ロボットにて移動するワークおよびこのワークに接触する他のワークのうち、いずれか一方の任意の位置に配置することができる。第1のロボット装置5では、制御点としてのワーク先端点65を第1のワーク71の端面に設定する。本実施の形態では、ワーク先端点65は、第1のワーク71の端面において平面形状の円の中心に配置される。また、ワーク71を凹部72aに嵌合する時に、ロボット1に支持されたワーク71の移動方向として矢印66に示す方向が設定される。
 図3を参照して、理想的には、制御点に加わる力が移動方向と反対の方向の力のみであり、制御点の周りのモーメントが零であれば、ワーク71が凹部72aに滑らかに挿入される。力制御では、例えば、制御点に加わる移動方向に平行な方向以外の力および制御点の周りのモーメントが所定の判定値未満になるように、ロボットの位置および姿勢を制御することができる。力制御を実施することにより、凹部72aに対する第1のワーク71の位置および姿勢を修正しながら嵌合の作業を行うことができる。
 制御装置4は、力制御を実施する為のパラメータを算出するパラメータ算出部51を含む。パラメータ算出部51は、力制御を行う時に第2のワーク72に対して第1のワーク71を移動する移動方向を算出する移動方向算出部52を含む。パラメータ算出部51は、第1のワーク71の端面に配置されるワーク先端点の位置を算出する位置算出部53を含む。パラメータ算出部51は、教示操作盤37の表示部39に表示する画像を制御する表示制御部54を含む。
 動作プログラム46には、力制御を実施するためのパラメータを算出するための計算プログラムが含まれている。パラメータ算出部51は、この計算プログラムに従って駆動するプロセッサに相当する。プロセッサが計算プログラムに定められた制御を実施することにより、パラメータ算出部51として機能する。更に、移動方向算出部52、位置算出部53、および表示制御部54のそれぞれのユニットは、計算プログラムに従って駆動するプロセッサに相当する。プロセッサが計算プログラムに定められた制御を実施することにより、それぞれのユニットとして機能する。
 本実施の形態では、力制御を実施するためのパラメータを算出する制御をパラメータ設定手順と称する。第1のロボット装置5のパラメータ設定手順では、制御点としてのワーク先端点65の位置を算出する。また、第1のワーク71を第2のワーク72に対して移動する為の矢印66に示す移動方向(ベクトル)を算出する。
 図4に、パラメータ設定手順においてロボットの操作を説明する第1のロボット装置の概略図を示す。図5に、第1のワークが第2のワークに接触している部分の拡大斜視図を示す。図4および図5を参照して、作業者は、教示操作盤37を操作することにより、ロボット1の位置および姿勢を手動で変更する。
 作業者は、ワーク72の角部72bにワーク71の端面71bが接触するように、ロボット1の位置および姿勢を変更する。ここでの例では、第1のワーク71を接触させる為の接触部材として第2のワーク72を用いている。接触部材は、第1のワーク71に接触させることができる尖った先端にて構成される角部を有する部材である。
 作業者は、ロボット1の位置および姿勢を変更して、ワーク71の端面71bにおいて、実際の嵌合の作業を行う時のワーク先端点をワーク72の角部72bに接触させる。ワーク71とワーク72との接触点がワーク先端点65となる。本実施の形態では、第2のワーク72に対して第1のワーク71を押付ける制御を複数回にて実施する。このときに、第2のワーク72に対して第1のワーク71を押し付ける方向を変更する。本実施の形態では、一つの部材を他の部材に向かって押し付ける方向を押付け方向と称する。押付け方向は、作業者が予め定めておくことができる。
 パラメータ算出部51は、複数の押付け方向にて第1のワーク71を第2のワーク72に押付けた時に、それぞれの押付け方向に対応して力覚センサ24にて検出される力を取得する。パラメータ算出部51は、複数の押付け方向に対応する力に基づいて第1のワークの移動方向および第1のワークのワーク先端点の位置を算出する。
 1回目の第1のワーク71を押付ける制御では、作業者は、矢印92に示す予め定められた押付け方向にて第1のワーク71を押し付けるように、ロボット1を駆動する。ここでの例では、矢印92は、実際の嵌合の作業を行う時に第1のワーク71を移動する方向(移動方向)に相当する。作業者は、円柱状のワーク71の中心軸にほぼ平行な方向にハンド2が移動するようにロボット1を駆動する。力覚センサ24は、第1のワーク71が第2のワーク72を押圧するようにロボット1を駆動している期間中にワーク71に加わる力を検出する。力覚センサ24には、センサに加わる力を検出するためのセンサ座標系82が設定されている。
 2回目の第1のワーク71を押付ける制御では、作業者は、矢印93に示す予め定められた押付け方向にて第1のワーク71を押し付ける。1回目の第1のワーク71を押し付ける方向とは異なる方向にて、第1のワーク71を第2のワーク72に押し付けるように、ロボット1を駆動する。力覚センサ24は、第1のワーク71が第2のワーク72を押圧するようにロボット1を駆動している期間中にワーク71に加わる力を検出する。
 図6に、ワークの押付け方向および接触点の位置を算出する方法を説明する第1の概略図を示す。ここでの例では、ハンドに対応する把持部材9にて第1のワーク71を把持している。把持部材9には力覚センサ24が取り付けられている。センサ座標系の原点82aが力覚センサ24に設定されている。図6は、1回目の押付け方向にて第1のワーク71を押し付けている状態を示す。ロボットを駆動することにより、第2のワーク72に向かって、矢印92に示す方向に第1のワーク71を押圧している。力覚センサ24は、センサ座標系におけるX軸、Y軸、およびZ軸の方向の力、およびW軸、P軸、およびR軸の方向のモーメントを検出する。
 1回目の第1のワーク71を押付ける制御では、矢印92に示す方向に第1のワークを押し付ける。移動方向算出部52は、第2のワーク72に対して第1のワーク71を押し付ける方向を検出する。移動方向算出部52は、力覚センサ24にて出力される各直交軸(X軸、Y軸、およびZ軸)の力の成分を取得する。移動方向算出部52は、各直交軸の力の成分から、矢印92に示すワーク71の押付け方向を算出する。
 力覚センサ24は、矢印96に示すように、直交軸の周りの各軸(W軸、P軸、およびR軸)のモーメント(Mx,My,Mz)を検出する。位置算出部53は、各軸のモーメントに基づいて、矢印97に示すように、センサ座標系82の原点82aからワークの押付け方向に平行な線に最も近くなる近接点67の位置ベクトルを算出する。位置算出部53は、矢印92に示すワーク71の押付け方向に平行であり、近接点67を通る作用線85を算出する。接触点としてのワーク先端点65は、作用線85上に存在する。このように、ワーク先端点65が存在する範囲として、近接点67を通る作用線85を算出することができる。
 図7に、ワークの押付け方向および接触点の位置を算出する方法を説明する第2の概略図を示す。2回目のワークを押付ける制御では、第1のワーク71の押付け方向を1回目のワークを押付ける制御と異なる方向に設定する。すなわち、第1のワーク71を異なる方向に沿って、第2のワークに向かって押圧する。ここでは、矢印93に示す方向に第1のワーク71を押し付ける。移動方向算出部52は、各直交軸の力の成分から、矢印93に示すワーク71の押付け方向を算出する。位置算出部53は、近接点67を通り、ワーク71の押付け方向に平行な作用線86を算出する。ワーク先端点65は、作用線86上に存在する。
 次に、位置算出部53は、1番目の押付け方向に対応する作用線85と2番目の押付け方向に対応する作用線86の交点を算出する。位置算出部53は、この交点をワーク先端点65に設定する。位置算出部53は、交点の位置をワーク先端点65の位置として算出する。このように、位置算出部53は、複数の作用線の交点をワーク先端点として算出することができる。
 また、移動方向算出部52は、複数回のワークを押付ける制御のうち、検出された1つの押付け方向を、力制御を実施する時の移動方向に設定することができる。ここでの例では、移動方向算出部52は、1回目の押付ける制御における矢印92に示す方向を移動方向に設定する。作業者は、複数回の押付ける制御にて算出された複数の押付け方向のうち、移動方向に設定する押付け方向を選定することができる。
 更に、本実施の形態では、2つの押付け方向にてワークを押付ける制御を実施しているが、この形態に限られない。3つ以上の押付け方向にてワークを押付ける制御を実施しても構わない。この場合には、1つのワークに対して他のワークを押し付ける方向が互いに異なるように、ロボットを駆動することが好ましい。位置算出部は、それぞれの押付け方向に対応して検出器にて検出される力を取得する。位置算出部は、複数の押付け方向に対応する複数の作用線を算出する。位置算出部は、複数の作用線の交点を接触点として算出することができる。ワークの押付け方向の数を増やすことにより、接触点を算出する精度が向上する。
 なお、複数の作用線を算出した時に、測定誤差等により複数の作用線同士が1点で交わらない場合がある。2つの押付け方向からワークを押し付ける場合には、2つの作用線が最も接近する点同士を結ぶ線分の中点を接触点と算出しても構わない。また、3つ以上の押付け方向からワークを押し付ける場合に、複数の作用線のうち少なくとも一つの作用線が他の作用線と交わらない場合が有る。この場合に、位置算出部は、複数の作用線からの距離に基づいてワーク先端点の位置を算出することができる。位置算出部は、複数の作用線からの距離が小さくなるような点を接触点として算出することができる。たとえば、位置算出部は、複数の作用線からの距離の総和または分散が最も小さくなる点を接触点として算出することができる。
 図8に、第1のワークに設定されたワーク先端点およびワークの移動方向を示すロボット装置の概略図を示す。第1のロボット装置5では、矢印66に示す移動方向およびワーク先端点65は、第1のワーク71と共に移動する。移動方向およびワーク先端点の位置は、センサ座標系82の座標値にて算出することができる。具体的には、移動方向算出部52は、矢印66に示す移動方向をセンサ座標系82にて算出することができる。また、位置算出部53は、ワーク先端点65の位置をセンサ座標系82にて算出することができる。
 ロボット1のフランジ16に設定されたフランジ座標系83に対するセンサ座標系82の相対的な位置および姿勢は予め定められている。パラメータ算出部51は、センサ座標系82の座標値をフランジ座標系83の座標値に変換できるように較正されている。パラメータ算出部51は、センサ座標系82にて表現された移動方向およびワーク先端点の位置を、フランジ座標系83にて表現された移動方向およびワーク先端点の位置に変換する。
 パラメータ算出部51は、フランジ座標系83にて表現された移動方向およびワーク先端点の位置を力制御のパラメータ(設定値)として動作プログラム46に設定することができる。または、表示制御部54は、算出された移動方向およびワーク先端点の位置を表示部39に表示することができる。作業者は、表示部39の表示を見て、動作プログラム46にワーク先端点の位置および移動方向を設定することができる。
 次に、作業者は、ワーク71を嵌合する作業を開始する時のワーク72に対するワーク71の位置および姿勢を指定する。作業者は、教示操作盤37を操作して、図1および図3に示すように、凹部72aの真上にワーク71が配置されるようにロボット1の位置および姿勢を変更する。凹部72aの中心軸72aaとワーク71の中心軸71aとが、ほぼ直線状に配置されるように、ワーク71の位置および姿勢を変更する。この時のロボット1の位置および姿勢は、第1のワーク71を第2のワーク72に嵌合する時の制御を開始する初期のロボットの位置および姿勢となる。
 パラメータ算出部51は、初期のロボットの位置および姿勢を動作プログラム46に設定する。または、表示制御部54は初期のロボットの位置および姿勢を表示部39に表示して、作業者が動作プログラム46に設定することができる。
 図1および図3を参照して、実際の嵌合の作業において、動作制御部43は、動作プログラム46に基づいて、ワーク71が初期の位置および姿勢になるようにロボット1の位置および姿勢を制御する。次に、動作制御部43は、力制御を開始する。動作制御部43は、ワーク71を矢印66に示す移動方向に移動させる。第1のワーク71が第2のワーク72に接触すると、力覚センサ24にて力が検出される。
 動作制御部43は、力覚センサ24にて検出される力をワーク先端点65に作用する力に変換することができる。そして、ワーク先端点65に作用する力が所定の判定範囲内になるようにロボットの位置および姿勢を制御することができる。このように、矢印66にて示す移動方向およびワーク先端点65の位置に基づいて力制御を実施することができる。
 従来の技術では、ワーク先端点の位置およびワークを嵌合する方向を定めるための座標系を設定する必要があった。例えば、作業台に固定されたワークの凹部に他のワークを嵌合する場合に、ワークの凹部に対してユーザー座標系を設定する必要があった。これに対して、本実施の形態におけるパラメータ設定手順では、ワークに対して座標系を設定する必要がなく、容易に力制御を実施するためのパラメータを設定することができる。特に、本実施の形態では、3次元空間に座標系を設定する必要はない。このために、ロボットの操作を熟知していない作業者でも、容易に力制御のパラメータを設定することができる。
 上記の実施の形態においては、第1のワーク71を接触させる接触部材として、第2のワーク72を用いているが、この形態に限られない。接触部材としては頂点を有する角部を含む任意の部材を採用することができる。例えば、角部を有する治具を作業台に固定して、治具の角部に第1のワークの端面を接触させても構わない。
 上記の実施の形態においては、教示操作盤にてロボットを操作して第1のワークを第2のワークに接触させているが、この形態に限られない。作業者は、手動でロボットの位置および姿勢を変更する任意の制御を実施することができる。例えば、ロボットのベース部に力覚センサを配置して、ダイレクトティーチングと同様のロボットの操作を行うことができる。作業者は、ロボットの構成部材を直接的に押したり引いたりすることにより、ロボットの位置および姿勢を変更することができる。
 図2を参照して、本実施の形態における表示制御部54は、第1のワーク71の端面71bを第2のワーク72の角部72bに接触させる操作を実施している時に、第1のワーク71を押し付ける力の向きが分かる様に画像を表示することができる。
 図9に、表示部に表示される画像を示す。画像61では、第1のワークが第2のワークに接触する部分が拡大されている。図2および図9を参照して、本実施の形態においては、ロボット装置5、第1のワーク71、および第2のワーク72の3次元形状データ58が記憶部42に記憶されている。表示制御部54は、3次元形状データ58に基づいて、それぞれの部材のモデルを作成する。
 実際のロボット装置の位置およびワークの位置は、予め入力されている。表示制御部54は、実際のロボット装置の位置およびワークの位置に応じて仮想空間にモデルを配置する。表示制御部54は、所定の方向から見た時のワークのモデルの画像を生成する。また、表示制御部54は、位置検出器19の出力に基づいてロボット1の位置および姿勢を取得する。表示制御部54は、ロボット1の位置および姿勢に基づいて、ロボット装置のモデルの画像を生成する。
 画像61では、第1のワークのモデル71M、第2のワークのモデル72Mが表示されている。また、ロボット装置のモデルのうち、ハンドのモデル2M、力覚センサのモデル24M、手首部のモデル15M、および上部アームのモデル11Mが表示されている。
 表示制御部54は、移動方向算出部52からワーク71の押付け方向を取得する。表示制御部54は、押付け方向を示す矢印を画像に表示する。ここでは、表示制御部54は、第2のワークのモデル72Mの角部から延びるようにワーク71が押圧している方向の矢印99Mを表示する。
 このように、表示制御部54は、第1のワーク71および第2のワーク72のうち一方のワークを他方のワークに向かって押し付けるようにロボットを駆動している期間中に、移動方向算出部52にて算出されるワークの押付け方向を取得してロボット1の画像に重ねて表示する。なお、2回目以降のワークを押付ける制御を実施することにより、位置算出部53は、接触点の位置を算出することができる。このために、表示制御部54は、位置算出部53から接触点の位置を取得して、ロボット1の画像に重ねて接触点を表示しても構わない。
 作業者は、表示部39に表示される画像61にて第2のワーク72に対する第1のワーク71の押付け方向を確認することができる。作業者は、ワークの押付け方向が妥当であるか否かを判断することができる。例えば、第1のワークを押し付けている方向を第1のワークの移動方向に設定する場合に、作業者は押付け方向が妥当であるか否かを判断することができる。そして、作業者は、画像61を見ながらロボット1の位置および姿勢を変更することができる。
 作業者は、実際のワークが接触している部分を目視しにくい場合がある。または、ワークが小さくて、押し付けているワークの姿勢を確認しにくい場合が有る。このような場合にも、作業者は、表示部に表示される画像を見ながら1つのワークが他のワークを押圧している方向を調整することができる。
 なお、表示制御部54は、ワークの押付け方向および接触点の位置に関する任意の情報を表示部に表示することができる。例えば、移動方向または接触点の位置を予め定められた座標系の座標値にて表示しても構わない。例えば、ワークの押付け方向を基準座標系におけるW軸、P軸、およびR軸の座標値にて表示しても構わない。
 図10に、本実施の形態における第2のロボット装置の概略図を示す。第2のロボット装置6では、第1のワーク71が作業台75に固定されている。第2のワーク72は、ハンド2に把持されて第2のロボット装置6にて移動する。第2のロボット装置6は、矢印91に示すようにワーク72を移動して、ワーク72の凹部72aの内部にワーク71を嵌合する作業を実施する。
 第2のロボット装置6においても、第1のロボット装置5と同様に、第1のワーク71の先端に加わる所定の方向の力が小さくなるようにロボット1の位置および姿勢を制御する力制御を実施する。特に、ワーク71の先端に加わる移動方向に平行な方向以外の力およびワーク71の先端に加わるモーメントが零に近づくように、ロボット1の位置および姿勢を制御する。パラメータ設定手順では、力制御を実施するために、第1のワーク71の端面71bにワーク先端点を設定する。また、第1のワーク71に対して第2のワーク72を移動する移動方向を設定する。
 図11に、第2のワークの角部を第1のワークに接触させる時の第2のロボット装置の概略図を示す。図12に、第2のワークが第1のワークに接触する部分の拡大斜視図を示す。図11および図12を参照して、作業者は、手動操作によりロボット装置を駆動して第1のワーク71に対して接触部材としての第2のワーク72を押付ける制御を実施する。作業者は、第2のワーク72の角部72bをワーク71の端面71bに接触させる。この時に、作業者は、実際の嵌合の作業におけるワーク先端点に角部72bを接触させる。
 パラメータ算出部51は、複数の押付け方向にて第2のワーク72を第1のワーク71に押付けた時に、それぞれの押付け方向に対応して力覚センサ24にて検出される力を取得する。パラメータ算出部51は、複数の押付け方向に対応する力に基づいて第2のワーク72の移動方向および第1のワーク71のワーク先端点の位置を算出する。
 1回目の第2のワーク72を押付ける制御では、矢印94に示す予め定められた押付け方向に、第2のワーク72を押し付けるように、ロボット1を駆動する。ここでは、実際の嵌合の作業において第2のワーク72を移動する方向(移動方向)に沿って第1のワーク71に押し付けるようにロボット1を駆動する。第1のワーク71の中心軸が延びる方向と平行な方向に第2のワーク72を押し付けるように、ロボット1の位置および姿勢を変更する。力覚センサ24は、第2のワーク72を第1のワーク71に押し付けている期間中に第2のワーク72に加わる力を検出する。
 また、2回目の第2のワーク72を押付ける制御では、矢印95に示す予め定められた押付け方向に第2のワーク72を押し付けるように、ロボット1を駆動する。2回目の押付け方向は、1回目の押付け方向とは異なる方向を採用する。力覚センサ24は、第2のワーク72を第1のワーク71に押し付けている期間中に第2のワーク72に加わる力を検出する。
 図13に、第2のワークの角部を第1のワークの端面に押し付けることにより設定されたパラメータを説明するロボット装置の概略図を示す。図2、図12、および図13を参照して、パラメータ算出部51の移動方向算出部52は、センサ座標系における直交軸方向の力に基づいて押付け方向を算出することができる。移動方向算出部52は、力覚センサ24の出力に基づいて算出した1つの押付け方向を、矢印66に示す移動方向に設定する。
 また、パラメータ算出部51の位置算出部53は、押付け方向およびセンサ座標系における直交軸周りのモーメントに基づいて作用線を算出する。位置算出部53は、力覚センサ24の出力に基づいて、複数の押付け方向に対応する複数の作用線を算出する。そして、位置算出部53は、複数の作用線に基づいて、ワーク71のワーク先端点65の位置を算出することができる。
 パラメータ算出部51は、第2のワーク72が第1のワーク71に接触している時に、センサ座標系82にて移動方向およびワーク先端点の位置を算出する。次に、パラメータ算出部51は、第2のワーク72が第1のワーク71に接触している時のロボットの位置および姿勢に基づいて、センサ座標系82にて表現されたワーク先端点65の位置および移動方向を、基準座標系81にて表現されたワーク先端点65の位置および移動方向に変換する。
 そして、第2のロボット装置6においては、パラメータ算出部51は、基準座標系81にてワーク先端点65の位置および移動方向を動作プログラム46に設定する。または、作業者は、表示部39に表示されたワーク先端点65の位置および移動方向を動作プログラム46に設定することができる。このように、作業台に固定された第1のワーク71に第2のワーク72を嵌合する時には、作業台に固定された第1のワーク71に対して、ワーク先端点65および移動方向を設定することができる。
 次に、作業者は、ワーク71にワーク72を嵌合する制御を実施する時の初期の第2のワーク72の位置および姿勢を設定する。作業者は、ロボット1を手動にて操作することにより、図10に示すようにワーク71に対してワーク72の凹部72aを真上に配置する。作業者は、ワーク71の中心軸71aが凹部72aの中心軸72aaとほぼ一致するように、ロボットの位置および姿勢を調整する。パラメータ算出部51または作業者は、ワークを嵌合する制御を開始する初期のロボットの位置および姿勢として、この時のロボットの位置および姿勢を動作プログラム46に設定する。
 第1のワーク71に第2のワーク72を実際に嵌合する制御においては、第1のロボット装置と同様の力制御を実施することができる。動作制御部43は、初期の位置および姿勢になるようにロボット1を駆動した後に、力制御を開始する。動作制御部43は、移動方向に第2のワークを移動するようにロボット1を駆動する。力覚センサ24にて検出される力(X軸、Y軸およびZ軸方向の力と、W軸、P軸およびR軸方向のモーメント)は、ロボットの位置および姿勢に基づいてワーク先端点65に作用する力に変換される。動作制御部43は、ワーク先端点65に加わる所定の方向の力が予め定められた判定範囲内になるように、ロボットの位置および姿勢を制御する。このように、制御装置4は、ワーク先端点65および矢印66に示す移動方向に基づいて、力制御を実施することができる。
 第2のロボット装置においても、パラメータ算出部51の表示制御部54は、第2のワーク72を第1のワーク71に向かって押し付けるようにロボット1を駆動している時の画像を表示部39に表示することができる。表示制御部54は、移動方向算出部52にて算出される移動方向を取得して、ロボット1の画像に移動方向を重ねて表示する。また、表示制御部54は、位置算出部53にて算出されたワーク先端点65を画像に表示しても構わない。
 上記の実施の形態においては、第1のワークに接触させる接触部材として第2のワークを採用しているが、この形態に限られない。接触部材としては、先端を有する角部を含む任意の部材を採用することができる。例えば、角部を含む治具をロボット装置にて移動しても構わない。
 その他の第2のロボット装置の構成、作用、および効果は、第1のロボット装置と同様であるので、ここでは説明を繰り返さない。
 図14に、本実施の形態における第3のロボット装置の概略図を示す。第3のロボット装置7においては、力覚センサ24が配置されている位置が第1のロボット装置5と異なる。力覚センサ24は、作業台75に支持される第2のワーク72と作業台75の表面との間に配置されている。力覚センサ24は、支持部材26を介して作業台75に固定されている。第2のワーク72は、力覚センサ24および支持部材26を介して作業台75に固定されている。第3のロボット装置7においても、第1のロボット装置5のパラメータ設定手順と同様の制御を実施することができる。
 図15に、第2のワークに対して第1のワークを押し付けている時の第3のロボット装置の概略図を示す。作業者は、第1のロボット装置5と同様に、第1のワーク71のワーク先端点を第2のワーク72の角部72bに接触させる。1回目の第1のワーク71を押付ける制御では、矢印92に示すように、第1のワーク71を第2のワーク72に向かって押し付ける。ここでは、実際の嵌合の作業において第1のワーク71を移動させる移動方向に平行な方向に、第1のワーク71を第2のワークに向かって押し付ける。力覚センサ24は、第2のワーク72に加わる力を検出する。
 次に、2回目の第1のワーク71を押付ける制御では、矢印93に示すように、第1のワーク71を第2のワーク72に向かって押し付ける。矢印93に示す押付け方向は、矢印92に示す押付け方向とは異なる方向である。力覚センサ24は、第2のワーク72に加わる力を検出する。
 移動方向算出部52は、力覚センサ24にて検出される力(X軸、Y軸、およびZ軸方向の力)に基づいて、第2のワーク72に作用する押付け方向を算出する。第2のワーク72に作用する押付け方向は、第2のワーク72に対して第1のワーク71を押し付けている方向に相当する。移動方向算出部52は、矢印92に示す押付け方向を移動方向に設定する。
 位置算出部53は、押付け方向と力覚センサ24にて検出される力(W軸、P軸、およびR軸の方向のモーメント)に基づいて、ワーク先端点の位置を算出する。位置算出部53は、複数の押付け方向に基づく複数の作用線を算出し、複数の作用線に基づいてワーク先端点の位置を算出する。パラメータ算出部51は、センサ座標系82にて移動方向と接触点の位置を算出する。パラメータ算出部51は、第1のワーク71のワーク先端点が第2のワークの角部に接触している時のロボット1の位置および姿勢を取得する。
 パラメータ算出部51は、ロボット1の位置および姿勢に基づいて、センサ座標系82にて表現された移動方向およびワーク先端点の位置を、フランジ座標系83にて表現された移動方向およびワーク先端点の位置に変換する。パラメータ算出部51または作業者は、フランジ座標系83にて表現された移動方向およびツール先端点の位置を力制御のパラメータとして動作プログラム46に設定することができる。
 図16に、パラメータ算出部にて算出されたワーク先端点とワークの移動方向を説明する第3のロボット装置の斜視図を示す。ワーク先端点65および矢印66に示す移動方向は、第1のロボット装置5と同様に、ハンド2に把持された第1のワーク71に設定される。ワーク先端点65および移動方向は、第1のワーク71と共に移動する。
 動作制御部43は、第1のワーク71を凹部72aに嵌合する作業を実施する時に、力覚センサ24にて検出される力を、ロボット1の位置および姿勢に基づいて、ワーク先端点65に作用する力に変換することができる。そして、第3のロボット装置7においても、第1のロボット装置5と同様の力制御を実施することができる。すなわち、第1のワーク71を凹部72aに嵌合する作業を実施する時に、ワーク先端点65および矢印66に示す移動方向に基づいて力制御を実施することができる。
 第3のロボット装置においても、第2のワークの代わりに角部を有する任意の治具を接触部材として作業台に固定しても構わない。この場合にも、治具の角部に第1のワークを押付ける制御を実施することができる。
 第3のロボット装置7においては、接触部材を作業台に固定して、ロボットにて第1のワークを移動しているが、この形態に限られない。第2のロボット装置6と同様に、第1のワークを作業台に固定して、ロボットにて接触部材を移動しても構わない。例えば、第1のワークを力覚センサを介して作業台に固定して、第2のワークをロボット装置にて把持して移動しても構わない。この場合に、力覚センサ24は、第1のワークに加わる力を検出する。また、第2のロボット装置6と同様に、作業台に固定される第1のワークにワーク先端点および移動方向を設定することができる(図12を参照)。パラメータ設定手順では、作業台に固定された力覚センサの出力に基づいて、ワーク先端点の位置および移動方向を設定することができる。
 その他の第3のロボット装置の構成、作用、および効果は、第1のロボット装置および第2のロボット装置と同様であるので、ここでは説明を繰り返さない。
 図17に、本実施の形態における第4のロボット装置の概略図を示す。第4のロボット装置8では、ロボット1または作業台75に固定された力覚センサ24の代わりに、力検出器としてのトルクセンサ25が配置されている。複数のトルクセンサ25は、ロボット1の複数の関節部18の駆動軸に配置されている。本実施の形態では、6個の全ての駆動軸にトルクセンサ25が配置されている。それぞれのトルクセンサ25は、関節部18の駆動軸の周りのトルクを検出する。
 図2を参照して、第4のロボット装置8では、第1のロボット装置5の力覚センサ24の代わりにトルクセンサ25が配置されている。トルクセンサ25の出力はパラメータ算出部51に送信される。パラメータ算出部51は、それぞれのトルクセンサ25から出力された力(駆動軸周りのトルク)に基づいて、第1のワーク71におけるワーク先端点の位置および第1のワーク71の移動方向を算出する。
 図18に、第1のワークを第2のワークの角部に接触させている時のロボット装置の概略図を示す。作業者は、第1のロボット装置5と同様に、第1のワーク71のワーク先端点を第2のワーク72の角部に接触させる。1回目の第1のワーク71を押付ける制御では、矢印92に示すように、第1のワーク71を第2のワーク72に向かって押し付けるようにロボット1を駆動する。矢印92に示す押付け方向は、実際の嵌合の作業における第1のワーク71の移動方向に対応する。
 トルクセンサ25は、それぞれの駆動軸の周りのトルクを検出する。移動方向算出部52は、複数のトルクセンサ25の出力に基づいて、矢印92に示す第1のワーク71の押付け方向を算出することができる。移動方向算出部52は、力のつり合いまたは仮想仕事の原理を用いて押付け方向を算出することができる。矢印92は、ワーク先端点としての接触点が存在する作用線に相当する。移動方向算出部52は、矢印92に示す第1のワーク71の押付け方向を移動方向に設定することができる。
 第4のロボット装置8において、1つの方向にてワークを押付ける制御では、押付け方向を取得することが出来るが、ワーク先端点の位置(ワーク同士が接触する接触点の位置)を算出することができない。第4のロボット装置8では、押付け方向の直線上に配置される接触点の位置を特定するために、他の方向からワーク71をワーク72に向かって押し付けてワーク先端点の位置を算出する。
 ここでは、ロボット1の位置および姿勢を維持した状態で、1回目の押付け方向とは異なる方向から第1のワーク71を押付ける制御を実施する。2回目の第1のワーク71を押付ける制御では、矢印93に示す方向にて第1のワーク71を第2のワーク72の角部72bに押し付けるようにロボット1を駆動する。移動方向算出部52は、複数のトルクセンサ25の出力に基づいて、矢印93に示す第1のワーク71の押付け方向を算出する。矢印93は、接触点が存在する作用線に相当する。
 位置算出部53は、ワーク71を押し付けている2つの押付け方向の交点を第1のワーク71が第2のワーク72に接触している接触点として算出する。すなわち、位置算出部53は、矢印92と矢印93の交点の位置をワーク先端点65の位置として算出する。このように、2方向以上から第1のワークを角部に押付ける制御を実施することにより、押し付ける方向のベクトルの交点をワーク先端点の位置として算出することができる。
 図19に、力制御のために生成されたパラメータを説明する第4のロボット装置の概略図を示す。第4のロボット装置8のパラメータ算出部51は、ワーク先端点65の位置および矢印66に示す移動方向をフランジ座標系にて算出する。ワークを嵌合する制御では、動作制御部43は、複数のトルクセンサ25の出力に基づいて、ワーク先端点65に作用する力を算出する。動作制御部43は、ワーク先端点65の位置および移動方向に基づいて力制御を実施することができる。
 第4のロボット装置8においては、ロボット1が第1のワーク71を支持して、第1のワーク71を第2のワーク72の凹部72aに挿入しているが、この形態に限られない。第2のロボット装置6と同様に、第1のワーク71を作業台75に固定して第4のロボット装置8が第2のワーク72を移動しても構わない。この場合に、ワーク先端点および移動方向は、第1のワークに設定される。移動方向およびワーク先端点の位置を算出するために、作業者は、第2のワーク72などの接触部材をロボットにて移動して、接触部材の角部を第1のワーク71のワーク先端点に接触させる。パラメータ算出部51は、トルクセンサ25の出力に基づいてワーク先端点の位置および移動方向を算出することができる。
 その他の第4のロボット装置の構成、作用、および効果は、第1のロボット装置から第3のロボット装置と同様であるので、ここでは説明を繰り返さない。
 上記の実施の形態では、ワーク先端点の位置を算出する時に、一つのワークの姿勢を変更せずに他のワークに押し付ける方向を変えて測定を行ったが、この形態に限られない。2回目以降の押付ける制御では、他のワークに対して一つのワークを押付ける相対的な方向を変更すれば良い。例えば、第1のワークを第2のワークに押し付ける場合に、2回目の第1のワークを押付ける制御では第2のワークに対する第1のワークの姿勢を変更することができる。そして、基準座標系において1回目の押付け方向と同じ方向にて第1のワークを第2のワークに押付ける制御を実施することができる。この場合にも、押付け方向に対応する作用線に基づいてワーク先端点の位置を算出することができる。
 上記の実施の形態では、円柱状のワークを嵌合する制御を示しているが、任意の形状のワークに本実施の形態の制御を適用することができる。また、本実施の形態では、一つのワークを他のワークに嵌合する制御を示しているが、この形態に限られない。本実施の形態の制御装置は、ワーク同士の面合わせ、または、穴の探索などの一つのワークに向かって他のワークを移動する任意の作業に適用することができる。特に、ロボットがワークを移動する時にワークが他の物に接触するために、力制御を行う作業に本実施の形態の制御を適用することができる。また、嵌合を行う作業としては、凹部または穴部にワークを挿入する作業に限られず、例えば、ギヤの歯の位相を合わせながらギヤを所定の位置に配置する作業が含まれる。
 上記の実施の形態は、適宜組み合わせることができる。上述のそれぞれの図において、同一または相等する部分には同一の符号を付している。なお、上記の実施の形態は例示であり発明を限定するものではない。また、実施の形態においては、請求の範囲に示される実施の形態の変更が含まれている。
 1 ロボット
 2 ハンド
 4 制御装置
 9 把持部材
 15 手首部
 16 フランジ
 18 関節部
 24 力覚センサ
 25 トルクセンサ
 37 教示操作盤
 39 表示部
 40 制御装置本体
 43 動作制御部
 51 パラメータ算出部
 52 移動方向算出部
 53 位置算出部
 54 表示制御部
 61 画像
 65 ワーク先端点
 66 矢印
 71,72 ワーク
 71b 端面
 72b 角部
 75 作業台
 81 基準座標系
 82 センサ座標系
 83 フランジ座標系
 85,86 作用線
 99M 矢印

Claims (10)

  1.  ロボットにて第1のワークを第2のワークに向かって移動する時に力制御を行うためのパラメータを算出する制御装置であって、
     角部を有する接触部材に前記ロボットにて第1のワークを接触させた時に、第1のワークおよび接触部材のうち一方に加わる力を検出する力検出器と、
     力制御を行う時に第2のワークに対して第1のワークを移動する移動方向および力制御の制御点となるワーク先端点の位置を算出するパラメータ算出部と、を備え、
     前記力検出器は、前記ロボットにて第1のワークのワーク先端点を接触部材の角部に接触させて、第1のワークを予め定められた押付け方向に沿って押し付けている期間中に力を検出し、
     前記パラメータ算出部は、複数の押付け方向にて第1のワークを接触部材に押付けた時に、それぞれの押付け方向に対応して前記力検出器にて検出される力を取得し、複数の押付け方向に対応する力に基づいて第1のワークの移動方向および第1のワークのワーク先端点の位置を算出する、制御装置。
  2.  ロボットにて第2のワークを第1のワークに向かって移動する時に力制御を行うためのパラメータを算出する制御装置であって、
     前記ロボットにて角部を有する接触部材を第1のワークに接触させた時に、第1のワークおよび接触部材のうち一方に加わる力を検出する力検出器と、
     力制御を行う時に第1のワークに対して第2のワークを移動する移動方向および力制御の制御点となるワーク先端点の位置を算出するパラメータ算出部と、を備え、
     前記力検出器は、前記ロボットにて接触部材の角部を第1のワークのワーク先端点に接触させて、接触部材を予め定められた押付け方向に沿って押し付けている期間中に力を検出し、
     前記パラメータ算出部は、複数の押付け方向にて接触部材を第1のワークに押付けた時に、それぞれの押付け方向に対応して前記力検出器にて検出される力を取得し、複数の押付け方向に対応する力に基づいて第2のワークの移動方向および第1のワークのワーク先端点の位置を算出する、制御装置。
  3.  前記力検出器は、前記ロボットまたはワークを支持する作業台に取り付けられた6軸の力覚センサを含む、請求項1または2に記載の制御装置。
  4.  前記ロボットは、フランジを有する手首部を含み、
     前記力検出器は、フランジと作業ツールとの間に配置されている、請求項1から3のいずれか一項に記載の制御装置。
  5.  前記力検出器は、作業台に支持されるワークと作業台の表面との間に配置されている、請求項1から3のいずれか一項に記載の制御装置。
  6.  前記ロボットは、複数の駆動軸を有する多関節ロボットであり、
     前記力検出器は、それぞれの駆動軸に配置されたトルクセンサを含む、請求項1または2に記載の制御装置。
  7.  前記ロボットの画像を表示する表示部と、
     表示部に表示する画像を制御する表示制御部と、を備え、
     前記表示制御部は、第1のワークおよび接触部材のうち一方の部材を他の部材に向かって押し付けるように前記ロボットを駆動している期間中に、前記パラメータ算出部にて算出される押付け方向を取得し、前記ロボットの画像に押付け方向を重ねて表示する、請求項1から6のいずれか一項に記載の制御装置。
  8.  前記パラメータ算出部は、それぞれの押付け方向に対応して検出器にて検出される力に基づいて、ワーク先端点が存在する作用線を算出し、複数の作用線の交点をワーク先端点として算出する、請求項1から7のいずれか一項に記載の制御装置。
  9.  前記パラメータ算出部は、それぞれの押付け方向に対応して検出器にて検出される力に基づいて、ワーク先端点が存在する作用線を算出し、複数の作用線のうち少なくとも一つの作用線が他の作用線と交わらない場合に、複数の作用線からの距離に基づいてワーク先端点の位置を算出する、請求項1から7のいずれか一項に記載の制御装置。
  10.  前記ロボットの動作を制御する動作制御部を備え、
     前記動作制御部は、前記パラメータ算出部にて算出されるワーク先端点の位置および移動方向に基づいて、作業台に固定されているワークに対して前記ロボットにて支持されるワークを嵌合させる制御を実施する、請求項1から9のいずれか一項に記載の制御装置。
PCT/JP2022/013623 2021-03-30 2022-03-23 ロボットの位置および姿勢を制御するパラメータを算出する制御装置 WO2022210186A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112022000796.6T DE112022000796T5 (de) 2021-03-30 2022-03-23 Steuervorrichtung zur berechnung von parametern zur steuerung von position und pose eines roboters
JP2023511071A JP7477716B2 (ja) 2021-03-30 2022-03-23 ロボットの位置および姿勢を制御するパラメータを算出する制御装置
CN202280021089.2A CN116997445A (zh) 2021-03-30 2022-03-23 计算用于控制机器人的位置和姿势的参数的控制装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021057646 2021-03-30
JP2021-057646 2021-03-30

Publications (1)

Publication Number Publication Date
WO2022210186A1 true WO2022210186A1 (ja) 2022-10-06

Family

ID=83456660

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/013623 WO2022210186A1 (ja) 2021-03-30 2022-03-23 ロボットの位置および姿勢を制御するパラメータを算出する制御装置

Country Status (5)

Country Link
JP (1) JP7477716B2 (ja)
CN (1) CN116997445A (ja)
DE (1) DE112022000796T5 (ja)
TW (1) TW202239551A (ja)
WO (1) WO2022210186A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011194499A (ja) * 2010-03-18 2011-10-06 Fanuc Ltd ロボットを用いた嵌合装置
JP2012157946A (ja) * 2011-02-01 2012-08-23 Fanuc Ltd 力センサの出力に基づいてロボットのダイレクトティーチをおこなうロボット教示装置
JP2014128857A (ja) * 2012-12-28 2014-07-10 Yaskawa Electric Corp ロボット教示システムおよびロボット教示方法
JP2016221642A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置、ロボット制御方法およびロボットシステム
JP2017001122A (ja) * 2015-06-08 2017-01-05 ファナック株式会社 ロボットと力の表示機能を備えたロボット制御装置
JP2018015855A (ja) * 2016-07-29 2018-02-01 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP2018118340A (ja) * 2017-01-24 2018-08-02 ファナック株式会社 力制御押付装置を備えたロボットシステム
WO2022009765A1 (ja) * 2020-07-08 2022-01-13 ファナック株式会社 ロボット制御装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011194499A (ja) * 2010-03-18 2011-10-06 Fanuc Ltd ロボットを用いた嵌合装置
JP2012157946A (ja) * 2011-02-01 2012-08-23 Fanuc Ltd 力センサの出力に基づいてロボットのダイレクトティーチをおこなうロボット教示装置
JP2014128857A (ja) * 2012-12-28 2014-07-10 Yaskawa Electric Corp ロボット教示システムおよびロボット教示方法
JP2016221642A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置、ロボット制御方法およびロボットシステム
JP2017001122A (ja) * 2015-06-08 2017-01-05 ファナック株式会社 ロボットと力の表示機能を備えたロボット制御装置
JP2018015855A (ja) * 2016-07-29 2018-02-01 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP2018118340A (ja) * 2017-01-24 2018-08-02 ファナック株式会社 力制御押付装置を備えたロボットシステム
WO2022009765A1 (ja) * 2020-07-08 2022-01-13 ファナック株式会社 ロボット制御装置

Also Published As

Publication number Publication date
DE112022000796T5 (de) 2023-11-23
JP7477716B2 (ja) 2024-05-01
TW202239551A (zh) 2022-10-16
CN116997445A (zh) 2023-11-03
JPWO2022210186A1 (ja) 2022-10-06

Similar Documents

Publication Publication Date Title
US5880956A (en) Lead-through robot programming system
CN110997249B (zh) 作业机器人和作业机器人的控制方法
US20180111266A1 (en) Control device, robot, and robot system
US11465288B2 (en) Method of controlling robot
CN106493711B (zh) 控制装置、机器人以及机器人系统
US11161249B2 (en) Robot control apparatus and robot system
JP7187765B2 (ja) ロボット制御装置
CN110524536B (zh) 机器人控制装置以及机器人系统
US11123864B2 (en) Motion teaching apparatus, robot system, and motion teaching method
CN109129525B (zh) 机器人的负载重心位置推定装置及负载重心位置推定方法
CN112368116A (zh) 附接到机器人臂的有效载荷的估计
US11331810B2 (en) Device, method and program for estimating weight and position of gravity center of load by using robot
JP4054984B2 (ja) ロボットの制御装置および制御方法
CN112405566A (zh) 机器人控制装置
WO2019017416A1 (ja) 作業用ロボット、作業用ロボットの制御方法
WO2022210186A1 (ja) ロボットの位置および姿勢を制御するパラメータを算出する制御装置
JPH06143171A (ja) ロボット
JP3577124B2 (ja) 力制御ロボットを用いて嵌合データを取得する方法
CN116852359A (zh) 一种基于机器人手持示教装置的tcp快速标定的装置及方法
JP2022084259A (ja) 情報処理装置、情報処理方法、ロボットシステム、測定システム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
JP2018069441A (ja) 制御装置、ロボットおよびロボットシステム
JP7481579B2 (ja) ロボット装置またはワークに作用する外力の許容値を算出する計算装置およびロボットの制御装置
JP2021024075A (ja) ロボットの位置を制御するロボット装置の制御装置
JP2000094370A (ja) ロボットの作業表面の傾き測定方法およびその測定装置
CN112643683B (zh) 示教方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22780401

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023511071

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202280021089.2

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 18283058

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112022000796

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22780401

Country of ref document: EP

Kind code of ref document: A1