WO2020161910A1 - 制御装置、制御方法、記録媒体 - Google Patents

制御装置、制御方法、記録媒体 Download PDF

Info

Publication number
WO2020161910A1
WO2020161910A1 PCT/JP2019/004710 JP2019004710W WO2020161910A1 WO 2020161910 A1 WO2020161910 A1 WO 2020161910A1 JP 2019004710 W JP2019004710 W JP 2019004710W WO 2020161910 A1 WO2020161910 A1 WO 2020161910A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
joint
robot arm
contribution
joint mechanism
Prior art date
Application number
PCT/JP2019/004710
Other languages
English (en)
French (fr)
Inventor
岳大 伊藤
大山 博之
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/427,970 priority Critical patent/US20220009101A1/en
Priority to PCT/JP2019/004710 priority patent/WO2020161910A1/ja
Priority to EP19914227.4A priority patent/EP3922418A4/en
Priority to JP2020570335A priority patent/JP7160118B2/ja
Publication of WO2020161910A1 publication Critical patent/WO2020161910A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
    • B25J9/041Cylindrical coordinate type
    • B25J9/042Cylindrical coordinate type comprising an articulated arm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1643Programme controls characterised by the control loop redundant control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39088Inhibit movement in one axis if collision danger
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40477Plan path independent from obstacles, then correction for obstacles

Definitions

  • the present invention relates to a control device, a control method, and a recording medium.
  • Patent Document 1 discloses a technique for performing high-speed calculation for avoiding interference of a robot arm.
  • Patent Document 2 discloses a technique for avoiding a collision of a body segment having a plurality of degrees of freedom in an articulated system.
  • the trajectories of the moving parts that make up the robot may all be calculated.
  • the posture of the robot is determined by calculating the trajectories of moving parts such as joints.
  • the control device drives and controls a predetermined part such as a joint of the robot, if a predetermined part of the joint does not move due to an obstacle or a load, the posture state including the position of each joint of the robot as described above. In order to determine the above information, it was necessary to recalculate the entire position and trajectory of the moving part.
  • an object of the present invention is to provide a control device, a control method, and a recording medium that solve the above problems.
  • the control device is connected to a robot arm having a plurality of joints, and acquires system information that acquires at least system information indicating a posture state of the robot arm or a driving state of the robot arm.
  • a control target acquisition unit that acquires control target information indicating a control target of the robot arm, and contribution information that is an index indicating the contribution of the joint to the drive of the robot arm based on the control target information.
  • a control instruction unit that calculates control instruction information used to control the drive of each joint based on the contribution information.
  • the control device connected to the robot arm having a plurality of joints acquires system information indicating at least the posture state of the robot arm or the driving state of the robot arm. Then, the control target information indicating the control target of the robot arm is acquired, and the contribution information, which is an index indicating the contribution of the joint to the drive of the robot arm based on the control target information, is calculated based on the system information, The control instruction information used for controlling the drive of each joint is calculated based on the contribution information.
  • the recording medium acquires system information indicating at least a posture state of the robot arm or a driving state of the robot arm in a controller connected to the robot arm having a plurality of joints.
  • System information acquisition function a control target acquisition function that acquires control target information indicating a control target of the robot arm, and contribution information that is an index indicating the contribution of the joint to the drive of the robot arm based on the control target information.
  • a program for realizing a joint contribution information calculation function for calculating the above based on the system information and a control instruction function for calculating control instruction information used for controlling the drive of each joint based on the contribution information is recorded. It is characterized by
  • a robot can be controlled to move a predetermined part to a target position.
  • FIG. 8 is a first diagram showing an operation example of the robot arm according to the first embodiment.
  • FIG. 8 is a second diagram showing an operation example of the robot arm according to the first embodiment.
  • FIG. 11A is a first diagram showing an operation example of the robot arm according to the second embodiment.
  • 11 is a second diagram showing an operation example of the robot arm according to the second embodiment. It is a 1st figure which shows the example of calculation of the contribution information by one Embodiment of this invention. It is a 2nd figure which shows the example of calculation of the contribution information by one Embodiment of this invention. It is a 3rd figure which shows the example of calculation of the contribution information by one Embodiment of this invention. It is a figure which shows the minimum structure of the control apparatus by one Embodiment of this invention. It is a figure which shows the processing flow by the control apparatus of the minimum structure by one Embodiment of this invention.
  • FIG. 1 is a diagram showing an outline of a robot system including a control device according to the same embodiment.
  • the robot system 100 includes a control device 1 and a robot arm 2.
  • the robot arm 2 includes a plurality of links 21 and a joint mechanism 22 (j i ) that rotatably connects the plurality of links 21 to a connection destination.
  • the joint mechanism 22 (j i ) indicates any one or a plurality of joint mechanisms 22 that constitute the robot arm 2.
  • the control device 1 drives and controls at least the joint mechanism 22(j i ) of the robot arm 2. As a result, the control device 1 moves a predetermined part such as the joint mechanism 22(j i ) or the hand position to a predetermined target position.
  • the joint mechanism 22(j i ) is a first rotation motor that rotates the link 21 about the axis of the link 21 to be connected, and the joint mechanism 22(j i ) is orthogonal to the axis of the link 21 connected to the joint mechanism 22(j i ).
  • a second rotation motor for tilting the link 21 is built in.
  • a gripping mechanism 23 for gripping an object may be provided at the tip of the robot arm 2.
  • the control device 1 includes joint mechanism 22 are electrically connected to each motor (j i), controls the driving of the joint mechanism 22 (j i).
  • FIG. 2 is a diagram showing a hardware configuration of the control device.
  • the control device 1 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an SSD (Solid State Drive) 104, and a communication module 105, which are control units. It is a computer equipped with each hardware such as.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • SSD Solid State Drive
  • FIG. 3 is a functional block diagram of the control device 1.
  • the CPU 101 of the control device 1 is activated when the power is turned on, and executes a control program stored in advance. As a result, the control device 1 exerts each function of the control target acquisition unit 10, the joint contribution information calculation unit 11, the control instruction unit 12, the system information acquisition unit 13, the state calculation unit 14, and the failure detection unit 15.
  • the control target acquisition unit 10 acquires control target information indicating the control target of the robot arm 2.
  • the joint contribution information calculation unit 11 calculates contribution information, which is an index indicating the contribution of each joint mechanism 22(j i ) to the control target information.
  • the contribution information may be an index indicating the degree of contribution or information indicating the presence or absence of contribution.
  • the control instruction unit 12 calculates the control instruction information used for controlling the drive of each joint mechanism 22(j i ) based on the contribution information.
  • the system information acquisition unit 13 acquires system information including information indicating the state of the robot system 100 and environment information.
  • the state calculation unit 14 uses the information acquired by the system information acquisition unit 13 and the like to calculate information about the current state of the robot arm 2 such as each joint mechanism 22 (j i ) and the hand position. Failure detecting unit 15, the position of the obstacle in the vicinity of the joint mechanism 22 (j i), the position and the predicted obstacle to fall near the joint mechanism 22 (j i), the joint mechanism 22 to (j i) To detect the occurrence of a failure.
  • the vicinity means that the distance from the joint mechanism 22(j i ) (or the gripping mechanism 23, the link 21) is less than or equal to a predetermined distance or less than the predetermined distance.
  • control device 1 By the processing of the control device 1 exhibiting each function as described above, it is possible to more flexibly control the robot arm 2 and move the tip portion to the target position without calculating the posture of the entire robot arm 2.
  • FIG. 4 is a first diagram showing a processing flow of the control device according to the first embodiment. Next, the processing flow of the control device according to the first embodiment will be described step by step. First, when the control instruction unit 12 of the control device starts control, it instructs the control target acquisition unit 10 to acquire control target information, and also instructs the system information acquisition unit 13 to acquire system information.
  • the control target information indicates at least the control target of the robot arm 2.
  • the target hand position Pd ⁇ xd, yd, zd ⁇ indicates the three-dimensional coordinates of the movement destination of the current position of the hand of the robot arm 2.
  • the control target information may be a target position, a target speed, a target torque, a speed vector, a force vector, an acceleration vector of a part or a plurality of parts of the link 21.
  • the plurality of parts may be, for example, the number of joint mechanisms 22 that is smaller than the number of all joint mechanisms 22.
  • the control target information may be time series information of those values.
  • the system information may include so-called DH (Denavit-Hartenberg) parameters such as joint angles, angular velocities, torques, joint distances, joint positions (coordinates) and joint mounting angles of each joint mechanism 22, a movable range, and the like.
  • the system information may include information on the obstacle detected by the fault detection unit 15.
  • the obstacle information includes three-dimensional coordinates indicating the center of the obstacle, discretized three-dimensional coordinates of the surface of the obstacle, vector data of the surface of the obstacle, polygon approximation data of the surface of the obstacle, and obstacles. It may be surface function approximation data or the like.
  • the coordinates of the robot arm 2 may be included as the information of the obstacle. By including the coordinates of the robot arm 2 in the information of the obstacle, it is possible to control so that different positions of the robot arm 2 do not come into contact with each other.
  • the state calculation unit 14 acquires the system information from the system information acquisition unit 13 (step S102). Then, the state calculation unit 14 calculates the current hand position Pc (step S103).
  • the current hand position Pc may be calculated from the system information, for example, according to forward kinematics. For example, if the base point of the coordinates of the robot arm 2 and the DH (Denavit-Hartenberg) parameter are known, the position of the hand can be obtained.
  • the state calculation unit 14 calculates the joint position Pi of each joint mechanism 22(j i ) that is an operation target that can be operated to move the current hand position Pc to the target hand position Pd. (Step S104).
  • the state calculation unit 14 acquires a captured image from an external camera that captures the robot arm 2 itself, and calculates the current hand position Pc and the joint position Pi of each joint mechanism 22 (j i ) based on the captured image. You may.
  • the state calculation unit 14 outputs the current hand position Pc and each joint position Pi of the joint mechanism 22(j i ) that is the current movement target to the joint contribution information calculation unit 11.
  • the joint contribution information calculation unit 11 acquires the system information, the hand position Pc, and each joint position Pi to be operated.
  • FIG. 5 is a first diagram showing an operation example of the robot arm 2 according to the first embodiment.
  • FIG. 6 is a second diagram showing an operation example of the robot arm 2 according to the first embodiment.
  • FIG. 5 shows an example in which the current hand position Pc is moved to the target hand position Pd within the two-dimensional space range when the robot arm 2 operates in the two-dimensional space range.
  • FIG. 6 shows an example in which the current hand position Pc is moved to the target hand position Pd within the tertiary space range in a situation where the robot arm 2 operates in the three-dimensional space range.
  • the joint contribution information calculation unit 11 calculates the movement direction and the movement amount ⁇ di of each joint mechanism 22(j i ) to be operated when the hand position Pc is moved to the target hand position Pd (step S105).
  • the line connecting the joint position Pi of the joint mechanism 22(j i ) and the hand position Pc is the joint position Pi of the joint mechanism 22(j i ) and the target hand position.
  • the movement direction and the movement amount ⁇ di when they coincide with the line connecting Pd and Pd are determined.
  • ⁇ di can be obtained by using the geometrical relationship of Pd, Pi, and Pc.
  • each coordinate is represented by a vector
  • ⁇ di is obtained as an angle formed by the vectors represented by Pd-Pi and Pc-Pi.
  • the inner product of the vectors can be used to find ⁇ di.
  • the joint contribution information calculation unit 11 may obtain the movement direction and the movement amount ⁇ di of each joint mechanism 22(j i ) by simulation processing.
  • Figure 6 shows the calculated outline of the moving direction and the moving amount ⁇ di of a joint mechanism 22 (j i) where the joint mechanism 22 (j i) is operated in three-dimensional directions.
  • Joint contribution information calculation section 11 as shown in FIG. 6, the current hand position Pc, of a joint mechanism 22 (j i) connected to the perpendicular to the axis of rotation of the link 21 the joint mechanism 22 (j i) The hand projection position Pc′ projected on the plane passing through the position Pi is specified. Then, the joint contribution information calculating unit 11 determines that the line connecting the hand projection position Pc′ and the joint position Pi of the joint mechanism 22(j i ) and the target hand position Pd are projected on the above-mentioned plane.
  • a movement amount ⁇ di which is an angle formed by a line connecting Pd′ and the joint Pi to be moved and which is an angle formed by the movement direction of the joint mechanism 22(j i ) is calculated.
  • the joint contribution information calculation unit 11 sets a numerical value indicating the joint mechanism 22(j i ) to be operated to i, and specifies the joint mechanism 22(j i ). Then, the joint contribution information calculation unit 11 calculates the angular movement command ⁇ di of the specified joint mechanism 22(j i ) using the movement amount ⁇ di and the gain Gc by the formula (1) (step S106).
  • the joint contribution information calculation unit 11 contributes the specified joint mechanism 22(j i ) to the movement amount when moving the hand position from Pc to the target hand position Pd based on the current posture of the robot arm 2.
  • the contribution information ki indicating the degree is calculated as follows. In calculating the contribution information ki, first, the joint contribution information calculation unit 11 calculates the Pc-Pi distance di of the specified joint mechanism 22(j i ) using the formula (2).
  • the joint contribution information calculation unit 11 calculates the contribution information ki of the specified joint mechanism 22(j i ) using the equation (3) (step S107).
  • b represents a constant.
  • f(di) may be a function proportional to the square of the Pd-Pi distance di, or may be an arbitrary function having the Pd-Pi distance di as an argument.
  • f(di) may be a polynomial having the distance di as a variable, or a trigonometric function, a logarithmic function, an exponential function having the distance di as a variable, or any function represented by the sum, product, or quotient of the above functions. ..
  • a value d′i determined according to the order of positions of the joint mechanisms 22(j i ) on the robot arm 2 (such as the order of positions from the hand) is used.
  • the contribution information ki may be calculated by the same formula. Then, the joint contribution information calculation unit 11 outputs the contribution information ki of each joint mechanism 22 to the control instruction unit 12.
  • the control instruction unit 12 calculates the control instruction information ⁇ control(i) by the equation (4) using the contribution information ki of the identified joint mechanism 22(j i ) (step S108).
  • the control instruction information ⁇ control(i) may be an arbitrary function represented by ki and ⁇ di.
  • the control instruction unit 12 outputs the control instruction information ⁇ control(i) to the specified joint mechanism 22(j i ) (step S109).
  • Control instructing unit 12 determines whether out of the joint mechanism 22 (j i) to be acted upon, there is the joint mechanism 22 (j i) which is not calculated control instruction information (step S110). If the control instruction unit 12 have a control instruction information joint not calculated mechanism 22 (j i), instructs the joint contribution information calculation unit 11 to perform the process for the next joint mechanism 22 (j i).
  • each joint mechanism in the operating object 22 (j i) sets the value indicating the contribution information ki not calculated joint mechanism 22 (j i) to i, the steps S106 The process is repeated every minute.
  • each joint mechanism 22(j i ) to be operated operates, and the hand position moves to the target hand position Pd.
  • the control instruction unit 12 determines whether the hand position Pc reaches the final target position and ends (step S111).
  • the control device 1 gradually shifts the target hand position Pd so as to reach the final hand position, and sequentially executes the above processing, whereby the hand position can be gradually moved to reach the final target position. It will be possible.
  • FIG. 7 is a first diagram showing a processing flow of the control device according to the second embodiment.
  • the control instruction unit 12 of the control device starts control, it instructs the control target acquisition unit 10 to acquire control target information, and also instructs the system information acquisition unit 13 to acquire system information.
  • the control target information indicates the control target of at least a part of the robot arm 2 or a plurality of parts.
  • the hand target velocity vector Vc ⁇ vxd, vyd, vzd ⁇ indicates the velocity vector of the hand of the robot arm 2 in the three-dimensional space.
  • the control target may be a force vector or an acceleration vector instead of the hand target velocity vector Vc.
  • the system information includes so-called DH (Denavit-Hartenberg) parameters such as joint angles, angular velocities, torques, joint distances, joint positions (coordinates) and joint mounting angles of each joint mechanism 22 (j i ), movable range, and the like. May be included.
  • the system information may include information on the obstacle detected by the fault detection unit 15.
  • the obstacle information includes three-dimensional coordinates indicating the center of the obstacle, discretized three-dimensional coordinates of the surface of the obstacle, vector data of the surface of the obstacle, polygon approximation data of the surface of the obstacle, and obstacles. It may be surface function approximation data or the like.
  • the coordinates of the robot arm 2 may be included as the information of the obstacle. By including the coordinates of the robot arm 2 in the information of the obstacle, it is possible to control so that different positions of the robot arm 2 do not come into contact with each other.
  • the state calculation unit 14 acquires the system information from the system information acquisition unit 13 (step S202). Then, the state calculation unit 14 calculates the current hand position Pc (step S203).
  • the current hand position Pc may be calculated from the system information, for example, according to forward kinematics. For example, if the base point of the coordinates of the robot arm 2 and the DH (Denavit-Hartenberg) parameter are known, the hand position Pc can be obtained.
  • the state calculation unit 14 calculates the joint position Pi of each joint mechanism 22(j i ) that is an operation target that can be operated to move the current hand position Pc to the target hand position Pd. (Step S204).
  • the state calculation unit 14 acquires a captured image from an external camera that captures the robot arm 2 itself, and based on the captured image, the current hand position Pc and each joint mechanism 22 ( The joint position Pi of j i ) may be calculated.
  • the state calculation unit 14 outputs the current hand position Pc and each joint position Pi of the joint mechanism 22(j i ) that is the current movement target to the joint contribution information calculation unit 11.
  • the joint contribution information calculation unit 11 acquires the system information, the hand position Pc, and the joint position Pi.
  • FIG. 8 is a first diagram showing an operation example of the robot arm 2 according to the second embodiment.
  • FIG. 9 is a second diagram showing an operation example of the robot arm 2 according to the second embodiment.
  • FIG. 8 shows an example in which the current hand position Pc is moved to the target hand position Pd in the two-dimensional space range based on the hand target velocity vector Vc in the situation where the robot arm 2 operates in the two-dimensional space range.
  • FIG. 9 shows an example in which the current hand position Pc is moved to the target hand position Pd within the tertiary space range based on the hand target velocity vector Vc in a situation where the robot arm 2 operates in the three-dimensional space range. ..
  • the joint contribution information calculation unit 11 calculates the movement direction and the movement amount ⁇ di of each joint mechanism 22(j i ) to be operated when the hand position Pc is moved to the target hand position Pd (step S205).
  • the line connecting the joint position Pi of the joint mechanism 22(j i ) and the hand position Pc is the joint position Pi of the joint mechanism 22(j i ) and the target hand position.
  • the movement direction and the movement amount ⁇ di when they coincide with the line connecting Pd and Pd are determined.
  • ⁇ di can be obtained by using the geometrical relationship of Pd, Pi, and Pc.
  • each coordinate is represented by a vector
  • ⁇ di is obtained as an angle formed by the vectors represented by Pd-Pi and Pc-Pi.
  • the inner product of the vectors can be used to find ⁇ di.
  • the joint contribution information calculation unit 11 may obtain the moving direction and the moving amount ⁇ di of each joint mechanism 22(j i ) by a simulation process.
  • Figure 9 shows the calculated outline of the moving direction and the moving amount ⁇ di of each joint mechanism 22 (j i) with a case the joint mechanism 22 (j i) is operated in three-dimensional directions.
  • the joint contribution information calculation unit 11 orthogonally intersects the current hand position Pc with the rotation axis of the link 21 connected to a certain joint mechanism 22(j i ) and moves the joint mechanism 22(j i ).
  • the hand projection position Pc′ projected on the plane passing through the position Pi is specified.
  • the joint contribution information calculating unit 11 determines that the line connecting the hand projection position Pc′ and the joint position Pi of the joint mechanism 22(j i ) and the target hand position Pd are projected on the above-mentioned plane.
  • a movement amount ⁇ di which is an angle formed by a line connecting Pd′ and the joint Pi to be moved and which is an angle formed by the movement direction of the joint mechanism 22(j i ) is calculated.
  • the joint contribution information calculation unit 11 uses the hand target velocity vector Vc to determine the joint position Pi and the hand position of the certain joint mechanism 22(j i ).
  • a velocity vector component Vci orthogonal to a straight line connecting Pc and having the hand position Pc as a base point is derived.
  • the joint contribution information calculation unit 11 sets a numerical value indicating the joint mechanism 22(j i ) to be operated to i, and specifies the joint mechanism 22(j i ). Then, the joint contribution information calculation unit 11 uses the velocity vector component Vci and the predetermined gain Gc to calculate the angular velocity movement command ⁇ ′di of the identified joint mechanism 22(j i ) according to equation (5) (step S206). ).
  • “*” indicates the inner product of the vectors.
  • “e_x” indicates a unit vector of the velocity vector component Vci.
  • the joint contribution information calculation unit 11 uses the force vector f to calculate the contribution information about the specified joint mechanism 22(j i ) and then uses the force vector f to determine the joint position Pi and the hand position of the specified joint mechanism 22(j i ).
  • a force vector component fci orthogonal to a straight line connecting Pc and having the hand position Pc as a base point is derived.
  • the joint contribution information calculation unit 11 may calculate the angular velocity movement command ⁇ ′di by the equation (6) using the force vector component fci and the predetermined gain Gc.
  • “*” indicates the inner product of the vectors.
  • “e_x′” indicates a unit vector of the force vector component fci.
  • the joint contribution information calculation unit 11 determines the contribution degree of the specified joint mechanism 22(j i ) to the movement amount when moving from the hand position Pc to the target hand position Pd based on the current posture of the robot arm 2. Is calculated as follows (step S207).
  • the amount of movement of the joint mechanism 22(j i ) close to the hand position Pc can be increased to reduce the control torque of each joint mechanism 22(j i ) to be operated.
  • the contribution information ki may be calculated by the equation (8).
  • the joint contribution information calculation unit 11 outputs the contribution information ki of the specified joint mechanism 22 to the control instruction unit 12.
  • the control instruction unit 12 calculates the control instruction information ⁇ ′control(i) by the equation (9) using the contribution information of the specified joint mechanism 22(j i ) (step S208).
  • the control instruction information ⁇ ′control(i) may be an arbitrary function including “ki ⁇ ′di”.
  • the control instruction unit 12 outputs the control instruction information ⁇ ′control(i) to the specified joint mechanism 22(j i ) (step S209).
  • Control instructing unit 12 determines whether out of the joint mechanism 22 (j i) to be acted upon, there is the joint mechanism 22 (j i) which is not calculated control instruction information (step S210). If the control instruction unit 12 have a control instruction information joint not calculated mechanism 22 (j i), instructs the joint contribution information calculation unit 11 to perform the process for the next joint mechanism 22 (j i).
  • each joint mechanism in the operating object 22 (j i) sets the value indicating the contribution information ki not calculated joint mechanism 22 (j i) to i, the steps S206 The process is repeated every minute. As a result, each joint mechanism 22(j i ) operates and the hand position moves to the target hand position Pd.
  • the control instruction unit 12 determines whether the hand position Pc reaches the final target position and ends (step S211).
  • the control device 1 shifts the target hand position Pd to the removal position so as to reach the final hand position, and sequentially executes the above-described processing to gradually move the hand position to reach the final target position. Is possible.
  • the contribution information ki is calculated based on the contribution degree of the movement of 22(j i ).
  • the joint contribution information calculation unit 11 calculates the contribution information based on the magnitude of the force when the joint mechanism 22(j i ) operates by a predetermined amount, the inertia torque, and other indicators indicating the ease of operation. You may calculate the contribution information ki which shows the contribution degree with respect to movement of the target site
  • the joint contribution information calculation unit 11 does not actually control the joint mechanism 22(J) based on the control instruction information ⁇ control(i) calculated in the first embodiment.
  • the ratio of the angle ⁇ actual(i) at which 22(j i ) operates within the specified control time is calculated by the equation (10) as contribution information ki.
  • the joint contribution information calculation unit 11 replaces the control instruction information ⁇ control(i) calculated in the first embodiment with the control instruction information ⁇ ′control( calculated in the second embodiment. i) may be used. Further, in the above equation (10), the contribution information ki calculated in the first embodiment is obtained by the ratio of the angle ⁇ actual(i) operated within the control time to the control instruction information ⁇ control(i). May be calculated, or an arbitrary function including the ratio or the difference may be used. The joint contribution information calculation unit 11 may use a function including the control instruction information ⁇ control(i) and the angle ⁇ actual(i) operated within the control time to calculate the contribution information ki. Then, the control instruction unit 12 calculates the control instruction information ⁇ control(i) using the contribution information ki obtained by the equation (10).
  • the contribution information is the sum of the contribution information ki calculated in the first and second embodiments and the contribution information ki calculated in the third embodiment, the value obtained by the product, and the contribution information. It may be a value calculated by a containing function.
  • the joint contribution information calculation unit 11 calculates the contribution information k′i of a certain joint mechanism 22(j i ) and the contribution information ki of the own joint mechanism 22(j i ) calculated in the above-described embodiment and other joints.
  • the value of the contribution information k j of the mechanism may be used.
  • the contribution information of the other j-th joint mechanism 22 (J j ) is expressed as k j .
  • the contribution information k′i is calculated by the equation (11).
  • the other joint mechanisms 22 (J j ) may be all the joint mechanisms 22 configuring the robot arm 2, or one or more joint mechanisms 22 near the joint mechanism 22 for which the contribution information ki is calculated. It may be.
  • n indicates the number of joint mechanisms 22 that form the robot arm.
  • the contribution information in which the degree of contribution of the joint mechanism 22 close to the obstacle is lowered may be calculated based on the position of the obstacle that obstructs the movement of any one of the joint mechanisms 22(j i ).
  • the obstacle detection unit 15 acquires sensing information from an object detection sensor provided at a predetermined position of the robot arm 2.
  • the object detection sensor is a proximity sensor
  • the coordinates of the object are calculated based on the installation position of the proximity sensor and the sensing information (distance to the object) from the proximity sensor.
  • the object detection sensor is a camera
  • the failure detection unit 15 calculates the coordinates of the object based on the installation position of the camera and the captured image obtained from the camera.
  • the obstacle detection unit 15 determines, based on the installation position of the distance measurement sensor and the sensing information (distance to the object or distance image) obtained from the distance measurement sensor. Calculate the coordinates of the object.
  • the failure detection unit 15 acquires the current position of each joint mechanism 22(j i ) from the state calculation unit 14.
  • the failure detection unit 15 calculates the coordinates of the link 21 based on the current coordinates of each joint mechanism 22(j i ).
  • the obstacle detection unit 15 determines that the object is an obstacle when the position of the link 21 or the joint mechanism 22(j i ) and the position of the object are within a predetermined distance.
  • the obstacle detection unit 15 outputs the position of the obstacle to the joint contribution information calculation unit 11.
  • the joint contribution information calculation unit 11 calculates the distance dsi between the position of each joint mechanism 22(j i ) and the position of the obstacle. Then, the joint contribution information calculation unit 11 calculates the contribution information ki using the equation (12) in which the contribution degree decreases as the distance dsi between the position of the joint mechanism 22(j i ) and the position of the obstacle decreases. calculate.
  • the contribution information calculated in any of the first to fifth embodiments is Ki using a capital letter K.
  • the contribution information ki the distance dsi between the position of the joint mechanism 22(j i ) and the position of the obstacle and the contribution information Ki calculated in any of the first to fifth embodiments are used. You may calculate by Formula (13) using the function g.
  • the failure detection unit 15 may detect contact of an obstacle with the joint mechanism 22(j i ) or the link 21 based on the system information.
  • the system information acquisition unit 13 acquires system information from the sensor of each joint mechanism 22(j i ).
  • the sensor is a torque sensor, a motor angle sensor, a motor angular velocity sensor, or the like.
  • the system information acquisition unit 13 acquires a torque value from the torque sensor as sensing information.
  • the system information acquisition unit 13 uses the rotation angle from the reference position of each motor provided in the joint mechanism 22(j i ) as sensing information from the angle sensor. get.
  • the system information acquisition unit 13 acquires the angular velocity of each motor included in the joint mechanism 22(j i ) from the angular velocity sensor as sensing information.
  • the system information acquisition unit 13 outputs the acquired sensing information to the failure detection unit 15.
  • the control instruction information includes the torque ⁇ di of the joint mechanism 22(j i ) to be driven.
  • the failure detection unit 15 compares the torque ⁇ di instructed to the joint mechanism 22(j i ) to be driven with the torque value obtained from the joint mechanism 22(j i ) to determine whether there is a difference. ..
  • the failure detection unit 15 determines that the torque ⁇ di instructed to the joint mechanism 22(j i ) to be driven and the torque value obtained from the joint mechanism 22(j i ) have a difference equal to or more than a predetermined torque value, It is determined that the joint mechanism 22(j i ) has a failure.
  • the failure detection unit 15 outputs the ID (identifier) of the joint mechanism 22(j i ) in which the failure has occurred to the joint contribution information calculation unit 11.
  • the joint contribution information calculation unit 11 updates the contribution information (k i ) of the joint mechanism 22(j i ) of the ID so as to be decreased.
  • the width in which the contribution information (k i ) is reduced is equal to or larger than a predetermined torque value for the torque ⁇ di instructed to the joint mechanism 22 (j i ) to be driven and the torque value obtained from the joint mechanism 22 (j i ). It may be a value according to the magnitude of the difference. Alternatively, the width in which the contribution information (k i ) is reduced may be calculated by an arbitrary function including the torque ⁇ di instructed to the joint mechanism 22(j i ) to be driven.
  • the control instruction unit 12 calculates the control instruction information based on the new contribution information (k i ) of each joint mechanism 22(j i ).
  • the control instruction information may include an angular velocity or a rotation angle with respect to each joint mechanism 22(j i ).
  • the failure detection unit 15 compares the angular velocity or the rotation angle instructed to the joint mechanism 22(j i ) to be driven with the angular velocity or the rotation angle obtained from the joint mechanism 22(j i ). Then, it is determined whether there is a difference.
  • the failure detection unit 15 determines that the angular velocity or the rotation angle instructed to the joint mechanism 22(j i ) to be driven is different from the angular velocity obtained from the joint mechanism 22(j i ) or the rotation angle by a predetermined value or more. If there is, it is determined that the joint mechanism 22(j i ) has a failure.
  • the failure detection unit 15 outputs the identifier such as the ID of the joint mechanism 22(j i ) in which the failure has occurred to the joint contribution information calculation unit 11.
  • the joint contribution information calculation unit 11 updates the contribution information (k i ) of the joint mechanism 22 (j i ) of the ID so as to approach 0, and the control instruction unit 12 updates the new joint mechanism 22 (j i ) of each joint mechanism 22 (j i ). based on the contribution information (k i), it calculates a control instruction information.
  • FIG. 10 is a first diagram showing an example of calculating contribution information.
  • the robot arm 2 shown in FIG. 10 includes joint mechanisms 22 of J 1 , J 2 , and J 3 in order toward the tip of the robot arm 2. Further, the outline of the operation of the robot arm 2 shown in FIG. 10 shows the reason for moving the hand position from the current position S to the target position G.
  • the contribution information of the joint mechanism 22 (J 1) (k 1 ) 95
  • the contribution information of the joint mechanism 22 (J 2) (k 2 ) 80
  • the joint contribution information calculation unit 11 calculates the contribution information (k i ) of each joint mechanism 22 (J i ).
  • the value of the contribution information (k i ) of each joint mechanism 22 (J i ) varies depending on the operating condition.
  • the locus of the tip end portion of the robot arm 2 when it is currently moved from the hand position S to the target position G is a locus R1 shown in FIG. 10(5c).
  • FIG. 11 is a second diagram showing an example of calculating contribution information.
  • the control device 1 controls the robot arm 2 as in FIG.
  • the contribution information of the joint mechanism 22 (J 1) (k 1 ) 5
  • timing t 3 in FIG.
  • the locus of the hand position of the robot arm 2 when moving from the current position S to the target position G is the locus R2 shown in FIG. 11(6c). That is, the contribution information of the joint mechanism 22 (J 2 ) close to the object M (obstacle) is calculated to be low, which reduces the movement amount of the joint mechanism 22 (J 2 ) and the movement amount of the joint mechanism 22 (J 3 ). Will grow.
  • the link 21 includes an expansion/contraction mechanism that allows the length to be expanded/contracted, and the control device 1 changes the length by controlling the expansion/contraction mechanism of any one of the links 21 so that the tip portion can move to the target position G. You may be able to.
  • FIG. 12 is a third diagram showing an example of calculating contribution information.
  • the control device 1 controls the robot arm 2 as in the case of FIG.
  • the control instruction unit 12 the link closer to 21 and the joint mechanism 22 coordinates the object coordinates, and joint mechanism 22 for operating the link 21, the contribution information about joint mechanism 22 toward the object of (k i) update the contribution information (k i) by subtracting the value.
  • the joint contributes information calculation unit 11, as shown at the timing t 2 of FIG.
  • the locus of the hand position of the robot arm 2 when moving from the current position S to the target position G is the locus R3 shown in FIG. 12(7c).
  • the tip position of the robot arm 2 is moved to the target position G even if the locus changes to a locus R3.
  • the link 21 is provided with the extension/contraction mechanism that allows the length to be extended/contracted, and the control device 1 controls the extension/contraction mechanism of any one of the links 21 so that the tip portion can move to the target position G. It may be possible to change the length.
  • control device 1 drives and controls the joint mechanism 22 of the robot arm 2 including the plurality of links 21 and the joint mechanism 22 that rotatably connects the plurality of links 21 to the connection destinations.
  • the example was explained.
  • the control device 1 may drive and control the drive mechanism of the robot including a plurality of drive mechanisms that movably connect the positional relationships of the plurality of parts by the same processing as described above.
  • control device 1 is connected to the drive mechanism having a plurality of joints and acquires system information indicating the state and environment of the drive mechanism.
  • the control device 1 acquires a control target of a predetermined part such as a joint of a drive mechanism, and calculates information indicating a contribution degree that contributes to the movement of the predetermined part to the control target. Then, the control device 1 calculates the control instruction information based on the information indicating the degree of contribution, and controls the drive mechanism based on the control instruction information.
  • FIG. 13 is a diagram showing the minimum configuration of the control device.
  • FIG. 14 is a diagram showing a processing flow by the control device having the minimum configuration.
  • the control device 1 connected to the robot arm 2 having a plurality of joints exhibits at least the functions of the control target acquisition unit 10, the joint contribution information calculation unit 11, the control instruction unit 12, and the system information acquisition unit 13. .
  • the system information acquisition unit 13 acquires system information indicating at least the posture state of the robot arm 2 or the driving state of the robot arm 2 (step S301).
  • the control target acquisition unit 10 acquires control target information indicating the control target of the robot arm 2 (step S302).
  • the joint contribution information calculation unit 11 calculates, based on the system information, contribution information that is an index indicating the contribution of the joint to the drive of the robot arm 2 based on the control target information (step S303).
  • the control instruction unit 12 calculates the control instruction information used to control the drive of each joint based on the contribution information (step S304).
  • the above-mentioned control device 1 has a computer system inside.
  • the process of each process described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing the program.
  • the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a semiconductor memory, or the like.
  • the computer program may be distributed to the computer via a communication line, and the computer that receives the distribution may execute the program.
  • the above program may be for realizing some of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
  • difference file difference program
  • Control device 10 Control target acquisition unit 11
  • Joint contribution information calculation unit 12 Control instruction unit 13
  • System information acquisition unit 14 System information acquisition unit 14
  • State calculation unit 15 ... Failure Detection unit 2
  • Robot arm 21 Robot arm 22
  • Joint mechanism 22 Joint mechanism

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

複数の関節を有するロボットアームに接続された制御装置が、ロボットアームの姿勢状態またはロボットアームの駆動状態を少なくとも示すシステム情報を取得する。また制御装置は、ロボットアームの制御目標を示す制御目標情報を取得する。制御装置は、制御目標情報に基づくロボットアームの駆動に対する関節の寄与を示す指標である寄与情報をシステム情報に基づいて算出する。そして制御装置は、寄与情報に基づいて各関節の駆動の制御に用いる制御指示情報を算出する。

Description

制御装置、制御方法、記録媒体
 本発明は、制御装置、制御方法、記録媒体に関する。
 ロボットの制御装置は、ロボットに設けられた関節機構を駆動制御して、ロボットを構成する所定部位を目標位置に移動させる。ロボットの制御の例として、特許文献1には、ロボットアームの干渉を回避するための計算を高速に行う技術が開示されている。また、多関節システムにおける複数の自由度を有する体節の衝突を回避する技術が特許文献2に開示されている。
特開2017-131990号公報 特許第5261495号公報
 上述のようなロボットの制御装置では、ロボットを構成する移動部位の軌道を全て計算することがある。関節等の移動部位の軌道を計算することでロボットの姿勢が定まる。制御装置は、ロボットの関節などの所定部位を駆動制御している際に、その所定の一部が障害物や負荷により動かない場合、上述のようなロボットの各関節の位置などの含む姿勢状態の情報を定めるため、再度、移動部位の全体の位置や軌道の再計算を行わなければならなかった。
 そこでこの発明は、上述の課題を解決する制御装置、制御方法、記録媒体を提供することを目的としている。
 本発明の第1の態様によれば、制御装置は、複数の関節を有するロボットアームに接続され、前記ロボットアームの姿勢状態または前記ロボットアームの駆動状態を少なくとも示すシステム情報を取得するシステム情報取得部と、前記ロボットアームの制御目標を示す制御目標情報を取得する制御目標取得部と、前記制御目標情報に基づく前記ロボットアームの駆動に対する前記関節の寄与を示す指標である寄与情報を前記システム情報に基づいて算出する関節寄与情報算出部と、前記寄与情報に基づいて前記各関節の駆動の制御に用いる制御指示情報を算出する制御指示部と、を備えることを特徴とする。
 本発明の第2の態様によれば、制御方法は、複数の関節を有するロボットアームに接続された制御装置が、前記ロボットアームの姿勢状態または前記ロボットアームの駆動状態を少なくとも示すシステム情報を取得し、前記ロボットアームの制御目標を示す制御目標情報を取得し、前記制御目標情報に基づく前記ロボットアームの駆動に対する前記関節の寄与を示す指標である寄与情報を前記システム情報に基づいて算出し、前記寄与情報に基づいて前記各関節の駆動の制御に用いる制御指示情報を算出することを特徴とする。
 本発明の第3の態様によれば、記録媒体は、複数の関節を有するロボットアームに接続された制御装置において、前記ロボットアームの姿勢状態または前記ロボットアームの駆動状態を少なくとも示すシステム情報を取得するシステム情報取得機能と、前記ロボットアームの制御目標を示す制御目標情報を取得する制御目標取得機能と、前記制御目標情報に基づく前記ロボットアームの駆動に対する前記関節の寄与を示す指標である寄与情報を前記システム情報に基づいて算出する関節寄与情報算出機能と、前記寄与情報に基づいて前記各関節の駆動の制御に用いる制御指示情報を算出する制御指示機能と、を実現させるプログラムが記録されることを特徴とする。
 本発明によれば、ロボットを制御して所定の部位を目標位置に移動させることができる。
本発明の一実施形態によるロボットシステムの概要を示す図である。 本発明の一実施形態による制御装置のハードウェア構成を示す図である。 本発明の一実施形態による制御装置の機能ブロック図である。 第一の実施形態による制御装置の処理フローを示す第一の図である。 第一の実施形態によるロボットアームの動作例を示す第一の図である。 第一の実施形態によるロボットアームの動作例を示す第二の図である。 第二の実施形態による制御装置の処理フローを示す第一の図である。 第二の実施形態によるロボットアームの動作例を示す第一の図である。 第二の実施形態によるロボットアームの動作例を示す第二の図である。 本発明の一実施形態による寄与情報の算出例を示す第一の図である。 本発明の一実施形態による寄与情報の算出例を示す第二の図である。 本発明の一実施形態による寄与情報の算出例を示す第三の図である。 本発明の一実施形態による制御装置の最小構成を示す図である。 本発明の一実施形態による最小構成の制御装置による処理フローを示す図である。
 以下、本発明の一実施形態による制御装置を図面を参照して説明する。
 図1は同実施形態による制御装置を含むロボットシステムの概要を示す図である。
 この図で示すように、ロボットシステム100は制御装置1とロボットアーム2とを含んで構成される。ロボットアーム2は、複数のリンク21と、当該複数のリンク21を連結先に回動自在に連結する関節機構22(j)とを備えている。なお関節機構22(j)の記載においてjは関節機構22を示し、iは番号を示す。つまり、関節機構22(j)n個によりロボットアームが構成される場合はi=1,2,‥‥nとなる。関節機構22(j)はロボットアーム2を構成する何れか一つまたは複数の関節機構22を示す。制御装置1は、少なくともロボットアーム2の関節機構22(j)を駆動制御する。これにより制御装置1は、関節機構22(j)や手先位置などの所定の部位を所定の目標位置に移動させる。
 関節機構22(j)は、連結するリンク21の軸を中心として当該リンク21を回転させる第一回転モータ、関節機構22(j)に連結するリンク21の軸に直交する直交方向に当該リンク21を傾ける第二回転モータなどを内蔵して構成される。ロボットアーム2の先端部には物体を把持する把持機構23などが設けられてよい。そして制御装置1は関節機構22(j)の各モータと電気的に接続されており、関節機構22(j)の駆動制御を行う。
 図2は制御装置のハードウェア構成を示す図である。
 この図が示すように制御装置1は、制御部であるCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、SSD(Solid State Drive)104、通信モジュール105等の各ハードウェアを備えたコンピュータである。
 図3は制御装置1の機能ブロック図である。
 制御装置1のCPU101は電源が投入されると起動し、予め記憶する制御プログラムを実行する。これにより制御装置1は、制御目標取得部10、関節寄与情報算出部11、制御指示部12、システム情報取得部13、状態算出部14、障害検知部15の各機能を発揮する。
 制御目標取得部10は、ロボットアーム2の制御目標を示す制御目標情報を取得する。
 関節寄与情報算出部11は、各関節機構22(j)の制御目標情報に対する寄与を示す指標である寄与情報を算出する。寄与情報は、寄与の程度を表す指標であってもよいし、寄与の有無を表す情報であってもよい。
 制御指示部12は、寄与情報に基づいて各関節機構22(j)の駆動の制御に用いる制御指示情報を算出する。
 システム情報取得部13は、ロボットシステム100の状態を示す情報および環境の情報を含むシステム情報を取得する。
 状態算出部14は、システム情報取得部13により取得された情報等を用いて各関節機構22(j)や手先位置などの現在のロボットアーム2に関する状態の情報を算出する。
 障害検知部15は、関節機構22(j)の近傍の障害物の位置、関節機構22(j)の近傍に入ると予測される障害物の位置や、関節機構22(j)への障害の発生を検知する。ここで、近傍とは、関節機構22(j)(または、把持機構23、リンク21)からの距離が所定の距離以下、または、所定の距離未満であることを表している。
 このような各機能を発揮する制御装置1の処理により、ロボットアーム2全体の姿勢を算出することなくより柔軟にロボットアーム2を制御して先端部を目標位置に移動させることができる。
(第一の実施形態)
 図4は第一の実施形態による制御装置の処理フローを示す第一の図である。
 次に第一の実施形態による制御装置の処理フローを順を追って説明する。
 まず制御装置の制御指示部12は制御を開始すると、制御目標取得部10に制御目標情報の取得を指示し、またシステム情報取得部13にシステム情報の取得を指示する。
 制御目標情報は、少なくともロボットアーム2の制御目標を示す。一例としての制御目標情報はロボットアーム2の目標手先位置Pd={xd,yd,zd}であってよい。目標手先位置Pd{xd,yd,zd}は、ロボットアーム2の手先の現在位置の移動先の3次元座標を示す。制御目標情報はまたはリンク21の一部または複数部位の目標位置、目標速度、目標トルク、速度ベクトル、力ベクトル、加速度ベクトルであってよい。複数部位は、例えば全ての関節機構22の数より少ない数の関節機構22であってよい。制御目標情報はそれらの値の時系列情報であってよい。
 システム情報は、各関節機構22の関節角度、角速度、トルク、関節間距離、関節位置(座標)、関節取り付け角度などの、いわゆるDH(Denavit-Hartenberg)のパラメータ、可動範囲などを含んでよい。システム情報には、障害検知部15により検出された障害物の情報を含んでもよい。例えば障害物の情報には、障害物の中心を示す3次元座標、障害物の表面の離散化した3次元座標、障害物の表面のベクトルデータ、障害物の表面のポリゴン近似データ、障害物の表面の関数近似データなどであってよい。また障害物の情報としてロボットアーム2の座標が含まれてもよい。ロボットアーム2の座標が障害物の情報に含まれることにより、ロボットアーム2の異なる位置が接触しないよう制御することができる。
 ここで一例として、制御目標取得部10が、目標手先位置Pd={xd,yd,zd}を取得する(ステップS101)。またシステム情報取得部13が、システム情報として、各関節機構22の関節角度θ={θ1,θ2,…θn}、関節間距離(各リンク21の長さ)l={l1,l2,…ln}などを取得する。
 状態算出部14は、システム情報取得部13からシステム情報を取得する(ステップS102)。そして状態算出部14は、現在の手先位置Pcを算出する(ステップS103)。現在の手先位置Pcは、システム情報から、たとえば、順運動学に従い算出すればよい。たとえば、ロボットアーム2の座標の基点と、DH(Denavit-Hartenberg)のパラメータがわかれば、手先の位置を求めることができる。また状態算出部14は、現在の手先位置Pcを目標手先位置Pdに移動させるために動作させることのできる1つまたは複数の動作対象となる各関節機構22(j)の関節位置Piを算出する(ステップS104)。
 なお、状態算出部14は、ロボットアーム2自体を撮影する外部カメラから撮影画像を取得し、この撮影画像に基づいて現在の手先位置Pcや各関節機構22(j)の関節位置Piを算出してもよい。
 状態算出部14は、関節寄与情報算出部11へ現在の手先位置Pcと現在の動作対象となる関節機構22(j)の各関節位置Piとを出力する。関節寄与情報算出部11は、システム情報、手先位置Pc、動作対象となる各関節位置Piを取得する。
 図5は第一の実施形態によるロボットアーム2の動作例を示す第一の図である。
 図6は第一の実施形態によるロボットアーム2の動作例を示す第二の図である。
 図5は二次元の空間範囲においてロボットアーム2の動作する状況において、現在の手先位置Pcを目標手先位置Pdに二次元空間範囲内で移動させる場合の例を示す。
 図6は三次元の空間範囲においてロボットアーム2の動作する状況において、現在の手先位置Pcを目標手先位置Pdに三次空間範囲内で移動させる場合の例を示す。
 関節寄与情報算出部11は、手先位置Pcを目標手先位置Pdに移動させる場合の、動作対象となる各関節機構22(j)の移動方向と移動量θdiとを算出する(ステップS105)。例えばある関節機構22(j)については、その関節機構22(j)の関節位置Piと手先位置Pcとをつなぐ線が、当該関節機構22(j)の関節位置Piと目標手先位置Pdとをつなぐ線に一致する際の移動方向と移動量θdiとを決定する。例えば、Pd,Pi,Pcの幾何学的関係を用いることでθdiを求めることが出来る。例えば、それぞれの座標をベクトルで表し,Pd-Pi,Pc-Piで示されるベクトルのなす角としてθdiを求める。また、たとえばベクトルの内積を用いてθdiを求めることもできる。関節寄与情報算出部11はシミュレーション処理により、各関節機構22(j)の移動方向と移動量Δθdiとを求めてよい。
 図6は、関節機構22(j)が3次元方向に動作する場合のある関節機構22(j)の移動方向と移動量Δθdiとの算出概要を示す。図6で示すように関節寄与情報算出部11は、現在の手先位置Pcを、ある関節機構22(j)に接続されたリンク21の回転軸に直交し当該関節機構22(j)の位置Piを通る面上に射影した手先射影位置Pc’を特定する。そして関節寄与情報算出部11は、当該手先射影位置Pc’と当該関節機構22(j)の関節位置Piとを結ぶ線と、目標手先位置Pdを上記面上に射影したと射影目標手先位置Pd’と移動対象の関節Piとを結ぶ線との成す角度であって、当該関節機構22(j)の移動方向の成す角度を示す移動量θdiを算出する。関節寄与情報算出部11は、iに動作対象となる関節機構22(j)を示す数値を設定し、関節機構22(j)を特定する。そして、関節寄与情報算出部11は、移動量θdiとゲインGcを用いて、特定した関節機構22(j)の角度移動指令Δθdiを式(1)により算出する(ステップS106)。
Figure JPOXMLDOC01-appb-M000001
 ここで、動作対象となる各関節機構22(j)それぞれに対して特定した移動方向に同じ角度の移動を加えた場合、手先位置Pcから遠い関節機構22は、少し動くだけでも手先位置Pcが大きく変動する。そこで関節寄与情報算出部11は、ロボットアーム2の現在の姿勢をもとに、手先位置をPcから目標手先位置Pdに移動させる際の、移動量に対する特定した関節機構22(j)の寄与度を示す寄与情報kiを以下のように算出する。寄与情報kiの算出にあたり、まず関節寄与情報算出部11は、特定した関節機構22(j)のPc-Pi間距離diを、式(2)を用いて算出する。
Figure JPOXMLDOC01-appb-M000002
 そして関節寄与情報算出部11は特定した関節機構22(j)の寄与情報kiを、式(3)を用いて算出する(ステップS107)。
Figure JPOXMLDOC01-appb-M000003
 式(3)においてbは定数を示す。f(di)は、Pd-Pi間距離diの二乗に比例する関数でもあってよく、Pd-Pi間距離diを引数とする任意の関数でよい。または、f(di)は、距離diを変数とした多項式、あるいは距離diを変数とした三角関数、対数関数、指数関数あるいは上記の関数の和・積・商で表される任意の関数でも良い。また、Pd-Pi間距離diに代えて、各関節機構22(j)のロボットアーム2における位置の順番(手先からの位置の順番など)に応じて決定された値d’iを用いて、同様の式により寄与情報kiを算出してもよい。そして、関節寄与情報算出部11は各関節機構22の寄与情報kiを制御指示部12へ出力する。
 制御指示部12は、特定した関節機構22(j)の寄与情報kiを用いて、式(4)により制御指示情報θcontrol(i)を算出する(ステップS108)。または、制御指示情報θcontrol(i)は、kiとΔθdiとにより表される任意の関数であってもよい。
Figure JPOXMLDOC01-appb-M000004
 制御指示部12は、特定した関節機構22(j)に対して制御指示情報θcontrol(i)を出力する(ステップS109)。制御指示部12は動作対象となる各関節機構22(j)のうち、制御指示情報を算出していない関節機構22(j)があるかを判定する(ステップS110)。制御指示部12は制御指示情報を算出していない関節機構22(j)がある場合、次の関節機構22(j)に対する処理を行うよう関節寄与情報算出部11へ指示する。関節寄与情報算出部11は動作対象となる各関節機構22(j)のうち、寄与情報kiを算出していない関節機構22(j)を示す値をiに設定し、ステップS106からの処理を微小時間ごとに繰り返す。これにより、動作対象となる各関節機構22(j)が動作し、手先位置が目標手先位置Pdへ移動する。制御指示部12は、手先位置Pcが最終目標位置に到達し終了するかを判定する(ステップS111)。制御装置1は最終手先位置に到達するように、目標手先位置Pdを徐々にずらして、上記の処理を逐次的に実行することで、手先位置が徐々に動いてき最終目標位置に到達させることが可能となる。
(第二の実施形態)
 図7は第二の実施形態による制御装置の処理フローを示す第一の図である。
 次に第二の実施形態による制御装置の処理フローを順を追って説明する。
 まず制御装置の制御指示部12は制御を開始すると、制御目標取得部10に制御目標情報の取得を指示し、またシステム情報取得部13にシステム情報の取得を指示する。
 制御目標情報は、少なくともロボットアーム2の一部または複数部位の制御目標を示す。例えば、制御目標はロボットアーム2の手先目標速度ベクトルVc={vxd,vyd,vzd}である。手先目標速度ベクトルVc{vxd,vyd,vzd}は、ロボットアーム2の手先の3次元空間における速度ベクトルを示す。制御目標は手先目標速度ベクトルVcに代えて、力ベクトル、加速度ベクトルであってもよい。
 システム情報は、各関節機構22(j)の関節角度、角速度、トルク、関節間距離、関節位置(座標)、関節取り付け角度などの、いわゆるDH(Denavit-Hartenberg)のパラメータ、可動範囲などを含んでよい。システム情報には、障害検知部15により検出された障害物の情報を含んでもよい。例えば障害物の情報には、障害物の中心を示す3次元座標、障害物の表面の離散化した3次元座標、障害物の表面のベクトルデータ、障害物の表面のポリゴン近似データ、障害物の表面の関数近似データなどであってよい。また障害物の情報としてロボットアーム2の座標が含まれてもよい。ロボットアーム2の座標が障害物の情報に含まれることにより、ロボットアーム2の異なる位置が接触しないよう制御することができる。
 ここで一例として、制御目標取得部10が、手先目標速度ベクトルVc={vxd,vyd,vzd}を取得する(ステップS201)。またシステム情報取得部13が、各関節機構22(j)の関節角度θ={θ1,θ2,…θn}、関節間距離(各リンク21の長さ)l={l1,l2,…ln}などのシステム情報を取得する。
 状態算出部14は、システム情報取得部13からシステム情報を取得する(ステップS202)。そして状態算出部14は、現在の手先位置Pcを算出する(ステップS203)。現在の手先位置Pcは、システム情報から、たとえば、順運動学に従い算出すればよい。たとえば、ロボットアーム2の座標の基点と、DH(Denavit-Hartenberg)のパラメータがわかれば、手先位置Pcを求めることができる。また状態算出部14は、現在の手先位置Pcを目標手先位置Pdに移動させるために動作させることのできる1つまたは複数の動作対象となる各関節機構22(j)の関節位置Piを算出する(ステップS204)。
 なお、状態算出部14は、第一の実施形態と同様に、ロボットアーム2自体を撮影する外部カメラから撮影画像を取得し、この撮影画像に基づいて現在の手先位置Pcや各関節機構22(j)の関節位置Piを算出してもよい。
 状態算出部14は、関節寄与情報算出部11へ現在の手先位置Pcと現在の動作対象となる関節機構22(j)の各関節位置Piとを出力する。関節寄与情報算出部11は、システム情報、手先位置Pc、関節位置Piを取得する。
 図8は第二の実施形態によるロボットアーム2の動作例を示す第一の図である。
 図9は第二の実施形態によるロボットアーム2の動作例を示す第二の図である。
 図8は二次元の空間範囲においてロボットアーム2の動作する状況において、手先目標速度ベクトルVcに基づいて、現在の手先位置Pcを目標手先位置Pdに二次元空間範囲内で移動させる場合の例を示す。
 図9は三次元の空間範囲においてロボットアーム2の動作する状況において、手先目標速度ベクトルVcに基づいて、現在の手先位置Pcを目標手先位置Pdに三次空間範囲内で移動させる場合の例を示す。
 関節寄与情報算出部11は、手先位置Pcを目標手先位置Pdに移動させる場合の、動作対象となる各関節機構22(j)の移動方向と移動量θdiとを算出する(ステップS205)。例えばある関節機構22(j)については、その関節機構22(j)の関節位置Piと手先位置Pcとをつなぐ線が、当該関節機構22(j)の関節位置Piと目標手先位置Pdとをつなぐ線に一致する際の移動方向と移動量θdiとを決定する。例えば、Pd,Pi,Pcの幾何学的関係を用いることでθdiを求めることが出来る。例えば、それぞれの座標をベクトルで表し,Pd-Pi,Pc-Piで示されるベクトルのなす角としてθdiを求める。また、たとえばベクトルの内積を用いてθdiを求めることもできる。関節寄与情報算出部11はシミュレーション処理により、各関節機構22(j)の移動方向と移動量θdiとを求めてよい。
 図9は、関節機構22(j)が3次元方向に動作する場合のある各関節機構22(j)の移動方向と移動量θdiとの算出概要を示す。図9で示すように関節寄与情報算出部11は、現在の手先位置Pcを、ある関節機構22(j)に接続されたリンク21の回転軸に直交し当該関節機構22(j)の位置Piを通る面上に射影した手先射影位置Pc’を特定する。そして関節寄与情報算出部11は、当該手先射影位置Pc’と当該関節機構22(j)の関節位置Piとを結ぶ線と、目標手先位置Pdを上記面上に射影したと射影目標手先位置Pd’と移動対象の関節Piとを結ぶ線との成す角度であって、当該関節機構22(j)の移動方向の成す角度を示す移動量θdiを算出する。
 関節寄与情報算出部11は、ある関節機構22(j)についての寄与情報を算出するにあたり、手先目標速度ベクトルVcを用いて、そのある関節機構22(j)の関節位置Piと手先位置Pcとを結ぶ直線に直交し手先位置Pcを基点とする速度ベクトル成分Vciを導出する。関節寄与情報算出部11は、iに動作対象となる関節機構22(j)を示す数値を設定し、関節機構22(j)を特定する。そして、関節寄与情報算出部11は、速度ベクトル成分Vciと所定のゲインGcを用いて、特定した関節機構22(j)の角速度移動指令Δθ’diを式(5)により算出する(ステップS206)。
Figure JPOXMLDOC01-appb-M000005
 式(5)において「*」はベクトルの内積を示す。また式(5)において「e_x」は速度ベクトル成分Vciの単位ベクトルを示す。なお関節寄与情報算出部11は、特定した関節機構22(j)についての寄与情報を算出するにあたり、力ベクトルfを用いて、特定した関節機構22(j)の関節位置Piと手先位置Pcとを結ぶ直線に直交し手先位置Pcを基点とする力ベクトル成分fciを導出する。そして、関節寄与情報算出部11は、力ベクトル成分fciと所定のゲインGcを用いて、式(6)により角速度移動指令Δθ’diを算出してもよい。式(6)においても「*」はベクトルの内積を示す。また式(6)において「e_x’」は力ベクトル成分fciの単位ベクトルを示す。
Figure JPOXMLDOC01-appb-M000006
 ここで、動作対象となる各関節機構22(j)それぞれに対して特定した移動方向に同じ角速度で移動するよう制御を加えた場合、手先位置Pcから遠い関節機構22は、少し動くだけでも手先位置pcが大きく変動する。そこで関節寄与情報算出部11は、ロボットアーム2の現在の姿勢をもとに、手先位置Pcから目標手先位置Pdに移動させる際の、移動量に対する特定した関節機構22(j)の寄与度を示す寄与情報kiを以下のように算出する(ステップS207)。
Figure JPOXMLDOC01-appb-M000007
 または、手先位置Pcに近い関節機構22(j)の移動量をより多くして、動作対象となる各関節機構22(j)の制御トルクを小さくすることができる。この場合、手先位置Pcに近い動作対象となる関節機構22(j)がより手先位置Pcの移動に寄与するため、式(8)により寄与情報kiを算出してもよい。
Figure JPOXMLDOC01-appb-M000008
 なお上記式(7),(8)における「√(Pd-Pi)」を当該「√(Pd-Pi)」を変数とする関数に置き換えてもよい。そして関節寄与情報算出部11は、特定した関節機構22の寄与情報kiを制御指示部12へ出力する。
 制御指示部12は、特定した関節機構22(j)の寄与情報を用いて、式(9)により制御指示情報θ’control(i)を算出する(ステップS208)。
Figure JPOXMLDOC01-appb-M000009
 制御指示情報θ’control(i)は、「ki・Δθ’di」を含む任意の関数であってもよい。制御指示部12は、特定した関節機構22(j)に対して制御指示情報θ’control(i)を出力する(ステップS209)。制御指示部12は動作対象となる各関節機構22(j)のうち、制御指示情報を算出していない関節機構22(j)があるかを判定する(ステップS210)。制御指示部12は制御指示情報を算出していない関節機構22(j)がある場合、次の関節機構22(j)に対する処理を行うよう関節寄与情報算出部11へ指示する。関節寄与情報算出部11は動作対象となる各関節機構22(j)のうち、寄与情報kiを算出していない関節機構22(j)を示す値をiに設定し、ステップS206からの処理を微小時間ごとに繰り返す。これにより、各関節機構22(j)が動作し、手先位置が目標手先位置Pdへ移動する。制御指示部12は、手先位置Pcが最終目標位置に到達し終了するかを判定する(ステップS211)。制御装置1は最終手先位置に到達するように、目標手先位置Pdを除所にずらして、上記の処理を逐次的に実行することで、手先位置が徐々に動いてき最終目標位置に到達させることが可能となる。
(第三の実施形態)
 第一の実施形態および、第二の実施形態においては、寄与情報の算出において、ある目標位置に移動させるロボットアーム2の対象部位(手先位置Pc)の目標位置までの移動に寄与する各関節機構22(j)の動きの寄与度に基づいて、寄与情報kiを算出している。しかしながら、関節寄与情報算出部11は、寄与情報の算出に、関節機構22(j)が所定量動作する際の力の大きさや、慣性トルクなどの、動作の容易さを示す指標に基づいて目標位置に移動させる対象部位の移動に対する寄与度を示す寄与情報kiを算出してもよい。
 具体的には、関節寄与情報算出部11は、第一の実施形態において算出した制御指示情報θcontrol(i)に基づく実際の関節機構22(J)への制御に対して、実際にその関節機構22(j)が規定の制御時間内で動作した角度θactual(i)の割合を寄与情報kiとして式(10)により算出する。
Figure JPOXMLDOC01-appb-M000010
 上述の式(10)において、関節寄与情報算出部11は、第一の実施形態において算出した制御指示情報θcontrol(i)に代えて、第二の実施形態において算出した制御指示情報θ’control(i)を用いてもよい。また上記式(10)は第一の実施形態において算出した寄与情報kiは、制御指示情報θcontrol(i)に対する制御時間内で動作した角度θactual(i)の比により求めているが、それらの差分により算出してもよいし、当該比や差分を含む任意の関数であってもよい。関節寄与情報算出部11は、寄与情報kiの算出に、制御指示情報θcontrol(i)と、制御時間内で動作した角度θactual(i)とを含む関数を用いてもよい。そして、制御指示部12は、式(10)により得られた寄与情報kiを用いて制御指示情報θcontrol(i)を算出する。
 なお寄与情報は、第一の実施形態や第二の実施形態で算出した寄与情報kiと、第三の実施形態で算出した寄与情報kiの和、積で得られた値や、それら寄与情報を含む関数により算出された値であってもよい。
(第四の実施形態)
 関節寄与情報算出部11は、ある関節機構22(j)の寄与情報k’iの算出に、上述の実施形態で算出した自関節機構22(j)の寄与情報kiと、他の関節機構の寄与情報kの値を用いてもよい。例えば他のj番目の関節機構22(J)の寄与情報をkと表記したとする。この場合、一例としては式(11)により寄与情報k’iを算出する。他の関節機構22(J)はロボットアーム2を構成する全ての関節機構22であってもよいし、寄与情報kiの算出対象の関節機構22の近傍の1つまたは複数の関節機構22であってもよい。なお式(11)においてnはロボットアームを構成する関節機構22の数を示す。
Figure JPOXMLDOC01-appb-M000011
(第五の実施形態)
 上述の実施形態では手先位置Pcを目標手先位置Pdに移動させる場合の例について説明しているが、制御装置1はロボットアーム2の任意の部位の現在位置Peを目標手先位置Pdに移動させる処理を行ってもよい。この場合、上記の処理において手先位置Pcを、任意の部位の現在位置Peに代えて処理を行えばよい。
(第六の実施形態)
 上述の処理において、何れかの関節機構22(j)の動きを妨げる障害物の位置に基づいて、障害物に近い関節機構22の寄与度をより低くした寄与情報を算出してもよい。例えば障害検知部15は、ロボットアーム2の所定位置に設けられた物体検知センサからセンシング情報を取得する。物体検知センサが近接センサである場合、その近接センサの設置位置と、近接センサからのセンシング情報(物体までの距離)などに基づいて、物体の座標を算出する。障害検知部15は、物体検知センサがカメラである場合、そのカメラの設置位置と、カメラから得た撮影画像とに基づいて、物体の座標を算出する。障害検知部15は、物体検知センサが測距センサである場合、その測距センサの設置位置と、当該測距センサから得たセンシング情報(物体までの距離や、距離画像)などに基づいて、物体の座標を算出する。障害検知部15は状態算出部14から各関節機構22(j)の現在位置を取得する。障害検知部15は各関節機構22(j)の現在座標に基づいてリンク21の座標を算出する。障害検知部15は、リンク21や関節機構22(j)の位置と、物体の位置とが所定の距離以下である場合には、その物体が障害物であると判定する。障害検知部15は障害物の位置を関節寄与情報算出部11へ出力する。
 関節寄与情報算出部11は、各関節機構22(j)の位置と、障害物の位置との距離dsiを算出する。そして、関節寄与情報算出部11は、関節機構22(j)の位置と、障害物の位置との距離dsiが近いほど、寄与度が低くなる式(12)を用いて、寄与情報kiを算出する。なお式(12)において、第一の実施形態~第五の実施形態の何れかにおいて算出した寄与情報を、大文字Kを用いてKiとする。
Figure JPOXMLDOC01-appb-M000012
 なお寄与情報kiは、関節機構22(j)の位置と、障害物の位置との距離dsiや、第一の実施形態~第五の実施形態の何れかにおいて算出した寄与情報Kiを用いた関数gを用いて、式(13)により算出してもよい。
Figure JPOXMLDOC01-appb-M000013
 以上の処理によれば、関節機構22(j)の近傍に障害物が有る場合、ロボットアーム2が移動する際に障害の干渉を受ける可能性がある。この場合、障害物の近傍に位置する関節機構22(j)の寄与度を低くして、各関節機構22(j)に対する制御指示情報を算出することで、障害物を回避して、障害物の近傍にない関節機構22(j)をより大きく移動させて、手先位置Pcなどの所定の部位を目標手先位置Pdに移動させることができる。つまりこれは、関節寄与情報算出部11が、障害物の位置情報の変化に基づいて、寄与情報を再計算する処理態様の一例である。
 なお障害検知部15はシステム情報に基づいて障害物の関節機構22(j)やリンク21への接触を検知してもよい。例えば、上述のようにロボットアーム2を制御する間、システム情報取得部13は、各関節機構22(j)のセンサからシステム情報を取得する。センサは、トルクセンサ、モータの角度センサ、モータの角速度センサなどである。システム情報取得部13は、関節機構22(j)にトルクセンサが設けられている場合、当該トルクセンサからトルク値をセンシング情報として取得する。システム情報取得部13は、関節機構22(j)に角度センサが設けられている場合、当該角度センサから関節機構22(j)に備わる各モータの基準位置からの回転角度をセンシング情報として取得する。システム情報取得部13は、関節機構22(j)に角速度センサが設けられている場合、当該角速度センサから関節機構22(j)に備わる各モータの角速度をセンシング情報として取得する。システム情報取得部13は、取得したセンシング情報を障害検知部15へ出力する。
 障害検知部15は、駆動対象の関節機構22(j)の駆動状態を示すシステム情報と、駆動対象の関節機構22(j)に対する制御指示情報との差に基づいて、駆動対象の関節機構22(j)の駆動に対する障害が発生しているかを判定する。例えば制御指示情報には、駆動対象の関節機構22(j)のトルクτdiが含まれている。障害検知部15は、駆動対象の関節機構22(j)に指示したトルクτdiと、その関節機構22(j)から得られたトルク値を比較して、差があるかを判定する。障害検知部15は、駆動対象の関節機構22(j)に指示したトルクτdiと、その関節機構22(j)から得られたトルク値とに所定トルク値以上の差がある場合、その関節機構22(j)に障害が発生していると判定する。障害検知部15は障害の発生している関節機構22(j)のID(識別子)等を関節寄与情報算出部11へ出力する。関節寄与情報算出部11は、当該IDの関節機構22(j)の寄与情報(k)を減少させるように更新する。寄与情報(k)を減少させる幅は、駆動対象の関節機構22(j)に指示したトルクτdiと、その関節機構22(j)から得られたトルク値とに所定トルク値以上の差の大きさに応じた値であってよい。または、寄与情報(k)を減少させる幅は、駆動対象の関節機構22(j)に指示したトルクτdiを含む任意の関数により算出してもよい。制御指示部12は各関節機構22(j)の新たな寄与情報(k)に基づいて、制御指示情報を算出する。
 制御指示情報に各関節機構22(j)に対する角速度や、回転角度が含まれる場合があってよい。この場合には、障害検知部15は、駆動対象の関節機構22(j)に指示した角速度や、回転角度と、その関節機構22(j)から得られた角速度や、回転角度を比較して、差があるかを判定する。障害検知部15は、駆動対象の関節機構22(j)に指示した角速度や、回転角度と、その関節機構22(j)から得られた角速度や、回転角度に所定値以上の差がある場合、その関節機構22(j)に障害が発生していると判定する。そして上記同様に、障害検知部15は障害の発生している関節機構22(j)のID等の識別子を関節寄与情報算出部11へ出力する。関節寄与情報算出部11は、当該IDの関節機構22(j)の寄与情報(k)を0に近づけるように更新し、制御指示部12は各関節機構22(j)の新たな寄与情報(k)に基づいて、制御指示情報を算出する。
 図10は寄与情報の算出例を示す第一の図である。
 図10で示すロボットアーム2は、ロボットアーム2の先端に向かって順にJ,J,Jの各関節機構22を備える。また図10で示すロボットアーム2の動作概要では、現在位置Sから目標位置Gまで手先位置を移動させる場合の理を示している。一例として、時刻t=1のタイミング(5a)では、関節機構22(J)の寄与情報(k)=95、関節機構22(J)の寄与情報(k)=80、関節機構22(J)の寄与情報(k)=60である場合を示す。また時刻t=2のタイミング(5b)では、関節機構22(J)の寄与情報(k)=60、関節機構22(J)の寄与情報(k)=75、関節機構22(J)の寄与情報(k)=55である場合を示す。また時刻t=3のタイミング(5c)では、関節機構22(J)の寄与情報(k)=55、関節機構22(J)の寄与情報(k)=80、関節機構22(J)の寄与情報(k)=55である場合を示す。このようにロボットアーム2を制御装置1が制御している間、関節寄与情報算出部11は、各関節機構22(J)の寄与情報(k)を算出する。この各関節機構22(J)の寄与情報(k)の値は動作状況に応じて変動する。ロボットアーム2の先端部の、現在に手先位置Sから目標位置Gまで移動する際の軌跡は、図10(5c)で示す軌跡R1となる。
 図11は寄与情報の算出例を示す第二の図である。
 時刻t=1のタイミングで図10と同様に制御装置1がロボットアーム2を制御する。そして時刻t=2のタイミングで障害検知部15が、物体Mへの接触による障害発生を検知したとする。この場合、関節寄与情報算出部11は、図11(6b)のタイミングt=2で示すように、関節機構22(J)の寄与情報(k)=5、関節機構22(J)の寄与情報(k)=5、関節機構22(J)の寄与情報(k)=55と更新する。関節寄与情報算出部11は、図11(6c)のタイミングt=3においては、関節機構22(J)の寄与情報(k)=5、関節機構22(J)の寄与情報(k)=5、関節機構22(J)の寄与情報(k)=55と算出する。これにより、ロボットアーム2の手先位置の、現在位置Sから目標位置Gまで移動する際の軌跡は、図11(6c)で示す軌跡R2となる。つまり物体M(障害物)に近い関節機構22(J)の寄与情報が低く算出され、これにより関節機構22(J)の移動量が小さくなり、関節機構22(J)の移動量が大きくなる。図10(5c)で示す軌跡R1と比較して軌跡R2のように軌跡が変更しても、ロボットアーム2の先端部を目標位置Gまで移動させることができる。なおリンク21は、長さを伸縮可能にする伸縮機構を備え、制御装置1は、先端部が目標位置Gに移動できるように何れかのリンク21の伸縮機構を制御してその長さを変更することができてもよい。
 図12は寄与情報の算出例を示す第三の図である。
 時刻t=1のタイミングで図10と同様に、制御装置1がロボットアーム2を制御する。そして時刻t=2のタイミングで障害検知部15が、カメラや測距センサから得た情報に基づいて、物体Mの座標を検知したとする。この場合、制御指示部12は、リンク21や関節機構22の座標が物体の座標に近づくほど、リンク21を動作させる関節機構22や、物体に近づく関節機構22についての寄与情報(k)の値を減じて寄与情報(k)を更新する。一例としては、関節寄与情報算出部11は、図12(7b)のタイミングt=2で示すように、関節機構22(J)の寄与情報(k)=15、関節機構22(J)の寄与情報(k)=15、関節機構22(J)の寄与情報(k)=65と更新する。関節寄与情報算出部11は、図12(7c)のタイミングt=3においては、関節機構22(J)の寄与情報(k)=15、関節機構22(J)の寄与情報(k)=15、関節機構22(J)の寄与情報(k)=55と算出し、この状態で制御指示部12は制御指示情報を算出してロボットアーム2を駆動したとする。これにより、ロボットアーム2の手先位置の、現在位置Sから目標位置Gまで移動する際の軌跡は、図12(7c)で示す軌跡R3となる。図10(5c)で示す軌跡R1や図11で(6c)示す軌跡R2と比較して、軌跡R3のように軌跡が変更しても、ロボットアーム2の先端位置を目標位置Gまで移動させることができる。上述したように、リンク21は、長さを伸縮可能にする伸縮機構を備え、制御装置1は、先端部が目標位置Gに移動できるように何れかのリンク21の伸縮機構を制御してその長さを変更することができてもよい。
 上述の例では、制御装置1は、複数のリンク21と当該複数のリンク21それぞれを連結先に回動自在に連結する関節機構22とを備えたロボットアーム2の関節機構22を駆動制御する場合の例について説明した。しかしながら、制御装置1は、複数の部位の位置関係を移動可能に連結する複数の駆動機構を備えたロボットの当該駆動機構を、上記と同様の処理により駆動制御するものであってもよい。
 この場合、制御装置1は、複数の関節を有する当該駆動機構に接続され、駆動機構の状態や環境を示すシステム情報を取得する。制御装置1は、駆動機構の関節などの所定部位の制御目標を取得し、当該所定部位の制御目標への移動に寄与する寄与度を示す情報を算出する。そして制御装置1は、その寄与度を示す情報に基づいて制御指示情報を算出し、制御指示情報に基づいて駆動機構を制御する。
 図13は制御装置の最小構成を示す図である。
 図14は最小構成の制御装置による処理フローを示す図である。
 複数の関節を有するロボットアーム2に接続された制御装置1は少なくとも、制御目標取得部10と、関節寄与情報算出部11と、制御指示部12と、システム情報取得部13との機能を発揮する。
 システム情報取得部13は、ロボットアーム2の姿勢状態またはロボットアーム2の駆動状態を少なくとも示すシステム情報を取得する(ステップS301)。
 制御目標取得部10は、ロボットアーム2の制御目標を示す制御目標情報を取得する(ステップS302)。
 関節寄与情報算出部11は、制御目標情報に基づくロボットアーム2の駆動に対する関節の寄与を示す指標である寄与情報をシステム情報に基づいて算出する(ステップS303)。
 制御指示部12は、寄与情報に基づいて各関節の駆動の制御に用いる制御指示情報を算出する(ステップS304)。
 上述の制御装置1は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
 また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
1・・・制御装置
10・・・制御目標取得部
11・・・関節寄与情報算出部
12・・・制御指示部
13・・・システム情報取得部
14・・・状態算出部
15・・・障害検知部
2・・・ロボットアーム
21・・・リンク
22・・・関節機構

Claims (7)

  1.  複数の関節を有するロボットアームに接続され、
     前記ロボットアームの姿勢状態または前記ロボットアームの駆動状態を少なくとも示すシステム情報を取得するシステム情報取得部と、
     前記ロボットアームの制御目標を示す制御目標情報を取得する制御目標取得部と、
     前記制御目標情報に基づく前記ロボットアームの駆動に対する前記関節の寄与を示す指標である寄与情報を前記システム情報に基づいて算出する関節寄与情報算出部と、
     前記寄与情報に基づいて前記各関節の駆動の制御に用いる制御指示情報を算出する制御指示部と、
     を備える制御装置。
  2.  前記システム情報は、前記ロボットアームの動きを妨げる障害物の位置情報を含み、
     前記関節寄与情報算出部は、前記障害物の位置情報を用いて前記寄与情報を算出する
     請求項1に記載の制御装置。
  3.  前記関節寄与情報算出部は、前記ロボットアームの前記姿勢状態に基づいて前記寄与情報を算出する
     ことを特徴とする請求項1または請求項2に記載の制御装置。
  4.  前記関節寄与情報算出部は、前記ロボットアームの前記駆動状態に基づいて前記寄与情報を算出する
     ことを特徴とする請求項1から請求項3の何れか一項に記載の制御装置。
  5.  前記関節寄与情報算出部は、障害物の位置情報の変化に基づいて、前記寄与情報を再計算する
     請求項1から請求項4の何れか一項に記載の制御装置。
  6.  複数の関節を有するロボットアームに接続された制御装置が、
     前記ロボットアームの姿勢状態または前記ロボットアームの駆動状態を少なくとも示すシステム情報を取得し、
     前記ロボットアームの制御目標を示す制御目標情報を取得し、
     前記制御目標情報に基づく前記ロボットアームの駆動に対する前記関節の寄与を示す指標である寄与情報を前記システム情報に基づいて算出し、
     前記寄与情報に基づいて前記各関節の駆動の制御に用いる制御指示情報を算出する
     制御方法。
  7.  複数の関節を有するロボットアームに接続された制御装置において、
     前記ロボットアームの姿勢状態または前記ロボットアームの駆動状態を少なくとも示すシステム情報を取得するシステム情報取得機能と、
     前記ロボットアームの制御目標を示す制御目標情報を取得する制御目標取得機能と、
     前記制御目標情報に基づく前記ロボットアームの駆動に対する前記関節の寄与を示す指標である寄与情報を前記システム情報に基づいて算出する関節寄与情報算出機能と、
     前記寄与情報に基づいて前記各関節の駆動の制御に用いる制御指示情報を算出する制御指示機能と、
     を実現させるプログラムが記録された記録媒体。
PCT/JP2019/004710 2019-02-08 2019-02-08 制御装置、制御方法、記録媒体 WO2020161910A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/427,970 US20220009101A1 (en) 2019-02-08 2019-02-08 Control device, control method, and non-transitory recording medium
PCT/JP2019/004710 WO2020161910A1 (ja) 2019-02-08 2019-02-08 制御装置、制御方法、記録媒体
EP19914227.4A EP3922418A4 (en) 2019-02-08 2019-02-08 CONTROL DEVICE, CONTROL METHOD AND RECORDING MEDIA
JP2020570335A JP7160118B2 (ja) 2019-02-08 2019-02-08 制御装置、制御方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/004710 WO2020161910A1 (ja) 2019-02-08 2019-02-08 制御装置、制御方法、記録媒体

Publications (1)

Publication Number Publication Date
WO2020161910A1 true WO2020161910A1 (ja) 2020-08-13

Family

ID=71948191

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/004710 WO2020161910A1 (ja) 2019-02-08 2019-02-08 制御装置、制御方法、記録媒体

Country Status (4)

Country Link
US (1) US20220009101A1 (ja)
EP (1) EP3922418A4 (ja)
JP (1) JP7160118B2 (ja)
WO (1) WO2020161910A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112936260A (zh) * 2021-01-26 2021-06-11 华南理工大学 一种六轴工业机器人无传感器碰撞检测方法及系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441047B2 (ja) * 2020-01-10 2024-02-29 三菱重工業株式会社 経路生成装置、制御装置、検査システム、経路生成方法およびプログラム
JP7375587B2 (ja) * 2020-02-05 2023-11-08 株式会社デンソー 軌道生成装置、多リンクシステム、及び軌道生成方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0768480A (ja) * 1993-09-06 1995-03-14 Mitsubishi Heavy Ind Ltd マニピュレータの関節角度制御方法
US5430643A (en) * 1992-03-11 1995-07-04 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Configuration control of seven degree of freedom arms
JP2009226563A (ja) * 2008-03-25 2009-10-08 Toyota Motor Corp 移動ロボットの制御方法
JP2011502801A (ja) * 2007-11-01 2011-01-27 本田技研工業株式会社 重み行列を用いたリアルタイム自己衝突および障害物回避
JP2012011498A (ja) * 2010-06-30 2012-01-19 Toshiba Corp ロボットアーム操作システムおよびその操作方法
JP2016512733A (ja) * 2013-03-15 2016-05-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド マニピュレータ関節動作を異方的に強調するためにゼロ空間を使用するシステム及び方法
JP2017131990A (ja) 2016-01-26 2017-08-03 トヨタ自動車株式会社 干渉回避方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008004487A1 (fr) * 2006-07-04 2008-01-10 Panasonic Corporation Appareil et procédé de commande de bras robotisé, robot et programme de commande de bras robotisé
KR101633357B1 (ko) * 2010-01-14 2016-06-28 삼성전자 주식회사 매니퓰레이터 및 그 제어방법
JP6137155B2 (ja) * 2014-12-09 2017-05-31 トヨタ自動車株式会社 干渉回避方法、制御装置及びプログラム
JP7058126B2 (ja) * 2018-01-12 2022-04-21 株式会社日立製作所 ロボット制御装置および自動組立システム
JP6857332B2 (ja) * 2018-03-13 2021-04-14 オムロン株式会社 演算装置、演算方法、及びそのプログラム
JP7147571B2 (ja) * 2019-01-15 2022-10-05 オムロン株式会社 経路生成装置、経路生成方法、及び経路生成プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5430643A (en) * 1992-03-11 1995-07-04 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Configuration control of seven degree of freedom arms
JPH0768480A (ja) * 1993-09-06 1995-03-14 Mitsubishi Heavy Ind Ltd マニピュレータの関節角度制御方法
JP2011502801A (ja) * 2007-11-01 2011-01-27 本田技研工業株式会社 重み行列を用いたリアルタイム自己衝突および障害物回避
JP5261495B2 (ja) 2007-11-01 2013-08-14 本田技研工業株式会社 重み行列を用いたリアルタイム自己衝突および障害物回避
JP2009226563A (ja) * 2008-03-25 2009-10-08 Toyota Motor Corp 移動ロボットの制御方法
JP2012011498A (ja) * 2010-06-30 2012-01-19 Toshiba Corp ロボットアーム操作システムおよびその操作方法
JP2016512733A (ja) * 2013-03-15 2016-05-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド マニピュレータ関節動作を異方的に強調するためにゼロ空間を使用するシステム及び方法
JP2017131990A (ja) 2016-01-26 2017-08-03 トヨタ自動車株式会社 干渉回避方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112936260A (zh) * 2021-01-26 2021-06-11 华南理工大学 一种六轴工业机器人无传感器碰撞检测方法及系统

Also Published As

Publication number Publication date
JPWO2020161910A1 (ja) 2021-10-28
JP7160118B2 (ja) 2022-10-25
US20220009101A1 (en) 2022-01-13
EP3922418A1 (en) 2021-12-15
EP3922418A4 (en) 2022-03-02

Similar Documents

Publication Publication Date Title
JP4243309B2 (ja) ロボットアームの制御装置
US10870199B2 (en) Robot system and robot teaching method
US8311731B2 (en) Robots with collision avoidance functionality
JP5261495B2 (ja) 重み行列を用いたリアルタイム自己衝突および障害物回避
US10836042B2 (en) Robot system
WO2020161910A1 (ja) 制御装置、制御方法、記録媒体
EP2781315A1 (en) Robot picking system, control device and method of manufacturing a workpiece
JP2014024162A (ja) ロボットシステム、ロボット制御装置、ロボット制御方法及びロボット制御プログラム
KR102418451B1 (ko) 로봇 제어 시스템
WO2007111252A1 (ja) マニピュレータの制御方法および制御システム
JP5156836B2 (ja) リアルタイム自己衝突および障害物回避
CN108687758B (zh) 机器人的移动速度控制装置及方法
US11654559B2 (en) Global arm path planning with roadmaps and precomputed domains
WO2017175340A1 (ja) 最適化装置及びそれを備えた垂直型多関節ロボット
JP2015174206A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
WO2024050729A1 (en) Robot teleoperation system and method
JP6398777B2 (ja) ロボット制御装置、制御方法、及び制御プログラム
JP7426333B2 (ja) ロボット制御装置
JP2022174858A (ja) 直接教示装置及び直接教示方法
Chaudhry et al. VISUAL CONTROL OF A ROBOTIC MANIPULATOR FOR TRACKING OF AN UNCOOPERATIVE PLATFORM
KR20220159761A (ko) 충돌감지 기능을 갖는 협동로봇 및 협동로봇의 충돌감지 방법
JP2024092449A (ja) ロボットシステム、ロボット制御方法、およびプログラム
JPH08229859A (ja) マスタスレーブマニピュレータの制御装置
CN118354882A (zh) 机器人控制装置、机器人控制系统和机器人控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19914227

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020570335

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019914227

Country of ref document: EP

Effective date: 20210908