WO2020017092A1 - パラメータ同定装置、方法、及びプログラム - Google Patents

パラメータ同定装置、方法、及びプログラム Download PDF

Info

Publication number
WO2020017092A1
WO2020017092A1 PCT/JP2019/009815 JP2019009815W WO2020017092A1 WO 2020017092 A1 WO2020017092 A1 WO 2020017092A1 JP 2019009815 W JP2019009815 W JP 2019009815W WO 2020017092 A1 WO2020017092 A1 WO 2020017092A1
Authority
WO
WIPO (PCT)
Prior art keywords
trajectory
robot
parameter identification
parameter
data
Prior art date
Application number
PCT/JP2019/009815
Other languages
English (en)
French (fr)
Inventor
章洋 鈴村
茜 中島
心一 細見
僚一 倉谷
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to EP19838919.9A priority Critical patent/EP3825075A4/en
Priority to US17/254,322 priority patent/US20210213606A1/en
Priority to CN201980038715.7A priority patent/CN112272601A/zh
Publication of WO2020017092A1 publication Critical patent/WO2020017092A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1607Calculation of inertia, jacobian matrixes and inverses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems

Definitions

  • the present invention relates to a parameter identification device, a parameter identification method, and a parameter identification program.
  • a method for identifying a dynamic model of a robot arm in which a motion equation of a robot arm having multiple degrees of freedom is identified by a sequential identification method.
  • a dynamic characteristic model of a robot arm when a dynamic characteristic model of a robot arm is identified, a target robot is grasped as a set of sub robots having 2 to 4 degrees of freedom, and a motion equation described by a dynamic characteristic parameter derived in advance for the sub robot is used. Arithmetic processing is performed to obtain necessary parameters.
  • the sequential identification method as in the prior art described above is a method in which tests for identifying parameters of a mathematical model are sequentially performed in order from the hand of the robot, and it is a simple method. It is necessary to redesign the identification test procedure every time.
  • the present invention has been made in view of the above points, and an object of the present invention is to provide a parameter identification device, a method, and a program that can speed up parameter identification of a mathematical model of a robot.
  • a parameter identification device is a trajectory generation unit that generates a trajectory of the operation of the robot used for parameter identification of a mathematical model of the robot, the trajectory satisfying the parameter identification condition.
  • a data acquisition unit that acquires data indicating a physical quantity generated when the robot is operated according to the trajectory generated by the trajectory generation unit, the trajectory generated by the trajectory generation unit, and the data acquisition unit
  • An identification unit that identifies parameters of the mathematical model based on the acquired data.
  • the trajectory generation unit generates a trajectory that satisfies the parameter identification condition, the trajectory of the operation of the robot used for parameter identification of the mathematical model of the robot, and the data acquisition unit Acquiring data indicating a physical quantity generated when operating the robot according to the trajectory generated by the trajectory generation unit, the identification unit based on the trajectory generated by the trajectory generation unit and the data acquired by the data acquisition unit Then, the parameters of the mathematical model are identified. This makes it possible to speed up parameter identification of a mathematical model relating to the robot.
  • the trajectory generator can generate the trajectory by motion planning. This makes it possible to easily generate a trajectory used for parameter identification, as compared with a case where an optimal trajectory is derived by nonlinear optimization.
  • the parameter identification device may include a model obtaining unit that receives the mathematical model input or calculates the mathematical model based on the mechanism information of the robot, thereby obtaining the mathematical model. It can be configured to further include.
  • the model acquiring unit can set a value based on a CAD model as an initial estimated solution of the parameter of the mathematical model. Accordingly, when the trajectory is generated by the trajectory generation unit, the set parameters serve as constraints and the search range is limited, so that the generation of the trajectory is faster, and as a result, the parameter identification is also faster. .
  • the trajectory generation unit can generate a trajectory in which the settable maximum speed and acceleration are set. Thereby, the data when the robot is operated so as to exert the maximum torque can be acquired by the data acquisition unit, and the S / N ratio is improved, so that the parameter identification accuracy can be expected to be improved.
  • FIG. 4 is a diagram for explaining a trajectory plan in the first embodiment.
  • 5 is a flowchart illustrating an example of a parameter identification process according to the first embodiment. It is a figure showing the schematic structure of the parameter identification system concerning a 2nd embodiment. It is a functional block diagram of a parameter identification device concerning a 2nd embodiment. It is a figure for explaining the plan of the track in a 2nd embodiment. It is a figure for explaining the plan of the track in a 2nd embodiment. It is a flow chart which shows an example of parameter identification processing in a 2nd embodiment. It is a functional block diagram of a parameter identification device concerning a 3rd embodiment. It is a figure for explaining the plan of the track in a 3rd embodiment. It is a figure for explaining the plan of the track in a 3rd embodiment.
  • a parameter identification system 100 includes a parameter identification device 10, a robot control device 12, and a robot 16.
  • the robot control device 12 controls the operation of the robot 16 according to the trajectory data generated by the parameter identification device 10.
  • the parameter identification device 10 plans a path from the specified start posture to the end posture, and generates trajectory data.
  • the posture of the robot 16 at each time when the reference position of the hand of the robot 16 (the side on which a tool such as a robot hand is attached) from an arbitrary start point to an end point is arranged in time series.
  • the result is called a "path".
  • the posture of the robot 16 is determined from the first joint to the Nth joint of the robot 16 on the assumption that the reference position of the hand of the robot 16 is at a certain position (x, y, z) and posture (roll, pitch, yaw). (J1, J2,..., JN) of the values (rotation angles) of each joint up to (N is the number of robot joints).
  • a “path” obtained by adding a speed and an acceleration for changing the posture of the robot 16 to a “path” is referred to as a “path”.
  • the parameter section is composed of a combination of physical parameters such as the mass and the position of the center of gravity, and it is difficult to derive the general purpose, and it is necessary to derive again for each robot.
  • the value to be identified is a value of a combination of physical parameters, and there is a drawback that values such as a mass and a center of gravity cannot be directly obtained. Further, in the sequential identification method, there is a problem that an identification error easily accumulates until a final parameter is identified from a parameter identified for each link.
  • the identifiability is a property that the data matrix W should have in order to perform parameter identification with high accuracy.
  • an index of the identifiability is calculated as an evaluation function for the data matrix W, and the data matrix W having the best evaluation function is determined by nonlinear optimization. Derived and selected as W opt .
  • the calculation cost of this non-linear optimization is very high, and especially, as the size of W (the number of data points constituting the trajectory) increases, the calculation cost becomes enormous.
  • trajectory data generated by motion planning is used as a data matrix W opt not only with nonlinear optimization but also with identifiability, . This speeds up the generation of the trajectory data serving as the data matrix W opt, and as a result, speeds up the parameter identification.
  • the trajectory data generation unit 52 is a trajectory of the operation of the robot 16 used for identifying the parameters of the robot model 58 based on the mechanism information of the robot 16, the obstacle information, and the robot model 58. Trajectory data indicating a trajectory that is satisfied and does not interfere with the obstacle and the robot 16 is generated.
  • the trajectory data generation unit 52 includes, as functional components, a trajectory planning unit 52A and an identification condition determination unit 52B, and makes the trajectory planning unit 52A and the identification condition determination unit 52B function. Generate orbit data.
  • the sample point P3 has a better identifiability index than the sample point P2, and the sample point P3 is determined as the “next point”.
  • a method of determining the sampling points other than completely random determination, it is possible to use a identifiable information to narrow the sampling range. It is also possible to devise a method of weighting sampling to an area having a high possibility of good identifiability or an area having a low possibility of collision with an obstacle based on past sampling information.
  • the orbit data generation unit 52 sets the “next point” as a new point of interest, as shown in FIG. 9, and repeats the above processing.
  • sample points P5 to P9 are generated, sample points P5, P6, and P9 that interfere with an obstacle are excluded, and the sample point P8 having the best identifiability index is set to “next”.
  • the trajectory data generation unit 52 causes the trajectory planning unit 52A to function to generate a trajectory that connects the already planned trajectory and the sample point determined as the “next point”, as shown in FIG.
  • the trajectory data generating unit 52 plans the final trajectory by repeating the above processing until the “next point” reaches the end point.
  • the end point may be preferentially determined as the “next point”.
  • planning the trajectory while sequentially selecting the sample points with the best identifiability index corresponds to planning the trajectory satisfying the parameter identification condition.
  • a trajectory is generated such that the trajectory is generated once away from the start point and the end point, and then returns to the end point.
  • the trajectory data generation unit 52 generates, as trajectory data, a list of the posture indicated by each sample point constituting the trajectory planned by the trajectory planning unit 52A, and the speed and acceleration set between the postures.
  • the trajectory data generation unit 52 outputs the generated trajectory data to the robot control device 12.
  • the data acquisition unit 54 acquires data indicating a physical quantity generated when the robot 16 is operated by the robot control device 12 according to the trajectory data generated by the trajectory data generation unit 52. Specifically, the data obtaining unit 54 obtains data of each posture and the speed and acceleration between the postures when the robot 16 operates. Further, the data acquisition unit 54 acquires the torque of each joint from the output of a motor for driving each joint of the robot 16 and the like. In addition, the data of the attitude, the speed, and the acceleration may obtain the trajectory data generated by the trajectory data generation unit 52. The data acquisition unit 54 transfers the acquired data to the identification unit 56.
  • the robot model 58 includes, for example, a parametric model using an equation of motion, a non-parametric model such as a Gaussian process model and a neural network model, and a semi-parametric model that is a hybrid of a parametric model and a non-parametric model.
  • a model may be used.
  • a dynamic model of the robot 16 not only a dynamic model of the robot 16 but also a kinematic model may be used.
  • a mathematical model including a tool such as a robot hand attached to the tip of the robot 16 and a load of the robot 16 such as a work held by the tool may be used. In this case, in addition to the mechanism information of the robot 16, the mechanism information of the load is also input.
  • the present invention can be used for measuring the physical characteristics of the load, and the physical parameters of the load can be used. This eliminates the need to prepare in advance.
  • FIG. 12 is a flowchart showing a flow of a parameter identification process executed by the CPU 32 of the parameter identification device 10.
  • the CPU 32 reads the parameter identification program from the storage device 36, expands the program in the memory 34, and executes the program.
  • the CPU 32 functions as each functional configuration of the parameter identification device 10, and the parameter identification process illustrated in FIG. 12 is executed.
  • step S12 the trajectory data generator 52 acquires the mechanism information of the robot 16 and the information of the obstacle.
  • the trajectory data generation unit 52 receives the start posture and the end posture of the generated trajectory.
  • the start posture and the end posture can be input to the parameter identification device 10 by specifying an arbitrary posture by an operator or the like.
  • the trajectory planning unit 52A arranges the start posture as the start point and the end posture as the end point in the configuration space which is a set of all possible postures of the robot 16.
  • step S16 the trajectory planning unit 52A sets the starting point to the first point of interest P.
  • step S18 the trajectory planning unit 52A randomly generates sample points as candidates for the next point Pnext connected to the point of interest P around the point of interest P. Then, the trajectory planning unit 52A sets the speed and the acceleration between the point of interest P and each sample point.
  • step S22 the trajectory planning unit 52A plans a trajectory connecting the point of interest P and the Pnext determined in step S20.
  • step S24 the trajectory data generator 52 determines whether Pnext determined in step S20 is the end point. If Pnext is not the end point, the process proceeds to step S26, where the trajectory data generation unit 52 sets Pnext to a new point of interest P, and returns to step S18. On the other hand, when Pnext is the end point, the process proceeds to step S28.
  • step S28 the trajectory data generation unit 52 generates trajectory data indicating the trajectory planned by the trajectory planning unit 52A, and outputs the generated trajectory data to the robot control device 12.
  • the robot controller 12 operates the robot 16 according to the trajectory data generated by the trajectory data generator 52.
  • step S30 the data acquisition unit 54 acquires data of each posture and the speed and acceleration between the postures when the robot 16 operates. Further, the data acquisition unit 54 acquires the torque of each joint from the output of a motor for driving each joint of the robot 16 and the like.
  • the parameter identification device sets the trajectory data for identifying the parameters of the robot model by the collective identification method so that the identifiability becomes the best. , Generated by motion planning. As a result, not only can the time required for identification when identifying the parameters of the mathematical model relating to the robot be increased, but also the time required for planning the identification operation can be increased. As a result, identification of robot parameters necessary for high-speed and high-precision positioning and operation planning functions can be performed at high speed without imposing a load on the user.
  • the parameter identification device since the parameter identification device according to the first embodiment searches for a trajectory while determining interference with an obstacle, the parameter identification device of the mathematical model relating to the robot is speeded up even in an environment where an obstacle exists. be able to. Such an advantage is particularly effective, for example, in a situation where the robot is already installed in an obstacle environment.
  • the parameter identification system 200 includes a parameter identification device 210, a robot control device 12, a robot 16, and an image sensor 18.
  • the image sensor 18 is a sensor that detects environmental information such as obstacles around the robot 16 and includes a camera and an image processing unit.
  • the image sensor 18 photographs the periphery of the robot 16 with a camera, and the image processing unit calculates information including the position and shape of an obstacle around the robot from the photographed image.
  • the image sensor 18 outputs information on the calculated obstacle.
  • the sensor that detects the information on the obstacle is not limited to the image sensor 18, and another sensor that can detect environmental information, such as a laser radar, may be used.
  • the hardware configuration of the parameter identification device 210 according to the second embodiment is the same as the hardware configuration of the parameter identification device 10 according to the first embodiment shown in FIG.
  • FIG. 14 is a block diagram illustrating an example of a functional configuration of the parameter identification device 210.
  • the parameter identification device 210 includes, as functional components, a trajectory data generation unit 252, a data acquisition unit 54, an identification unit 56, and a model calculation unit 60.
  • Each functional configuration is realized by the CPU 32 reading out the parameter identification program stored in the storage device 36, developing it in the memory 34, and executing it.
  • the trajectory data generator 252 is an example of the trajectory generator of the present invention
  • the model calculator 60 is an example of the model acquisition unit of the present invention.
  • the model calculating unit 60 receives the mechanism information of the robot 16 and calculates the robot model 58 using the received mechanism information.
  • Various models can be applied to the robot model 58, as in the first embodiment. Therefore, the model calculation unit 60 only needs to calculate the robot model 58 by a calculation method corresponding to the model to be applied. .
  • the trajectory data generation unit 252 generates trajectory data indicating a trajectory that satisfies the parameter identification condition and does not interfere with the obstacle, similarly to the trajectory data generation unit 52 of the first embodiment. At this time, the trajectory data generation unit 252 acquires information on obstacles around the robot 16 from the image sensor 18 instead of CAD data or the like input in advance. As a result, it is possible to acquire information on an obstacle that is more suitable for an actual situation.
  • the trajectory data generation unit 252 includes, as functional components, a trajectory planning unit 252A and an identification condition determination unit 252B, and causes the trajectory planning unit 252A and the identification condition determination unit 252B to function, and Generate
  • the trajectory planning unit 252A plans a path that is a series of postures of the robot 16 from a specified starting posture (start point) to an end posture (end point) by motion planning of an optimization method such as STOMP.
  • the trajectory planning unit 252A plans a trajectory in which information on speed and acceleration for changing the posture of the robot 16 is added to the planned route.
  • the identification condition determination unit 252B calculates an identifiability index for each of the plurality of trajectories planned by the trajectory planning unit 252A, and selects a trajectory that satisfies the parameter identification condition using the calculated identifiability index.
  • the trajectory data generation unit 52 causes the trajectory planning unit 252A to function and stores the designated starting point in the configuration space, which is a set of all possible postures of the robot 16. And an end point, and connect the start point and the end point.
  • the trajectory data generation unit 252 causes the trajectory planning unit 252A to function, and randomly plans a plurality of paths connecting arbitrary plural points between the start point and the end point, as shown in FIG.
  • the trajectory planning unit 252A sets a speed and an acceleration for changing the attitude for each planned route, and plans a trajectory.
  • the trajectory data generation unit 252 causes the identification condition determination unit 252B to function, and excludes a trajectory that causes interference with an obstacle from a plurality of trajectories planned by the trajectory planning unit 252A. In the example of FIG. 16, the trajectory indicated by the dotted line is excluded.
  • the identification condition determination unit 252B calculates the identifiability index for each of the remaining trajectories using the posture indicated by each point from the start point to the end point constituting the trajectory, and the values of the speed and acceleration between the postures. I do.
  • the identification condition determination unit 252B selects the trajectory with the calculated best identifiability index.
  • the trajectory indicated by the solid line represents the trajectory having the best identifiability index
  • the trajectory indicated by the broken line does not cause interference with the obstacle, but has the identifiability index not the best. Is represented.
  • selecting a trajectory having the best identifiability index from a plurality of planned trajectories corresponds to planning a trajectory satisfying the parameter identification condition.
  • the trajectory data generation unit 252 generates, as trajectory data, a list of the posture indicated by each point constituting the trajectory selected by the identification condition determination unit 252B, and the velocity and acceleration set between the postures.
  • the trajectory data generator 252 outputs the generated trajectory data to the robot controller 12.
  • the parameter identification device 210 executes a parameter identification process shown in FIG.
  • step S212 the trajectory data generation unit 252 acquires the mechanism information of the robot 16.
  • step S42 the model calculation unit 60 calculates the robot model 58 using the mechanism information of the robot 16 received in step S212.
  • step S44 the trajectory data generation unit 252 acquires information on obstacles around the robot 16 from the image sensor 18.
  • step S14 the trajectory data generation unit 252 receives the start and end postures of the trajectory to be generated, and the trajectory planning unit 252A starts the trajectory in the configuration space, which is a set of all possible postures of the robot 16.
  • the posture is set as the start point and the end posture is set as the end point.
  • step S46 the trajectory planning unit 252A randomly plans a plurality of routes connecting arbitrary plural points between the start point and the end point.
  • the trajectory planning unit 252A sets a speed and an acceleration for changing the attitude for each planned route, and plans a trajectory.
  • step S220 the identification condition determination unit 252B excludes a trajectory that causes interference with an obstacle from the plurality of trajectories planned in step S46. Then, the identification condition determination unit 252B calculates the identifiability index for each of the remaining trajectories, and selects the trajectory with the best identifiability index.
  • the parameters of the robot model 58 are identified using the trajectory data indicating the selected trajectory, and the parameter identification processing ends.
  • the parameter identification device sets the trajectory data for identifying the parameters of the robot model by the collective identification method so that the identifiability is the best. , Generated by motion planning. Thereby, the identification of the parameters of the mathematical model relating to the robot can be speeded up. As a result, functions that require a mathematical model related to the robot, such as positioning and operation planning, can be sped up.
  • the parameter identification device also performs interference determination with an obstacle at the time of trajectory planning. Therefore, even in an environment where an obstacle is present, identification of a parameter of a mathematical model of a robot is speeded up. can do.
  • the parameter identification device can construct an obstacle environment in real time by acquiring obstacle information from the image sensor. Accordingly, it is not necessary to prepare CAD data or the like of the equipment in advance, and it is possible to reduce trouble such as changing the CAD data and acquiring the data again due to equipment change or the like.
  • the case where the method of acquiring obstacle information from the image sensor is combined with the trajectory data generator 252 is described.
  • the method may be combined with the trajectory data generator 52 of the first embodiment.
  • the case of combining the method of acquiring obstacle information from the image sensor and the trajectory data generation unit 252 has been described, but the method of acquiring obstacle information from CAD data and the trajectory data generation The unit 252 may be combined.
  • the parameter identification system 300 includes a parameter identification device 10, a robot control device 12, and a robot 16.
  • the hardware configuration of the parameter identification device 310 according to the third embodiment is the same as the hardware configuration of the parameter identification device 10 according to the first embodiment shown in FIG.
  • FIG. 18 is a block diagram showing an example of a functional configuration of the parameter identification device 310.
  • the parameter identification device 310 includes, as functional components, a trajectory data generation unit 352, a data acquisition unit 54, and an identification unit 56.
  • Each functional configuration is realized by the CPU 32 reading out the parameter identification program stored in the storage device 36, developing it in the memory 34, and executing it.
  • the trajectory data generator 352 is an example of the trajectory generator of the present invention.
  • the trajectory data generation unit 352 generates trajectory data indicating a trajectory that satisfies the parameter identification condition and does not interfere with the obstacle, similarly to the trajectory data generation unit 52 of the first embodiment. At this time, the trajectory data generation unit 352 receives the designation of the waypoint and generates trajectory data passing near the waypoint. For the designation of the waypoint, the operator or the like may manually input a posture to be passed when the robot 16 operates.
  • the trajectory data generation unit 352 includes, as functional components, a trajectory planning unit 352A and an identification condition determination unit 52B, and causes the trajectory planning unit 352A and the identification condition determination unit 52B to function and Generate
  • the trajectory planning unit 352A makes a path including a designated start point, a via point, and an end point by motion planning, and plans a trajectory in which information of speed and acceleration for changing the attitude of the robot 16 is added to the planned path. .
  • the trajectory data generation unit 352 causes the trajectory planning unit 352A to function, and arranges the designated start point, waypoint, and end point in the configuration space as shown in FIG. In FIG. 19, the waypoints are indicated by triangular symbols.
  • the trajectory planning unit 352A randomly generates sample points around the waypoint.
  • the trajectory data generation unit 352 causes the identification condition determination unit 52B to function so that the sample point that does not interfere with an obstacle and has the best identifiability index is referred to as “the next point”. Plan your trajectory by selecting as. Thereby, as shown in FIG. 20, a trajectory passing near the designated waypoint (on the waypoint in FIG. 20) is generated.
  • the parameter identification device 310 executes a parameter identification process shown in FIG.
  • step S14 the designation of a via point is accepted together with the start point and the end point, and in step S18, a sample point is generated near the via point.
  • step S18 the designation of a via point is accepted together with the start point and the end point, and in step S18, a sample point is generated near the via point.
  • the parameter identification device sets the trajectory data for identifying the parameters of the robot model by the collective identification method, avoiding interference with obstacles,
  • trajectory data including a designated waypoint is generated at the time of generation by motion planning so that the identifiability is the best.
  • the search range of the trajectory is limited, the search time is shortened, and the parameters are identified using data obtained when performing an operation close to the actual robot operation during operation.
  • improvement in parameter identification accuracy is expected.
  • the generation of the trajectory passing through the waypoint is applied to the configuration of the first embodiment.
  • the generation of the trajectory may be applied to the configuration of the second embodiment.
  • the trajectory planning unit may plan a plurality of routes passing through or near the via point.
  • the trajectory planning unit and the identification condition determination unit plan the trajectory using the motion planning method of generating the trajectory while also performing the interference determination.
  • a motion planning method of planning a trajectory that is not considered may be applied.
  • an interference determination unit that avoids interference with an obstacle may be added separately from the trajectory planning unit and the identification condition determination unit. For example, the planned trajectory is compared with the planned trajectory and the obstacle information, and the trajectory is planned so that the trajectory planning is repeated or the interference with the obstacle is avoided until a trajectory that does not interfere with the obstacle is generated. Or add a process to modify.
  • a value based on the CAD model of the robot may be set as the initial value of the parameter of the robot model.
  • the trajectory data generation unit sets the speed and acceleration of the posture change to the planned route
  • the trajectory that sets the maximum speed and acceleration that can be set based on the mechanism information of the robot May be generated.
  • the robot can be operated so as to exert the maximum torque at each joint.
  • noise is also superimposed on the actually acquired torque data, when the torque is large, the S / N ratio is improved, so that the robot was operated according to the trajectory where the maximum speed and acceleration were set.
  • the present invention is not limited to a vertical articulated robot, and can be applied to any open-loop robot. . Further, the present invention can be applied to a closed loop type robot such as a delta robot. Furthermore, the present invention can be applied to a wide range of robots such as a mobile robot and a mobile manipulator, which are floating link systems in which the pedestal is not fixed.
  • the parameter identification device and the robot control device are separate devices.
  • the parameter identification device may be incorporated in the robot control device.
  • each function configuration of the parameter identification device may be realized by a different device, and the above-described parameter identification processing may be realized by distributed processing.
  • processors other than the CPU may execute the parameter identification processing that the CPU reads and executes the software (program) in each of the above embodiments.
  • a PLD Programmable Logic Device
  • FPGA Field-Programmable Gate Array
  • ASIC Application Specific Integrated Circuit for executing a process for executing Integrated Specialized Circuit.
  • a dedicated electric circuit or the like which is a processor having a circuit configuration designed exclusively is exemplified.
  • the parameter identification process may be executed by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs and a combination of a CPU and an FPGA). Etc.).
  • the hardware structure of these various processors is more specifically an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the program may be recorded on a recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Disk Read Only Memory), and a USB (Universal Serial Bus) memory. Further, the program may be downloaded from an external device via a network.
  • a recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Disk Read Only Memory), and a USB (Universal Serial Bus) memory.
  • the program may be downloaded from an external device via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

ロボットに関する数理モデルのパラメータの同定を高速化する。 軌道データ生成部(52)が、ロボットモデル(58)のパラメータの同定に用いるロボット(16)の動作の軌道であって、パラメータの同定条件を満たす軌道を生成し、データ取得部(54)が、軌道データ生成部52により生成された軌道に従ってロボット(16)を動作させた際に発生するトルクのデータを取得し、同定部(56)が、軌道データ生成部(52)により生成された軌道データと、データ取得部(54)により取得されたデータとに基づいて、ロボットモデル(58)のパラメータを同定する。

Description

パラメータ同定装置、方法、及びプログラム
 本発明は、パラメータ同定装置、パラメータ同定方法、及びパラメータ同定プログラムに関する。
 ロボットやロボットに取り付けたロボットハンドなどのツール、及びツールにより運搬又は加工されるワーク等のロボットに関する数理モデルのパラメータを同定することが行われている。
 一般的に、多自由度のロボットアームの運動方程式を構成するパラメータ部を逐次同定法により同定する場合、対象ロボットの数理モデルにおいて、リンク毎に寄与する主要パラメータ部を特定しておき、ロボットアームの手先から順にそれらのパラメータを求めるよう同定試験を行う。
 例えば、多自由度のロボットアームの運動方程式の同定を逐次同定法により行うロボットアームの動的モデルの同定方法が提案されている。この方法では、ロボットアームの動特性モデルを同定する場合に、対象ロボットを2~4自由度のサブロボットの集合として把握し、サブロボットについて予め導出された動特性パラメータによって記述された運動方程式により演算処理を行って、必要なパラメータを求めている。
特開平6-190754号公報
 上記従来技術のような逐次同定法は、ロボットの手先から順に数理モデルのパラメータを同定する試験を逐次行っていく方法であり、簡便な方法ではあるが、同定試験に時間がかかり、また、ロボット毎に同定試験の手順を再設計する必要がある。
 本発明は、上記の点に鑑みてなされたものであり、ロボットに関する数理モデルのパラメータ同定を高速化することができるパラメータ同定装置、方法、及びプログラムを提供することを目的とする。
 上記目的を達成するために、本発明に係るパラメータ同定装置は、ロボットに関する数理モデルのパラメータ同定に用いる前記ロボットの動作の軌道であって、前記パラメータの同定条件を満たす軌道を生成する軌道生成部と、前記軌道生成部により生成された軌道に従って前記ロボットを動作させる際に発生する物理量を示すデータを取得するデータ取得部と、前記軌道生成部により生成された前記軌道と、前記データ取得部により取得された前記データとに基づいて、前記数理モデルのパラメータを同定する同定部と、を含んで構成されている。
 本発明に係るパラメータ同定装置によれば、軌道生成部が、ロボットに関する数理モデルのパラメータ同定に用いるロボットの動作の軌道であって、パラメータの同定条件を満たす軌道を生成し、データ取得部が、軌道生成部により生成された軌道に従ってロボットを動作させる際に発生する物理量を示すデータを取得し、同定部が、軌道生成部により生成された軌道と、データ取得部により取得されたデータとに基づいて、数理モデルのパラメータを同定する。これにより、ロボットに関する数理モデルのパラメータ同定を高速化することができる。
 前記パラメータの同定条件は、可同定性とすることができる。これにより、パラメータ同定に適した軌道を生成することができる。
 また、本発明に係るパラメータ同定装置において、前記軌道生成部は、前記ロボットが障害物と干渉しない前記軌道を生成することができる。これにより、障害物のある環境下においても、ロボットに関する数理モデルのパラメータ同定を高速化することができる。
 また、前記軌道生成部は、モーションプランニングにより前記軌道を生成することができる。これにより、非線形最適化により最適な軌道を導出する場合に比べ、簡便にパラメータ同定に用いる軌道を生成することができる。
 また、前記軌道生成部は、経由点が指定された場合には、前記経由点を経由する軌道を生成することができる。これにより、軌道の探索範囲が限定されて探索時間が短縮されると共に、運用時の実際のロボットの動作に近い動作を行った際に得られたデータを用いてパラメータ同定を行うことになり、パラメータの同定精度の向上が見込まれる。
 また、本発明に係るパラメータ同定装置は、前記数理モデルの入力を受け付けるか、又は、前記ロボットの機構情報に基づいて、前記数理モデルを算出することにより、前記数理モデルを取得するモデル取得部をさらに含んで構成することができる。
 また、前記モデル取得部は、前記数理モデルのパラメータの初期推定解として、CADモデルに基づく値を設定することができる。これにより、軌道生成部で軌道を生成する際に、設定されたパラメータが制約となって探索範囲が限定されるため、軌道の生成がより高速化され、結果としてパラメータ同定もより高速化される。
 また、前記数理モデルは、前記ロボットの動力学モデル若しくは運動学モデル、又は、前記ロボットの負荷物の動力学モデル若しくは運動学モデルである。このように、本発明は、様々なモデルに適用可能であるため、モデルを用いた様々な機能に利用することができる。
 また、前記物理量を示すデータは、前記ロボットに発生するトルクと、前記ロボット動作時の少なくとも姿勢とを含むデータである。また、前記軌道は、前記ロボットの少なくとも姿勢の系列データであり、前記物理量を示すデータは、前記ロボットに発生するトルクを含むデータとしてもよい。これにより、軌道、モデルのパラメータ、及びトルクで表される方程式に基づいて、パラメータを同定することができる。
 また、前記軌道生成部は、設定可能な最大の速度及び加速度を設定した軌道を生成することができる。これにより、最大のトルクを発揮するようにロボットを動作させたときのデータを、データ取得部で取得することができ、S/N比が向上するため、パラメータの同定精度の向上が見込める。
 また、本発明に係るパラメータ同定方法は、軌道生成部が、ロボットに関する数理モデルのパラメータ同定に用いる前記ロボットの動作の軌道であって、前記パラメータの同定条件を満たす軌道を生成し、データ取得部が、前記軌道生成部により生成された軌道に従って前記ロボットを動作させる際に発生する物理量を示すデータを取得し、同定部が、前記軌道生成部により生成された前記軌道と、前記データ取得部により取得された前記データとに基づいて、前記数理モデルのパラメータを同定する方法である。
 また、本発明に係るパラメータ同定プログラムは、コンピュータを、ロボットに関する数理モデルのパラメータの同定に用いる前記ロボットの動作の軌道であって、前記パラメータの同定条件を満たす軌道を生成する軌道生成部、前記軌道生成部により生成された軌道に従って前記ロボットを動作させる際に発生する物理量を示すデータを取得するデータ取得部、及び、前記軌道生成部により生成された前記軌道と、前記データ取得部により取得された前記データとに基づいて、前記数理モデルのパラメータを同定する同定部として機能させるためのプログラムである。
 本発明に係るパラメータ同定装置、方法、及びプログラムによれば、ロボットに関する数理モデルのパラメータ同定に用いるロボットの動作の軌道として、パラメータの同定条件を満たす軌道を生成することで、ロボットに関する数理モデルのパラメータ同定を高速化することができる。
第1及び第3実施形態に係るパラメータ同定システムの概略構成を示す図である。 第1~第3実施形態に係るパラメータ同定装置のハードウェア構成を示すブロック図である。 逐次同定法を説明するための図である。 一括同定法を説明するための図である。 本実施形態の概要を説明するための図である。 第1実施形態に係るパラメータ同定装置の機能ブロック図である。 第1実施形態における軌道の計画を説明するための図である。 第1実施形態における軌道の計画を説明するための図である。 第1実施形態における軌道の計画を説明するための図である。 第1実施形態における軌道の計画を説明するための図である。 第1実施形態における軌道の計画を説明するための図である。 第1実施形態におけるパラメータ同定処理の一例を示すフローチャートである。 第2実施形態に係るパラメータ同定システムの概略構成を示す図である。 第2実施形態に係るパラメータ同定装置の機能ブロック図である。 第2実施形態における軌道の計画を説明するための図である。 第2実施形態における軌道の計画を説明するための図である。 第2実施形態におけるパラメータ同定処理の一例を示すフローチャートである。 第3実施形態に係るパラメータ同定装置の機能ブロック図である。 第3実施形態における軌道の計画を説明するための図である。 第3実施形態における軌道の計画を説明するための図である。
 以下、本発明の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法及び比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
<第1実施形態>
 図1に示すように、第1実施形態に係るパラメータ同定システム100は、パラメータ同定装置10と、ロボット制御装置12と、ロボット16とを含んで構成される。
 ロボット16は、例えば、3次元空間における動作に必要な6自由度の構成を備えた垂直多関節型のロボットである。なお、ロボット16の自由度は、6自由度に冗長自由度を加えた7自由度としてもよい。ロボット16は、パラメータ同定装置10により生成された軌道データに従って、ロボット制御装置12により制御されて動作する。
 ロボット制御装置12は、パラメータ同定装置10で生成された軌道データに従って、ロボット16の動作を制御する。
 パラメータ同定装置10は、指定された開始姿勢から終了姿勢までの経路を計画し、軌道データを生成する。
 ここで、本実施形態では、ロボット16の手先(ロボットハンドなどのツールが取り付けられる側)の基準位置を、任意の始点から終点まで動作させるときのロボット16の各時刻における姿勢を時系列に並べたものを「経路」と称する。ロボット16の姿勢は、ロボット16の手先の基準位置がある位置(x,y,z)及び姿勢(roll,pitch,yaw)にあると想定した場合の、ロボット16の第一関節から第N関節までの各関節の値(回転角度)の系列(J1,J2,・・・,JN)で表される(Nはロボットの関節数)。
 また、本実施形態では、「経路」に対して、ロボット16の姿勢を変化させる速度及び加速度を付与したものを「軌道」と称する。
 図2は、本実施形態に係るパラメータ同定装置10のハードウェア構成を示すブロック図である。図2に示すように、パラメータ同定装置10は、CPU(Central Processing Unit)32、メモリ34、記憶装置36、入力装置38、出力装置40、光ディスク駆動装置42、及び通信インタフェース(I/F)44を有する。各構成は、バスを介して相互に通信可能に接続されている。
 記憶装置36には、パラメータ同定処理を実行するためのパラメータ同定プログラムが格納されている。CPU32は、中央演算処理ユニットであり、各種プログラムを実行したり、各構成を制御したりする。すなわち、CPU32は、記憶装置36からプログラムを読み出し、メモリ34を作業領域としてプログラムを実行する。CPU32は、記憶装置36に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。
 メモリ34は、RAM(Random Access Memory)により構成され、作業領域として一時的にプログラム及びデータを記憶する。記憶装置36は、ROM(Read Only Memory)、及びHDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
 入力装置38は、例えば、キーボードやマウス等の、各種の入力を行うための装置である。出力装置40は、例えば、ディスプレイやプリンタ等の、各種の情報を出力するための装置である。出力装置40として、タッチパネルディスプレイを採用することにより、入力装置38として機能させてもよい。光ディスク駆動装置42は、各種の記録媒体(CD-ROM又はブルーレイディスクなど)に記憶されたデータの読み込みや、記録媒体に対するデータの書き込み等を行う。
 通信インタフェース44は、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI又はWi-Fi(登録商標)等の規格が用いられる。
 ここで、第1実施形態に係るパラメータ同定装置10の詳細について説明する前に、ロボットに関する数理モデルのパラメータの同定手法及びその問題点と、本実施形態の概要について説明する。
 パラメータの同定手法には、大別して、逐次同定法と、一括同定法とが存在する。
 逐次同定法とは、図3に示すように、ロボットの手先から順に数理モデルのパラメータの同定試験を実施し、逐次同定して行く方法である。逐次同定法では、対象ロボットの数理モデルにおいて、ロボットのリンク毎に寄与する主要パラメータ部を特定しておき、手先から順にそれらのパラメータを求めるように同定試験を行う。このため、リンク毎に同定試験の設計が必要であり、同定動作の計画に時間を要する。また、リンク毎に同定実験が必要であり、同定試験自体にも時間がかかる。さらに、ロボット毎に、各リンクのパラメータ部を特定する作業が必要であり、同定試験の手順について再設計が必要となる。ここで、パラメータ部は、質量や重心位置などの物理パラメータの組み合わせで構成されており、汎用的な導出が難しく、ロボット毎に再導出が必要となる。さらに、同定される値は物理パラメータの組み合わせの値であって、質量や重心位置などの値が直接得られないという欠点がある。また、逐次同定法では、リンク毎に同定したパラメータから最終的なパラメータを同定するまでに、同定誤差が蓄積し易いという問題もある。
 一方、一括同定法では、ロボットに関する数理モデルから、方程式Wβ=ωを導出する。この処理は理論的に確立されており、システマチックに実行することができる。Wは、ロボットの姿勢、速度、及び加速度を含む軌道データを表すデータ行列であり、βは、同定するパラメータベクトルであり、ωは、データ行列Wを構成する軌道でロボットを動作させた場合にロボットの各関節に発生するトルクである。そして、図4に示すように、非線形最適化により生成した軌道データに従ってロボットを動作させた場合に得られる、ロボットの姿勢、速度、加速度、及びトルクのデータを収集し、姿勢、速度、及び加速度のデータから最適なデータ行列Wを構成すると共に、ωにトルクのデータを代入する。そして、min||Wβ-ω||で表される最小二乗問題を解くことにより、パラメータベクトルβを同定する。
 一括同定法によれば、同定試験は1回でよいため、上述した逐次同定法の問題点を解消することができる。しかし、パラメータの同定を適切に行うためには、Wが可同定性の良好な最適なデータ行列であることが必要である。可同定性とは、パラメータ同定を精度良く行うためにデータ行列Wが持つべき性質である。可同定性に関して最適なWを同定に用いるためには、データ行列Wに対して、任意の可同定性の指標を評価関数として算出し、評価関数が最良となるデータ行列Wを非線形最適化により導出し、Woptとして選択する。この非線形最適化の計算コストは非常に高く、特にWのサイズ(軌道を構成するデータ点数)が増加すると、計算コストは膨大になる。
 そこで、本実施形態では、図5に示すように、一括同定法をベースとし、データ行列Woptとして、非線形最適化ではなく、可同定性を加味すると共に、モーションプランニングにより生成した軌道データを用いる。これにより、データ行列Woptとなる軌道データの生成を高速化し、結果として、パラメータの同定を高速化する。
 また、一般的に、モーションプランニングによる軌道データの生成では、ロボット周辺の障害物に干渉しない軌道を示す軌道データが生成される。そのため、障害物が存在する環境下においても、パラメータ同定の実施を高速化することができる。なお、非線形最適化により軌道データを生成する場合において、障害物と干渉しない軌道データを生成するためには、周辺環境をロボットの3次元空間で特定した後、障害物の領域又は障害物と干渉しない領域をロボット姿勢の集合であるコンフィギュレーション空間に射影し、障害物領域を制約として数式表現する必要がある。一般にこの処理には膨大な計算コストが必要となり、障害物環境下における同定動作の高速な計画を難しくしている。
 次に、第1実施形態に係るパラメータ同定装置10の機能構成について説明する。
 図6は、パラメータ同定装置10の機能構成の例を示すブロック図である。図6に示すように、パラメータ同定装置10は、機能構成として、軌道データ生成部52と、データ取得部54と、同定部56とを含む。また、パラメータ同定装置10の所定の記憶領域には、ロボットに関する数理モデルであるロボットモデル58が記憶される。各機能構成は、CPU32が記憶装置36に記憶されたパラメータ同定プログラムを読み出し、メモリ34に展開して実行することにより実現される。なお、軌道データ生成部52は、本発明の軌道生成部の一例であり、データ取得部54は、本発明のデータ取得部の一例であり、同定部56は、本発明の同定部の一例である。
 軌道データ生成部52は、ロボット16の関節配置、リンクの構成、各関節の限界角度、手先の基準位置等のロボット16の機構情報、及びロボット16周辺の障害物の情報を取得する。例えば、軌道データ生成部52は、ロボットのCADデータ、及びロボット16週辺の障害物の形状及び位置を示すCADデータの入力を受け付けることにより、これらの情報を取得する。
 軌道データ生成部52は、ロボット16の機構情報、障害物の情報、及びロボットモデル58に基づいて、ロボットモデル58のパラメータの同定に用いるロボット16の動作の軌道であって、パラメータの同定条件を満たし、かつ障害物とロボット16とが干渉しない軌道を示す軌道データを生成する。
 具体的には、軌道データ生成部52は、機能構成として、軌道計画部52Aと、同定条件判定部52Bとを含み、軌道計画部52Aと、同定条件判定部52Bとを機能させて、上記の軌道データを生成する。
 軌道計画部52Aは、指定されたロボット16の開始姿勢(始点)から終了姿勢(終点)までのロボット16の姿勢の系列である経路を計画する。経路の生成には、従来既知のモーションプランニングの手法を用いることができる。第1実施形態では、RRT、PRMなどのランダムサンプリング手法のモーションプランニングを用いる。また、軌道計画部52Aは、計画した経路に、ロボット16の姿勢を変化させる速度及び加速度の情報を付加した軌道を計画する。
 同定条件判定部52Bは、軌道計画部52Aによって計画される軌道の可同定性を示す指標(以下、「可同定性指標」という)を算出し、算出した可同定性指標を用いて、軌道計画部52Aにより、パラメータ同定条件を満たす軌道が計画されるように制御する。
 より具体的には、軌道データ生成部52は、図7に示すように、軌道計画部52Aを機能させて、ロボット16の取り得る全ての姿勢の集合であるコンフィグレーション空間に、指定された始点及び終点を配置する。図7では、始点及び終点を黒丸で表している。なお、コンフィグレーション空間に配置される各点は、ロボットの姿勢(J1,J2,・・・,JN)を表す。そして、軌道データ生成部52は、軌道計画部52Aを機能させて、始点を最初の注目点に設定し、注目点の周辺に、注目点と接続する「次の点」の候補となるサンプル点をランダムに生成する。図7の例では、始点に対して、サンプル点P1~P4が生成された例を示している。また、軌道計画部52Aは、注目点と各サンプル点間に、注目点が示す姿勢から各サンプル点が示す姿勢まで変化させる際の速度及び加速度を設定する。
 軌道データ生成部52は、同定条件判定部52Bを機能させて、サンプル点の中から、注目点と接続する「次の点」を決定する。具体的には、同定条件判定部52Bは、生成されたサンプル点から、障害物と干渉する姿勢を示すサンプル点を除外する。障害物との干渉は、例えば、取得した障害物の情報に基づいて、コンフィグレーション空間に障害物を示す領域を設定し、注目点とサンプル点とを接続した経路が、その障害物を示す領域にかかるか否かにより判定することができる。また、コンフィグレーション空間上で表現されたロボットの姿勢に対して順運動学(フォワードキネマティクス)計算を行うことによって障害物の存在する作業空間でのロボットの姿勢に変換し、注目点とサンプル点とを接続した経路を動く動作をシミュレーションした場合に、障害物と干渉しているか否かにより判定することもできる。図7の例では、サンプル点P1及びP4が除外される。なお、図7では、網掛けの丸で除外されるサンプル点を表している。以降の図においても同様である。
 また、同定条件判定部52Bは、残ったサンプル点の各々と、注目点とを接続した際の可同定性指標を算出する。可同定性指標は、既に計画済みの軌道(始点から注目点まで軌道)を構成するサンプル点、及び新たなサンプル点の各々が示す姿勢、並びに姿勢間の速度及び加速度の値を用いて算出される指標であり、従来既知の指標を適用することができる。なお、新たなサンプル点と終点とを接続して、始点から終点までの仮の軌道について可同定性指標を算出してもよい。同定条件判定部52Bは、算出した可同定性指標が最良となるサンプル点を、注目点と接続する「次の点」として決定する。図7の例では、サンプル点P2よりもサンプル点P3の方が、可同定性指標が良い値であり、サンプル点P3が「次の点」として決定された場合を示している。また、サンプル点の決定方法として、完全にランダムに決定する以外にも、可同定の情報を利用してサンプリングの範囲を絞るなどの工夫が可能である。また、過去のサンプリング情報に基づいて、可同定性の良い可能性が高い領域や障害物との衝突の可能性が低い領域へのサンプリングに重み付けするなどの工夫も可能である。
 軌道データ生成部52は、軌道計画部52Aを機能させて、図8に示すように、同定条件判定部52Bにより決定された「次の点」を注目点と接続した軌道を計画する。点間の接続は、直線補間や曲線補間など、どのような手法を適用してもよい。なお、図8では、「次の点」として選択されなかったサンプル点を破線の丸(白丸及び網掛けの丸)で表している。以降の図においても同様である。
 軌道データ生成部52は、図9に示すように、「次の点」を新たな注目点に設定し、上記の処理を繰り返す。図9では、サンプル点P3に対して、サンプル点P5~P9が生成され、障害物と干渉するサンプル点P5、P6、及びP9が除外され、可同定性指標が最良のサンプル点P8が「次の点」として決定された例を示している。軌道データ生成部52は、軌道計画部52Aを機能させて、図10に示すように、既に計画済みの軌道と「次の点」に決定されたサンプル点とを接続した軌道を生成する。
 軌道データ生成部52は、図11に示すように、上記の処理を「次の点」が終点に到達するまで繰り返すことで、最終的な軌道を計画する。なお、注目点と終点との距離が所定距離以内となった場合には、終点を優先的に「次の点」に決定するようにすればよい。第1実施形態では、上記のように、可同定性指標が最良となるサンプル点を順次選択しながら軌道を計画することが、パラメータ同定条件を満たす軌道を計画することに相当する。
 なお、本実施形態では、始点と終点とが異なるところに位置する場合について説明するが、始点と終点とを同じ点としてもよい。この場合、可同定性指標の働きにより、一度、始点及び終点から遠ざかるように軌道が生成された後、終点に戻ってくるような軌道が生成される。
 軌道データ生成部52は、軌道計画部52Aにより計画された軌道を構成する各サンプル点が示す姿勢、及び姿勢間に設定した速度及び加速度のリストを軌道データとして生成する。軌道データ生成部52は、生成した軌道データをロボット制御装置12へ出力する。
 データ取得部54は、軌道データ生成部52により生成された軌道データに従ってロボット制御装置12によりロボット16を動作させた場合に発生する物理量を示すデータを取得する。具体的には、データ取得部54は、ロボット16動作時の各姿勢及び姿勢間の速度及び加速度のデータを取得する。また、データ取得部54は、ロボット16の各関節を駆動させるためのモータの出力などから、各関節のトルクを取得する。なお、姿勢、速度、及び加速度のデータは、軌道データ生成部52により生成された軌道データを取得してもよい。データ取得部54は、取得したデータを同定部56へ受け渡す。
 同定部56は、データ取得部54により取得されたデータに基づいて、ロボットモデル58のパラメータを同定する。具体的には、データ取得部54から受け渡されたデータを、上述の方程式Woptβ=ωに代入し、最小二乗法により、パラメータベクトルβを同定する。
 ロボットモデル58は、例えば運動方程式等を用いたパラメトリックなモデル、ガウス過程モデルやニューラルネットワークモデル等のノンパラメトリックなモデル、パラメトリックなモデルとノンパラメトリックなモデルとのハイブリッドであるセミパラメトリックなモデルなど、どのようなモデルであってもよい。また、ロボット16の動力学モデルだけでなく、運動学モデルであってもよい。さらに、ロボット16の手先に取り付けられるロボットハンド等のツール、及びツールによって保持されるワークなどのロボット16の負荷物を含む数理モデルであってもよい。この場合、ロボット16の機構情報に加え、負荷物の機構情報も入力する。
 このように、ロボット16の負荷物を含む数理モデルのパラメータを同定することが可能であるため、負荷物の物理特性を計測する目的で本発明を用いることも可能であり、負荷物の物理パラメータを事前に用意する手間を省くことができる。
 次に、第1実施形態に係るパラメータ同定システム100の作用について説明する。
 図12は、パラメータ同定装置10のCPU32により実行されるパラメータ同定処理の流れを示すフローチャートである。CPU32が記憶装置36からパラメータ同定プログラムを読み出して、メモリ34に展開して実行することにより、CPU32がパラメータ同定装置10の各機能構成として機能し、図12に示すパラメータ同定処理が実行される。
 まず、ステップS12で、軌道データ生成部52が、ロボット16の機構情報及び障害物の情報を取得する。
 次に、ステップS14で、軌道データ生成部52が、生成する軌道の開始姿勢及び終了姿勢を受け付ける。なお、開始姿勢及び終了姿勢は、オペレータ等が任意の姿勢を指定してパラメータ同定装置10に入力可能である。そして、軌道計画部52Aが、ロボット16の取り得る全ての姿勢の集合であるコンフィグレーション空間に、開始姿勢を始点とし、終了姿勢を終点として配置する。
 次に、ステップS16で、軌道計画部52Aが、始点を最初の注目点Pに設定する。
 次に、ステップS18で、軌道計画部52Aが、注目点Pの周辺に、注目点Pと接続する次の点Pnextの候補となるサンプル点をランダムに生成する。そして、軌道計画部52Aは、注目点Pと各サンプル点間に速度及び加速度を設定する。
 次に、ステップS20で、同定条件判定部52Bが、上記ステップS18で生成されたサンプル点から、障害物と干渉する姿勢を示すサンプル点を除外する。そして、同定条件判定部52Bが、残ったサンプル点及び終点の各々と、注目点Pとを接続した際の可同定性指標を算出し、算出した可同定性を示す指標が最良となるサンプル点又は終点を、次の点Pnextとして決定する。
 次に、ステップS22で、軌道計画部52Aが、注目点Pと上記ステップS20で決定されたPnextとを接続した軌道を計画する。
 次に、ステップS24で、軌道データ生成部52が、上記ステップS20で決定されたPnextが終点か否かを判定する。Pnextが終点ではない場合には、ステップS26へ移行し、軌道データ生成部52が、Pnextを新たな注目点Pに設定し、ステップS18に戻る。一方、Pnextが終点の場合には、ステップS28へ移行する。
 ステップS28では、軌道データ生成部52が、軌道計画部52Aにより計画された軌道を示す軌道データを生成し、生成した軌道データをロボット制御装置12へ出力する。
 これにより、ロボット制御装置12が、軌道データ生成部52により生成された軌道データに従ってロボット16を動作させる。
 次に、ステップS30で、データ取得部54が、ロボット16動作時の各姿勢及び姿勢間の速度及び加速度のデータを取得する。また、データ取得部54が、ロボット16の各関節を駆動させるためのモータの出力などから、各関節のトルクを取得する。
 次に、ステップS32で、同定部56が、上記ステップS30で取得されたデータを、上述の方程式Woptβ=ωに代入し、最小二乗法等の同定手法により、パラメータベクトルβを同定し、パラメータ同定処理は終了する。
 以上説明したように、第1実施形態に係るパラメータ同定システムによれば、パラメータ同定装置が、ロボットモデルのパラメータを一括同定法により同定するための軌道データを、可同定性が最良となるように、モーションプランニングにより生成する。これにより、ロボットに関する数理モデルのパラメータを同定する際の、同定に要する時間を高速化するだけなく、同定動作の計画に要する時間を高速化することができる。その結果、高速及び高精度な位置決めや動作計画の機能に必要なロボットパラメータの同定を、ユーザに負荷を与えることなく、高速に実施することができる。
 さらに、第1実施形態に係るパラメータ同定装置は、障害物との干渉判定を行いながら軌道を探索するため、障害物が存在する環境下においても、ロボットに関する数理モデルのパラメータの同定を高速化することができる。このような利点は、例えばロボットが既に障害物環境下に設置された状況において、特に有効となる。
<第2実施形態>
 次に、第2実施形態について説明する。なお、第2実施形態に係るパラメータ同定システムにおいて、第1実施形態に係るパラメータ同定システム100と同一又は等価な構成要素及び部分には同一の参照符号を付与し、詳細な説明を省略する。
 図13に示すように、第2実施形態に係るパラメータ同定システム200は、パラメータ同定装置210と、ロボット制御装置12と、ロボット16と、画像センサ18とを含んで構成される。
 画像センサ18は、ロボット16周辺の障害物等の環境情報を検出するセンサであり、カメラと画像処理部とを含んで構成される。画像センサ18は、カメラによりロボット16周辺を撮影し、画像処理部により、撮影された画像から、ロボット周辺の障害物の位置及び形状を含む情報を算出する。画像センサ18は、算出した障害物の情報を出力する。
 なお、障害物の情報を検出するセンサは画像センサ18の場合に限定されず、レーザレーダなど、環境情報を検出可能な他のセンサを用いてもよい。
 第2実施形態に係るパラメータ同定装置210のハードウェア構成は、図2に示す第1実施形態に係るパラメータ同定装置10のハードウェア構成と同様であるため、説明を省略する。
 次に、第2実施形態に係るパラメータ同定装置210の機能構成について説明する。
 図14は、パラメータ同定装置210の機能構成の例を示すブロック図である。図14に示すように、パラメータ同定装置210は、機能構成として、軌道データ生成部252と、データ取得部54と、同定部56と、モデル算出部60とを含む。各機能構成は、CPU32が記憶装置36に記憶されたパラメータ同定プログラムを読み出し、メモリ34に展開して実行することにより実現される。なお、軌道データ生成部252は、本発明の軌道生成部の一例であり、モデル算出部60は、本発明のモデル取得部の一例である。
 モデル算出部60は、ロボット16の機構情報を受け付け、受け付けた機構情報を用いて、ロボットモデル58を算出する。ロボットモデル58は、第1実施形態と同様に、様々なモデルを適用可能であるため、モデル算出部60は、適用するモデルに対応した算出方法により、ロボットモデル58を算出するものであればよい。
 軌道データ生成部252は、第1実施形態の軌道データ生成部52と同様に、パラメータ同定条件を満たし、かつ障害物と干渉しない軌道を示す軌道データを生成する。この際、軌道データ生成部252は、予め入力されたCADデータ等ではなく、画像センサ18からロボット16周辺の障害物の情報を取得する。これにより、実際の状況により即した障害物の情報を取得することができる。
 具体的には、軌道データ生成部252は、機能構成として、軌道計画部252Aと、同定条件判定部252Bとを含み、軌道計画部252Aと、同定条件判定部252Bとを機能させて、軌道データを生成する。
 軌道計画部252Aは、STOMP等の最適化手法のモーションプランニングにより、指定されたロボット16の開始姿勢(始点)から終了姿勢(終点)までのロボット16の姿勢の系列である経路を計画する。また、軌道計画部252Aは、計画した経路に、ロボット16の姿勢を変化させる速度及び加速度の情報を付加した軌道を計画する。
 同定条件判定部252Bは、軌道計画部252Aによって計画される複数の軌道の各々について可同定性指標を算出し、算出した可同定性指標を用いて、パラメータ同定条件を満たす軌道を選択する。
 より具体的には、軌道データ生成部52は、図15に示すように、軌道計画部252Aを機能させて、ロボット16の取り得る全ての姿勢の集合であるコンフィグレーション空間に、指定された始点及び終点を配置し、始点と終点間を接続する。また、軌道データ生成部252は、軌道計画部252Aを機能させて、図16に示すように、始点と終点との間の任意の複数の点を接続した経路をランダムに複数計画する。また、軌道計画部252Aは、計画した各経路に対して、姿勢を変化させる速度及び加速度を設定し、軌道を計画する。
 軌道データ生成部252は、同定条件判定部252Bを機能させて、軌道計画部252Aにより計画された複数の軌道の中から、障害物との干渉が生じる軌道を除外する。図16の例では、点線で示す軌道が除外される。
 また、同定条件判定部252Bは、残った軌道の各々について、軌道を構成する始点から終点までの各点が示す姿勢、並びに姿勢間の速度及び加速度の値を用いて、可同定性指標を算出する。同定条件判定部252Bは、算出した可同定性指標が最良となる軌道を選択する。図16の例では、実線で示す軌道が、可同定性指標が最良となる軌道を表し、破線で示す軌道は、障害物との干渉は生じていないが、可同定性指標が最良ではない軌道を表している。第2実施形態では、上記のように、複数計画した軌道の中から、可同定性指標が最良となる軌道を選択することが、パラメータ同定条件を満たす軌道を計画することに相当する。
 軌道データ生成部252は、同定条件判定部252Bにより選択された軌道を構成する各点が示す姿勢、及び姿勢間に設定した速度及び加速度のリストを軌道データとして生成する。軌道データ生成部252は、生成した軌道データをロボット制御装置12へ出力する。
 次に、第2実施形態に係るパラメータ同定システム200の作用について説明する。第2実施形態では、パラメータ同定装置210において、図17に示すパラメータ同定処理が実行される。
 まず、ステップS212で、軌道データ生成部252が、ロボット16の機構情報を取得する。
 次に、ステップS42で、モデル算出部60が、上記ステップS212で受け付けられたロボット16の機構情報を用いて、ロボットモデル58を算出する。
 次に、ステップS44で、軌道データ生成部252が、画像センサ18からロボット16周辺の障害物の情報を取得する。
 次に、ステップS14で、軌道データ生成部252が、生成する軌道の開始姿勢及び終了姿勢を受け付け、軌道計画部252Aが、ロボット16の取り得る全ての姿勢の集合であるコンフィグレーション空間に、開始姿勢を始点とし、終了姿勢を終点として配置する。
 次に、ステップS46で、軌道計画部252Aが、始点と終点との間の任意の複数の点を接続した経路をランダムに複数計画する。また、軌道計画部252Aは、計画した各経路に対して、姿勢を変化させる速度及び加速度を設定し、軌道を計画する。
 次に、ステップS220で、同定条件判定部252Bが、上記ステップS46で計画された複数の軌道の中から、障害物との干渉が生じる軌道を除外する。そして、同定条件判定部252Bが、残った軌道の各々について可同定性指標を算出し、可同定性指標が最良となる軌道を選択する。
 以下、第1実施形態と同様に、ステップS28~S32で、選択された軌道を示す軌道データを用いてロボットモデル58のパラメータを同定し、パラメータ同定処理は終了する。
 以上説明したように、第2実施形態に係るパラメータ同定システムによれば、パラメータ同定装置が、ロボットモデルのパラメータを一括同定法により同定するための軌道データを、可同定性が最良となるように、モーションプランニングにより生成する。これにより、ロボットに関する数理モデルのパラメータの同定を高速化することができる。その結果、位置決めや動作計画など、ロボットに関する数理モデルを必要とする機能を高速化することができる。
 また、第2実施形態に係るパラメータ同定装置は、軌道の計画の際に障害物との干渉判定も行うため、障害物が存在する環境下においても、ロボットに関する数理モデルのパラメータの同定を高速化することができる。
 さらに、第2実施形態に係るパラメータ同定装置は、画像センサから障害物の情報を取得することで、リアルタイムで障害物環境の構築を行うことができる。これにより、設備のCADデータ等を事前に用意する必要がなく、また、設備変更等により、CADデータを変更して再度取得する等の手間を削減することができる。
 なお、第2実施形態では、画像センサから障害物の情報を取得する方法と軌道データ生成部252とを組み合わせた場合について説明したが、第1実施形態の軌道データ生成部52と組み合わせてもよい。また、第2実施形態では、画像センサから障害物の情報を取得する方法と軌道データ生成部252とを組み合わせた場合について説明したが、CADデータから障害物の情報を取得する方法と軌道データ生成部252とを組み合わせてもよい。
<第3実施形態>
 次に、第3実施形態について説明する。なお、第3実施形態に係るパラメータ同定システムにおいて、第1実施形態に係るパラメータ同定システム100と同一又は等価な構成要素及び部分には同一の参照符号を付与し、詳細な説明を省略する。
 図1に示すように、第3実施形態に係るパラメータ同定システム300は、パラメータ同定装置10と、ロボット制御装置12と、ロボット16とを含んで構成される。
 第3実施形態に係るパラメータ同定装置310のハードウェア構成は、図2に示す第1実施形態に係るパラメータ同定装置10のハードウェア構成と同様であるため、説明を省略する。
 次に、第3実施形態に係るパラメータ同定装置310の機能構成について説明する。
 図18は、パラメータ同定装置310の機能構成の例を示すブロック図である。図18に示すように、パラメータ同定装置310は、機能構成として、軌道データ生成部352と、データ取得部54と、同定部56とを含む。各機能構成は、CPU32が記憶装置36に記憶されたパラメータ同定プログラムを読み出し、メモリ34に展開して実行することにより実現される。なお、軌道データ生成部352は、本発明の軌道生成部の一例である。
 軌道データ生成部352は、第1実施形態の軌道データ生成部52と同様に、パラメータ同定条件を満たし、かつ障害物と干渉しない軌道を示す軌道データを生成する。この際、軌道データ生成部352は、経由点の指定を受け付け、経由点近傍を経由する軌道データを生成する。経由点の指定は、ロボット16の動作時に通過させたい姿勢をオペレータ等がマニュアルで入力してもよい。
 具体的には、軌道データ生成部352は、機能構成として、軌道計画部352Aと、同定条件判定部52Bとを含み、軌道計画部352Aと、同定条件判定部52Bとを機能させて、軌道データを生成する。
 軌道計画部352Aは、モーションプランニングにより、指定された始点、経由点、及び終点を含む経路をし、計画した経路に、ロボット16の姿勢を変化させる速度及び加速度の情報を付加した軌道を計画する。
 より具体的には、軌道データ生成部352は、軌道計画部352Aを機能させて、図19に示すように、コンフィグレーション空間に、指定された始点、経由点、及び終点を配置する。なお、図19において、経由点を三角の記号で示している。軌道計画部352Aは、経由点周辺にランダムにサンプル点を生成する。また、軌道データ生成部352は、第1実施形態と同様に、同定条件判定部52Bを機能させて、障害物と干渉せず、可同定性指標が最良となるサンプル点を「次の点」として選択することにより、軌道を計画する。これにより、図20に示すように、指定された経由点近傍(図20では経由点上)を通る軌道が生成される。
 次に、第3実施形態に係るパラメータ同定システム300の作用について説明する。第3実施形態では、パラメータ同定装置310において、図12に示すパラメータ同定処理が実行される。
 第3実施形態におけるパラメータ同定処理では、ステップS14において、始点及び終点と共に、経由点の指定を受け付けること、並びに、ステップS18において、経由点近傍にサンプル点を生成することが第1実施形態と異なり、他の処理については第1実施形態と同様であるため、詳細な説明を省略する。
 以上説明したように、第3実施形態に係るパラメータ同定システムによれば、パラメータ同定装置が、ロボットモデルのパラメータを一括同定法により同定するための軌道データを、障害物との干渉を回避し、かつ可同定性が最良となるように、モーションプランニングにより生成する際に、指定された経由点を含む軌道データを生成する。これにより、軌道の探索範囲が限定されて探索時間が短縮されると共に、運用時の実際のロボットの動作に近い動作を行った際に得られたデータを用いてパラメータの同定を行うことになり、パラメータの同定精度の向上が見込まれる。
 なお、第3実施形態では、経由点を経由する軌道を生成することを第1実施形態の構成に適用する場合について説明したが、第2実施形態の構成に適用してもよい。この場合、軌道計画部が、始点と終点との間の任意の複数の点を接続した経路をランダムに複数計画する際に、経由点又は経由点近傍を通る経路を複数計画すればよい。
 また、上記各実施形態では、軌道計画部及び同定条件判定部において、干渉判定も行いつつ軌道を生成するモーションプランニングの手法を用いて軌道を計画する場合について説明したが、障害物との干渉を考慮しない軌道を計画するモーションプランニングの手法を適用してもよい。この場合、軌道計画部及び同定条件判定部とは別に、障害物との干渉を回避する干渉判定部を追加すればよい。例えば、計画された軌道と障害物の情報とを照合し、障害物と干渉しない軌道が生成されるまで、軌道の計画を繰り返したり、障害物との干渉を回避するように、計画された軌道を修正したりする処理を追加する。
 また、上記各実施形態において、ロボットモデルのパラメータの初期値として、ロボットのCADモデルに基づいた値を設定してもよい。これにより、軌道データ生成部で軌道データを生成する際に、設定されたパラメータが制約となって探索範囲が限定されるため、軌道データの生成がより高速化され、結果としてパラメータ同定もより高速化される。
 また、上記各実施形態において、軌道データ生成部で、姿勢変化の速度及び加速度を計画された経路に設定する際に、ロボットの機構情報に基づいて設定可能な最大の速度及び加速度を設定した軌道を生成してもよい。これにより、各関節で最大のトルクを発揮するようにロボットを動作させることができる。実際に取得されるトルクのデータにはノイズも重畳されているが、トルクが大きい場合は、S/N比が向上するため、最大の速度及び加速度が設定された軌道にしたがってロボットを動作させた際に取得されたデータをパラメータの同定に用いることにより、同定精度の向上が見込める。
 また、上記各実施形態では、垂直多関節型のロボットに関する数理モデルのパラメータ同定について説明したが、本発明は、垂直多関節型のロボットに限定されず、任意の開ループ型のロボットに適用できる。また、デルタロボットなどの閉ループ型のロボットに対しても適用できる。さらに、台座が固定されていない浮遊リンク系であるモバイルロボットやモバイルマニピュレータ等、広範なロボットに対しても適用することができる。
 また、上記各実施形態では、パラメータ同定装置とロボット制御装置とを別々の装置とする場合について説明したが、ロボット制御装置内にパラメータ同定装置を組み込む形態としてもよい。また、パラメータ同定装置の各機能構成を、それぞれ異なる装置で実現し、上記のパラメータ同定処理を分散処理により実現してもよい。
 また、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行したパラメータ同定処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、パラメータ同定処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 また、上記各実施形態では、パラメータ同定プログラムが記憶装置に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
10、210、310 パラメータ同定装置
12 ロボット制御装置
16 ロボット
18 画像センサ
32 CPU
34 メモリ
36 記憶装置
38 入力装置
40 出力装置
42 光ディスク駆動装置
44 通信インタフェース
52、252、352 軌道データ生成部
52A、252A、352A 軌道計画部
52B、252B 同定条件判定部
54 データ取得部
56 同定部
58 ロボットモデル
60 モデル算出部
100、200、300 パラメータ同定システム

Claims (13)

  1.  ロボットに関する数理モデルのパラメータ同定に用いる前記ロボットの動作の軌道であって、前記パラメータの同定条件を満たす軌道を生成する軌道生成部と、
     前記軌道生成部により生成された軌道に従って前記ロボットを動作させる際に発生する物理量を示すデータを取得するデータ取得部と、
     前記軌道生成部により生成された前記軌道と、前記データ取得部により取得された前記データとに基づいて、前記数理モデルのパラメータを同定する同定部と、
     を含むパラメータ同定装置。
  2.  前記パラメータの同定条件は、可同定性である請求項1に記載のパラメータ同定装置。
  3.  前記軌道生成部は、前記ロボットが障害物と干渉しない前記軌道を生成する請求項1又は請求項2に記載のパラメータ同定装置。
  4.  前記軌道生成部は、モーションプランニングにより前記軌道を生成する請求項1~請求項3のいずれか1項に記載のパラメータ同定装置。
  5.  前記軌道生成部は、経由点が指定された場合には、前記経由点を経由する軌道を生成する請求項1~請求項4のいずれか1項に記載のパラメータ同定装置。
  6.  前記数理モデルの入力を受け付けるか、又は、前記ロボットの機構情報に基づいて、前記数理モデルを算出することにより、前記数理モデルを取得するモデル取得部を含む請求項1~請求項5のいずれか1項に記載のパラメータ同定装置。
  7.  前記モデル取得部は、前記数理モデルのパラメータの初期推定解として、CADモデルに基づく値を設定する請求項6に記載のパラメータ同定装置。
  8.  前記数理モデルは、前記ロボットの動力学モデル若しくは運動学モデル、又は、前記ロボットの負荷物の動力学モデル若しくは運動学モデルである請求項1~請求項7のいずれか1項に記載のパラメータ同定装置。
  9.  前記物理量を示すデータは、前記ロボットに発生するトルクと、前記ロボット動作時の少なくとも姿勢とを含むデータである
     請求項1~請求項8のいずれか1項に記載のパラメータ同定装置。
  10.  前記軌道は、前記ロボットの少なくとも姿勢の系列データであり、
     前記物理量を示すデータは、前記ロボットに発生するトルクを含むデータである
     請求項1~請求項8のいずれか1項に記載のパラメータ同定装置。
  11.  前記軌道生成部は、設定可能な最大の速度及び加速度を設定した軌道を生成する請求項1~請求項10のいずれか1項に記載のパラメータ同定装置。
  12.  軌道生成部が、ロボットに関する数理モデルのパラメータ同定に用いる前記ロボットの動作の軌道であって、前記パラメータの同定条件を満たす軌道を生成し、
     データ取得部が、前記軌道生成部により生成された軌道に従って前記ロボットを動作させる際に発生する物理量を示すデータを取得し、
     同定部が、前記軌道生成部により生成された前記軌道と、前記データ取得部により取得された前記データとに基づいて、前記数理モデルのパラメータを同定する
     パラメータ同定方法。
  13.  コンピュータを、
     ロボットに関する数理モデルのパラメータの同定に用いる前記ロボットの動作の軌道であって、前記パラメータの同定条件を満たす軌道を生成する軌道生成部、
     前記軌道生成部により生成された軌道に従って前記ロボットを動作させる際に発生する物理量を示すデータを取得するデータ取得部、及び、
     前記軌道生成部により生成された前記軌道と、前記データ取得部により取得された前記データとに基づいて、前記数理モデルのパラメータを同定する同定部
     として機能させるためのパラメータ同定プログラム。
PCT/JP2019/009815 2018-07-17 2019-03-11 パラメータ同定装置、方法、及びプログラム WO2020017092A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19838919.9A EP3825075A4 (en) 2018-07-17 2019-03-11 DEVICE, METHOD AND PROGRAM FOR PARAMETER IDENTIFICATION
US17/254,322 US20210213606A1 (en) 2018-07-17 2019-03-11 Parameter identification apparatus, parameter identification method, and non-transitory computer-readable storage medium storing a parameter identification program
CN201980038715.7A CN112272601A (zh) 2018-07-17 2019-03-11 参数识别装置、方法以及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-134105 2018-07-17
JP2018134105A JP2020011320A (ja) 2018-07-17 2018-07-17 パラメータ同定装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2020017092A1 true WO2020017092A1 (ja) 2020-01-23

Family

ID=69164376

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009815 WO2020017092A1 (ja) 2018-07-17 2019-03-11 パラメータ同定装置、方法、及びプログラム

Country Status (5)

Country Link
US (1) US20210213606A1 (ja)
EP (1) EP3825075A4 (ja)
JP (1) JP2020011320A (ja)
CN (1) CN112272601A (ja)
WO (1) WO2020017092A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022012887A (ja) * 2020-07-02 2022-01-17 株式会社デンソー 動作経路生成装置、動作経路生成方法および動作経路生成プログラム
WO2022191414A1 (en) * 2021-03-10 2022-09-15 Samsung Electronics Co., Ltd. Parameterized waypoint generation on dynamically parented non-static objects for robotic autonomous tasks
US11833691B2 (en) 2021-03-30 2023-12-05 Samsung Electronics Co., Ltd. Hybrid robotic motion planning system using machine learning and parametric trajectories
US11945117B2 (en) 2021-03-10 2024-04-02 Samsung Electronics Co., Ltd. Anticipating user and object poses through task-based extrapolation for robot-human collision avoidance

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7275940B2 (ja) * 2019-07-08 2023-05-18 オムロン株式会社 制御プログラムおよび方法
WO2021033315A1 (ja) * 2019-08-22 2021-02-25 日本電気株式会社 ロボット制御システム、ロボット制御方法、及び、記録媒体
JP7441047B2 (ja) * 2020-01-10 2024-02-29 三菱重工業株式会社 経路生成装置、制御装置、検査システム、経路生成方法およびプログラム
WO2022244060A1 (ja) * 2021-05-17 2022-11-24 日本電気株式会社 動作計画装置、動作計画方法及び記憶媒体
CN113910229B (zh) * 2021-10-14 2023-01-31 库卡机器人制造(上海)有限公司 负载参数识别方法、识别装置、可读存储介质和机器人
CN114179126B (zh) * 2021-12-07 2024-06-18 广东盈峰智能环卫科技有限公司 机械臂在线动力学辨识的方法、设备及存储介质
CN116372939A (zh) * 2023-05-15 2023-07-04 合肥合滨智能机器人有限公司 一种机械臂动力学标准参数的辨识方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04340601A (ja) * 1991-05-17 1992-11-27 Sanyo Electric Co Ltd 逆動力学的モデルの基底パラメ−タの同定方法
JPH05250005A (ja) * 1992-03-09 1993-09-28 Nippon Telegr & Teleph Corp <Ntt> 補償トルク算出方法
JPH05277976A (ja) * 1992-03-31 1993-10-26 Nippon Telegr & Teleph Corp <Ntt> 動力学モデルパラメータ同定装置
JPH06190754A (ja) 1991-04-26 1994-07-12 Toshiba Corp ロボットアームの動的モデルの同定方法
WO2006117022A1 (en) * 2005-05-02 2006-11-09 Abb Research Ltd A method for control of an industrial robot
DE102006055917A1 (de) * 2006-11-27 2008-06-12 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Erkennen eines ungenau parametrierten Robotermodells
US20150100156A1 (en) * 2012-06-26 2015-04-09 Ingvar Jonsson Adjusting Parameters Of A Dynamical Robot Model
JP2015532219A (ja) * 2012-10-19 2015-11-09 イノス オートメーションズソフトウェア ゲーエムベーハー 産業用ロボットのインライン較正方法、その方法を実行する較正システム及びその較正システムを備える産業用ロボット

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620477B2 (en) * 2006-07-05 2009-11-17 Battelle Energy Alliance, Llc Robotic intelligence kernel
JP6511806B2 (ja) * 2014-12-25 2019-05-15 シンフォニアテクノロジー株式会社 多関節ロボット及び多関節ロボットの制御方法
JP6752615B2 (ja) * 2015-07-29 2020-09-09 キヤノン株式会社 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム
US9981383B1 (en) * 2016-08-02 2018-05-29 X Development Llc Real-time trajectory generation for actuators of a robot to reduce chance of collision with obstacle(s)
CN107703756B (zh) * 2017-11-03 2021-03-02 广州视源电子科技股份有限公司 动力学模型参数辨识方法、装置、计算机设备及存储介质
CN108237534B (zh) * 2018-01-04 2020-04-03 清华大学深圳研究生院 一种连续型机械臂的空间避障轨迹规划方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06190754A (ja) 1991-04-26 1994-07-12 Toshiba Corp ロボットアームの動的モデルの同定方法
JPH04340601A (ja) * 1991-05-17 1992-11-27 Sanyo Electric Co Ltd 逆動力学的モデルの基底パラメ−タの同定方法
JPH05250005A (ja) * 1992-03-09 1993-09-28 Nippon Telegr & Teleph Corp <Ntt> 補償トルク算出方法
JPH05277976A (ja) * 1992-03-31 1993-10-26 Nippon Telegr & Teleph Corp <Ntt> 動力学モデルパラメータ同定装置
WO2006117022A1 (en) * 2005-05-02 2006-11-09 Abb Research Ltd A method for control of an industrial robot
DE102006055917A1 (de) * 2006-11-27 2008-06-12 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Erkennen eines ungenau parametrierten Robotermodells
US20150100156A1 (en) * 2012-06-26 2015-04-09 Ingvar Jonsson Adjusting Parameters Of A Dynamical Robot Model
JP2015532219A (ja) * 2012-10-19 2015-11-09 イノス オートメーションズソフトウェア ゲーエムベーハー 産業用ロボットのインライン較正方法、その方法を実行する較正システム及びその較正システムを備える産業用ロボット

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3825075A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022012887A (ja) * 2020-07-02 2022-01-17 株式会社デンソー 動作経路生成装置、動作経路生成方法および動作経路生成プログラム
JP7400644B2 (ja) 2020-07-02 2023-12-19 株式会社デンソー 動作経路生成装置、動作経路生成方法および動作経路生成プログラム
WO2022191414A1 (en) * 2021-03-10 2022-09-15 Samsung Electronics Co., Ltd. Parameterized waypoint generation on dynamically parented non-static objects for robotic autonomous tasks
US11945117B2 (en) 2021-03-10 2024-04-02 Samsung Electronics Co., Ltd. Anticipating user and object poses through task-based extrapolation for robot-human collision avoidance
US11833691B2 (en) 2021-03-30 2023-12-05 Samsung Electronics Co., Ltd. Hybrid robotic motion planning system using machine learning and parametric trajectories

Also Published As

Publication number Publication date
EP3825075A4 (en) 2021-12-01
CN112272601A (zh) 2021-01-26
JP2020011320A (ja) 2020-01-23
EP3825075A1 (en) 2021-05-26
US20210213606A1 (en) 2021-07-15

Similar Documents

Publication Publication Date Title
WO2020017092A1 (ja) パラメータ同定装置、方法、及びプログラム
JP7222803B2 (ja) 軌道計画装置、軌道計画方法及びプログラム
US11331803B2 (en) Mixed reality assisted spatial programming of robotic systems
Eski et al. Fault detection on robot manipulators using artificial neural networks
Wang et al. Nonparametric statistical learning control of robot manipulators for trajectory or contour tracking
EP3888859A1 (en) Control device, control method, and control program
TW201521929A (zh) 雷射加工機操作的控制方法及用以控制雷射加工機之第1致動器操作之控制器
US20180036883A1 (en) Simulation apparatus, robot control apparatus and robot
Zhao et al. Efficient trajectory optimization for robot motion planning
Preiss et al. Trajectory Optimization for Self-Calibration and Navigation.
JP2018030210A (ja) シミュレーション装置、制御システム、ロボットシステム、シミュレーション方法、プログラム及び記録媒体
Urrea et al. Design and validation of a dynamic parameter identification model for industrial manipulator robots
RU2308764C2 (ru) Перемещение виртуального сочлененного объекта в виртуальном пространстве с предотвращением столкновений сочлененного объекта с элементами окружающего пространства
CN112672857A (zh) 路径生成装置、路径生成方法及路径生成程序
Roque et al. Fast model predictive image-based visual servoing for quadrotors
Brito et al. Dynamic collision avoidance system for a manipulator based on RGB-D data
WO2021075380A1 (ja) 干渉評価装置、方法、及びプログラム
Li et al. Dual loop compliant control based on human prediction for physical human-robot interaction
Emde et al. Validating a simulation of a single ray based laser scanner used in mobile robot applications
US20170004237A1 (en) Simulation method and simulation apparatus
Pyrhönen et al. Inertial parameter identification for closed-loop mechanisms: Adaptation of linear regression for coordinate partitioning
Balakirsky et al. From simulation to real robots with predictable results: methods and examples
US11697206B2 (en) Acceleration adjustment apparatus and non-transitory computer-readable storage medium storing an acceleration adjustment program
Zhang et al. Using simulation to design an MPC policy for field navigation using GPS sensing
Boeuf Kinodynamic motion planning for quadrotor-like aerial robots

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19838919

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019838919

Country of ref document: EP

Effective date: 20210217