WO2022054292A1 - ロボット制御装置 - Google Patents

ロボット制御装置 Download PDF

Info

Publication number
WO2022054292A1
WO2022054292A1 PCT/JP2020/034761 JP2020034761W WO2022054292A1 WO 2022054292 A1 WO2022054292 A1 WO 2022054292A1 JP 2020034761 W JP2020034761 W JP 2020034761W WO 2022054292 A1 WO2022054292 A1 WO 2022054292A1
Authority
WO
WIPO (PCT)
Prior art keywords
correction
reliability
robot
command value
calculation unit
Prior art date
Application number
PCT/JP2020/034761
Other languages
English (en)
French (fr)
Inventor
浩司 白土
卓矢 岡原
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112020007606.7T priority Critical patent/DE112020007606B4/de
Priority to JP2022547375A priority patent/JP7301238B2/ja
Priority to US18/010,810 priority patent/US20230286150A1/en
Priority to PCT/JP2020/034761 priority patent/WO2022054292A1/ja
Priority to CN202080102469.XA priority patent/CN116075399A/zh
Publication of WO2022054292A1 publication Critical patent/WO2022054292A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39001Robot, manipulator control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39298Trajectory learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39529Force, torque sensor in wrist, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40519Motion, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40584Camera, non-contact sensor mounted on wrist, indep from gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/405866-DOF force sensor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Definitions

  • This disclosure relates to a robot control device that controls a robot.
  • high-precision positioning control is performed based on the position information output from the encoder.
  • robot control utilizing a vision sensor or a force sensor has been applied as an external sensor in order to deal with a positioning error caused by a change in a lot of workpieces. While control corresponding to such fluctuations in the positioning accuracy of the work has been proposed, high-precision control may be difficult because the signal level of the sensor detection signal is not stable due to the influence of disturbance or the like.
  • Patent Document 1 describes by weighting and averaging a plurality of data output by the vision sensor based on the reliability of each data and modifying the operation command of the manipulator using the obtained data. A technique for achieving high control accuracy is disclosed.
  • Patent Document 1 In a robot control device that operates a robot based on a sensor signal indicating the measurement result by a sensor, it is expected that the behavior is autonomously changed based on the sensor signal.
  • the technique described in Patent Document 1 is for weighting and averaging a plurality of data obtained from sensors in time series, but a plurality of sensors are installed in a robot system and data output by each sensor (sensor). High-precision control can be expected even when the signal) is weighted and averaged and used for control.
  • the operation when a plurality of sensors of the same type are used, if the operation is controlled based only on the sensor signal output by each sensor, the operation may not be stable. For example, due to a disturbance such as a change in ambient light, all sensor signals may not be output normally.
  • the present disclosure has been made in view of the above, and is a robot that controls a robot with high accuracy in a robot system utilizing sensor signals and realizes robot operation without deteriorating production efficiency in the production system.
  • the purpose is to obtain a control device.
  • the robot control device obtains a feature amount obtained from a sensor signal indicating a measurement result by an external sensor installed in the main body of the robot or the surrounding environment of the robot. It is provided with a reliability calculation unit that inputs and calculates the reliability of the sensor signal based on the temporal change or the spatial change of the feature amount. Further, the robot control device is predetermined as a correction command value calculation unit that calculates the trajectory correction amount for correcting the robot trajectory based on the reliability and the correction information calculated based on the feature amount. It is provided with a target trajectory of the robot and a command value generation unit that generates a position command value for the robot based on the trajectory correction amount.
  • the robot control device has the effect of improving the accuracy of robot control and preventing a decrease in production efficiency in a production system.
  • FIG. 10 is a diagram showing an example of the relationship between the target trajectory of the robot, the actual trajectory, and the correction information in the robot system shown in FIG.
  • FIG. 12 is a diagram showing an example of the relationship between the target trajectory of the robot, the actual trajectory, and the correction information in the operation state shown in FIG.
  • FIG. 18 is a diagram showing an example of the relationship between the target trajectory of the robot, the actual trajectory, and the correction information in the operation state shown in FIG.
  • FIG. 18 is a diagram showing an example of the relationship between the target trajectory of the robot, the actual trajectory, and the correction information in the operation state shown in FIG.
  • FIG. 21 is a diagram showing an example of the relationship between the target trajectory of the robot, the actual trajectory, and the correction information in the operation state shown in FIG.
  • FIG. 26 is a diagram showing an example of the relationship between the target trajectory of the robot, the actual trajectory, and the correction information in the operation state shown in FIG.
  • the correction command value calculation unit 12 inputs the correction information 1003 calculated by the sensor controller 4 based on the reliability 1006 and the feature amount 1005, and corrects the trajectory of the robot 2 based on each input information. Calculate the orbital correction amount of.
  • the correction information 1003 is included in the output information 1002 of the sensor controller 4 shown in FIG.
  • the correction command value calculation unit 12 outputs the calculated trajectory correction amount 1004 to the command value generation unit 13.
  • the correction command value calculation unit 12 has a different type of calculation regarding the trajectory correction amount corresponding to the sensor signal Sk by the correction command value calculation unit 12.
  • the reliability Pc (k + 1) corresponding to the sensor signal Sk + 1 output by the external sensor SENk is high and a significant correction amount ⁇ Xck + 1 is output
  • the weight coefficient wk of the correction amount ⁇ Xck regarding the sensor signal Sk is output. It is conceivable to make the configuration smaller.
  • wk is defined by
  • the orbital correction amount ⁇ Xd can be defined as in the following equations (11) to (13).
  • FIG. 15 is a diagram showing a configuration example of the robot control device 1a according to the third embodiment.
  • the robot control device 1a has a configuration in which a correction override calculation unit 15 is further added to the robot control device 1 according to the first embodiment, and the command value generation unit 13 is replaced with the command value generation unit 13a.
  • the same components as those of the robot control device 1 according to the first embodiment are designated by the same reference numerals. In this embodiment, a part different from the first embodiment will be described.
  • the command value generation unit 13a converts the target trajectory Xd into the moving speed vd to the next target position for each control cycle at each point. Then, the target position Xdc after applying the correction override OvrdC is calculated from the movement amount for one control cycle when the movement speed vd is reduced.
  • the correction override OvrdC calculated by the correction override calculation unit 15 based on the reliability 1006 is defined as the minimum value in the reliability Pc (k) for a plurality of sensor signals Sk, for example, as shown in the following equation (14). can do.
  • the difference between the processing of the correction override calculation unit 15 of the third embodiment and the processing of the correction override calculation unit 15b of the fourth embodiment is that the external sensor 3 is the target when the correction override OvrdC (k) is calculated.
  • the reliability 1006 (Pc (k)) of the sensor signal Sk of the external sensor of 1 the feature amount 1005 (Vk + 1) of the sensor signal Sk + 1 of the second external sensor which is another external sensor 3 is added. It is an input to the correction override calculation unit 15b, and the correction override calculation unit 15b calculates the correction override OvrdC (k) as shown in the following equations (15) and (16).
  • the vision sensor 202-1 (hereinafter referred to as the vision sensor SENk) and the force sensor 201 (hereinafter referred to as the force sensor SENk + 1) for acquiring force information regarding the contact between the end effector and the work of the robot 2 and the surrounding environment. Is attached to the robot, and the robot 2 performs a task of performing assembly work. At this time, consider the case where the trajectory correction amount for the vision sensor SENk is calculated. In this case, as shown in FIG.
  • the feature amount extraction unit 16 can output M pieces of correction information and N pieces of feature amounts to the output information 1002 of the L pieces of external sensors 3 (L, M, N is a natural number of 2 or more).
  • the feature amount extraction unit 16 integrates the sensor signals Sk and Sk + 1 output by the two sensors of the distance sensor SENk and the RGB camera SENk + 1, and performs a process of identifying the type of the work object. Then, based on the model information of the identified varieties, it is possible to output the center position coordinates of the work object as the second feature amount Vk2 from the feature amount Vk of the RGB image.
  • the configuration in which the feature amount extraction unit 16 is added to the robot control device 1a according to the third embodiment has been described, but the feature amount extraction unit 16 is added to the robot control device 1 according to the first embodiment. It is also possible to make an added configuration.
  • Embodiment 6 Next, the robot control device according to the sixth embodiment will be described.
  • the configuration of the robot control device according to the sixth embodiment is the same as that of the first embodiment (see FIG. 2). In this embodiment, a part different from the first embodiment will be described.
  • the operation of the command value generation unit 13 to generate the command value is different from that of the first embodiment.
  • the command value generation unit 13 has a target trajectory 1008 (Xd) output from the target trajectory holding unit 14 and a trajectory correction amount 1004 output from the correction command value calculation unit 12. ( ⁇ Xd), the distance information between the reference point of the robot 2 and the object measured by the external sensor 3 and the reliability 1006 output from the reliability calculation unit 11 are acquired (step S71).
  • the reference point of the robot 2 is provided in the main body of the robot 2 or the surrounding environment, and when the outside world sensor 3 is a vision sensor, it exists within the shooting range of the vision sensor.
  • the command value generation unit 13 corrects the movement amount of the target trajectory 1008 for each control cycle based on the trajectory correction amount 1004, the distance information between the reference point of the robot 2 and the object, and the reliability 1006 (step). S72).
  • the command value generation unit 13 generates a command value based on the corrected movement amount of the target trajectory 1008 for each control cycle (step S73), and outputs the generated command value to the robot 2 (step S74). ..
  • the command value generation unit 13 performs a process of calculating the correction override 1007 described in the third embodiment, that is, a process of correcting an override value which is a speed index traveling on a target trajectory. conduct. At this time, the command value generation unit 13 uses the above-mentioned distance information instead of the reliability Pc of the sensor signal Sk used by the above-mentioned correction override calculation unit 15.
  • the robot system 100 has the task of assembling an industrial product
  • the position of the robot hand for taking out the parts of the industrial product is the above reference point
  • the position of the robot hand to be assembled is the target point of the robot 2.
  • a method of acquiring distance information a method of acquiring by directly measuring with a laser displacement meter or the like, a second feature as shown in FIGS. 26 and 27 by utilizing the vision sensor 202-1.
  • FIG. 28 illustrates an example of extracting a feature amount by image processing.
  • FIG. 28 simulates a process of extracting the center and radius of a circle as a feature amount Vk from an RGB image when there is an RGB image.
  • FIG. 29 is a diagram for explaining a method of extracting a second feature amount Vk2 from the feature amount of the RGB image.
  • FIG. 29 shows how the outer shape of the circle, the center of the circle, and the radius Rk of the circle are extracted from the feature amount Vk as the second feature amount Vk2.
  • the upper right figure of FIG. 29 shows the case where local noise suddenly appears, and the reliability Pc (k) and the information of the center and radius of the circle are used. It can be seen that a certain second feature amount Vk2 is changing.
  • the lower right figure of FIG. 29 shows a case where the color of the lower right portion of the image suddenly changes, specifically, a case where a foreign object is imaged. In this case, since the color changes rapidly with time, the reliability Pc is temporarily lowered.
  • the command value generation unit 13 applies the same processing as in the case of reducing the correction override described in the third embodiment when the reliability Pc is smaller or the approach distance Lc is lower than the approach threshold value Lth. Then, the execution amount is corrected to make it smaller.
  • the process of correcting and reducing the execution amount is a process of converting the target trajectory into a velocity waveform and reducing the linear velocity along the trajectory by a certain percentage without changing the trajectory.
  • the command value generation unit 13 converts the velocity pattern into the position command value based on the trajectory in this case.
  • the operating speed is defined based on the reliability Pc (k) of the feature amount Vk of the sensor signal output by the external sensor 3 measuring the approach distance Lc to the object and the approach distance Lc. Therefore, the robot operating speed is automatically adjusted. As a result, it is possible to obtain a special effect such as a reduction in the adjustment man-hours at the time of starting up the robot system 100.
  • FIG. 30 is a diagram showing a configuration example of the robot control device 1d according to the seventh embodiment.
  • the robot control device 1d has a configuration in which the reliability calculation unit 11 of the robot control device 1 according to the first embodiment is replaced with the reliability calculation unit 11d.
  • the same components as those of the robot control device 1 according to the first embodiment are designated by the same reference numerals. In this embodiment, a part different from the first embodiment will be described.
  • the feature amount 1005 and the position information 1010 of the robot 2 are input to the reliability calculation unit 11d.
  • the reliability Pc is an index based only on the feature amount Vk, but the reliability calculation unit 11d predicts a change in the feature amount Vk (t) based on the history of the position information 1010 (Xa (t)) of the robot 2. By comparing the predicted value Vkp of the feature quantity with the actual feature quantity Vk, it is predicted that the reliability of the feature quantity Vk (t) at time t may be low.
  • the robot control device 1d outputs the position command value 1009 to the robot 2 based on the updated value of the trajectory correction amount 1004.
  • the reliability calculation unit 11d acquires the history of the position information obtained by moving the robot hand position as Xa (t)
  • the sensor signal Sk output by the external sensor 3 at the next moment by Xa (t).
  • the change in the obtained feature amount Vk that is, the expected change in the feature amount Vk obtained by the environmental change and the direction in which the change occurs can be predicted to some extent.
  • the correction information ⁇ Xck calculated based on the sensor feedback control should be output so that the difference between the feature amount Vk and the target feature amount Vdk becomes small for a certain sensor signal Sk.
  • the history ⁇ Vk of the feature amount difference is defined by the following equation (18).
  • the reliability calculation unit 11d makes a correction to reduce the reliability Pc and corrects the corrected reliability Pc. It is output to the command value calculation unit 12.
  • the reliability calculation unit 11d corrects the reliability Pc to a smaller value and outputs it to the correction command value calculation unit 12.
  • the reliability calculation unit 11d obtains the amount and direction of the expected change of the feature quantity Vk based on the history Xa of the hand position of the robot 2, and corrects the reliability Pc based on the comparison result with the actual feature quantity Vk. By doing so, the certainty of the reliability Pc is improved. As a result, the effect of improving the operating rate and production efficiency of the system can be obtained.
  • FIG. 31 is a diagram showing a configuration example of the robot control device 1e according to the eighth embodiment.
  • the robot control device 1e has a configuration in which a learning unit 20 is added to the robot control device 1 (see FIG. 2) according to the first embodiment.
  • the same components as those of the robot control device 1 according to the first embodiment are designated by the same reference numerals. In this embodiment, a part different from the first embodiment will be described.
  • FIG. 32 is a diagram showing a configuration example of the learning unit 20 of the robot control device 1e according to the eighth embodiment.
  • the learning unit 20 includes an evaluation unit 21 and a weighting coefficient determining unit 22.
  • Correction information 1003 ( ⁇ Xck), reliability 1006 (Pc (k)), weighting coefficient 1101 and work information 1110 for each external sensor SENk are input to the learning unit 20.
  • the work information 1110 is work result information indicating the result of having the robot system 100 try the work or the result of the work simulated by the simulation, and includes the work success / failure and the work time.
  • the weighting coefficient 1101 is a weighting coefficient constituting a function that outputs a trajectory correction amount 1004 when the correction information 1003 and the reliability 1006 are input.
  • the evaluation unit 21 evaluates the correction information 1003, the reliability 1006, and the weighting coefficient 1101 based on the work information 1110 with a machine having a higher work success rate and a shorter work time. Do learning. That is, the evaluation unit 21 learns a combination of the correction information 1003, the reliability 1006, and the weighting coefficient 1101, which are higher evaluations.
  • the weighting coefficient determining unit 22 selects one set from a plurality of sets of weighting coefficients that are highly evaluated by the evaluation unit 21, and outputs the weighting coefficient 1102 after learning to the correction command value calculation unit 12.
  • the weighting coefficient is defined to be expressed by a relational expression in which the reliability Pc (k) and the correction information ⁇ Xck are input and the orbital correction amount ⁇ Xd is output.
  • this weighting factor is defined as wck
  • the orbital correction amount ⁇ Xd is calculated according to, for example, the following equation (19).
  • the weighting coefficient wck is an appropriate function such as a polynomial with reliability as a variable.
  • weighting factors Although it is generally difficult to analyze the causal relationship between such weighting factors and information such as takt time and work success / failure, a large amount of work information 1110 is obtained by performing simulation or actual work, and machine learning is used. By learning, an appropriate weighting factor can be automatically determined.
  • the learning unit 20 has been described as existing inside the robot control device 1e, but the learning unit 20 exists outside the robot control device 1e, for example, in an external computer. You may. In this case, after the machine learning is completed, the learning unit 20 sets the learning weighting coefficient 1102 acquired by the machine learning in the correction command value calculation unit 12 of the robot control device 1e.
  • the configuration in which the learning unit 20 is added to the robot control device 1 according to the first embodiment has been described, but the learning unit 20 has been added to the robot control devices described in the second to seventh embodiments. It is also possible to configure it.
  • FIG. 33 is a diagram showing a configuration example of the robot control device 1f according to the ninth embodiment.
  • the robot control device 1f has a configuration in which a learning unit 30 is added to the robot control device 1a (see FIG. 15) according to the third embodiment.
  • the same components as those of the robot control device 1a according to the third embodiment are designated by the same reference numerals. In this embodiment, the parts different from those in the third embodiment will be described.
  • FIG. 34 is a diagram showing a configuration example of the learning unit 30 of the robot control device 1f according to the ninth embodiment.
  • the learning unit 30 includes an evaluation unit 31 and a correction override function determination unit 32.
  • the correction override function 1103, the reliability 1006 (Pc (k)), the weighting coefficient 1101, and the work information 1110 are input to the learning unit 30.
  • the reliability 1006 (Pc (k)), the weight coefficient 1101 and the work information 1110 are the reliability 1006 (Pc (k)), the weight coefficient 1101 and the work input to the learning unit 20 described in the eighth embodiment. It is the same as information 1110.
  • the evaluation unit 31 acquires the correction override function 1103, which has a short work time and a high work success rate, by machine learning based on the work information 1110.
  • the correction override function defines the relationship between the reliability Pc (k) and the correction override.
  • the correction override function determination unit 32 defines a correction override function that minimizes the work time while increasing the work success rate most in the processing of the command value generation unit 13a defined by a certain weight coefficient 1101 for the correction override function. Is selected, and the result is output to the correction override calculation unit 15 as the correction override function 1104 after learning.
  • the correction override calculation unit 15 holds the learning result by the learning unit 30, that is, the correction override function 1104 after learning, and when there is a new input of the reliability 1006, it holds the input reliability 1006.
  • the correction override 1007 is calculated based on the correction override function 1104 after learning.
  • the correction override function 1104 has a definition as illustrated in the mathematical formula (14), the mathematical formula (15), and the mathematical formula (16) in the third and fourth embodiments.
  • the correction override calculation unit 15 outputs a plurality of correction override OvrdC (k) corresponding to the sensor signal Sk
  • the command value generation unit 13a outputs the most orbital correction among the correction information ⁇ Xck.
  • a method such as selecting the correction override OvrdC (k) corresponding to the one with a large ratio to the quantity ⁇ Xd may be taken. Therefore, the correction override function 1104 needs to be defined as two functions for the weighting factor 1101 and the reliability 1006.
  • the learning unit 30 has been described as existing inside the robot control device 1f, but the learning unit 30 exists outside the robot control device 1f, for example, in an external computer. You may. In this case, after the machine learning is completed, the learning unit 30 sets the correction override function 1104 after learning acquired by machine learning in the correction override calculation unit 15 of the robot control device 1f.
  • the configuration in which the learning unit 30 is added to the robot control device 1a according to the third embodiment has been described, but each robot control device described in the fourth to sixth embodiments, that is, the correction override operation. It is also possible to add the learning unit 30 to the robot control device provided with the unit.
  • the configuration shown in the above embodiments is an example, and can be combined with another known technique, can be combined with each other, and does not deviate from the gist. It is also possible to omit or change a part of the configuration.
  • Robot control device 2 robot, 3 external sensor, 4 sensor controller, 11,11d reliability calculation unit, 12 correction command value calculation unit, 13,13a command value generation unit , 14 target trajectory holding unit, 15,15b correction override calculation unit, 16 feature quantity extraction unit, 20,30 learning unit, 21,31 evaluation unit, 22 weight coefficient determination unit, 32 correction override function determination unit, 100 robot system, 201 force sensor, 202-1, 202-2 vision sensor, 203-1 field of view, 300 object.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

ロボット制御装置(1)は、ロボット(2)の本体またはロボット(2)の周辺環境に設置された外界センサによる計測結果を示すセンサ信号から得られる特徴量を入力し、特徴量の時間的な変化または空間的な変化に基づいてセンサ信号に対する信頼度を演算する信頼度演算部(11)と、信頼度、および、特徴量に基づいて算出された補正情報に基づいて、ロボット(2)の軌道を補正するための軌道補正量を演算する補正指令値演算部(12)と、予め定められたロボット(2)の目標軌道と、軌道補正量とに基づいてロボット(2)に対する位置指令値を生成する指令値生成部(13)と、を備える。

Description

ロボット制御装置
 本開示は、ロボットを制御するロボット制御装置に関する。
 従来のロボット制御装置では、例えばエンコーダから出力される位置情報に基づいて高精度な位置決め制御を行っていた。近年、ワークのロット変動等が要因で生じる位置決め誤差に対応するため、外界センサとしてビジョンセンサや力覚センサを活用したロボット制御が適用されている。このようなワークの位置決め精度の変動に対応する制御が提案されている一方で、外乱などの影響でセンサ検出信号の信号レベルが安定しないために高精度な制御が難しくなる場合がある。
 このような課題に対し、特許文献1には、ビジョンセンサが出力する複数のデータを各データの信頼度に基づいて重み付け平均し、得られたデータを用いてマニピュレータの動作指令を修正することにより制御の高精度化を実現する技術が開示されている。
特開平7-266272号公報
 センサによる計測結果を示すセンサ信号に基づいてロボットを動作させるロボット制御装置にあっては、センサ信号に基づいて自律的に行動を変化させることが期待される。ここで、特許文献1に記載の技術はセンサから時系列的に得られる複数のデータを重み付け平均するものであるが、複数のセンサをロボットシステム内に設置し、各センサが出力するデータ(センサ信号)を重み付け平均して制御に用いる場合も高精度な制御の実現が期待できる。ただし、同一種類の複数センサを用いる場合には、各センサが出力するセンサ信号のみに基づいて動作を制御すると安定して動作しない場合があった。たとえば、環境光の変化などの外乱によっては、センサ信号が全て正常に出力されなくなる場合がある。この場合、仮に特許文献1に記載のように複数のデータ(センサ信号)を重み付け平均した結果を用いてロボットの動作指令を修正したとしても、期待した動作が遂行できなくなり、誤った方向に動作することで周囲と干渉しシステムを破損することもある。システム破損を避けるため、ロボット動作を予め一律低速にすることで対応できるが、結果として作業が遅くなることによる生産効率の低下が問題であった。
 本開示は、上記に鑑みてなされたものであって、センサ信号を活用したロボットシステムにおいてロボットの制御を高精度に行い、かつ、生産システムにおける生産効率を低下させずにロボット動作を実現するロボット制御装置を得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本開示にかかるロボット制御装置は、ロボットの本体またはロボットの周辺環境に設置された外界センサによる計測結果を示すセンサ信号から得られる特徴量を入力し、特徴量の時間的な変化または空間的な変化に基づいてセンサ信号に対する信頼度を演算する信頼度演算部を備える。また、ロボット制御装置は、信頼度、および、特徴量に基づいて算出された補正情報に基づいて、ロボットの軌道を補正するための軌道補正量を演算する補正指令値演算部と、予め定められたロボットの目標軌道と、軌道補正量とに基づいてロボットに対する位置指令値を生成する指令値生成部と、を備える。
 本開示にかかるロボット制御装置は、ロボットの制御の高精度化と、生産システムにおける生産効率の低下防止とを実現できる、という効果を奏する。
実施の形態1にかかるロボット制御装置を適用して実現されるロボットシステムの構成例を示す図 実施の形態1にかかるロボット制御装置の構成例を示す図 実施の形態1にかかるロボット制御装置の信頼度演算部の動作の一例を示すフローチャート 実施の形態1にかかるロボット制御装置の補正指令値演算部の動作の一例を示すフローチャート 実施の形態1にかかるロボット制御装置の指令値生成部の動作の一例を示すフローチャート 実施の形態1にかかるロボット制御装置が扱う特徴量の定義を説明するための第1の図 実施の形態1にかかるロボット制御装置が扱う特徴量の定義を説明するための第2の図 実施の形態1にかかる信頼度演算部が信頼度を計算する方法の第1の例を説明するための図 実施の形態1にかかる信頼度演算部が信頼度を計算する方法の第2の例を説明するための図 実施の形態1にかかるロボット制御装置が適用されるロボットシステムの具体例を示す図 図10に示すロボットシステムにおけるロボットの目標軌道と実軌道と補正情報との関係の一例を示す図 実施の形態1にかかるロボットシステムの動作状況の一例を示す図 図12に示す動作状況におけるロボットの目標軌道と実軌道と補正情報との関係の一例を示す図 ロボット制御装置を実現するハードウェアの一例を示す図 実施の形態3にかかるロボット制御装置の構成例を示す図 実施の形態3にかかるロボット制御装置の補正オーバーライド演算部の動作の一例を示すフローチャート 実施の形態3にかかるロボット制御装置の指令値生成部の動作の一例を示すフローチャート 実施の形態3にかかるロボットシステムの動作を説明するための図 図18に示す動作状況におけるロボットの目標軌道と実軌道と補正情報との関係の一例を示す図 実施の形態4にかかるロボット制御装置の構成例を示す図 実施の形態4にかかるロボット制御装置の実動作を説明するための図 図21に示す動作状況におけるロボットの目標軌道と実軌道と補正情報との関係の一例を示す図 実施の形態5にかかるロボット制御装置の構成例を示す図 実施の形態5にかかるロボット制御装置の特徴量抽出部の動作の一例を示すフローチャート 実施の形態6にかかるロボット制御装置の指令値生成部の動作の一例を示すフローチャート 実施の形態6にかかるロボットシステムの動作を説明するための図 図26に示す動作状況におけるロボットの目標軌道と実軌道と補正情報との関係の一例を示す図 実施の形態6にかかるロボット制御装置が扱う特徴量を説明するための図 RGB画像の特徴量から第2の特徴量を抽出する方法を説明するための図 実施の形態7にかかるロボット制御装置の構成例を示す図 実施の形態8にかかるロボット制御装置の構成例を示す図 実施の形態8にかかるロボット制御装置の学習部の構成例を示す図 実施の形態9にかかるロボット制御装置の構成例を示す図 実施の形態9にかかるロボット制御装置の学習部の構成例を示す図
 以下に、本開示の実施の形態にかかるロボット制御装置を図面に基づいて詳細に説明する。
実施の形態1.
 図1は、実施の形態1にかかるロボット制御装置1を適用して実現されるロボットシステム100の構成例を示す図である。
 ロボットシステム100は、ロボット制御装置1と、ロボット2と、外界センサ3と、センサコントローラ4とを備える。なお、ロボットシステム100の構成は従来のロボットシステムと同様である。すなわち、ロボットシステム100は従来のロボットシステムのロボット制御装置を後述する本実施の形態にかかるロボット制御装置1に置き換えた構成である。
 ロボット制御装置1は、ロボット2の本体と接続され、ロボット2に対する制御指令値を演算し、ロボット2内の図示を省略しているドライバユニットを介してモータに電流値を送って駆動している。ロボット2に対する制御指令値としては、位置指令値、速度指令値、加速度指令値とも称されるトルク指令値、などがある。ドライバユニットは、これらの制御指令値に基づいて、モータに出力すべきモータ電流値を演算する。図1に示す例ではロボット2に対する制御指令値を位置指令値1009としている。以下においても、制御指令値が一般的な産業用ロボットコントローラの制御指令値の一つである位置指令値である場合の例について説明する。
 ここで、外界センサ3をロボット2の本体あるいは周辺環境に複数備えることで、ロボットシステムの周辺で生じる周辺環境の変化に応じてロボットを動作させることが可能となる。外界センサ3の例としては、ビジョンセンサ、モーショントラッカ、力覚センサ、触覚センサ、近接覚センサ、などが挙げられる。これらの外界センサ3を用いて作業対象物である認識対象を計測し、計測結果に基づいて演算された特徴量に基づいて指令値(本実施の形態では位置指令値)を生成あるいは修正して行う制御は、外界センサに基づく制御方式である。
 以下、実施の形態1にかかるロボット制御装置1によるロボットの制御動作について、解決しようとする課題とともに詳しく説明する。
 まず、課題について説明する。信号処理あるいは情報処理された認識結果に基づいてロボットを動作させるロボット制御にあっては、上述したように、複数のセンサを利用することがあるが、同一種類の複数センサを用いた制御系では「いずれかが1つは安定して動作する」ことが暗黙の前提となっており、不測の状態に対する制御系設計が従来の課題であった。また、異種の複数センサを利用する場合には、フィードバック制御を複数センサそれぞれに対して独立に設計することが主であり、作業状態に応じて複数センサを切り替えながらロボット制御を行う設計ができていなかった。
 たとえば、環境光の変化などの外乱によっては、センサによる計測結果を示すセンサ信号に著しい変化が生じ、その結果として、センサ信号の特徴量が正常に出力されなくなる場合がある。すなわち、異常な値を示すセンサ信号がセンサから出力される場合がある。正常に出力されない場合とは、たとえば、制御対象のロボットは緩やかに移動しているのにもかかわらずセンサ信号を信号処理して得られる特徴量が示す目標地点が突然大きく変化する場合、特徴量が出力されなくなる場合、誤って認識している複数の目標地点候補の中の幾つかの目標地点候補を、目標地点の出力するタイミングごとに違う目標地点を出力する場合、などがある。
 この場合、複数のセンサ信号を特許文献1に記載のような方法で重み付け平均した結果をロボット制御で使用しても、必ずしも期待した動作が行われない場合がある。すなわち、センサ信号が示す計測結果あるいは計測結果の特徴量の確からしさを「信頼度」として定義する場合、信頼度が低下している場合には、次の2つの状態をとる。1つ目の状態は「複数センサで構成されているシステムの場合、適切なセンサ出力を選択すればロボットの動作が継続可能な場合」であり、2つ目の状態は「想定しているセンサ信号レベルあるいは特徴量抽出レベルを下回り、指令値が著しく変動することでロボットが暴走状態となり、継続して動作すると作業失敗を引き起こしてしまうリスクを伴う場合」である。これまでのロボット制御は、上記の2つの状態のいずれかとなった場合に自動的に制御出力を調整できる枠組みが無かった。
 図2は、実施の形態1にかかるロボット制御装置1の構成例を示す図である。なお、図2では、ロボット制御装置1が制御するロボット2についても併せて記載している。
 ロボット制御装置1は、信頼度演算部11、補正指令値演算部12、指令値生成部13および目標軌道保持部14を備える。
 信頼度演算部11は、図1に示す外界センサ3が出力するセンサ信号をセンサコントローラ4が分析して得られる特徴量1005を入力とし、入力された特徴量1005の変化量に基づいて、センサ信号の信頼度Pcを計算する。なお、センサ信号は図1に示す信号1001に相当する。また、特徴量1005は図1に示すセンサコントローラ4の出力情報1002に含まれる。信頼度演算部11は、計算した信頼度Pcを信頼度1006として補正指令値演算部12に出力する。
 補正指令値演算部12は、信頼度1006および上記特徴量1005を基にセンサコントローラ4で算出された補正情報1003を入力とし、入力された各情報に基づいて、ロボット2の軌道を補正するための軌道補正量を計算する。なお、補正情報1003は図1に示すセンサコントローラ4の出力情報1002に含まれる。補正指令値演算部12は、計算した軌道補正量1004を指令値生成部13に出力する。
 指令値生成部13は、軌道補正量1004、事前にプログラミングされた目標軌道を保持する目標軌道保持部14が出力する目標軌道1008、およびロボット2が出力するロボット2の位置情報1010を入力として、入力された各情報に基づいてロボット2に対する位置指令値を生成する。目標軌道1008は、プログラミングによって予め定められたロボット2の軌道を示す。軌道とは、3次元上のある時刻tのロボット位置指令値を一定の時間幅Δt刻みで表現したもののデータ群を表す。目標軌道の情報の一部がある時刻の位置指令値である。なお、位置情報1010は、ロボット2が有する内界センサによって生成される。指令値生成部13は、生成した位置指令値1009をロボット2に出力する。
 ここで、本実施の形態では、1つ以上の外界センサ3から出力される各センサ信号をセンサコントローラ4が信号処理して各センサ信号に対応する特徴量1005および補正情報1003を得る構成としているが、特徴量1005および補正情報1003を得るための信号処理をロボット制御装置1が行う構成としてもよい。この場合の構成については別の実施の形態として後述する。
 以下、ロボット制御装置1の信頼度演算部11、補正指令値演算部12および指令値生成部13が行う処理について説明する。
 図3は、実施の形態1にかかるロボット制御装置1の信頼度演算部11の動作の一例を示すフローチャートである。
 信頼度演算部11は、図3に示すように、センサコントローラ4から出力される特徴量1005(以下、特徴量Vkと記載する場合がある)を取得し(ステップS11)、特徴量Vkに基づいて信頼度Pcを算出する(ステップS12)。そして、信頼度演算部11は、算出した信頼度Pcを補正指令値演算部12に出力する(ステップS13)。
 ここで、信頼度Pcは、0から1までの範囲の実数で定義される。特徴量Vkと信頼度Pcの詳細については後述するが、特徴量Vkは、ある外界センサSENk(k=1,2,…)が時刻tにおいて出力するセンサ信号Sk(t)を入力とし、センサ信号Sk(t)を定められた変換処理により数値化して表現されたスカラ量である特徴量Vk(t)、または、特徴量ベクトルVec_Vk(t)を用いて計算されるものである。時刻tに関する特徴量Vkの遷移である時系列情報としての特徴量Vk(t)、空間に基づく特徴量Vk(X)、あるいは、時間および空間に関して変化する特徴量Vk(t,X)があるときに、信頼度演算部11は、事前に予測されるモデルや仮定に基づいて、例えば期待される変化の上限Vthを用いて、上限Vthを超える特徴量Vkの変化の有無、特徴量Vkと上限Vthとの大小関係などに基づいて、期待されている上限Vthからの逸脱を指標化して信頼度Pcを算出する。特徴量Vkおよび信頼度Pcの詳細については後述する。
 なお、以下の説明では、時刻を考慮することなく外界センサSENkが出力するセンサ信号を表現する場合はセンサ信号をSkと表現し、また、外界センサSENkが出力するセンサ信号(Sk)についての信頼度をPc(k)と表現する。
 図4は、実施の形態1にかかるロボット制御装置1の補正指令値演算部12の動作の一例を示すフローチャートである。
 補正指令値演算部12は、図4に示すように、センサコントローラ4から出力される補正情報1003および信頼度演算部11から出力される信頼度1006(Pc(k))を取得し(ステップS21)、補正情報1003および信頼度1006に基づいて軌道補正量1004を算出する(ステップS22)。そして、補正指令値演算部12は、算出した軌道補正量1004を指令値生成部13に出力する(ステップS23)。
 ステップS22において、補正指令値演算部12は、各外界センサ3が出力するセンサ信号Skに基づく補正情報1003(補正情報ΔXck)を信頼度Pc(k)によって重み付けして補正係数を求め、この補正係数を用いて軌道補正量1004を算出する。補正指令値演算部12は、例えば、補正係数Ck(k=1,2,…)として、下記の式(1)および式(2)に基づいて軌道補正量ΔXdを計算する。式(2)における「fnc」は信頼度Pc(k)から補正係数Ckを求める関数を示す。式(1)では補正係数Ckと補正情報ΔXckの積を各センサ毎の軌道補正量の要素として算出し、センサ全体として和を取って出力する。
   ΔXd = Σ(Ck・ΔXck)    …(1)
    Ck = fnc(Pc(k))     …(2)
 なお、さらに目標軌道を補正指令値演算部12に入力する構成も可能である。この場合、軌道補正量ΔXdに対して上限値や補正方向を限定することが可能となる。例えば、基準になる位置指令値Xdを入力として、軌道補正量ΔXdの上限値ΔXdlimや補正対象とする方向を限定することができる。具体的には、目標軌道に鉛直な向きのみに補正をかける場合や、ロボットツール座標系に対してX,Y,ZあるいはXYZ軸回りの姿勢A,B,Cのうち1つ以上を選択してその方向のみに補正をかける場合がある。
 図5は、実施の形態1にかかるロボット制御装置1の指令値生成部13の動作の一例を示すフローチャートである。
 指令値生成部13は、図5に示すように、目標軌道保持部14から出力される目標軌道1008および補正指令値演算部12から出力される軌道補正量1004(ΔXd)を取得し(ステップS31)、目標軌道1008および軌道補正量1004に基づいて指令値を生成する(ステップS32)。指令値生成部13は、生成した指令値をロボット2に出力する(ステップS33)。ここでは、指令値生成部13は指令値として位置指令値1009を生成する。
 ステップS32において、指令値生成部13は、例えば、時刻tにおける指令値Xout(t)、軌道補正量をΔXd(t)、目標軌道をXd(t)とすると、下記の式(3)に従って指令値を生成する。
   Xout(t)=Xd(t)+ΔXd(t)  …(3)
 指令値生成部13は、目標軌道Xd(t)の補正情報(ここでは軌道補正量ΔXd)が入力されなければ、元の目標軌道Xd(t)を指令値Xout(t)として出力してロボット2を動作させる。
 また、指令値生成部13は、別の形態として、これまでの補正量を積分した形式としてΣΔXd(t)を用いて、下記の式(4)に従って指令値を生成することも可能である。
   Xout(t)=Xd(t)+ΣΔXd(t)  …(4)
 指令値Xoutの実現方法は、目標軌道Xd(t)および軌道補正量ΔXd(t)を用いている限り特に上記の式(3)または式(4)に示す内容に限定されるものではない。
 なお、目標軌道1008はすべて事前に与えられている形で表現しているが、ロボット制御装置1の動作中にある起点Xsと終点Xeに対してオンラインで目標軌道を再計算する場合についても同様に適用できる。すなわち、目標軌道Xd(t)はロボット制御装置1の動作途中に更新することがある。また、ロボット制御装置1は、指令値生成部13に入力される目標軌道1008が指令値1回分(目標軌道を表す一連の位置指令値のうち、現在実行中の位置指令値Xd(t)の次の位置指令値Xd(t+1))などであっても同様に適用できる。
 以下、本実施の形態の構成を説明するために、特徴量Vkおよび信頼度Pcの定義について説明する。
 外界センサ3が出力するセンサ信号に基づく制御は、まず外界センサ3の計測結果(センサ信号)を用いて信号処理あるいは情報処理を実行して、特徴量を得る。特徴量は、外界センサ3の種類だけ多様な形態があるが、時刻tにおいて、ある外界センサSENk(k=1,2,…)のセンサ信号Sk(t)を変換処理し、特徴量として数値化して表現されたスカラ量Vk(t)あるいはベクトル量vec_Vk(t)を用いて計算される、という点は共通している。ベクトル量vec_Vk(t)は、1つの特徴量を取り扱う際に、さらに複数の独立した物理量に変換して表現できる場合に用いる。例えば、色味(RGB)と輝度(明暗)などを1つの画素に対して定義する場合、特徴量をベクトル量vec_Vk(t)として取り扱うものとする。
 このとき、図6に示すように、時系列に特徴量Vkを評価する場合、t=taをデータ収集開始点として、Vk(t=ta+i)(i=1,2,3,…)としてデータを取得していく。また、空間として特徴量Vkを評価する場合、図7に示すように、Vk(t=ta,[x,y,za])という形式で表現する。変数としては、時間情報tと地点情報[x,y,z]が含まれている。この場合、地点情報z=zaは固定値である。また、x,yについては、センサ座標系上にセンサ要素が配列され、x方向とy方向にセンサが格子状に配置されている場合を表現している。特徴量Vkとしては、例えば480×640の画素数で表現されるビジョンセンサの各画素における色情報、輝度情報などを例示できる。同一時刻t=taにおいて空間として地点Xaにおける特徴量をVk(ta,Xa)とするときに地点Xaを複数点同時に評価する。さらに、地点Xaが空間的に広がっているものを時系列で捉えた場合がある。なお、地点情報にさらに空間における姿勢情報としてオイラー角やクオータニオンなどを追加した構成としてもよい。
 特徴量としては、他にも、外界センサSENkの電気信号を変換して物理量と等価な特徴量Vk(t)として表現できる。例えば、ひずみゲージに流れる電流変化を力の値と等価とする処理などがあげられる。物理量としては、距離、加速度、速度、回転速度、ひずみ量、軸力、モーメントなどがあげられる。これらの物理量は、取得した物理量を事前に設定した閾値と比較したり、取得した物理量と物理量の目標値との差分によりPID(Proportional Integral Differential)制御をかけたり、といった使い方ができる。ほかにも、これらの物理量を時刻t0からt1までの一定サンプル分(すなわちVk(t)、t0≦t≦t1)取り出し、機械学習等を用い、これを波形パターンあるいは波形特徴量として新しい特徴量として抽出しなおす方法もある。一定範囲の情報量を使った別の特徴量として、時刻t0にカメラ等で取得した一定範囲の画素Vk(t0,[jx,jy])の集合(すなわち、面として広がりをもつ画像情報Vk(t0,[jx,jy])、0≦jx≦480、0≦jy≦640)を入力として、画像処理して得られる認識対象の輪郭線、位置、あるいは事前に生成したリスト内の対象と認識対象との類似度、といったものがある。
 特徴量Vkは、ロボット制御装置1において、「外界センサ3に映り込んだ対象物は、目的とする対象物か否か(識別)」、「外界センサ3の座標系に対して、対象物の存在する位置はどこか(認識、位置推定)」、「対象物の目標状態と現在状態との差異および差分の計算または抽出、差異または差分の計算または抽出(認識、差分抽出)」という目的のために用いられる。
 特徴量Vkは、目標とする特徴量Vdとの差異を認識し、ロボットのフィードバック制御を目的として使われることがある。特徴量Vkは、加速度センサまたは力覚センサのようにキャリブレーション処理を実施の後にはセンサ信号Sk(t)が物理量となる場合は、直接その物理量が所望の値になるようなフィードバック制御に用いられる。
 一方で、センサ信号から抽出した特徴量である第1の特徴量から第2の特徴量をさらに抽出し、第2の特徴量を使用して処理を行う場合がある。例えば、センサ信号から抽出した画像情報のように、第1の特徴量(画像情報)そのもののデータではなく、第1の特徴量を入力としてさらに画像情報中の輪郭を抽出するエッジ抽出処理、対象物体の方向を抽出し画像情報の主成分分析処理など、データ処理を通じて得られる位置、方向などの情報を使う場合がある。これは、第1の特徴量から第2の特徴量を抽出することに相当する。第2の特徴量を用いて判定処理、フィードバック制御などを行うこともある。
 また、第2の特徴量の抽出においては、時系列データの一部を切り出して波形のパターンとして学習したり、膨大な事前データから教師あり機械学習を利用して目標状態を獲得したりするなど、様々な手法を適用してよい。
 ここで、作業対象物を目的位置に遷移させるために用いる特徴量から生成される補正情報について説明する。本実施の形態においては、ロボット2と作業対象物の作用力に基づくロボット手先の位置の補正量を、補正情報1003として例示できる。具体的には、6自由度の力センサから出力される計測量S1(sk,k=1)を力またはトルクの単位[NまたはNm]にキャリブレーションした後の出力である力センサ出力の時刻Tの値を特徴量V1(T)とする。このとき、ロボットエンドエフェクタに力が過剰にかからない制御を行うために、力の目標値を特徴量の目標値Vdとして、特徴量V1(T)に基づいてロボット手先の位置の補正量ΔXckを定義することができる。以上の定義に基づいて、適当な係数K1と置くと、下記の式(5)に従って特徴量V1(T)から補正量ΔXck(T)を求めることができる。
   ΔXck(T)=K1・(Vd-V1(T))  …(5)
 ここでは、この補正量ΔXck(T)は位置補正量(補正情報1003の一形態)となっている。ほかにも、補正量ΔXck(T)として、速度補正量、加速度補正量、加加速度補正量といった補正量が特徴量Vkに基づいて計算される。
 なお、本明細書において目的位置などの「位置」という表現が意味しているのは、位置が3自由度および姿勢が3自由度の合計6自由度の3次元空間自由度のことであり、ロボット座標系Σrobに対するX,Y,Zの並進方向の位置とX,Y,Zの軸回りの回転によって一意に定まるロボット先端部の位置情報および姿勢情報と等価である。他にも外界センサ3に基づいて、認識対象の移動速度、認識対象の移動加速度、ロボット2と外部との接触状態に応じて発生する力(作用力)、ロボット手先位置と認識対象の相対距離、相対位置、相対速度、相対加速度、といったものが挙げられる。その場合も、速度情報や加速度情報も同様に、回転速度や回転加速度は省略した表現となり、実際には、並進方向3自由度と回転方向3自由度の合計6自由度を取り扱う。
 次に、特徴量に基づいて信頼度を計算する方法について説明する。
 外界センサSENk(k=1,2,…)の出力であるセンサ信号Skで得られる特徴量Vk(k=1,2,…)について、その特徴量Vkの時間t(t=1,2,…)的、あるいは、空間X(X=[x,y,z])的に違う特徴量Vk(t,X=[x,y,z])に対して、その2つ以上の特徴量の相関情報に基づいて、各センサ信号Sk(k=1,2,…)に基づく特徴量Vk(k=1,2,3,…)に対する信頼度Pcを定義する。
 信頼度Pcは、時間tおよび空間Xに関連付けて定義された特徴量Vkがあるときに、事前に予測されるモデルおよび仮定に基づいて期待される変化の上限を超えるVkの変化の有無に基づいて定義される。信頼度Pcは、特徴量Vkのタイプごとに計算方法が異なるため、タイプごと分けて説明する。
 まず、特徴量Vkが時系列で取り扱われる「Vk(t)」の場合の信頼度Pcの計算方法について説明する。図8は、実施の形態1にかかる信頼度演算部11が信頼度Pcを計算する方法の第1の例を説明するための図である。
 図8に示すように、特徴量Vkが時系列の情報Vk(t,[xa,ya,za])である場合、信頼度Pcは、ある時刻taの特徴量Vk(ta)に対する過去履歴であるVk(ta-i)(i=1,2,3,…)に基づいて求められる。具体的には、信頼度Pcは、今回の特徴量Vk(ta)の時間あたりの変化量が変化量の上限値ΔVthを超えるか否かに基づいて求められる。別の方法として、信頼度Pcは、上限値ΔVthと、特徴量Vkの一定時間幅Tの履歴の平均値(すなわち移動平均)とを用いて、特徴量Vkの移動平均が上限値ΔVthを超えるか否かに基づいて求めることもできる。また、上限値ΔVthは、直前の値との直接比較、すなわち、時間的に隣り合った2つの特徴量Vkの差に対する上限としても定義できる。ここで、図8に表す例では、信頼度Pcを下記の式(6)および式(7)で表現することができる。
  Pc=[{Vk(t)-Vk(t-1)}/Δt-ΔVth] if{Vk(t)-Vk(t-1)}/Δt>ΔVth   …(6)
  Pc=1 if{Vk(t)-Vk(t-1)}/Δt≦ΔVth   …(7)
 次に、特徴量Vkが空間的に取り扱われる「Vk(ta,[x,y,za])」である場合の信頼度Pcの計算方法について説明する。
 特徴量Vkが空間的情報Vk(ta,[x,y,za])である場合、信頼度Pcは、ある時刻taのX,Y方向に面上に広がりを持つ空間のある地点[x,y,za](ex. x=1,2,3,…、y=1,2,3,…、z=za(固定))の空間的情報Vk(ta,[x,y,za])に基づいて、空間上のVk(t,[x,y,z])の分布がどうであるかを評価するものである。時系列の特徴量Vkのみに注目しているときに比べると、空間的にとらえている場合の方が情報量が多く、特徴量Vk(ta,[x,y,za])の一定量の計算範囲を探索すると「空間中の対象が移動している」あるいは「突然何かが作業対象物の前に現れている」ということが判別可能となる。一例として、RGBカメラを用いて得られる画像が空間的に取り扱われる特徴量Vkに相当する。この他にも、格子状にセンサを配置したセンサアレイから得られるセンサ信号も同様のことがいえる。
 このような特徴量Vk(t,[x,y,z])は情報量が多いので、より低次元で制御しやすい第2の特徴量Vk2に変換してから信頼度Pcを計算することがある。この場合の信頼度演算部11の動作について図9を用いて説明する。図9は、実施の形態1にかかる信頼度演算部11が信頼度Pcを計算する方法の第2の例を説明するための図である。図9に示す例では、信頼度演算部11は、ある地点X1とこれに隣り合った地点X2に関する情報から、第2の特徴量Vk2(t,[X1,X2])を生成する。図9の例では、第2の特徴量Vk2として勾配情報「grad x」および「grad y」が得られるとする。「grad x」は、x軸方向での特徴量Vkの勾配を示し、「grad y」は、y軸方向での第1の特徴量Vkの勾配を示す。勾配情報は、空間的に隣り合った上記の特徴量Vkの差に基づいて計算される。図9の例の場合は、(x,y)=(3,3)において特徴量Vkが非常に小さい値となっている。このとき、例えば、「近傍空間においてVkについては急峻な変化は無い」という前提がある場合には、以下に示す方法で信頼度を求めることができる。
 ここでは、一定の計算範囲を定義して信頼度を計算する場合の例を説明する。以下では、図9に示すx1からx2およびy1からy2の範囲を[(x1,x2),(y1,y2)]と表現する。この場合、この範囲の信頼度は下記の式(8)で表現される。
  Pc[(x1,x2),(y1,y2)]=1-max(grad x,grad y,[(x1,x2),(y1,y2)])  …(8)
 式(8)で表現される信頼度の計算では、図9に示す太い線で囲んだ枠内の[grad x],[grad y]を入力として、入力された合計4つの勾配の中から値が最大の勾配を探し、勾配の最大値に基づいて、勾配が大きいほど信頼度が低くなるようにしている。ここでの勾配とは、空間的に隣り合った2つの特徴量の間の変化量を意味する。図9に示す例では、(x,y)=(3,3)における特徴量Vkが周辺よりも小さく、また、(x,y)=(3,3)以外の地点における特徴量Vkは同じである。また、(x,y)=(3,3)における特徴量Vkとこれに隣り合った各地点における特徴量Vkとの勾配は、すべて0.7である。そのため、(x,y)=(3,3)が含まれない範囲ではPc[(x1,x2),(y1,y2)]=1.0となり、(x,y)=(3,3)が含まれる範囲ではPc[(x1,x2),(y1,y2)]=0.3となる。例えば、図9に示すように、範囲[(1,2),(1,2)]の信頼度はPc[(1,2),(1,2)]=1.0であり、範囲[(3,4),(3,4)]の信頼度はPc[(3,4),(3,4)]=0.3である。
 以上のように、特徴量Vkは外界センサ3が出力するセンサ信号Skを物理量などの数値演算可能な情報に変換したものを総称したもので定義している。また、時系列または空間に基づく特徴量Vkがある場合、事前に予測されるモデルまたは仮定に基づいて、例えば期待される変化の上限Vthに基づき、それを超えるVkの変化の有無、VthとVkの大小関係などから信頼度Pcが計算される。
 このように定義される信頼度Pcは、次の点で上記の特許文献1に記載の技術で使用されている従来の信頼度と比較して優れている。従来の信頼度は、センサからの出力データあるいは距離情報としての特徴量に関して、その出力の確からしさを「出力の絶対量」を利用して、それを直接信頼度として定義している。一方、本実施の形態にかかるロボットシステム100で使用する信頼度Pcは、センサ出力であるセンサ信号Skを特徴量Vkに変換した上で、前後の時系列や空間的な変化に基づいて定義している。この違いがあるため、本実施の形態にかかるロボット制御装置1は、時間的に過去の履歴である特徴量Vk(t)および近傍空間の特徴量Vk(X)の一方または双方を考慮してロボット2の制御を高精度に行うことが可能となる。
 一例として、図10に示す構成のロボットの制御について説明する。図10は、実施の形態1にかかるロボット制御装置1が適用されるロボットシステムの具体例を示す図である。図10に示すロボットシステムは、組み立て操作を行うロボットを含み、外界センサとして、力覚センサ201と、ビジョンセンサ202-1および202-2とが設置されている。このようなロボットシステムにおいて、ロボット制御装置1がロボットを制御して、エンドエフェクタが把持した作業対象物である物体300を位置301まで移動させるものとする。このとき、ロボットの本体に設置されたビジョンセンサ202-1は、視野203-1の範囲を撮影し、撮影結果をセンサ信号として出力している。このロボットシステムにおいて、ロボット制御装置1は、ビジョンセンサ202-1が出力するセンサ信号から算出される補正情報Aと目標軌道に基づいて、図11に示すようにエンドエフェクタを移動させる。図11は、図10に示すロボットシステムにおけるロボットの目標軌道と実軌道と補正情報との関係の一例を示す図である。
 このとき、図12に示すような環境中へ異物または人などが障害物として侵入した場合、ロボット制御装置1は、特徴量Vkの信頼度Pcに基づいて障害物を検出し、状況に応じた行動をとる。例えば、ロボット制御装置1は、図9を用いて説明したような信頼度を算出する場合、ある地点の信頼度が周辺の信頼度よりも低い場合、信頼度が低い地点を避けるようにロボットを制御する。例えば、ロボット制御装置1は、エンドエフェクタの軌道を修正する、移動速度を変更する、移動を一時的に停止させる、などの制御をロボット2に対して実施する。このときのエンドエフェクタの目標軌道と実際の軌道(実軌道)の関係は図13に示すものとなる。これにより、ロボット2および物体300と障害物との衝突が発生するなどしてロボットシステム100が破損してしまうのを防止できる。また、ロボットシステム100の破損を防止できることにより、長時間にわたってラインが停止する事態となるのを回避でき、ラインの停止時間の低減を実現することができる。
 ここで、実施の形態1にかかるロボット制御装置1のハードウェア構成について説明する。図14は、ロボット制御装置1を実現するハードウェアの一例を示す図である。
 ロボット制御装置1は、例えば、図14に示す演算装置101、記憶装置102およびインタフェース回路103により実現することができる。演算装置101の例は、CPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう)、システムLSI(Large Scale Integration)などである。記憶装置102の例は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、SSD(Solid State Drive)、着脱可能なメモリデバイス、またはこれらを組み合わせたものである。
 ロボット制御装置1の信頼度演算部11、補正指令値演算部12および指令値生成部13は、これらの各部として動作するためのプログラムを演算装置101が実行することにより実現される。信頼度演算部11、補正指令値演算部12および指令値生成部13として動作するためのプログラムは記憶装置102に予め格納されている。演算装置101は、上記のプログラムを記憶装置102から読み出して実行することにより、信頼度演算部11、補正指令値演算部12および指令値生成部13として動作する。また、目標軌道保持部14は記憶装置102により実現される。
 記憶装置102は、上記のプログラムを保持するとともに、演算装置101が各種処理を実行する際の一時メモリとしても使用される。インタフェース回路103は、ロボット制御装置1がロボット2およびセンサコントローラ4との間でデータを送受信する際に使用される。
 なお、ロボット制御装置1の各部として動作するための上記のプログラムは記憶装置102に予め格納されているものとしたがこれに限定されない。上記のプログラムは、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROMなどの記録媒体に書き込まれた状態でユーザに供給され、ユーザが記憶装置102にインストールする形態であってもよい。また、上記のプログラムは、インターネットなどのネットワークを介してユーザに提供される形態であってもよい。ロボット制御装置1を実現するハードウェアの例について説明したが、後述する実施の形態2以降で説明する各ロボット制御装置も同様のハードウェアで実現することができる。
実施の形態2.
 つづいて、実施の形態2にかかるロボット制御装置について説明する。実施の形態2にかかるロボット制御装置の構成は実施の形態1と同様である(図2参照)。本実施の形態では実施の形態1と異なる部分について説明する。
 実施の形態2にかかるロボット制御装置1においては、実施の形態1で説明した信頼度演算部11が、2つ以上の外界センサ3のセンサ信号から得られる2つ以上の特徴量1005(Vk,Vk+1,…)を用いて信頼度を計算する点が実施の形態1と異なる。
 実施の形態2にかかる信頼度演算部11は、ある外界センサSENkが出力するセンサ信号Skの特徴量Vkに対して算出した信頼度Pc(k)が、特徴量Vkが急激に変化したことにより1より小さい値となった場合、他の外界センサSENk+1に関する特徴量Vk+1を確認し、特徴量Vk+1も同時に低下傾向がみられる場合には、実際に変化が起きているものとして取り扱う。すなわち、信頼度演算部11は、特徴量Vkそのものの信頼度Pc(k)は低くないとし、信頼度Pc(k)を、特徴量Vk+1または信頼度Pc(k+1)に基づいて、大きな値に補正する。この処理は、下記の式(9)および(10)で表わされる。式(9)において、Kwは重み係数であり、Kwが小さいほど、他の外界センサSENk+1からのセンサ信号の特徴量の値が近いときに信頼度Pcを1に近づける設定となる。
   Pc(k)=Pc(k)+(1-Pc(k))/{1+Kw・ABS(Pc(k)-Pc(k+1))}
                When {Pc(k)-Pc(k+1)}≦ΔPc_th  …(9)
   Pc(k)=Pc(k)       When {Pc(k)-Pc(k+1)}>ΔPc_th  …(10)
 他にも、2つ以上の種類の異なる外界センサ3を用いた場合、補正指令値演算部12によるセンサ信号Skに対応する軌道補正量の演算に関して、補正指令値演算部12は、別種類の外界センサSENkが出力するセンサ信号Sk+1に対応する信頼度Pc(k+1)が高く、有意な補正量ΔXck+1を出力している場合、センサ信号Skに関する補正量ΔXckの重み係数wkを小さくする構成とすることが考えられる。ただし、wkは|wk|<1で定義されるものとし、下記の式(11)~(13)のように軌道補正量ΔXdが定義できる。
   ΔXd = Σ(Ck・wk・ΔXck)  …(11)
    Ck = fnc(Pc(k))      …(12)
    wk = fnc(Pc(k+1),Xck+1)  …(13)
 この時の補正指令値演算部12の処理は、具体的には次のような事例が考えられる。たとえば、図12に示すようなロボットシステムにおいて、ビジョンセンサSENk(ビジョンセンサ202-1)と、ロボットのエンドエフェクタやワーク等の物体300と周辺環境との接触に関する力情報を取得する力覚センサSENk+1(力覚センサ201)とが装着され、ロボット2は組み立て作業を実施するタスクを行う。この条件で、補正指令値演算部12がビジョンセンサSENkに関する軌道補正量の計算を行う場合を考える。補正指令値演算部12は、ビジョンセンサSENkが出力するセンサ信号Skの信頼度に基づく補正係数Ckとは独立した指標として、重み係数wkを、力覚センサSENk+1が出力するセンサ信号Sk+1に基づいて自動調整することが可能である。例えば、力覚センサSENk+1が出力するセンサ信号Sk+1の値が定められた閾値よりも大きい場合は接触状態であるとし、重み係数wkを1よりかなり小さい値とする。一方、力覚センサSENk+1が出力するセンサ信号Sk+1の値が定められた閾値以下で接触状態ではない場合(すなわちXck+1がほぼ0の場合)は重み係数wkをほぼ1とする。この調整は、エンドエフェクタと障害物などが接触状態にあり、ビジョンセンサが出力するセンサ信号に基づいて演算される補正量(位置補正量)に従って軌道補正を行うと接触状態が悪化する場合に有効である。
 以上のような構成により、2つ以上の複数の外界センサ3を備えるよりロボットシステム100で補正指令値生成を行うロボット制御装置1においては、特に、ある外界センサ3の他の外界センサ3に対応する信頼度1006(信頼度Pc(k+1))あるいは補正情報1003を使って信頼度Pc(k)の補正が可能となる。これによって、異物混入や人侵入といったイレギュラー状態をセンサの故障と切り離した形で検出し、動作継続および早期の異常状態検出といったことが可能となる。この結果、生産システムの停止時間の短縮、生産効率の向上といった格別の効果を得ることができる。
実施の形態3.
 図15は、実施の形態3にかかるロボット制御装置1aの構成例を示す図である。ロボット制御装置1aは、実施の形態1にかかるロボット制御装置1に、さらに補正オーバーライド演算部15を追加し、指令値生成部13を指令値生成部13aに置き換えた構成である。図15においては、実施の形態1にかかるロボット制御装置1と同じ構成要素に同一の符号を付している。本実施の形態では実施の形態1と異なる部分について説明する。
 補正オーバーライド演算部15では、信頼度演算部11が算出する信頼度1006に基づいて、目標軌道を進む速度指標であるオーバーライド値の補正を行い補正オーバーライドを生成する。補正オーバーライド演算部15は、信頼度1006が低いほど補正オーバーライドが低くなるように補正オーバーライド1007を演算し、指令値生成部13aに出力する。指令値生成部13aは、軌道補正量1004と、目標軌道1008と、ロボット2の内界センサによる計測結果に基づく位置情報1010と、補正オーバーライド1007とに基づいて位置指令値1009を生成する。
 図16は、実施の形態3にかかるロボット制御装置1aの補正オーバーライド演算部15の動作の一例を示すフローチャートである。
 補正オーバーライド演算部15は、図16に示すように、信頼度演算部11から出力される信頼度1006を取得し(ステップS41)、信頼度1006に基づいて、指令値の補正に用いる補正係数として補正オーバーライドを算出する(ステップS42)。そして、補正オーバーライド演算部15は、算出した補正オーバーライド1007を指令値生成部13aに出力する(ステップS43)。
 ここで、補正オーバーライドは例えば0~100%で定義することができる。この場合、補正オーバーライドが0%であればロボット2が進むことを止め、補正オーバーライドが100%であればロボット2は目標軌道で設計されていた速度で動作を行う。なお、これ以降の説明では、補正オーバーライドをOvrdCと記載する場合がある。また、これ以降の説明では、補正オーバーライドOvrdCは基本的には1.0を初期値として、0~1の範囲の実数を取るものとする。補正オーバーライド演算部15では、センサ毎の複数の補正オーバーライドOvrdC(k)を演算する。
 図17は、実施の形態3にかかるロボット制御装置1aの指令値生成部13aの動作の一例を示すフローチャートである。
 指令値生成部13aは、図17に示すように、目標軌道保持部14から出力される目標軌道1008(Xd)、補正指令値演算部12から出力される軌道補正量1004(ΔXd)および補正オーバーライド演算部15から出力される補正オーバーライド1007(OvrdC)を取得し(ステップS51)、目標軌道1008、軌道補正量1004および補正オーバーライド1007に基づいて指令値を生成する(ステップS52)。指令値生成部13aは、生成した指令値をロボット2に出力する(ステップS53)。
 ステップS52において、指令値生成部13aは、入力された目標軌道Xdあるいは軌道補正量ΔXdの実行量を補正オーバーライドOvrdC(0~1)に基づいて補正することで、速度変化と等価の処理を行い、指令値を生成する。たとえば、信頼度Pcの低下に伴い補正オーバーライドOvrdCが低下すると、ロボット手先の移動速度を低減させる方向に作用する。
 例えば、図18に示したような事例、すなわち、ロボット2に取り付けられたビジョンセンサ202-2の視野203-1に障害物がある場合を考える。図18に示すケースでは、指令値生成部13aが補正情報ΔXdとともに取得した信頼度Pcが低い値となり、これに伴い補正オーバーライドOvrdCが低下する。結果として、ロボット2は、図19に示すように、障害物が無い場合の軌道である、一点鎖線の下向き矢印211で示す目標軌道通りに進むのではなく、太い実線の下向き矢印212に従って、減速した形で動作を継続する。
 事前に与えられている目標軌道Xdが位置の点列で与えられている場合、指令値生成部13aは、目標軌道Xdを、各地点における制御周期毎の次目標位置への移動速度vdに換算し、移動速度vdが低減した場合の1制御周期分の移動量から、補正オーバーライドOvrdC適用後の目標位置Xdcを演算する。
 補正オーバーライド演算部15が信頼度1006に基づいて算出する補正オーバーライドOvrdCは、例えば下記の式(14)に示すように、複数のセンサ信号Skに関する信頼度Pc(k)の中の最小値と定義することができる。
   OvrdC = min(Pc(k))   …(14)
 他にも、補正オーバーライド演算部15が、複数のセンサ信号Skそれぞれに対応する複数の補正オーバーライドOvrdC(k)を出力し、指令値生成部13aは、複数のセンサ信号Skそれぞれに対応する複数の補正情報ΔXckのうち、もっとも軌道補正量ΔXdへの割合が大きいものに対応する補正オーバーライドOvrdC(k)を選択して指令値の生成を行うような方法がある。
 以上のような構成を有する補正オーバーライド演算部15を実施の形態1にかかるロボット制御装置1に追加してロボット制御装置1aとすることで、ロボットシステム100の動作中に、異物の混入、人の侵入といったイレギュラー状態を、外界センサ3の故障と切り離した形で検出し、低速による動作継続あるいは衝突することなく異常状態検出が可能となる。この結果、生産システムの停止時間の短縮、生産効率の向上といった格別の効果を得ることができる。
実施の形態4.
 図20は、実施の形態4にかかるロボット制御装置1bの構成例を示す図である。ロボット制御装置1bは、実施の形態3にかかるロボット制御装置1aの補正オーバーライド演算部15を補正オーバーライド演算部15bに置き換えた構成である。図20においては、実施の形態3にかかるロボット制御装置1aと同じ構成要素に同一の符号を付している。本実施の形態では実施の形態3と異なる部分について説明する。
 実施の形態3の補正オーバーライド演算部15の処理と実施の形態4の補正オーバーライド演算部15bの処理の違いは、補正オーバーライドOvrdC(k)を演算する際に、対象とする外界センサ3である第1の外界センサのセンサ信号Skの信頼度1006(Pc(k))に加えて、他の外界センサ3である第2の外界センサのセンサ信号Sk+1の特徴量1005(Vk+1)を補正オーバーライド演算部15bへの入力とし、補正オーバーライド演算部15bが下記の式(15)および式(16)に示すように補正オーバーライドOvrdC(k)を演算する点である。具体的には、補正オーバーライド演算部15bは、特徴量Vk+1が閾値ΔVth以下の場合には、信頼度Pc(k)に応じて補正オーバーライドを演算し、閾値ΔVthを超えた場合は補正オーバーライドを演算せずに0を出力する。本実施の形態では、閾値ΔVthの大小関係および関数の定義は下記に限らないが、ある特徴量Vk+1が閾値ΔVthを超えるか否かに基づいて数式を切り替える点に特徴がある。
   OvrdC(k) = fnc(Pc(k))    Vk+1 ≦ ΔVth   …(15)
   OvrdC(k) = 0        Vk+1 > ΔVth   …(16)
 たとえば、図21に示すようなロボットシステムにおいて、ビジョンセンサ202-1,202-2、距離センサ(図示せず)などによる非接触な計測に基づく情報と、力覚センサ201、触覚センサ(図示せず)などによる接触に基づく情報とを統合して活用することを考える。ビジョンセンサ202-1(以下ビジョンセンサSENkとする)と、ロボット2のエンドエフェクタおよびワークと周辺環境との接触に関する力情報を取得する力覚センサ201(以下、力覚センサSENk+1とする)とがロボットに装着され、ロボット2は組み立て作業を実施するタスクを行う。このときにビジョンセンサSENkに関する軌道補正量の計算を行う場合を考える。この場合、図22に示すように、ビジョンセンサSENkのセンサ信号Skの信頼度Pc(k)に基づく補正係数Ckとは独立した指標として、力情報を計測可能な力覚センサSENk+1のセンサ信号Sk+1の特徴量Vk+1(図示の特徴量B)に基づいて、ビジョンセンサSENkに関する補正オーバーライドOvrdC(k)(図示の補正情報A)を自動調整することが可能である。
 本実施の形態により、複数の外界センサ3を備えたロボットシステム100において、作業状況に応じた動作速度調整が難しい場合に、非接触な計測に基づくセンサ信号Skの特徴量Vkおよび接触が発生する計測に基づくセンサ信号Sk+1の特徴量Vk+1の組み合わせによって自動的に速度調整が可能なシステムを容易に構成できる。結果として、システム停止が生じにくいロボットシステムを短時間で立ち上げることが可能となるため、製品製造にかかる工場の稼働率および生産効率の向上を実現できる。
実施の形態5.
 図23は、実施の形態5にかかるロボット制御装置1cの構成例を示す図である。ロボット制御装置1cは、実施の形態3にかかるロボット制御装置1aに特徴量抽出部16を追加した構成である。図23においては、実施の形態3にかかるロボット制御装置1aと同じ構成要素に同一の符号を付している。本実施の形態では実施の形態3と異なる部分について説明する。
 図24は、実施の形態5にかかるロボット制御装置1cの特徴量抽出部16の動作の一例を示すフローチャートである。
 特徴量抽出部16は、図24に示すように、外界センサ3による計測結果を示す情報である外界センサ3の出力情報1002をセンサコントローラ4から取得し(ステップS61)、出力情報1002に基づいて特徴量を抽出する(ステップS62)。特徴量抽出部16は、抽出した特徴量1005を信頼度演算部11に出力する(ステップS63)。
 また、特徴量抽出部16は、ステップS62で抽出した特徴量から補正情報を算出し(ステップS64)、算出した補正情報1003を補正指令値演算部12に出力する(ステップS65)。
 特徴量抽出部16が算出する補正情報1003は、位置に関するものに限らず、速度、加速度、加加速度に関するものとすることができる。本実施の形態では補正情報1003は位置情報に基づいて算出される。特徴量抽出部16が算出する補正情報1003は、例えば、実施の形態1で説明した式(5)で示される補正量ΔXck(T)とすることができる。
 このような構成の場合、特徴量抽出部16は、L個の外界センサ3の出力情報1002に対して、M個の補正情報およびN個の特徴量を出力することができる(L,M,Nは2以上の自然数)。
 特徴量抽出部16は、例えば、距離センサSENkおよびRGBカメラSENk+1の2つのセンサが出力するセンサ信号SkおよびSk+1を統合して、作業対象物の品種を識別する処理を行ったうえで、識別された品種のモデル情報に基づいて、RGB画像の特徴量Vkから作業対象物の中心位置座標を第2の特徴量Vk2として出力することが可能である。
 通常、このような処理は、センサコントローラ4側のアプリケーションとして統合されることが多いが、ロボット制御装置1c側に特徴量抽出部16を備えることで、冗長な複数のセンサ入力として特徴量Vkあるいは第2の特徴量Vk2として1つを出力したい場合に有効な構成となる。
 これにより、信頼度演算部11に入力する特徴量1005そのものの情報の確からしさを向上することができる。結果として、本実施の形態は、システムの停止時間を低減することが可能となり、生産システムの稼働率の向上および生産効率の向上を実現できる。
 なお、本実施の形態では、実施の形態3にかかるロボット制御装置1aに特徴量抽出部16を追加した構成について説明したが、実施の形態1にかかるロボット制御装置1に特徴量抽出部16を追加した構成とすることも可能である。
実施の形態6.
 つづいて、実施の形態6にかかるロボット制御装置について説明する。実施の形態6にかかるロボット制御装置の構成は実施の形態1と同様である(図2参照)。本実施の形態では実施の形態1と異なる部分について説明する。
 実施の形態6にかかるロボット制御装置1においては、指令値生成部13が指令値を生成する動作が実施の形態1と異なる。
 図25は、実施の形態6にかかるロボット制御装置1の指令値生成部13の動作の一例を示すフローチャートである。
 本実施の形態にかかる指令値生成部13は、図25に示すように、目標軌道保持部14から出力される目標軌道1008(Xd)、補正指令値演算部12から出力される軌道補正量1004(ΔXd)、外界センサ3によって計測されている、ロボット2の参照点と対象物との距離情報、および、信頼度演算部11から出力される信頼度1006を取得する(ステップS71)。ロボット2の参照点は、ロボット2の本体または周辺環境に設けられており、外界センサ3がビジョンセンサの場合はビジョンセンサの撮影範囲内に存在する。
 指令値生成部13は、次に、軌道補正量1004、ロボット2の参照点と対象物との距離情報および信頼度1006に基づいて、目標軌道1008の制御周期ごとの移動量を補正する(ステップS72)。
 指令値生成部13は、次に、目標軌道1008の補正後の制御周期ごとの移動量に基づいて指令値を生成し(ステップS73)、生成した指令値をロボット2に出力する(ステップS74)。
 本実施の形態にかかるロボット制御装置1では、実施の形態3で説明した補正オーバーライド1007を演算する処理、すなわち、目標軌道を進む速度指標であるオーバーライド値を補正する処理を指令値生成部13で行う。このとき、指令値生成部13は上述した補正オーバーライド演算部15が用いるセンサ信号Skの信頼度Pcの代わりに、上記の距離情報を用いる。
 上記の距離情報を用いてオーバーライド値を補正する場合の具体例について説明する。例えば、ロボットシステム100が工業製品の組立作業をタスクとする場合には、工業製品の部品を取り出すロボット手先の位置が上記の参照点となり、組み付け先のロボット手先の位置がロボット2の目標地点であり上記の対象となる。距離情報を取得する方法としては、直接的にレーザ変位計等を用いて計測することで取得する方法、ビジョンセンサ202-1を活用して、図26および図27に示すように第2の特徴量として得られた画像上の対象物のサイズから接近状態を推定して距離情報を算出する方法、などがある。
 ビジョンセンサを用いて第2の特徴量として対象物のサイズからロボットの参照点との距離を換算する方法について補足説明する。まず、図28に、画像処理による特徴量の抽出事例を例示する。図28は、RGB画像があった場合に、RGB画像から円の中心と半径を特徴量Vkとして抽出する処理を模擬している。
 図29は、RGB画像の特徴量から第2の特徴量Vk2を抽出する方法を説明するための図である。
 図29は、特徴量Vkから円の外形、円の中心および円の半径Rkを第2の特徴量Vk2として抽出する様子を示している。第2の特徴量Vk2の時系列変化を考えるとき、図29の右上の図は急に局所的なノイズが現れた場合を示し、信頼度Pc(k)と、円の中心および半径の情報である第2の特徴量Vk2が変化している様子がわかる。また、図29の右下の図は急に画像の右下部分の色が変化した場合、具体的には、異物が撮像された場合を示している。この場合は色の時間的な変化が急激であるため、一時的に信頼度Pcが低下することになる。
 つづいて、本実施の形態にかかる指令値生成部13が指令値を生成する方法について説明する。指令値生成部13は、まず、第2の特徴量Vk2に基づく対象物の近似円の半径Rkが大きくなっている場合、目標となる地点での見え方での近似円の半径をRdk、距離をLdとすると、接近距離Lcは下記の式(17)のように定義できる。なお、Krは適当な定数とする。
   Lc = Ld・{1-Kr・(Rk-Rdk)}   …(17)
 この時、指令値生成部13は、信頼度Pcが小さいほど、あるいは、接近距離Lcが接近閾値Lthを下回ったら、実施の形態3で説明した補正オーバーライドを小さくする場合と同様の処理を適用して、実行量を補正して小さくする。この実行量を補正して小さくする処理は、目標軌道を速度波形に換算し、軌道を変化させずに軌道に沿った線速度を一定割合分だけ低下させる処理である。指令値生成部13は、この場合の軌道に基づいて速度パターンを位置指令値に換算する。
 以上のような構成により、対象物との接近距離Lcおよびその接近距離Lcを計測している外界センサ3が出力するセンサ信号の特徴量Vkの信頼度Pc(k)に基づいて動作速度が規定されるため、自動的にロボット動作速度が調整される。結果として、ロボットシステム100の立上げ時の調整工数が減るといった格別の効果を得ることができる。
実施の形態7.
 図30は、実施の形態7にかかるロボット制御装置1dの構成例を示す図である。ロボット制御装置1dは、実施の形態1にかかるロボット制御装置1の信頼度演算部11を信頼度演算部11dに置き換えた構成である。図30においては、実施の形態1にかかるロボット制御装置1と同じ構成要素に同一の符号を付している。本実施の形態では実施の形態1と異なる部分について説明する。
 信頼度演算部11dには特徴量1005およびロボット2の位置情報1010が入力される。信頼度Pcは特徴量Vkのみに基づく指標であるが、信頼度演算部11dは、ロボット2の位置情報1010(Xa(t))の履歴に基づいて特徴量Vk(t)の変化を予測し、特徴量の予測値Vkpと実際の特徴量Vkとを比較することで、時刻tにおける特徴量Vk(t)の信頼度が低い可能性があることを予測する。
 具体例について説明する。外界センサ3を用いたセンサフィードバック制御を活用したロボットシステム100において、ロボット制御装置1dは軌道補正量1004の更新値に基づいてロボット2に位置指令値1009を出力するとする。このとき、信頼度演算部11dは、ロボット手先位置を移動させた位置情報の履歴をXa(t)として取得すると、Xa(t)によって、次の瞬間に外界センサ3が出力するセンサ信号Skで得られる特徴量Vkの変化、すなわち環境変化により得られる特徴量Vkに期待される変化および変化が生じる方向がある程度予測できる。
 特徴量Vkに期待される変化の事例について説明する。センサフィードバック制御に基づいて計算される補正情報ΔXckは、あるセンサ信号Skに対し、特徴量Vkと目標特徴量Vdkの差が小さくなるように出力されているはずである。ここで、特徴量差の履歴ΔVkを下記の式(18)のように定義する。
   ΔVk(t) = Vk(t)-Vdk(t)   …(18)
 この時、特徴量差の履歴ΔVk(t)が大きくなる場合は期待されている傾向と違うため、信頼度演算部11dは信頼度Pcを小さくする補正を行い、補正後の信頼度Pcを補正指令値演算部12に出力する。
 また、変化が生じる方向の事例について説明する。Xa(t)が特定の方向に進んでいる場合、この軸に直交する特徴量成分をVk_crsと定義し、移動方向と直交する方向への特徴量差の履歴をΔVk_crsとすると、本来ΔVk_crsはほとんど変化しないはずである。そのため、移動方向と直交する方向への特徴量差の履歴ΔVk_crsの変化が一定の閾値ΔVk_thよりも大きい場合には、想定外の事象が生じている可能性が高いため、信頼度Pcを小さくおくことができる。すなわち、信頼度演算部11dは、特徴量差の履歴ΔVk_crsの変化が閾値ΔVk_thよりも大きい場合、信頼度Pcを小さい値に補正して補正指令値演算部12に出力する。
 以上のように、ロボット2が外界センサ3のセンサフィードバックに基づいて動作する場合には、期待される特徴量Vkの変化および変化の方向がある。信頼度演算部11dは、特徴量Vkの期待されている変化の量および方向をロボット2の手先位置の履歴Xaに基づいて求め、実際の特徴量Vkとの比較結果に基づき信頼度Pcを補正することで信頼度Pcの確からしさを向上させる。その結果、システムの稼働率および生産効率を向上させるといった効果が得られる。
 なお、本実施の形態では、実施の形態1にかかるロボット制御装置1の信頼度演算部11を信頼度演算部11dに置き換えた構成について説明したが、実施の形態3にかかるロボット制御装置1aの信頼度演算部11、実施の形態4にかかるロボット制御装置1bの信頼度演算部11、または、実施の形態5にかかるロボット制御装置1cの信頼度演算部11を、信頼度演算部11dに置き換えた構成とすることも可能である。
実施の形態8.
 図31は、実施の形態8にかかるロボット制御装置1eの構成例を示す図である。ロボット制御装置1eは、実施の形態1にかかるロボット制御装置1(図2参照)に学習部20を追加した構成である。図31においては、実施の形態1にかかるロボット制御装置1と同じ構成要素に同一の符号を付している。本実施の形態では実施の形態1と異なる部分について説明する。
 図32は、実施の形態8にかかるロボット制御装置1eの学習部20の構成例を示す図である。学習部20は、評価部21および重み係数決定部22を備える。学習部20には、各外界センサSENkに対する補正情報1003(ΔXck)と、信頼度1006(Pc(k))と、重み係数1101と、作業情報1110とが入力される。作業情報1110は、ロボットシステム100に作業を試行させた結果、または、シミュレーションにより模擬された作業の結果を示す作業結果情報であり、作業成否および作業時間を含む。重み係数1101は、補正情報1003および信頼度1006が入力されると軌道補正量1004を出力する関数を構成する重み係数である。
 学習部20においては、評価部21が、作業情報1110に基づいて、補正情報1003、信頼度1006および重み係数1101を、より作業成功率が高く、作業時間が短くなるものを高い評価とした機械学習を行う。すなわち、評価部21は、より高い評価となる補正情報1003、信頼度1006および重み係数1101の組み合わせを学習する。重み係数決定部22は、評価部21による評価が高い重み係数の複数セットから1セットを選択して、学習後の重み係数1102として補正指令値演算部12に出力する。補正指令値演算部12は、学習部20による学習結果、すなわち、学習後の重み係数1102を保持しており、新たに補正情報1003および特徴量1005の入力があると、入力された補正情報1003および特徴量1005と、保持している学習後の重み係数1102とに基づいて軌道補正量1004を算出する。
 ここで、重み係数とは、信頼度Pc(k)と補正情報ΔXckを入力とし、軌道補正量ΔXdを出力とする関係式で表すために定義されたものである。この重み係数をwckと定義した場合、軌道補正量ΔXdは、例えば以下の式(19)に従って計算される。重み係数wckは信頼度を変数とした多項式などの適当な関数とする。
   ΔXd = Σ(wck・ΔXck)   …(19)
 このような重み係数と、タクトタイムおよび作業成否といった情報との因果関係を分析することは一般に難しいが、大量の作業情報1110をシミュレーションまたは実際の作業を実施して取得し、機械学習を用いて学習することで、適切な重み係数を自動的に決定することができる。
 なお、本実施の形態では学習部20がロボット制御装置1eの内部に存在するものとして説明を行ったが、ロボット制御装置1eの外部、例えば外部のコンピュータ内に学習部20が存在する形態であってもよい。この場合、学習部20は、機械学習が完了した後、機械学習で取得した学習後の重み係数1102をロボット制御装置1eの補正指令値演算部12にセットする。
 以上のような構成により、通常、関係性が煩雑で求めることが困難な重み係数wckについて、機械学習を用いてより効果的な重み係数wckを決定することができるようになる。このため、作業成功率が高く作業時間が短い調整とすることができる。結果として、生産システムの生産効率を向上できる効果が得られる。
 なお、本実施の形態では、実施の形態1にかかるロボット制御装置1に学習部20を追加した構成について説明したが、実施の形態2~7で説明したロボット制御装置に学習部20を追加した構成とすることも可能である。
実施の形態9.
 図33は、実施の形態9にかかるロボット制御装置1fの構成例を示す図である。ロボット制御装置1fは、実施の形態3にかかるロボット制御装置1a(図15参照)に学習部30を追加した構成である。図33においては、実施の形態3にかかるロボット制御装置1aと同じ構成要素に同一の符号を付している。本実施の形態では実施の形態3と異なる部分について説明する。
 図34は、実施の形態9にかかるロボット制御装置1fの学習部30の構成例を示す図である。学習部30は、評価部31および補正オーバーライド関数決定部32を備える。学習部30には、補正オーバーライド関数1103と、信頼度1006(Pc(k))と、重み係数1101と、作業情報1110とが入力される。これらの信頼度1006(Pc(k))、重み係数1101および作業情報1110は、実施の形態8で説明した学習部20に入力される信頼度1006(Pc(k))、重み係数1101および作業情報1110と同じものである。
 学習部30においては、評価部31が、作業情報1110に基づいて、作業時間が短く、作業成功率が高い補正オーバーライド関数1103を機械学習によって獲得する。
 ここで、補正オーバーライド関数とは、信頼度Pc(k)と補正オーバーライドの関係性について定義したものである。補正オーバーライド関数決定部32は、補正オーバーライド関数について、ある重み係数1101で定義された指令値生成部13aの処理において、もっとも作業成功率を上げつつ、作業時間が最短となる、補正オーバーライドの関数定義について選定し、その結果を学習後の補正オーバーライド関数1104として補正オーバーライド演算部15に出力する。補正オーバーライド演算部15は、学習部30による学習結果、すなわち、学習後の補正オーバーライド関数1104を保持しており、新たに信頼度1006の入力があると、入力された信頼度1006と、保持している学習後の補正オーバーライド関数1104とに基づいて補正オーバーライド1007を算出する。
 例えば、補正オーバーライド関数1104は、実施の形態3および4において数式(14)、数式(15)および数式(16)に例示したような定義の仕方がある。特に、重み係数1101がある場合、補正オーバーライド演算部15は、センサ信号Skに対応する複数の補正オーバーライドOvrdC(k)を出力し、指令値生成部13aにおいて、補正情報ΔXckのうち、もっとも軌道補正量ΔXdへの割合が大きいものに対応する補正オーバーライドOvrdC(k)を選択するような方法をとることがある。そのため、補正オーバーライド関数1104は、重み係数1101および信頼度1006についての2つの関数として定義する必要がある。学習部30による学習処理では、これらの関数として定義する多項式など色々なバリエーションをシミュレーションまたは実機を用いて試行し、その結果を学習部30に入力する。結果として、もっとも評価値が高くなるような結果を選択して、学習後の補正オーバーライド関数として出力することができる。
 なお、本実施の形態では学習部30がロボット制御装置1fの内部に存在するものとして説明を行ったが、ロボット制御装置1fの外部、例えば外部のコンピュータ内に学習部30が存在する形態であってもよい。この場合、学習部30は、機械学習が完了した後、機械学習で取得した学習後の補正オーバーライド関数1104をロボット制御装置1fの補正オーバーライド演算部15にセットする。
 以上の構成を有することで、補正オーバーライド関数のような、通常、関係性が煩雑で求めることが困難な関数表現について、機械学習を用いてより効果的な関数表現を決定することができるようになる。結果として、作業成功率が高く作業時間が短い調整とすることができ、生産システムの生産効率を向上できる効果が得られる。
 なお、本実施の形態では、実施の形態3にかかるロボット制御装置1aに学習部30を追加した構成について説明したが、実施の形態4~6で説明した各ロボット制御装置、すなわち、補正オーバーライド演算部を備えるロボット制御装置に学習部30を追加した構成とすることも可能である。
 以上の実施の形態に示した構成は、一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、実施の形態同士を組み合わせることも可能であるし、要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 1,1a,1b,1c,1d,1e,1f ロボット制御装置、2 ロボット、3 外界センサ、4 センサコントローラ、11,11d 信頼度演算部、12 補正指令値演算部、13,13a 指令値生成部、14 目標軌道保持部、15,15b 補正オーバーライド演算部、16 特徴量抽出部、20,30 学習部、21,31 評価部、22 重み係数決定部、32 補正オーバーライド関数決定部、100 ロボットシステム、201 力覚センサ、202-1,202-2 ビジョンセンサ、203-1 視野、300 物体。

Claims (9)

  1.  ロボットの本体または前記ロボットの周辺環境に設置された外界センサによる計測結果を示すセンサ信号から得られる特徴量を入力し、前記特徴量の時間的な変化または空間的な変化に基づいて前記センサ信号に対する信頼度を演算する信頼度演算部と、
     前記信頼度、および、前記特徴量に基づいて算出された補正情報に基づいて、前記ロボットの軌道を補正するための軌道補正量を演算する補正指令値演算部と、
     予め定められた前記ロボットの目標軌道と、前記軌道補正量とに基づいて前記ロボットに対する位置指令値を生成する指令値生成部と、
     を備えることを特徴とするロボット制御装置。
  2.  前記外界センサが複数であり、各外界センサが出力する前記センサ信号のそれぞれから得られる複数の特徴量を前記信頼度演算部へ入力し、
     前記信頼度演算部は、前記信頼度を演算した後、演算により求めた信頼度を、複数の前記特徴量に基づいて補正し、補正後の信頼度を前記補正指令値演算部に出力する、
     ことを特徴とする請求項1に記載のロボット制御装置。
  3.  前記信頼度の履歴に基づいて前記位置指令値のオーバーライド値を補正し、補正後のオーバーライド値である補正オーバーライドを前記指令値生成部に出力する補正オーバーライド演算部、
     を備え、
     前記指令値生成部は、前記目標軌道、前記軌道補正量および前記補正オーバーライドに基づいて前記位置指令値を生成する、
     ことを特徴とする請求項1または2に記載のロボット制御装置。
  4.  前記信頼度の履歴に基づいて前記位置指令値のオーバーライド値を補正し、補正後のオーバーライド値を、さらに、前記信頼度に対応する第1の外界センサとは異なる第2の外界センサによる計測結果の特徴量に基づいて調整し、調整後のオーバーライド値である補正オーバーライドを前記指令値生成部に出力する補正オーバーライド演算部、
     を備え、
     前記指令値生成部は、前記目標軌道、前記軌道補正量および前記補正オーバーライドに基づいて前記位置指令値を生成する、
     ことを特徴とする請求項1または2に記載のロボット制御装置。
  5.  前記外界センサにより計測された、前記ロボットの参照点と対象物との距離情報を前記指令値生成部に入力し、
     前記指令値生成部は、前記目標軌道と、前記軌道補正量と、前記距離情報とに基づいて前記位置指令値を生成する、
     ことを特徴とする請求項1または2に記載のロボット制御装置。
  6.  複数の前記外界センサが出力する前記センサ信号を入力とし、入力された各センサ信号の特徴量を抽出して前記信頼度演算部に出力するとともに、抽出した前記特徴量と定められた目標値とに基づいて前記補正情報を算出して前記補正指令値演算部に出力する特徴量抽出部、
     を備えることを特徴とする請求項1から5のいずれか一つに記載のロボット制御装置。
  7.  前記ロボットの位置情報を前記信頼度演算部に入力し、
     前記信頼度演算部は、前記特徴量に基づく演算により得られた前記信頼度を前記位置情報の履歴に基づいて補正し、補正後の前記信頼度を前記補正指令値演算部に出力する、
     ことを特徴とする請求項1から6のいずれか一つに記載のロボット制御装置。
  8.  複数回の作業試行時に前記補正指令値演算部に入力された前記信頼度および前記補正情報と、それぞれの前記作業試行における作業結果情報と、を入力とし、前記軌道補正量と前記補正情報と前記信頼度との関係を表す重み係数を、前記信頼度、前記補正情報および前記作業結果情報に基づいて学習する学習部、
     を備え、
     前記補正指令値演算部は、学習後の前記重み係数を用いて前記軌道補正量を演算する、
     ことを特徴とする請求項1から7のいずれか一つに記載のロボット制御装置。
  9.  複数回の作業試行時に前記補正オーバーライド演算部に入力された前記信頼度と、それぞれの前記作業試行における作業結果情報と、を入力とし、前記信頼度に基づいて前記補正オーバーライドを算出する補正オーバーライド関数を、前記信頼度および前記作業結果情報に基づいて学習する学習部、
     を備え、
     前記補正オーバーライド演算部は、学習後の前記補正オーバーライド関数を用いて前記補正オーバーライドを演算する、
     ことを特徴とする請求項3または4に記載のロボット制御装置。
PCT/JP2020/034761 2020-09-14 2020-09-14 ロボット制御装置 WO2022054292A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112020007606.7T DE112020007606B4 (de) 2020-09-14 2020-09-14 Robotersteuervorrichtung
JP2022547375A JP7301238B2 (ja) 2020-09-14 2020-09-14 ロボット制御装置
US18/010,810 US20230286150A1 (en) 2020-09-14 2020-09-14 Robot control device
PCT/JP2020/034761 WO2022054292A1 (ja) 2020-09-14 2020-09-14 ロボット制御装置
CN202080102469.XA CN116075399A (zh) 2020-09-14 2020-09-14 机器人控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/034761 WO2022054292A1 (ja) 2020-09-14 2020-09-14 ロボット制御装置

Publications (1)

Publication Number Publication Date
WO2022054292A1 true WO2022054292A1 (ja) 2022-03-17

Family

ID=80631748

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/034761 WO2022054292A1 (ja) 2020-09-14 2020-09-14 ロボット制御装置

Country Status (5)

Country Link
US (1) US20230286150A1 (ja)
JP (1) JP7301238B2 (ja)
CN (1) CN116075399A (ja)
DE (1) DE112020007606B4 (ja)
WO (1) WO2022054292A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07266272A (ja) * 1994-03-29 1995-10-17 Nippon Telegr & Teleph Corp <Ntt> マニピュレータ用追従方法及び装置
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
WO2014002678A1 (ja) * 2012-06-29 2014-01-03 三菱電機株式会社 ロボット制御装置およびロボット制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0353585A3 (de) 1988-08-04 1992-04-22 Siemens Aktiengesellschaft Verfahren zur Bahn- und Positionskorrektur eines Werkzeugs eines Roboters
US4945493A (en) 1988-09-26 1990-07-31 Ford Motor Company Method and system for correcting a robot path
DE102014017307B4 (de) 2014-11-21 2019-08-01 Kuka Roboter Gmbh Verfahren und System zum Bearbeiten eines Bauteils mit einem robotergeführten Werkzeug
SG11201706174SA (en) 2015-01-30 2017-08-30 Agency Science Tech & Res Mobile manipulator and method of controlling the mobile manipulator for tracking a surface
US10813709B2 (en) 2015-08-25 2020-10-27 Kawasaki Jukogyo Kabushiki Kaisha Robot system
JP7266272B2 (ja) 2018-05-24 2023-04-28 株式会社オプトン ろう接装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07266272A (ja) * 1994-03-29 1995-10-17 Nippon Telegr & Teleph Corp <Ntt> マニピュレータ用追従方法及び装置
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
WO2014002678A1 (ja) * 2012-06-29 2014-01-03 三菱電機株式会社 ロボット制御装置およびロボット制御方法

Also Published As

Publication number Publication date
US20230286150A1 (en) 2023-09-14
DE112020007606T5 (de) 2023-06-29
CN116075399A (zh) 2023-05-05
JPWO2022054292A1 (ja) 2022-03-17
JP7301238B2 (ja) 2023-06-30
DE112020007606B4 (de) 2024-06-13

Similar Documents

Publication Publication Date Title
CN108873768B (zh) 任务执行系统及方法、学习装置及方法、以及记录介质
JP6431017B2 (ja) 機械学習により外力の検出精度を向上させた人協調ロボットシステム
US11498220B2 (en) Control system and control method
US11052537B2 (en) Robot operation evaluation device, robot operation evaluating method, and robot system
JP5754454B2 (ja) ロボットピッキングシステム及び被加工物の製造方法
WO2013035244A1 (ja) ロボットアームの制御装置及び制御方法、ロボット、制御プログラム、並びに、集積電子回路
CN113272105B (zh) 用于控制机器人臂的系统和方法
US10940585B2 (en) Vibration suppression device
US10962957B2 (en) Collision position estimation device and machine learning device
EP4019207A1 (en) Model generation device, model generation method, control device, and control method
WO2021033471A1 (ja) 制御装置、制御方法、及び制御プログラム
WO2023037634A1 (ja) 指令値生成装置、方法、及びプログラム
CN113954076B (zh) 基于跨模态预测装配场景的机器人精密装配方法
US20230032334A1 (en) Robot simulation device
WO2022054292A1 (ja) ロボット制御装置
JP7468619B2 (ja) 学習装置、学習方法、及び、記録媒体
JP7263987B2 (ja) 制御装置、制御方法、及び制御プログラム
US20230286143A1 (en) Robot control in working space
US20220113724A1 (en) Information processing device, robot system, and information processing method
JP6949284B1 (ja) 数値制御装置
US20220274255A1 (en) Control apparatus, control method, and computer-readable storage medium storing a control program
JP7376318B2 (ja) アノテーション装置
US20240131699A1 (en) Robot system, learning apparatus, information processing apparatus, learned model, control method, information processing method, method for manufacturing product, and recording medium
CN117207190B (zh) 基于视觉与触觉融合的精准抓取机器人系统
WO2023100282A1 (ja) データ生成システム、モデル生成システム、推定システム、学習済みモデルの製造方法、ロボット制御システム、データ生成方法、およびデータ生成プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20953357

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022547375

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20953357

Country of ref document: EP

Kind code of ref document: A1