WO2023090204A1 - 制御システム、制御装置及びアクチュエータ - Google Patents

制御システム、制御装置及びアクチュエータ Download PDF

Info

Publication number
WO2023090204A1
WO2023090204A1 PCT/JP2022/041566 JP2022041566W WO2023090204A1 WO 2023090204 A1 WO2023090204 A1 WO 2023090204A1 JP 2022041566 W JP2022041566 W JP 2022041566W WO 2023090204 A1 WO2023090204 A1 WO 2023090204A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
control system
speed reducer
motor
actuator
Prior art date
Application number
PCT/JP2022/041566
Other languages
English (en)
French (fr)
Inventor
俊介 矢島
淳 新井
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2023561541A priority Critical patent/JPWO2023090204A1/ja
Publication of WO2023090204A1 publication Critical patent/WO2023090204A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • A61B90/25Supports therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J17/00Joints

Definitions

  • the present disclosure relates to control systems, control devices, and actuators.
  • the present disclosure proposes a control system, a control device, and an actuator capable of appropriately estimating the external force applied to the robot without using a torque sensor or force sensor.
  • a control system includes a robot having an actuator, and an estimating unit that estimates an external force applied to the robot based on state information of the robot.
  • An encoder a speed reducer connected to the encoder on the output shaft side and having a reverse driving property, a motor connected to the speed reducer, and an encoder on the input shaft side connected to the motor.
  • a control device includes an estimating unit that estimates an external force applied to a robot having an actuator based on state information of the robot, and the actuator includes an encoder on an output shaft side, and an encoder on the output shaft side.
  • a speed reducer connected to a side encoder and having a reverse driving property, a motor connected to the speed reducer, and an input shaft side encoder connected to the motor.
  • An actuator includes an encoder on the output shaft side, a speed reducer connected to the encoder on the output shaft side and having reverse driving characteristics, a motor connected to the speed reducer, and connected to the motor. and an encoder on the input shaft side.
  • FIG. 1 is a diagram showing an example of a schematic configuration of a control system according to an embodiment
  • FIG. It is a figure which shows an example of a schematic structure of the robot which concerns on one Embodiment.
  • FIG. 4 is a diagram showing the relationship between forward driving efficiency and backward driving efficiency according to one embodiment
  • 1 is a diagram showing an example of a schematic configuration of a high-efficiency planetary reduction gear according to one embodiment
  • FIG 4 is a diagram for explaining the difference between an actuator according to an embodiment and an actuator according to a comparative example; It is a figure which shows an example of the model of the motor which concerns on one Embodiment, and the reduction gear which is a load element. It is a figure which shows an example of the model of the motor which concerns on one Embodiment, and the reduction gear which is a load element. It is a figure which shows an example of the neural network which concerns on one Embodiment. It is a figure which shows an example of the joint angle control system for learning data acquisition which concerns on one Embodiment. It is a figure which shows an example of the external torque estimator which concerns on one Embodiment.
  • Embodiment 1-1 Configuration example of control system 1-2.
  • Configuration example of robot 1-3 Configuration example of actuator 1-4.
  • Processing example of control system 1-5 Action and effect 2.
  • Other Embodiments 3.
  • Application example 4 Configuration example of hardware 5 .
  • FIG. 1 is a diagram showing an example of a schematic configuration of a control system 1 according to one embodiment.
  • the control system 1 includes a robot device 10 and a control device 20.
  • the robot device 10 has a robot 11 and a detector 12 .
  • the control device 20 has a DOB 21 , an estimation section 22 , a control section 23 and a storage section 24 .
  • the robot 11 is, for example, an arm device with a multi-link structure having arms, joints, and the like.
  • This robot 11 is, for example, a medical robot, but is not limited to this, and may be an industrial robot. Details of the robot 11 will be described later.
  • the detection unit 12 detects the state of the robot 11.
  • Examples of detected states are torque reference values, angles (joint angles), and angular velocities (joint angular velocities) of joints.
  • the torque reference value substantially corresponds to the current value input to the robot 11, and is naturally grasped by the robot device 10, so that it can be detected.
  • the angles of the joints are acquired, for example, from encoders in actuators provided at the joints of the robot 11 . Details of the actuator will be described later.
  • the angular velocity of the joint is obtained by differentiating the angle of the joint with time.
  • Other examples of detected states are acceleration reference values, positions and velocities of the tip input to the robot 11, and the like.
  • the acceleration reference value is a value on which the above-described torque reference value is based, and is naturally grasped by the robot device 10 in the same manner as the torque reference value, so that it can be detected.
  • the position of the tip and the velocity of the tip can be detected, for example, because they are identified from the angles and angular velocities of the joints described above.
  • the DOB 21 is a disturbance observer that outputs the estimated disturbance value of the robot 11 .
  • the DOB 21 outputs an estimated disturbance value of the joints of the robot 11 (magnitude of torque acting on the joints).
  • the DOB 21 outputs an estimated joint disturbance value based on the torque reference value, angle, angular velocity, and the like of the joint.
  • the estimation unit 22 estimates the external force of the robot 11 (for example, the external force of the joints or tip of the robot 11) based on the state information of the robot 11.
  • the external force of the robot 11 is the external force received by the robot, and the same applies hereinafter.
  • State information includes various information for specifying the state of the robot 11 . Examples of state information are the torque references, angles and angular velocities mentioned above. Other examples of state information are the acceleration references, position and velocity mentioned above.
  • the state information may be, for example, time-series information indicating the state of the robot 11 at each time. Details of external force estimation by the estimation unit 22 will be described later.
  • the control unit 23 controls the robot 11 based on the estimation result of the estimation unit 22.
  • Control by the controller 23 includes position control and force control.
  • Functional blocks corresponding to each control include a position controller 23a and a force controller 23b.
  • the position controller 23a controls the robot 11 so that the robot 11 is positioned at a desired position.
  • the force controller 23b controls the robot 11 so that the external force (torque or force) of the robot 11 becomes a desired external force. The details of the external force control by the force controller 23b will be described later.
  • the position controller 23a controls the position of the robot 11, for example, according to the value of the position command.
  • An example of the control position is the position of the tip of the robot 11 (hand position). This control is performed in accordance with information (tip position command) specifying the position of the distal end.
  • a position command such as a hand position command is generated according to a user's operation, or generated by the control unit 23 .
  • the position controller 23a controls, for example, the rotation (rotational speed, rotational angular velocity, torque, etc.) of the joints so that the tip of the robot 11 is positioned according to the hand position command.
  • the storage unit 24 stores various information necessary for processing executed in the control device 20 .
  • the storage unit 24 stores a trained model 24a.
  • the trained model 24a outputs an estimated disturbance value when the robot 11 is assumed to be in an unloaded state.
  • a no-load state of the robot 11 indicates a state in which the robot 11 is not in contact with any other object and external force is not included in the disturbance estimated value of the DOB 21 . Details of the trained model 24a will be described later.
  • FIG. 2 is a diagram showing an example of a schematic configuration of the robot 11 according to one embodiment.
  • the robot 11 is, for example, a medical arm device.
  • the robot 11 is an arm having a multi-link structure, and supports the endoscope 200 at the distal end of the arm. It's becoming
  • the robot 11 has a first link 101 attached substantially vertically to a base portion 100, and a horizontal rotation axis (or a longitudinal axis of the first link 101) at the tip of the first link 101.
  • a first joint portion 111 having a degree of freedom of rotation, a second link 102 horizontally attached to the tip of the first link 101 via the first joint portion 111, and the second link 102.
  • the base unit 100 may be attached to the frame of an operating bed, installed on the floor surface of the operating room, or installed on the ceiling, for example.
  • the distal end of the fourth link 104 that supports the endoscope 200 has a structure in which orthogonal rotation axes with three degrees of freedom that determine the posture of the endoscope 200 are concentrated.
  • the structure in which the orthogonal rotation axes with 3 degrees of freedom of the tip are arranged intensively is, for example, a structure in which the three orthogonal rotation axes are connected without a link, or a structure in which the three rotation axes are connected to each other. This corresponds to a structure in which the joint members are directly connected, and more specifically, the members that connect the three joints are only the parts that connect the joints, not the link that increases the arm length.
  • the fourth link 104 having a distal end portion that supports the endoscope 200 is defined as a first arm portion.
  • a link portion (first link 101 and second link 102) including two horizontal rotation shafts (first joint portion 111 and second joint portion 112) is defined as a second arm portion.
  • the second arm section is connected by a third joint section 113 having a degree of freedom around the vertical rotation axis.
  • the endoscope 200 is composed of a lens barrel 201 inserted into the patient's body cavity at the distal end, and a camera head 202 connected to the proximal end of the lens barrel 201 .
  • the lens barrel 201 may be either a rigid scope consisting of a rigid barrel or a flexible scope consisting of a flexible barrel.
  • An optical system and an imaging element are arranged in the camera head 202 . Reflected light (observation light) from an observation target such as an operation site is imaged on an imaging device by an optical system.
  • the tip of the robot 11 may support medical instruments other than the endoscope 200 .
  • the distal end of the robot 11 has a degree of freedom of the distal end of the fourth link 104 around the vertical rotation axis (or the axis orthogonal to the longitudinal axis of the fourth link 104), and the endoscope 200 can be moved vertically.
  • An optical axis rotation shaft portion 116 having a degree of freedom around the optical axis of the endoscope 200 (or the lens barrel 201 of the endoscope 200) is provided.
  • the three-degree-of-freedom orthogonal rotation axes that determine the posture of the endoscope 200 have a structure in which the optical axis rotation axis, the left-right rotation axis, and the up-down rotation axis of the endoscope 200 are arranged in this order from the distal end. be.
  • the horizontal rotation shaft portion 115 can be called a pan axis for changing the observation direction of the endoscope 200, and the vertical rotation shaft portion 114 can be called a tilt axis.
  • the horizontal rotation shaft portion 115 can be called the yaw axis
  • the vertical rotation shaft portion 114 can be called the pitch axis. If the combined volume of the joints corresponding to these three axes is smaller than the combined volume of the human wrist and hand, there is an advantage in using the robot 11 instead of the scopist.
  • the optical axis rotation shaft 116 minimizes the axial gripping length of the endoscope 200 so as not to reduce the effective length of the endoscope 200 . Moreover, it is desirable to set the distance between the vertical rotation shaft portion 114 and the optical axis rotation shaft portion 116 to a length that avoids the self-interference of the arms.
  • a structure in which orthogonal rotation axes with 3 degrees of freedom are concentrated is a structure in which each joint member corresponding to the rotation axis with 3 degrees of freedom is directly connected, or a joint corresponding to a rotation axis around the longitudinal axis.
  • the structure has a distance from the joint corresponding to the pitch axis that does not cause interference when rotated around the pitch axis. Therefore, it is possible to reduce the space affected by the movement of the distal end, and to suppress interference with the operator's work space.
  • the vertical rotation shaft portion 114 is arranged closer to the root side, it is assumed that the movement of the operator's hand side increases when the vertical rotation shaft portion 114 is operated.
  • FIG. 3 is a diagram showing an example of a schematic configuration of the actuator 50 according to one embodiment.
  • FIG. 4 is a diagram showing the relationship between forward driving efficiency and backward driving efficiency according to one embodiment.
  • FIG. 5 is a diagram showing an example of a schematic configuration of a high-efficiency planetary reduction gear 60 according to one embodiment.
  • FIG. 6 is a diagram showing an example of a schematic configuration of the motor 53 according to one embodiment.
  • FIG. 7 is a diagram for explaining the difference between the actuator 50 according to the embodiment and the actuator 70 according to the comparative example.
  • the actuator 50 includes an encoder 51, a load element 52, a motor 53, and an encoder 54 in order from the output shaft side to the input shaft side.
  • the encoder 51 , load element 52 , motor 53 and encoder 54 are connected to form the actuator 50 .
  • the actuator 50 has encoders on both the output shaft and the input shaft, that is, the encoder 51 is mounted on the output shaft side and the encoder 54 is mounted on the input shaft side.
  • Such an actuator 50 includes, for example, the first joint portion 111, the second joint portion 112, the third joint portion 113, the vertical rotation shaft portion 114, the horizontal rotation shaft portion 115, the optical axis rotation shaft portion 116, and the like. It is an actuator module applied to either or all.
  • the encoders 51 and 54 for example, magnetic or optical rotary encoders are used. It should be noted that the higher the accuracy of each encoder 54, the better.
  • a reduction gear is used as the load element 52 .
  • This speed reducer has, for example, an elastic component and is located between the encoder 51 and the motor 53 on the output shaft side.
  • a sensor or the like may be added as the load element 52 in addition to the speed reducer.
  • the motor 53 for example, an electromagnetic motor is used, but there are no restrictions on the motor type or system.
  • a speed reducer that can be driven in reverse, for example, a speed reducer with reverse drive that moves flexibly against an external force is used.
  • the forward drive is a drive that rotates due to the force from the motor 53
  • the reverse drive is a drive that rotates due to an external force from the output shaft side.
  • a speed reducer having a forward driving efficiency of at least 50% or more is mounted.
  • the speed reducer can reverse drive if the forward drive efficiency is 50% or more.
  • a high-efficiency planetary speed reducer (bilateral drive speed reducer) 60 is used as shown in FIG.
  • the high-efficiency planetary reduction gear 60 has, for example, the same structure as a compound planetary reduction mechanism.
  • the high-efficiency planetary reduction gear 60 has a structure in which planetary gear mechanisms 61 are coaxially stacked in two stages.
  • the planetary gear mechanism 61 is composed of a sun gear 61a, which is the gear at the center of the mechanism, a plurality of planetary gears 61b, which are gears that revolve, and an internal gear 61c that meshes with and rotates with each planetary gear 61b.
  • each gear for example, the sun gear 61a, each planetary gear 61b, the internal gear 61c, etc.
  • each gear may have a coating layer that reduces friction on the outer peripheral portion that meshes with each other. For example, a coding process is performed on the uneven outer circumference of the gear, and a coating layer is formed on the outer circumference.
  • the ripple component of the motor 53 is increased by the speed reduction ratio when it is rotated from the output shaft side of the actuator 50. Therefore, in order to maintain high reversibility of the actuator 50 in combination with a speed reduction mechanism having a high speed reduction ratio, it is preferable that the cogging torque of the motor 53 is low or that there is no cogging torque. Therefore, for example, it is desirable to mount a motor whose cogging torque is 50% or less of the rated torque of the motor.
  • the motor 53 a motor that is a coreless motor and whose motor windings are realized by a flexible substrate 53a is used. Wiring to be motor windings is printed on the flexible substrate 53a. As a result, since the motor 53 is a coreless motor, it is possible to realize no cogging torque, and by constructing the motor windings with the flexible substrate 53a, it is possible to achieve higher output than motors using ordinary wires. It is possible.
  • the actuator 50 is configured by mounting a high reversibility (high reverse driving property) speed reducer as the load element 52 and mounting the low cogging motor 53. , mechanical loss (friction, viscosity) during reverse drive can be reduced.
  • the actuator 50 can be configured by combining a highly reversible speed reducer and a low cogging motor in order to achieve highly accurate torque sensorless control.
  • the configuration of the actuator 50 equipped with a reversible speed reducer makes it possible to realize force control without a torque sensor. Moreover, by mounting a highly reversible speed reducer on the actuator 50, the reverse movable torque of the actuator 50 can be reduced, the dead band of control can be reduced, and the resolution of torque control can be improved. By mounting a low-backlash speed reducer on the actuator 50, the drive accuracy of the actuator 50 can be improved, and the position control accuracy of the robot 11 to be mounted can be improved. By mounting a low cogging motor, it is possible to reduce the inverse movable torque of the actuator 50, reduce the dead band of control, and improve the resolution of torque control even in combination with a speed reducer having a high reduction ratio. By combining a speed reducer with a high reduction ratio and a small, high-output motor, the power density of the actuator 50 can be increased, and the small, lightweight robot 11 can be realized.
  • the arm structure (robot structure) 11A is directly connected to the output shaft of the actuator 50 when the actuator 50 is mounted on the robot.
  • the arm structure 11A is connected to the output shaft of the actuator 70 through the coupling mechanism 71 when the actuator 70 is installed in the robot. Due to this coupling mechanism 71, the distance between the arm structure A1 and the actuator 70 becomes, for example, 5 to 10 mm, which leads to an increase in the size of the mechanism.
  • the coupling mechanism 71 and the arm structure 11A are complicated due to noise countermeasures to the torque sensor, and furthermore, the noise countermeasure structure causes structural looseness, which lowers the positional accuracy.
  • the actuator 50 it is possible to connect the arm structure 11A directly to the output shaft of the actuator 50 by using a torque sensorless (or force sensorless), ie torque/force sensorless actuator 50 .
  • a torque sensorless or force sensorless
  • ie torque/force sensorless actuator 50 it is possible to reduce the cost of the additional mechanism when mounting the sensor (cost reduction).
  • cost reduction it is possible to reduce the space required for the additional mechanism when mounting the sensor (miniaturization and weight reduction).
  • By realizing force control without torque/force sensors it is possible to realize a human-collaborative robot that combines low cost, high precision, and safety.
  • the actuator 50 according to one embodiment can be applied to a wide range of fields such as the industrial field and the medical field.
  • speed reducers may be used as the speed reducer.
  • Other reduction gears that have a forward drive efficiency of 60% or more and can realize reverse drive include, for example, wave gear reduction gears (Harmonic Drive (registered trademark)), traction reduction gears, and cycloidal reduction gears. be done.
  • a strain wave gear reducer can achieve high accuracy (no backlash), high rigidity, miniaturization, and a high reduction ratio.
  • the reverse drive characteristic may have large hysteresis (low reproducibility).
  • high precision (non-backlash) and high efficiency can be achieved.
  • slippage may occur over time, making it difficult to obtain a high reduction ratio.
  • the cycloid speed reducer high accuracy (low backlash), high rigidity, and high speed reduction ratio can be achieved.
  • miniaturization may be difficult.
  • the reduction gear for example, it is desirable to use a reduction gear having a backlash lower than a predetermined value (for example, 5 degrees) and having no backlash.
  • Electromagnetic motors capable of obtaining low cogging torque, small size, and high output include, for example, coreless motors and cored motors adapted to low cogging.
  • a coreless motor generates almost no cogging torque because the windings are not provided with cores. However, compared to cored motors, they tend to have lower output density.
  • a cored motor with low cogging makes it easier to increase the output density compared to a coreless motor.
  • the number of magnet poles and the number of coil slots are optimized, skew magnetization of the magnet, and sufficient space between the coil and the rotor are ensured.
  • the robot device 10 incorporating the actuator 50 as described above is a human-collaborative medical robot, it is not limited to this, and may be a human-collaborative industrial machine.
  • the robot apparatus 10 is a robot arm that holds and controls an endoscope 200 on behalf of a doctor during endoscopic surgery, and is an application example to which the actuator 50 can be applied.
  • the actuator 50 does not need to be equipped with a torque sensor, the arm joints (for example, the first joint 111, the second joint 112, the third joint 113, etc.) and the arm tips (for example, the upper and lower The rotating shaft portion 114, the left/right rotating shaft portion 115, the optical axis rotating shaft portion 116, etc.) have a high degree of freedom in design, and are highly adaptable to the arm mechanism.
  • the arm joints for example, the first joint 111, the second joint 112, the third joint 113, etc.
  • the arm tips for example, the upper and lower
  • FIGS. 8 to 14 are diagrams for explaining processing examples of the control system 1 according to one embodiment.
  • FIGS. 8 and 9 are diagrams showing examples of models of the motor 53 and the speed reducer (gear) as the load element 52.
  • FIG. 10 is a diagram showing an example of the neural network N1.
  • FIG. 11 is a diagram showing an example of a joint angle control system for acquiring learning data.
  • FIG. 12 is a diagram showing an example of an external torque estimator.
  • FIG. 13 is a diagram showing an example of a torque control system.
  • FIG. 14 is a diagram showing an example of the tip force control system.
  • the actuator 50 has encoders (encoder 54 on the input shaft side and encoder 51 on the output shaft side) mounted on the input and output shafts so that the angles of the input and output shafts of each joint can be obtained.
  • the control device 20 is configured by, for example, real-time hardware (for example, a personal computer, etc.).
  • the actuators 50 having high reverse driving gears are mounted on each joint to achieve low friction.
  • the control system 1 randomly performs position control based on the angles, angular velocities, and accelerations that can be taken by each joint of the robot 11, and calculates the angles, angular velocities, and acceleration reference values of the input/output axes of each joint at that time.
  • the neural network is trained using the input of the neural network and the estimated disturbance value estimated by the DOB 21 as the output.
  • control system 1 implements the learned model 24a, inputs the time-series data of the angle, angular velocity and torque reference value of each joint in real time to the learned model 24a (learned neural network), and at the current time Only the disturbance components at each joint of are estimated. By subtracting the estimated disturbance value output from the trained model 24a from the output of the DOB 21, only the external force component is extracted.
  • J, q, ⁇ t , ⁇ ext , d, R g , and K s are inertia, angle, torsional torque, external torque, disturbance, reduction ratio, and spring constant of the reduction gear, respectively.
  • the subscripts m and l are a motor and a load, respectively, and are expressed as a two-inertia system. Note that the double-dotted q is the acceleration.
  • the third term on the right side can be regarded as the disturbance applied to the motor 53.
  • This term includes load inertia torque and torque due to friction and modeling errors applied to the motor 53 and load.
  • modeling is performed with a geared motor as a two-inertia system.
  • Dynamics can be expressed using the angle, angular velocity, and acceleration reference values on the motor side (input shaft) and the angle and angular velocity on the load side (output shaft).
  • a function of estimating only the disturbance component applied to the motor 53 by the neural network based on the dynamic expression is obtained.
  • a neural network N1 as shown in FIG. 10 is used.
  • This neural network N1 is a deep neural network combining LSTM (Long Short-Term Memory) blocks suitable for time-series data and fully connected layers.
  • LSTM Long Short-Term Memory
  • time-series data of the acceleration reference value of the input axis to each joint, the angle of the input/output axis, and the angular velocity of the input/output axis are used.
  • q m is the motor position (angle) and the dotted q m is the motor velocity (angular velocity).
  • ql is the load position (angle) and the dotted ql is the load velocity (angular velocity).
  • the double-dotted q m ref is the motor acceleration reference.
  • the disturbances in the above equation (5) include friction of the reducer and torque due to modeling errors, that is, disturbances other than external forces (environmental reaction forces) from the external environment and the operator. In this way, each joint learns and estimates disturbances other than external forces.
  • the learning data is acquired by angle control based on the DOB 21 shown in FIG. 11 with the robot 11 in a no-load state.
  • C p is the angle controller 81 and q ref is the angle reference value.
  • the angle controller 81 is included in the position controller 23a, for example.
  • the no-load state is a state in which the robot 11 is not in contact with anything and the external torque is not included in the disturbance value estimated from the DOB 21 .
  • the angles and angular velocities of each joint that can be assumed in the later inference phase are designed in advance, and the angles are controlled based on the information.
  • a trained model 24a (trained neural network N1) is generated using the acquired learning data.
  • the generation (learning) of the learned model 24a may be performed by the control device 20 or may be performed outside the control system 1 (for example, an information processing device or the like).
  • the generated learned model 24 a is stored in the storage unit 24 of the control device 20 .
  • ⁇ dob with a hat is the estimated disturbance value output from the DOB 21.
  • external torque anti-torque
  • the hated dm output from the learned neural network N1 is obtained by estimating only disturbances other than external forces such as friction. Therefore, it is possible to extract only the external torque component for each joint by subtracting as in the above equation (6).
  • an external torque estimator as shown in FIG. 12 is obtained.
  • This external torque estimator is included in the estimation unit 22, for example. That is, the estimating unit 22 calculates the estimated disturbance value (learned ) is estimated by the neural network N1), the external force (for example, external torque) of the robot 11 is estimated. That is, the estimating unit 22 can obtain the external force estimated value of the robot joint and the external force estimated value of the robot tip.
  • a sensorless torque control system can be constructed using the external force estimation values of the robot joints (each joint).
  • C t is the torque controller 82 and ⁇ ref is the torque reference.
  • Torque controller 82 is included, for example, in force controller 23b. By feeding back the external torque estimated value to the torque controller 82, arbitrary torque can be generated at each joint.
  • a sensorless robot tip force control system can be configured using the estimated external force of the robot tip.
  • C f is the force controller 83 and f ref is the force reference.
  • Force controller 83 is included, for example, in force controller 23b. An arbitrary force can be generated at the tip of the robot by feeding back the estimated external force at the tip of the robot to the force controller 83 .
  • the extra-joint torque estimate can be multiplied by the inverse transpose of the Jacobian matrix to obtain the robot tip external force estimate, as in equation (7) below.
  • the actuator 50 is configured by mounting a high reversibility (high reverse drive) speed reducer as the load element 52 and mounting the low cogging motor 53 .
  • Mechanical loss (friction, viscosity) during driving can be reduced, the control system 1 can function, and high-resolution force control can be realized without a force/torque sensor.
  • the speed reducer when an external force is applied to the actuator 50, the speed reducer can be driven in reverse, so the control system 1 functions and force control can be realized without a force/torque sensor.
  • the control system 1 functions and force control can be realized without a force/torque sensor.
  • the reverse starting torque can be reduced. Therefore, by combining the control system 1, high-resolution force control without a force/torque sensor can be realized. .
  • a speed reducer with a forward drive efficiency of 60% and low backlash force control and high-precision position control can be realized without a force/torque sensor.
  • the actuator 50 can be reversely driven even if the reduction ratio is set high, the control system 1 functions, and force control can be realized without a force/torque sensor. .
  • highly accurate external torque estimation and torque control can be configured without a force/torque sensor, the cost and mechanical limitations of force/torque sensors are not imposed.
  • the configuration and control according to this embodiment are for medical robots, but other applications include the following.
  • the configuration and control according to this embodiment may also be applied to collaborative robots and legged robots.
  • the human cooperative system which has conventionally been realized by force sensors, can be made force sensorless.
  • the landing determination system which has conventionally been realized by a plantar force sensor, can be made without a plantar sensor.
  • the control system 1 estimates the external force of the robot 11 (the external force received by the robot) based on the robot 11 having the actuator 50 and the state information of the robot 11.
  • the actuator 50 is connected to an encoder 51 on the output shaft side, and the encoder 51 on the output shaft side. ), a motor 53 connected to the speed reducer, and an encoder 54 connected to the motor 53 on the input shaft side.
  • the actuator 50 is configured by mounting a reverse-driving speed reducer as the load element 52, so that the mechanical loss (friction, viscosity) during reverse-driving can be reduced, and the control system 1 can function.
  • the external force of the robot 11 can be appropriately estimated without using a torque sensor or a force sensor.
  • the estimating unit 22 estimates the external force of the robot 11 by subtracting the estimated disturbance value when the robot 11 is in the unloaded state from the estimated disturbance value when the robot 11 is in the loaded state. may This makes it possible to accurately estimate the external force of the robot 11 .
  • the disturbance estimated value when the robot 11 is in a loaded state may be the disturbance estimated value of the DOB 21, which is a disturbance observer. This makes it possible to accurately estimate the external force of the robot 11 .
  • the estimating unit 22 uses the trained model 24a to obtain an estimated disturbance value when the robot 11 is assumed to be in a no-load state, and the trained model 24a receives the state information of the robot 11. , the estimated disturbance value when the robot 11 is assumed to be in the no-load state may be output.
  • the external force of the robot 11 can be estimated with high accuracy using the learned model 24a obtained in a black box manner through machine learning.
  • the learned model 24a may include LSTM (Long Short-Term Memory) blocks, and the state information of the robot 11 may be time-series information. This makes it possible to improve the accuracy of disturbance estimation compared to, for example, the case of using a multi-layer perceptron.
  • LSTM Long Short-Term Memory
  • the learned model 24a may be a model obtained by inputting time-series information on the acceleration reference value of the input axis, the angle and angular velocity of the input/output axis to the neural network N1. This makes it possible to improve the estimation accuracy of the disturbance.
  • the estimating unit 22 also uses the joints (eg, the first joint 111, the second joint 112, the third joint 113, etc.) or the distal end (eg, the vertical rotation shaft 114, the horizontal axis, etc.) of the robot 11.
  • the external force of the rotating shaft portion 115, the optical axis rotating shaft portion 116, etc. may be estimated. Thereby, the external force of the joint part or the tip part of the robot 11 can be estimated appropriately.
  • the robot 11 includes a joint having an actuator 50
  • the state information of the robot 11 includes a torque reference value, an angle and an angular velocity of the joint
  • the estimation unit 22 calculates an external force of the joint ( external force) may be estimated.
  • the estimating unit 22 can estimate the external forces of the joints of the robot 11 based on the state information of the robot 11 including the torque reference values, angles, and angular velocities of the joints. can be accurately estimated.
  • the robot 11 includes a tip having an actuator 50
  • the state information of the robot 11 includes the acceleration reference value, position and velocity of the tip
  • the estimator 22 measures the external force of the tip (the external force) may be estimated.
  • the estimating unit 22 can estimate the external force at the tip of the robot 11 based on the state information of the robot 11 including the acceleration reference value, position, and speed of the tip. can be accurately estimated.
  • the robot 11 may include an arm (for example, an arm section). Even when this robot 11 includes an arm, the external force of the robot 11 can be appropriately estimated.
  • an arm for example, an arm section
  • the speed reducer may be a speed reducer with a forward driving efficiency of 60% or more. As a result, the speed reducer can be driven in reverse and the control system 1 can function properly.
  • the speed reducer may be a speed reducer whose backlash is lower than a predetermined value (eg, 5 deg). As a result, rattling of the mechanism can be suppressed, and positional accuracy can be improved.
  • a predetermined value eg, 5 deg
  • the reducer may be a reducer without backlash. As a result, rattling of the mechanism can be suppressed, and positional accuracy can be improved.
  • the speed reducer (for example, the high-efficiency planetary speed reducer 60) is composed of a plurality of gears (for example, the sun gear 61a, the planetary gears 61b, the internal gear 61c, etc.).
  • the part may have a coating layer that reduces friction. As a result, the friction between the gears can be suppressed, thereby suppressing the backlash of the mechanism and improving the positional accuracy.
  • the motor 53 may be a motor whose cogging torque is 50% or less of the motor rated torque. As a result, even if the motor 53 is combined with a speed reducer with a high reduction ratio, the reversibility of the actuator 50 can be ensured, and the control system 1 can function properly.
  • the motor 53 may be a motor whose windings are configured by a flexible substrate 53a. As a result, the output of the motor 53 can be improved, and the size of the actuator 50 can be reduced.
  • the robot 11 may be a robot that holds an endoscope (for example, a scope strobe). Even if the robot 11 is a robot holding an endoscope, the external force of the robot 11 can be estimated appropriately.
  • an endoscope for example, a scope strobe
  • the speed reducer may be a speed reducer with a forward drive efficiency of 80% or higher. This makes it possible to achieve both force control without a force/torque sensor and high positional accuracy.
  • the motor 53 may be a coreless motor with no cogging torque. Thereby, even if the motor 53 is combined with a speed reducer having a high speed reduction ratio, it is possible to ensure the reverse driving performance of the actuator 50, and the control system 1 can function properly.
  • each component of each device illustrated is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
  • FIG. 15 is a diagram showing an example of a schematic configuration of a control system 1 according to another embodiment.
  • the control system 1 is a master-slave control system and includes a master device 510 , a slave device 520 and a control device 530 .
  • the control device 530 is communicably connected to each of the master device 510 and the slave device 520, as schematically illustrated by dashed lines.
  • Information (data, etc.) used or acquired by each device is transmitted and received as necessary.
  • communication may be performed via a network.
  • Each device may be connected to a network. In that case, the master device 510 and slave device 520 may be directly networked together.
  • control system 1 is used for surgery.
  • An operator (doctor, etc.) who performs surgery is referred to as a user U1 and illustrated.
  • a patient undergoing surgery is shown as user U2.
  • the master device 510 and the slave device 520 respectively correspond to the robot device 10 shown in FIG.
  • the control device 530 corresponds to the control device 20 shown in FIG.
  • the user U1 operates the master device 510 and remotely controls the slave device 520 to operate the user U2.
  • the master device 510 includes a master robot 511 operated by the user U1.
  • the slave device 520 includes a slave robot 521 remotely controlled by the user U1.
  • the slave robot 521 and the master robot 511 will be described in this order.
  • a slave robot 521 corresponds to the robot 11 shown in FIG.
  • the slave robot 521 is configured including an arm in this example.
  • the illustrated slave robot 521 includes a link portion 521L, a joint portion 521J, and a tip portion 521E.
  • Adjacent link portions 521L are rotatably connected to each other via a joint portion 521J that rotates by motor drive.
  • the tip portion 521E is located closest to the user U2 and is a portion that can come into contact with the user U2.
  • the slave robot 521 has various states according to, for example, the rotation angle of the joint 521J. It should be noted that the slave robot 521 may have more links 521L and joints 521J than those shown in the figure, and more tip parts 521E.
  • the actuator 50 is applied to the joint portion 521J, the distal end portion 521E, and the like.
  • the following descriptions of the link portion, the joint portion, and the distal end portion may be appropriately replaced with each link portion, each joint portion, and each distal end portion.
  • the master robot 511 has a configuration suitable for remote control of the slave robot 521 by the user U1.
  • the content of the operation (user operation) of the master robot 511 by the user U1 is transmitted from the master device 510 to the slave device 520 as control information.
  • the master robot 511 has a configuration corresponding to the slave robot 521 so as to inform the user U1 of the state of the slave robot 521 .
  • the master robot 511 has a portion corresponding to each portion of the slave robot 521 so as to have a state corresponding to each portion of the slave robot 521 (link portion 521L, joint portion 521J, tip portion 521E, etc.).
  • Master robot 511 may have an arm similar to slave robot 521 .
  • the user U1 can recognize the state of the slave robot 521, such as an external force, via the master robot 511.
  • FIG. a portion of the master robot 511 corresponding to the joint portion 521J of the slave robot 521 is referred to as "a joint portion of the master robot 511".
  • a portion of the master robot 511 corresponding to the distal end portion 521E of the slave robot 521 is referred to as "the distal end portion of the master robot 511".
  • One of the states of the slave robot 521 that is communicated to the user U1 is the external force of the slave robot 521.
  • a force sensor such as a force sensor
  • the cost is high and the space for providing the force sensor is limited. There are many cases where there is none.
  • the external force of the distal end portion 521E is appropriately estimated without using a force sensor (without a force sensor) according to the principle described above.
  • a torque sensor without a torque sensor
  • the external force of the joint portion 521J is also appropriately estimated.
  • the control device 530 estimates the external force of the master robot 511 (for example, the tip) based on the state information of the master robot 511 . Also, the control device 530 estimates the external force of the slave robot 521 (for example, the distal end portion 521E) based on the status information of the slave robot 521 . Then, the control device 530 controls the master robot 511 and the slave robot 521 based on the estimation result of the external force estimation.
  • Control by controller 530 includes position control and force control. There are a position controller and a force controller as functional blocks corresponding to each control. Since this control device 530 corresponds to the control device 20 shown in FIG. 1, the external force estimation is similar to the above principle.
  • the position controller of the control device 530 controls the master robot 511 and the slave robot 521 so that the position of the master robot 511 and the position of the slave robot 521 correspond to each other.
  • the correspondence of positions means that the positions of the corresponding parts of the master robot 511 and the slave robot 521 have a corresponding relationship.
  • the master robot 511 and the slave robot 521 are controlled such that the position of the tip of the master robot 511 and the position of the tip 521E of the slave robot 521 have a corresponding relationship.
  • the force controller of the control device 530 controls the master robot 511 and the slave robot 521 so that the external force of the master robot 511 and the external force of the slave robot 521 correspond to each other.
  • Correspondence of the external force here means that the external force between the corresponding parts of the master robot 511 and the slave robot 521 has a corresponding relationship.
  • the master robot 511 and the slave robot 521 are controlled so that the external force of the tip of the master robot 511 and the external force of the tip 521E of the slave robot 521 have a corresponding external force.
  • the external force can be appropriately estimated without using a torque sensor or a force sensor. can do.
  • a medical imaging system is a medical system using imaging technology, such as an endoscope system or a microscope system.
  • FIG. 16 is a diagram showing an example of a schematic configuration of an endoscope system 5000 to which technology according to the present disclosure can be applied.
  • FIG. 17 is a diagram showing an example of the configuration of an endoscope 5001 and a CCU (Camera Control Unit) 5039.
  • FIG. 16 illustrates a state in which an operator (for example, a doctor) 5067 who is a surgical participant is performing surgery on a patient 5071 on a patient bed 5069 using an endoscope system 5000 .
  • an operator for example, a doctor
  • the endoscope system 5000 supports an endoscope 5001, which is a medical imaging device, a CCU 5039, a light source device 5043, a recording device 5053, an output device 5055, and an endoscope 5001. and a support device 5027 .
  • an insertion aid called a trocar 5025 is punctured into a patient 5071. Then, the scope 5003 and surgical instrument 5021 connected to the endoscope 5001 are inserted into the body of the patient 5071 via the trocar 5025 .
  • the surgical instrument 5021 is, for example, an energy device such as an electric scalpel, forceps, or the like.
  • a surgical image which is a medical image of the inside of the patient's 5071 photographed by the endoscope 5001, is displayed on the display device 5041.
  • the operator 5067 uses the surgical instrument 5021 to treat the surgical target while viewing the surgical image displayed on the display device 5041 .
  • the medical images are not limited to surgical images, and may be diagnostic images captured during diagnosis.
  • the endoscope 5001 is an imaging unit for imaging the inside of the body of a patient 5071.
  • a camera 5005 includes a zoom optical system 50052 that enables optical zoom, a focus optical system 50053 that enables focus adjustment by changing the focal length of an imaging unit, and a light receiving element 50054 .
  • the endoscope 5001 converges light on the light receiving element 50054 through the connected scope 5003 to generate pixel signals, and outputs the pixel signals to the CCU 5039 through the transmission system.
  • the scope 5003 is an insertion portion that has an objective lens at its tip and guides light from the connected light source device 5043 into the body of the patient 5071 .
  • the scope 5003 is, for example, a rigid scope for rigid scopes and a flexible scope for flexible scopes.
  • the scope 5003 may be a direct scope or a perspective scope.
  • the pixel signal may be a signal based on a signal output from a pixel, such as a RAW signal or an image signal.
  • a memory may be installed in the transmission system connecting the endoscope 5001 and the CCU 5039, and the parameters relating to the endoscope 5001 and the CCU 5039 may be stored in the memory.
  • the memory may be arranged, for example, on the connection part of the transmission system or on the cable.
  • the parameters of the endoscope 5001 at the time of shipment and the parameters changed when the power is supplied may be stored in the memory of the transmission system, and the operation of the endoscope may be changed based on the parameters read from the memory.
  • an endoscope and a transmission system may be collectively referred to as an endoscope.
  • the light receiving element 50054 is a sensor that converts received light into pixel signals, and is, for example, a CMOS (Complementary Metal Oxide Semiconductor) type imaging element.
  • the light receiving element 50054 is preferably an imaging element having a Bayer arrangement and capable of color imaging.
  • the light receiving element 50054 is, for example, 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160), 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320) or square 4K (horizontal pixel number 3840 or more ⁇ vertical pixel number 3840 or more). It is preferable that the image sensor has a number of pixels corresponding to the resolution.
  • the light receiving element 50054 may be a single sensor chip or a plurality of sensor chips.
  • a prism may be provided to separate the incident light into predetermined wavelength bands, and each wavelength band may be imaged by a different light-receiving element.
  • a plurality of light receiving elements may be provided for stereoscopic viewing.
  • the light receiving element 50054 may be a sensor including an arithmetic processing circuit for image processing in a chip structure, or may be a ToF (Time of Flight) sensor.
  • the transmission system is, for example, an optical fiber cable or wireless transmission. The wireless transmission is sufficient as long as the pixel signals generated by the endoscope 5001 can be transmitted.
  • Mirror 5001 and CCU 5039 may be connected.
  • the endoscope 5001 may transmit not only the pixel signal but also information related to the pixel signal (for example, processing priority of the pixel signal, synchronization signal, etc.) at the same time.
  • the endoscope may be configured by integrating a scope and a camera, or by providing a light-receiving element at the tip of the scope.
  • the CCU 5039 is a control device that comprehensively controls the connected endoscope 5001 and light source device 5043. For example, as shown in FIG. processing equipment. Also, the CCU 5039 may centrally control the connected display device 5041 , recording device 5053 and output device 5055 . For example, the CCU 5039 controls the irradiation timing and irradiation intensity of the light source device 5043 and the type of irradiation light source.
  • the CCU 5039 performs image processing such as development processing (for example, demosaicing processing) and correction processing on the pixel signals output from the endoscope 5001, and outputs the processed pixel signals (for example, image processing) to an external device such as the display device 5041. ). Also, the CCU 5039 transmits a control signal to the endoscope 5001 to control driving of the endoscope 5001 .
  • the control signal is, for example, information about imaging conditions such as magnification and focal length of the imaging unit.
  • the CCU 5039 may have an image down-conversion function, and may be configured to output a high-resolution (eg, 4K) image to the display device 5041 and a low-resolution (eg, HD) image to the recording device 5053 at the same time.
  • a high-resolution (eg, 4K) image to the display device 5041
  • a low-resolution (eg, HD) image to the recording device 5053 at the same time.
  • the CCU 5039 is connected to external devices (eg, recording device, display device, output device, support device) via an IP converter that converts signals into a predetermined communication protocol (eg, IP (Internet Protocol)).
  • IP Internet Protocol
  • the connection between the IP converter and the external device may be configured by a wired network, or part or all of the network may be configured by a wireless network.
  • the IP converter on the CCU5039 side has a wireless communication function, and the received video is sent to an IP switcher or output via a wireless communication network such as the 5th generation mobile communication system (5G) or the 6th generation mobile communication system (6G). It may be sent to the side IP converter.
  • 5G 5th generation mobile communication system
  • 6G 6th generation mobile communication system
  • the light source device 5043 is a device capable of emitting light in a predetermined wavelength band, and includes, for example, a plurality of light sources and a light source optical system that guides light from the plurality of light sources.
  • the light source is, for example, a xenon lamp, an LED light source, or an LD light source.
  • the light source device 5043 has, for example, LED light sources corresponding to the three primary colors R, G, and B, and emits white light by controlling the output intensity and output timing of each light source. Further, the light source device 5043 may have a light source capable of irradiating special light used for special light observation separately from the light source for irradiating normal light used for normal light observation.
  • Special light is light in a predetermined wavelength band different from normal light that is light for normal light observation.
  • Normal light is, for example, white light or green light.
  • narrow-band light observation which is a type of special light observation, by alternately irradiating blue light and green light, the wavelength dependence of light absorption in body tissues can be used to detect specific tissues such as blood vessels on the surface of the mucous membrane. can be shot with high contrast.
  • fluorescence observation which is a type of special light observation, excitation light that excites the drug injected into the body tissue is irradiated, and fluorescence emitted by the body tissue or the drug as a marker is received to obtain a fluorescence image.
  • a drug such as indocyanine green (ICG) injected into the body tissue is irradiated with infrared light having an excitation wavelength band, and the fluorescence of the drug is received to detect the body tissue. structure and the affected area can be easily visualized.
  • an agent for example, 5-ALA
  • the light source device 5043 sets the type of irradiation light under the control of the CCU 5039 .
  • the CCU 5039 may have a mode in which normal light observation and special light observation are alternately performed by controlling the light source device 5043 and the endoscope 5001 .
  • information based on pixel signals obtained by special light observation is preferably superimposed on pixel signals obtained by normal light observation.
  • the special light observation may be infrared light observation in which infrared light is irradiated to look deeper than the surface of the organ, or multispectral observation utilizing hyperspectral spectroscopy. Additionally, photodynamic therapy may be combined.
  • a recording device 5053 is a device for recording pixel signals (for example, an image) acquired from the CCU 5039, and is, for example, a recorder.
  • a recording device 5053 records the image acquired from the CCU 5039 on an HDD, an SDD, or an optical disk.
  • the recording device 5053 may be connected to a hospital network and accessible from equipment outside the operating room. Also, the recording device 5053 may have an image down-conversion function or an image up-conversion function.
  • the display device 5041 is a device capable of displaying an image, such as a display monitor.
  • a display device 5041 displays a display image based on pixel signals obtained from the CCU 5039 .
  • the display device 5041 may function as an input device that enables line-of-sight recognition, voice recognition, and gesture-based instruction input by being equipped with a camera and a microphone.
  • the output device 5055 is a device for outputting information acquired from the CCU 5039, such as a printer.
  • the output device 5055 prints on paper a print image based on the pixel signals acquired from the CCU 5039, for example.
  • the support device 5027 is an articulated arm including a base portion 5029 having an arm control device 5045 , an arm portion 5031 extending from the base portion 5029 , and a holding portion 5032 attached to the tip of the arm portion 5031 .
  • the arm control device 5045 is configured by a processor such as a CPU, and operates according to a predetermined program to control driving of the arm section 5031 .
  • the support device 5027 controls parameters such as the length of each link 5035 constituting the arm portion 5031 and the rotation angle and torque of each joint 5033 by means of the arm control device 5045 .
  • the support device 5027 functions as an endoscope support arm that supports the endoscope 5001 during surgery. Thereby, the support device 5027 can take the place of the scopist who is an assistant holding the endoscope 5001 .
  • the support device 5027 may be a device that supports a microscope device 5301, which will be described later, and can also be called a medical support arm.
  • the control of the support device 5027 may be an autonomous control method by the arm control device 5045, or may be a control method in which the arm control device 5045 controls based on the user's input.
  • control method is a master-slave method in which the support device 5027 as a slave device (replica device), which is a patient cart, is controlled based on the movement of the master device (primary device), which is the operator console at the user's hand. It's okay. Also, the control of the support device 5027 may be remotely controlled from outside the operating room.
  • slave device replica device
  • master device primary device
  • control of the support device 5027 may be remotely controlled from outside the operating room.
  • FIG. 18 is a diagram showing an example of a schematic configuration of a microsurgery system 5300 to which technology according to the present disclosure can be applied.
  • the same reference numerals are given to the same configurations as those of the endoscope system 5000, and duplicate descriptions thereof will be omitted.
  • FIG. 18 schematically shows an operator 5067 performing an operation on a patient 5071 on a patient bed 5069 using a microsurgery system 5300 .
  • FIG. 18 omits illustration of the cart 5037 in the configuration of the microsurgery system 5300, and also shows a simplified microscope device 5301 instead of the endoscope 5001.
  • the microscope device 5301 in this description may refer to the microscope section 5303 provided at the tip of the link 5035 or may refer to the entire configuration including the microscope section 5303 and the support device 5027 .
  • an image of a surgical site captured by a microscope device 5301 is enlarged and displayed on a display device 5041 installed in the operating room.
  • the display device 5041 is installed at a position facing the operator 5067, and the operator 5067 observes the state of the operation site by the image displayed on the display device 5041, for example, resection of the affected area.
  • Various measures are taken against Microsurgery system 5300 is used, for example, in ophthalmic and brain surgery.
  • the support device 5027 can support other observation devices or other surgical tools instead of the endoscope 5001 or the microscope section 5303 at its distal end.
  • the other observation device for example, forceps, forceps, a pneumoperitoneum tube for pneumoperitoneum, or an energy treatment instrument for incising tissue or sealing a blood vessel by cauterization can be applied.
  • the technology according to the present disclosure may be applied to a support device that supports components other than such a microscope section.
  • the technology according to the present disclosure can be suitably applied to medical observation systems such as the endoscope system 5000 and the microsurgery system 5300.
  • a medical observation system By applying the technology according to the present disclosure to a medical observation system, it is possible to appropriately estimate an external force without using a torque sensor or force sensor.
  • the endoscope 5001 corresponds to the endoscope 200 according to one embodiment.
  • the support device 5027 corresponds to the robot 11 according to one embodiment.
  • the actuator 50 according to one embodiment is applied to the holding portion 5032 and joints 5033 of the support device 5027 .
  • the arm control device 5045 corresponds to the control device 20 according to one embodiment.
  • FIG. 19 is a diagram showing a schematic hardware configuration of the computer 3000. As shown in FIG.
  • the computer 3000 has a CPU 3100, a RAM 3200, a ROM (Read Only Memory) 3300, a HDD (Hard Disk Drive) 3400, a communication interface 3500, and an input/output interface 3600.
  • a CPU central processing unit
  • RAM random access memory
  • ROM Read Only Memory
  • HDD Hard Disk Drive
  • communication interface 3500 an input/output interface 3600.
  • input/output interface 3600 input/output interface
  • the CPU 3100 operates based on programs stored in the ROM 3300 or HDD 3400 and controls each section. For example, the CPU 3100 loads programs stored in the ROM 3300 or HDD 3400 into the RAM 3200 and executes processes corresponding to various programs.
  • the ROM 3300 stores a boot program such as BIOS (Basic Input Output System) executed by the CPU 3100 when the computer 3000 is started, and programs dependent on the hardware of the computer 3000.
  • BIOS Basic Input Output System
  • the HDD 3400 is a computer 3000 readable recording medium that non-temporarily records programs executed by the CPU 3100 and data used by such programs.
  • HDD 3400 is a recording medium that records an information processing program according to the present disclosure, which is an example of program data 3450 .
  • a communication interface 3500 is an interface for connecting the computer 3000 to an external network 3550 (for example, the Internet).
  • the CPU 3100 receives data from another device or transmits data generated by the CPU 3100 to another device via the communication interface 3500 .
  • the input/output interface 3600 is an interface for connecting the input/output device 3650 and the computer 3000 .
  • the CPU 3100 receives data from input devices such as a keyboard and mouse via the input/output interface 3600 .
  • the CPU 3100 transmits data to an output device such as a display, a speaker, or a printer via the input/output interface 3600 .
  • the input/output interface 3600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium (media).
  • Media include, for example, optical recording media such as DVD (Digital Versatile Disc) and PD (Phase change rewritable disk), magneto-optical recording media such as MO (Magneto-Optical disk), tape media, magnetic recording media, semiconductor memories, etc. is.
  • optical recording media such as DVD (Digital Versatile Disc) and PD (Phase change rewritable disk)
  • magneto-optical recording media such as MO (Magneto-Optical disk)
  • tape media magnetic recording media
  • magnetic recording media semiconductor memories, etc. is.
  • the CPU 3100 of the computer 3000 executes the information processing program loaded on the RAM 3200, thereby implementing the functions of each part of the CCU 1039.
  • the HDD 3400 also stores information processing programs and various data. Although CPU 3100 reads and executes program data 3450 from HDD 3400 , as another example, these programs may be obtained from another device via external network 3550 .
  • the present technology can also take the following configuration.
  • a robot having an actuator; an estimating unit that estimates an external force applied to the robot based on state information of the robot; with The actuator is an encoder on the output shaft side, a speed reducer connected to the encoder on the output shaft side and having a reverse driving property; a motor coupled to the speed reducer; an input shaft-side encoder coupled to the motor; having control system.
  • the estimation unit estimates the external force applied to the robot by subtracting the estimated disturbance value when the robot is in an unloaded state from the estimated disturbance value when the robot is in a loaded state. , The control system according to (1) above.
  • the estimated disturbance value when the robot is in a loaded state is the estimated disturbance value of a disturbance observer;
  • the estimating unit acquires an estimated disturbance value when the robot is assumed to be in an unloaded state using a trained model, When the state information of the robot is input, the trained model outputs an estimated disturbance value when the robot is assumed to be in an unloaded state.
  • the trained model includes an LSTM (Long Short-Term Memory) block, The state information of the robot is time-series information, The control system according to (4) above.
  • the trained model is a model obtained by inputting the acceleration reference value of the input axis, the angle of the input/output axis, and the time series information of the angular velocity into the neural network.
  • the control system according to (4) above.
  • the estimating unit estimates an external force applied to a joint or tip of the robot.
  • the control system according to any one of (1) to (6) above.
  • the robot includes a joint having the actuator, the state information of the robot includes torque reference values, angles and angular velocities of the joints;
  • the estimating unit estimates an external force received by the joint,
  • the control system according to any one of (1) to (6) above.
  • the robot includes a tip with the actuator; the state information of the robot includes an acceleration reference value, position and velocity of the tip; The estimating unit estimates an external force applied to the tip.
  • the control system according to any one of (1) to (6) above.
  • the robot includes an arm, The control system according to any one of (7) to (9) above.
  • the speed reducer is a speed reducer having a forward driving efficiency of 60% or more, The control system according to any one of (1) to (10) above.
  • the speed reducer is a speed reducer with a backlash lower than a predetermined value, The control system according to any one of (1) to (11) above.
  • the speed reducer is a speed reducer with no backlash, The control system according to any one of (1) to (11) above.
  • the speed reducer is composed of a plurality of gears, Each of the plurality of gears has a coating layer that reduces friction on the outer peripheral portion that meshes with each other,
  • the control system according to any one of (1) to (13) above.
  • the motor is a motor having a cogging torque of 50% or less with respect to the rated torque of the motor.
  • the motor is a motor whose windings are made of a flexible substrate, The control system according to any one of (1) to (15) above.
  • the robot is a robot holding an endoscope, The control system according to any one of (1) to (16) above.
  • the robot is a master robot or a slave robot, The control system according to any one of (1) to (17) above.
  • the actuator is an encoder on the output shaft side, a speed reducer connected to the encoder on the output shaft side and having a reverse driving property; a motor coupled to the speed reducer; an input shaft-side encoder coupled to the motor; having Control device.
  • a control device comprising the components of the control system according to any one of (1) to (18) above.
  • An actuator comprising a component of the control system according to any one of (1) to (18) above.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Mechanical Engineering (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Manipulator (AREA)

Abstract

本開示に係る一形態の制御システムは、アクチュエータ(50)を有するロボットと、前記ロボットの状態情報に基づいて、前記ロボットが受けた外力を推定する推定部と、を備え、前記アクチュエータ(50)は、出力軸側のエンコーダ(51)と、前記出力軸側のエンコーダ(51)に連結され、負荷要素(52)である、逆駆動性を有する減速機と、前記減速機に連結されたモータ(53)と、前記モータ(53)に連結された、入力軸側のエンコーダ(54)と、を有する。

Description

制御システム、制御装置及びアクチュエータ
 本開示は、制御システム、制御装置及びアクチュエータに関する。
 例えば、医療ロボットなどのロボットにおいて、安全性や操作性の向上のため、ロボットの小型化と同時に、アクチュエータの高いバックドライバビリティを担保する外力検出器が求められる。外力検出器としてトルクセンサを用いる場合、通常、トルクセンサはロボット関節の各アクチュエータにそれぞれ搭載される。また、外力検出器として力センサを用いる場合には、力センサはロボット先端に搭載される。なお、モデルベースの力センサレスで外力を推定する手法も提案されている(例えば、特許文献1参照)。
特開2019-49852号公報
 しかしながら、前述のようにトルクセンサがロボット関節の各アクチュエータにそれぞれ搭載されるため、関節数に応じてコストがかかる。また、力センサがロボット先端に搭載されると、そこ以外では外力を検出できない。どちらの場合も導入・維持コストがかかり、かつその設置に機械的制約を受ける。また、モデルベースの力センサレスで外力を推定する手法では、機械的な摩擦のモデル化は難しく、摩擦やモデル化誤差の影響で医療用途に十分な精度で、すなわち適切にロボットが受けた外力を推定できない。
 そこで、本開示では、トルクセンサ又は力センサを用いずに、ロボットが受けた外力を適切に推定することが可能な制御システム、制御装置及びアクチュエータを提案する。
 本開示の実施形態に係る制御システムは、アクチュエータを有するロボットと、前記ロボットの状態情報に基づいて、前記ロボットが受けた外力を推定する推定部と、を備え、前記アクチュエータは、出力軸側のエンコーダと、前記出力軸側のエンコーダに連結され、逆駆動性を有する減速機と、前記減速機に連結されたモータと、前記モータに連結された、入力軸側のエンコーダと、を有する。
 本開示の実施形態に係る制御装置は、アクチュエータを有するロボットの状態情報に基づいて、前記ロボットが受けた外力を推定する推定部を備え、前記アクチュエータは、出力軸側のエンコーダと、前記出力軸側のエンコーダに連結され、逆駆動性を有する減速機と、前記減速機に連結されたモータと、前記モータに連結された、入力軸側のエンコーダと、を有する。
 本開示の実施形態に係るアクチュエータは、出力軸側のエンコーダと、前記出力軸側のエンコーダに連結され、逆駆動性を有する減速機と、前記減速機に連結されたモータと、前記モータに連結された、入力軸側のエンコーダと、を備える。
実施の一形態に係る制御システムの概略構成の一例を示す図である。 実施の一形態に係るロボットの概略構成の一例を示す図である。 実施の一形態に係るアクチュエータの概略構成の一例を示す図である。 実施の一形態に係る順方向駆動効率(Forward driving efficiency)及び逆方向駆動効率(Backward driving efficiency)の関係を示す図である。 実施の一形態に係る高効率遊星減速機の概略構成の一例を示す図である。 実施の一形態に係るモータの概略構成の一例を示す図である。 実施の一形態に係るアクチュエータと比較例に係るアクチュエータとの違いを説明するための図である。 実施の一形態に係るモータと負荷要素である減速機とのモデルの一例を示す図である。 実施の一形態に係るモータと負荷要素である減速機とのモデルの一例を示す図である。 実施の一形態に係るニューラルネットワークの一例を示す図である。 実施の一形態に係る学習データ取得用関節角度制御系の一例を示す図である。 実施の一形態に係る外トルク推定器の一例を示す図である。 実施の一形態に係るトルク制御系の一例を示す図である。 実施の一形態に係る先端力制御系の一例を示す図である。 他の実施形態に係る制御システムの概略構成の一例を示す図である。 内視鏡システムの概略的な構成の一例を示す図である。 図16に示すカメラ及びCCUの機能構成の一例を示すブロック図である。 顕微鏡手術システムの概略的な構成の一例を示す図である。 ハードウェアの概略構成の一例を示す図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、この実施形態により本開示に係る制御システム、制御装置及びアクチュエータなどが限定されるものではない。また、以下の各実施形態において、基本的に同一の部位には同一の符号を付することにより重複する説明を省略する。
 以下に説明される1又は複数の実施形態(実施例、変形例を含む)は、各々が独立に実施されることが可能である。一方で、以下に説明される複数の実施形態は少なくとも一部が他の実施形態の少なくとも一部と適宜組み合わせて実施されてもよい。これら複数の実施形態は、互いに異なる新規な特徴を含み得る。したがって、これら複数の実施形態は、互いに異なる目的又は課題を解決することに寄与し得、互いに異なる効果を奏し得る。
 以下に示す項目順序に従って本開示を説明する。
 1.実施形態
 1-1.制御システムの構成例
 1-2.ロボットの構成例
 1-3.アクチュエータの構成例
 1-4.制御システムの処理例
 1-5.作用・効果
 2.他の実施形態
 3.応用例
 4.ハードウェアの構成例
 5.付記
 <1.実施形態>
 <1-1.制御システムの構成例>
 実施の一形態に係る制御システム1の構成例について図1を参照して説明する。図1は、実施の一形態に係る制御システム1の概略構成の一例を示す図である。
 図1に示すように、制御システム1は、ロボット装置10と、制御装置20とを備える。ロボット装置10は、ロボット11と、検出部12とを有する。制御装置20は、DOB21と、推定部22と、制御部23と、記憶部24とを有する。
 ロボット11は、例えば、アームや関節部などを有する多リンク構造からなるアーム装置である。このロボット11は、例えば、医療用ロボットであるが、これに限定されるものではなく、産業用ロボットであってもよい。ロボット11の詳細は後述する。
 検出部12は、ロボット11の状態を検出する。検出される状態の例は、関節部のトルク参照値、角度(関節角度)及び角速度(関節角速度)等である。トルク参照値は、ロボット11に入力される電流値に実質的に対応し、ロボット装置10において当然に把握されるので検出可能である。関節部の角度は、例えば、ロボット11の関節部に設けられたアクチュエータ内のエンコーダから取得される。アクチュエータの詳細は後述する。関節部の角速度は、関節部の角度を時間微分することによって取得される。検出される状態の他の例は、ロボット11に入力される先端部の加速度参照値、位置及び速度等である。加速度参照値は、上述のトルク参照値のもととなる値であり、トルク参照値と同様にロボット装置10において当然に把握されるので検出可能である。先端部の位置及び先端部の速度は、例えば、上述の関節部の角度や角速度などから特定されるので検出可能である。
 DOB21は、ロボット11の外乱推定値を出力する外乱オブザーバである。例えば、DOB21は、ロボット11の関節部の外乱推定値(関節部に作用するトルクの大きさ)を出力する。具体的に、DOB21は、関節部のトルク参照値や角度、角速度などに基づいて、関節部の外乱推定値を出力する。
 推定部22は、ロボット11の状態情報に基づいてロボット11の外力(例えば、ロボット11の関節又は先端の外力)を推定する。ここで、ロボット11の外力とは、ロボットが受けた外力のことであり、以下でも同様である。状態情報は、ロボット11の状態を特定するためのさまざまな情報を含む。状態情報の例は、先に述べたトルク参照値、角度及び角速度などである。状態情報の他の例は、先に述べた加速度参照値、位置及び速度などである。状態情報は、例えば、時刻ごとのロボット11の状態を示す時系列情報であってよい。推定部22による外力推定の詳細は後述する。
 制御部23は、推定部22の推定結果に基づいてロボット11を制御する。制御部23による制御は、位置制御及び力制御を含む。それぞれの制御に対応する機能ブロックとしては、位置制御器23a及び力制御器23bがある。位置制御器23aは、ロボット11の位置を所望の位置とするようにロボット11を制御する。力制御器23bは、ロボット11の外力(トルク又は力)を所望の外力とするようにロボット11を制御する。力制御器23bによる外力制御の詳細は後述する。
 位置制御器23aは、例えば、位置指令の値に従って、ロボット11の位置を制御する。制御位置の例は、ロボット11の先端部の位置(手先位置)である。この制御は、先端部の位置を指定する情報(手先位置指令)に応じて行われる。手先位置指令などの位置指令は、ユーザ操作に従って生成されたり、あるいは、制御部23によって生成されたりする。位置制御器23aは、例えば、手先位置指令に従う位置にロボット11の先端部が位置するように、例えば、関節部の回転(回転速度、回転角速度、トルク等)を制御する。
 記憶部24は、制御装置20において実行される処理に必要な種々の情報を記憶する。例えば、記憶部24は、学習済みモデル24aを記憶する。学習済みモデル24aは、ロボット11が無負荷状態であると仮定したときの外乱推定値を出力する。ロボット11の無負荷状態は、ロボット11が他の物に接触しておらず、DOB21の外乱推定値に外力が含まれていない状態を示す。学習済みモデル24aの詳細は後述する。
 <1-2.ロボットの構成例>
 実施の一形態に係るロボット11の構成例について図2を参照して説明する。図2は、実施の一形態に係るロボット11の概略構成の一例を示す図である。
 図2に示すように、ロボット11は、例えば、医療用アーム装置である。このロボット11は、多リンク構造からなるアームで、アームの先端部により内視鏡200を支持し、内視鏡200の姿勢を決める3自由度の直交する回転軸を集中的に配置する構成になっている。
 具体的には、ロボット11は、ベース部100にほぼ垂直に取り付けられた第1のリンク101と、第1のリンク101の先端の、水平回転軸(又は、第1のリンク101の長手軸)回りの自由度を持つ第1の関節部111と、第1の関節部111を介して第1のリンク101の先端に水平方向に取り付けられた第2のリンク102と、第2のリンク102の先端の、水平回転軸(又は、第2のリンク102の長手軸と直交する軸)回りの自由度を持つ第2の関節部112と、第2の関節部112を介して第2のリンク102の先端にほぼ垂直に取り付けられた第3のリンク103と、第3のリンク103の先端の、水平回転軸とは直交する上下回転軸(又は、第3のリンク103の長手軸と直交する軸)回りの自由度を持つ第3の関節部113と、第3の関節部113を介して第3のリンク103の先端に取り付けられた第4のリンク104と、第4のリンク104の先端で内視鏡200を支持する先端部を備えている。なお、ベース部100は、例えば、手術ベッドのフレームに取り付けられてもよいし、手術室の床面上に設置されていてもよいし、天井に設置されてもよい。
 第4のリンク104の遠位端で内視鏡200を支持する先端部は、内視鏡200の姿勢を決める3自由度の直交する回転軸を集中的に配置する構造となっている。先端部の3自由度の直交する回転軸を集中的に配置する構造は、例えば、直交する3つの回転軸がリンクを介さずに接続されている構造、又は、3つの回転軸に対応する各関節部材が直接接続されている構造に相当し、より具体的には3つの関節部を接続する部材はアーム長を稼ぐリンクではなく各関節部を接続する部品のみである。なお、内視鏡200を支持する先端部を有する第4のリンク104を第1のアーム部とする。また、2つの水平回転軸(第1の関節部111と第2の関節部112)を含むリンク部分(第1のリンク101及び第2のリンク102)を第2のアーム部とする。図2の例では、第2のアーム部は、上下回転軸回りの自由度を持つ第3の関節部113によって連結されている。
 内視鏡200は、先端の患者の体腔内に挿入される鏡筒201と、鏡筒201の基端に接続されるカメラヘッド202とで構成される。鏡筒201は、硬性の鏡筒からなる硬性鏡、又は、軟性の鏡筒からなる軟性鏡のいずれであってもよい。カメラヘッド202内には、光学系及び撮像素子(いずれも図示せず)が配設されている。術部などの観察対象からの反射光(観察光)は、光学系によって撮像素子に結像される。もちろん、ロボット11の先端部は、内視鏡200以外の医療用器具を支持していてもよい。
 ロボット11の先端部は、第4のリンク104の先端の、上下回転軸(又は、第4のリンク104の長手軸と直交する軸)回りの自由度を持ち、内視鏡200を上下方向に振る上下回転軸部114と、上下回転軸部114に隣接し、上下回転軸とは直交する左右回転軸回りの自由度を持ち、内視鏡200を左右方向に振る左右回転軸部115と、内視鏡200(又は内視鏡200の鏡筒201)の光軸回りの自由度を持つ光軸回転軸部116を備えている。したがって、内視鏡200の姿勢を決める3自由度の直交する回転軸は、最先端部から順に、内視鏡200の光軸回転軸、左右回転軸、上下回転軸の順に配置された構造である。
 なお、左右回転軸部115を内視鏡200の観察方向を変更するパン軸と、上下回転軸部114をチルト軸と言うことができる。あるいは、光軸回転軸部116をロール軸とした場合に、左右回転軸部115をヨー軸、上下回転軸部114をピッチ軸と言うこともできる。これら3軸に対応する関節部を合わせた体積が人の手首と手を合わせた体積よりも小さければ、スコピストに代えてロボット11を利用するメリットがある。光軸回転軸部116は、内視鏡200の有効長を減らすことがないように、内視鏡200の軸方向に把持する長さを最小化することが望ましい。また、上下回転軸部114と光軸回転軸部116の距離はアームの自己干渉を回避する長さに設定することが望ましい。
 3自由度の直交する回転軸を集中的に配置する構造は、3自由度の回転軸に対応する各関節部材が直接接続された構造、又は、長手方向軸回りの回転軸に対応する関節とピッチ軸に対応する関節との間の距離が、ピッチ軸回りに回転した際に干渉を生じない距離を有する構造である。したがって、先端部の動きによって影響を受ける空間を小さくすることができ、術者のワークスペースとの干渉を抑えることができるといった効果がある。ちなみに上下回転軸部114をより根元側に配置した場合、上下回転軸部114を動作させると術者の手元側での動きが大きくなることが想定される。
 <1-3.アクチュエータの構成例>
 実施の一形態に係るアクチュエータ50の構成例について図3から図7を参照して説明する。図3は、実施の一形態に係るアクチュエータ50の概略構成の一例を示す図である。図4は、実施の一形態に係る順方向駆動効率(Forward driving efficiency)及び逆方向駆動効率(Backward driving efficiency)の関係を示す図である。図5は、実施の一形態に係る高効率遊星減速機60の概略構成の一例を示す図である。図6は、実施の一形態に係るモータ53の概略構成の一例を示す図である。図7は、実施の一形態に係るアクチュエータ50と比較例に係るアクチュエータ70との違いを説明するための図である。
 図3に示すように、アクチュエータ50は、出力軸側から入力軸側へ順次、エンコーダ51と、負荷要素52と、モータ53と、エンコーダ54とを備える。これらのエンコーダ51、負荷要素52、モータ53及びエンコーダ54が連結され、アクチュエータ50が構成されている。図3の例では、アクチュエータ50は、出力軸と入力軸の両軸にエンコーダ、すなわち出力軸側にエンコーダ51を搭載し、入力軸側にエンコーダ54を搭載する。このようなアクチュエータ50は、例えば、第1の関節部111や第2の関節部112、第3の関節部113、上下回転軸部114、左右回転軸部115、光軸回転軸部116などのいずれか又は全てに適用されるアクチュエータモジュールである。
 各エンコーダ51、54としては、例えば、磁気式や光学式などのロータリエンコーダが用いられる。なお、各エンコーダ54は、高精度であればあるほど良い。負荷要素52としては、減速機が用いられる。この減速機は、例えば、弾性成分を有し、出力軸側のエンコーダ51とモータ53との間に位置する。なお、負荷要素52としては、減速機に加えて、センサ等が追加されても良い。また、モータ53としては、例えば、電磁モータが用いられるが、モータ種類や方式などの制約はない。
 減速機としては、逆駆動が可能である減速機、例えば、外力に対して柔軟に動く逆駆動性を有する減速機が用いられる。順駆動はモータ53からの力により回る駆動であり、逆駆動は出力軸側からの外力により回る駆動である。逆駆動を実現するには、例えば、図4に示すように、少なくとも順方向駆動効率(Forward driving efficiency)が50%以上である減速機を搭載する。図4の例では、減速機は、順方向駆動効率が50%以上であれば、逆駆動が可能である。例えば、逆方向駆動効率(Backward driving efficiency)を確実に20%以上とするためには、順方向駆動効率が60%以上である減速機を用いることが好ましい。さらに、逆方向駆動効率を確実に70%以上とするためには、順方向駆動効率が80%以上である減速機を用いることが好ましい。
 例えば、減速機としては、図5に示すように、高効率遊星減速機(バイラテラルドライブ減速機)60が用いられる。高効率遊星減速機60は、例えば、複合遊星減速機構と同じ構造である。高効率遊星減速機60は、遊星歯車機構61を同軸上に二段に重ねた構造を有する。遊星歯車機構61は、その機構中心の歯車である太陽歯車61aと、公転する歯車である複数の遊星歯車61bと、さらに、各遊星歯車61bにかみ合って回転する内歯車61cから構成されている。これにより、高減速比の実現が可能であり、低バックラッシや小型化の実現が可能である。バックラッシとは、例えば、歯面間の遊びである。高効率遊星減速機60の順方向駆動効率は、例えば、80%から90%以上である。また、各歯車(例えば、太陽歯車61aや各遊星歯車61b、内歯車61cなど)は、それぞれ噛み合う外周部に、摩擦を軽減するコーティング層を有していてもよい。例えば、歯車の凹凸を有する外周部にコーディング処理が実行され、その外周部にコーディング層が形成される。
 なお、通常、減速機の負荷トルクの制御には、トルクセンサを出力側に配置する必要がある。ところが、高効率遊星減速機60では、良好な逆駆動性により、出力側トルクセンサによる負荷トルクの実測値とモータ側エンコーダによる負荷トルクの推定値が精度よく一致する。このため、例えば、モータ側から出力側のトルクを推定して制御することが可能であることから、出力側のトルクセンサが不要となる。また、逆駆動による制動時の熱を電気エネルギーとして効率的に回収してもよい。この場合には、消費電力の削減も実現することができる。
 モータ53に関して、モータ53のリップル成分は、アクチュエータ50の出力軸側から回される場合、減速比倍に増大される。このため、高減速比の減速機構と組み合わせて、アクチュエータ50としての高可逆性を保つためには、モータ53のコギングトルクが低いこと、もしくは、コギングトルクがないことが好ましい。そこで、例えば、モータ定格トルクに対してコギングトルクが50%以下であるモータを搭載することが望ましい。
 例えば、図6に示すように、モータ53としては、コアレスモータで、かつ、モータ巻き線をフレキシブル基板53aで実現するモータが用いられる。フレキシブル基板53aには、モータ巻き線となる配線がプリントされている。これにより、モータ53がコアレスモータであるため、コギングトルクレスの実現が可能であり、また、モータ巻き線をフレキシブル基板53aで構成することで、通常の線材を使用したモータよりも高出力化が可能である。
 以上のような構成のアクチュエータ50によれば、負荷要素52として高可逆性(高逆駆動性)の減速機を搭載し、並びに、低コギングのモータ53を搭載してアクチュエータ50が構成されるので、逆駆動時の機械的な損失(摩擦、粘性)を低減できる。つまり、高精度のトルクセンサレスの制御を実現するため、高可逆性の減速機並びに低コギングのモータを組み合わせたアクチュエータ50を構成することができる。
 例えば、可逆性を有する減速機を搭載したアクチュエータ50の構成を採用することで、トルクセンサレスでの力制御を実現可能にする。また、アクチュエータ50に高可逆性減速機を搭載することで、アクチュエータ50の逆可動トルクを減らし、制御の不感帯域を低減し、トルク制御の分解能を向上できる。アクチュエータ50に低バックラッシの減速機を搭載することで、アクチュエータ50の駆動精度を向上させ、搭載するロボット11の位置制御精度を向上できる。低コギングモータを搭載することで、減速比の高い減速機と組み合わせても、アクチュエータ50の逆可動トルクを低減し、制御の不感帯域を低減し、トルク制御の分解能を向上できる。高減速比の減速機と小型・高出力のモータとを組み合わせることで、アクチュエータ50の出力密度を高め、小型・軽量なロボット11を実現できる。
 また、図7に示すように、トルクセンサレスのアクチュエータ50によれば、アクチュエータ50のロボット搭載時、アクチュエータ50の出力軸に直接アーム構造(ロボット構造)11Aが接続される。一方、トルクセンサを搭載するアクチュエータ70では、アクチュエータ70のロボット搭載時、アクチュエータ70の出力軸にカップリング機構71を介してアーム構造11Aが接続される。このカップリング機構71によりアーム構造A1とアクチュエータ70との離間距離は、例えば、5~10mmとなり、機構の大型化につながる。また、カップリング機構71やアーム構造11Aは、トルクセンサへのノイズ対策のために複雑化し、さらに、ノイズ対策構造によって構造的なガタが発生し、位置精度が低下してしまう。
 そこで、トルクセンサレス(又は力センサレス)、すなわちトルク/力センサレスのアクチュエータ50を用いることで、アクチュエータ50の出力軸に直接アーム構造11Aを接続することが可能である。これにより、機構のガタ発生がなく、位置精度を向上させることができる(高精度化)。また、センサ搭載時の追加機構分のコストを削減することができる(低コスト化)。さらに、センサ搭載時の追加機構分のスペース削減を実現できる(小型・軽量化)。トルク/力センサレスの力制御を実現することで、低コスト、高精度かつ安全性を兼ね備えた人間協働型ロボットを実現できる。なお、実施の一形態に係るアクチュエータ50を産業分野、医療分野など、幅広い分野に応用することが可能である。
 (他の減速機)
 なお、減速機としては、他の減速機が用いられてもよい。順方向駆動効率が60%以上であり、逆駆動が実現可能な他の減速機としては、例えば、波動歯車型減速機(ハーモニックドライブ(登録商標))、トラクション減速機、サイクロイド減速機などが挙げられる。波動歯車型減速機によれば、高精度(ノンバックラッシ)、かつ、高剛性、小型化、高減速比を実現できる。ただし、逆駆動特性にヒステリシス性が大きい(繰り返し再現性が低い)ことがある。また、トラクション減速機によれば、高精度(ノンバックラッシ)かつ高効率を実現できる。ただし、経時的なすべりが発生、高減速比を稼ぎにくいことがある。サイクロイド減速機によれば、高精度(低バックラッシ)、かつ、高剛性、高減速比を実現できる。ただし、小型化が困難であることがある。なお、減速機としては、例えば、バックラッシが所定値(例えば、5deg)より低い減速機であって、バックラッシが無い減速機を用いることが望ましい。
 (他のモータ)
 また、モータ53としては、他のモータが用いられてもよい。低コギングトルク、かつ、小型・高出力を得られる電磁モータとしては、例えば、コアレスモータ、低コギング対応を実施したコアードモータなどが挙げられる。コアレスモータによれば、巻き線にコアを設けないため、コギングトルクがほとんど発生しない。ただし、コアードモータに比較すると、出力密度が低下する傾向がある。低コギング対応を実施したコアードモータによれば、コアレスモータ比で出力密度を高めやすい。ただし、コギングトルクを無くす(小さくする)ことは困難である場合があり、コギングトルク対策と出力効率はトレードオフになる。なお、低コギング対応の例としては、例えば、マグネットの極数とコイルのスロット数とが最適化され、マグネットへのスキュー着磁や、コイルとロータの空隙の十分な確保が実施される。
 なお、上述したようなアクチュエータ50を組み込むロボット装置10は、人間協働型の医療用ロボットであるが、これに限定されるものではなく、人間協働型の産業用機械であってもよい。図2の例では、ロボット装置10は、外科内視鏡手術の際に内視鏡200を医師に変わって把持して制御するロボットアームであり、アクチュエータ50を適用可能な適用例である。アクチュエータ50は、トルクセンサの搭載を不要とするため、アーム関節部(例えば、第1の関節部111や第2の関節部112、第3の関節部113など)やアーム先端部(例えば、上下回転軸部114や左右回転軸部115、光軸回転軸部116など)の設計自由度が高く、アーム機構への適応性が高い。
 <1-4.制御システムの処理例>
 実施の一形態に係る制御システム1の処理例について図8から図14を参照して説明する。図8から図14は、それぞれ実施の一形態に係る制御システム1の処理例を説明するための図である。具体的には、図8及び図9はモータ53と負荷要素52である減速機(ギア)とのモデルの一例を示す図である。図10はニューラルネットワークN1の一例を示す図である。図11は学習データ取得用関節角度制御系の一例を示す図である。図12は外トルク推定器の一例を示す図である。図13はトルク制御系の一例を示す図である。図14は先端力制御系の一例を示す図である。
 ここで、前述のように、アクチュエータ50は、各関節の入出力軸の角度を取得できるようにエンコーダ(入力軸側のエンコーダ54及び出力軸側のエンコーダ51)を入力軸及び出力軸に搭載する。また、制御装置20は、例えば、リアルタイム性を有するハードウェア(例えば、パーソナルコンピュータなど)で構成される。
 本実施形態では、前述のように、まず、高逆駆動性ギアを有するアクチュエータ50を各関節に搭載し、低摩擦化を実現する。次に、制御システム1は、ロボット11の各関節が取りうる角度、角速度及び加速度をもとにランダムに位置制御を行い、そのときの各関節の入出力軸の角度、角速度及び加速度参照値をニューラルネットワークの入力とし、DOB21により推定された外乱推定値を出力として、ニューラルネットワークを学習させる。その後、制御システム1は、学習済みモデル24aを実装し、リアルタイムで各関節の角度、角速度及びトルク参照値の時系列データを学習済みモデル24a(学習済みのニューラルネットワーク)に入力し、現時刻での各関節の外乱成分のみを推定する。学習済みモデル24aから出力された推定外乱値をDOB21の出力から引くことで、外力成分のみを抽出する。
 (モデリング)
 図8及び図9に示すように、負荷要素52である減速機(ギア)とモータ53のモデルが用いられる。このときの動特性は、次の式(1)から(3)のようになる。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 ここで、J,q,τ,τext,d,R,Kは、それぞれ慣性、角度、ねじれトルク、外トルク、外乱、減速比、減速機のばね定数である。下付き文字m,lは、それぞれモータ、負荷であり、二慣性系として表現している。なお、ダブルドット付きqは、加速度である。
 上の式(1)から(3)を変形し、モータ53のみの動特性として統合すると、下の式(4)が得られる。
Figure JPOXMLDOC01-appb-M000004
 上の式(4)において、右辺第三項がモータ53に印加される外乱としてみなすことができる。この項には負荷慣性トルクや、モータ53および負荷に印加される摩擦やモデル化誤差によるトルクが含まれる。この外乱項を正確に同定し予め除去することで、右辺第二項で表される外トルクを取得することができるが、一般に外乱項の正確な同定は困難である。そこで、本実施形態では、その外乱項をニューラルネットワークにより学習・推定する。
 ここで、例えば、ギアードモータを二慣性系としてモデリングが行われる。モータ側(入力軸)の角度・角速度・加速度参照値と、負荷側(出力軸)の角度・角速度により動力学表現ができる。動力学表現を基に、モータ53に印加される外乱成分のみをニューラルネットワークにより推定する機能を獲得する。入力軸だけでなく、出力軸まで考慮した動力学を設計することにより、ニューラルネットワークの推定機能が高精度化する。
 (ニューラルネットワークの設計)
 図10に示すようなニューラルネットワークN1が用いられる。このニューラルネットワークN1は、時系列データに適したLSTM(Long Short-Term Memory)ブロックと全結合層とを組み合わせた深層ニューラルネットワークである。
 ニューラルネットワークN1の入力としては、各関節への入力軸の加速度参照値、入出力軸の角度、入出力軸の角速度のそれぞれの時系列データが用いられる。図10の例では、qはモータ位置(角度)であり、ドット付きqはモータ速度(角速度)である。qは負荷位置(角度)であり、ドット付きqは負荷速度(角速度)である。ダブルドット付きq refはモータ加速度参照値である。
 また、ニューラルネットワークN1の出力としては、上の式(4)の右辺第三項として、下の式(5)が用いられる(図10参照)。
Figure JPOXMLDOC01-appb-M000005
 上の式(5)の外乱には、減速機の摩擦やモデル化誤差によるトルクなど、すなわち外部環境や操作者からの外力(環境反力)以外の外乱が含まれる。これによって、各関節で外力以外の外乱を学習・推定する。
 (学習法)
 学習データを取得するため、ロボット11を無負荷状態で、図11に示すDOB21に基づく角度制御により学習データを取得する。図11において、Cは角度制御器81であり、qrefは角度参照値である。角度制御器81は、例えば、位置制御器23aに含まれる。ここで、無負荷状態とは、ロボット11が何にも接触しておらず、DOB21から推定された外乱値に外トルクが含まれていない状態である。このとき、例えば、後の推論フェーズにおいて取り得る各関節の角度、角速度を予め設計しておき、その情報をもとに角度制御することとする。
 このようにして学習データが取得される。取得した学習データを用いて、学習済みモデル24a(学習済みのニューラルネットワークN1)が生成される。学習済みモデル24aの生成(学習)は、制御装置20で行われてもよいし、制御システム1の外部(例えば、情報処理装置など)で行われてもよい。生成された学習済みモデル24aは、制御装置20の記憶部24に記憶される。
 (外トルク推定器の実装法)
 ニューラルネットワークN1により得られた推定値を用いて、各関節の外力推定値を以下の式(6)のように導出する。
Figure JPOXMLDOC01-appb-M000006
 上の式(6)において、ハット付きτdobはDOB21から出力される外乱推定値であるが、外トルク推定時においては摩擦等の外乱に加え、操作者および外部環境からの外トルク(反トルク)も含む。一方、学習済みのニューラルネットワークN1から出力されるハット付きdは上述の通り、摩擦等の外力以外の外乱のみを推定されたものである。したがって、上の式(6)のように減算することで、関節ごとの外トルク成分のみを抽出することが可能である。
 例えば、図12に示すような外トルク推定器が求められる。図12に示すように、DOB21から推定された外乱推定値(R -1τext+ハット付きd=ハット付きτdob)は、(外トルク+外トルク以外の外乱)で構成される。このため、DOB21から推定された外乱推定値から、学習済みのニューラルネットワークN1によって推定された値(ハット付きd)を引いてやれば、外力(R -1τext)を計算することができる。すなわち、(外トルク+外トルク以外の外乱)-(外トルク以外の外乱推定値)=外トルク推定値という式から、外トルク推定値を計算することができる。
 この外トルク推定器は、例えば、推定部22に含まれる。つまり、推定部22は、ロボット11のDOB21の外乱推定値(ロボット11が負荷状態であるときの外乱推定値)から、ロボット11が無負荷状態であると仮定したときの外乱推定値(学習済みのニューラルネットワークN1によって推定された値)を減算することにより、ロボット11の外力(例えば、外トルク)を推定する。すなわち、推定部22は、ロボット関節の外力推定値やロボット先端の外力推定値を得ることができる。
 (トルク制御)
 図13に示すように、ロボット関節(各関節)の外力推定値を用いて、センサレスのトルク制御系を構成できる。図13において、Cはトルク制御器82であり、τrefはとトルク参照値である。トルク制御器82は、例えば、力制御器23bに含まれる。外トルク推定値をトルク制御器82へフィードバックすることで、各関節において任意のトルクを発生させることができる。
 (ロボット先端力制御)
 図14に示すように、ロボット先端の外力推定値を用いて、センサレスのロボット先端力制御系を構成できる。図14において、Cは力制御器83であり、frefは力参照値である。力制御器83は、例えば、力制御器23bに含まれる。ロボット先端の外力推定値を力制御器83へフィードバックすることで、ロボット先端において任意の力を発生させることができる。
 ここで、逆運動学として、関節外トルク推定値にヤコビ行列の逆転置行列を乗算して、下の式(7)のように、ロボット先端の外力推定値を取得することができる。
Figure JPOXMLDOC01-appb-M000007
 (まとめ)
 以上のような実施形態によれば、負荷要素52として高可逆性(高逆駆動性)の減速機を搭載し、並びに、低コギングのモータ53を搭載してアクチュエータ50が構成されるので、逆駆動時の機械的な損失(摩擦、粘性)を低減でき、制御システム1が機能し、力/トルクセンサレスでの高分解能での力制御を実現できる。
 詳しくは、減速機に関して、アクチュエータ50に外力が印可された際に、減速機の逆駆動が可能であるため、制御システム1が機能し、力/トルクセンサレスでの力制御を実現できる。また、順方向駆動効率が50%以上である減速機が用いられれば、逆起動トルクを小さくできるため、制御システム1を組み合わせることで、力/トルクセンサレスでの高分解能での力制御を実現できる。順方向駆動効率が60%でかつ低バックラッシの減速機が用いられれば、力/トルクセンサレスでの力制御と高精度の位置制御を実現できる。
 また、モータ53に関して、低コギングのモータを搭載することで、減速比を高く設定してもアクチュエータ50の逆駆動ができ、制御システム1が機能し、力/トルクセンサレスでの力制御を実現できる。なお、力/トルクセンサレスで高精度な外トルク推定およびトルク制御が構成できるため、力/トルクセンサのコストや機構的制約を受けない。
 例えば、力センサレス手法では、ホワイトボックス的な高精度な同定が必要であったが、一般にそれは難しく、また、必ず誤差が生じてしまうため、医療器具等の高精度力検出が必要なアプリケーションへの適用はされてこなかった。例えば、機械的な摩擦のモデル化は非常に難しく、モデル化誤差が残存してしまう。本実施形態では、それらを必要とせず、機械学習によりブラックボックス的にその機能を高精度に獲得できる。例えば、モデル化が難しい摩擦項の推定に学習技術を適応することで精度向上を実現することができる。また、精度向上の実現のためには、例えば、バックドライバビリティの高い減速機に加えて、低コギング(リップルの小さい)モータが用いられることが望ましい。
 なお、本実施形態に係る構成や制御は、医療用ロボット向けであるが、その他アプリケーションとして下記が挙げられる。例えば、本実施形態に係る構成や制御は、協働ロボットや脚ロボットにも適用されてもよい。その構成や制御が協調ロボットに適用された場合には、従来、力センサにより実現していた人間協調システムを力センサレス化できる。また、その構成や制御が脚ロボットに適用された場合には、従来、足底力センサにより実現していた着地判定システムを足底センサレス化できる。
 <1-5.作用・効果>
 以上説明したように、実施の一形態によれば、制御システム1は、アクチュエータ50を有するロボット11と、ロボット11の状態情報に基づいて、ロボット11の外力(ロボットが受けた外力)を推定する推定部22とを備え、アクチュエータ50は、出力軸側のエンコーダ51と、出力軸側のエンコーダ51に連結され、負荷要素52である逆駆動性を有する減速機(例えば、高効率遊星減速機60)と、減速機に連結されたモータ53と、モータ53に連結された、入力軸側のエンコーダ54とを有する。これにより、負荷要素52として逆駆動性の減速機を搭載してアクチュエータ50が構成されるので、逆駆動時の機械的な損失(摩擦、粘性)を低減でき、さらに、制御システム1が機能し、トルクセンサ又は力センサを用いずに、適切にロボット11の外力を推定することができる。
 また、推定部22は、ロボット11が負荷状態であるときの外乱推定値から、ロボット11が無負荷状態であると仮定したときの外乱推定値を減算することで、ロボット11の外力を推定してもよい。これにより、精度よくロボット11の外力を推定することができる。
 また、ロボット11が負荷状態であるときの外乱推定値は、外乱オブザーバであるDOB21の外乱推定値であってもよい。これにより、精度よくロボット11の外力を推定することができる。
 また、推定部22は、学習済みモデル24aを用いて、ロボット11が無負荷状態であると仮定したときの外乱推定値を取得し、学習済みモデル24aは、ロボット11の状態情報が入力されると、ロボット11が無負荷状態であると仮定したときの外乱推定値を出力してもよい。これにより、機械学習によりブラックボックス的に得られた学習済みモデル24aを用いて、ロボット11の外力を高い精度で推定することができる。
 また、学習済みモデル24aは、LSTM(Long Short-Term Memory)ブロックを含み、ロボット11の状態情報は、時系列情報であってもよい。これにより、例えば、多層パーセプトロンを用いる場合よりも、外乱の推定精度を向上させることができる。
 また、学習済みモデル24aは、入力軸の加速度参照値、入出力軸の角度及び角速度の時系列情報がニューラルネットワークN1に入力されて得られたモデルであってもよい。これにより、外乱の推定精度を向上させることができる。
 また、推定部22は、ロボット11の関節部(例えば、第1の関節部111や第2の関節部112、第3の関節部113など)又は先端部(例えば、上下回転軸部114や左右回転軸部115、光軸回転軸部116など)の外力を推定してもよい。これにより、ロボット11の関節部又は先端部の外力を適切に推定することができる。
 また、ロボット11は、アクチュエータ50を有する関節部を含み、ロボット11の状態情報は、関節部のトルク参照値、角度及び角速度を含み、推定部22は、関節部の外力(関節部が受けた外力)を推定してもよい。これにより、推定部22は、関節部のトルク参照値、角度及び角速度を含むロボット11の状態情報に基づいてロボット11の関節部の外力を推定することが可能になるので、ロボット11の関節部の外力を精度よく推定することができる。
 また、ロボット11は、アクチュエータ50を有する先端部を含み、ロボット11の状態情報は、先端部の加速度参照値、位置及び速度を含み、推定部22は、先端部の外力(先端部が受けた外力)を推定してもよい。これにより、推定部22は、先端部の加速度参照値、位置及び速度を含むロボット11の状態情報に基づいてロボット11の先端部の外力を推定することが可能になるので、ロボット11の先端部の外力を精度よく推定することができる。
 また、ロボット11は、アーム(例えば、アーム部)を含んでもよい。このロボット11がアームを含む場合でも、ロボット11の外力を適切に推定することができる。
 また、減速機は、順方向駆動効率が60%以上である減速機であってもよい。これにより、減速機の逆駆動が可能であり、制御システム1が適切に機能できる。
 また、減速機は、バックラッシが所定値(例えば、5deg)より低い減速機であってもよい。これにより、機構のがたつきを抑え、位置精度を向上させることができる。
 また、減速機は、バックラッシが無い減速機であってもよい。これにより、機構のがたつきを抑え、位置精度を向上させることができる。
 また、減速機(例えば、高効率遊星減速機60)は、複数の歯車(例えば、太陽歯車61aや各遊星歯車61b、内歯車61cなど)により構成されており、複数の歯車は、それぞれ噛み合う外周部に、摩擦を軽減するコーティング層を有していてもよい。これにより、歯車間の摩擦を抑えることで機構のがたつきを抑え、位置精度を向上させることができる。
 また、モータ53は、モータ定格トルクに対してコギングトルクが50%以下であるモータであってもよい。これにより、そのモータ53を高減速比の減速機と組み合わせても、アクチュエータ50の逆可能性を確保することが可能であり、制御システム1が適切に機能できる。
 また、モータ53は、巻き線がフレキシブル基板53aにより構成されたモータであってもよい。これにより、モータ53の出力を向上させることができ、また、アクチュエータ50の小型化を実現することができる。
 また、ロボット11は、内視鏡を保持するロボット(例えば、スコピストロボ)であってもよい。ロボット11が内視鏡を保持するロボットである場合でも、適切にロボット11の外力を推定することができる。
 また、減速機は、順方向駆動効率が80%以上である減速機であってもよい。これにより、力/トルクセンサレスの力制御と高精度の位置精度を両立することができる。
 また、モータ53は、コギングトルクが無いコアレスモータであってもよい。これにより、そのモータ53を高減速比の減速機と組み合わせても、アクチュエータ50の逆駆動性を確保することが可能であり、制御システム1が適切に機能できる。
 <2.他の実施形態>
 上述した実施形態(又は変形例)に係る処理は、上記実施形態以外にも種々の異なる形態(変形例)にて実施されてよい。例えば、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。また、上述した実施形態(又は変形例)は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。なお、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定されるものではない。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
 また、上述した実施形態(又は変形例)は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 例えば、制御システム1をマスタ・スレーブ方式の制御システムに適用することができる。図15は、他の実施形態に係る制御システム1の概略構成の一例を示す図である。制御システム1は、マスタ・スレーブ方式の制御システムであり、マスタ装置510と、スレーブ装置520と、制御装置530とを備える。制御装置530は、破線で模式的に図示されるように、マスタ装置510及びスレーブ装置520それぞれと通信可能に接続される。各装置で使用されたり取得されたりする情報(データ等)は、必要に応じて送受信される。なお、通信は、ネットワークを介して行われてもよい。各装置は、ネットワークに接続されてよい。その場合、マスタ装置510及びスレーブ装置520どうしが直接ネッワーク接続されてもよい。
 図15の例では、制御システム1は、手術に用いられる。手術を行う術者(医師等)を、ユーザU1と称し図示する。手術を受ける患者を、ユーザU2と称し図示する。マスタ装置510及びスレーブ装置520は、それぞれ図1に示すロボット装置10に相当する。また、制御装置530は、図1に示す制御装置20に相当する。
 ユーザU1は、マスタ装置510を操作し、スレーブ装置520を遠隔操作することによって、ユーザU2を手術する。具体的に、マスタ装置510は、ユーザU1によって操作されるマスタロボット511を含んで構成される。スレーブ装置520は、ユーザU1によって遠隔操作されるスレーブロボット521を含んで構成される。便宜上、スレーブロボット521、マスタロボット511の順に説明する。スレーブロボット521は、図2に示すロボット11に相当する。
 スレーブロボット521は、この例では、アームを含んで構成される。例示されるスレーブロボット521は、リンク部521Lと、関節部521Jと、先端部521Eとを含む。隣り合うリンク部521Lどうしは、モータ駆動で回転する関節部521Jを介して、回動可能に接続される。先端部521Eは、最もユーザU2の近くに位置し、ユーザU2に接触しうる部分である。スレーブロボット521は、例えば関節部521Jの回転角度等に応じたさまざまな状態を有する。なお、スレーブロボット521は、図示される数よりも多い数のリンク部521L及び関節部521J、さらには先端部521Eを有してよい。例えば、関節部521Jや先端部521Eなどに、アクチュエータ50が適用される。以降のリンク部、関節部及び先端部に関する説明は、各リンク部、各関節部及び各先端部に適宜読み替えられてよい。
 マスタロボット511は、ユーザU1がスレーブロボット521を遠隔操作するのに適した構成を備える。ユーザU1によるマスタロボット511の操作(ユーザ操作)の内容は、制御情報としてマスタ装置510からスレーブ装置520に送信される。また、マスタロボット511は、スレーブロボット521の状態をユーザU1に伝えるように、スレーブロボット521に対応する構成を備える。マスタロボット511は、スレーブロボット521の各部(リンク部521L、関節部521J及び先端部521E等)の状態に対応する状態を有するように、スレーブロボット521の各部に対応する部分を備える。マスタロボット511は、スレーブロボット521と同様のアームを備えてもよい。ユーザU1は、マスタロボット511を介して、スレーブロボット521の状態、例えば外力を認識することができる。以下では、マスタロボット511においてスレーブロボット521の関節部521Jに対応する部分を、「マスタロボット511の関節部」という。マスタロボット511においてスレーブロボット521の先端部521Eに対応する部分を、「マスタロボット511の先端部」という。
 ユーザU1に伝えられるスレーブロボット521の状態の一つは、スレーブロボット521の外力である。とくに、スレーブロボット521のうち、最もユーザU2の近くに位置する先端部521Eの外力をユーザU1に伝えることは重要である。先端部521Eの外力(先端部521Eに作用する反作用の力)を検出するために力センサ(力覚センサ等)を設けることも考えられるが、コストがかかり、また、そもそも力センサを設けるスペースが無い場合も少なくない。本実施形態では、上述の原理により、力センサが用いられずに(力センサレスで)、先端部521Eの外力が適切に推定される。また、同様にトルクセンサが用いられずに(トルクセンサレスで)、関節部521Jの外力も適切に推定される。
 制御装置530は、マスタロボット511の状態情報に基づいて、マスタロボット511(例えば、先端部)の外力を推定する。また、制御装置530は、スレーブロボット521の状態情報に基づいて、スレーブロボット521(例えば、先端部521E)の外力を推定する。そして、制御装置530は、外力推定の推定結果に基づいて、マスタロボット511及びスレーブロボット521を制御する。制御装置530による制御は、位置制御及び力制御を含む。それぞれの制御に対応する機能ブロックとして、位置制御器及び力制御器がある。この制御装置530は、図1に示す制御装置20に相当するため、外力推定は上記の原理と同様である。
 制御装置530の位置制御器は、マスタロボット511の位置とスレーブロボット521の位置とがそれぞれ対応するように、マスタロボット511及びスレーブロボット521を制御する。ここでいう位置の対応は、マスタロボット511及びスレーブロボット521の対応する部分どうしの位置が対応関係を有することを意味する。例えば、マスタロボット511の先端部の位置と、スレーブロボット521の先端部521Eの位置とが対応関係を有する位置となるように、マスタロボット511及びスレーブロボット521が制御される。
 制御装置530の力制御器は、マスタロボット511の外力とスレーブロボット521の外力とがそれぞれ対応するように、マスタロボット511及びスレーブロボット521を制御する。ここでいう外力の対応は、マスタロボット511及びスレーブロボット521の対応する部分どうしの外力が対応関係を有することを意味する。例えば、マスタロボット511の先端部の外力と、スレーブロボット521の先端部521Eの外力とが対応関係を有する外力となるように、マスタロボット511及びスレーブロボット521が制御される。
 このようなマスタ・スレーブ方式の制御システム1においても、そのマスタ・スレーブ方式の制御システム1に本開示に係る技術を適用することにより、トルクセンサ又は力センサを用いずに、適切に外力を推定することができる。
 <3.応用例>
 本開示に係る技術は、医療イメージングシステムに適用することができる。医療イメージングシステムは、イメージング技術を用いた医療システムであり、例えば、内視鏡システムや顕微鏡システムである。
 [内視鏡システム]
 内視鏡システムの例を図16、図17を用いて説明する。図16は、本開示に係る技術が適用可能な内視鏡システム5000の概略的な構成の一例を示す図である。図17は、内視鏡5001およびCCU(Camera Control Unit)5039の構成の一例を示す図である。図16では、手術参加者である術者(例えば、医師)5067が、内視鏡システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図16に示すように、内視鏡システム5000は、医療イメージング装置である内視鏡5001と、CCU5039と、光源装置5043と、記録装置5053と、出力装置5055と、内視鏡5001を支持する支持装置5027と、から構成される。
 内視鏡手術では、トロッカ5025と呼ばれる挿入補助具が患者5071に穿刺される。そして、トロッカ5025を介して、内視鏡5001に接続されたスコープ5003や術具5021が患者5071の体内に挿入される。術具5021は例えば、電気メス等のエネルギーデバイスや、鉗子などである。
 内視鏡5001によって撮影された患者5071の体内を映した医療画像である手術画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された手術画像を見ながら術具5021を用いて手術対象に処置を行う。なお、医療画像は手術画像に限らず、診断中に撮像された診断画像であってもよい。
 [内視鏡]
 内視鏡5001は、患者5071の体内を撮像する撮像部であり、例えば、図17に示すように、入射した光を集光する集光光学系50051と、撮像部の焦点距離を変更して光学ズームを可能とするズーム光学系50052と、撮像部の焦点距離を変更してフォーカス調整を可能とするフォーカス光学系50053と、受光素子50054と、を含むカメラ5005である。内視鏡5001は、接続されたスコープ5003を介して光を受光素子50054に集光することで画素信号を生成し、CCU5039に伝送系を通じて画素信号を出力する。なお、スコープ5003は、対物レンズを先端に有し、接続された光源装置5043からの光を患者5071の体内に導光する挿入部である。スコープ5003は、例えば硬性鏡では硬性スコープ、軟性鏡では軟性スコープである。スコープ5003は直視鏡や斜視鏡であってもよい。また、画素信号は画素から出力された信号に基づいた信号であればよく、例えば、RAW信号や画像信号である。また、内視鏡5001とCCU5039とを接続する伝送系にメモリを搭載し、メモリに内視鏡5001やCCU5039に関するパラメータを記憶する構成にしてもよい。メモリは、例えば、伝送系の接続部分やケーブル上に配置されてもよい。例えば、内視鏡5001の出荷時のパラメータや通電時に変化したパラメータを伝送系のメモリに記憶し、メモリから読みだしたパラメータに基づいて内視鏡の動作を変更してもよい。また、内視鏡と伝送系をセットにして内視鏡と称してもよい。受光素子50054は、受光した光を画素信号に変換するセンサであり、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプの撮像素子である。受光素子50054は、Bayer配列を有するカラー撮影可能な撮像素子であることが好ましい。また、受光素子50054は、例えば4K(水平画素数3840×垂直画素数2160)、8K(水平画素数7680×垂直画素数4320)または正方形4K(水平画素数3840以上×垂直画素数3840以上)の解像度に対応した画素数を有する撮像素子であることが好ましい。受光素子50054は、1枚のセンサチップであってもよいし、複数のセンサチップでもよい。例えば、入射光を所定の波長帯域ごとに分離するプリズムを設けて、各波長帯域を異なる受光素子で撮像する構成であってもよい。また、立体視のために受光素子を複数設けてもよい。また、受光素子50054は、チップ構造の中に画像処理用の演算処理回路を含んでいるセンサであってもよいし、ToF(Time of Flight)用センサであってもよい。なお、伝送系は例えば光ファイバケーブルや無線伝送である。無線伝送は、内視鏡5001で生成された画素信号が伝送可能であればよく、例えば、内視鏡5001とCCU5039が無線接続されてもよいし、手術室内の基地局を経由して内視鏡5001とCCU5039が接続されてもよい。このとき、内視鏡5001は画素信号だけでなく、画素信号に関連する情報(例えば、画素信号の処理優先度や同期信号等)を同時に送信してもよい。なお、内視鏡はスコープとカメラを一体化してもよく、スコープの先端部に受光素子を設ける構成としてもよい。
 [CCU(Camera Control Unit)]
 CCU5039は、接続された内視鏡5001や光源装置5043を統括的に制御する制御装置であり、例えば、図17に示すように、FPGA50391、CPU50392、RAM50393、ROM50394、GPU50395、I/F50396を有する情報処理装置である。また、CCU5039は、接続された表示装置5041や記録装置5053、出力装置5055を統括的に制御してもよい。例えば、CCU5039は、光源装置5043の照射タイミングや照射強度、照射光源の種類を制御する。また、CCU5039は、内視鏡5001から出力された画素信号に対して現像処理(例えばデモザイク処理)や補正処理といった画像処理を行い、表示装置5041等の外部装置に処理後の画素信号(例えば画像)を出力する。また、CCU5039は、内視鏡5001に対して制御信号を送信し、内視鏡5001の駆動を制御する。制御信号は、例えば、撮像部の倍率や焦点距離などの撮像条件に関する情報である。なお、CCU5039は画像のダウンコンバート機能を有し、表示装置5041に高解像度(例えば4K)の画像を、記録装置5053に低解像度(例えばHD)の画像を同時に出力可能な構成としてもよい。
 また、CCU5039は、信号を所定の通信プロトコル(例えば、IP(Internet Protocol))に変換するIPコンバータを経由して外部機器(例えば、記録装置や表示装置、出力装置、支持装置)と接続されてもよい。IPコンバータと外部機器との接続は、有線ネットワークで構成されてもよいし、一部または全てのネットワークが無線ネットワークで構築されてもよい。例えば、CCU5039側のIPコンバータは無線通信機能を有し、受信した映像を第5世代移動通信システム(5G)、第6世代移動通信システム(6G)等の無線通信ネットワークを介してIPスイッチャーや出力側IPコンバータに送信してもよい。
 [光源装置]
 光源装置5043は、所定の波長帯域の光を照射可能な装置であり、例えば、複数の光源と、複数の光源の光を導光する光源光学系と、を備える。光源は、例えばキセノンランプ、LED光源やLD光源である。光源装置5043は、例えば三原色R、G、Bのそれぞれに対応するLED光源を有し、各光源の出力強度や出力タイミングを制御することで白色光を出射する。また、光源装置5043は、通常光観察に用いられる通常光を照射する光源とは別に、特殊光観察に用いられる特殊光を照射可能な光源を有していてもよい。特殊光は、通常光観察用の光である通常光とは異なる所定の波長帯域の光であり、例えば、近赤外光(波長が760nm以上の光)や赤外光、青色光、紫外光である。通常光は、例えば白色光や緑色光である。特殊光観察の一種である狭帯域光観察では、青色光と緑色光を交互に照射することにより、体組織における光の吸収の波長依存性を利用して、粘膜表層の血管等の所定の組織を高コントラストで撮影することができる。また、特殊光観察の一種である蛍光観察では、体組織に注入された薬剤を励起する励起光を照射し、体組織または標識である薬剤が発する蛍光を受光して蛍光画像を得ることで、通常光では術者が視認しづらい体組織等を、術者が視認しやすくすることができる。例えば、赤外光を用いる蛍光観察では、体組織に注入されたインドシアニングリーン(ICG)等の薬剤に励起波長帯域を有する赤外光を照射し、薬剤の蛍光を受光することで、体組織の構造や患部を視認しやすくすることができる。また、蛍光観察では、青色波長帯域の特殊光で励起され、赤色波長帯域の蛍光を発する薬剤(例えば5-ALA)を用いてもよい。なお、光源装置5043は、CCU5039の制御により照射光の種類を設定される。CCU5039は、光源装置5043と内視鏡5001を制御することにより、通常光観察と特殊光観察が交互に行われるモードを有してもよい。このとき、通常光観察で得られた画素信号に特殊光観察で得られた画素信号に基づく情報を重畳されることが好ましい。また、特殊光観察は、赤外光を照射して臓器表面より奥を見る赤外光観察や、ハイパースペクトル分光を活用したマルチスペクトル観察であってもよい。さらに、光線力学療法を組み合わせてもよい。
 [記録装置]
 記録装置5053は、CCU5039から取得した画素信号(例えば画像)を記録する装置であり、例えばレコーダーである。記録装置5053は、CCU5039から取得した画像をHDDやSDD、光ディスクに記録する。記録装置5053は、病院内のネットワークに接続され、手術室外の機器からアクセス可能にしてもよい。また、記録装置5053は画像のダウンコンバート機能またはアップコンバート機能を有していてもよい。
 [表示装置]
 表示装置5041は、画像を表示可能な装置であり、例えば表示モニタである。表示装置5041は、CCU5039から取得した画素信号に基づく表示画像を表示する。なお、表示装置5041はカメラやマイクを備えることで、視線認識や音声認識、ジェスチャによる指示入力を可能にする入力デバイスとしても機能してよい。
 [出力装置]
 出力装置5055は、CCU5039から取得した情報を出力する装置であり、例えばプリンタである。出力装置5055は、例えば、CCU5039から取得した画素信号に基づく印刷画像を紙に印刷する。
 [支持装置]
 支持装置5027は、アーム制御装置5045を有するベース部5029と、ベース部5029から延伸するアーム部5031と、アーム部5031の先端に取り付けられた保持部5032とを備える多関節アームである。アーム制御装置5045は、CPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、アーム部5031の駆動を制御する。支持装置5027は、アーム制御装置5045によってアーム部5031を構成する各リンク5035の長さや各関節5033の回転角やトルク等のパラメータを制御することで、例えば保持部5032が保持する内視鏡5001の位置や姿勢を制御する。これにより、内視鏡5001を所望の位置または姿勢に変更し、スコープ5003を患者5071に挿入でき、また、体内での観察領域を変更できる。支持装置5027は、術中に内視鏡5001を支持する内視鏡支持アームとして機能する。これにより、支持装置5027は、内視鏡5001を持つ助手であるスコピストの代わりを担うことができる。また、支持装置5027は、後述する顕微鏡装置5301を支持する装置であってもよく、医療用支持アームと呼ぶこともできる。なお、支持装置5027の制御は、アーム制御装置5045による自律制御方式であってもよいし、ユーザの入力に基づいてアーム制御装置5045が制御する制御方式であってもよい。例えば、制御方式は、ユーザの手元の術者コンソールであるマスタ装置(プライマリ装置)の動きに基づいて、患者カートであるスレーブ装置(レプリカ装置)としての支持装置5027が制御されるマスタ・スレーブ方式でもよい。また、支持装置5027の制御は、手術室の外から遠隔制御が可能であってもよい。
 以上、本開示に係る技術が適用され得る内視鏡システム5000の一例について説明した。例えば、本開示に係る技術は、顕微鏡システムに適用されてもよい。
 [顕微鏡システム]
 図18は、本開示に係る技術が適用され得る顕微鏡手術システム5300の概略的な構成の一例を示す図である。なお、以下の説明において、内視鏡システム5000と同様の構成については、同一の符号を付し、その重複する説明を省略する。
 図18では、術者5067が、顕微鏡手術システム5300を用いて、患者ベッド5069上の患者5071に対して手術を行っている様子を概略的に示している。なお、図18では、簡単のため、顕微鏡手術システム5300の構成のうちカート5037の図示を省略するとともに、内視鏡5001に代わる顕微鏡装置5301を簡略化して図示している。ただし、本説明における顕微鏡装置5301は、リンク5035の先端に設けられた顕微鏡部5303を指していてもよいし、顕微鏡部5303及び支持装置5027を含む構成全体を指していてもよい。
 図18に示すように、手術時には、顕微鏡手術システム5300を用いて、顕微鏡装置5301によって撮影された術部の画像が、手術室に設置される表示装置5041に拡大表示される。表示装置5041は、術者5067と対向する位置に設置されており、術者5067は、表示装置5041に映し出された映像によって術部の様子を観察しながら、例えば患部の切除等、当該術部に対して各種の処置を行う。顕微鏡手術システム5300は、例えば眼科手術や脳外科手術に使用される。
 以上、本開示に係る技術が適用され得る内視鏡システム5000及び顕微鏡手術システム5300の例についてそれぞれ説明した。なお、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、支持装置5027は、その先端に内視鏡5001又は顕微鏡部5303に代えて他の観察装置や他の術具を支持し得る。当該他の観察装置としては、例えば、鉗子、攝子、気腹のための気腹チューブ、又は焼灼によって組織の切開や血管の封止を行うエネルギー処置具等が適用され得る。これらの観察装置や術具を支持装置によって支持することにより、医療スタッフが人手で支持する場合に比べて、より安定的に位置を固定することが可能となるとともに、医療スタッフの負担を軽減することが可能となる。本開示に係る技術は、このような顕微鏡部以外の構成を支持する支持装置に適用されてもよい。
 本開示に係る技術は、内視鏡システム5000や顕微鏡手術システム5300の等の医療用観察システムに好適に適用され得る。医療用観察システムに本開示に係る技術を適用することにより、トルクセンサ又は力センサを用いずに、適切に外力を推定することができる。ここで、例えば、内視鏡5001は、実施の一形態に係る内視鏡200に相当する。支持装置5027は、実施の一形態に係るロボット11に相当する。支持装置5027の保持部5032や関節5033などに、実施の一形態に係るアクチュエータ50が適用される。アーム制御装置5045は、実施の一形態に係る制御装置20に相当する。
 <4.ハードウェアの構成例>
 上述してきたCCU1039等の情報処理装置は、例えば、図19に示すような構成のコンピュータ3000によって実現される。図19は、コンピュータ3000のハードウェアの概略構成を示す図である。
 図19に示すように、コンピュータ3000は、CPU3100、RAM3200、ROM(Read Only Memory)3300、HDD(Hard Disk Drive)3400、通信インターフェース3500、及び入出力インターフェース3600を有する。コンピュータ3000の各部は、バス3050によって接続される。
 CPU3100は、ROM3300又はHDD3400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU3100は、ROM3300又はHDD3400に格納されたプログラムをRAM3200に展開し、各種プログラムに対応した処理を実行する。
 ROM3300は、コンピュータ3000の起動時にCPU3100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ3000のハードウェアに依存するプログラム等を格納する。
 HDD3400は、CPU3100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータ3000が読み取り可能な記録媒体である。具体的には、HDD3400は、プログラムデータ3450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
 通信インターフェース3500は、コンピュータ3000が外部ネットワーク3550(例えばインターネット)と接続するためのインターフェースである。例えば、CPU3100は、通信インターフェース3500を介して、他の機器からデータを受信したり、CPU3100が生成したデータを他の機器へ送信したりする。
 入出力インターフェース3600は、入出力デバイス3650とコンピュータ3000とを接続するためのインターフェースである。例えば、CPU3100は、入出力インターフェース3600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU3100は、入出力インターフェース3600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェース3600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェースとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ3000がCCU1039として機能する場合、コンピュータ3000のCPU3100は、RAM3200上にロードされた情報処理プログラムを実行することにより、CCU1039の各部の機能を実現する。また、HDD3400には、情報処理プログラムや各種データが格納される。なお、CPU3100は、プログラムデータ3450をHDD3400から読み取って実行するが、他の例として、外部ネットワーク3550を介して、他の装置からこれらのプログラムを取得してもよい。
 以上、添付図面を参照しながら本開示の各実施形態、各変形例、各適用例について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 <5.付記>
 なお、本技術は以下のような構成も取ることができる。
(1)
 アクチュエータを有するロボットと、
 前記ロボットの状態情報に基づいて、前記ロボットが受けた外力を推定する推定部と、
を備え、
 前記アクチュエータは、
 出力軸側のエンコーダと、
 前記出力軸側のエンコーダに連結され、逆駆動性を有する減速機と、
 前記減速機に連結されたモータと、
 前記モータに連結された、入力軸側のエンコーダと、
を有する、
 制御システム。
(2)
 前記推定部は、前記ロボットが負荷状態であるときの外乱推定値から、前記ロボットが無負荷状態であると仮定したときの外乱推定値を減算することで、前記ロボットが受けた外力を推定する、
 上記(1)に記載の制御システム。
(3)
 前記ロボットが負荷状態であるときの外乱推定値は、外乱オブザーバの外乱推定値である、
 上記(2)に記載の制御システム。
(4)
 前記推定部は、学習済みモデルを用いて、前記ロボットが無負荷状態であると仮定したときの外乱推定値を取得し、
 前記学習済みモデルは、前記ロボットの状態情報が入力されると、前記ロボットが無負荷状態であると仮定したときの外乱推定値を出力する、
 上記(2)又は(3)に記載の制御システム。
(5)
 前記学習済みモデルは、LSTM(Long Short-Term Memory)ブロックを含み、
 前記ロボットの状態情報は、時系列情報である、
 上記(4)に記載の制御システム。
(6)
 前記学習済みモデルは、入力軸の加速度参照値、入出力軸の角度及び角速度の時系列情報がニューラルネットワークに入力されて得られたモデルである、
 上記(4)に記載の制御システム。
(7)
 前記推定部は、前記ロボットの関節部又は先端部が受けた外力を推定する、
 上記(1)から(6)のいずれか一つに記載の制御システム。
(8)
 前記ロボットは、前記アクチュエータを有する関節部を含み、
 前記ロボットの状態情報は、前記関節部のトルク参照値、角度及び角速度を含み、
 前記推定部は、前記関節部が受けた外力を推定する、
 上記(1)から(6)のいずれか一つに記載の制御システム。
(9)
 前記ロボットは、前記アクチュエータを有する先端部を含み、
 前記ロボットの状態情報は、前記先端部の加速度参照値、位置及び速度を含み、
 前記推定部は、前記先端部が受けた外力を推定する、
 上記(1)から(6)のいずれか一つに記載の制御システム。
(10)
 前記ロボットは、アームを含む、
 上記(7)から(9)のいずれか一つに記載の制御システム。
(11)
 前記減速機は、順方向駆動効率が60%以上である減速機である、
 上記(1)から(10)のいずれか一つに記載の制御システム。
(12)
 前記減速機は、バックラッシが所定値より低い減速機である、
 上記(1)から(11)のいずれか一つに記載の制御システム。
(13)
 前記減速機は、バックラッシが無い減速機である、
 上記(1)から(11)のいずれか一つに記載の制御システム。
(14)
 前記減速機は、複数の歯車により構成されており、
 前記複数の歯車は、それぞれ噛み合う外周部に、摩擦を軽減するコーティング層を有している、
 上記(1)から(13)のいずれか一つに記載の制御システム。
(15)
 前記モータは、モータ定格トルクに対してコギングトルクが50%以下であるモータである、
 上記(1)から(14)のいずれか一つに記載の制御システム。
(16)
 前記モータは、巻き線がフレキシブル基板により構成されたモータである、
 上記(1)から(15)のいずれか一つに記載の制御システム。
(17)
 前記ロボットは、内視鏡を保持するロボットである、
 上記(1)から(16)のいずれか一つに記載の制御システム。
(18)
 前記ロボットは、マスタロボット又はスレーブロボットである、
 上記(1)から(17)のいずれか一つに記載の制御システム。
(19)
 アクチュエータを有するロボットの状態情報に基づいて、前記ロボットが受けた外力を推定する推定部を備え、
 前記アクチュエータは、
 出力軸側のエンコーダと、
 前記出力軸側のエンコーダに連結され、逆駆動性を有する減速機と、
 前記減速機に連結されたモータと、
 前記モータに連結された、入力軸側のエンコーダと、
を有する、
 制御装置。
(20)
 出力軸側のエンコーダと、
 前記出力軸側のエンコーダに連結され、逆駆動性を有する減速機と、
 前記減速機に連結されたモータと、
 前記モータに連結された、入力軸側のエンコーダと、
を備える、
 アクチュエータ。
(21)
 上記(1)から(18)のいずれか一つに記載の制御システムに係る構成要素を有する、制御装置。
(22)
 上記(1)から(18)のいずれか一つに記載の制御システムに係る構成要素を有する、アクチュエータ。
 1   制御システム
 10  ロボット装置
 11  ロボット
 11A アーム構造
 12  検出部
 20  制御装置
 21  DOB
 22  推定部
 23  制御部
 23a 位置制御器
 23b 力制御器
 24  記憶部
 24a 学習済みモデル
 50  アクチュエータ
 51  エンコーダ
 52  負荷要素
 53  モータ
 53a フレキシブル基板
 54  エンコーダ
 60  高効率遊星減速機
 61  遊星歯車機構
 61a 太陽歯車
 61b 遊星歯車
 61c 内歯車
 70  アクチュエータ
 71  カップリング機構
 81  角度制御器
 82  トルク制御器
 83  力制御器
 100 ベース部
 101 第1のリンク
 102 第2のリンク
 103 第3のリンク
 104 第4のリンク
 111 第1の関節部
 112 第2の関節部
 113 第3の関節部
 114 上下回転軸部
 115 左右回転軸部
 116 光軸回転軸部
 200 内視鏡
 201 鏡筒
 202 カメラヘッド
 N1  ニューラルネットワーク

Claims (20)

  1.  アクチュエータを有するロボットと、
     前記ロボットの状態情報に基づいて、前記ロボットが受けた外力を推定する推定部と、
    を備え、
     前記アクチュエータは、
     出力軸側のエンコーダと、
     前記出力軸側のエンコーダに連結され、逆駆動性を有する減速機と、
     前記減速機に連結されたモータと、
     前記モータに連結された、入力軸側のエンコーダと、
    を有する、
     制御システム。
  2.  前記推定部は、前記ロボットが負荷状態であるときの外乱推定値から、前記ロボットが無負荷状態であると仮定したときの外乱推定値を減算することで、前記ロボットが受けた外力を推定する、
     請求項1に記載の制御システム。
  3.  前記ロボットが負荷状態であるときの外乱推定値は、外乱オブザーバの外乱推定値である、
     請求項2に記載の制御システム。
  4.  前記推定部は、学習済みモデルを用いて、前記ロボットが無負荷状態であると仮定したときの外乱推定値を取得し、
     前記学習済みモデルは、前記ロボットの状態情報が入力されると、前記ロボットが無負荷状態であると仮定したときの外乱推定値を出力する、
     請求項2に記載の制御システム。
  5.  前記学習済みモデルは、LSTM(Long Short-Term Memory)ブロックを含み、
     前記ロボットの状態情報は、時系列情報である、
     請求項4に記載の制御システム。
  6.  前記学習済みモデルは、入力軸の加速度参照値、入出力軸の角度及び角速度の時系列情報がニューラルネットワークに入力されて得られたモデルである、
     請求項4に記載の制御システム。
  7.  前記推定部は、前記ロボットの関節部又は先端部が受けた外力を推定する、
     請求項1に記載の制御システム。
  8.  前記ロボットは、前記アクチュエータを有する関節部を含み、
     前記ロボットの状態情報は、前記関節部のトルク参照値、角度及び角速度を含み、
     前記推定部は、前記関節部が受けた外力を推定する、
     請求項1に記載の制御システム。
  9.  前記ロボットは、前記アクチュエータを有する先端部を含み、
     前記ロボットの状態情報は、前記先端部の加速度参照値、位置及び速度を含み、
     前記推定部は、前記先端部が受けた外力を推定する、
     請求項1に記載の制御システム。
  10.  前記ロボットは、アームを含む、
     請求項7に記載の制御システム。
  11.  前記減速機は、順方向駆動効率が60%以上である減速機である、
     請求項1に記載の制御システム。
  12.  前記減速機は、バックラッシが所定値より低い減速機である、
     請求項1に記載の制御システム。
  13.  前記減速機は、バックラッシが無い減速機である、
     請求項1に記載の制御システム。
  14.  前記減速機は、複数の歯車により構成されており、
     前記複数の歯車は、それぞれ噛み合う外周部に、摩擦を軽減するコーティング層を有している、
     請求項1に記載の制御システム。
  15.  前記モータは、モータ定格トルクに対してコギングトルクが50%以下であるモータである、
     請求項1に記載の制御システム。
  16.  前記モータは、巻き線がフレキシブル基板により構成されたモータである、
     請求項1に記載の制御システム。
  17.  前記ロボットは、内視鏡を保持するロボットである、
     請求項1に記載の制御システム。
  18.  前記ロボットは、マスタロボット又はスレーブロボットである、
     請求項1に記載の制御システム。
  19.  アクチュエータを有するロボットの状態情報に基づいて、前記ロボットが受けた外力を推定する推定部を備え、
     前記アクチュエータは、
     出力軸側のエンコーダと、
     前記出力軸側のエンコーダに連結され、逆駆動性を有する減速機と、
     前記減速機に連結されたモータと、
     前記モータに連結された、入力軸側のエンコーダと、
    を有する、
     制御装置。
  20.  出力軸側のエンコーダと、
     前記出力軸側のエンコーダに連結され、逆駆動性を有する減速機と、
     前記減速機に連結されたモータと、
     前記モータに連結された、入力軸側のエンコーダと、
    を備える、
     アクチュエータ。
PCT/JP2022/041566 2021-11-16 2022-11-08 制御システム、制御装置及びアクチュエータ WO2023090204A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023561541A JPWO2023090204A1 (ja) 2021-11-16 2022-11-08

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021186535 2021-11-16
JP2021-186535 2021-11-16

Publications (1)

Publication Number Publication Date
WO2023090204A1 true WO2023090204A1 (ja) 2023-05-25

Family

ID=86396896

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/041566 WO2023090204A1 (ja) 2021-11-16 2022-11-08 制御システム、制御装置及びアクチュエータ

Country Status (2)

Country Link
JP (1) JPWO2023090204A1 (ja)
WO (1) WO2023090204A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0365041A (ja) * 1989-08-01 1991-03-20 Ricoh Co Ltd ブラシレスモータ
JPH07319558A (ja) * 1994-05-26 1995-12-08 Matsushita Electric Works Ltd 力制御装置における力の検出方法
WO2012127532A1 (ja) * 2011-03-23 2012-09-27 トヨタ自動車株式会社 関節装置の駆動方法
WO2015133291A1 (ja) * 2014-03-06 2015-09-11 ソニー株式会社 アクチュエータ及びロボットアーム装置
CN109483597A (zh) * 2018-11-22 2019-03-19 库曼机器人(武汉)有限公司 一种基于双光电编码器检测外力的方法
JP2021049597A (ja) * 2019-09-24 2021-04-01 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0365041A (ja) * 1989-08-01 1991-03-20 Ricoh Co Ltd ブラシレスモータ
JPH07319558A (ja) * 1994-05-26 1995-12-08 Matsushita Electric Works Ltd 力制御装置における力の検出方法
WO2012127532A1 (ja) * 2011-03-23 2012-09-27 トヨタ自動車株式会社 関節装置の駆動方法
WO2015133291A1 (ja) * 2014-03-06 2015-09-11 ソニー株式会社 アクチュエータ及びロボットアーム装置
CN109483597A (zh) * 2018-11-22 2019-03-19 库曼机器人(武汉)有限公司 一种基于双光电编码器检测外力的方法
JP2021049597A (ja) * 2019-09-24 2021-04-01 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法

Also Published As

Publication number Publication date
JPWO2023090204A1 (ja) 2023-05-25

Similar Documents

Publication Publication Date Title
CN109890310B (zh) 医疗支撑臂装置
JP7003985B2 (ja) 医療用支持アームシステムおよび制御装置
US11305422B2 (en) Control apparatus and control method
KR101854707B1 (ko) 수술 기구에서 기구 샤프트 감김과 단부 작동기 작동의 해제
WO2017169118A1 (ja) 治具保持装置及び医療用観察装置
JP6927049B2 (ja) モータ及びモータの製造方法
US20190365489A1 (en) Medical support arm system and control device
JP7159579B2 (ja) 医療用保持装置、及び医療用アームシステム
De Donno et al. Introducing STRAS: A new flexible robotic system for minimally invasive surgery
JP7480477B2 (ja) 医療用観察システム、制御装置及び制御方法
US11109927B2 (en) Joint driving actuator and medical system
WO2022228149A1 (zh) 输入装置、主操作设备及手术机器人
WO2018088105A1 (ja) 医療用支持アーム及び医療用システム
CN112203610A (zh) 外科机器人工具多电机致动器和控制器
JP2020069631A (ja) パラレルリンク装置、マスタ−スレーブシステム、並びに医療用マスタ−スレーブシステム
Hu et al. Insertable stereoscopic 3D surgical imaging device with pan and tilt
WO2023090204A1 (ja) 制御システム、制御装置及びアクチュエータ
Zazzarini et al. Design of a robotic endoscope for mini invasive surgery
WO2019244442A1 (ja) 交換レンズ、撮像装置及び回転検出装置
Ahmadi et al. Endocat: An ethercat-based articulated rear view endoscope for single port surgery
Feng et al. Development of master-slave magnetic anchoring vision robotic system for single-port laparoscopy (SPL) surgery
CN118319482A (zh) 手术臂柔顺调整方法、装置、设备以及手术机器人
ITMI941654A1 (it) Apparecchiatura di ausilio per chirurgia stereotassica

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22895486

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023561541

Country of ref document: JP

Kind code of ref document: A