WO2016194539A1 - 医療用マニピュレータシステム - Google Patents

医療用マニピュレータシステム Download PDF

Info

Publication number
WO2016194539A1
WO2016194539A1 PCT/JP2016/063555 JP2016063555W WO2016194539A1 WO 2016194539 A1 WO2016194539 A1 WO 2016194539A1 JP 2016063555 W JP2016063555 W JP 2016063555W WO 2016194539 A1 WO2016194539 A1 WO 2016194539A1
Authority
WO
WIPO (PCT)
Prior art keywords
joint
display
unit
angle
control unit
Prior art date
Application number
PCT/JP2016/063555
Other languages
English (en)
French (fr)
Inventor
竜一 頼本
考広 小室
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201680009676.4A priority Critical patent/CN107249500A/zh
Priority to EP16802976.7A priority patent/EP3305236A4/en
Priority to JP2017508711A priority patent/JP6147459B2/ja
Publication of WO2016194539A1 publication Critical patent/WO2016194539A1/ja
Priority to US15/697,684 priority patent/US10537398B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00133Drive units for endoscopic tools inserted through or with the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/009Flexible endoscopes with bending or curvature detection of the insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • B25J3/04Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements involving servo mechanisms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00367Details of actuation of instruments, e.g. relations between pushing buttons, or the like, and activation of the tool, working tip, or the like

Definitions

  • Patent Literature 1 discloses a medical system that includes an insertion slave device that can be used in combination with a treatment slave device, and an insertion master that is similar to the treatment slave device.
  • Patent Document 2 discloses a medical manipulator system that includes an opening / closing part that can be opened and closed to perform treatment in the body, and a master grip that can be opened and closed to perform an operation input to the opening / closing part.
  • Patent Document 3 as a control device that controls the operation of a manipulator having at least one joint, a disturbance applied to the joint control system is calculated based on an input value given to the joint and an output value generated by the input value.
  • An apparatus for correcting an input value so as to cancel is disclosed.
  • a master manipulator having an input means that is similar to a part of the slave manipulator is controlled so as to maintain a similar relationship between the master and the slave.
  • the medical manipulator system follows the posture of the slave arranged in the body to the posture of the master. In this way, control for operating the slave is performed.
  • it is necessary to grasp the shape of the slave using an endoscope, for example, until the similarity is restored Takes a long time.
  • the present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a medical manipulator system capable of recovering the similarity of a master to a slave operating in the master-slave method in a short time. .
  • One aspect of the present invention includes a manipulator having a first joint, first detection means for detecting a posture of the first joint, and a second associated with the first joint for operating the first joint.
  • An operation unit having a joint; second detection means for detecting the posture of the second joint; the posture of the first joint detected by the first detection means; and the second joint detected by the second detection means.
  • a control unit that controls the manipulator and the operation unit based on a posture, and a display unit that displays information under the control of the control unit, the control unit including the posture of the first joint and the
  • the medical manipulator system outputs a posture of a second joint as the information to the display unit.
  • the control unit may output the angle of the second joint with respect to the angle of the first joint as the information to the display unit.
  • a medical manipulator system 1 includes a master manipulator 2, a slave manipulator 10, and a controller 30 (control unit).
  • the master manipulator 2 has an operation input device 3 and a display unit 8.
  • the operation input device 3 is provided for operating medical devices such as a treatment tool 15 and an endoscope 100 described later provided in the slave manipulator 10 from outside the body. As shown in FIGS. 1 and 3, the operation input device 3 includes an operation unit 4 that is held by an operator to operate the operation input device 3, and a linear motion mechanism 5 that can place an elbow of the operator. Have.
  • the operation unit 4 includes a grip unit 4 a held by an operator, and a multi-joint arm 4 b having a plurality of joints 6 (second joint) and encoders 7 (second detection means).
  • the operation of the operator holding the operation unit 4 of the operation input device 3 and moving the multi-joint arm 4b is to operate the treatment instrument 15, the endoscope 100 (see FIGS. 1 and 2), and the like by each encoder 7. It is converted into necessary information.
  • the multi-joint arm 4b of the present embodiment corresponds to the configuration of the joint portion 18 provided in the treatment instrument 15, as shown in FIG. In other words, the multi-joint arm 4b has the same or higher degree of freedom as the joint portion 18 of the treatment instrument 15 so as to be similar to the shape of the joint portion 18 of the treatment instrument 15. .
  • the linear motion mechanism 5 includes an arm rest 5a and a slider 5b fixed to the operation unit 4.
  • the linear motion mechanism 5 can move the position of the operation unit 4 while maintaining the posture in which the operation unit 4 is held by moving the slider 5b in the horizontal direction with the arm placed on the arm rest 5a. It is like that.
  • the protruding amount of the long portion 17 from the medical overtube 11 on the slave side can be operated, and the treatment instrument 15 can be moved.
  • the display unit 8 is provided to display an image captured by an endoscope 100 described later, information necessary for operation of the medical manipulator system 1 of the present embodiment, and the like.
  • the display unit 8 is connected to the controller 30.
  • the display unit 8 displays an image based on the video signal output from the controller 30.
  • the configuration of the display unit 8 is not particularly limited.
  • the slave manipulator 10 includes a medical overtube 11, a treatment instrument 15, a motor unit 24, and a slave arm 27.
  • the medical overtube 11 includes a first lumen 12 and a second lumen 13 for attaching the treatment instrument 15, and a third lumen 14 for attaching the endoscope 100.
  • the medical overtube 11 may be a cylindrical shape that can be inserted into a digestive tract or the like through a natural opening such as a patient's mouth. Moreover, the medical overtube 11 may be capable of bending in response to an operation outside the body, if necessary.
  • the medical overtube 11 is not limited to the above configuration, and has a configuration in which the treatment instrument 15 is fixed to the medical overtube 11 in a state where the treatment instrument 15 protrudes from the distal end of the medical overtube 11. It may be.
  • the treatment instrument 15 is a manipulator that can be attached to the first lumen 12 or the second lumen 13 of the medical overtube 11.
  • the treatment instrument 15 includes a first treatment instrument 15A that can be inserted into the first lumen 12 so that the treatment instrument 15 can advance and retreat with respect to the first lumen 12 of the medical overtube 11, and the medical overtube 11
  • a second treatment tool 15B that can be inserted into the second lumen 13 so as to be able to advance and retreat with respect to the second lumen 13 is provided.
  • the medical manipulator system 1 of the present embodiment is not limited to having two treatment tools 15, and may have only one treatment tool 15 or three treatment tools 15. You may have more.
  • the first treatment tool 15A and the second treatment tool 15B have a configuration for performing treatment such as incision, gripping, and suturing on a treatment target site in the body.
  • the configuration of the first treatment tool 15A and the configuration of the second treatment tool 15B may be the same as each other or different from each other. Below, it demonstrates regarding the structure of 15 A of 1st treatment tools of the two treatment tools 15, and the description regarding the 2nd treatment tool 15B is abbreviate
  • the first treatment instrument 15 ⁇ / b> A (hereinafter simply referred to as “treatment instrument 15”) has an end effector 16, a long portion 17, and a first base end portion 23. .
  • the end effector 16 shown in FIGS. 2 and 3 is provided at the distal end of the treatment instrument 15 in order to treat a treatment target site in the body.
  • the configuration of the end effector 16 is not particularly limited as long as it is a treatment portion that acts on a treatment target site.
  • the end effector 16 may be one that performs surgical treatment on tissue inside the body such as grasping forceps, an incision knife, or an electrode, and is an optical or ultrasonic observation device for observing the inside of the body. May be.
  • the end effector 16 is a grasping forceps having a pair of jaws that can be opened and closed in accordance with a pulling operation by the drive wire W2, a knife that cuts a tissue when a high-frequency current is applied, It's okay.
  • the long portion 17 has flexibility as a whole, and guides the end effector 16 from the natural opening such as the mouth to the treatment target site along the digestive tract and the like through the digestive tract and the like. can do.
  • the long portion 17 may be flexible, or may be a rigid member that is substantially linear. Below, an example of a structure of the elongate part 17 which has flexibility is shown.
  • the long portion 17 having flexibility includes a joint portion 18 and a flexible tube portion 22.
  • the joint portion 18 has a plurality of joint elements 19 (first joints) arranged in the center line direction of the long portion 17 and connected to each other, and a rod-like portion 20 that connects the joint elements 19.
  • first joints first joints
  • the joint portion 18 can be bent and deformed as a whole.
  • the plurality of joint elements 19 provided in the joint portion 18 can be deformed so as to bend the center line of the long portion 17, or the base end side with the center line of the long portion 17 as the rotation center. And the like that can be operated to rotate the distal end side.
  • the most distal joint element 19 in the joint portion 18 is connected to an angle wire W1 that transmits a force for bending and deforming the joint portion 18 from the first base end portion 23 side.
  • the flexible tube portion 22 (see FIG. 3) has a curved shape that follows the curved shape of the first lumen 12 or the second lumen 13 when the medical overtube 11 (see FIG. 2) is in a curved state. It is a cylindrical member which has flexibility to such an extent that it can be used. An angle wire W1 for bending and deforming the joint portion 18 and a drive wire W2 for operating the end effector 16 are inserted into the flexible tube portion 22.
  • the first base end portion 23 can be attached to and detached from a motor unit 24 described later.
  • the first base end portion 23 receives power for operating the end effector 16 and the joint portion 18 from the motor unit 24, and transmits power to the angle wire W1 and the drive wire W2.
  • the motor unit 24 can be attached to and detached from the proximal end side of the treatment instrument 15 as a second proximal end portion that can be attached to and detached from the first proximal end portion 23.
  • the motor unit 24 includes an actuator 25 that generates power for operating the end effector 16 and the joint portion 18, and the like, and an encoder 26 (first detection means) that detects the angle of each joint element 19.
  • the motor unit 24 operates according to control by the slave control unit 32 (see FIG. 4).
  • the slave arm 27 is an articulated robot to which a motor unit 24 (second base end) is attached, and is based on an operation by the operator on the master manipulator 2 (see FIG. 1). 4)).
  • the controller 30 includes a master control unit 31, a slave control unit 32, a mode control unit 33, a joint angle calculation unit 34, and a display control unit 35.
  • the master control unit 31 performs an operation performed by the operator on the operation input device 3 based on information output from each encoder 7 (see FIG. 4) according to the operation on the operation input device 3 of the master manipulator 2 illustrated in FIG. It receives and generates a predetermined command for operating the slave control unit 32 and outputs it to the slave control unit 32.
  • the configuration of the master control unit 31 is not particularly limited, and a known operation flow may be applied as appropriate.
  • the slave control unit 32 operates the slave arm 27 and the treatment instrument 15 based on the predetermined command generated by the master control unit 31 and output to the slave control unit 32. That is, the slave control unit 32 gives a command to the slave arm 27 and the treatment instrument 15.
  • the mode control unit 33 is a first mode in which the slave manipulator 10 is operated in accordance with an operation on the master manipulator 2 (see FIG. 1), the treatment tool 15 provided in the slave manipulator 10, and the operation input device 3 for the master manipulator 2.
  • the position and posture of the slave manipulator 10 are maintained without the slave manipulator 10 following the operation of the master manipulator 2 and the second mode in which the treatment tool 15 and the operation input device 3 are operated so that they have a similar relationship. Switch to the third mode.
  • the joint angle calculation unit 34 is provided in the controller 30 in order to detect the posture of the joint unit 18 (see FIG. 3) and the posture of the operation input device 3 (see FIG. 3) in the above three modes.
  • the joint angle calculation unit 34 acquires information indicating the angle of each joint 6 from the encoder 7 provided in each joint 6 constituting the multi-joint arm 4b. Further, the joint angle calculation unit 34 acquires information indicating the angle of each joint element 19 from the encoder 26 provided in the motor unit 24. Since the encoder 26 acquires the angle information of the actuator 25 of the motor unit, the joint angle calculation unit 34 considers the mechanical elements between the actuator and each joint element 19 of the treatment instrument 15, and determines each joint element. 19 angles are calculated.
  • the encoder 26 may be provided in each joint element 19.
  • the joint angle calculation unit 34 has information for specifying a predetermined range for each treatment tool 15 as a movable range of each joint element 19 provided in the joint part 18 of the treatment tool 15. Further, the joint angle calculation unit 34 is configured so that the end effector 16 and the joint unit 18 are in the body tissue when the joint unit 18 is operated in the body within the movable range of each joint element 19 provided in the joint unit 18 of the treatment instrument 15. As a movement range that does not touch the surface, a certain angle range that is predetermined based on the current position of the joint portion 18 is defined as a shape synchronization possible range.
  • the joint angle calculation unit 34 is information indicating the angle of each joint 6 of the multi-joint arm 4b and the joint part 18 of the treatment tool 15, and information indicating the movable range of each joint element 19 provided in the joint part 18 of the treatment tool 15. , And the information indicating the shape synchronization possible range is output to the display control unit 35.
  • the display control unit 35 is information indicating the angles of the joints 6 of the multi-joint arm 4b and the joint part 18 of the treatment tool 15, information indicating the movable range of each joint element 19 provided in the joint part 18 of the treatment tool 15, Based on the information indicating the shape synchronization possible range, the angle of each joint 6 of the multi-joint arm 4b with respect to the angle of each joint element 19 constituting the joint portion 18 of the treatment instrument 15 is visually transmitted to the user. Image information is generated.
  • the image information generated by the display control unit 35 includes information indicating the angles of the joints 6 of the multi-joint arm 4b and the joint part 18 of the treatment tool 15, and the movable of the joint elements 19 provided in the joint part 18 of the treatment tool 15.
  • a numerical value based on the information indicating the range and the information indicating the shape synchronization possible range may be indicated, or a figure for allowing the user to intuitively understand the posture of the operation input device 3 with respect to the posture of the treatment instrument 15. It may be shown.
  • the graphic displayed on the display unit 8 according to the control by the display control unit 35 includes a first frame display 41, a second frame display 42, and a linear display 43 as shown in FIG.
  • a first frame display 41 shown in FIG. 7 indicates the movable range of each joint element 19 in the joint portion 18 of the treatment instrument 15.
  • a second frame display 42 shown in FIG. 7 indicates the shape synchronization possible range in the first frame display 41.
  • a linear display 43 shown in FIG. 7 indicates the angle of the joint 6 of the operation input device 3 corresponding to each joint element 19 of the joint portion 18 of the treatment instrument 15 in the first frame display 41. These displays are displayed on the display unit 8 side by side for each joint element 19 provided in the joint unit 18 of the treatment instrument 15. The position of the linear display 43 with respect to the first frame display 41 changes according to the relative movement of the multi-joint arm 4b of the operation input device 3 with respect to the joint portion 18 of the treatment instrument 15.
  • FIG. 5 is a flowchart for explaining the operation of the medical manipulator system.
  • FIG. 6 is a flowchart for explaining the operation of the medical manipulator system.
  • FIG. 7 is a schematic diagram illustrating an example of a screen display of the display unit in the medical manipulator system.
  • the treatment tool 15 provided in the slave manipulator 10 operates when the user operates the operation input device 3 provided in the master manipulator 2.
  • the joint portion 18 of the treatment instrument 15 is maintained so as to have a similar relationship with the multi-joint arm 4b of the operation input device 3. That is, the positions and postures of the end effector 16 and the joint portion 18 in the body are controlled by the controller 30 so as to be interlocked with the positions and postures of the operation portion 4 and the multi-joint arm 4b.
  • the operation input device 3 does not have means such as an actuator for operating the operation input device 3. Therefore, in the third mode in which the treatment instrument 15 is not operated according to the operation input device 3, the position and posture immediately before the transition to the third mode is maintained in the treatment instrument 15, but the operation input device 3 The operator can freely change the posture. In this case, the position and posture of the multi-joint arm 4b of the operation input device 3 and the position and posture of the joint portion 18 of the treatment instrument 15 are not similar to each other.
  • the controller 30 may execute the following flow for restoring the similar relationship between the joint portion 18 of the treatment instrument 15 and the articulated arm 4b of the operation input device 3. it can.
  • the controller 30 goes to the second mode for recovering the similar relationship between the joint portion 18 of the treatment instrument 15 and the articulated arm 4b of the operation input device 3. And it shifts from the first mode (or the third mode).
  • the mode control unit 33 disconnects the electrical connection between the master manipulator 2 and the slave manipulator 10 (step S1 shown in FIG. 5).
  • step S1 for example, the mode control unit 33 disconnects a part of the electrical connection between the master manipulator 2 and the slave manipulator 10.
  • step S1 for example, the command from the master control unit 31 to the slave control unit 32 is invalidated by the mode control unit 33 so that the treatment instrument 15 does not operate even when the operation input device 3 is operated.
  • Step S1 is complete
  • Step S ⁇ b> 2 illustrated in FIG. 5 is a step of displaying information indicating the postures of the multi-joint arm 4 b and the joint unit 18 on the display unit 8.
  • the joint angle calculation unit 34 includes information indicating the angles of the joints 6 of the multi-joint arm 4 b and the joint part 18 of the treatment tool 15, and the movable joint elements 19 provided in the joint part 18 of the treatment tool 15.
  • Information indicating the range and information indicating the shape synchronization possible range are output to the display control unit 35.
  • the display control unit 35 displays a graphic corresponding to the above information on the display unit 8. Thereby, the user can know the relative position of the multi-joint arm 4b with respect to the joint portion 18 of the treatment instrument 15, the presence or absence of a posture shift, and the size thereof.
  • the joint angle calculation part 34 acquires the joint angle of each joint element 19 from each encoder 26 provided in the joint part 18 of the treatment instrument 15 (step S21 shown in FIG. 6).
  • the joint angle calculation unit 34 acquires the joint angle of each joint 6 from each encoder 7 provided in the multi-joint arm 4b of the operation input device 3 (step S22 shown in FIG. 6).
  • the joint angle calculation unit 34 outputs the joint angle acquired by the joint angle calculation unit 34 in step S21 to the display control unit 35.
  • the display control unit 35 is centered on the joint angle acquired in step S21 (the angle of each joint element 19 of the treatment instrument 15), and has a rectangular first shape having upper and lower limits of the movable range of each joint element 19 at both ends.
  • Frame display 41 is displayed on the display unit 8 (step S23 shown in FIG. 6).
  • the joint angle calculation unit 34 calculates the shape synchronization possible upper limit value on the upper limit side in the movable range of each joint element 19 and outputs it to the display control unit 35.
  • the display control unit 35 highlights the range from the center of the first frame display 41 to the above shape synchronization possible upper limit value (step S24 shown in FIG. 6). That is, in step S24, the display control unit 35 causes the display unit 8 to display the upper region of the shape synchronization possible range.
  • the emphasis display in step S24 indicates a boundary line in the upper limit value that can be synchronized with the shape, or indicates a range from the center of the first frame display 41 to the upper limit value that can be synchronized with the shape in a rectangular shape with a predetermined emphasis color. By doing so, it is a display means that makes it possible to distinguish the shape synchronization possible range in the first frame display 41.
  • the joint angle calculation unit 34 calculates the shape synchronization possible lower limit value on the lower limit side in the movable range of each joint element 19 and outputs it to the display control unit 35.
  • the display control unit 35 highlights the range from the center of the first frame display 41 to the shape synchronization possible lower limit value (step S25 shown in FIG. 6). That is, in step S25, the display control unit 35 causes the display unit 8 to display the lower region of the shape synchronization possible range.
  • the emphasis display in step S25 indicates a boundary line in the shape synchronization possible lower limit value, or indicates a range from the center of the first frame display 41 to the shape synchronization possible lower limit value in a rectangular shape with a predetermined emphasis color. By doing so, it is a display means that makes it possible to distinguish the shape synchronization possible range in the first frame display 41.
  • the shape synchronizable range is partitioned by displaying the first frame display 41 indicating the movable range of each joint element 19 as the second frame display 42, for example.
  • step S25 the display control unit 35 displays the first frame display 41 generated in step S23 based on the joint angle (the angle of each joint 6 of the multi-joint arm 4b) acquired in step S22.
  • the operation of displaying the linear display 43 to be displayed on the display unit 8 is started.
  • Step S25 is repeatedly executed until the second mode is completed and the mode is shifted to the first mode.
  • the linear display 43 is updated at predetermined intervals so as to indicate the current angle of each joint 6 in the first frame display 41.
  • step S3 shown in FIG. 5 is started.
  • Step S3 is a step in which the user moves the operation input device 3 based on the linear display 43 indicating the posture of the articulated arm 4b.
  • step S ⁇ b> 3 the linear display 43 indicating the angle of the articulated arm 4 b is updated following the movement of the user manually moving the operation input device 3. That is, the linear display 43 displayed on the display unit 8 moves within the range of the first frame display 41 according to the operation of the operation input device 3 by the user. The user moves the operation input device 3 so that the linear display 43 is located inside the shape synchronization possible range.
  • step S3 The movement of the operation input device 3 in step S3 is not a precise alignment of the articulated arm 4b with respect to the joint portion 18 of the treatment instrument 15, but each joint 6 of the articulated arm 4b within an allowable range defined as a shape synchronizable range. If there is any angle. For this reason, the operation of moving the operation input device 3 by a user's manual operation is easy.
  • Step S3 is complete
  • Step S4 shown in FIG. 5 is a step of determining whether or not each joint 6 of the multi-joint arm 4b is within the shape synchronizable range. Step S4 is repeated until it is determined in step S4 that each joint 6 of the multi-joint arm 4b is within the shape synchronizable range, and if it is determined that each joint 6 of the multi-joint arm 4b is within the shape synchronizable range. Proceed to step S5.
  • Step S5 is started after the condition that each joint 6 of the multi-joint arm 4b is within the shape synchronizable range in step S4 is satisfied.
  • Step S5 is a step of operating the joint portion 18 so as to have a similar shape to the articulated arm 4b.
  • the slave control unit 32 operates the joint unit 18 so that the joint unit 18 of the treatment instrument 15 satisfies the similarity relationship corresponding to the position and posture of the multi-joint arm 4b of the operation input device 3.
  • the joint angle calculation unit 34 determines the angle of each joint 6 provided in the multi-joint arm 4 b and each joint element 19 of the joint unit 18 of the treatment instrument 15 associated with each joint 6.
  • the joint portion 18 of the treatment instrument 15 is operated so that the angles of the two coincide with each other.
  • the articulated arm 4b and the joint portion 18 which are roughly manually aligned within the shape synchronizable range in the above step S3 are accurately positioned in a similar relationship in step S5.
  • the size of the movement region of the joint portion 18 in step S5 is so narrow that the end effector 16 and the joint portion 18 do not come into contact with tissue in the body because the multi-joint arm 4b is in the shape synchronization range in step S3.
  • Step S5 is complete
  • the user's manual alignment need only be roughly within the shape synchronization range. For this reason, as compared with the case where the operation input device 3 is manually operated until the position and posture of the joint portion 18 of the treatment instrument 15 and the position and posture of the multi-joint arm 4b of the operation input device 3 are accurately similar to each other. Thus, the similarity relationship of the operation input device 3 to the treatment tool 15 can be recovered in a short time and with a small amount of movement.
  • the display control unit 35 of the medical manipulator system 1 of the present embodiment associates the angles of the joints 6 of the multi-joint arm 4b with the angles of the joint elements 19 of the joints 18 of the treatment instrument 15 and displays the display unit 8. To output. That is, the controller 30 of this embodiment outputs the angle of each joint 6 of the multi-joint arm 4 b to the angle of each joint element 19 of the treatment tool 15 to the display unit 8. As a result, it is easy for the user to recognize how much the operation input device 3 is deviated from the treatment tool 15, and it is also intuitive to the user how to move the operation input device 3. Can be understood.
  • the current angle of the joint element 19 of the treatment instrument 15 is set to 100% and set to the center of the first frame display 41, and the limit point of the movable range of the joint element 19 is set to + 0%. , ⁇ 0%, set at both ends of the first frame display 41.
  • + 0% is an angle at which the angle of the corresponding joint 6 of the multi-joint arm 4b becomes the limit point of the movable range of the joint element 19 in the plus direction (upper limit side) of the movable range of the joint element 19.
  • ⁇ 0% is an angle at which the angle of the corresponding joint 6 of the multi-joint arm 4b becomes the limit point of the movable range of the joint element 19 in the minus direction (lower limit side) in the movable range of the joint element 19.
  • FIG. 9 is a schematic diagram illustrating an example of a screen display of the display unit in the present modification.
  • the display control unit 35 outputs to the display unit 8 and displays how each joint 6 of the multi-joint arm 4b has an angle within the shape synchronizable range by operating the multi-joint arm 4b. Part 8 is displayed.
  • the joint angle calculation unit 34 determines the operation unit from the joint 6 at the most proximal end of the multi-joint arm 4b based on the current individual angle information of each joint 6 of the multi-joint arm 4b provided in the operation input device 3.
  • the direction of each joint 6 up to 4 is acquired by forward kinematics calculation.
  • the display control unit 35 determines the direction of each joint 6 acquired by the joint angle calculation unit 34, the angle of each joint element 19 of the joint unit 18 acquired by the joint angle calculation unit 34 in the same manner as in the first embodiment, and A message 44 (see FIG. 9) indicating how to move the operation unit 4 is generated using the shape synchronization possible range. For example, the display control unit 35 updates and displays the message 44 on the display unit 8 every time the linear display 43 indicating the angle of each joint element 19 is updated in step S25 in the first embodiment.
  • the bending state of the joint 6 constituting the articulated arm 4b changes.
  • the posture of the articulated arm 4 b of the operation input device 3 is changed to the treatment tool 15. It falls within the shape synchronizable range in which the similarity relationship with the joint portion 18 can be recovered.
  • the message 44 displayed on the display unit 8 presents to the user how the angle of each joint 6 of the articulated arm 4b matches the angle of each joint element 19 of the joint unit 18 when the articulated arm 4b is moved. is doing.
  • the display control unit 35 When the display control unit 35 outputs the message 44 to the display unit 8, it calculates and displays an operation procedure until the angle of each joint 6 of the multi-joint arm 4 b matches the angle of each joint element 19 of the joint unit 18. It is to be output to the part 8.
  • the controller 30 since the controller 30 calculates the operation procedure of the articulated arm 4b and outputs it to the display unit 8, the user only needs to operate according to the operation procedure. The similarity relationship of 3 can be recovered in a short time.
  • the user may move the articulated arm 4b by grasping the vicinity of each joint 6 constituting the articulated arm 4b, instead of grasping the operation unit 4.
  • the user may move the articulated arm 4b by grasping the vicinity of each joint 6 constituting the articulated arm 4b, instead of grasping the operation unit 4.
  • all the joints 6 can be easily within the shape synchronization range. Can fit in.
  • FIG. 10 is a schematic diagram illustrating an example of a screen display of the display unit in the medical manipulator system of the present embodiment.
  • the shape of the graphic displayed on the display unit 8 is different from that in the first embodiment.
  • the display control unit 35 outputs the first frame display 41 and the second frame display 42 to the display unit 8 as a fan shape having a predetermined center.
  • the display control unit 35 has a linear display 43 having an end at the predetermined center and rotating around the predetermined center based on the angle of each joint 6 of the multi-joint arm 4b. Output to the display unit 8.
  • the display control unit 35 displays a message 44 indicating how to move the operation input device 3 while holding the operation unit 4. Output to the display unit 8.
  • the joint portion 18 and the multi-joint arm 4b have a plurality of rotary joints that rotate about a predetermined axis
  • the degree of displacement of the posture of the multi-joint arm 4b with respect to the joint portion 18 is intuitively determined. Can be communicated to the user through a graphical display.
  • the user can intuitively understand how to move each rotary joint to fit each joint 6 of the multi-joint arm 4b within the shape synchronizable range, and the operation input device 3 for the treatment tool 15 can be understood.
  • the similarity relationship can be recovered in a short time.
  • FIG. 11 is a schematic diagram illustrating an example of a screen display of the display unit in the medical manipulator system of the present embodiment.
  • the display control unit 35 overlaps the most proximal joint element 19 in the joint 18 of the treatment instrument 15 and the most proximal joint 6 of the joints 6 corresponding to the treatment instrument 15 in the multi-joint arm 4b.
  • the first CG image 45 and the second CG image 46 are overlapped to form one image.
  • the operation input device 3 In the second mode in which the operation input device 3 is moved so as to be similar to the joint portion 18 of the treatment instrument 15, the first CG image 45 and the second CG image 46 are displayed on the display unit 8.
  • the display control unit 35 displays the message 44 indicating how to move the articulated arm 4b, the first CG image 45 and the second CG image 45, as in the second modification of the first embodiment. Are further superimposed on the CG image 46.
  • the message 44 indicating how to move the articulated arm 4b is displayed by a symbol or the like for each joint 6 in the vicinity of each joint 6 of the articulated arm 4b.
  • the message 44 indicating how to move the articulated arm 4b is an arcuate arrow (reference numerals X1 and X2 in FIG. 11) about the rotation center of each joint 6 constituting the articulated arm 4b. , X3).
  • two or more sets of the first CG image 45 and the second CG image 46 may be generated so as to show the joint portion 18 and the multi-joint arm 4b from a plurality of viewpoints.
  • the treatment instrument 15 is viewed from the proximal end side toward the distal end side.
  • the display control unit 35 may display the second set of images including the correct image (shown on the right side in FIG. 11) on the display unit 8.
  • the root located on the proximal side with respect to each joint 6 constituting the articulated arm 4b.
  • An arcuate arrow (indicated by reference numeral X4 in FIG. 11) centering on the center line O of the base end of the part 4x and the joint part 18 may be used.
  • a CG image that makes it easy to grasp the positional relationship between the treatment instrument 15 and the multi-joint arm 4b can be used. Therefore, the operation is performed based on the graph-like display as in the first embodiment and the second embodiment. It is possible to recover the similarity relationship of the operation input device 3 with respect to the treatment tool 15 in a short time by an operation intuitive to the user rather than performing the above.
  • the present invention can be used for a medical manipulator system.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

本発明の医療用マニピュレータシステムは、関節要素(19)を有する処置具(15)と、関節要素(19)の姿勢を検知するエンコーダ(26)と、関節要素(19)を動作させるために関節要素(19)と対応付けされた関節(6)を有する操作入力装置(3)と、関節(6)の姿勢を検知するエンコーダ(7)と、エンコーダ(26)が検知した関節要素(19)の姿勢とエンコーダ7が検知した関節(6)の姿勢とに基づいて処置具(15)及び操作入力装置(3)を制御するコントローラ(30)と、コントローラ(30)による制御の下で情報を表示する表示部(8)と、を備え、コントローラ(30)は、関節要素(19)の姿勢及び関節(6)の姿勢を前記情報として表示部(8)へ出力する。

Description

医療用マニピュレータシステム
 本発明は、医療用マニピュレータシステムに関する。
 本願は、2015年5月29日に、日本に出願された特願2015-109758号に基づき優先権を主張し、その内容をここに援用する。
 従来、医療用に使用されるマニピュレータシステムが知られている。
 たとえば特許文献1には、処置スレーブ装置と組み合わせて使用可能な挿入スレーブ装置と、処置スレーブ装置と相似形である挿入マスタとを備えた医療用システムが開示されている。
 たとえば特許文献2には、体内で処置をするために開閉動作可能な開閉部と、開閉部に対して操作入力を行うために開閉操作可能なマスタグリップとを備えた医療用のマニピュレータシステムが開示されている。
 たとえば特許文献3には、少なくとも一つの関節を有するマニピュレータの動作を制御する制御装置として、関節に与えられる入力値とこの入力値により生じる出力値とに基づいて、関節の制御系に加わる外乱を打ち消すように入力値を修正する装置が開示されている。
国際公開第2010/055745号 特開2013-034851号公報 特開平6-297368号公報
 マスタスレーブ方式の医療用マニピュレータシステムにおいて、スレーブマニピュレータの一部に対して相似形をなす入力手段を備えたマスタマニピュレータは、マスタとスレーブとの相似関係を維持するように制御される。体内の処置対象部位に対して処置を行っている間に、マスタとスレーブとの相似関係が崩れた場合には、医療用マニピュレータシステムは、体内に配されたスレーブの姿勢がマスタの姿勢に倣うように、スレーブを動作させる制御を行う。このとき、マスタが事前にスレーブの姿勢に倣うように操作者がマスタを移動させることにより、体内でのスレーブの移動量を最小限に抑えつつマスタとスレーブとの相似関係を回復させることが考えられる。
 しかしながら、スレーブの形状に対して相似となるようにマスタを移動させるためには、スレーブがどのような形状にあるかをたとえば内視鏡を用いて把握する必要があり、相似関係を回復するまでに長時間を要する。
 本発明は、上述した事情に鑑みてなされたものであって、マスタスレーブ方式で動作するスレーブに対するマスタの相似関係を短時間で回復させることができる医療用マニピュレータシステムを提供することを目的とする。
 本発明の一態様は、第一関節を有するマニピュレータと、前記第一関節の姿勢を検知する第一検知手段と、前記第一関節を動作させるために前記第一関節と対応付けされた第二関節を有する操作部と、前記第二関節の姿勢を検知する第二検知手段と、前記第一検知手段が検知した前記第一関節の姿勢と前記第二検知手段が検知した前記第二関節の姿勢とに基づいて前記マニピュレータ及び前記操作部を制御する制御部と、前記制御部による制御の下で情報を表示する表示部と、を備え、前記制御部は、前記第一関節の姿勢及び前記第二関節の姿勢を前記情報として前記表示部へ出力する医療用マニピュレータシステムである。
 前記制御部は、前記第一関節の角度に対する前記第二関節の角度を前記情報として前記表示部へ出力してもよい。
 前記制御部は、前記第一関節の角度及び前記第二関節の角度に基づいて、前記第二関節の角度が前記第一関節の角度と一致するまでの前記第二関節の動作手順を算出し、算出された動作手順を前記情報として前記表示部へ出力してもよい。
 本発明によれば、マスタスレーブ方式で動作するスレーブに対するマスタの相似関係を短時間で回復させることができる医療用マニピュレータシステムを提供することができる。
本発明の第1実施形態の医療用マニピュレータシステムを示す全体図である。 同医療用マニピュレータシステムの一部を示す斜視図である。 同医療用マニピュレータシステムの模式図である。 同医療用マニピュレータシステムのブロック図である。 同医療用マニピュレータシステムの動作を説明するためのフローチャートである。 同医療用マニピュレータシステムの動作を説明するためのフローチャートである。 同医療用マニピュレータシステムにおける表示部の画面表示の一例を示す模式図である。 同実施形態の変形例における表示部の画面表示の一例を示す模式図である。 同実施形態の他の変形例における表示部の画面表示の一例を示す模式図である。 本発明の第2実施形態の医療用マニピュレータシステムにおける表示部の画面表示の一例を示す模式図である。 本発明の第3実施形態の医療用マニピュレータシステムにおける表示部の画面表示の一例を示す模式図である。
(第1実施形態)
 本発明の第1実施形態について説明する。図1は、本実施形態の医療用マニピュレータシステムを示す全体図である。図2は、医療用マニピュレータシステムの一部を示す斜視図である。図3は、医療用マニピュレータシステムの模式図である。図4は、医療用マニピュレータシステムのブロック図である。
 図1に示す本実施形態の医療用マニピュレータシステム1は、マスタマニピュレータ2と、スレーブマニピュレータ10と、コントローラ30(制御部)とを備えている。
 マスタマニピュレータ2は、操作入力装置3と、表示部8とを有している。
 操作入力装置3は、スレーブマニピュレータ10に設けられた後述する処置具15や内視鏡100等の医療機器を体外から操作するために設けられている。図1及び図3に示すように、操作入力装置3は、操作者が操作入力装置3を動作させるために把持する操作部4と、操作者の肘を載せることができる直動機構5とを有している。
 図3に示すように、操作部4は、操作者が把持するグリップ部4aと、複数の関節6(第二関節)及びエンコーダ7(第二検知手段)を有する多関節アーム4bとを有する。操作者が操作入力装置3の操作部4を把持して多関節アーム4bを移動させる動作は、各エンコーダ7によって、処置具15や内視鏡100(図1及び図2参照)等を動作させるために必要な情報に変換される。
 本実施形態の多関節アーム4bは、図3に示すように、処置具15に設けられた関節部18の構成に対応している。すなわち、多関節アーム4bは、処置具15の関節部18の形状と相似形状とすることが可能となるように、処置具15の関節部18と同一またはそれ以上の自由度を有している。
 図1に示すように、直動機構5は、腕置き台5aと、操作部4に固定されたスライダ5bとを備えている。直動機構5は、腕置き台5aに乗せた腕によってスライダ5bを水平方向に移動させることにより、操作部4を把持した姿勢を維持したままで、操作部4の位置を移動させることができるようになっている。直動機構5を用いて操作部4を移動させることによって、スレーブ側の医療用オーバーチューブ11からの長尺部17の突出量を操作でき、処置具15を移動することができる。
 表示部8は、後述する内視鏡100が撮像した画像や、本実施形態の医療用マニピュレータシステム1の操作に必要な情報等を表示するために設けられている。表示部8は、コントローラ30に接続されている。表示部8は、コントローラ30が出力するビデオ信号に基づいた映像を表示する。表示部8の構成は特に限定されない。
 図1に示すように、スレーブマニピュレータ10は、医療用オーバーチューブ11と、処置具15と、モータユニット24と、スレーブアーム27とを有している。
 図2に示すように、医療用オーバーチューブ11は、処置具15を取り付けるための第一ルーメン12及び第二ルーメン13と、内視鏡100を取り付けるための第三ルーメン14とを有している。医療用オーバーチューブ11は、患者の口等の自然開口から消化管内等に挿入可能な筒状であればよい。また、必要に応じて、医療用オーバーチューブ11は、体外における操作に応じて湾曲動作可能であってもよい。なお、医療用オーバーチューブ11は、上記の構成には限られず、処置具15が医療用オーバーチューブ11の先端から突出した状態で処置具15が医療用オーバーチューブ11に固定される構成を有していてもよい。
 処置具15は、医療用オーバーチューブ11の第一ルーメン12又は第二ルーメン13に取り付けることができるマニピュレータである。本実施形態では、処置具15は、医療用オーバーチューブ11の第一ルーメン12に対して進退可能となるように第一ルーメン12に挿入可能な第一処置具15Aと、医療用オーバーチューブ11の第二ルーメン13に対して進退可能となるように第二ルーメン13に挿入可能な第二処置具15Bとを有している。なお、本実施形態の医療用マニピュレータシステム1は、処置具15を2つ有していることには限らず、処置具15を1つだけ有していてもよいし、処置具15を3つ以上有していてもよい。
 本実施形態では、第一処置具15Aと第二処置具15Bとは、体内の処置対象部位に対して切開、把持、縫合等の処置をするための構成を有している。第一処置具15Aの構成と第二処置具15Bの構成とは、互いに同じであってもよいし、互いに異なっていてもよい。以下では、2つの処置具15のうちの第一処置具15Aの構成に関して説明し、第二処置具15Bに関する説明は省略される。
 図3に示すように、第一処置具15A(以下、単に「処置具15」という。)は、エンドエフェクタ16と、長尺部17と、第一の基端部23とを有している。
 図2及び図3に示すエンドエフェクタ16は、体内の処置対象部位に対して処置をするために、処置具15の先端に設けられている。
 エンドエフェクタ16の構成は、処置対象部位に対して作用する処置部であればよく、特に限定されない。たとえば、エンドエフェクタ16は、把持鉗子、切開ナイフ、電極など体内の組織に対して外科的処置をするものであってもよく、体内を観察するための光学的又は超音波的な観察装置であってもよい。たとえば、エンドエフェクタ16は、図3に示すように、駆動ワイヤW2による牽引操作に応じて開閉動作可能な一対のジョーを有する把持鉗子や、高周波電流が通電されて組織を切開するナイフ等であってよい。
 図3に示す長尺部17は、エンドエフェクタ16を体内の処置対象部位まで案内するために体内に挿入される長尺な可撓性部材である。本実施形態では、長尺部17は、全体として可撓性を有しており、エンドエフェクタ16を、口等の自然開口から消化管内等を通じ消化管等の走行に沿って処置対象部位まで案内することができる。なお、長尺部17は、可撓性を有していてもよいし、実質的に直線状をなす硬質な部材であってもよい。以下では、可撓性を有する長尺部17の構成の一例が示されている。
 可撓性を有する長尺部17は、関節部18と、可撓管部22とを有している。
 関節部18は、長尺部17の中心線方向に並べられ互いに連結された複数の関節要素19(第一関節)と、各関節要素19を繋ぐ棒状部20とを有している。各関節要素19において関節部18が屈曲変形することにより、関節部18は全体として湾曲変形可能である。また、関節部18に設けられた複数の関節要素19は、長尺部17の中心線を屈曲させるように変形可能なものや、長尺部17の中心線を回転中心として基端側に対して先端側を回転させるように動作可能なものなどを含んでいてよい。関節部18における最も先端側の関節要素19は、関節部18を湾曲変形させるための力量を第一の基端部23側から伝達するアングルワイヤW1に接続されている。
 可撓管部22(図3参照)は、医療用オーバーチューブ11(図2参照)が湾曲された状態にあるときの第一ルーメン12又は第二ルーメン13の湾曲形状に倣った湾曲形状となることができる程度に柔軟性を有する筒状部材である。可撓管部22の内部には、関節部18を湾曲変形させるためのアングルワイヤW1と、エンドエフェクタ16を動作させるための駆動ワイヤW2と、が挿通されている。
 第一の基端部23は、後述するモータユニット24に対して着脱可能である。第一の基端部23は、エンドエフェクタ16及び関節部18を動作させるための動力をモータユニット24から受けて、アングルワイヤW1及び駆動ワイヤW2に動力伝達を行う。
 モータユニット24は、第一の基端部23に対して着脱可能な第二の基端部として、処置具15の基端側に着脱可能である。モータユニット24は、エンドエフェクタ16及び関節部18を動作させるための動力を発するアクチュエータ25等と、各関節要素19の角度を検知するエンコーダ26(第一検知手段)とを有している。モータユニット24は、スレーブ制御部32(図4参照)による制御に従って動作する。
 図1に示すように、スレーブアーム27は、モータユニット24(第二の基端部)が取り付けられた多関節ロボットであり、マスタマニピュレータ2に対する操作者による操作に基づいてスレーブ制御部32(図4参照)が与える指令に従って動作する。
 図4に示すように、コントローラ30は、マスタ制御部31と、スレーブ制御部32と、モード制御部33と、関節角度計算部34と、表示制御部35とを有している。
 マスタ制御部31は、図1に示すマスタマニピュレータ2の操作入力装置3に対する操作に従って各エンコーダ7(図4参照)が出力する情報に基づいて、操作入力装置3に対して操作者が行う操作を受け付け、スレーブ制御部32を動作させるための所定の指令を生成してスレーブ制御部32へと出力する。マスタ制御部31の構成は特に限定されず、公知の動作フローが適宜適用されてもよい。
 スレーブ制御部32は、マスタ制御部31が生成してスレーブ制御部32へと出力した上記の所定の指令に基づいて、スレーブアーム27及び処置具15を動作させる。すなわち、スレーブ制御部32は、スレーブアーム27及び処置具15に対して指令を与える。
 モード制御部33は、マスタマニピュレータ2(図1参照)に対する操作に従ってスレーブマニピュレータ10を動作させるモードである第一モードと、スレーブマニピュレータ10に設けられた処置具15とマスタマニピュレータ2の操作入力装置3とが相似関係を有するように処置具15及び操作入力装置3を動作させるモードである第二モードと、スレーブマニピュレータ10がマスタマニピュレータ2の操作に従わずにスレーブマニピュレータ10の位置と姿勢が保持される第三モードとの切り替えを行う。
 関節角度計算部34は、上記の3つのモードにおいて関節部18(図3参照)の姿勢及び操作入力装置3(図3参照)の姿勢を検知するために、コントローラ30に設けられている。関節角度計算部34は、多関節アーム4bを構成する各関節6に設けられたエンコーダ7から各関節6の角度を示す情報を取得する。また、関節角度計算部34は、モータユニット24に設けられたエンコーダ26から各関節要素19の角度を示す情報を取得する。エンコーダ26はモータユニットのアクチュエータ25の角度情報を取得しているので、関節角度計算部34は、アクチュエータから処置具15の各関節要素19までの間の機械的要素を考慮して、各関節要素19の角度を算出する。
 エンコーダ26が各関節要素19に設けられた構成でもよい。
 関節角度計算部34は、処置具15の関節部18に設けられた各関節要素19の可動範囲として処置具15ごとに予め定められた範囲を特定する情報を有している。さらに関節角度計算部34は、処置具15の関節部18に設けられた各関節要素19の可動範囲のうち、体内で関節部18を動作させる際にエンドエフェクタ16や関節部18が体内の組織に接触しない程度の移動範囲として、現在の関節部18の位置を基準としてあらかじめ定められた一定の角度範囲を、形状同期可能範囲として規定する。
 関節角度計算部34は、多関節アーム4bの各関節6及び処置具15の関節部18の角度を示す情報,処置具15の関節部18に設けられた各関節要素19の可動範囲を示す情報,及び上記の形状同期可能範囲を示す情報を、表示制御部35へと出力する。
 表示制御部35は、多関節アーム4bの各関節6及び処置具15の関節部18の角度を示す情報,処置具15の関節部18に設けられた各関節要素19の可動範囲を示す情報,及び上記の形状同期可能範囲を示す情報に基づいて、処置具15の関節部18を構成する各関節要素19の角度に対する多関節アーム4bの各関節6の角度を視覚的にユーザに伝達するための画像情報を生成する。
 表示制御部35が生成する画像情報は、多関節アーム4bの各関節6及び処置具15の関節部18の角度を示す情報,処置具15の関節部18に設けられた各関節要素19の可動範囲を示す情報,及び上記の形状同期可能範囲を示す情報に基づいた数値を示すものでもよいし、処置具15の姿勢に対する操作入力装置3の姿勢をユーザに直感的に理解させるための図形を示すものでもよい。
 以下では、処置具15の姿勢に対する操作入力装置3の姿勢をユーザに直感的に理解させるために表示制御部35が図形を示す場合について例示する。
 表示制御部35による制御に従って表示部8に表示される図形は、たとえば図7に示すように、第一の枠表示41と、第二の枠表示42と、線状表示43とからなる。
 図7に示す第一の枠表示41は、処置具15の関節部18における各関節要素19の可動範囲を示す。
 図7に示す第二の枠表示42は、第一の枠表示41内において上記の形状同期可能範囲を示す。
 図7に示す線状表示43は、第一の枠表示41内において、処置具15の関節部18の各関節要素19に対応する操作入力装置3の関節6の角度を示す。
 これらの表示は、処置具15の関節部18に設けられた関節要素19ごとに、並べて表示部8に表示される。
 第一の枠表示41に対する線状表示43の位置は、処置具15の関節部18に対する操作入力装置3の多関節アーム4bの相対移動に応じて変化する。
 本実施形態の医療用マニピュレータシステム1の作用について説明する。図5は、医療用マニピュレータシステムの動作を説明するためのフローチャートである。図6は、医療用マニピュレータシステムの動作を説明するためのフローチャートである。図7は、医療用マニピュレータシステムにおける表示部の画面表示の一例を示す模式図である。
 図1に示す本実施形態の医療用マニピュレータシステム1では、スレーブマニピュレータ10に設けられた処置具15は、マスタマニピュレータ2に設けられた操作入力装置3をユーザが操作することによって、動作する。
 また、処置具15の関節部18は、操作入力装置3の多関節アーム4bに対して相似な関係を有するように維持される。すなわち、体内におけるエンドエフェクタ16及び関節部18の位置及び姿勢は、操作部4及び多関節アーム4bの位置及び姿勢と連動するようにコントローラ30により制御される。
 ところで、処置具15はモータユニット24によって動作させることができるが、操作入力装置3には操作入力装置3を動作させるアクチュエータなどの手段がない。そのため、操作入力装置3に従って処置具15を動作させるようになっていない第三モードでは、処置具15においては第三モードに移行した直前の位置と姿勢が保持されるが、操作入力装置3においては操作者が自由に姿勢を変えることができる。この場合、操作入力装置3の多関節アーム4bの位置や姿勢と処置具15の関節部18の位置や姿勢とが、互いに相似関係にないという事態となる。
 ここで、上記の事態になったときに、コントローラ30は、処置具15の関節部18と操作入力装置3の多関節アーム4bとの相似関係を回復するための以下のフローを実行することができる。
 まず、マスタマニピュレータ2に対するユーザによる入力等に基づいて、コントローラ30は、処置具15の関節部18と操作入力装置3の多関節アーム4bとの相似関係を回復するための上記の第二モードへと、第一モード(又は第三モード)から移行する。
 第二モードでは、まず、マスタマニピュレータ2とスレーブマニピュレータ10との電気的接続をモード制御部33が切断する(図5に示すステップS1)。ステップS1では、たとえば、マスタマニピュレータ2とスレーブマニピュレータ10との間の電気的接続の一部をモード制御部33が切断する。ステップS1によって、たとえば、操作入力装置3を操作しても処置具15が動作しないように、スレーブ制御部32に対するマスタ制御部31からの指令がモード制御部33により無効化される。
 これでステップS1は終了し、ステップS2へ進む。
 図5に示すステップS2は、表示部8に、多関節アーム4b及び関節部18の姿勢を示す情報を表示するステップである。
 ステップS2では、関節角度計算部34が、多関節アーム4bの各関節6及び処置具15の関節部18の角度を示す情報,処置具15の関節部18に設けられた各関節要素19の可動範囲を示す情報,及び上記の形状同期可能範囲を示す情報を、表示制御部35へと出力する。表示制御部35は、たとえば図7に示すように表示部8に上記の情報に対応する図形を表示する。これにより、ユーザは、処置具15の関節部18に対する多関節アーム4bの相対位置及び姿勢のずれの有無及びその大きさを知ることができる。
 ステップS2における第一の枠表示41,第二の枠表示42,及び線状表示43の生成フローの一例について詳述する。
 まず、関節角度計算部34が、処置具15の関節部18に設けられた各エンコーダ26から、各関節要素19の関節角度を取得する(図6に示すステップS21)。
 ステップS21の後、関節角度計算部34が、操作入力装置3の多関節アーム4bに設けられた各エンコーダ7から、各関節6の関節角度を取得する(図6に示すステップS22)。
 ステップS22の後、関節角度計算部34は、上記のステップS21において関節角度計算部34が取得した関節角度を、表示制御部35へと出力する。表示制御部35は、ステップS21において取得された関節角度(処置具15の各関節要素19の角度)を中心とし、各関節要素19の可動範囲の上限及び下限を両端に有する矩形状の第一の枠表示41を表示部8に表示させる(図6に示すステップS23)。
 ステップS23の後、関節角度計算部34は、各関節要素19の可動範囲における上限側での形状同期可能上限値を計算して表示制御部35へと出力する。表示制御部35は、第一の枠表示41内で、第一の枠表示41の中央から上記の形状同期可能上限値までの範囲を強調表示する(図6に示すステップS24)。すなわち、ステップS24では、表示制御部35は、形状同期可能範囲の上側領域を表示部8に表示させる。ステップS24における強調表示とは、形状同期可能上限値に境界線を示したり、第一の枠表示41の中央から上記の形状同期可能上限値までの範囲を所定の強調色で矩形状に示したりすることにより、第一の枠表示41内で形状同期可能範囲を区別可能とする表示手段である。
 ステップS24の後、関節角度計算部34は、各関節要素19の可動範囲における下限側での形状同期可能下限値を計算して表示制御部35へと出力する。表示制御部35は、第一の枠表示41内で、第一の枠表示41の中央から上記の形状同期可能下限値までの範囲を強調表示する(図6に示すステップS25)。すなわち、ステップS25において、表示制御部35は、形状同期可能範囲の下側領域を表示部8に表示させる。ステップS25における強調表示とは、形状同期可能下限値に境界線を示したり、第一の枠表示41の中央から上記の形状同期可能下限値までの範囲を所定の強調色で矩形状に示したりすることにより、第一の枠表示41内で形状同期可能範囲を区別可能とする表示手段である。
 上記のステップS24,及びステップS25により、各関節要素19の可動範囲を示す第一の枠表示41内に、例えば第二の枠表示42として表示させることにより、形状同期可能範囲が区画される。
 ステップS25の後、表示制御部35は、ステップS22において取得された関節角度(多関節アーム4bの各関節6の角度)に基づいて、上記のステップS23において生成した第一の枠表示41内に重ねて表示する線状表示43を表示部8に表示させる動作を開始する。
 ステップS25は、第二モードが終了して第一モードへ移行するまで繰り返し実行される。これにより、第一の枠表示41内で、現在の各関節6の角度を示すように線状表示43が所定間隔で更新される。
 上記のステップS21からステップS25までのフローの次に、図5に示すステップS3が開始される。
 ステップS3は、多関節アーム4bの姿勢を示す線状表示43に基づいてユーザが操作入力装置3を移動させるステップである。
 ステップS3では、ユーザが手作業で操作入力装置3を移動させる動作に追従して、多関節アーム4bの角度を示す線状表示43が更新されている。すなわち、表示部8に表示される線状表示43は第一の枠表示41の範囲内で、ユーザによる操作入力装置3の操作に応じて移動する。ユーザは、形状同期可能範囲の内側に線状表示43が位置するように操作入力装置3を移動させる。
 ステップS3における操作入力装置3の移動は、処置具15の関節部18に対する多関節アーム4bの厳密な位置合わせではなく、形状同期可能範囲として定められた許容範囲に多関節アーム4bの各関節6の角度があればよい。このため、ユーザの手作業による操作入力装置3の移動操作が簡単である。
 これでステップS3は終了し、ステップS4へ進む。
 図5に示すステップS4は、多関節アーム4bの各関節6が形状同期可能範囲内にあるか否かを判定するステップである。
 ステップS4において多関節アーム4bの各関節6が形状同期可能範囲内にあると判定されるまでステップS4は繰り返され、多関節アーム4bの各関節6が形状同期可能範囲内にあると判定されたらステップS5へと進む。
 ステップS5は、ステップS4において多関節アーム4bの各関節6が形状同期可能範囲内にあるという条件が満たされた後に開始される。ステップS5は、多関節アーム4bと相似形状をなすように関節部18を動作させるステップである。
 ステップS5では、操作入力装置3の多関節アーム4bの位置及び姿勢に対応して処置具15の関節部18が相似関係を満たすように、スレーブ制御部32が関節部18を動作させる。たとえば、ステップS5では、関節角度計算部34が、多関節アーム4bに設けられた各関節6の角度と、これらの各関節6に対応付けられた処置具15の関節部18の各関節要素19の角度とが一致するように、処置具15の関節部18を動作させる。上記のステップS3において形状同期可能範囲内で大まかに手作業で位置合わせされた多関節アーム4b及び関節部18は、ステップS5において精度よく相似関係を有して位置決めされる。ステップS5における関節部18の移動領域の大きさは、ステップS3において形状同期可能範囲に多関節アーム4bがあることにより、エンドエフェクタ16及び関節部18が体内の組織等に接触しない程度に狭い。
 これでステップS5は終了し、第二モードから第一モードへ移行して、処置具15を用いた処置を開始することができる。
 以上に説明したように、本実施形態の医療用マニピュレータシステム1によれば、ユーザの手作業による位置合わせは大まかに形状同期可能範囲内に合せるだけでよい。このため、処置具15の関節部18の位置及び姿勢と操作入力装置3の多関節アーム4bの位置及び姿勢が精度よく相似関係となるまで手作業で操作入力装置3を操作する場合と比較して、処置具15に対する操作入力装置3の相似関係を短時間かつ少ない移動量で回復させることができる。
 また、本実施形態の医療用マニピュレータシステム1の表示制御部35は、処置具15の関節部18の各関節要素19の角度に対する多関節アーム4bの各関節6の角度を対応付けて表示部8へと出力する。すなわち、本実施形態のコントローラ30は、処置具15の各関節要素19の角度に対する多関節アーム4bの各関節6の角度を表示部8へと出力する。その結果、処置具15に対して操作入力装置3がどの程度ずれた状態にあるのかをユーザに認識させやすく、さらに、どのように操作入力装置3を移動させればよいのかをユーザに直感的に理解させることができる。
(変形例1)
 上記実施形態の変形例について説明する。図8は、本変形例における表示部の画面表示の一例を示す模式図である。
 本変形例では、表示制御部35による表示部8への表示態様が上記実施形態と異なっている。
 本変形例における表示制御部35は、上記第1実施形態におけるステップS23及びステップS24において、処置具15の関節部18に設けられた関節要素19の現在の角度に対する多関節アーム4bの対応する関節6の角度の違いを、図8に示すように百分率で示すグラフとして表示部8へと出力する。
 一例を挙げると、本変形例では、処置具15の関節要素19の現在の角度を100%として第一の枠表示41の中央に設定し、関節要素19の可動範囲の限界点を、+0%,-0%として第一の枠表示41の両端に設定する。ここで、+0%とは、多関節アーム4bの対応する関節6の角度が、関節要素19の可動範囲におけるプラス方向(上限側)において関節要素19の可動範囲の限界点となる角度となっていることを示す。また、-0%とは、多関節アーム4bの対応する関節6の角度が、関節要素19の可動範囲におけるマイナス方向(下限側)において関節要素19の可動範囲の限界点となる角度となっていることを示す。
 本変形例では、第一の枠表示41に示されている百分率の数値の絶対値が大きいほうが、処置具15の関節要素19の現在の角度に多関節アーム4bの対応する関節6の角度が近い。
 このような表示の仕方でも上記実施形態と同様の効果を奏する。
 また、本実施形態では、各関節要素19の可動範囲を角度でなく百分率で示すことにより、各関節要素19の絶対的な可動範囲の角度が要素ごとに異なっていても、同じ大きさの第一の枠表示41を用いて違和感なく表示できる。その結果、本変形例では、表示部8の画面表示領域を上記実施形態よりも効率よく利用できる。
(変形例2)
 次に、上記実施形態の他の変形例について説明する。図9は、本変形例における表示部の画面表示の一例を示す模式図である。
 本変形例では、多関節アーム4bをどのように動作させれば多関節アーム4bの各関節6が形状同期可能範囲内の角度となるのかが表示制御部35から表示部8に出力されて表示部8に表示される。
 たとえば、関節角度計算部34は、操作入力装置3に設けられた多関節アーム4bの各関節6の現在の個々の角度の情報から、多関節アーム4bの最も基端にある関節6から操作部4に至るまでの各関節6の向きを順運動学計算により取得する。
 さらに、表示制御部35は、関節角度計算部34が取得した各関節6の向きと、関節角度計算部34が上記第1実施形態と同様に取得した関節部18の各関節要素19の角度及び形状同期可能範囲と、を用いて、操作部4をどのように移動させればよいかを示すメッセージ44(図9参照)を生成する。たとえば、表示制御部35は、表示部8に対して、上記第1実施形態におけるステップS25で各関節要素19の角度を示す線状表示43が更新されるたびにメッセージ44を更新表示する。
 本変形例では、ユーザが操作部4を把持して多関節アーム4bを動作させることにより、多関節アーム4bを構成する関節6の屈曲状態が変化する。表示制御部35から表示部8へと出力されて表示部8に表示されるメッセージ44に従ってユーザが操作部4を動作させることにより、操作入力装置3の多関節アーム4bの姿勢は、処置具15の関節部18と相似関係を回復可能な形状同期可能範囲内に収まる。表示部8に表示されるメッセージ44は、多関節アーム4bをどのように動かすと多関節アーム4bの各関節6の角度が関節部18の各関節要素19の角度と一致するのかをユーザに提示している。表示制御部35がメッセージ44を表示部8に出力することは、多関節アーム4bの各関節6の角度が関節部18の各関節要素19の角度と一致するまでの動作手順を算出して表示部8へと出力することとなっている。
 このように本実施形態では、コントローラ30が多関節アーム4bの動作手順を算出して表示部8へと出力するので、ユーザは動作手順に従って操作をするだけでよく、処置具15に対する操作入力装置3の相似関係を短時間で回復させることができる。
 なお、本変形例において、ユーザは、操作部4を把持するのでなく、多関節アーム4bを構成する各関節6の近傍を把持して多関節アーム4bを動かしてもよい。この場合、多関節アーム4bの基端側に位置する関節6から操作部4側へ向かって各関節6をメッセージ44に従って順番に移動させることにより、全ての関節6を容易に形状同期可能範囲内に収めることができる。
(第2実施形態)
 本発明の第2実施形態について説明する。なお、以下の各実施形態において上記の第1実施形態と共通する構成要素については第1実施形態と同一の符号が付されており、重複する説明は省略される。図10は、本実施形態の医療用マニピュレータシステムにおける表示部の画面表示の一例を示す模式図である。
 図10に示すように、本実施形態では、表示部8に表示される図形の形状が上記第1実施形態と異なっている。具体的には、本実施形態では、表示制御部35は、第一の枠表示41及び第二の枠表示42を、所定の中心を有する扇型として表示部8へ出力する。さらに、表示制御部35は、多関節アーム4bの各関節6の角度に基づいて、上記の所定の中心に端部を有してこの所定の中心を回転中心として回動する線状表示43を表示部8へ出力する。
 また、本実施形態では、上記第1実施形態の変形例2と同様に、操作部4を把持した状態で操作入力装置3をどのように動かせばよいかを示すメッセージ44を表示制御部35が表示部8へ出力する。
 本実施形態では、関節部18及び多関節アーム4bが、所定の軸を回転中心としてそれぞれ回転する複数の回転関節を有する場合に、関節部18に対する多関節アーム4bの姿勢のずれの程度を直感的な図形表示によりユーザに伝えることができる。その結果、各回転関節をどのように動かせば形状同期可能範囲内に多関節アーム4bの各関節6を収めることができるのかがユーザに直感的に理解され、処置具15に対する操作入力装置3の相似関係を短時間で回復させることができる。
(第3実施形態)
 本発明の第3実施形態について説明する。図11は、本実施形態の医療用マニピュレータシステムにおける表示部の画面表示の一例を示す模式図である。
 図11に示すように、本実施形態では、表示制御部35(図4参照)が、処置具15の関節部18の形状を示す第一のCG(コンピュータグラフィクス)画像45と、多関節アーム4bの形状を示す第二のCG画像46とを、表示部8に重ねて表示する。
 表示制御部35は、処置具15の関節部18における最も基端側の関節要素19と、多関節アーム4bにおいて処置具15に対応する関節6のうち最も基端側にある関節6とが重なるように第一のCG画像45及び第二のCG画像46を重ねて一枚の画像とする。
 処置具15の関節部18に対して相似となるように操作入力装置3を移動させる第二モードにおいて、第一のCG画像45及び第二のCG画像46が表示部8に表示される。
 さらに、表示制御部35は、上記第1実施形態の変形例2と同様に、多関節アーム4bをどのように移動させればよいかを示すメッセージ44を、第一のCG画像45及び第二のCG画像46に対してさらに重ねて表示する。本実施形態では、多関節アーム4bをどのように移動させればよいかを示すメッセージ44は、多関節アーム4bの各関節6の近傍に、関節6ごとに個別に記号等により表示される。たとえば、多関節アーム4bをどのように移動させればよいかを示すメッセージ44は、多関節アーム4bを構成する各関節6の回動中心を中心として弧状の矢印(図11に符号X1,X2,X3で示す)であってもよい。
 また、上記の第一のCG画像45及び第二のCG画像46は、関節部18及び多関節アーム4bを複数の視点で示すように2セット以上生成されてもよい。
 たとえば、処置具15を平面視したような画像を含む1セット目の画像(図11において左側に示されている)に加えて、処置具15を基端側から先端側へ向かって見たような画像を含む2セット目の画像(図11において右側に示されている)を表示制御部35が表示部8に表示してもよい。この場合、2セット目の画像には、多関節アーム4bをどのように移動させればよいかを示すメッセージ44として、多関節アーム4bを構成する各関節6よりも基端側に位置する根元部4x及び関節部18の基端の中心線Oを中心とする円弧状の矢印(図11に符号X4で示す)であってもよい。
 本実施形態では、処置具15や多関節アーム4bの位置関係を把握しやすいCG画像を用いることができるので、上記第1実施形態や第2実施形態のようにグラフ状の表示に基づいて操作をするよりも、ユーザにとって直感的な操作によって、処置具15に対する操作入力装置3の相似関係を短時間で回復させることができる。
 以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
 また、上述の各実施形態及び各変形例において示した構成要素は適宜に組み合わせて構成することが可能である。
 本発明は、医療用マニピュレータシステムに利用できる。
 1 医療用マニピュレータシステム
 2 マスタマニピュレータ
 3 操作入力装置
 4 操作部
 4a グリップ部
 4b 多関節アーム
 5 直動機構
 5a 肘置き台
 5b スライダ
 6 関節
 7 エンコーダ
 8 表示部
 10 スレーブマニピュレータ
 11 医療用オーバーチューブ
 12 第一ルーメン
 13 第二ルーメン
 14 第三ルーメン
 15 処置具
 15A 第一処置具
 15B 第二処置具
 16 エンドエフェクタ
 17 長尺部
 18 関節部
 19 関節要素
 20 棒状部
 22 可撓管部
 23 第一の基端部
 24 モータユニット(第二の基端部)
 25 アクチュエータ
 26 エンコーダ
 27 スレーブアーム
 30 コントローラ
 31 マスタ制御部
 32 スレーブ制御部
 33 モード制御部
 34 関節角度計算部
 35 表示制御部
 41 第一の枠表示
 42 第二の枠表示
 43 線状表示
 44 メッセージ
 45 第一のCG画像
 46 第二のCG画像
 100 内視鏡

Claims (3)

  1.  第一関節を有するマニピュレータと、
     前記第一関節の姿勢を検知する第一検知手段と、
     前記第一関節を動作させるために前記第一関節と対応付けされた第二関節を有する操作部と、
     前記第二関節の姿勢を検知する第二検知手段と、
     前記第一検知手段が検知した前記第一関節の姿勢と前記第二検知手段が検知した前記第二関節の姿勢とに基づいて前記マニピュレータ及び前記操作部を制御する制御部と、
     前記制御部による制御の下で情報を表示する表示部と、
     を備え、
     前記制御部は、前記第一関節の姿勢及び前記第二関節の姿勢を前記情報として前記表示部へ出力する
     医療用マニピュレータシステム。
  2.  前記制御部は、前記第一関節の角度に対する前記第二関節の角度を前記情報として前記表示部へ出力する
     請求項1に記載の医療用マニピュレータシステム。
  3.  前記制御部は、前記第一関節の角度及び前記第二関節の角度に基づいて、前記第二関節の角度が前記第一関節の角度と一致するまでの前記第二関節の動作手順を算出し、算出された動作手順を前記情報として前記表示部へ出力する
     請求項2に記載の医療用マニピュレータシステム。
PCT/JP2016/063555 2015-05-29 2016-05-02 医療用マニピュレータシステム WO2016194539A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201680009676.4A CN107249500A (zh) 2015-05-29 2016-05-02 医疗用机械手系统
EP16802976.7A EP3305236A4 (en) 2015-05-29 2016-05-02 MEDICAL MANIPULATOR SYSTEM
JP2017508711A JP6147459B2 (ja) 2015-05-29 2016-05-02 医療用マニピュレータシステム
US15/697,684 US10537398B2 (en) 2015-05-29 2017-09-07 Medical manipulator system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015109758 2015-05-29
JP2015-109758 2015-05-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/697,684 Continuation US10537398B2 (en) 2015-05-29 2017-09-07 Medical manipulator system

Publications (1)

Publication Number Publication Date
WO2016194539A1 true WO2016194539A1 (ja) 2016-12-08

Family

ID=57440445

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/063555 WO2016194539A1 (ja) 2015-05-29 2016-05-02 医療用マニピュレータシステム

Country Status (5)

Country Link
US (1) US10537398B2 (ja)
EP (1) EP3305236A4 (ja)
JP (1) JP6147459B2 (ja)
CN (1) CN107249500A (ja)
WO (1) WO2016194539A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018118391A1 (en) * 2016-12-19 2018-06-28 Ethicon Llc Robotic surgical system with selective motion control decoupling
WO2018225121A1 (ja) * 2017-06-05 2018-12-13 オリンパス株式会社 医療システムおよび医療システムの作動方法
WO2019225548A1 (ja) * 2018-05-21 2019-11-28 Telexistence株式会社 遠隔操作システム、情報処理方法、及びプログラム
WO2022230826A1 (ja) * 2021-04-26 2022-11-03 川崎重工業株式会社 ロボットシステム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016136306A1 (ja) * 2015-02-26 2016-09-01 オリンパス株式会社 医療用マスタースレーブマニピュレータシステム
EP3316759A4 (en) * 2015-06-30 2019-05-22 Canon U.S.A., Inc. METHOD AND APPARATUS FOR CONTROLLING A MANIPULATOR
JP6921602B2 (ja) * 2017-04-21 2021-08-18 キヤノン株式会社 連続体ロボットの制御システム及びその制御方法、並びに、プログラム
JP7414426B2 (ja) * 2019-08-20 2024-01-16 ファナック株式会社 ロボットシステム
CN110834332B (zh) * 2019-11-13 2021-10-22 珠海格力智能装备有限公司 机械手的控制方法及装置、机械手
CN111012525B (zh) * 2020-01-20 2020-10-27 北京华腾创新科技有限公司 一种神经外科蛇形持镜臂
JP2022088805A (ja) 2020-12-03 2022-06-15 株式会社メディカロイド ロボット手術システムおよび表示方法
CN113208546A (zh) * 2021-05-13 2021-08-06 北京天星博迈迪医疗器械有限公司 内窥镜固定装置及内窥镜组件、摄影系统以及定位方法
CN113246144B (zh) * 2021-06-29 2021-10-15 深之蓝海洋科技股份有限公司 一种水下机械手的位置控制系统及其控制方法
WO2023233279A1 (en) * 2022-06-03 2023-12-07 Medical Microinstruments, Inc. A control method of a robotic system for medical or surgical teleoperation and related robotic system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265500A (ja) * 2002-03-15 2003-09-24 Hitachi Ltd 手術支援装置
JP2005335000A (ja) * 2004-05-25 2005-12-08 Yaskawa Electric Corp 人間介入型ロボットの制御装置
JP2014028007A (ja) * 2012-07-31 2014-02-13 Olympus Corp 医療用マニピュレータおよび処置具交換方法
WO2014146095A1 (en) * 2013-03-15 2014-09-18 Intuitive Surgical Operations, Inc. System and methods for managing multiple null-space objectives and sli behaviors
WO2014199415A1 (ja) * 2013-06-13 2014-12-18 テルモ株式会社 医療用マニピュレータおよびその制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06297368A (ja) * 1992-10-23 1994-10-25 Shinichi Yokota マニピュレ−タの制御装置
JP2001104333A (ja) * 1999-10-07 2001-04-17 Hitachi Ltd 手術支援装置
US9789608B2 (en) * 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9089256B2 (en) * 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
CN102131474B (zh) * 2008-11-14 2013-06-05 奥林巴斯医疗株式会社 医疗用系统
JP6021353B2 (ja) * 2011-08-04 2016-11-09 オリンパス株式会社 手術支援装置
JP6000641B2 (ja) * 2011-08-04 2016-10-05 オリンパス株式会社 マニピュレータシステム
KR101978740B1 (ko) * 2012-02-15 2019-05-15 삼성전자주식회사 원격조종시스템 및 그 제어방법
US10433922B2 (en) * 2015-03-17 2019-10-08 Intuitive Surgical Operations, Inc. Systems and methods for rendering onscreen identification of instruments in a teleoperational medical system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265500A (ja) * 2002-03-15 2003-09-24 Hitachi Ltd 手術支援装置
JP2005335000A (ja) * 2004-05-25 2005-12-08 Yaskawa Electric Corp 人間介入型ロボットの制御装置
JP2014028007A (ja) * 2012-07-31 2014-02-13 Olympus Corp 医療用マニピュレータおよび処置具交換方法
WO2014146095A1 (en) * 2013-03-15 2014-09-18 Intuitive Surgical Operations, Inc. System and methods for managing multiple null-space objectives and sli behaviors
WO2014199415A1 (ja) * 2013-06-13 2014-12-18 テルモ株式会社 医療用マニピュレータおよびその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3305236A4 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018118391A1 (en) * 2016-12-19 2018-06-28 Ethicon Llc Robotic surgical system with selective motion control decoupling
US10251716B2 (en) 2016-12-19 2019-04-09 Ethicon Llc Robotic surgical system with selective motion control decoupling
CN110087559A (zh) * 2016-12-19 2019-08-02 爱惜康有限责任公司 具有可选运动控制断联场的机器人外科系统
CN110087559B (zh) * 2016-12-19 2022-05-27 爱惜康有限责任公司 具有可选运动控制断联场的机器人外科系统
WO2018225121A1 (ja) * 2017-06-05 2018-12-13 オリンパス株式会社 医療システムおよび医療システムの作動方法
US11471230B2 (en) 2017-06-05 2022-10-18 Olympus Corporation Medical system and medical system operation method
WO2019225548A1 (ja) * 2018-05-21 2019-11-28 Telexistence株式会社 遠隔操作システム、情報処理方法、及びプログラム
WO2022230826A1 (ja) * 2021-04-26 2022-11-03 川崎重工業株式会社 ロボットシステム

Also Published As

Publication number Publication date
US20170360519A1 (en) 2017-12-21
JP6147459B2 (ja) 2017-06-14
EP3305236A1 (en) 2018-04-11
EP3305236A4 (en) 2019-02-27
JPWO2016194539A1 (ja) 2017-07-06
CN107249500A (zh) 2017-10-13
US10537398B2 (en) 2020-01-21

Similar Documents

Publication Publication Date Title
JP6147459B2 (ja) 医療用マニピュレータシステム
JP5908172B2 (ja) 手術支援システムおよび手術支援システムの制御方法
US8892224B2 (en) Method for graphically providing continuous change of state directions to a user of a medical robotic system
JP5750122B2 (ja) ロボット内視鏡の作動制御方法およびシステム
JP5744455B2 (ja) マスタ・スレーブ方式マニピュレータの制御装置及びその制御方法
JP6109001B2 (ja) 医療用システムおよびその作動方法
CN108348134B (zh) 内窥镜系统
JP6072283B2 (ja) 医療用マニピュレータおよび医療用マニピュレータの作動方法
JP6053933B2 (ja) 処置具、マニピュレータシステム、および処置具の作動方法
JP7085400B2 (ja) 外科手術システム
KR20230003408A (ko) 원격조작 의료 시스템에서 기구의 스크린상 식별을 위한 시스템 및 방법
JP6125121B2 (ja) 医療用マニピュレータシステム
US9974620B2 (en) Manipulator system, and medical system
JP7085401B2 (ja) 外科手術システム
JP5959722B2 (ja) 処置具交換装置及び医療システム
WO2017014308A1 (ja) マニピュレータ及び医療システム
WO2015005072A1 (ja) 手術支援ロボット
JP6238844B2 (ja) 手術用マニピュレータ操作装置および手術用マニピュレータシステム
CN113195174A (zh) 引导工具改变
JP2016511159A (ja) マニピュレータ
JP6246093B2 (ja) 処置具及び処置具システム
EP4008287A1 (en) Robotic surgical system and display method
JP5932174B1 (ja) 内視鏡システム
JP6214837B1 (ja) 医療用マニピュレータシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16802976

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017508711

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016802976

Country of ref document: EP