WO2013187136A1 - マニピュレータシステム - Google Patents

マニピュレータシステム Download PDF

Info

Publication number
WO2013187136A1
WO2013187136A1 PCT/JP2013/062071 JP2013062071W WO2013187136A1 WO 2013187136 A1 WO2013187136 A1 WO 2013187136A1 JP 2013062071 W JP2013062071 W JP 2013062071W WO 2013187136 A1 WO2013187136 A1 WO 2013187136A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
angle
function
display
display unit
Prior art date
Application number
PCT/JP2013/062071
Other languages
English (en)
French (fr)
Inventor
敦士 廣江
真人 成瀬
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201380031050.XA priority Critical patent/CN104394751B/zh
Priority to EP13804620.6A priority patent/EP2862497B1/en
Publication of WO2013187136A1 publication Critical patent/WO2013187136A1/ja
Priority to US14/520,857 priority patent/US20150038984A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/0016Holding or positioning arrangements using motor drive units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device

Definitions

  • the present invention relates to a manipulator system.
  • the treatment tool protruded from the distal end surface of the endoscope is operated by the operator operating the operation handle with both hands, and the bending portion provided at the distal end portion of the endoscope is usually switched by a switch.
  • the surgeon is operated without greatly moving the limbs. For this reason, if the viewing direction of the endoscope is changed by changing the degree of bending of the bending portion, the direction of the treatment tool displayed on the display portion is changed even when the treatment tool is not operated.
  • the movement direction of the operation handle when the treatment tool performs the same operation is the same, whereas the movement direction of the treatment tool displayed on the display portion changes, In the head, it is necessary to operate the operation handle while always confirming the front / rear / right / left direction of the treatment instrument in the display unit, and an intuitive operation cannot be performed.
  • the present invention has been made in view of the above-described circumstances, and provides a manipulator system capable of intuitively operating a treatment instrument displayed on a display unit even when the observation direction of a subject is switched. It is aimed.
  • a treatment unit that treats a subject
  • a photographing unit that photographs the subject and the treatment unit
  • a display unit that displays an image acquired by the photographing unit
  • a movement that supports the display unit
  • a display unit driving unit an operation unit for operating the treatment unit, an operation unit driving unit for supporting and moving the operation unit, and a relative positional relationship between the display unit and the operation unit.
  • a control unit that controls the display unit driving unit and the operation unit driving unit so as to approximate the relative positional relationship between the imaging unit and the imaging unit.
  • the relative positional relationship between the treatment unit and the imaging unit changes when the imaging direction of the subject and the treatment unit is changed by moving the imaging unit with respect to the subject and the treatment unit.
  • the unit controls the display unit to be moved by the display unit drive unit and the operation unit to be moved by the operation unit drive unit.
  • the position of the imaging unit relative to the treatment unit an image obtained by imaging the subject and the treatment unit from different angles is displayed on the display unit.
  • control unit controls the display unit driving unit and the operation unit driving unit so as to bring the relative positional relationship between the display unit and the operation unit closer to the relative position relationship between the treatment unit and the imaging unit.
  • the control unit controls the display unit driving unit and the operation unit driving unit so as to bring the relative positional relationship between the display unit and the operation unit closer to the relative position relationship between the treatment unit and the imaging unit.
  • a detection unit that detects a shooting angle of the subject by the shooting unit
  • the control unit controls the display unit driving unit and the operation unit driving unit based on the shooting angle detected by the detection unit. You may control.
  • the control unit changes the relative positional relationship between the display unit and the operation unit to the relative positional relationship between the treatment unit and the imaging unit based on the imaging angle of the subject by the imaging unit detected by the detection unit.
  • the display unit driving unit and the operation unit driving unit can be controlled to approach each other.
  • the said display part drive part may change the display part angle which is an angle with respect to the horizontal direction of the normal line of the said display part.
  • the display unit angle can be changed accordingly.
  • the operator looking at the display unit can feel as if the observation direction of the subject has been changed by changing his / her field of view, and the subject can be treated more intuitively. it can.
  • the said operation part drive part may change the operation part angle which is an angle with respect to the horizontal direction of the straight line which connects the said operation part and the said display part.
  • the operation unit angle can be changed accordingly.
  • the operation unit for operating the treatment unit moves according to the treatment unit moved on the image displayed on the display unit, so that the operator looking at the display unit changes the observation direction of the subject. It is possible to more intuitively determine the moving direction of the operation unit for moving the treatment unit in a desired direction before and after the operation.
  • the said control part may control the said display part drive part so that the said imaging
  • the said control part may control the said operation part drive part so that the said imaging
  • the operation unit driving unit changes an operation unit angle that is an angle with respect to a horizontal direction of a straight line connecting the operation unit and the display unit
  • the control unit is configured to change the shooting angle and the operation. You may control the said display part drive part and the said operation part drive part so that a part angle and the said display part angle may correspond. In this way, when the photographing unit changes the photographing angle of the subject, the display unit angle and the operation unit angle can be changed so as to match the photographing angle.
  • photography angle and the said display part angle is provided
  • the said control part is the said 1st memorize
  • the display drive unit may be controlled based on the function.
  • the first function may be a function that decreases in inclination toward both ends of the angle range of the photographing angle.
  • the first function may be a function in which the change amount of the display unit angle with respect to the change amount of the shooting angle is 1 or less over the entire angle range of the shooting angle.
  • photography angle and the said operation part angle is provided,
  • the said control part is the said 2nd memorize
  • the operation unit driving unit may be controlled based on the function.
  • the second function may be a function that decreases in inclination toward both ends of the angle range of the photographing angle.
  • the second function may be a function in which the change amount of the operation unit angle with respect to the change amount of the shooting angle is 1 or less over the entire angle range of the shooting angle.
  • the operation unit displayed on the display unit can be operated intuitively even when the observation direction of the subject is switched.
  • FIG. 9 is a block diagram illustrating a controller including the first function of FIG. 7 and the second function of FIG. 8. It is a graph which shows the modification of the 1st function of FIG. 7, and the 2nd function of FIG. It is a graph which shows the other modification of the 1st function of FIG. 7, and the 2nd function of FIG.
  • FIG. 10 is a block diagram illustrating another modification of the controller in FIG. 2.
  • a manipulator system 1 according to an embodiment of the present invention will be described below with reference to the drawings.
  • a manipulator system 1 according to the present embodiment is a medical manipulator system 1 that controls a master device 2 shown in FIG. 1A and a slave device 3 shown in FIG. 1B. And a controller (control unit) 4.
  • the slave device 3 is a cylindrical outer tube 5 made of a hard material to be inserted into the patient's body, and a treatment tool that projects from the distal end opening of the outer tube 5 to treat the affected part (subject) A in the patient's body.
  • (Treatment part) 6 and an endoscope 7 that is projected from the distal end opening of the outer tube 5 and photographs the affected part A and the treatment tool 6 are provided.
  • the master device 2 includes a monitor (display unit) 8 that displays an image acquired by the endoscope 7, a monitor drive unit 9 that moves the monitor 8, a handle (operation unit) 10 that operates the treatment instrument 6, and A handle driving unit 11 for moving the handle 10 and a foot switch 12 are provided.
  • the treatment tool 6 includes forceps 6a for treating the affected part A and a treatment tool arm 6b having one or more joints (not shown) attached to the distal end of the forceps 6a.
  • the treatment instrument arm 6b is configured to extend and retract the forceps 6a at the distal end in the longitudinal direction of the outer tube 5 by expanding and contracting the joint.
  • the treatment tool 6 is provided with a pair of left and right (only one is shown in the figure) so as to be operated with both hands of the doctor D.
  • the treatment instrument arm 6b and the forceps 6a are provided with a motor or the like (not shown) and are controlled by the controller 4.
  • the endoscope 7 includes an illuminating unit (not shown) and a camera (photographing unit) 13 that are arranged at the distal end, and two curved portions 7a and 7b that are arranged on the proximal end side of the camera 13 with a space in the longitudinal direction. I have. As shown in FIG. 1B, these two curved portions 7a and 7b are curved in a plane orthogonal to the plane (horizontal plane in the present embodiment) 6A on which the two treatment instruments 6 are arranged. The optical axis 13a of the camera 13 intersects the plane 6A, and the intersecting angle ⁇ can be adjusted.
  • the endoscope 7 is provided with a motor (not shown) for bending the bending portions 7a and 7b of the endoscope 7 and a motor (not shown) for advancing and retracting the outer tube 5 in the longitudinal direction.
  • a motor not shown
  • an encoder detection unit
  • Each motor is controlled by a controller 4.
  • the monitor 8 includes a display (not shown) that displays an image acquired by the camera 13 of the endoscope 7 and an eyepiece 8a.
  • the monitor drive unit 9 includes a monitor arm 14 that supports the monitor 8 and a linear actuator 16 that moves the monitor arm 14 in a horizontal direction and a vertical direction with respect to a support frame 15 fixed to the ground. Yes.
  • the monitor arm 14 includes a base portion 14a that supports the monitor 8 so as to be swingable about a horizontal axis, and a swing actuator 14b that swings the monitor 8 relative to the base portion 14a.
  • the handle 10 is provided with a pair of left and right handles so as to be operated by both hands of the doctor D, and includes a grip 10a that is independently gripped by both hands of the doctor D and one or more joints that advance and retract the position of the grip 10a in the horizontal direction. And an operation arm 10b.
  • the grip 10a is provided with a grip detection unit (not shown) that detects the degree of gripping
  • the operation arm 10b is provided with a position detection unit (not shown) that detects the horizontal position of the grip 10a.
  • the handle driving unit 11 includes a linear motion actuator 17 that moves the operation arm 10 b in the horizontal direction and the vertical direction with respect to the support frame 15.
  • the foot switch 12 is operated by the doctor D with his / her foot, and the amount of depression can be adjusted.
  • the controller 4 includes an image generation unit 18 that generates an image based on an image signal acquired by the camera 13 of the endoscope 7 and outputs the image to the monitor 8.
  • the controller 4 includes an endoscope control unit 19 that calculates the operation amount of each motor of the endoscope 7 based on the depression amount of the foot switch 12 and instructs each motor. For example, when a doctor steps on the foot switch 12, the endoscope control unit 19 advances the endoscope 7 in the longitudinal direction and increases the bending angle of each of the bending portions 7a and 7b. As a result, the angle ⁇ with respect to the horizontal plane 6A can be increased while the optical axis 13a of the camera 13 is kept crossing the affected area.
  • the controller 4 includes a treatment instrument control unit 20 that calculates the operation amount of each motor of the treatment instrument arm 6b and the forceps 6a based on the operation amount of the handle 10 by the doctor D and instructs each motor. For example, when the doctor D grips the grip 10a of the handle 10, the treatment tool control unit 20 closes the forceps 6a and releases the grip 10a so that the forceps 6a is opened. Is to control.
  • the treatment instrument control unit 20 calculates a movement amount that advances the position of the forceps 6a based on the horizontal movement amount detected by the position detection unit.
  • the joint of the treatment instrument arm 6b is extended to advance the position of the forceps 6a.
  • the controller 4 receives a bending angle of the two bending portions 7a and 7b detected by the encoder provided in the motor of the endoscope 7, and receives a monitor driving control unit 21 for controlling the monitor driving unit 9.
  • a handle drive control unit 22 that controls the handle drive unit 11 is provided.
  • the monitor drive control unit 21 calculates an angle ⁇ formed by the optical axis 13a of the camera 13 with respect to the horizontal plane 6A based on the bending angles of the two bending portions 7a and 7b, and the optical axis of the eyepiece 8a of the monitor 8
  • the monitor drive unit 9 is controlled so that the angle ⁇ formed with respect to the horizontal plane coincides with the angle ⁇ of the optical axis 13 a of the camera 13. That is, in the present embodiment, the monitor drive control unit 21 changes the angle ⁇ and the angle ⁇ based on a function (first function) that changes in a directly proportional relationship as shown in FIG.
  • the monitor driving unit 9 is controlled.
  • the monitor drive control unit 21 only operates the swing actuator 14b to control the angle ⁇ of the monitor 8 with respect to the base portion 14a of the monitoring arm 14 so as to coincide with the angle ⁇ of the optical axis 13a of the camera 13. Instead, the linear actuator 16 is operated to adjust the horizontal and vertical positions of the monitoring arm 14 with respect to the support frame 15.
  • the monitor drive control unit 21 stores the position coordinates of the rotation center P of the head arranged at the neck position of the doctor D. . Then, the monitor drive controller 21 moves the swing actuator 14b and the linear actuator 16 so that the eyepiece 8a of the monitor 8 moves along a circle S in the vertical plane with the rotation center P as the center. It is designed to operate synchronously.
  • the handle drive control unit 22 controls the handle drive unit 11 so that the relative positional relationship between the eyepiece 8 a of the monitor 8 and the grip 10 a matches the relative positional relationship between the camera 13 and the treatment instrument 6. It has become.
  • the fact that the relative positional relationship is identical means that the angle ⁇ between the optical axis 13a of the camera 13 and the horizontal plane 6A substantially coincides with the angle ⁇ between the straight line connecting the eyepiece 8a and the grip 10a and the horizontal plane.
  • the handle driving unit 11 is controlled so that the angle ⁇ and the angle ⁇ change based on a function (second function) that changes in a directly proportional relationship as shown in FIG. 3. .
  • the handle drive control unit 22 matches the angle ⁇ and the angle ⁇ , the distance between the camera 13 and the treatment instrument 6, and the distance between the eyepiece 8a and the grip 10a.
  • the steering wheel drive unit 11 is controlled so that the ratio is constant (for example, 1:10).
  • the grip 10a is formed on the extension of the optical axis of the eyepiece 8a of the monitor 8 inclined at an angle ⁇ coinciding with the angle ⁇ of the optical axis 13a of the camera 13 with respect to the horizontal plane 6A. Is arranged.
  • the operation of the manipulator system 1 according to this embodiment configured as described above will be described below.
  • the endoscope 7 and the treatment tool 6 of the slave device 3 are arranged close to the affected area A in the body of the patient.
  • the affected part A and the treatment tool 6 are photographed by the camera 13 of the endoscope 7.
  • the image information acquired by the endoscope 7 is sent to the image generation unit 18 of the controller 4, and an image displayed on the monitor 8 is generated in the image generation unit 18.
  • the generated image is sent to the monitor 8 of the master device 2 and displayed on a display provided in the monitor 8.
  • the doctor D grasps the grip 10a of the master device 2, puts his foot on the foot switch 12, puts his eyes on the eyepiece 8a of the monitor 8, and observes the image displayed on the display.
  • the monitor drive control unit 21 matches the angle ⁇ of the optical axis 13a of the camera 13 with the angle ⁇ of the monitor 8, and the eyepiece 8a is centered on the rotation center P of the neck of the doctor D stored in advance.
  • the monitor driving unit 9 is controlled so as to be arranged on a circle S passing through the eyes of the doctor D who has performed.
  • the handle drive control unit 22 controls the handle drive unit 11 so that the angle ⁇ with respect to the horizontal plane of the straight line connecting the eyepiece 8a and the grip 10a coincides with the angle ⁇ with respect to the horizontal plane 6A of the optical axis 13a of the camera 13. Therefore, the doctor D who views the image through the eyepiece 8a can recognize the grip 10a held with both hands as if it is the same as the treatment tool 6 on the image.
  • the treatment tool 6 in the image can be opened and closed in synchronization with this, and the front-rear direction of the treatment tool 6 on the image
  • the grip 10a is pushed and pulled in a direction that coincides with, the grip 10a moves in the front-rear direction, and the treatment instrument 6 in the image can be moved back and forth in synchronization therewith.
  • the foot switch 12 is operated with the foot. Thereby, the depression amount of the foot switch 12 is transmitted to the endoscope control unit 19 in the controller 4, and the endoscope control unit 12 determines the two bending portions 7 a and 7 b of the endoscope 7 according to the depression amount. Change the bending angle. For example, when the depression amount of the foot switch 12 is changed from the state shown in FIG. 1B, the angle ⁇ of the optical axis 13a of the camera 13 with respect to the horizontal plane 6A increases as shown in FIG. 4B. As described above, the bending angles of the two bending portions 7a and 7b change.
  • the image displayed on the display in the monitor 8 changes from the state of FIG. 5 to the state of FIG.
  • the angles detected by the encoders of the motors that drive the bending portions 7a and 7b are sent to the monitor drive control unit 21 and the handle drive control unit 22. .
  • the monitor drive control unit 21 calculates an angle ⁇ with respect to the horizontal plane 6A of the optical axis 13a of the camera 13 of the endoscope 7 from the angles of the curved portions 7a and 7b detected by the encoder, and monitors based on the angle ⁇ .
  • the swing actuator 14b is operated so that the swing angle ⁇ of 8 coincides with the angle ⁇ .
  • the swing angle ⁇ of the monitor 8 is changed to change the direction of its own line of sight as the observation direction of the affected part A and the treatment tool 6 in the image changes.
  • the doctor D can feel as if the observation direction of the affected part A or the like has been changed, and the treatment tool 6 can be operated more intuitively.
  • the monitor drive control unit 21 determines that the eyepiece 8a of the monitor 8 moves along the swing actuator 14b and the straight line so that the eyepiece 8a of the monitor 8 moves along a circle S centering on the center position P that curves the doctor D's neck.
  • the dynamic actuator 14a is operated synchronously, and when the angle ⁇ coincides with the angle ⁇ , the operations of both actuators 14a, 14b are stopped.
  • the doctor D can always observe the image displayed on the display from the eyepiece 8a with a comfortable posture by simply changing the tilt of the neck without moving other parts of the body.
  • the handle drive control unit 22 calculates the angle ⁇ of the optical axis 13a of the camera 13 of the endoscope 7 with respect to the horizontal plane 6A from the angles of the curved portions 7a and 7b detected by the encoder.
  • the handle driving unit 11 is controlled based on the angle ⁇ . That is, the handle drive control unit 22 determines that the angle ⁇ with respect to the horizontal horizontal plane connecting the eyepiece 8a and the grip 10a is the angle ⁇ with respect to the horizontal plane 6A of the optical axis 13a of the camera 13 as shown in FIG. Since the handle driving unit 11 is controlled so as to match, the doctor D viewing the image through the eyepiece 8a recognizes as if the treatment tool 6 on the image is always at the position of the grip 10a. be able to.
  • the moving direction of the treatment instrument 6 is a direction intersecting the display screen in the state of FIG.
  • the doctor D can move the treatment instrument 6 forward and backward by moving the grip 10a in a direction that matches the movement direction of the treatment instrument 6 on the image. Therefore, there is an advantage that the treatment tool 6 can be driven by an intuitive operation of the grip 10a, and the treatment of the affected area A can be facilitated.
  • a hard straight tubular member is exemplified as the outer tube 5, but the outer tube 5 is not limited to this, and the directions of the treatment instrument 6 and the endoscope 7 are changed integrally.
  • one having a curved portion (not shown) at an intermediate position in the longitudinal direction may be employed.
  • the bending direction of the bending portion of the outer tube 5 may be any of a horizontal direction, a vertical direction, and a combination thereof.
  • the monitor ⁇ controls the angle ⁇ of the optical axis 13a of the camera 13 with respect to the horizontal plane 6A based on the detection signal from the encoder provided in the motor that bends the bending portions 7a and 7b of the endoscope 7.
  • a common angle calculation unit 23 is arranged and the angle calculation unit 23 calculates the angle calculated by the angle calculation unit 23.
  • may be input to the monitor drive control unit 21 and the handle drive control unit 22.
  • the angle ⁇ of the monitor 8 and the angle ⁇ of the straight line connecting the eyepiece 8a and the grip 10a are set based on the first function and the second function that are direct proportional functions of the proportionality coefficient 1.
  • the first and second functions shown in FIG. 8 may be used.
  • the first and second functions in FIG. 8 are obtained by dividing the angle range (0 ° to 90 °) of the angle ⁇ of the optical axis 13a of the camera 13 into five regions, and in the central region (40 ° to 50 °). , And the angles ⁇ and ⁇ are expressed as direct proportional functions with a proportionality coefficient of 1, and in the four regions on both sides (0 ° to 20 °, 20 ° to 40 °, 50 ° to 70 °, 70 ° to 90 °), The inclination gradually decreases toward both ends of the angle range, and the angle range as a whole is a discontinuous function.
  • the chain line indicates the function of FIG.
  • first function and second function only need to be stored in the storage units 24 and 25 connected to the monitor drive control unit 21 and the handle drive control unit 22, respectively, as shown in FIG. Then, based on the angle ⁇ calculated by the angle calculation unit 23, the monitor drive control unit 21 and the handle drive control unit 22 are angled by the first function and the second function stored in the storage units 24 and 25. ⁇ and angle ⁇ may be calculated.
  • the angle of the bending portions 7a and 7b of the endoscope 7 is changed by the operation of the foot switch 12, and the angle ⁇ of the optical axis 13a of the camera 13 is changed in an angle range of 40 ° to 50 °.
  • the monitor drive control unit 21 and the handle drive control unit 22 control the angle ⁇ of the monitor 8 and the angle ⁇ of the straight line connecting the eyepiece 8a and the grip 10a to coincide with the angle ⁇ . Yes.
  • the monitor drive control unit 21 and the handle drive control unit 22 ⁇ is controlled to be a value obtained by multiplying the angle ⁇ by a proportional coefficient 0.5. Further, when the angle ⁇ of the optical axis 13a of the camera 13 changes in an angle range of 0 ° to 20 ° and 70 ° to 90 °, the monitor drive control unit 21 and the handle drive control unit 22 ⁇ is controlled to be a value obtained by multiplying the angle ⁇ by a proportional coefficient 0.1.
  • the proportionality coefficient is set to 1, 0.5, 0.1.
  • the present invention is not limited to this, and an arbitrary one can be adopted.
  • the area division of the angle range is not limited to the above division, and can be arbitrarily set. In the region located at the extreme end of the angle range, the angles ⁇ and ⁇ may not be changed regardless of the change in the angle ⁇ .
  • proportionality coefficient is changed discontinuously for each region, as shown in FIG. 10, a continuously changing function may be used without being divided into finite regions. Further, as shown in FIG. 11, a function proportional to a proportional coefficient smaller than 1 may be adopted over the entire angle range of the angle ⁇ . Even in this case, since the monitor 8 and the grip 10a are operated so that the relative positional relationship between the eyepiece 8a and the grip 10a approaches the relative positional relationship between the camera 13 and the treatment instrument 6, the operation of the grip 10a can be performed. Intuition is maintained.
  • first function and the second function are the same function, the present invention is not limited to this, and different functions may be used. Further, for either one of the first and second functions, a direct proportional function having a proportional coefficient 1 may be adopted.
  • the endoscope 7 of the direct view type in which the optical axis 13a of the camera 13 corresponds to the longitudinal direction of the endoscope 7 was illustrated as the endoscope 7, it is a side view type or a perspective type.
  • An endoscope 7 may be adopted. In this case, the relationship between the bending angle of the bending portions 7a and 7b of the endoscope 7 and the angle ⁇ of the optical axis 13a of the camera 13 is different.
  • the reading unit 26 that reads the format information provided in the endoscope 7 and the correction information storage unit 27 that stores the correction information in association with the format information are provided.
  • the calculation unit 23 may calculate the angle ⁇ using the correction information read from the correction information storage unit 27 using the format information read by the reading unit 26.
  • the master device 2 and the slave device 3 may be arranged close to each other and may be electrically connected to each other, or may be arranged remotely from each other to exchange signals by wireless transmission. Also good.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

被写体の観察方向を切り替えても、表示部に表示される処置具を直感的に操作する。 被写体を処置する処置部(6)と、被写体および処置部(6)を撮影する撮影部(13)と、該撮影部(13)により取得された画像を表示する表示部(8)と、該表示部(8)を支持して移動させる表示部駆動部(9)と、処置部(6)を操作する操作部(10)と、該操作部(10)を支持して移動させる操作部駆動部(11)と、表示部(8)と操作部(10)との相対位置関係を、処置部(6)と撮影部(13)との相対位置関係に近づけるように表示部駆動部(11)および操作部駆動部(12)を制御する制御部(4)とを備えるマニピュレータシステム(1)を提供する。

Description

マニピュレータシステム
 本発明は、マニピュレータシステムに関するものである。
 従来、内視鏡を移動可能に支持する支持手段によって内視鏡を移動させた場合に、該支持手段の移動量に基づいて、内視鏡画像を表示する表示部を覗き込む視線の延長線上に内視鏡先端部の光軸が配置されるように、表示部を移動させる観察装置が知られている(例えば、特許文献1参照。)。
 特許文献1の観察装置によれば、術者が内視鏡を直接操作して患者の体腔内の観察位置を変更した場合でも、特別な作業をすることなく手術作業に最適な姿勢を得ることができるという効果がある。
特開2003-230073号公報
 しかしながら、内視鏡の先端面から突出させた処置具は、術者が両手で操作ハンドルを操作することにより操作され、内視鏡の先端部に備えられた湾曲部は、通常、スイッチによって、術者が手足を大きく移動させることなく操作される。このため、湾曲部の湾曲の度合いを変化させて内視鏡の視野方向を変更すると、処置具を操作していなくても、表示部に表示される処置具の向きが変化してしまう。
 すなわち、湾曲部の操作前後において、処置具に同じ動作をさせる場合の操作ハンドルの移動方向は同一であるのに対し、表示部に表示される処置具の移動方向は変化するので、術者は、頭の中で、表示部内の処置具の前後左右方向がどちらであるのかを常に確認しながら操作ハンドルを操作しなければならず、直感的な操作を行うことができない。
 本発明は、上述した事情に鑑みてなされたものであって、被写体の観察方向を切り替えても、表示部に表示される処置具を直感的に操作することができるマニピュレータシステムを提供することを目的としている。
 上記目的を達成するために、本発明は以下の手段を提供する。
 本発明の一態様は、被写体を処置する処置部と、前記被写体および処置部を撮影する撮影部と、該撮影部により取得された画像を表示する表示部と、該表示部を支持して移動させる表示部駆動部と、前記処置部を操作する操作部と、該操作部を支持し1て移動させる操作部駆動部と、前記表示部と前記操作部との相対位置関係を、前記処置部と前記撮影部との相対位置関係に近づけるように前記表示部駆動部および前記操作部駆動部を制御する制御部とを備えるマニピュレータシステムを提供する。
 本態様によれば、被写体および処置部に対して撮影部を移動させることにより、被写体および処置部を撮影する方向を変化させると、処置部と撮影部との相対位置関係が変化するので、制御部が、表示部駆動部により表示部を移動させるとともに、操作部駆動部により操作部を移動させるように制御する。処置部に対する撮影部の位置変更により、表示部には、被写体および処置部を異なる角度から撮影した画像が表示される。
 この場合に、制御部が、表示部と操作部との相対位置関係を処置部と撮影部との相対位置関係に近づけるように表示部駆動部および操作部駆動部を制御するので、撮影部の位置変更の前後において、表示部に表示された画像中の処置部の移動方向に対する操作部の移動方向の相対関係が大きく変化してしまうことを抑えることができ、操作者が表示部に表示される処置部を直感的に操作し続けることができる。
 上記態様においては、前記撮影部による被写体の撮影角度を検出する検出部を備え、前記制御部が、検出部により検出された撮影角度に基づいて、前記表示部駆動部および前記操作部駆動部を制御してもよい。
 このようにすることで、検出部により検出された撮影部による被写体の撮影角度に基づいて、制御部が、表示部と操作部との相対位置関係を処置部と撮影部との相対位置関係に近づけるように表示部駆動部および操作部駆動部を制御することができる。
 また、上記態様においては、前記表示部駆動部が、前記表示部の法線の水平方向に対する角度である表示部角度を変化させてもよい。
 このようにすることで、撮影部が、被写体の撮影角度を変化させたときに、これに合わせて表示部角度を変化させることができる。これにより、表示部を見ている操作者は、自身の視界の変更によって被写体の観察方向を変更しているかのように感じることができ、被写体に対して、より直感的に処置を行うことができる。
 また、上記態様においては、前記操作部駆動部が、前記操作部と前記表示部とを結ぶ直線の水平方向に対する角度である操作部角度を変化させてもよい。
 このようにすることで、撮影部が、被写体の撮影角度を変化させたときに、これに合わせて操作部角度を変化させることができる。これにより、表示部に表示されている画像上で移動した処置部に合わせて、処置部を作動させるための操作部が移動するので、表示部を見ている操作者が被写体の観察方向の変化の前後において、処置部を所望の方向に移動させるための操作部の移動方向をより直感的に判断することができる。
 また、上記態様においては、前記制御部が、前記撮影角度と前記表示部角度とを一致させるように前記表示部駆動部を制御してもよい。
 また、上記態様においては、前記制御部が、前記撮影角度と前記操作部角度とを一致させるように前記操作部駆動部を制御してもよい。
 また、上記態様においては、前記操作部駆動部が、前記操作部と前記表示部とを結ぶ直線の水平方向に対する角度である操作部角度を変化させ、前記制御部が、前記撮影角度、前記操作部角度および前記表示部角度を一致させるように前記表示部駆動部および前記操作部駆動部を制御してもよい。
 このようにすることで、撮影部が、被写体の撮影角度を変化させたときに、これに一致させるように表示部角度および操作部角度を変化させることができる。
 また、上記態様においては、前記撮影角度と前記表示部角度との関係を示す第1の関数を記憶する関数記憶部を備え、前記制御部が、前記関数記憶部に記憶されている前記第1の関数に基づいて、前記表示部駆動部を制御してもよい。
 このようにすることで、関数記憶部に記憶されている第1の関数を用いて、簡易に表示部角度を決定することができ、処理を高速に行うことができる。
 また、上記態様においては、前記第1の関数が、前記撮影角度の角度範囲の両端に向かって傾きの小さくなる関数であってもよい。
 このようにすることで、撮影角度の変化に応じて第1の関数に従って表示部角度を変化させる場合に、撮影角度が大きく変化してその角度範囲の両端に近づくほど、表示部角度も大きく変化するが、角度範囲の両端に近づくほどその傾きを小さくすることにより、操作者に無理な姿勢を強いずに済む。
 また、上記態様においては、前記第1の関数が、前記撮影角度の全角度範囲にわたって、前記撮影角度の変化量に対する前記表示部角度の変化量が1以下となる関数であってもよい。
 このようにすることで、撮影角度の変化に応じて第1の関数に従って表示部角度を変化させる場合に、撮影角度が大きく変化してその角度範囲の両端に近づくほど、表示部角度も大きく変化するが、撮影角度の全角度範囲にわたってその傾きを1以下にすることにより、角度範囲の両端において操作者に無理な姿勢を強いずに済む。
 また、上記態様においては、前記撮影角度と前記操作部角度との関係を示す第2の関数を記憶する関数記憶部を備え、前記制御部が、前記関数記憶部に記憶されている前記第2の関数に基づいて、前記操作部駆動部を制御してもよい。
 このようにすることで、関数記憶部に記憶されている第2の関数を用いて、簡易に操作部角度を決定することができ、処理を高速に行うことができる。
 また、上記態様においては、前記第2の関数が、前記撮影角度の角度範囲の両端に向かって傾きの小さくなる関数であってもよい。
 このようにすることで、撮影角度の変化に応じて第2の関数に従って操作部角度を変化させる場合に、撮影角度が大きく変化してその角度範囲の両端に近づくほど、操作部角度も大きく変化するが、角度範囲の両端に近づくほどその傾きを小さくすることにより、操作者に無理な姿勢を強いずに済む。
 また、上記態様においては、前記第2の関数が、前記撮影角度の全角度範囲にわたって、前記撮影角度の変化量に対する前記操作部角度の変化量が1以下となる関数であってもよい。
 このようにすることで、撮影角度の変化に応じて第2の関数に従って操作部角度を変化させる場合に、撮影角度が大きく変化してその角度範囲の両端に近づくほど、操作部角度も大きく変化するが、撮影角度の全角度範囲にわたってその傾きを1以下にすることにより、角度範囲の両端において操作者に無理な姿勢を強いずに済む。
 本発明によれば、被写体の観察方向を切り替えても、表示部に表示される操作部を直感的に操作することができるという効果を奏する。
本発明の一実施形態に係るマニピュレータシステムの(a)マスタ装置、(b)スレーブ装置を示す図である。 図1のマニピュレータシステムに備えられたコントローラの一例を示すブロック図である。 図1のコントローラに備えられる角度αと角度β,γとの関係を示すグラフである。 図1のマニピュレータシステムの観察位置変更後の状態の(a)マスタ装置、(b)スレーブ装置を示す図である。 図1のマニピュレータシステムのモニタに表示される画像の一例であって、患部および処置具をより浅い角度で観察している画像を示す図である。 図4の状態より深き角度で観察している場合の患部および処置具の画像を示す図である。 図1のマニピュレータシステムのコントローラの変形例を示すブロック図である。 図1のマニピュレータシステムのコントローラに備えられる第1,第2の関数の変形例を示す図である。 図7の第1の関数および図8の第2の関数を備えるコントローラを示すブロック図である。 図7の第1の関数および図8の第2の関数の変形例を示すグラフである。 図7の第1の関数および図8の第2の関数の他の変形例を示すグラフである。 図2のコントローラの他の変形例を示すブロック図である。
 本発明の一実施形態に係るマニピュレータシステム1について、図面を参照して以下に説明する。
 本実施形態に係るマニピュレータシステム1は、医療用のマニピュレータシステム1であって、図1(a)に示されるマスタ装置2と、図1(b)に示されるスレーブ装置3と、これらを制御するコントローラ(制御部)4とを備えている。
 スレーブ装置3は、患者の体内に挿入される硬質材料からなる円筒状の外套管5と、該外套管5の先端開口から突出させられて患者の体内の患部(被写体)Aを処置する処置具(処置部)6と、外套管5の先端開口から突出させられて患部Aおよび処置具6を撮影するための内視鏡7とを備えている。
 マスタ装置2は、内視鏡7により取得された画像を表示するモニタ(表示部)8と、モニタ8を移動させるモニタ駆動部9と、処置具6を操作するハンドル(操作部)10と、ハンドル10を移動させるハンドル駆動部11と、フットスイッチ12とを備えている。
 処置具6は、患部Aを処置する鉗子6aと、該鉗子6aを先端に取り付けた図示しない1以上の関節を有する処置具アーム6bとを備えている。処置具アーム6bは関節を伸縮させることにより、先端の鉗子6aを外套管5の長手方向に進退させることができるようになっている。処置具6は、医師Dの両手でそれぞれ操作されるように左右一対(図中1つのみ表示している。)設けられている。
 処置具アーム6bおよび鉗子6aには図示しないモータ等が備えられており、コントローラ4によって制御されるようになっている。
 内視鏡7は、先端に配置された図示しない照明部およびカメラ(撮影部)13を備え、カメラ13の基端側に長手方向に間隔をあけて配置された2つの湾曲部7a,7bを備えている。これら2つの湾曲部7a,7bは、図1(b)に示されるように、2つの処置具6の配置される平面(本実施形態においては水平面)6Aに直交する平面内において湾曲するように構成され、カメラ13の光軸13aを上記平面6Aに対して交差させ、かつその交差角度αを調節することができるようになっている。
 内視鏡7には、該内視鏡7の湾曲部7a,7bを湾曲させるための図示しないモータおよび外套管5に対してその長手方向に進退させる図示しないモータが備えられ、各モータには、各湾曲部7a,7bの湾曲角度および外套管5の長手方向に沿う移動距離を検出するエンコーダ(検出部)が設けられている。各モータはコントローラ4によって制御されるようになっている。モニタ8は、内視鏡7のカメラ13により取得された画像を表示するディスプレイ(図示略)と接眼部8aとを備えている。
 モニタ駆動部9は、モニタ8を支持するモニタ用アーム14と、該モニタ用アーム14を地面に固定された支持フレーム15に対して水平方向および鉛直方向に移動させる直動アクチュエータ16とを備えている。モニタ用アーム14は、モニタ8を水平軸線回りに揺動可能に支持する支持するベース部14aと、該ベース部14aに対してモニタ8を揺動させる揺動アクチュエータ14bとを備えている。
 ハンドル10は、医師Dの両手によって操作されるように左右一対設けられ、医師Dの両手によって独立に把持されるグリップ10aと、該グリップ10aの位置を水平方向に進退させる1以上の関節を備えた操作アーム10bとを備えている。
 グリップ10aには、把持の度合いを検出する図示しない把持検出部が備えられ、操作アーム10bにはグリップ10aの水平方向位置を検出する図示しない位置検出部が備えられている。
 ハンドル駆動部11は、支持フレーム15に対して操作アーム10bを水平方向および鉛直方向に移動させる直動アクチュエータ17を備えている。
 フットスイッチ12は、医師Dが足により操作するもので、その踏み込み量を調節することができるようになっている。
 コントローラ4は、図2に示されるように、内視鏡7のカメラ13により取得された画像信号に基づいて画像を生成し、モニタ8に出力する画像生成部18を備えている。
 また、コントローラ4は、フットスイッチ12の踏み込み量に基づいて内視鏡7の各モータの作動量を算出し、各モータに指令する内視鏡制御部19を備えている。内視鏡制御部19は、例えば、医師がフットスイッチ12を踏み込むと、内視鏡7を長手方向に前進させるとともに各湾曲部7a,7bの湾曲角度を増大させるようになっている。これにより、カメラ13の光軸13aは、患部に交差させられたままの状態で、水平面6Aに対する角度αを増大させられるようになっている。
 また、コントローラ4は、医師Dによるハンドル10の操作量に基づいて、処置具アーム6bおよび鉗子6aの各モータの作動量を算出し、各モータに指令する処置具制御部20を備えている。
 処置具制御部20は、例えば、医師Dがハンドル10のグリップ10aを把持していくと、鉗子6aが閉じられ、グリップ10aを解放していくと、鉗子6aが開かれるように鉗子6aのモータを制御するようになっている。
 また、処置具制御部20は、医師Dがハンドル10を水平方向に前進させると、位置検出部により検出された水平方向の移動量に基づいて、鉗子6aの位置を前進させる移動量を算出し、処置具アーム6bの関節を伸ばして、鉗子6aの位置を前進させるようになっている。
 また、コントローラ4は、内視鏡7のモータに備えられたエンコーダにより検出された2つの湾曲部7a,7bの湾曲角度が入力されて、モニタ駆動部9を制御するモニタ駆動制御部21と、ハンドル駆動部11を制御するハンドル駆動制御部22とを備えている。
 モニタ駆動制御部21は、2つの湾曲部7a,7bの湾曲角度に基づいて、カメラ13の光軸13aが水平面6Aに対してなす角度αを算出し、モニタ8の接眼部8aの光軸が水平面に対してなす角度βをカメラ13の光軸13aの角度αに一致させるようにモニタ駆動部9を制御するようになっている。
 すなわち、本実施形態においては、モニタ駆動制御部21は、角度αと角度βとが、図3に示されるような正比例の関係で変化する関数(第1の関数)に基づいて変化するように、モニタ駆動部9を制御するようになっている。
 また、モニタ駆動制御部21は、揺動アクチュエータ14bを作動させてモニタ用アーム14のベース部14aに対するモニタ8の角度βを、カメラ13の光軸13aの角度αに一致するように制御するだけでなく、これとともに、直動アクチュエータ16を作動させて、支持フレーム15に対するモニタ用アーム14の水平方向および鉛直方向位置を調節するようになっている。
 すなわち、本実施形態においては、図1(a)に示されるように、モニタ駆動制御部21は、医師Dの首の位置に配置される頭部の回転中心Pの位置座標を記憶している。そして、モニタ駆動制御部21は、この回転中心Pを中心とした鉛直面内の円Sに沿ってモニタ8の接眼部8aが移動するように、揺動アクチュエータ14bと直動アクチュエータ16とを同期して作動させるようになっている。
 また、ハンドル駆動制御部22は、モニタ8の接眼部8aとグリップ10aとの相対位置関係が、カメラ13と処置具6との相対位置関係に一致するようにハンドル駆動部11を制御するようになっている。ここで、相対位置関係が一致するとは、カメラ13の光軸13aと水平面6Aとの角度αが、接眼部8aとグリップ10aとを結ぶ直線と水平面との角度γと略一致することを意味し、角度αと角度γとが、図3に示されるような正比例の関係で変化する関数(第2の関数)に基づいて変化するように、ハンドル駆動部11を制御するようになっている。
 本実施形態においては、ハンドル駆動制御部22は、上述したように角度αと角度γとが一致し、かつ、カメラ13と処置具6との距離と接眼部8aとグリップ10aとの距離との比が、一定となる(例えば、1:10となる)ようにハンドル駆動部11を制御するようになっている。
 これにより、図1(a)に示されるように、カメラ13の光軸13aの水平面6Aに対する角度αと一致する角度βで傾斜したモニタ8の接眼部8aの光軸の延長上にグリップ10aが配置されるようになっている。
 このように構成された本実施形態に係るマニピュレータシステム1の作用について、以下に説明する。
 本実施形態に係るマニピュレータシステム1を用いて医師Dが患者の患部Aを処置する場合には、スレーブ装置3の内視鏡7および処置具6を患者の体内の患部Aに近接して配置し、内視鏡7のカメラ13により患部Aおよび処置具6を撮影する。
 内視鏡7により取得された画像情報は、コントローラ4の画像生成部18に送られ、画像生成部18においてモニタ8に表示される画像が生成される。生成された画像はマスタ装置2のモニタ8に送られて、モニタ8に備えられたディスプレイに表示される。
 また、医師Dは、マスタ装置2のグリップ10aを握り、フットスイッチ12に足をおくとともに、モニタ8の接眼部8aに眼をあてて、ディスプレイに表示されている画像を観察する。モニタ駆動制御部21は、カメラ13の光軸13aの角度αとモニタ8の角度βとを一致させ、かつ、接眼部8aが予め記憶されている医師Dの首の回転中心Pを中心とした医師Dの眼を通過する円S上に配置されるようにモニタ駆動部9を制御する。これにより、医師Dが接眼部8aに眼をあてると、自然な姿勢で、ディスプレイに表示された画像を観察することができる。
 また、ハンドル駆動制御部22は、接眼部8aとグリップ10aとを結ぶ直線の水平面に対する角度γが、カメラ13の光軸13aの水平面6Aに対する角度αと一致するようにハンドル駆動部11を制御するので、接眼部8aを介して画像を見ている医師Dは、両手で把持しているグリップ10aがあたかも画像上の処置具6と同じものであるかのように認識することができる。
 すなわち、医師Dが両手で把持しているグリップ10aの把持の度合いを変化させることにより、これに同期させて画像内の処置具6を開閉することができ、画像上の処置具6の前後方向に一致する方向にグリップ10aを押し引きすると、グリップ10aが前後方向に動き、これに同期させて画像内の処置具6を前後に移動させることができる。
 また、医師Dが患部Aおよび処置具6の観察角度を変更したい場合には、フットスイッチ12を足で操作する。これにより、フットスイッチ12の踏み込み量がコントローラ4内の内視鏡制御部19に送信され、内視鏡制御部12が、踏み込み量に応じて内視鏡7の2つの湾曲部7a,7bの湾曲角度を変化させる。例えば、図1(b)に示される状態から、フットスイッチ12の踏み込み量を変化させると、図4(b)に示されるように、カメラ13の光軸13aの水平面6Aに対する角度αが大きくなるように2つの湾曲部7a,7bの湾曲角度が変化する。
 その結果、モニタ8内のディスプレイに表示される画像は、図5の状態から図6の状態に変化する。
 そして、内視鏡7の湾曲部7a,7bの湾曲角度が変化すると、湾曲部7a,7bを駆動するモータのエンコーダにより検出された角度がモニタ駆動制御部21およびハンドル駆動制御部22に送られる。
 モニタ駆動制御部21は、エンコーダにより検出された各湾曲部7a,7bの角度から内視鏡7のカメラ13の光軸13aの水平面6Aに対する角度αを算出し、該角度αに基づいて、モニタ8の揺動角度βを角度αに一致するように揺動アクチュエータ14bを作動させる。画像における患部Aおよび処置具6の観察方向の変化に合わせて、図4(a)に示されるように、モニタ8の揺動角度βを変化させることで、あたかも自身の視線の方向を変えることで患部A等の観察方向を変えたかのように医師Dに感じさせることができ、処置具6のより直感的な操作を可能にすることができる。
 この場合において、モニタ駆動制御部21は、モニタ8の接眼部8aが、医師Dの首を湾曲させる中心位置Pを中心とした円Sに沿って移動するように、揺動アクチュエータ14bおよび直動アクチュエータ14aを同期して作動させ、角度βが角度αに一致した時点で、両アクチュエータ14a,14bの作動を停止する。これにより、医師Dは、身体の他の部分を動かすことなく首の傾きを変えるだけで、常に、無理のない姿勢で接眼部8aからディスプレイに表示された画像を観察することができる。
 さらに、本実施形態によれば、ハンドル駆動制御部22が、エンコーダにより検出された各湾曲部7a,7bの角度から内視鏡7のカメラ13の光軸13aの水平面6Aに対する角度αを算出し、該角度αに基づいて、ハンドル駆動部11を制御する。すなわち、ハンドル駆動制御部22は、接眼部8aとグリップ10aとを結ぶ直線の水平面に対する角度γが、図4(a)に示されるように、カメラ13の光軸13aの水平面6Aに対する角度αと一致するようにハンドル駆動部11を制御するので、接眼部8aを介して画像を見ている医師Dは、画像上の処置具6が常にグリップ10aの位置にあるかのように認識することができる。
 さらに具体的には、接眼部8aを介してディスプレイに表示された画像を見ている医師Dにとって、処置具6の移動方向は、図5の状態では、ディスプレイ画面に交差する方向であったのに対し、図6の状態では、よりディスプレイ画面に沿う方向に変化している。そして、医師Dはグリップ10aを画像上の処置具6の移動方向に一致する方向に移動させることにより、処置具6を進退させることができる。したがって、グリップ10aの直感的な操作により処置具6を駆動させることができ、患部Aの処置をより容易にすることができるという利点がある。
 なお、本実施形態においては、外套管5として、硬質な直管状の部材を例示したが、これに限定されるものではなく、処置具6および内視鏡7の方向を一体的に変化させるように、長手方向の途中位置に湾曲部(図示略)を有するものを採用してもよい。外套管5の湾曲部の湾曲方向は、水平方向、鉛直方向およびこれらを組み合わせた方向のいずれであってもよい。
 また、本実施形態においては、内視鏡7の湾曲部7a,7bを湾曲させるモータに備えられたエンコーダによる検出信号に基づいて、カメラ13の光軸13aの水平面6Aに対する角度αをモニタ駆動制御部21およびハンドル駆動制御部22がそれぞれ算出することとしたが、これに代えて、図7に示されるように、共通の角度算出部23を配置し、該角度算出部23により算出された角度αをモニタ駆動制御部21およびハンドル駆動制御部22に入力することにしてもよい。
 また、本実施形態においては、比例係数1の正比例関数である第1の関数および第2の関数に基づいて、モニタ8の角度βおよび接眼部8aとグリップ10aとを結ぶ直線の角度γを調節することとしたが、これに代えて、図8に示される第1、第2の関数を使用してもよい。
 図8の第1、第2の関数は、カメラ13の光軸13aの角度αの角度範囲(0°~90°)が5つの領域に区画され、中央の領域(40°~50°)において、角度β,γが比例係数1の正比例関数として表され、その両側の4つの領域(0°~20°、20°~40°、50°~70°、70°~90°)においては、角度範囲の両端に向かうに従って傾きが徐々に小さくなり、角度範囲全体としては不連続な関数となっている。図中、鎖線は、比例係数1で正比例する図3の関数を示している。
 これら第1の関数および第2の関数は、それぞれ、図9に示されるように、モニタ駆動制御部21およびハンドル駆動制御部22に接続される記憶部24,25に記憶されていればよい。そして、角度算出部23により算出された角度αに基づいて、モニタ駆動制御部21およびハンドル駆動制御部22が記憶部24,25内に記憶されている第1の関数および第2の関数によって角度βおよび角度γを算出することにしてもよい。
 図8に示す例では、フットスイッチ12の操作によって内視鏡7の湾曲部7a,7bの角度が変化し、カメラ13の光軸13aの角度αが40°~50°の角度範囲で変化する場合には、モニタ駆動制御部21およびハンドル駆動制御部22はモニタ8の角度βおよび接眼部8aとグリップ10aとを結ぶ直線の角度γを角度αに一致させるように制御するようになっている。
 また、カメラ13の光軸13aの角度αが20°~40°、50°~70°の角度範囲で変化する場合には、モニタ駆動制御部21およびハンドル駆動制御部22は、角度βおよび角度γを角度αに比例係数0.5を乗算した値となるように制御するようになっている。さらに、カメラ13の光軸13aの角度αが0°~20°、70°~90°の角度範囲で変化する場合には、モニタ駆動制御部21およびハンドル駆動制御部22は、角度βおよび角度γを角度αに比例係数0.1を乗算した値となるように制御するようになっている。
 図3に示されるように、角度αの全角度範囲にわたって、角度β,γが比例係数1で正比例する場合には、角度αがその角度範囲の両端に近づくほど、グリップ10aが医師Dの身体から離れすぎたり近づき過ぎたりして、医師Dの姿勢が窮屈になる。これに対して、図8の第1の関数および第2の関数を使用することにより、角度αの角度範囲の両端におけるモニタ8およびグリップ10aの移動量が少なくなる。これにより、グリップ10aの直感的な操作を可能としながら、姿勢が窮屈になり過ぎないようにすることができるという利点がある。
 なお、本実施形態においては、比例係数を1,0.5,0.1としたが、これに限定されるものではなく、任意のものを採用することができる。
 また、角度範囲の領域分割についても、上記分割に限定されるものではなく任意に設定することができる。
 また、角度範囲の最も端に位置する領域においては、角度αの変化に関わらず、角度β、γを変化させないことにしてもよい。
 また、領域毎に比例係数を不連続に変化させることとしたが、図10に示されるように、有限の領域に分けることなく、連続的に変化する関数を使用してもよい。
 また、図11に示されるように、角度αの全角度範囲にわたって、1より小さい比例係数で比例する関数を採用してもよい。このようにしても、接眼部8aとグリップ10aとの相対位置関係がカメラ13と処置具6との相対位置関係に近づくようにモニタ8およびグリップ10aが作動させられるので、グリップ10aの操作の直感性は維持される。
 また、第1の関数および第2の関数を同じ関数としたが、これに限定されるものではなく、異なる関数を使用してもよい。また、第1,第2の関数のいずれか一方については、比例係数1の正比例関数を採用してもよい。
 また、上記実施形態においては、内視鏡7として、カメラ13の光軸13aが内視鏡7の長手方向に一致する直視形式の内視鏡7を例示したが、側視形式または斜視形式の内視鏡7を採用してもよい。この場合に、内視鏡7の湾曲部7a,7bの湾曲角度とカメラ13の光軸13aの角度αとの関係はそれぞれ異なる。
 そこで、図12に示されるように、内視鏡7に備えられた形式情報を読み取る読み取り部26と、形式情報に対応づけて補正情報を記憶する補正情報記憶部27とを備えていて、角度算出部23が、該読み取り部26によって読み取られた形式情報を用いて補正情報記憶部27内から読み出した補正情報を用いて角度αを算出することにしてもよい。
 また、マスタ装置2とスレーブ装置3とは相互に近接して配置され、相互に電気的に接続されていてもよいし、相互に遠隔に配置され、無線送信によって信号の授受を行うことにしてもよい。
 A 患部(被写体)
 α 角度(撮影角度)
 β 角度(表示部角度)
 γ 角度(操作部角度)
 1 マニピュレータシステム
 4 コントローラ(制御部)
 6 処置具(処置部)
 8 モニタ(表示部)
 9 モニタ駆動部(表示部駆動部)
 10 ハンドル(操作部)
 11 ハンドル駆動部(操作部駆動部)
 13 カメラ(撮影部)
 24,25 記憶部(関数記憶部)

Claims (13)

  1.  被写体を処置する処置部と、
     前記被写体および処置部を撮影する撮影部と、
     該撮影部により取得された画像を表示する表示部と、
     該表示部を支持して移動させる表示部駆動部と、
     前記処置部を操作する操作部と、
     該操作部を支持して移動させる操作部駆動部と、
     前記表示部と前記操作部との相対位置関係を、前記処置部と前記撮影部との相対位置関係に近づけるように前記表示部駆動部および前記操作部駆動部を制御する制御部とを備えるマニピュレータシステム。
  2.  前記撮影部による被写体の撮影角度を検出する検出部を備え、
     前記制御部が、検出部により検出された撮影角度に基づいて、前記表示部駆動部および前記操作部駆動部を制御する請求項1に記載のマニピュレータシステム。
  3.  前記表示部駆動部が、前記表示部の法線の水平方向に対する角度である表示部角度を変化させる請求項2に記載のマニピュレータシステム。
  4.  前記操作部駆動部が、前記操作部と前記表示部とを結ぶ直線の水平方向に対する角度である操作部角度を変化させる請求項2または請求項3に記載のマニピュレータシステム。
  5.  前記制御部が、前記撮影角度と前記表示部角度とを一致させるように前記表示部駆動部を制御する請求項3に記載のマニピュレータシステム。
  6.  前記制御部が、前記撮影角度と前記操作部角度とを一致させるように前記操作部駆動部を制御する請求項4に記載のマニピュレータシステム。
  7.  前記操作部駆動部が、前記操作部と前記表示部とを結ぶ直線の水平方向に対する角度である操作部角度を変化させ、
     前記制御部が、前記撮影角度、前記操作部角度および前記表示部角度を一致させるように前記表示部駆動部および前記操作部駆動部を制御する請求項3に記載のマニピュレータシステム。
  8.  前記撮影角度と前記表示部角度との関係を示す第1の関数を記憶する関数記憶部を備え、
     前記制御部が、前記関数記憶部に記憶されている前記第1の関数に基づいて、前記表示部駆動部を制御する請求項3に記載のマニピュレータシステム。
  9.  前記第1の関数が、前記撮影角度の角度範囲の両端に向かって傾きの小さくなる関数である請求項8に記載のマニピュレータシステム。
  10.  前記第1の関数が、前記撮影角度の全角度範囲にわたって、前記撮影角度の変化量に対する前記表示部角度の変化量が1以下となる関数である請求項8に記載のマニピュレータシステム。
  11.  前記撮影角度と前記操作部角度との関係を示す第2の関数を記憶する関数記憶部を備え、
     前記制御部が、前記関数記憶部に記憶されている前記第2の関数に基づいて、前記操作部駆動部を制御する請求項4に記載のマニピュレータシステム。
  12.  前記第2の関数が、前記撮影角度の角度範囲の両端に向かって傾きの小さくなる関数である請求項11に記載のマニピュレータシステム。
  13.  前記第2の関数が、前記撮影角度の全角度範囲にわたって、前記撮影角度の変化量に対する前記操作部角度の変化量が1以下となる関数である請求項11に記載のマニピュレータシステム。
PCT/JP2013/062071 2012-06-14 2013-04-24 マニピュレータシステム WO2013187136A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380031050.XA CN104394751B (zh) 2012-06-14 2013-04-24 机械手系统
EP13804620.6A EP2862497B1 (en) 2012-06-14 2013-04-24 Manipulator system
US14/520,857 US20150038984A1 (en) 2012-06-14 2014-10-22 Manipulator system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012134687A JP5941762B2 (ja) 2012-06-14 2012-06-14 マニピュレータシステム
JP2012-134687 2012-06-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/520,857 Continuation US20150038984A1 (en) 2012-06-14 2014-10-22 Manipulator system

Publications (1)

Publication Number Publication Date
WO2013187136A1 true WO2013187136A1 (ja) 2013-12-19

Family

ID=49757971

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/062071 WO2013187136A1 (ja) 2012-06-14 2013-04-24 マニピュレータシステム

Country Status (5)

Country Link
US (1) US20150038984A1 (ja)
EP (1) EP2862497B1 (ja)
JP (1) JP5941762B2 (ja)
CN (1) CN104394751B (ja)
WO (1) WO2013187136A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3139843A4 (en) * 2014-05-05 2018-05-30 Vicarious Surgical Inc. Virtual reality surgical device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6104479B2 (ja) * 2015-02-26 2017-03-29 オリンパス株式会社 マニピュレータシステム
WO2018148394A1 (en) 2017-02-09 2018-08-16 Vicarious Surgical Inc. Virtual reality surgical tools system
EP3636198A4 (en) 2017-06-08 2020-06-24 Medicaroid Corporation REMOTE OPERATION TERMINAL AND REMOTE OPERATION SYSTEM
WO2018225818A1 (ja) * 2017-06-08 2018-12-13 株式会社メディカロイド 遠隔操作装置、表示装置、遠隔操作システム、手術支援システムおよび遠隔操作装置の表示装置の交換方法
CA3075692A1 (en) 2017-09-14 2019-03-21 Vicarious Surgical Inc. Virtual reality surgical camera system
CN109498162B (zh) * 2018-12-20 2023-11-03 深圳市精锋医疗科技股份有限公司 提升沉浸感的主操作台及手术机器人
CN109498163B (zh) * 2018-12-20 2023-07-14 深圳市精锋医疗科技股份有限公司 主操作台及手术机器人

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08224248A (ja) * 1995-02-23 1996-09-03 Olympus Optical Co Ltd 医療用マニピュレータ
JP2003230073A (ja) 2002-02-01 2003-08-15 Olympus Optical Co Ltd 観察装置
WO2011060187A1 (en) * 2009-11-13 2011-05-19 Intuitive Surgical Operations, Inc. A master finger tracking device and method of use in a minimally invasive surgical system

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963792B1 (en) * 1992-01-21 2005-11-08 Sri International Surgical method
US6731988B1 (en) * 1992-01-21 2004-05-04 Sri International System and method for remote endoscopic surgery
JP3402797B2 (ja) * 1994-11-07 2003-05-06 オリンパス光学工業株式会社 内視鏡用画像表示システム
US6318864B1 (en) * 1994-11-15 2001-11-20 Olympus Optical Co., Ltd. Sterile instruments cover for use on surgical microscopes
US8206406B2 (en) * 1996-12-12 2012-06-26 Intuitive Surgical Operations, Inc. Disposable sterile surgical adaptor
US6286794B1 (en) * 1999-06-14 2001-09-11 Bradley Harbin Ergonomic computer mounting device permitting extensive vertical, horizontal and angular ranges of motion
US8004229B2 (en) * 2005-05-19 2011-08-23 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US8253779B2 (en) * 2000-10-11 2012-08-28 University of Pittsbugh—Of The Commonwealth System of Higher Education System for remote guidance by expert for imaging device
US8211020B2 (en) * 2000-10-11 2012-07-03 University of Pittsburgh—of the Commonwealth System of Higher Education Combining tomographic images in situ with direct vision in sterile environments
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US20040097791A1 (en) * 2002-11-13 2004-05-20 Olympus Corporation Endoscope
JP2006509256A (ja) * 2002-12-06 2006-03-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 装置の自動位置決めに関する機器及び方法
US8118732B2 (en) * 2003-04-01 2012-02-21 Boston Scientific Scimed, Inc. Force feedback control system for video endoscope
JP2005245961A (ja) * 2004-03-08 2005-09-15 Olympus Corp 画像処理装置
JP2006042913A (ja) * 2004-07-30 2006-02-16 Olympus Corp 画像観察装置
WO2007097034A1 (ja) * 2006-02-27 2007-08-30 Olympus Medical Systems Corp. 内視鏡外科手術器具
US7841980B2 (en) * 2006-05-11 2010-11-30 Olympus Medical Systems Corp. Treatment system, trocar, treatment method and calibration method
JP4911701B2 (ja) * 2007-01-19 2012-04-04 株式会社日立製作所 マスタ・スレーブ式マニピュレータシステム
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
KR100936928B1 (ko) * 2008-07-25 2010-01-20 (주)미래컴퍼니 수술용 로봇
US8120301B2 (en) * 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
JP5825753B2 (ja) * 2009-11-17 2015-12-02 富士フイルム株式会社 生検装置
US9259289B2 (en) * 2011-05-13 2016-02-16 Intuitive Surgical Operations, Inc. Estimation of a position and orientation of a frame used in controlling movement of a tool
US10314559B2 (en) * 2013-03-14 2019-06-11 Inneroptic Technology, Inc. Medical device guidance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08224248A (ja) * 1995-02-23 1996-09-03 Olympus Optical Co Ltd 医療用マニピュレータ
JP2003230073A (ja) 2002-02-01 2003-08-15 Olympus Optical Co Ltd 観察装置
WO2011060187A1 (en) * 2009-11-13 2011-05-19 Intuitive Surgical Operations, Inc. A master finger tracking device and method of use in a minimally invasive surgical system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2862497A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3139843A4 (en) * 2014-05-05 2018-05-30 Vicarious Surgical Inc. Virtual reality surgical device
US11744660B2 (en) 2014-05-05 2023-09-05 Vicarious Surgical Inc. Virtual reality surgical device

Also Published As

Publication number Publication date
CN104394751B (zh) 2017-07-11
JP2013255736A (ja) 2013-12-26
EP2862497A4 (en) 2016-03-09
JP5941762B2 (ja) 2016-06-29
EP2862497B1 (en) 2018-03-21
CN104394751A (zh) 2015-03-04
EP2862497A1 (en) 2015-04-22
US20150038984A1 (en) 2015-02-05

Similar Documents

Publication Publication Date Title
JP5941762B2 (ja) マニピュレータシステム
JP7248554B2 (ja) イメージング器具の向きの制御のためのシステム及び方法
JP7081584B2 (ja) 医療用観察システム、制御装置及び制御方法
US8315720B2 (en) Method for graphically providing continuous change of state directions to a user of a medical robotic system
US8335590B2 (en) System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device
JP4744595B2 (ja) 内視鏡外科手術器具
JP6203249B2 (ja) マスタスレーブシステム
EP2092874B1 (en) Manipulator operation system
JP2020039934A (ja) 外科用器具可視性のロボット制御
JP7015256B2 (ja) コンピュータ支援遠隔操作システムにおける補助器具制御
JP2017104455A (ja) 遠隔操作装置及び遠隔手術システム
JP2016502411A (ja) 内視鏡装置の制御方法および内視鏡装置
JP6132904B2 (ja) マスタスレーブシステムとその作動方法
JP2020044354A (ja) 遠隔操作装置および遠隔操作システム
CN114126532A (zh) 可移动显示系统
JP6097390B2 (ja) 医療用マニピュレータ
JP6778326B2 (ja) マスタ操作入力装置およびマスタスレーブマニピュレータ
JP2022545684A (ja) トラック上の移動可能なディスプレイユニット
JP2018075395A (ja) 遠隔操作装置及び遠隔手術システム
JP2024009700A (ja) 手術システムおよび手術システムの動作方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13804620

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE