WO2017130567A1 - 医療用安全制御装置、医療用安全制御方法、及び医療用支援システム - Google Patents

医療用安全制御装置、医療用安全制御方法、及び医療用支援システム Download PDF

Info

Publication number
WO2017130567A1
WO2017130567A1 PCT/JP2016/085891 JP2016085891W WO2017130567A1 WO 2017130567 A1 WO2017130567 A1 WO 2017130567A1 JP 2016085891 W JP2016085891 W JP 2016085891W WO 2017130567 A1 WO2017130567 A1 WO 2017130567A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
unit
arm
safety control
surgical instrument
Prior art date
Application number
PCT/JP2016/085891
Other languages
English (en)
French (fr)
Inventor
亘 小久保
前田 毅
竜己 坂口
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2017563725A priority Critical patent/JPWO2017130567A1/ja
Priority to DE112016006299.0T priority patent/DE112016006299T5/de
Priority to US16/063,550 priority patent/US11058509B2/en
Publication of WO2017130567A1 publication Critical patent/WO2017130567A1/ja
Priority to US17/359,647 priority patent/US20210322125A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/03Automatic limiting or abutting means, e.g. for safety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/03Automatic limiting or abutting means, e.g. for safety
    • A61B2090/033Abutting means, stops, e.g. abutting on tissue or skin
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases

Definitions

  • the present disclosure relates to a medical safety control device, a medical safety control method, and a medical support system.
  • support arm devices are being used in medical settings to support examinations and operations. For example, an image taken by an observation instrument for supporting an observation instrument for enlarging an operation part such as an endoscope or an electronic imaging microscope (video microscope) by an arm part of a support arm device.
  • An image taken by an observation instrument for supporting an observation instrument for enlarging an operation part such as an endoscope or an electronic imaging microscope (video microscope) by an arm part of a support arm device A method has been proposed in which doctors perform examinations and operations while watching the above.
  • a method has also been proposed in which a treatment tool such as a forceps or a retractor is provided at the tip of the arm portion, and the support arm device performs support and operation of the treatment tool that has been performed manually.
  • Patent Document 1 a surgical instrument (observation instrument or treatment instrument described above) is supported by a manipulator, and MRI (Magnetic Resonance Imaging) acquired in advance when performing surgery by operating the manipulator. And 3D information of the living tissue in the patient's body cavity from the information of CT (Computed Tomography), and the position of the surgical tool during the operation is detected, and the living tissue generated from the 3D information on the display device And a technique for displaying the position of the surgical tool with respect to the living tissue. Furthermore, in the technique described in Patent Document 1, a warning is issued when the surgical instrument leaves a preset region or route.
  • CT Computer Tomography
  • the user can always grasp the relative positional relationship between the surgical site and the surgical instrument, and for example, when the surgical instrument is removed from the entry path into the body cavity, a warning is issued. As a result, the operation of the surgeon is supported.
  • the present disclosure provides a new and improved medical safety control device, medical safety control method, and medical support system that can further improve safety in medical practice.
  • a medical safety control device that issues a restriction operation instruction for restricting an operation of an arm portion of a support arm device that supports a tool.
  • a medical safety control method including issuing a restriction operation instruction for restricting an operation of an arm portion of a support arm device that supports the surgical instrument.
  • a treatment arm is supported on a patient's living tissue with the support arm unit that supports the surgical tool by the arm unit, the arm control unit that controls driving of the support arm unit, and the surgical tool. Based on a distance between the surgical tool and the biological tissue, which is a distance between the surgical tool and the biological tissue detected during the period, a restriction operation instruction for limiting the operation of the arm unit is issued to the arm control unit.
  • a medical support system comprising a medical safety control unit is provided.
  • the distance between the surgical tool and the biological tissue which is the distance between the surgical tool and the biological tissue
  • a restriction operation instruction for limiting the operation of the arm portion of the support arm device that supports the surgical tool is issued.
  • a restriction operation instruction is issued to the arm unit supporting the surgical tool according to the positional relationship between the latest surgical tool and the biological tissue. Therefore, safety in medical practice can be further improved.
  • the present technology is not limited to such an example, and can be applied to medical practices (such as various examinations and operations) performed by supporting a surgical instrument (observation instrument and / or treatment instrument) with a support arm device.
  • medical practices such as various examinations and operations
  • “user” means at least one of medical staff using an endoscopic operation system (operator performing surgery, scoopist operating an endoscope, assistant, etc.). And Only when it is particularly necessary to distinguish, the user is described as an operator or a scopist.
  • FIG. 1 is a diagram illustrating a configuration example of an endoscopic surgery system according to the present embodiment.
  • FIG. 1 shows a state in which an operator (doctor) 3501 is performing an operation on a patient 3505 on a patient bed 3503 using an endoscopic operation system 3000.
  • an endoscopic surgery system 3000 includes an endoscope 3100, other surgical tools 3200, a support arm device 3300 that supports the endoscope 3100, and various devices for endoscopic surgery. And a cart 3400 on which is mounted.
  • trocars 3207a to 3207d are punctured into the abdominal wall. Then, the lens barrel 3101 of the endoscope 3100 and other surgical tools 3200 are inserted into the body cavity of the patient 3505 from the trocars 3207a to 3207d.
  • an insufflation tube 3201, an energy treatment tool 3203, and forceps 3205 are inserted into the body cavity of the patient 3505.
  • the energy treatment device 3203 is a treatment device that performs incision and detachment of a tissue, sealing of a blood vessel, and the like by high-frequency current and ultrasonic vibration.
  • the illustrated surgical tool 3200 is merely an example, and as the surgical tool 3200, for example, various surgical tools generally used in endoscopic surgery, such as a lever and a retractor, may be used.
  • the image of the surgical site in the body cavity of the patient 3505 captured by the endoscope 3100 is displayed on the display device 3403 described later.
  • the surgeon 3501 performs a treatment such as excision of the affected part, for example, using the energy treatment tool 3203 and the forceps 3205 while viewing the image of the surgical part displayed on the display device 3403 in real time.
  • the pneumoperitoneum tube 3201, the energy treatment tool 3203, and the forceps 3205 are supported by the operator 3501 or an assistant during the operation.
  • only one support arm device 3300 that supports the endoscope 3100 is provided, but a plurality of support arm devices 3300 are provided, and an insufflation tube 3201, an energy treatment tool 3203, and forceps 3205 are provided. It may be supported by each of the plurality of support arm devices 3300.
  • the support arm device 3300 includes an arm portion 3303 extending from the base portion 3301.
  • the arm portion 3303 is composed of joint portions 3305 a, 3305 b, 3305 c and links 3307 a, 3307 b, and is driven by control from the arm control device 3407.
  • the endoscope 3100 is supported by the arm portion 3303, and the position and posture thereof are controlled. Thereby, the stable position fixing of the endoscope 3100 can be realized.
  • the configuration of the arm portion 3303 is simplified.
  • the shape, number and arrangement of the joint portions 3305a to 3305c and the links 3307a and 3307b, the direction of the rotation axis of the joint portions 3305a to 3305c, and the like are appropriately set so that the arm portion 3303 has a desired degree of freedom.
  • the arm portion 3303 can be preferably configured to have six degrees of freedom or more. Accordingly, the endoscope 3100 can be freely moved within the movable range of the arm portion 3303. Therefore, the barrel 3101 of the endoscope 3100 can be inserted into the body cavity of the patient 3505 from a desired direction. It becomes possible.
  • the joint portions 3305a to 3305c are provided with actuators, and the joint portions 3305a to 3305c are configured to be rotatable around a predetermined rotation axis by driving the actuators.
  • an arm control device 3407 which will be described later, the rotation angles of the joint portions 3305a to 3305c are controlled, and the driving of the arm portion 3303 is controlled. Thereby, the position and posture of the endoscope 3100 are controlled.
  • the actuators provided in the joint portions 3305a to 3305c are provided with the state of each joint portion, such as an encoder that detects the rotation angle of each joint portion and a torque sensor that detects torque acting on each joint portion.
  • Various sensors for detection are provided. Detection values of these sensors are transmitted to the arm control device 3407.
  • the arm control device 3407 has an internal model in which the geometric state and the mechanical state of the arm unit 3303 are expressed by the internal coordinates of the support arm device 3300. The internal model, the detection value of the sensor, Based on the above, the current state of the joint portions 3305a to 3305c, that is, the current state (position, posture, speed, etc.) of the arm portion 3303 can be grasped.
  • the arm control device 3407 calculates a drive control amount (for example, a rotation angle and a drive torque) of each joint unit corresponding to an operation input for the operation of the arm unit 3303 by the user, Each joint is driven according to the drive control amount.
  • a drive control amount for example, a rotation angle and a drive torque
  • the arm control device 3407 controls the driving of the arm portion 3303 by force control.
  • the arm control device 3407 is an operation performed by a doctor (scopist) who operates the endoscope 3100 by directly touching the arm unit 3303 or the endoscope 3100 (hereinafter also referred to as direct operation).
  • so-called power assist control can be performed in which the actuators of the joint portions 3305a to 3305c are driven so that the arm portion 3303 moves smoothly according to the external force in the direct operation.
  • the scoopist moves the arm portion 3303 while directly touching the arm portion 3303
  • the arm portion 3303 can be moved with a relatively light force. Therefore, the endoscope 3100 can be moved more intuitively and with a simpler operation, and the convenience of the scoopist can be improved.
  • the arm control device 3407 may control the driving of the arm unit 3303 by position control.
  • the arm portion 3303 may be operated according to a method other than the direct operation.
  • the arm control device 3407 when the user performs an appropriate operation input via the input device 3409 (including the foot switch 3419), the arm control device 3407 appropriately controls the driving of the arm unit 3303 according to the operation input. The position and orientation of 3100 may be controlled.
  • the arm portion 3303 may be operated by a user gesture or the like.
  • the arm portion 3303 may be operated by a so-called master slave method. In this case, the arm unit 3303 can be remotely operated by the user via the input device 3409 installed at a location away from the operating room.
  • the driving of the arm unit 3303 in response to an operation other than the direct operation the following (5-3. Operation of other configurations via NUI) and (5-4. Support arm device of master slave type) The application will be explained again.
  • the endoscope 3100 includes a lens barrel 3101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 3505, and a camera head 3103 connected to the proximal end of the lens barrel 3101.
  • the endoscope 3100 is a so-called rigid mirror having a rigid lens barrel 3101.
  • the present embodiment is not limited to such an example, and the endoscope 3100 may be configured as a so-called flexible mirror having a flexible lens barrel 3101.
  • the endoscope 3100 is configured as a direct endoscope in which the objective lens is installed so that the extending direction of the lens barrel 3101 and the optical axis substantially coincide with each other.
  • a light source device 3405 described later is connected to the endoscope 3100, and light generated by the light source device 3405 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 3101. The light is irradiated toward the observation target in the body cavity of the patient 3505 through the objective lens.
  • the present embodiment is not limited to such an example, and the endoscope 3100 may be a perspective mirror or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 3103, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated. The image signal is transmitted to a later-described camera control unit (CCU) 3401 as RAW data.
  • CCU camera control unit
  • the camera head 3103 can be equipped with a function of adjusting the magnification and the focal length by appropriately driving the optical system.
  • the camera head 3103 is provided with a plurality of imaging elements in order to cope with stereoscopic viewing (3D display) and the like. That is, the endoscope 3100 can be configured as a stereo camera. In this case, a plurality of relay optical systems are provided inside the lens barrel 3101 in order to guide observation light to each of the plurality of imaging elements.
  • the present embodiment is not limited to such an example, and the endoscope 3100 may be configured such that the camera head 3103 has a single image sensor.
  • the CCU 3401 is configured by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and comprehensively controls operations of the endoscope 3100 and the display device 3403. Specifically, the CCU 3401 performs various image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example, on the image signal received from the camera head 3103. The CCU 3401 provides the display device 3403 with the image signal subjected to the image processing. Also, the CCU 3401 transmits a control signal to the camera head 3103 to control its driving.
  • the control signal can include information regarding imaging conditions such as magnification and focal length.
  • the display device 3403 displays an image based on an image signal subjected to image processing by the CCU 3401 under the control of the CCU 3401.
  • the display device 3403 corresponds to each of them. Those capable of high-resolution display and / or those capable of 3D display can be used.
  • the display device 3403 displays a warning for the operation of the endoscope 3100 by the scoopist in the form of text or the like in response to an instruction from the safety control device 3408 described later.
  • the light source device 3405 is composed of a light source such as an LED (light emitting diode), and supplies irradiation light for imaging the surgical site to the endoscope 3100.
  • a light source such as an LED (light emitting diode)
  • the arm control device 3407 is configured by a processor such as a CPU, for example, and operates according to a predetermined program, thereby controlling driving of the arm portion 3303 of the support arm device 3300 according to a predetermined control method. Note that various known methods can be applied as a specific method for the arm control device 3407 to control the driving of the arm portion 3303, and thus detailed description thereof is omitted here.
  • the safety control device 3408 is configured by a processor such as a CPU, for example, and cooperates with the CCU 3401 and the arm control device 3407 to operate a scoopist for the purpose of ensuring safety in an operation using the endoscopic surgery system 3000. Perform various controls to assist. Details of the function of the safety control device 3408 will be described later in (2. Configuration of Support System).
  • the input device 3409 is an input interface for the endoscopic surgery system 3000.
  • the user can input various information and instructions to the endoscopic surgery system 3000 via the input device 3409.
  • the user inputs various kinds of information related to the operation, such as the patient's physical information and information about the surgical technique, through the input device 3409.
  • the user instructs the arm unit 3303 to be driven via the input device 3409 or the instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 3100. Enter etc.
  • the user can input various information (such as operation restriction information described later) processed in the support system via the input device 3409.
  • the type of the input device 3409 is not limited, and the input device 3409 may be various known input devices.
  • the input device 3409 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 3419, and / or a lever can be applied.
  • the touch panel may be provided on the display surface of the display device 3403.
  • the input device 3409 may be a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and the user's gesture or line-of-sight movement detected by these devices, Various inputs may be performed according to the head track or the like.
  • the input device 3409 may be a camera that can detect a user's movement. Various inputs can be performed according to the user's gesture and line of sight detected from the video imaged by the camera.
  • the input device 3409 may be a microphone that can pick up a user's voice. Various inputs can be made by voice through the microphone.
  • the input device 3409 is configured to be able to input various types of information without contact, so that a user belonging to the clean area (for example, the operator 3501) operates a device belonging to the unclean area in a non-contact manner. Is possible.
  • the user since the user can operate the device without releasing his / her hand from the surgical tool he / she has, the convenience for the user is improved.
  • the treatment instrument control device 3411 controls driving of the energy treatment instrument 3203 for tissue ablation, incision, blood vessel sealing, or the like.
  • the insufflation apparatus 3413 enters the body cavity through the insufflation tube 3201. Inject gas.
  • the recorder 3415 is an apparatus capable of recording various types of information related to surgery.
  • the printer 3417 is a device that can print various types of information related to surgery in various formats such as text, images, and graphs.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the support system according to the present embodiment.
  • the support system according to the present embodiment supports a user who operates a surgical tool supported by the support arm device via the support arm device at the time of examination or surgery.
  • the support system supports the operation of the scopist when the scopist operates the endoscope while directly moving the arm portion of the support arm device.
  • the present embodiment is not limited to such an example, and when another surgical tool supported by the support arm device is operated by another user, the support system may include the other surgical tool by the other user. You may support the operation.
  • the support system 1 functions as an endoscope unit 110, a support arm unit 120, an arm control unit 130, an image processing distance calculation unit 140, and an input unit 150. And an output unit 160 and a safety control unit 170.
  • the function of the endoscope unit 110 can be realized by the endoscope 3100 shown in FIG.
  • the endoscope unit 110 captures an image of a surgical site in a body cavity of a patient.
  • the endoscope unit 110 provides the image processing distance calculation unit 140 with information on the image of the imaged surgical site of the patient.
  • the function of the support arm unit 120 can be realized by the support arm device 3300 shown in FIG.
  • the support arm unit 120 supports the endoscope unit 110 by the arm unit, and controls the position, posture, and operation of the endoscope unit 110 by driving the arm unit under the control of the arm control unit 130. To do. From the support arm unit 120, information indicating the state of each joint unit obtained by various sensors (encoders, torque sensors, etc.) provided at each joint unit of the arm unit is provided to the arm control unit 130. . In FIG. 2, in order to show that the endoscope part 110 is supported by the arm part of the support arm part 120, both are connected by a broken line.
  • the function of the arm control unit 130 can be realized by the arm control device 3407 shown in FIG.
  • the arm control unit 130 controls the driving of the arm unit in the support arm unit 120 in accordance with information indicating the state of each joint unit provided from the support arm unit 120 and an operation input by the scopist.
  • the position, posture, and operation of the unit 110 are controlled.
  • the arm control unit 130 receives an instruction to restrict the operation of the support arm unit 120 (hereinafter also referred to as an operation restriction instruction) from the safety control unit 170, and performs restriction according to the operation restriction instruction.
  • the arm part is driven after providing. Details of the operation restriction instruction by the safety control unit 170 will be described later.
  • the image processing distance calculation unit 140 based on the information about the surgical site image provided from the endoscope unit 110, and the tip of the endoscope barrel and the object (inside the body cavity of the patient) The distance to the biological tissue (hereinafter also referred to as the distance between the barrel biological tissues) is calculated.
  • the endoscope unit 110 is configured as a stereo camera, and the captured image is acquired as having three-dimensional information. Therefore, the image processing distance calculation unit 140 is included in the endoscope unit 110.
  • the distance between the lens barrel and the living tissue can be calculated.
  • various known methods may be used, and thus detailed description thereof is omitted here.
  • the image processing distance calculation unit 140 calculates the distance between the barrel biological tissues in real time during the operation.
  • in operation means a period during which treatment is performed on a living tissue of a patient with at least a surgical instrument.
  • in operation means that at least the operation part by the endoscope part 110 is operated. This means the period during which shooting is taking place.
  • executed in real time means executed at least once during surgery.
  • the image processing distance calculation unit 140 calculates the distance between the barrel biological tissues for each frame rate of imaging by the endoscope unit 110 based on the image signal acquired at each frame rate.
  • the calculation interval of the distance between the barrel biological tissues by the image processing distance calculation unit 140 is not limited to this example, and the image processing distance calculation unit 140 may calculate the distance between the barrel biological tissues at a wider time interval. Good. The calculation interval may be appropriately determined so that safety can be sufficiently secured by restricting the operation of the support arm unit 120 in accordance with the distance between the lens barrel biological tissues, which will be described later.
  • the image processing distance calculation unit 140 provides the safety control unit 170 with information on the calculated distance between the lens barrel biological tissues whenever necessary.
  • the function of the image processing distance calculation unit 140 can be realized by the cooperation of the CCU 3401 and the safety control device 3408. In this case, for example, image processing is executed by the CCU 3401, and arithmetic processing related to distance calculation is executed by the safety control device 3408. Alternatively, the function of the image processing distance calculation unit 140 may be realized by one of the CCU 3401 and the safety control device 3408.
  • the function of the input unit 150 can be realized by the input device 3409 shown in FIG.
  • the input unit 150 receives information on the operation restriction of the support arm unit 120 by the user (hereinafter also referred to as operation restriction information).
  • the motion restriction information includes information on various conditions that define the motion restriction, for example, information on whether or not to perform motion restriction, a first limit distance and a second limit distance, which will be described later, and a travel area. And information on the peripheral area, the allowable speed when the operation speed is limited, and the like.
  • the input unit 150 can support various input methods.
  • the input unit 150 further includes a voice detection unit 151, a line-of-sight detection unit 152, a head track detection unit 153, a gesture detection unit 154, and a device operation detection unit 155 as its functions. .
  • the user can input the operation restriction information using any of these functions.
  • the voice detection unit 151 is realized by a sound collection device such as a microphone, for example, and detects a user's voice.
  • the line-of-sight detection unit 152 is realized by, for example, a line-of-sight detection sensor provided in an HMD or glasses-type wearable device, and detects the movement of the user's line of sight.
  • the head track detection unit 153 is realized by an acceleration sensor provided in a device worn on the user's head, such as an HMD or glasses-type wearable device, and detects the movement of the user's head.
  • the gesture detection unit 154 is realized by, for example, a camera device provided in an operating room and capable of photographing a user, or an acceleration sensor provided in a device worn on the user's body such as a wristwatch-type wearable device. To detect.
  • the device operation detection unit 155 is realized by various input devices (for example, a foot switch, a lever, a button, a touch sensor, etc.) other than those described above, and detects a user's operation input via these devices.
  • the operation input through the voice detection unit 151, the line-of-sight detection unit 152, the head track detection unit 153, and the gesture detection unit 154 described above is an operation input through a so-called NUI (Natural User Interface) and is non-contact.
  • the operation input can be performed.
  • the device operation detection unit 155 has a function of accepting an operation input other than the NUI.
  • a user belonging to a clean area may want to give an operation input to a device belonging to an unclean area.
  • the assistant gives an instruction verbally and the assistant inputs the input.
  • Operation input must be performed through the device, which is inefficient.
  • NUI non-contact operation input is possible. Therefore, a user belonging to the clean area directly inputs operation input to a device belonging to the unclean area. It becomes possible. Therefore, more intuitive operation input is possible, and user convenience can be improved. Note that an example of a UI for inputting operation restriction information will be described again in the following (3. Operation restriction information input method).
  • the input unit 150 provides the safety control unit 170 with the operation restriction information input by the user.
  • the function of the output unit 160 can be realized by the display device 3403 shown in FIG. Further, the output unit 160 may be realized by another visual output device such as a lamp (not shown in FIG. 1) or an audio output device such as a speaker. Based on an instruction from the safety control unit 170, the output unit 160 gives a warning to the operation of the endoscope unit 110 by the scoop by display, sound, or the like. The warning can be performed by displaying a text or the like on the display device, emitting a lamp, and / or outputting a sound or an alarm or the like by a sound output device. At this time, in this embodiment, a warning instruction from the safety control unit 170 can be set in stages. Correspondingly, the output unit 160 may be configured to issue warnings in stages. For example, the output unit 160 appropriately controls the font size of the displayed text, the light emission intensity and color type of the lamp, the loudness of the sound, etc., so that a relatively small warning and a relatively large scale can be obtained. Can be issued respectively.
  • the function of the safety control unit 170 can be realized by the safety control device 3408 shown in FIG.
  • the safety control unit 170 issues an operation restriction instruction to the arm control unit 130 based on the inter-lens tissue distance provided from the image processing distance calculation unit 140 and the operation restriction information provided from the input unit 150.
  • the safety control unit 170 issues an instruction to issue a warning to the output unit 160 based on the distance between the barrel biological tissues and the operation restriction information.
  • the safety control unit 170 obtains information about the state of the arm unit from the arm control unit 130, and uses the position of the endoscope barrel obtained based on the information to perform image processing. You may correct
  • the safety control unit 170 sets the first limit distance and the second limit distance based on the operation limit information.
  • the first limit distance is set as a value close to the minimum distance (allowable limit distance) between the lens barrel and the surgical site that can be allowed in order to ensure safety.
  • the second limit distance is longer than the first limit distance, and is set as a distance that may reach the allowable limit distance as soon as the endoscope proceeds as it is, although there is no immediate danger.
  • the safety control unit 170 issues an operation restriction instruction and a warning instruction according to the relationship between the distance between the barrel biological tissues, the first restriction distance, and the second restriction distance.
  • each distance included in the imaging range of the endoscope as the distance between the barrel biological tissues is calculated.
  • the distance between the object and the lens barrel can be calculated. That is, it is possible to obtain a two-dimensional distribution of the distance between the barrel biological tissues in a plane substantially perpendicular to the traveling direction of the barrel.
  • the safety control unit 170 sets a plurality of regions in the traveling direction of the lens barrel, and the distance between the lens barrel biological tissue and the first limit distance in each of the plurality of regions.
  • An operation restriction instruction and a warning instruction are issued according to the relationship with the second limit distance.
  • distance measurement capable of acquiring such a two-dimensional distribution of the distance between the lens barrel biological tissues is also referred to as surface distance measurement.
  • FIG. 3 is a diagram schematically showing the state of surface ranging.
  • FIG. 4 is a diagram schematically showing the results of surface distance measurement.
  • the living tissue 203 exists in front of the moving direction of the lens barrel 201 and is positioned in the moving direction of the lens barrel 201, but is positioned away from the front. Assume that another living tissue 205 exists. However, the living tissue 205 is located closer to the lens barrel 201 than the living tissue 203.
  • FIG. 4 schematically shows the distribution of the distance between the barrel biological tissues in the captured image.
  • the calculated distance between the lens barrel biological tissues is divided into three stages, and different hatching is given to the regions belonging to the respective distances.
  • the short distance area 207a is an area where the distance between the lens barrel biological tissues is relatively close
  • the middle distance area 207b is an area where the distance between the lens barrel biological tissues is medium
  • the far distance area 207c is the lens barrel biological tissue. This is a region with a relatively long distance. Referring to FIG. 4, it can be seen that the living tissue 205 located in the short distance region 207a is detected.
  • the first limit distance is set as a boundary value between the short distance area 207a and the middle distance area 207b
  • the second limit distance is set as a boundary value between the middle distance area 207b and the long distance area 207c.
  • the safety control unit 170 may issue an operation restriction instruction and a warning instruction on the basis of the presence of the short distance area 207a and / or the middle distance area 207b in the captured image. .
  • the short-distance region 207 a is distributed at locations outside the center in the captured image. Therefore, as is clear from the positional relationship shown in FIG. 3, even if the lens barrel 201 proceeds in the extending direction as it is, there is a risk that the lens barrel 201 will collide with the living tissue 205 located in the short distance region 207a. It is considered low. In such a case, if the operation restriction instruction and the warning instruction are issued simply based on the presence of the short distance area 207a and / or the middle distance area 207b in the captured image as described above, the scopist May interfere with the operation.
  • the safety control unit 170 sets a plurality of regions in the traveling direction of the lens barrel 201 based on the operation restriction information.
  • the plurality of areas can be set as concentric areas centering on the optical axis of the lens barrel 201.
  • a progress area 209 which is an area in which the lens barrel 201 progresses in the future
  • a peripheral area 211 which is an area around the progress area
  • the traveling region 209 is set as a columnar region having a diameter slightly larger than the outer diameter of the lens barrel 201 in the traveling direction of the lens barrel 201.
  • the peripheral area 211 is set as a cylindrical area surrounding the outer periphery of the traveling area 209.
  • the safety control unit 170 performs an operation restriction instruction and a warning instruction in the advance region 209 and the peripheral region 211 according to the relationship between the distance between the lens barrel biological tissue and the first limit distance and / or the second limit distance, respectively. Issue. Specifically, the safety control unit 170 stops the movement of the lens barrel 201 in the advancing direction when the distance between the lens barrel biological tissues is equal to or less than the first limit distance in the advancing region 209 (that is, An operation restriction instruction is issued to the arm control unit 130 so as to stop the movement of the arm unit of the support arm unit 120 in the moving direction at that time. In addition, the safety control unit 170 also issues an instruction to issue a relatively large warning to the output unit 160.
  • the safety control unit 170 moves the barrel 201 (that is, the operating speed of the arm portion of the support arm portion 120).
  • the operation control instruction is issued to the arm control unit 130 so as to limit the control.
  • the safety control unit 170 also issues an instruction to issue a relatively small warning to the output unit 160.
  • the safety control unit 170 instructs the arm control unit 130 to limit the operation speed. In addition, the safety control unit 170 also instructs the output unit 160 to issue a relatively small warning.
  • the safety control unit 170 does not issue an operation restriction instruction and a warning instruction, but issues an instruction to the arm control unit 130 to cause the arm unit to perform a normal operation.
  • the normal operation is an operation in which the arm portion freely moves in accordance with the operation of the scopist without imposing any operation limitation.
  • the arm control unit 130 receives an instruction from the safety control unit 170 and drives the support arm unit 120 after providing a restriction. At this time, the arm control unit 130 drives the support arm unit 120 with priority given to an instruction from the safety control unit 170 over an operation on the support arm unit 120 by a scoop. As a result, even if the scopist misoperates and the lens barrel 201 approaches the living tissue 203 or 205 more than necessary, the moving speed of the lens barrel 201 is reduced or the movement of the lens barrel 201 is stopped. Thus, patient safety is ensured. At the same time, since the output unit 160 issues a relatively small warning or a large warning, the scopist can grasp that the problem is caused in the operation by the warning.
  • the safety control unit 170 since the distance between the barrel biological tissues is detected in real time, the safety control unit 170 performs the determination based on the more accurate positional relationship between the barrel 201 and the biological tissues 203 and 205. Instructions are given. Therefore, it is possible to further improve the safety of surgery.
  • the arm of the support arm unit 120 is set according to the distance between the barrel biological tissues.
  • the operation restriction of the unit and the warning by the output unit 160 are performed in stages. Therefore, the scopist grasps that the operation speed of the arm part of the support arm part 120 is limited, and that there is a possibility of danger when a small warning is given by the output part 160, The operation can be changed.
  • the operation restriction instruction and the warning instruction are issued in consideration of the traveling area 209 and the peripheral area 211 of the lens barrel 201, thereby determining whether to restrict the operation and whether to perform the warning.
  • two areas (the progress area 209 and the peripheral area 211) are set. However, more areas may be set, and whether to limit the operation according to these areas and The criterion for determining whether to issue a warning may be set in more detail. As a result, multistage operation restrictions and warnings are made, and the convenience of the scopist can be further improved.
  • the traveling region 209 and the peripheral region 211 are set as a columnar region and a cylindrical region, respectively.
  • the traveling region 209 and the peripheral region 211 are not limited to this example.
  • the size and shape of the progress area 209 and the peripheral area 211 may be arbitrarily set.
  • the advancing area 209 and the peripheral area 211 may be set as a cone (cone, triangular pyramid, etc.) whose apex is the tip of the lens barrel 201.
  • the traveling area 209 and the peripheral area 211 are set on the space as a cylindrical area and a cylindrical area, respectively, as shown in FIG. 3, for example.
  • the safety control unit 170 is as shown in FIG.
  • a progress area 209 and a peripheral area 211 are virtually set. Therefore, when the safety control unit 170 sets the progression region 209 and the peripheral region 211, the configuration of the optical system of the endoscope unit 110, the detection distance of the living tissue, and the shapes of the progression region 209 and the peripheral region 211 Based on the above, correction processing or the like may be performed as appropriate so that the desired progress region 209 and the peripheral region 211 can be set.
  • the operation restriction information may be input by the user via the input unit 150 before or during the operation. Since it is possible to input the operation restriction information during the operation, it is possible to improve the convenience of the user, in particular, the scopist who operates the endoscope unit 110. For example, if it is necessary to perform an irregular operation during surgery, such as when it is necessary to bring the lens barrel closer to the living tissue, the operation restriction by the safety control unit 170 is rather limited to the operation of the scoopist. May be disturbed. In such a case, the setting for the operation restriction can be appropriately changed by the scopist himself during the operation. For example, the scopist can release the operation restriction as necessary, or the first restriction distance and the second restriction distance. Can be made shorter and the operation can be performed more smoothly. Note that the operation restriction information input method will be described later in (3. Operation restriction information input method).
  • a setting mode in which various conditions (first limit distance, second limit distance, travel area, peripheral area, and the like) that define operation restrictions are set in the safety control unit 170 in accordance with a user instruction. And an operation mode in which the arm unit is operated by the user can be switched.
  • the user inputs the operation restriction information after switching to the setting mode.
  • the safety control unit 170 sets various conditions that define the operation restriction based on the input operation restriction information.
  • the safety control unit 170 appropriately issues an operation restriction instruction and a warning instruction in accordance with various conditions that define the set operation restriction.
  • the safety control unit 170 when the safety control unit 170 issues an operation restriction instruction to the arm control unit 130 so as to stop the movement of the lens barrel 201 in the traveling direction (that is, the operation of the arm unit is stopped). If an operation restriction instruction is issued to the arm control unit 130 to prevent the operation of the operation after the scoopist cannot move the lens barrel 201 until the operation restriction is canceled in the setting mode, There is a concern that it will become. Accordingly, when the safety control unit 170 issues an operation restriction instruction to the arm control unit 130 so as to stop the operation of the arm unit, the safety control unit 170 may, after a predetermined time, have the lens barrel biological tissue.
  • An operation restriction instruction may be issued to the arm control unit 130 to operate the arm unit so that the lens barrel 201 can be moved while limiting the operation speed only in the direction of increasing the distance. As a result, even if the operation of the arm unit is stopped due to the operation restriction, the lens barrel 201 can be moved by the operation of the scoopist at a safe speed in a safer direction soon. It is possible to continue the operation.
  • an operation restriction instruction is issued to the support arm unit 120 based on the distance between the lens barrel biological tissues detected in real time, and to the output unit 160. Warning instructions are issued. Therefore, safer surgery can be realized.
  • the support system 1 according to the present embodiment is particularly useful when the scoopist operates the endoscope unit 110 by directly operating the support arm unit 120. The reason will be described with reference to FIG.
  • FIG. 5 is a diagram showing a state of surgery using the support system 1 according to the present embodiment.
  • FIG. 5 illustrates a state in which the scoopist 301 inserts the lens barrel of the endoscope 307 into the patient 305 on the patient bed 303 and operates the position and posture thereof.
  • the endoscope 307 is supported by a support arm device 309, and the scopist 301 can operate the endoscope 307 by directly operating the support arm device 309.
  • the endoscope 307 and the support arm device 309 can constitute the endoscope unit 110 and the support arm unit 120 in FIG.
  • the distance d between the lens barrel and living tissue which is the distance between the tip of the lens barrel of the endoscope unit 110 and the living tissue 311 in the body cavity of the patient 305, is detected in real time. Then, the operation of the support arm device 309 is limited based on the detected distance d between the lens barrel biological tissues. Further, a warning is issued based on the distance d between the lens barrel biological tissues. For example, when the lens barrel is too close to the living tissue 311, the operation speed of the support arm device 309 is limited and a small warning is issued or the operation of the support arm device 309 is performed according to the distance. Is stopped and a large warning is issued.
  • the scopist 301 may have experienced a decrease in the speed of the arm part or the operation of the arm part. You can intuitively recognize what you did. In other words, since the positional relationship between the lens barrel and the biological tissue 311 can be more intuitively notified to the scopist 301, the scopist 301 can more quickly take action such as changing the operation. . Therefore, the safety of surgery can be further improved.
  • the operation limitation in the support arm unit 120 and the warning by the output unit 160 are performed at the same time, but the present embodiment is not limited to such an example.
  • the support system 1 can be configured such that at least one of an operation restriction instruction for the arm control unit 130 and a warning instruction for the output unit 160 is performed.
  • the safety control unit 170 may issue an operation restriction instruction so that the danger can be gradually notified to the scopist in accordance with the distance between the barrel biological tissues.
  • the contents can be set as appropriate.
  • the safety control unit 170 further sets a plurality of limit distances between the first limit distance and the second limit distance, and the speed is determined according to the relationship between the plurality of limit distances and the distance between the barrel biological tissues.
  • the allowable speed in the limit control may be changed in stages. That is, the safety control unit 170 may instruct the operation so that the operation speed of the arm unit becomes slower as the lens barrel approaches the living tissue.
  • the scopist can more intuitively grasp the positional relationship between the lens barrel and the living tissue, so that further improvement in the safety of the operation can be realized.
  • the safety control unit 170 replaces the speed of operation with each arm unit so as to provide resistance to the operation of the scoopist.
  • the operation restriction information can be appropriately input by the user before or during the operation.
  • some examples of specific input methods of operation restriction information will be described.
  • the operation restriction information can be input in a non-contact manner using the NUI. This makes it possible for the surgeon or scopist to input the movement restriction information more smoothly by voice, line of sight, etc. while continuing his work when he / she wants to change the movement restriction setting during the operation. . Therefore, in the following description of the operation restriction information input method, an input method using NUI will be mainly described.
  • FIG. 6 is a diagram for explaining the NUI in the support system 1.
  • FIG. 4 a state where the scopist 401 is operating the endoscope 407 with respect to the patient 405 on the patient bed 403 is illustrated.
  • a display device in which a lens barrel of an endoscope 407 supported by a support arm device 409 is inserted into a body cavity of a patient 405, and an image of a surgical part taken by the endoscope 407 is provided in an operating room 411.
  • the scopist 401 adjusts the position of the lens barrel so that a desired image can be obtained for the surgical site while referring to the image of the display device 411.
  • the display device 411 can correspond to the display device 3403 illustrated in FIG. 1.
  • the endoscope 407 and the support arm device 409 can constitute the endoscope unit 110 and the support arm unit 120 in FIG.
  • an input device for NUI can be provided in the support system 1.
  • a camera device 413 for photographing the state of the scopist 401 is provided on the upper portion of the display device 411 (corresponding to the gesture detection unit 154 shown in FIG. 2). Based on the image photographed by the camera device 413, the gesture of the scopist 401 can be detected.
  • the scopist 401 wears a glasses-type wearable device 415.
  • the wearable device 415 is provided with a gaze detection sensor (corresponding to the gaze detection unit 152 shown in FIG. 2) and an acceleration sensor (corresponding to the head track detection unit 153 shown in FIG. 2). Based on the detection value of the acceleration sensor, the movement of the head of the scoopist 401 can be detected.
  • the scopist 401 may wear an HMD provided with a line-of-sight detection sensor and an acceleration sensor instead of the wearable device 415.
  • the scopist 401 can further wear a headset (not shown).
  • the voice of the scopist 401 can be detected via the microphone of the headset (corresponding to the voice detection unit 151 shown in FIG. 2).
  • information on whether or not to limit the operation can be performed by combining voice input and foot switch input.
  • the scopist 401 switches the mode of the safety control unit 170 to the setting mode, and then inputs a preset keyword such as “limit on” by voice, and then presses the foot switch, Operation restrictions apply to the support arm device 409.
  • the scopist 401 inputs a preset keyword such as “limit off” by voice and then presses the foot switch, so that the operation restriction on the support arm device 409 is released.
  • FIG. 7 is a diagram illustrating a display example of a UI when the range of the first limit distance is changed.
  • the scopist 401 switches the mode of the safety control unit 170 to the setting mode and inputs a preset keyword such as “distance” by voice
  • the display screen 421 shown in FIG. 7 is displayed on the display device 411. Is done.
  • the value of the first limit distance can be set in three stages, and on the display screen 421, three icons 423a, 423b for specifying the value of the first limit distance are correspondingly displayed.
  • the icon 423a has a display of “short” indicating a relatively short distance
  • the icon 423b has a display of “middle” indicating a medium distance.
  • “long” indicating a relatively long distance is described.
  • a pointer 425 is displayed on the display screen 421.
  • the pointer 425 can be moved in accordance with the line of sight of the scopist 401.
  • the scopist 401 moves the pointer 425 by a line of sight on any of the icons 423a, 423b, and 423c according to the desired first limit distance.
  • the first limit distance is changed to a value corresponding to the selected icon when the scoopist 401 presses the foot switch.
  • FIG. 8 is a diagram illustrating another display example of the UI when the range of the first limit distance is changed.
  • a UI capable of setting the first limit distance in more detail than the UI illustrated in FIG. 7 is provided.
  • the display screen 431 shown in FIG. 8 is displayed on the display device 411. Is done.
  • the value of the first limit distance can be set in more stages, and the display screen 431 correspondingly has a number line with a scale for designating the value of the first limit distance. 433 is displayed.
  • the value of the number line 433 corresponds to the value of the first limit distance to be newly set, and indicates that the first limit distance can be set to a longer distance from one end to the other end.
  • a pointer 435 is displayed on the display screen 431.
  • the pointer 435 is displayed below the number line 433, and can be moved for each scale along the number line 433 according to the head track of the scoopist 401.
  • the scopist 401 moves the pointer 435 by the head track under a desired numerical value on the number line 433 according to the desired first limit distance.
  • the first limit distance is changed to a value corresponding to the selected position when the scopist 401 presses the foot switch. .
  • the operation restriction information input method using the NUI has been described.
  • the information about whether or not to perform the operation restriction and the information about the first restriction distance are handled, but other operation restriction information can be input as well.
  • the second limit distance, the traveling area, the peripheral area, the value of the allowable speed when limiting the operation speed, and the like can be set in the same manner as the method described with reference to FIG. 7 or FIG.
  • the input method described above is merely an example, and in the present embodiment, the operation restriction information can be input by an arbitrary method via the input unit 150 illustrated in FIG. 2 described above.
  • the operation restriction information input by the scopist 401 has been described. However, the operation restriction information can be input not only by the scopist 401 but also by other users.
  • FIG. 9 is a flowchart showing an example of a processing procedure of the safety control method according to the present embodiment. Note that the processing in each step shown in FIG. 9 corresponds to the processing executed by the safety control unit 170 shown in FIG.
  • step S101 the operation mode or the setting mode is switched (step S101). Specifically, in step S101, these modes are switched according to an instruction from the user.
  • step S103 it is determined whether the operation mode or the setting mode. If it is determined in step S103 that the current mode is the setting mode, various conditions (for example, the first limit distance and the second limit distance) that define the action restriction based on the action restriction information input by the user. , A progress area, a peripheral area, and the like) are set (step S105). At this time, the operation restriction information can be input through, for example, the NUI as described above in (3. Method of Inputting Operation Restriction Information).
  • step S103 When it is determined in step S103 that the current mode is the operation mode, or when the setting processing of various conditions that define the operation restriction in step S105 is completed, the process proceeds to step S107.
  • the subsequent processes in steps S107 to S121 are processes executed while the arm unit is moving according to the operation of the scoop.
  • step S107 distance information about the distance between the barrel biological tissues is acquired during movement of the arm unit. Specifically, in step S107, the distance between the barrel biological tissues is calculated from the captured image by the image processing distance calculation unit 140 shown in FIG. 2, and information about the distance between the barrel biological tissues is provided to the safety control unit 170. Is done.
  • step S109 it is determined whether or not the distance between the lens barrel biological tissues is larger than the first limit distance in the advancing region.
  • the process proceeds to step S111, and an instruction to stop the operation of the arm unit and an instruction to execute a relatively large warning are issued.
  • the safety control unit 170 shown in FIG. 2 issues an instruction to stop the operation of the arm unit to the arm control unit 130 and is relatively large to the output unit 160. Issue instructions to perform large warnings.
  • the arm control unit 130 and the output unit 160 operate according to these instructions, the operation of the arm unit is stopped and a relatively large-scale warning is executed.
  • step S113 it is determined whether or not the distance between the barrel biological tissues is greater than the second limit distance in the advancing region.
  • the distance between the barrel biological tissues is equal to or less than the second limit distance in the advancing region, it means that the lens barrel is approaching the biological tissue although it is not approaching the first limit distance. If the lens barrel moves as it is, danger may arise. Therefore, in this case, the process proceeds to step S115, where an instruction to limit the operation speed of the arm unit and an instruction to execute a relatively small warning are issued.
  • step S115 the safety control unit 170 shown in FIG.
  • step S113 If it is determined in step S113 that the distance between the barrel biological tissues is larger than the second limit distance in the advancing region, the process proceeds to step S117.
  • step S117 it is determined whether or not the distance between the barrel biological tissues is greater than the first limit distance in the peripheral region. If the distance between the barrel biological tissues is less than or equal to the second limit distance in the surrounding area, there is a low possibility of danger if the barrel advances in the same direction, but the biological tissue is relatively close to the barrel. It means a state that exists. Therefore, in this case, the process proceeds to step S119, where an instruction to limit the operation speed of the arm unit and an instruction to execute a relatively small warning are issued. Specifically, in step S119, as in step S115, the safety control unit 170 shown in FIG.
  • step S117 If it is determined in step S117 that the distance between the barrel biological tissues is larger than the first limit distance in the peripheral region, the process proceeds to step S121.
  • step S121 an instruction for normal operation of the arm unit is issued. Specifically, in step S121, the safety control unit 170 illustrated in FIG. 2 issues an instruction to the arm control unit 130 to cause the arm unit to perform a normal operation. When the arm control unit 130 operates according to the instruction, the normal operation of the arm unit is executed.
  • step S111 When the processing in step S111, step S115, step S117, or step S121 ends, the process returns to step S101.
  • the series of processes described above are repeatedly executed during the operation.
  • step S111 After an instruction to stop the operation of the arm unit and an instruction to execute a relatively large warning are issued, the distance between the barrel biological tissues is further increased.
  • An operation restriction instruction for operating the arm unit may be issued so that the lens barrel can move while the operation speed is limited.
  • steps S101 to S105 there is no need to return to steps S101 to S105 and input an instruction to release the operation restriction in the setting mode. Since it becomes possible to move the lens barrel in a state in which is secured, it becomes possible to continue the surgery more smoothly.
  • the endoscope is configured as a stereo camera, and the distance between the barrel biological tissues is detected based on the captured image.
  • the present embodiment is not limited to such an example, and the distance between the barrel biological tissues may be detected by other methods.
  • a configuration of a support system in a case where another distance measuring method is applied and a process executed in the support system will be described. Note that the support system according to the present modification can also be applied to the endoscopic surgery system 3000 shown in FIG. 1 as in the above-described embodiment.
  • FIG. 10 is a block diagram illustrating an example of the functional configuration of the support system according to the modification in which a distance measuring sensor is provided at the distal end of the endoscope.
  • the support system 1a according to the present modification includes, as its functions, an endoscope unit 110, a support arm unit 120, an arm control unit 130, an input unit 150, an output unit 160, a safety unit, The control part 170 and the distance detection part 180a are provided.
  • the support system 1a according to the present modification is substantially the same as the support system 1 shown in FIG. 2 except that the method for measuring the distance between the barrel biological tissues is different and the processing in the safety control unit 170 is accordingly different. It has the composition of. Therefore, in the following description of the support system 1a, differences from the support system 1 will be mainly described, and detailed descriptions of overlapping items will be omitted.
  • the support system 1a does not have the function of the image processing distance calculation unit 140 provided in the support system 1. Instead, the function of the distance detection unit 180a is provided in the support system 1a.
  • the distance detection unit 180a detects the distance between the tip of the lens barrel of the endoscope unit 110 and the living tissue existing in the traveling direction of the lens barrel.
  • the function of the distance detection unit 180a can be realized by a distance measuring sensor provided at the tip of the lens barrel of the endoscope unit 110.
  • the type of the distance measuring sensor is not limited, and various known sensors such as an infrared sensor and an ultrasonic sensor can be used.
  • the distance detection unit 180a provides the safety control unit 170 with information on the detected distance between the lens barrel biological tissues. In FIG. 10, the distance detection unit 180 a is connected by a broken line to indicate that the distance detection unit 180 a can be provided at the distal end of the barrel of the endoscope unit 110.
  • distance measurement by a distance measurement sensor cannot perform surface distance measurement like distance measurement based on a captured image of a stereo camera, but detects a distance to a predetermined target point. Can do.
  • distance measurement for detecting the distance to a predetermined target point is also referred to as one-point distance measurement.
  • FIG. 11 is a diagram schematically showing a state of one-point ranging.
  • the body tube 201, the biological tissue 203 positioned in front of the moving direction of the lens tube 201, and the moving direction of the lens tube 201 in the body cavity The positional relationship of the other biological tissue 205 located in the removed place is illustrated.
  • the surface distance measurement can be performed, and therefore, a two-dimensional distribution of the distance between the living body tissues can be obtained.
  • FIG. 11 in this modification, only the distance between the tip of the lens barrel 201 and one point in the extending direction of the lens barrel 201 can be detected. That is, in the present modification, the distance between the lens barrel 201 and the living tissue 203 can be detected, but the distance between the lens barrel 201 and another living tissue 205 cannot be detected. Therefore, the safety control unit 170 also has information about the distance between the tip of the lens barrel 201 and a predetermined point on the surface of the biological tissue 205 detected by one-point distance measurement as information about the distance between the lens barrel biological tissues.
  • the advancing area and the peripheral area are set as in the above-described embodiment, and the lens barrel living body is set for each of these areas. It is difficult to determine the distance between tissues.
  • FIG. 12 is a flowchart illustrating an example of a processing procedure of the safety control method according to the present modification. Note that the processing in each step shown in FIG. 12 corresponds to the processing executed by the safety control unit 170 shown in FIG.
  • the processing in steps S201 to S207 is substantially the same as the processing in steps S101 to S107 in the safety control method according to the above-described embodiment shown in FIG. It is. That is, first, the operation mode or the setting mode is switched (step S201), and then the mode determination process is performed (step S203). In the setting mode, various conditions that define operation restrictions are set (step S205). However, in step S205, unlike the step S105, the progress area and the peripheral area are not set. Next, distance information about the distance between the barrel biological tissues is acquired during the movement of the arm unit (step S207). However, in step S207, information on the distance between the barrel biological tissues detected by the one-point distance measurement by the distance detection unit 180a shown in FIG. 10 is provided to the safety control unit 170.
  • step S209 it is next determined whether or not the distance between the barrel biological tissues is greater than the first limit distance.
  • the process proceeds to step S211, and an instruction to stop the operation of the arm unit and an instruction to execute a relatively large-scale warning are issued.
  • the safety control unit 170 shown in FIG. 10 issues an instruction to stop the operation of the arm unit to the arm control unit 130 and is relatively large to the output unit 160. Issue instructions to perform large warnings.
  • the lens barrel is further processed.
  • An operation restriction instruction for operating the arm unit may be issued so that the lens barrel can move while the operation speed is limited only in the direction of increasing the distance between living tissues.
  • step S209 determines whether the distance between the barrel biological tissues is greater than the first limit distance.
  • step S213 it is determined whether the distance between the barrel biological tissues is greater than the second limit distance.
  • the process proceeds to step S215, and an instruction to limit the operation speed of the arm unit and an instruction to execute a relatively small warning are issued.
  • step S215 the safety control unit 170 shown in FIG.
  • step S217 an instruction to cause the arm unit to perform normal operation is issued.
  • the safety control unit 170 illustrated in FIG. 10 issues an instruction to the arm control unit 130 to cause the arm unit to perform a normal operation.
  • the arm control unit 130 operates according to the instruction, the normal operation of the arm unit is executed.
  • step S211 When the processes in step S211, step S215, and step S217 are completed, the process returns to step S201.
  • the series of processes described above are repeatedly executed during the operation.
  • a determination process for determining whether or not to limit the operation of the arm unit is performed without considering the advancing area and the surrounding area.
  • the operation of the arm unit is limited based on the distance between the lens barrel biological tissues for a predetermined point in the advancing direction of the lens barrel. Therefore, the contact between the lens barrel and the living tissue in the traveling direction of the lens barrel can be effectively prevented.
  • the safety of the operation is the same as in the above-described embodiment. It is possible to obtain an effect of enhancing the sex.
  • FIG. 13 is a block diagram illustrating an example of a functional configuration of a support system according to a modification in which such a distance detection unit that observes the endoscope barrel from the outside is provided.
  • the support system 1b according to the present modification includes, as its functions, an endoscope unit 110, a support arm unit 120, an arm control unit 130, an input unit 150, an output unit 160, a safety unit, The control part 170 and the distance detection part 180b are provided.
  • the support system 1b according to the present modification is substantially the same as the support system 1 shown in FIG. 2 except that the method for measuring the distance between the barrel biological tissues is different and the processing in the safety control unit 170 is accordingly different. It has the composition of. Therefore, in the following description of the support system 1b, differences from the support system 1 will be mainly described, and detailed descriptions of overlapping items will be omitted.
  • the support system 1b does not have the function of the image processing distance calculation unit 140 included in the support system 1. Instead, the function of the distance detector 180b is provided in the support system 1b.
  • the distance detection unit 180b detects the distance between the tip of the barrel of the endoscope unit 110 and the living tissue existing in the traveling direction of the barrel.
  • the function of the distance detection unit 180b can be realized by, for example, a distance measuring sensor provided at a position where the body tube of the endoscope unit 110 and a living tissue located in the traveling direction of the lens barrel can be observed.
  • the distance measuring sensor is inserted into the body cavity of a patient separately from, for example, the lens barrel of the endoscope unit 110 and other surgical tools.
  • various known sensors for example, an ultrasonic sensor
  • the function of the distance detection unit 180b may be realized by another endoscope different from the endoscope unit 110.
  • the other endoscope is configured as a stereo camera, observe the lens barrel of the other endoscope, the lens barrel of the endoscope unit 110, and the living tissue located in the traveling direction of the lens barrel. By inserting it to a position where it can be taken and taking a captured image at an angle of view including the barrel of the endoscope unit 110 and the biological tissue, the barrel of the endoscope unit 110 and the biological body are taken from the captured image. The distance to the tissue can be detected.
  • the distance detection unit 180b provides the safety control unit 170 with information on the detected distance between the lens barrel biological tissues.
  • the distance detection unit 180b may be configured to be able to perform surface ranging, or may be configured to be capable of performing single-point ranging.
  • the safety control unit 170 can execute the safety control method according to the processing procedure shown in FIG.
  • the safety control unit 170 can execute the safety control method according to the processing procedure illustrated in FIG.
  • the safety control method shown in FIG. 9 or FIG. 12 can be appropriately executed according to the configuration of the distance detection unit 180b.
  • the endoscope is a perspective mirror or a side endoscope
  • the tip of the lens barrel of the endoscope and the living body existing in the traveling direction of the lens barrel cannot be measured.
  • the modification according to the other distance measuring method described above can be preferably applied to a case where the endoscope is a perspective mirror or a side endoscope.
  • the operation of moving the barrel away from the biological tissue is performed.
  • the action of the arm portion may be controlled to do so.
  • a retreat operation may be performed instead of stopping the operation.
  • the lens barrel moves so as to automatically follow the path along which the lens barrel has traveled in the opposite direction automatically. Since the path along which the lens barrel has traveled is a path through which the lens barrel has already passed, it can be said that it is a path in which safety is ensured. Therefore, even if the lens barrel automatically retracts, this does not pose a danger to the patient.
  • Such a support system according to the modification in which the save operation is executed as the operation restriction can be realized by the same functional configuration as the support system 1 according to the above-described embodiment shown in FIG. Therefore, the description of the functional configuration of the support system according to this modification is omitted.
  • the process in the safety control unit 170 is different from the embodiment described above.
  • FIG. 14 is a flowchart illustrating an example of a processing procedure of a safety control method according to a modified example in which a save operation is executed as an operation restriction.
  • steps S301 to S309 and steps S313 to S321 are performed in steps S101 to S321 in the safety control method according to the above-described embodiment shown in FIG. This is substantially the same as the processing in step S109 and steps S113 to S121. Therefore, detailed description of these processes is omitted.
  • step S309 when it is determined in step S309 that the distance between the barrel biological tissues is equal to or less than the first limit distance in the advancing region, an instruction to retract the barrel and a relatively large warning are given.
  • An instruction to execute is issued (step S311). Specifically, in step S311, the safety control unit 170 illustrated in FIG. 2 issues an instruction to the arm control unit 130 to cause the arm unit to perform a retreat operation, and relatively outputs to the output unit 160. Issue instructions to perform large warnings. When the arm control unit 130 and the output unit 160 operate according to these instructions, the retracting operation of the lens barrel and a relatively large-scale warning are executed.
  • the processing procedure shown in FIG. 14 corresponds to the case where the support system is configured to be able to perform surface ranging, as in the above-described embodiment.
  • the present modification is not limited to such an example, and is configured to be able to perform one-point distance measurement as described above (in the case of a 5-1-1 distance measuring sensor provided at the tip of the lens barrel). It can also be applied to support systems. That is, the support system according to this modification may be realized by the same functional configuration as the support system 1a illustrated in FIG.
  • FIG. 15 is a flowchart showing another example of the processing procedure of the safety control method according to the modified example in which the retreat operation is executed as the operation restriction.
  • steps S401 to S409 and steps S413 to S417 are performed in a modification in which a distance measuring sensor is provided at the tip of the lens barrel shown in FIG. This is substantially the same as the processing in steps S201 to S209 and steps S213 to S217 in the safety control method. Therefore, detailed description of these processes is omitted.
  • step S409 when it is determined in step S409 that the distance between the barrel biological tissues is equal to or less than the first limit distance, an instruction to retract the barrel and a relatively large-scale warning are executed.
  • An instruction is issued (step S411).
  • the safety control unit 170 illustrated in FIG. 10 issues an instruction to the arm control unit 130 to cause the arm unit to perform a retreat operation, and the output unit 160 is relatively Issue instructions to perform large warnings.
  • the retracting operation of the lens barrel and a relatively large-scale warning are executed.
  • the present modification it is possible to further secure the safety of the operation by performing the retracting operation of the lens barrel when the distance between the lens barrel biological tissues is relatively small.
  • the present modification can be applied regardless of the distance measuring method.
  • the operation restriction information can be input via the NUI.
  • the present embodiment is not limited to such an example, and an operation input to another configuration of the endoscopic surgery system 3000 illustrated in FIG. 1 may be possible via the NUI.
  • FIG. 16 is a block diagram illustrating an example of a functional configuration of a support system that is a modification of the present embodiment and configured to allow operation input to another configuration of the endoscopic surgery system 3000 via the NUI. .
  • the support system 1 c according to the present modification includes, as its functions, an endoscope unit 110, a support arm unit 120, an arm control unit 130, an image processing distance calculation unit 140, and an input unit 150. And an output unit 160, a safety control unit 170, an imaging control unit 181, and a display control unit 182.
  • functions of the arm control unit 130 and the image processing distance calculation unit 140 are partially changed, and functions of the imaging control unit 181 and the display control unit 182 are added.
  • the support system 1c is configured to change the imaging conditions (for example, the type of irradiation light, the magnification, and / or the focal length) in the endoscope unit 110 by an operation input from the input unit 150.
  • the support system 1 c includes, as a function thereof, an imaging control unit 181 that controls imaging conditions in the endoscope unit 110, and information about user operation inputs to the endoscope unit 110 is input to the input unit 150.
  • the imaging control unit 181 appropriately controls the imaging conditions of the endoscope unit 110 in accordance with a user instruction.
  • the function of the imaging control unit 181 can be realized by the CCU 3401 shown in FIG.
  • the support system 1 c is configured to be able to operate the arm portion of the support arm portion 120 by an operation input from the input portion 150. That is, the arm unit can be operated by an operation input other than the direct operation. Specifically, in the support system 1c, information about a user's operation input to the arm unit is provided from the input unit 150 to the arm control unit 130. The arm control unit 130 appropriately controls the operation of the arm unit in accordance with a user instruction.
  • the support system 1c is configured to be able to operate display on a display device (corresponding to the display device 3403 shown in FIG. 1) constituting the output unit 160 by an operation input from the input unit 150.
  • the image processing distance calculation unit 140 performs an image based on the image signal with respect to the image signal acquired by the endoscope unit 110 together with the calculation processing of the distance between the barrel biological tissues. Is subjected to various image processing (for example, development processing). Then, the image processing distance calculation unit 140 provides the image signal subjected to the image processing to the display control unit 182.
  • the display control unit 182 has a function of driving the display device configuring the output unit 160 and controlling the display, and displays a captured image on the display device based on the image signal.
  • information about a user operation input to the display device is provided from the input unit 150 to the display control unit 182.
  • the display control unit 182 appropriately controls display on the display device in accordance with a user instruction. For example, the magnification and brightness of the image to be displayed may be changed by an operation by the user.
  • the function of the display control unit 182 can be realized by the CCU 3401 shown in FIG.
  • the functions of the imaging control unit 181 and the display control unit 182 described above are functions originally provided in the endoscopic operation system 3000 shown in FIG. That is, in FIG. 16, these functions are explicitly shown for explanation, but the control of the imaging condition of the endoscope unit 110 by the imaging control unit 181 and the control of the display on the display device by the display control unit 182 are described above. This is also the same in the support system according to the embodiment and each modified example. In other words, in this modification, functions originally provided in the endoscopic surgery system 3000 are controlled by an operation input method newly introduced by applying the support system 1c (for example, operation input via NUI). It is what makes it possible.
  • the support system 1c for example, operation input via NUI
  • the imaging condition of the endoscope unit 110, the operation of the arm unit of the support arm unit 120, and the display device that constitutes the output unit 160 are input by an operation input via the NUI.
  • the display can be appropriately operated.
  • the NUI it is possible to perform operation input without contact. Therefore, even a user belonging to a clean area can perform operation input without touching an input device belonging to an unclean area.
  • the operation input can be performed more intuitively with a simpler operation, various operation inputs can be performed without stopping the operation. Therefore, the convenience of the user can be remarkably improved by being able to operate each component in the endoscopic surgery system 3000 via the NUI as in this modification.
  • the support arm device that supports the endoscope is configured to be operable by a direct operation by a scoopist.
  • the present embodiment is not limited to such an example.
  • the support arm device to which the support system according to the present embodiment can be applied may be configured to be operable by a master slave method.
  • the safety control can be executed by the configuration of the support system 1 illustrated in FIG. .
  • the master slave method since the user does not directly touch the arm portion of the support arm device, there is a concern that it is difficult for the user to intuitively grasp that when the operation is restricted. Therefore, when the support system is applied to the master slave type support arm device, it is preferable that the user is more positively notified that the operation is restricted.
  • feedback corresponding to the operation restriction can be performed on the controller on which the user performs operation input.
  • a sense of resistance may be given to the operation of an operating body such as a joystick operated by the user according to the operation speed.
  • the operation body operated by the user may be fixed so as not to move in conjunction therewith.
  • the controller may vibrate together with the provision of resistance to the operating body or the fixing of the operating body.
  • a 3D model of the biological tissue in the body cavity for example, as described in Patent Document 1 may be used in combination.
  • the storage unit that stores the three-dimensional information of the living tissue in the body cavity of the patient for constructing the 3D model is provided for the support system 1 illustrated in FIG. Further, it can be realized by being provided.
  • the support system based on information obtained by MRI or CT performed on a patient before surgery, three-dimensional information indicating the position and shape of a living tissue in the body cavity of the patient is obtained. Generate it.
  • the three-dimensional information is stored in the storage unit, and the support system can appropriately access the three-dimensional information.
  • the distance between the barrel biological tissues can be detected in real time in the body cavity of the patient.
  • the three-dimensional information stored in the storage unit is updated as needed during the operation based on the detected distance between the barrel biological tissues. Since the position of the lens barrel can be calculated based on the information indicating the state of the arm unit provided from the arm control unit, the safety control unit constructs the latest 3D model of the biological tissue from the updated three-dimensional information.
  • the positional relationship between the lens barrel and the surrounding biological tissue is identified by combining the calculated position of the lens barrel, the constructed 3D model, and the detected distance between the lens barrel biological tissues. can do.
  • the safety control unit can appropriately issue an operation restriction instruction and a warning instruction as in the above-described embodiment.
  • the distance between the lens barrel and the living tissue is calculated using the 3D model constructed based on the three-dimensional information acquired before the operation.
  • the three-dimensional information is updated at any time according to the distance between the barrel biological tissues detected in real time. Therefore, it is possible to construct a 3D model of the living tissue reflecting the actual situation, and to more accurately identify the distance between the lens barrel and the living tissue.
  • the operation restriction and the warning are performed more appropriately. And safer surgery can be provided.
  • the support system according to the present disclosure is applied to the operation of the endoscope in the endoscopic surgery system is described as an example, but the present technology is not limited to such an example.
  • the support system according to the present disclosure may be applied to other surgical tools such as forceps and retractors.
  • a distance measuring sensor is provided at the distal end of these surgical tools, or a distance measuring sensor is provided at a position where these surgical tools can be observed from the outside. It is possible to apply the support system according to the modification described in (1).
  • the support system according to the present disclosure may be applied to a microscope operation system in which a microscope for observing a surgical site in an enlarged manner is supported by a support arm device.
  • a detection value of a distance sensor provided in the microscope for example, based on a captured image of a microscope composed of a stereo camera, a detection value of a distance sensor provided in the microscope, or a detection value of a distance sensor provided at a position where the microscope can be observed from the outside, The distance between the objective lens of the microscope and the biological tissue facing the microscope is detected, and safety control can be performed so that the microscope and the biological tissue of the patient do not contact each other.
  • a support arm that supports the surgical instrument based on a distance between the surgical instrument and the biological tissue which is a distance between the surgical instrument and the biological tissue detected while performing a treatment on the biological tissue of the patient with the surgical instrument. Issuing a limited operation instruction to limit the operation of the arm part of the device, Medical safety control device.
  • Medical safety control device When the distance between the surgical instrument biological tissues is equal to or less than a predetermined first limit distance, an instruction to stop the operation of the arm unit is issued as the limit operation instruction.
  • the operation speed of the arm unit is limited to a predetermined value or less as the limit operation instruction. Issue instructions, The medical safety control device according to (2) above.
  • the predetermined value for limiting the operation speed of the arm unit changes according to the distance between the surgical instrument living tissue, The medical safety control device according to (3).
  • an instruction to operate the arm unit so that the surgical instrument performs a retreat operation to move away from the biological tissue as the restriction operation instruction Issue, The medical safety control device according to (1), 3 or 4 above.
  • the surgical instrument moves in reverse to follow the path traveled, The medical safety control device according to (5) above.
  • (7) Further issuing an instruction to issue a warning based on the distance between the surgical instrument biological tissues, The medical safety control device according to any one of (1) to (6).
  • the warning is set in stages according to the distance between the surgical instrument biological tissues, The medical safety control device according to (7).
  • the surgical instrument is an endoscope configured as a stereo camera, The surgical instrument biological tissue distance is detected based on an image captured by the endoscope, The medical safety control device according to any one of (1) to (8).
  • a distribution of the distance between the surgical tool body tissues in a plane substantially perpendicular to the traveling direction of the surgical tool is detected; Based on the distance between the surgical instrument biological tissues in each of a plurality of regions set in the traveling direction of the surgical instrument, issue the restriction operation instruction, The medical safety control device according to (9).
  • the distance between the surgical instrument biological tissues is detected by a distance measuring sensor provided at the distal end of the surgical instrument.
  • the medical safety control device according to any one of (1) to (8).
  • the distance between the surgical tool and the biological tissue is detected by a distance detector provided at a position where the surgical tool and the biological tissue can be observed.
  • the medical safety control device according to any one of (1) to (8).
  • the condition that defines the restriction of the operation of the arm unit is set according to the input through the NUI by the user.
  • the medical safety control device according to any one of (1) to (12).
  • the input via the NUI is performed by at least one of a user's voice, a user's line of sight movement, a user's head movement, and a user's gesture.
  • the medical safety control device according to (13).
  • Power assist control in which the arm unit is driven according to an external force applied to the arm unit by the user is performed on the arm unit.
  • the medical safety control device according to any one of (1) to (14).
  • a medical support system comprising:

Abstract

【課題】医療行為における安全性をより高めることを可能にする。 【解決手段】術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記術具を支持する支持アーム装置のアーム部の動作を制限する制限動作指示を発行する、医療用安全制御装置を提供する。

Description

医療用安全制御装置、医療用安全制御方法、及び医療用支援システム
 本開示は、医療用安全制御装置、医療用安全制御方法、及び医療用支援システムに関する。
 近年、医療現場においては、検査や手術をサポートするために支持アーム装置が用いられつつある。例えば、支持アーム装置のアーム部によって内視鏡や電子撮像式の顕微鏡(ビデオ式の顕微鏡)等の術部を拡大観察するための観察用器具を支持し、当該観察用器具によって撮影された映像を見ながら医師が検査や手術を行う方法が提案されている。あるいは、アーム部の先端に鉗子やレトラクタ等の処置具を設け、従来人手で行われていた処置具の支持や操作を、支持アーム装置に行わせる方法も提案されている。
 また、このような支持アーム装置を用いた手術を対象とした手術支援システムが開発されている。例えば、特許文献1には、マニピュレータによって術具(上述した観察用器具や処置具)を支持し、当該マニピュレータを操作することによって手術を行う際に、事前に取得されたMRI(Magnetic Resonance Imaging)やCT(Computed Tomography)の情報から患者の体腔内の生体組織の3次元情報を生成するとともに、手術中における術具の位置を検出し、表示装置に、その3次元情報から生成される生体組織の画像と当該生体組織に対する術具の位置を表示する技術が開示されている。更に、特許文献1に記載の技術では、事前に設定された領域や経路から術具が離れた場合に警告が発せられる。このように、当該技術では、ユーザが術部と術具との相対的な位置関係を常に把握することができるとともに、例えば体腔内への進入経路から術具が外れた場合には警告が発せられることにより、術者による手術の実行が支援される。
特開2004-223128号公報
 ここで、上記特許文献1に記載の技術では、手術前に取得されたMRIやCTの情報に基づいて術部の3次元情報が生成される。そして、手術中における生体組織の位置は、この手術前に生成された3次元情報に基づいて特定されている。しかしながら、手術中には、患者の生体組織の位置や形状は経時的に変化し得る。従って、実際の手術時における体腔内の生体組織の状況は、必ずしも手術前に取得された情報に基づく生体組織の3次元情報とは一致しない場合がある。このような場合には、特許文献1に記載の技術では、警告が有効に働かず、安全を十分に確保できない恐れがある。
 また、特許文献1に記載の技術では、事前に設定された領域や経路から術具が離れた場合に警告が発せられる。つまり、ユーザは、安全な領域や経路から術具が離れたときに、初めて自身の操作が誤っていたかもしれないこと、すなわち危険が生じ得る状況であることに気付くこととなる。しかしながら、安全性をより確実に確保するためには、より早期に、危険の発生が予期される場合に、ユーザがその状況を把握できることが望ましい。
 このように、これまで提案されている、医療行為における安全を確保するための技術には、安全性の観点から更なる改善の余地があると考えられる。そこで、本開示では、医療行為における安全性をより高めることが可能な、新規かつ改良された医療用安全制御装置、医療用安全制御方法、及び医療用支援システムを提供する。
 本開示によれば、術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記術具を支持する支持アーム装置のアーム部の動作を制限する制限動作指示を発行する、医療用安全制御装置が提供される。
 また、本開示によれば、術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記術具を支持する支持アーム装置のアーム部の動作を制限する制限動作指示を発行すること、を含む、医療用安全制御方法が提供される。
 また、本開示によれば、アーム部によって術具を支持する支持アーム部と、前記支持アーム部の駆動を制御するアーム制御部と、前記術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記アーム部の動作を制限する制限動作指示を、前記アーム制御部に対して発行する医療用安全制御部と、を備える、医療用支援システムが提供される。
 本開示によれば、術具によって患者の生体組織に対して処置を行っている間に、当該術具と当該生体組織との距離である術具生体組織間距離が検出される。そして、検出された当該術具生体組織間距離に基づいて、当該術具を支持する支持アーム装置のアーム部の動作を制限する制限動作指示が発行される。このように、いわばリアルタイムで検出された術具生体組織間距離を用いることにより、最新の術具と生体組織との位置関係に応じて、術具を支持するアーム部に対して制限動作指示がなされるため、医療行為における安全性をより高めることができる。
 以上説明したように本開示によれば、医療行為における安全性をより高めることが可能になる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果、又は本明細書から把握され得る他の効果が奏されてもよい。
本実施形態に係る内視鏡手術システムの一構成例を示す図である。 本実施形態に係る支援システムの機能構成の一例を示すブロック図である。 面測距の様子を概略的に示す図である。 面測距の結果を概略的に示す図である。 本実施形態に係る支援システムを用いた手術の様子を表す図である。 支援システムにおけるNUIについて説明するための図である。 第1制限距離の範囲を変更する際のUIの一表示例を示す図である。 第1制限距離の範囲を変更する際のUIの他の表示例を示す図である。 本実施形態に係る安全制御方法の処理手順の一例を示すフロー図である。 内視鏡の先端に測距センサが設けられる変形例に係る支援システムの機能構成の一例を示すブロック図である。 1点測距の様子を概略的に示す図である。 内視鏡の先端に測距センサが設けられる変形例に係る安全制御方法の処理手順の一例を示すフロー図である。 内視鏡の鏡筒を外部から観測する距離検出部が設けられる変形例に係る支援システムの機能構成の一例を示すブロック図である。 動作制限として退避動作が実行される変形例に係る安全制御方法の処理手順の一例を示すフロー図である。 動作制限として退避動作が実行される変形例に係る安全制御方法の処理手順の他の例を示すフロー図である NUIを介して内視鏡手術システムの他の構成に対する操作入力が可能に構成された支援システムの機能構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.内視鏡手術システムの構成
 2.支援システムの構成
 3.動作制限情報の入力方法
 4.安全制御方法
 5.変形例
  5-1.測距方法
  5-1-1.鏡筒の先端に測距センサが設けられる場合
  5-1-2.外部に距離検出部が設けられる場合
  5-2.退避動作
  5-3.NUIを介したその他の構成の操作
  5-4.マスタースレイブ方式の支持アーム装置への適用
  5-5.3Dモデルの利用
 6.補足
 なお、以下では、本開示の好適な一実施形態として、内視鏡手術システムに対して本技術が適用される場合を例に挙げて説明する。ただし、本技術はかかる例に限定されず、支持アーム装置によって術具(観察用器具及び/又は処置具)を支持して行う医療行為(各種の検査や手術等)に対して適用可能である。また、以下の説明において、「ユーザ」とは、内視鏡手術システムを用いる医療スタッフ(手術を行う術者、内視鏡を操作するスコピスト、助手等)の少なくともいずれかのことを意味するものとする。特に区別する必要がある場合のみ、当該ユーザを、術者又はスコピスト等と記載する。
 (1.内視鏡手術システムの構成)
 図1を参照して、本実施形態に係る支援システムが適用され得る内視鏡手術システムの構成について説明する。図1は、本実施形態に係る内視鏡手術システムの一構成例を示す図である。
 図1では、術者(医師)3501が、内視鏡手術システム3000を用いて、患者ベッド3503上の患者3505に手術を行っている様子が図示されている。図示するように、内視鏡手術システム3000は、内視鏡3100と、その他の術具3200と、内視鏡3100を支持する支持アーム装置3300と、内視鏡下手術のための各種の装置が搭載されたカート3400と、から構成される。内視鏡手術システム3000に対して本実施形態に係る支援システムが適用されることにより、より安全な手術が実現され得る。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ3207a~3207dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ3207a~3207dから、内視鏡3100の鏡筒3101や、その他の術具3200が患者3505の体腔内に挿入される。図示する例では、その他の術具3200として、気腹チューブ3201、エネルギー処置具3203及び鉗子3205が、患者3505の体腔内に挿入されている。エネルギー処置具3203は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具3200はあくまで一例であり、術具3200としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡3100によって撮影された患者3505の体腔内の術部の画像が、後述する表示装置3403に表示される。術者3501は、表示装置3403に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具3203や鉗子3205を用いて、例えば患部を切除する等の処置を行う。
 なお、図示は省略しているが、気腹チューブ3201、エネルギー処置具3203及び鉗子3205は、手術中に、術者3501又は助手等によって支持される。あるいは、図示する例では、内視鏡3100を支持する支持アーム装置3300が1基のみ備えられているが、支持アーム装置3300が複数備えられ、気腹チューブ3201、エネルギー処置具3203及び鉗子3205がその複数の支持アーム装置3300のそれぞれによって支持されてもよい。
 (支持アーム装置)
 支持アーム装置3300は、ベース部3301から延伸するアーム部3303を備える。図示する例では、アーム部3303は、関節部3305a、3305b、3305c、及びリンク3307a、3307bから構成されており、アーム制御装置3407からの制御により駆動される。アーム部3303によって内視鏡3100が支持され、その位置及び姿勢が制御される。これにより、内視鏡3100の安定的な位置の固定が実現され得る。
 ただし、図1では、簡単のため、アーム部3303の構成を簡略化して図示している。実際には、アーム部3303が所望の自由度を有するように、関節部3305a~3305c及びリンク3307a、3307bの形状、数及び配置、並びに関節部3305a~3305cの回転軸の方向等が適宜設定され得る。例えば、アーム部3303は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部3303の可動範囲内において内視鏡3100を自由に移動させることが可能になるため、所望の方向から内視鏡3100の鏡筒3101を患者3505の体腔内に挿入することが可能になる。
 関節部3305a~3305cにはアクチュエータが設けられており、関節部3305a~3305cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動が後述するアーム制御装置3407によって制御されることにより、各関節部3305a~3305cの回転角度が制御され、アーム部3303の駆動が制御される。これにより、内視鏡3100の位置及び姿勢が制御される。
 具体的には、関節部3305a~3305cに設けられるアクチュエータには、各関節部の回転角度を検出するエンコーダや、各関節部に作用するトルクを検出するトルクセンサ等の、各関節部の状態を検出するための各種のセンサが設けられる。これらのセンサの検出値は、アーム制御装置3407に送信される。アーム制御装置3407は、アーム部3303の幾何学的状態及び力学的状態が支持アーム装置3300の内部座標によって表現された内部モデルを有しており、当該内部モデルと、当該センサの検出値と、に基づいて、現在の関節部3305a~3305cの状態、すなわち現在のアーム部3303の状態(位置、姿勢、速度等)を把握することができる。アーム制御装置3407は、把握したアーム部3303の状態に基づいて、ユーザによるアーム部3303の動作に対する操作入力に対応する各関節部の駆動制御量(例えば、回転角度や駆動トルク)を算出し、当該駆動制御量に応じて各関節部を駆動させる。
 本実施形態では、アーム制御装置3407は、力制御によって、アーム部3303の駆動を制御する。力制御が適用される場合には、アーム制御装置3407は、内視鏡3100を操作する医師(スコピスト)がアーム部3303又は内視鏡3100に直接触れて行う操作(以下、直接操作ともいう)に応じて、その直接操作における外力にならってスムーズにアーム部3303が移動するように各関節部3305a~3305cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行うことができる。これにより、スコピストが直接アーム部3303に触れながらアーム部3303を移動させる際に、比較的軽い力で当該アーム部3303を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡3100を移動させることが可能となり、スコピストの利便性を向上させることができる。
 ただし、本実施形態はかかる例に限定されず、アーム制御装置3407は、位置制御によってアーム部3303の駆動を制御してもよい。また、直接操作以外の他の方法に応じて、アーム部3303が操作されてもよい。例えば、ユーザが、入力装置3409(フットスイッチ3419を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置3407によってアーム部3303の駆動が適宜制御され、内視鏡3100の位置及び姿勢が制御されてよい。あるいは、アーム部3303は、ユーザのジェスチャ等によって操作されてもよい。あるいは、アーム部3303は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部3303は、手術室から離れた場所に設置される入力装置3409を介してユーザによって遠隔操作され得る。このような、直接操作以外の操作に応じたアーム部3303の駆動については、下記(5-3.NUIを介したその他の構成の操作)及び(5-4.マスタースレイブ方式の支持アーム装置への適用)で改めて説明する。
 (内視鏡)
 内視鏡3100は、先端から所定の長さの領域が患者3505の体腔内に挿入される鏡筒3101と、鏡筒3101の基端に接続されるカメラヘッド3103と、から構成される。内視鏡3100は、硬性の鏡筒3101を有するいわゆる硬性鏡である。ただし、本実施形態はかかる例に限定されず、内視鏡3100は、軟性の鏡筒3101を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒3101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡3100は、鏡筒3101の延伸方向と光軸が略一致するように上記対物レンズが設置される直視鏡として構成される。内視鏡3100には後述する光源装置3405が接続されており、当該光源装置3405によって生成された光が、鏡筒3101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者3505の体腔内の観察対象に向かって照射される。なお、本実施形態はかかる例に限定されず、内視鏡3100は、斜視鏡又は側視鏡であってもよい。
 カメラヘッド3103の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとして後述するカメラコントロールユニット(CCU:Camera Control Unit)3401に送信される。なお、カメラヘッド3103には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載され得る。
 なお、本実施形態では、立体視(3D表示)等に対応するために、カメラヘッド3103には撮像素子が複数設けられる。すなわち、内視鏡3100は、ステレオカメラとして構成され得る。この場合、鏡筒3101の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。ただし、本実施形態はかかる例に限定されず、内視鏡3100は、カメラヘッド3103が単一の撮像素子を有するように構成されてもよい。
 (カートに搭載される各種の装置)
 CCU3401は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、内視鏡3100及び表示装置3403の動作を統括的に制御する。具体的には、CCU3401は、カメラヘッド3103から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU3401は、当該画像処理を施した画像信号を表示装置3403に提供する。また、CCU3401は、カメラヘッド3103に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
 表示装置3403は、CCU3401からの制御により、当該CCU3401によって画像処理が施された画像信号に基づく画像を表示する。内視鏡3100が例えば4K又は8K等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置3403としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。また、表示装置3403は、後述する安全制御装置3408からの指示に応じて、スコピストによる内視鏡3100の操作に対する警告を、例えばテキスト等の形式で表示する。
 光源装置3405は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡3100に供給する。
 アーム制御装置3407は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置3300のアーム部3303の駆動を制御する。なお、アーム制御装置3407がアーム部3303の駆動を制御するための具体的な方法としては、各種の公知な方法を適用することができるため、ここではその詳細な説明は省略する。
 安全制御装置3408は、例えばCPU等のプロセッサによって構成され、CCU3401及びアーム制御装置3407と連携し、内視鏡手術システム3000を用いた手術において、安全を確保することを目的として、スコピストの操作を支援するための各種の制御を行う。安全制御装置3408の機能の詳細については、下記(2.支援システムの構成)で改めて説明する。
 入力装置3409は、内視鏡手術システム3000に対する入力インタフェースである。ユーザは、入力装置3409を介して、内視鏡手術システム3000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置3409を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置3409を介して、アーム部3303を駆動させる旨の指示や、内視鏡3100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。また、ユーザは、入力装置3409を介して、支援システムにおいて処理される各種の情報(後述する動作制限情報等)を入力することができる。
 入力装置3409の種類は限定されず、入力装置3409は各種の公知の入力装置であってよい。入力装置3409としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ3419及び/又はレバー等が適用され得る。入力装置3409としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置3403の表示面上に設けられてもよい。
 あるいは、入力装置3409は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであってもよく、これらのデバイスによって検出されるユーザのジェスチャや視線の動き、ヘッドトラック等に応じて各種の入力が行われてもよい。あるいは、入力装置3409は、ユーザの動きを検出可能なカメラであってもよい。当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われ得る。あるいは、入力装置3409は、ユーザの声を収音可能なマイクロフォンであってもよい。当該マイクロフォンを介して音声によって各種の入力が行われ得る。このように、入力装置3409が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者3501)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置3411は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具3203の駆動を制御する。気腹装置3413は、内視鏡3100による視野の確保及び術者3501の作業空間の確保の目的で、患者3505の体腔を膨らめるために、気腹チューブ3201を介して当該体腔内にガスを送り込む。レコーダ3415は、手術に関する各種の情報を記録可能な装置である。プリンタ3417は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以上、内視鏡手術システム3000の構成について説明した。
 (2.支援システムの構成)
 図2を参照して、以上説明した内視鏡手術システム3000に適用される、本実施形態に係る支援システムの構成について説明する。図2は、本実施形態に係る支援システムの機能構成の一例を示すブロック図である。なお、本実施形態に係る支援システムは、検査時や手術時において、支持アーム装置によって支持される術具を当該支持アーム装置を介して操作するユーザを支援するものである。本実施形態では、一例として、支援システムが、スコピストが支持アーム装置のアーム部を直接操作によって動かしながら内視鏡を操作する際に、当該スコピストの操作を支援する場合について説明する。ただし、本実施形態はかかる例に限定されず、支持アーム装置によって支持される他の術具が他のユーザによって操作される場合には、支援システムは、当該他のユーザによる当該他の術具の操作を支援してもよい。
 図2を参照すると、本実施形態に係る支援システム1は、その機能として、内視鏡部110と、支持アーム部120と、アーム制御部130と、画像処理距離算出部140と、入力部150と、出力部160と、安全制御部170と、を備える。
 内視鏡部110の機能は、図1に示す内視鏡3100によって実現され得る。内視鏡部110は、患者の体腔内における術部の画像を撮影する。内視鏡部110は、撮影した患者の術部の画像についての情報を、画像処理距離算出部140に提供する。
 支持アーム部120の機能は、図1に示す支持アーム装置3300によって実現され得る。支持アーム部120は、そのアーム部によって内視鏡部110を支持するとともに、アーム制御部130からの制御により当該アーム部を駆動することにより、内視鏡部110の位置、姿勢及び動作を制御する。支持アーム部120からは、アーム部の各関節部に設けられる各種のセンサ(エンコーダやトルクセンサ等)によって取得される、当該各関節部の状態を示す情報が、アーム制御部130に提供される。なお、図2では、支持アーム部120のアーム部によって内視鏡部110が支持されていることを示すために、両者を破線で結んでいる。
 アーム制御部130の機能は、図1に示すアーム制御装置3407によって実現され得る。アーム制御部130は、支持アーム部120から提供される各関節部の状態を示す情報、及びスコピストによる操作入力に応じて、支持アーム部120におけるアーム部の駆動を制御することにより、内視鏡部110の位置、姿勢及び動作を制御する。このとき、本実施形態では、アーム制御部130は、安全制御部170から、支持アーム部120の動作を制限する旨の指示(以下、動作制限指示ともいう)を受け、当該動作制限指示に従って制限を設けた上でアーム部を駆動させる。安全制御部170による動作制限指示の詳細については後述する。
 画像処理距離算出部140は、内視鏡部110から提供される術部の画像についての情報に基づいて、内視鏡の鏡筒の先端と、その画像に含まれる物体(患者の体腔内の生体組織)との距離(以下、鏡筒生体組織間距離ともいう)を算出する。図示する構成例では、内視鏡部110はステレオカメラとして構成されており、その撮像画像は3次元情報を有するものとして取得されるため、画像処理距離算出部140は、内視鏡部110において取得された画像信号に対して各種の画像処理を施すとともに、距離の算出処理を行うことにより、鏡筒生体組織間距離を算出することができる。なお、ステレオカメラを用いた距離の算出の具体的な方法としては、各種の公知の方法が用いられてよいため、ここでは詳細な説明は省略する。
 本実施形態では、画像処理距離算出部140は、手術中にリアルタイムで鏡筒生体組織間距離を算出する。ここで、本明細書において、「手術中」とは、少なくとも術具によって患者の生体組織に対して処置を行っている期間を意味する。例えば、今説明している実施形態のように内視鏡手術システム3000におけるスコピストの操作を支援の対象とする場合であれば、「手術中」とは、少なくとも内視鏡部110による術部の撮影が行われている期間を意味する。また、本明細書において、「リアルタイムに実行される」とは、手術中に少なくとも1度は実行されることを意味する。本実施形態では、例えば、画像処理距離算出部140は、内視鏡部110による撮影のフレームレートごとに、各フレームレートにおいて取得された画像信号に基づいて鏡筒生体組織間距離を算出する。ただし、画像処理距離算出部140による鏡筒生体組織間距離の算出間隔はかかる例に限定されず、画像処理距離算出部140は、より広い時間間隔で鏡筒生体組織間距離を算出してもよい。当該算出間隔は、後述する鏡筒生体組織間距離に応じた支持アーム部120の動作制限によって安全性が十分に確保され得るように、適宜決定されてよい。
 画像処理距離算出部140は、算出した鏡筒生体組織間距離についての情報を、算出する度に随時、安全制御部170に提供する。
 なお、画像処理距離算出部140の機能は、CCU3401及び安全制御装置3408が協働することにより実現され得る。この場合、例えば、画像処理がCCU3401によって実行され、距離算出に係る演算処理が安全制御装置3408によって実行される。あるいは、画像処理距離算出部140の機能は、CCU3401及び安全制御装置3408のいずれか一方によって実現されてもよい。
 入力部150の機能は、図1に示す入力装置3409によって実現され得る。入力部150は、ユーザによる、支持アーム部120の動作制限についての情報(以下、動作制限情報ともいう)を受け付ける。具体的には、動作制限情報は、動作制限を規定する各種の条件についての情報、例えば、動作制限を実行するか否かについての情報、後述する第1制限距離及び第2制限距離、進行領域及び周辺領域、並びに動作速度を制限する際の許容速度等についての情報を含む。
 本実施形態では、入力部150は多様な入力方法に対応し得る。図示する構成例では、入力部150は、更にその機能として、音声検出部151と、視線検出部152と、ヘッドトラック検出部153と、ジェスチャ検出部154と、装置操作検出部155と、を有する。ユーザは、これらのいずれかの機能を利用して、動作制限情報を入力することができる。
 音声検出部151は、例えばマイクロフォン等の収音装置によって実現され、ユーザの音声を検出する。視線検出部152は、例えばHMDや眼鏡型のウェアラブルデバイスに設けられる視線検出センサによって実現され、ユーザの視線の動きを検出する。ヘッドトラック検出部153は、例えばHMDや眼鏡型のウェアラブルデバイス等のユーザの頭部に装着されるデバイスに設けられる加速度センサによって実現され、ユーザの頭部の動きを検出する。ジェスチャ検出部154は、例えば手術室内に設けられるユーザを撮影可能なカメラ装置や、例えば腕時計型のウェアラブルデバイス等のユーザの身体に装着されるデバイスに設けられる加速度センサによって実現され、ユーザのジェスチャを検出する。装置操作検出部155は、上述した以外の各種の入力装置(例えば、フットスイッチ、レバー、ボタン、タッチセンサ等)によって実現され、これらの装置を介したユーザの操作入力を検出する。
 なお、以上説明した音声検出部151、視線検出部152、ヘッドトラック検出部153及びジェスチャ検出部154を介した操作入力は、いわゆるNUI(Natural User Interface)を介した操作入力であり、非接触での操作入力を可能とするものである。一方、装置操作検出部155は、NUI以外の操作入力を受け付ける機能を有するものである。ここで、医療現場では、清潔域に属するユーザが、不潔域に属する装置に対して操作入力を与えたい場合がある。このような場合において、非接触での操作入力が行えない場合には、当該ユーザが直接入力装置に触れながら操作入力を行うことができないため、例えば助手に口頭で指示を行い、当該助手が入力装置を介して操作入力を行う必要があり、非効率である。これに対して、本実施形態では、NUIを適用することにより、非接触での操作入力が可能となるため、不潔域に属する装置に対しても、清潔域に属するユーザが直接操作入力を行うことが可能となる。従って、より直感的な操作入力が可能となり、ユーザの利便性を向上させることができる。なお、動作制限情報を入力するためのUIの例については、下記(3.動作制限情報の入力方法)で改めて説明する。
 入力部150は、ユーザによって入力された動作制限情報を、安全制御部170に提供する。
 出力部160の機能は、図1に示す表示装置3403によって実現され得る。また、出力部160は、図1には図示しないランプ等の他の視覚的な出力装置や、スピーカ等の音声出力装置によって実現されてもよい。出力部160は、安全制御部170からの指示に基づいて、表示、音等により、スコピストによる内視鏡部110の操作に対する警告を行う。当該警告は、表示装置によるテキスト等の表示、ランプの発光、並びに/又は音声出力装置による音声及びアラーム等の出力によって行われ得る。このとき、本実施形態では、安全制御部170からの警告の指示は段階的に設定され得る。これに対応して、出力部160は、警告を段階的に発するように構成され得る。例えば、出力部160は、表示されるテキストのフォントの大きさや、ランプの発光強度や色の種類、音の大きさ等を適宜制御することにより、比較的小規模な警告と、比較的大規模な警告と、をそれぞれ発することが可能である。
 安全制御部170の機能は、図1に示す安全制御装置3408によって実現され得る。安全制御部170は、画像処理距離算出部140から提供される鏡筒生体組織間距離と、入力部150から提供される動作制限情報に基づいて、動作制限指示をアーム制御部130に発行する。また、安全制御部170は、当該鏡筒生体組織間距離及び当該動作制限情報に基づいて、警告を発する旨の指示を出力部160に発行する。なお、このとき、安全制御部170は、アーム制御部130からアーム部の状態についての情報を取得し、当該情報に基づいて把握される内視鏡の鏡筒の位置を利用して、画像処理距離算出部140から提供された鏡筒生体組織間距離を、適宜補正してもよい。
 具体的には、安全制御部170は、動作制限情報に基づいて、第1制限距離及び第2制限距離を設定する。ここで、第1制限距離は、安全を確保するために許容され得る鏡筒と術部との最小距離(許容限界距離)に近い値として設定される。また、第2制限距離は、第1制限距離よりも長い距離であり、直ちに危険が及ぶことはないものの、そのまま内視鏡が進行すればまもなく許容限界距離に達する恐れのある距離として設定される。安全制御部170は、鏡筒生体組織間距離と、第1制限距離及び第2制限距離との関係に応じて、動作制限指示及び警告の指示を発行する。
 ただし、上述したように、本実施形態では、ステレオカメラによる撮像画像に基づいて鏡筒生体組織間距離が算出されるため、鏡筒生体組織間距離として、内視鏡の撮影範囲に含まれる各物体と鏡筒との距離が算出され得る。つまり、鏡筒の進行方向と略垂直な面内における鏡筒生体組織間距離の2次元的な分布を得ることができる。これを利用して、本実施形態では、安全制御部170は、鏡筒の進行方向に複数の領域を設定し、これら複数の領域のそれぞれにおける、鏡筒生体組織間距離と第1制限距離及び第2制限距離との関係性に応じて、動作制限指示及び警告の指示を発行する。なお、以下では、便宜的に、このような鏡筒生体組織間距離の2次元的な分布を取得することができる測距のことを、面測距とも呼称する。
 面測距及び領域分割の一例について、図3及び図4を参照して説明する。図3は、面測距の様子を概略的に示す図である。図4は、面測距の結果を概略的に示す図である。
 図3に示すように、体腔内において、鏡筒201の進行方向の正面に生体組織203が存在し、鏡筒201の進行方向に位置しているが、正面からは外れた場所に位置している他の生体組織205が存在しているとする。ただし、生体組織205は、生体組織203よりも鏡筒201に近い場所に位置している。
 この場合において、ステレオカメラによる撮像画像に基づいて鏡筒生体組織間距離を算出すると、撮像画像内における当該鏡筒生体組織間距離の分布を得ることができる。図4は、この撮像画像内における当該鏡筒生体組織間距離の分布を概略的に図示したものである。図4に示す例では、算出した鏡筒生体組織間距離を3段階に分け、それぞれの距離に属する領域に異なるハッチングを付けて図示している。近距離領域207aは、鏡筒生体組織間距離が比較的近い領域であり、中距離領域207bは、鏡筒生体組織間距離が中程度の領域であり、遠距離領域207cは、鏡筒生体組織間距離が比較的遠い領域である。図4を参照すると、近距離領域207aに位置する生体組織205が検出されていることが分かる。
 ここで、説明の便宜のため、第1制限距離が近距離領域207aと中距離領域207bとの境界の値として設定され、第2制限距離が中距離領域207bと遠距離領域207cとの境界の値として設定されているとする。この場合、例えば、安全制御部170は、撮像画像内に近距離領域207a及び/又は中距離領域207bが存在していることを判断基準として、動作制限指示及び警告の指示を発行してもよい。
 しかしながら、図4を参照すると、近距離領域207aは、撮像画像内の中央から外れた場所に分布している。従って、図3に示す位置関係からも明らかなように、鏡筒201がこのままその延伸方向に進行したとしても、鏡筒201が、近距離領域207aに位置する生体組織205に衝突する危険性は低いと考えられる。このような場合に、上記のように撮像画像内に近距離領域207a及び/又は中距離領域207bが存在していることを単純に判断基準として動作制限指示及び警告の指示を発行すると、かえってスコピストの操作の妨げとなる恐れがある。
 従って、本実施形態では、安全制御部170は、動作制限情報に基づいて、鏡筒201の進行方向に複数の領域を設定する。当該複数の領域は、鏡筒201の光軸を中心とする同心円状の領域として設定され得る。図示する例では、鏡筒201が今後進行する領域である進行領域209と、当該進行領域の周辺の領域である周辺領域211が設定されている。進行領域209は、鏡筒201の進行方向において、鏡筒201の外径よりも若干大きな直径を有する円柱形状の領域として設定される。周辺領域211は、当該進行領域209の外周を取り囲む円筒形状の領域として設定される。
 安全制御部170は、進行領域209と周辺領域211において、それぞれ、鏡筒生体組織間距離と第1制限距離及び/又は第2制限距離との関係性に応じて、動作制限指示及び警告の指示を発行する。具体的には、安全制御部170は、進行領域209において鏡筒生体組織間距離が第1制限距離以下である場合には、進行方向への鏡筒201の移動を停止させるように(すなわち、支持アーム部120のアーム部のそのときの移動方向への動作を停止させるように)、アーム制御部130に対して動作制限指示を発行する。また、安全制御部170は、併せて、出力部160に対して、比較的大規模な警告を発する旨の指示を発行する。
 また、安全制御部170は、進行領域209において鏡筒生体組織間距離が第2制限距離以下である場合には、鏡筒201の移動速度(すなわち、支持アーム部120のアーム部の動作速度)を制限するように、アーム制御部130に対して動作制限指示を発行する。また、安全制御部170は、併せて、出力部160に対して、比較的小規模な警告を発する旨の指示を発行する。
 また、安全制御部170は、周辺領域211において鏡筒生体組織間距離が第1制限距離以下である場合には、動作速度を制限するように、アーム制御部130に対して指示を出す。また、安全制御部170は、併せて、出力部160に対して、比較的小規模な警告を発する旨の指示を出す。
 また、安全制御部170は、上記以外の場合には、動作制限指示及び警告の指示を発行せず、アーム制御部130に対してアーム部に通常動作を行わせる旨の指示を出す。ここで、通常動作とは、動作制限が課されることなく、スコピストの操作に従って、アーム部が自由に移動する動作である。
 アーム制御部130は、安全制御部170からの指示を受けて、制限を設けた上で支持アーム部120を駆動させる。このとき、アーム制御部130は、スコピストによる支持アーム部120に対する操作よりも、安全制御部170からの指示を優先して、支持アーム部120を駆動させる。これにより、万が一スコピストが操作を誤り、鏡筒201が生体組織203、205に必要以上に近付いたとしても、鏡筒201の移動速度が低下される、又は鏡筒201の移動が停止されることとなり、患者の安全性が確保される。また、同時に、出力部160により、比較的小規模な警告又は大規模な警告が行われるため、スコピストは、当該警告により自身の操作に問題が生じていることを把握することができる。このとき、本実施形態によれば、鏡筒生体組織間距離がリアルタイムで検出されているため、より正確な鏡筒201と生体組織203、205との位置関係に基づいて、安全制御部170による指示がなされる。従って、手術の安全性をより向上させることが可能になる。
 また、本実施形態では、上記のように、2種類の制限距離(第1制限距離及び第2制限距離)を設定することにより、鏡筒生体組織間距離に応じて、支持アーム部120のアーム部の動作制限、及び出力部160による警告が、段階的に行われる。従って、スコピストは、支持アーム部120のアーム部の動作速度が制限されたこと、及び出力部160によって小規模な警告がなされた段階で、危険が生じる可能性があることを把握し、自身の操作を改めることができる。このように、本実施形態によれば、実際に危険が生じる前に、より早い段階で、鏡筒201と生体組織203、205との位置関係をスコピストに知らせることができるため、更に安全性を高めることができる。
 また、上記のように、鏡筒201の進行領域209及び周辺領域211も考慮して動作制限指示及び警告の指示を発行することにより、動作制限を行うかどうか及び警告を行うかどうかの判断基準をより細かく設定することができ、動作制限及び警告をより多段階で行うことが可能となる。従って、不要な動作制限及び警告を減少させることができ、スコピストの利便性をより向上させることができる。なお、上記の例では2つの領域(進行領域209及び周辺領域211)を設定していたが、より多くの領域が設定されてもよく、これらの領域に応じて、動作制限を行うかどうか及び警告を行うかどうかの判断基準も、更に詳細に設定されてもよい。これにより、更に多段階の動作制限及び警告がなされることとなり、スコピストの利便性を更に向上させることができる。
 また、上記の実施形態では、進行領域209及び周辺領域211をそれぞれ円柱形状及び円筒形状の領域として設定していたが、進行領域209及び周辺領域211はかかる例に限定されない。進行領域209及び周辺領域211の大きさや形状は、任意に設定されてよい。例えば、進行領域209及び周辺領域211は、鏡筒201の先端を頂点とする錐体(円錐、三角錐等)として設定されてもよい。
 なお、進行領域209及び周辺領域211は、例えば図3に示すようにそれぞれ円柱形状及び円筒形状の領域として空間上に設定されるが、実際には、安全制御部170は、図4に示すような撮像画像(測距画像)に対して、仮想的に進行領域209及び周辺領域211を設定することとなる。従って、安全制御部170は、進行領域209及び周辺領域211を設定する際には、内視鏡部110の光学系の構成、生体組織の検出距離、並びに、進行領域209及び周辺領域211の形状等に基づいて、所望の進行領域209及び周辺領域211が設定され得るように、適宜補正処理等を行ってよい。
 ここで、動作制限情報は、手術前又は手術中に、入力部150を介してユーザによって入力されてよい。手術中に動作制限情報を入力可能なことにより、ユーザ、特に内視鏡部110を操作しているスコピストの利便性を向上させることができる。例えば、手術中に、より鏡筒を生体組織に接近させる必要が生じた場合等、いわばイレギュラーな操作を行う必要が生じた場合には、安全制御部170による動作制限が、かえってスコピストの操作を妨害してしまう恐れがある。このような場合に、手術中にスコピスト自身によって動作制限についての設定が適宜変更可能であることにより、例えば当該スコピストは必要に応じて動作制限を解除したり、第1制限距離及び第2制限距離をより短くしたりすることができ、より円滑に操作を行うことが可能になる。なお、動作制限情報の入力方法については、下記(3.動作制限情報の入力方法)で改めて説明する。
 なお、支援システム1では、安全制御部170において、ユーザの指示に従って、動作制限を規定する各種の条件(第1制限距離、第2制限距離、進行領域及び周辺領域等)が設定される設定モードと、ユーザによるアーム部が操作される操作モードとが切り替え可能である。ユーザは、設定モードに切り替えてから、動作制限情報の入力を行う。安全制御部170は、設定モードにおいて、入力された動作制限情報に基づいて、動作制限を規定する各種の条件を設定する。動作制限情報の入力が終了したら、ユーザは、操作モードに切り替えた後、アーム部の操作を行う。安全制御部170は、操作モードにおいて、設定された動作制限を規定する各種の条件に従って、適宜動作制限指示及び警告の指示を発行する。
 ここで、上記の実施形態において安全制御部170が進行方向への鏡筒201の移動を停止させるようにアーム制御部130に対して動作制限指示を発行した場合(すなわち、アーム部の動作を停止させるようにアーム制御部130に対して動作制限指示を発行した場合)に、その後、設定モードにおいてこの動作制限が解除されるまでスコピストが鏡筒201を動かせないことになると、手術の続行の妨げになってしまうことが懸念される。従って、安全制御部170がアーム部の動作を停止させるようにアーム制御部130に対して動作制限指示を発行した場合には、当該安全制御部170は、所定の時間の後、鏡筒生体組織間距離を増やす方向にのみ動作速度を制限しながら鏡筒201が移動可能であるようにアーム部を動作させる旨の動作制限指示を、アーム制御部130に対して発行してもよい。これにより、動作制限によりアーム部の動作が停止されたとしても、間もなく、より安全な方向により安全な速度であれば、スコピストの操作によって鏡筒201を移動させることが可能となるため、円滑に手術を続行することが可能になる。
 以上、本実施形態に係る支援システム1の構成について説明した。以上説明したように、本実施形態によれば、リアルタイムで検出される鏡筒生体組織間距離に基づいて、支持アーム部120に対して動作制限指示が発行されるとともに、出力部160に対して警告の指示が発行される。従って、より安全な手術が実現され得る。
 ここで、本実施形態に係る支援システム1は、スコピストが支持アーム部120に対する直接操作により内視鏡部110を操作する際に、特に有益である。図5を参照して、その理由について説明する。
 図5は、本実施形態に係る支援システム1を用いた手術の様子を表す図である。図5では、スコピスト301が、患者ベッド303上の患者305に対して、内視鏡307の鏡筒を挿入し、その位置及び姿勢を操作している様子が図示されている。内視鏡307は支持アーム装置309によって支持されており、スコピスト301は、当該支持アーム装置309に対する直接操作により、内視鏡307を操作することができる。内視鏡307及び支持アーム装置309は、図2における内視鏡部110及び支持アーム部120を構成し得るものである。
 支援システム1によれば、内視鏡部110の鏡筒の先端と患者305の体腔内の生体組織311との距離である鏡筒生体組織間距離dがリアルタイムで検出される。そして、その検出された鏡筒生体組織間距離dに基づいて、支持アーム装置309の動作が制限される。また、鏡筒生体組織間距離dに基づいて、警告が発せられる。例えば、鏡筒が生体組織311に近付き過ぎている場合には、その距離に応じて、支持アーム装置309の動作速度が制限されるとともに小規模な警告が発せられる、又は支持アーム装置309の動作が停止されるとともに大規模な警告が発せられる。
 この際、スコピスト301が、直接操作により支持アーム装置309を介して内視鏡307を操作している場合には、当該スコピスト301は、アーム部の速度が低下したこと又はアーム部の動作が停止したことを直感的に認識することができる。つまり、スコピスト301に対してより直感的に鏡筒と生体組織311との位置関係を通知することができるため、スコピスト301は、操作を変更する等の対応をより迅速に行うことが可能になる。よって、手術の安全性を更に向上させることができる。
 なお、以上説明した実施形態では、支持アーム部120における動作制限と、出力部160による警告が同時に行われていたが、本実施形態はかかる例に限定されない。本実施形態では、支援システム1は、アーム制御部130に対する動作制限指示、及び出力部160に対する警告の指示の、少なくともいずれかが行われるように構成することができる。
 また、支持アーム部120に対する動作制限の種類も、上述した例に限定されない。本実施形態では、安全制御部170は、鏡筒生体組織間距離に応じて徐々にスコピストに対して危険性を通知し得るように動作制限指示を発行すればよく、その具体的な動作制限の内容は適宜設定可能である。例えば、安全制御部170は、第1制限距離と第2制限距離との間に更に複数の制限距離を設定し、それら複数の制限距離と鏡筒生体組織間距離との関係に応じて、速度制限制御における許容速度を段階的に変更してもよい。つまり、安全制御部170は、鏡筒が生体組織に近付くほど、アーム部の動作速度が遅くなるように、動作指示を行ってもよい。これにより、スコピストが、更に直感的に鏡筒と生体組織との位置関係を把握することが可能になるため、手術の更なる安全性の向上が実現され得る。
 あるいは、支持アーム部120の駆動が力制御によって制御される場合には、安全制御部170は、動作速度の制限に代えて、スコピストの操作に対して抵抗感を付与するようにアーム部の各関節部に設けられるアクチュエータを動作させる旨の動作制限指示を発行してもよい。このような動作制限が実行されることによって、特に図5に示すようなスコピスト301が支持アーム装置309に対する直接操作により内視鏡307を操作する場合において、当該スコピスト301に対して、鏡筒と生体組織との位置関係を更に直感的に通知することが可能になる。
 (3.動作制限情報の入力方法)
 上述したように、本実施形態では、動作制限情報は、手術前又は手術中に、ユーザによって適宜入力され得る。ここでは、動作制限情報の具体的な入力方法のいくつかの例について説明する。
 なお、支援システム1では、上述したように、NUIを用いて非接触で動作制限情報を入力することができる。これにより、術者やスコピストが、手術中に動作制限の設定を変更したい場合に、自身の作業を継続しながら、音声や視線等により、よりスムーズに動作制限情報を入力することが可能になる。従って、以下の動作制限情報の入力方法についての説明では、主にNUIを用いた入力方法について説明する。
 図6は、支援システム1におけるNUIについて説明するための図である。図4では、スコピスト401が、患者ベッド403上の患者405に対して内視鏡407を操作している様子が図示されている。患者405の体腔内に、支持アーム装置409によって支持された内視鏡407の鏡筒が挿入されており、当該内視鏡407によって撮影された術部の画像が、手術室内に設けられる表示装置411に表示される。スコピスト401は、当該表示装置411の画像を参照しながら、術部について所望の画像が得られるように、鏡筒の位置を調整する。なお、表示装置411は、図1に示す表示装置3403に対応し得るものである。また、内視鏡407及び支持アーム装置409は、図2における内視鏡部110及び支持アーム部120を構成し得るものである。
 図2を参照して説明したように、支援システム1では、NUIのための入力装置が設けられ得る。図示する例では、表示装置411の上部に、スコピスト401の様子を撮影するためのカメラ装置413が設けられている(図2に示すジェスチャ検出部154に対応する)。当該カメラ装置413によって撮影された画像に基づいて、スコピスト401のジェスチャが検出され得る。
 また、図示する例では、スコピスト401は、眼鏡型のウェアラブルデバイス415を装着している。当該ウェアラブルデバイス415には、視線検出センサ(図2に示す視線検出部152に対応する)及び加速度センサ(図2に示すヘッドトラック検出部153に対応する)が設けられる。加速度センサの検出値に基づいて、スコピスト401の頭部の動きが検出され得る。なお、スコピスト401は、ウェアラブルデバイス415の代わりに、視線検出センサ及び加速度センサが備えられたHMDを装着してもよい。
 また、スコピスト401は、ヘッドセット(図示せず)を更に装着し得る。当該ヘッドセットのマイクロフォン(図2に示す音声検出部151に対応する)を介して、スコピスト401の音声が検出され得る。
 支援システム1では、これらの、スコピスト401のジェスチャ、視線、ヘッドトラック及び音声による入力と、他の入力装置(フットスイッチ等)による入力を適宜組み合わせることにより、より円滑な動作制限情報の入力が可能となる。以下、いくつかの入力方法の具体例について説明する。
 例えば、動作制限を行うか否かについての情報は、音声による入力とフットスイッチによる入力が組み合わされて行われ得る。当該入力例では、スコピスト401が、安全制御部170のモードを設定モードに切り替えた後、「リミットオン」等の予め設定されたキーワードを音声で入力した上で、フットスイッチを押下することにより、支持アーム装置409に対して動作制限が適用される。また、同様に、スコピスト401が、「リミットオフ」等の予め設定されたキーワードを音声で入力した上で、フットスイッチを押下することにより、支持アーム装置409に対する動作制限が解除される。
 また、例えば、第1制限距離の値を変更する旨の情報は、音声による入力と、視線による入力と、フットスイッチによる入力が組み合わされて行われ得る。図7は、第1制限距離の範囲を変更する際のUIの一表示例を示す図である。例えば、スコピスト401が、安全制御部170のモードを設定モードに切り替えた上で、「ディスタンス」等の予め設定されたキーワードを音声で入力すると、図7に示す表示画面421が表示装置411に表示される。図示する例では、第1制限距離の値を3段階で設定可能であり、表示画面421には、これに対応して、第1制限距離の値を指定するための3つのアイコン423a、423b、423cが表示されている。アイコン423aには、比較的短い距離であることを表す「short」との表示が記載されており、アイコン423bには、中程度の距離であることを表す「middle」との表示が記載されており、アイコン423cには、比較的長い距離であることを表す「long」との表示が記載されている。
 更に、表示画面421には、ポインタ425が表示される。当該ポインタ425は、スコピスト401の視線に応じて移動させることが可能である。スコピスト401は、希望する第1制限距離に応じて、アイコン423a、423b、423cのいずれかの上に、視線によってポインタ425を移動させる。ポインタ425によって、アイコン423a、423b、423cのいずれかが選択されている状態で、スコピスト401がフットスイッチを押下することにより、その選択されたアイコンに対応する値に、第1制限距離が変更される。
 また、他の入力方法として、第1制限距離の値を変更する旨の情報は、音声による入力と、ヘッドトラックによる入力と、フットスイッチによる入力が組み合わされて行われ得る。図8は、第1制限距離の範囲を変更する際のUIの他の表示例を示す図である。図8に示す例では、図7に示すUIよりも、より詳細に第1制限距離を設定可能なUIが提供される。
 例えば、スコピスト401が、安全制御部170のモードを設定モードに切り替えた上で、「ディスタンス」等の予め設定されたキーワードを音声で入力すると、図8に示す表示画面431が表示装置411に表示される。図示する例では、第1制限距離の値をより多段階で設定可能であり、表示画面431には、これに対応して、第1制限距離の値を指定するための目盛りのついた数直線433が表示されている。数直線433の値は、新たに設定する第1制限距離の値に対応しており、その一端から他端に向かうにつれて、第1制限距離がより長い距離に設定され得ることを示している。
 更に、表示画面431には、ポインタ435が表示される。当該ポインタ435は、数直線433の下部に表示され、スコピスト401のヘッドトラックに応じて、数直線433に沿って、1目盛りごとに移動させることが可能である。スコピスト401は、希望する第1制限距離に応じて、数直線433上の所望の数値の下に、ヘッドトラックによってポインタ435を移動させる。ポインタ435によって数直線433上のいずれかの位置が選択されている状態で、スコピスト401がフットスイッチを押下することにより、その選択された位置に応じた値に、第1制限距離が変更される。
 以上、NUIを用いた動作制限情報の入力方法のいくつかの具体例について説明した。なお、以上説明した具体例では、動作制限を行うか否かについての情報、及び第1制限距離についての情報しか扱わなかったが、もちろん他の動作制限情報についても同様に入力可能である。例えば、第2制限距離、進行領域、周辺領域、動作速度を制限する際の許容速度の値等は、図7又は図8を参照して説明した方法と同様にして設定され得る。また、以上説明した入力方法はあくまで一例であり、本実施形態では、以上説明した図2に示す入力部150を介した任意の方法によって、動作制限情報が入力可能である。また、以上の説明ではスコピスト401による動作制限情報の入力について説明したが、動作制限情報の入力は、スコピスト401だけでなく、他のユーザによっても同様に実行され得る。
 (4.安全制御方法)
 図9を参照して、本実施形態に係る安全制御方法の処理手順について説明する。図9は、本実施形態に係る安全制御方法の処理手順の一例を示すフロー図である。なお、図9に示す各ステップにおける処理は、図2に示す安全制御部170によって実行される処理に対応している。
 図9を参照すると、本実施形態に係る安全制御方法では、まず、操作モード又は設定モードの切り替えが行われる(ステップS101)。具体的には、ステップS101では、ユーザからの指示に従ってこれらのモードが切り替えられる。
 次に、操作モードか設定モードかの判断処理が行われる(ステップS103)。ステップS103で現在のモードが設定モードであると判断された場合には、ユーザが入力した動作制限情報に基づいて、動作制限を規定する各種の条件(例えば、第1制限距離、第2制限距離、進行領域及び周辺領域等)が設定される(ステップS105)。このとき、動作制限情報は、上記(3.動作制限情報の入力方法)で説明したように、例えばNUIを介して入力され得る。
 ステップS103で現在のモードが操作モードであると判断された場合、又はステップS105での動作制限を規定する各種の条件の設定処理が終わった場合には、ステップS107に進む。以降のステップS107~ステップS121における処理は、スコピストの操作に従いアーム部が移動している間に実行される処理である。
 ステップS107では、アーム部の移動中に、鏡筒生体組織間距離についての距離情報が取得される。具体的には、ステップS107では、図2に示す画像処理距離算出部140によって撮像画像から鏡筒生体組織間距離が算出され、当該鏡筒生体組織間距離についての情報が安全制御部170に提供される。
 次に、進行領域内で鏡筒生体組織間距離が第1制限距離よりも大きいかどうかが判断される(ステップS109)。進行領域内で鏡筒生体組織間距離が第1制限距離以下である場合は、危険を及ぼし得る位置まで鏡筒が生体組織に接近しつつある状態を意味している。従って、この場合には、ステップS111に進み、アーム部の動作を停止させる旨の指示、及び比較的大規模な警告を実行する旨の指示が発行される。具体的には、ステップS111では、図2に示す安全制御部170が、アーム制御部130に対してアーム部の動作を停止させる旨の指示を発行するとともに、出力部160に対して比較的大規模な警告を実行する旨の指示を発行する。アーム制御部130及び出力部160がこれらの指示に従って動作することにより、アーム部の動作停止、及び比較的大規模な警告が実行される。
 一方、ステップS109で進行領域内で鏡筒生体組織間距離が第1制限距離よりも大きいと判断された場合には、ステップS113に進む。ステップS113では、進行領域内で鏡筒生体組織間距離が第2制限距離よりも大きいかどうかが判断される。進行領域内で鏡筒生体組織間距離が第2制限距離以下である場合は、第1制限距離までは接近していないものの、鏡筒が生体組織に接近しつつある状態を意味しているため、そのまま鏡筒が移動すると危険が生じる恐れがある。従って、この場合には、ステップS115に進み、アーム部の動作速度を制限する旨の指示、及び比較的小規模な警告を実行する旨の指示が発行される。具体的には、ステップS115では、図2に示す安全制御部170が、アーム制御部130に対してアーム部の動作速度を制限させる旨の指示を発行するとともに、出力部160に対して比較的小規模な警告を実行する旨の指示を発行する。アーム制御部130及び出力部160がこれらの指示に従って動作することにより、アーム部の動作速度の制限、及び比較的小規模な警告が実行される。
 ステップS113で進行領域内で鏡筒生体組織間距離が第2制限距離よりも大きいと判断された場合には、ステップS117に進む。ステップS117では、周辺領域内で鏡筒生体組織間距離が第1制限距離よりも大きいかどうかが判断される。周辺領域内で鏡筒生体組織間距離が第2制限距離以下である場合は、そのままの方向に鏡筒が進行すれば危険が生じる可能性は低いものの、鏡筒の比較的近くに生体組織が存在している状態を意味している。従って、この場合には、ステップS119に進み、アーム部の動作速度を制限する旨の指示、及び比較的小規模な警告を実行する旨の指示が発行される。具体的には、ステップS119では、ステップS115と同様に、図2に示す安全制御部170が、アーム制御部130に対してアーム部の動作速度を制限させる旨の指示を発行するとともに、出力部160に対して比較的小規模な警告を実行する旨の指示を発行する。アーム制御部130及び出力部160がこれらの指示に従って動作することにより、アーム部の動作速度の制限、及び比較的小規模な警告が実行される。
 ステップS117で周辺領域内で鏡筒生体組織間距離が第1制限距離よりも大きいと判断された場合には、ステップS121に進む。ステップS121では、アーム部に通常動作をさせる旨の指示が発行される。具体的には、ステップS121では、図2に示す安全制御部170が、アーム制御部130に対してアーム部に通常動作を行わせる旨の指示を発行する。アーム制御部130が当該指示に従って動作することにより、アーム部の通常動作が実行される。
 ステップS111、ステップS115、ステップS117又はステップS121における処理が終了したら、ステップS101に戻る。そして、以上説明した一連の処理が手術中に繰り返し実行される。
 以上、本実施形態に係る安全制御方法の処理手順について説明した。なお、ステップS111における処理では、アーム部の動作を停止させる旨の指示、及び比較的大規模な警告を実行する旨の指示が発行された後、更に、鏡筒生体組織間距離を増やす方向にのみ動作速度が制限されながら鏡筒が移動可能であるようにアーム部を動作させる旨の動作制限指示が発行されてもよい。これにより、アーム部の動作を停止させる旨の指示が発行された場合であっても、ステップS101~ステップS105まで戻って設定モードにおいて動作制限を解除する旨の指示を入力するまでもなく、安全が確保された状態で鏡筒を移動させることが可能となるため、手術をより円滑に続行することが可能になる。
 (5.変形例)
 以上説明した実施形態におけるいくつかの変形例について説明する。なお、以上説明した実施形態に係る構成、及び以下に説明する各変形例に係る構成は、可能な範囲で互いに組み合わされてよい。
 (5-1.測距方法)
 以上説明した実施形態では、内視鏡がステレオカメラとして構成されており、その撮像画像に基づいて鏡筒生体組織間距離が検出されていた。しかし、本実施形態はかかる例に限定されず、他の方法によって鏡筒生体組織間距離が検出されてもよい。ここでは、本実施形態の変形例として、他の測距方法が適用される場合における支援システムの構成、及び当該支援システムにおいて実行される処理について説明する。なお、本変形例に係る支援システムも、上述した実施形態と同様に、図1に示す内視鏡手術システム3000に適用され得るものである。
 (5-1-1.鏡筒の先端に測距センサが設けられる場合)
 例えば、内視鏡の鏡筒の先端に測距センサが設けられてもよい。図10は、このような、内視鏡の先端に測距センサが設けられる変形例に係る支援システムの機能構成の一例を示すブロック図である。
 図10を参照すると、本変形例に係る支援システム1aは、その機能として、内視鏡部110と、支持アーム部120と、アーム制御部130と、入力部150と、出力部160と、安全制御部170と、距離検出部180aと、を備える。なお、本変形例に係る支援システム1aは、鏡筒生体組織間距離の測定方法が異なること、及びそれに伴い安全制御部170における処理が異なること以外は、図2に示す支援システム1と略同様の構成を有する。従って、以下の支援システム1aについての説明では、支援システム1との相違点について主に説明することとし、重複する事項についてはその詳細な説明を省略する。
 図10に示すように、支援システム1aは、支援システム1が備えていた画像処理距離算出部140の機能を有していない。その代わりに、支援システム1aには、距離検出部180aの機能が設けられる。
 距離検出部180aは、内視鏡部110の鏡筒の先端と、当該鏡筒の進行方向に存在する生体組織との間の距離を検出する。当該距離検出部180aの機能は、内視鏡部110の鏡筒の先端に設けられる測距センサによって実現され得る。当該測距センサの種類は限定されず、例えば赤外線センサ、超音波センサ等、各種の公知のものを用いることができる。距離検出部180aは、検出した鏡筒生体組織間距離についての情報を、安全制御部170に提供する。なお、図10では、距離検出部180aが内視鏡部110の鏡筒の先端に設けられ得ることを示すために、両者を破線で結んでいる。
 ここで、一般的に、測距センサによる測距では、ステレオカメラの撮像画像に基づく測距のように面測距を行うことはできず、対象となる所定の点との距離を検出することができる。以下、便宜的に、このような、対象となる所定の点との距離を検出する測距のことを1点測距とも呼称することとする。
 図11は、1点測距の様子を概略的に示す図である。図11では、図3と同様に、体腔内における、鏡筒201、鏡筒201の進行方向の正面に位置する生体組織203、及び鏡筒201の進行方向に位置しているが、正面からは外れた場所に位置している他の生体組織205の位置関係を図示している。
 図3を参照して説明したように、上記の実施形態では、面測距が実行可能であったため、2次元的な鏡筒生体組織間距離の分布を得ることができた。一方、図11に示すように、本変形例では、鏡筒201の先端と、当該鏡筒201の延伸方向における1点との距離のみが検出され得る。つまり、本変形例では、鏡筒201と生体組織203との距離は検出することができるものの、鏡筒201と他の生体組織205との距離は検出することができない。そのため、安全制御部170にも、鏡筒生体組織間距離についての情報として、1点測距によって検出された、鏡筒201の先端と生体組織205表面の所定の点との距離についての情報が提供されることとなる。このように、本変形例では、1点での鏡筒生体組織間距離しか検出され得ないため、上述した実施形態のように進行領域や周辺領域を設定し、これらの領域ごとに鏡筒生体組織間距離の判定を行うことは困難である。
 従って、本変形例では、安全制御部170における処理も、上述した実施形態から変更される。図12は、本変形例に係る安全制御方法の処理手順の一例を示すフロー図である。なお、図12に示す各ステップにおける処理は、図11に示す安全制御部170によって実行される処理に対応している。
 図12を参照すると、本変形例に係る安全制御方法では、ステップS201~ステップS207における処理は、図9に示す上述した実施形態に係る安全制御方法でのステップS101~ステップS107における処理と略同様である。すなわち、まず、操作モード又は設定モードの切り替えが行われ(ステップS201)、次いで、モードの判断処理が行われる(ステップS203)。そして、設定モードである場合には、動作制限を規定する各種の条件が設定される(ステップS205)。ただし、ステップS205では、ステップS105とは異なり、進行領域及び周辺領域は設定されない。次に、アーム部の移動中に鏡筒生体組織間距離についての距離情報が取得される(ステップS207)。ただし、ステップS207では、図10に示す距離検出部180aによって1点測距によって検出された鏡筒生体組織間距離についての情報が、安全制御部170に提供される。
 本変形例では、以降の処理が、上述した実施形態と大きく異なる。具体的には、本変形例では、次に、鏡筒生体組織間距離が第1制限距離よりも大きいかどうかが判断される(ステップS209)。鏡筒生体組織間距離が第1制限距離以下である場合は、危険を及ぼし得る位置まで鏡筒が生体組織に接近しつつある状態を意味している。従って、この場合には、ステップS211に進み、アーム部の動作を停止させる旨の指示、及び比較的大規模な警告を実行する旨の指示が発行される。具体的には、ステップS211では、図10に示す安全制御部170が、アーム制御部130に対してアーム部の動作を停止させる旨の指示を発行するとともに、出力部160に対して比較的大規模な警告を実行する旨の指示を発行する。アーム制御部130及び出力部160がこれらの指示に従って動作することにより、アーム部の動作停止、及び比較的大規模な警告が実行される。なお、上述した実施形態と同様に、ステップS211における処理では、アーム部の動作を停止させる旨の指示、及び比較的大規模な警告を実行する旨の指示が発行された後、更に、鏡筒生体組織間距離を増やす方向にのみ動作速度が制限されながら鏡筒が移動可能であるようにアーム部を動作させる旨の動作制限指示が発行されてもよい。
 一方、ステップS209で鏡筒生体組織間距離が第1制限距離よりも大きいと判断された場合には、ステップS213に進む。ステップS213では、鏡筒生体組織間距離が第2制限距離よりも大きいかどうかが判断される。鏡筒生体組織間距離が第2制限距離以下である場合は、第1制限距離までは接近していないものの、鏡筒が生体組織に接近しつつある状態を意味しているため、そのまま鏡筒が移動すると危険が生じる恐れがある。従って、この場合には、ステップS215に進み、アーム部の動作速度を制限する旨の指示、及び比較的小規模な警告を実行する旨の指示が出される。具体的には、ステップS215では、図10に示す安全制御部170が、アーム制御部130に対してアーム部の動作速度を制限させる旨の指示を発行するとともに、出力部160に対して比較的小規模な警告を実行する旨の指示を発行する。アーム制御部130及び出力部160がこれらの指示に従って動作することにより、アーム部の動作速度の制限、及び比較的小規模な警告が実行される。
 ステップS213で鏡筒生体組織間距離が第2制限距離よりも大きいと判断された場合には、ステップS217に進む。ステップS217では、アーム部に通常動作をさせる旨の指示が発行される。具体的には、ステップS217では、図10に示す安全制御部170が、アーム制御部130に対してアーム部に通常動作を行わせる旨の指示を発行する。アーム制御部130が当該指示に従って動作することにより、アーム部の通常動作が実行される。
 ステップS211、ステップS215及びステップS217における処理が終了したら、ステップS201に戻る。そして、以上説明した一連の処理が手術中に繰り返し実行される。
 以上説明したように、本変形例によれば、進行領域及び周辺領域を考慮せずに、アーム部の動作を制限するか否かの判断処理が行われる。このような、進行領域及び周辺領域を考慮しない安全制御方法であっても、鏡筒の進行方向における所定の点を対象とした鏡筒生体組織間距離に基づいてアーム部の動作の制限が行われるため、鏡筒の進行方向における当該鏡筒と生体組織との接触は効果的に防止することが可能である。このように、例えば内視鏡がステレオカメラとして構成されておらず、測距センサを用いて鏡筒生体組織間距離を検出する場合であっても、上述した実施形態と同様に、手術の安全性をより高める効果を得ることが可能である。
 (5-1-2.外部に距離検出部が設けられる場合)
 更に他の測距方法として、内視鏡の鏡筒を外部から観測し得る位置に距離検出部を設け、当該距離検出部によって鏡筒生体組織間距離を検出する方法が考えられる。図13は、このような、内視鏡の鏡筒を外部から観測する距離検出部が設けられる変形例に係る支援システムの機能構成の一例を示すブロック図である。
 図13を参照すると、本変形例に係る支援システム1bは、その機能として、内視鏡部110と、支持アーム部120と、アーム制御部130と、入力部150と、出力部160と、安全制御部170と、距離検出部180bと、を備える。なお、本変形例に係る支援システム1bは、鏡筒生体組織間距離の測定方法が異なること、及びそれに伴い安全制御部170における処理が異なること以外は、図2に示す支援システム1と略同様の構成を有する。従って、以下の支援システム1bについての説明では、支援システム1との相違点について主に説明することとし、重複する事項についてはその詳細な説明を省略する。
 図13に示すように、支援システム1bは、支援システム1が備えていた画像処理距離算出部140の機能を有していない。その代わりに、支援システム1bには、距離検出部180bの機能が設けられる。
 距離検出部180bは、内視鏡部110の鏡筒の先端と、当該鏡筒の進行方向に存在する生体組織との間の距離を検出する。当該距離検出部180bの機能は、例えば、内視鏡部110の鏡筒、及び当該鏡筒の進行方向に位置する生体組織を観測し得る位置に設けられる測距センサによって実現され得る。当該測距センサは、例えば、内視鏡部110の鏡筒や他の術具等とは別に、患者の体腔内に挿入される。当該測距センサとしては、空間上の2点間の距離を測定可能な、各種の公知なセンサ(例えば、超音波センサ等)を適用することができる。あるいは、距離検出部180bの機能は、内視鏡部110とは異なる、他の内視鏡によって実現されてもよい。当該他の内視鏡がステレオカメラとして構成されていれば、当該他の内視鏡の鏡筒を、内視鏡部110の鏡筒、及び当該鏡筒の進行方向に位置する生体組織を観測し得る位置まで挿入し、当該内視鏡部110の鏡筒及び当該生体組織を含む画角で撮像画像を撮影することにより、その撮像画像から、当該内視鏡部110の鏡筒と当該生体組織との距離を検出することができる。距離検出部180bは、検出した鏡筒生体組織間距離についての情報を、安全制御部170に提供する。
 ここで、本変形例では、距離検出部180bは、面測距を実行可能に構成されてもよいし、1点測距を実行可能に構成されてもよい。距離検出部180bが面測距を実行可能に構成される場合には、安全制御部170は、図9に示す処理手順に従って、安全制御方法を実行することができる。また、距離検出部180bが1点測距を実行可能に構成される場合には、安全制御部170は、図12に示す処理手順に従って、安全制御方法を実行することができる。このように、本変形例では、距離検出部180bの構成に応じて、図9又は図12に示す安全制御方法が適宜実行され得る。
 以上説明したように、本変形例のように外部に設けられる距離検出部によって鏡筒生体組織間距離を検出する場合であっても、上述した実施形態又は上述した変形例と同様の安全制御方法を実行可能である。従って、本変形例においても、上述した実施形態と同様に、手術の安全性をより高める効果を得ることが可能である。
 なお、内視鏡が斜視鏡又は側視鏡である場合には、ステレオカメラによる撮像画像に基づく測距では、当該内視鏡の鏡筒の先端と、当該鏡筒の進行方向に存在する生体組織との間の距離を測定することはできない。これに対して、以上説明した変形例によれば、内視鏡が斜視鏡又は側視鏡であっても、当該内視鏡の鏡筒の先端と、当該鏡筒の進行方向に存在する生体組織との間の距離を測定することが可能である。このように、以上説明した他の測距方法に係る変形例は、好適に、内視鏡が斜視鏡又は側視鏡である場合に対して適用され得る。
 (5-2.退避動作)
 上述した実施形態では、アーム部に対する動作制限として、動作の停止及び動作速度の制限が行われていた。ただし、動作制限の種類はかかる例に限定されず、本実施形態では、他の動作制限が行われてもよい。
 例えば、鏡筒生体組織間距離が比較的小さい場合(例えば、鏡筒が第1制限距離以下まで生体組織に接近している場合)には、鏡筒が生体組織から離れる動作(退避動作)を行うように、アーム部の動作が制御されてもよい。
 例えば、上述した実施形態において、アーム部の動作を制限する際に、その動作を停止させる代わりに退避動作が行われてもよい。これにより、鏡筒が生体組織に第1制限距離よりも接近した場合に、鏡筒の動きが停止するだけでなく、鏡筒を当該生体組織から離れるように動作させることが可能になる。従って、手術の安全性を更に高めることが可能になる。
 なお、このとき、退避動作では、鏡筒が進行してきた経路を一定距離自動で逆向きに辿るように、鏡筒が移動することが好ましい。鏡筒が進行してきた経路は、既に鏡筒が通過してきた経路であるから、いわば安全が確保された経路であると言える。従って、鏡筒が自動的に退避動作を行ったとしても、そのことが患者に危険を及ぼすことはない。
 このような、動作制限として退避動作が実行される変形例に係る支援システムは、図2に示す上述した実施形態に係る支援システム1と同様の機能構成によって実現可能である。従って、本変形例に係る支援システムの機能構成についての説明は省略する。ただし、本変形例に係る支援システムでは、安全制御部170における処理が、上述した実施形態とは異なる。
 図14を参照して、本変形例に係る安全制御部における処理について説明する。図14は、動作制限として退避動作が実行される変形例に係る安全制御方法の処理手順の一例を示すフロー図である。
 図14を参照すると、本変形例に係る安全制御方法では、ステップS301~ステップS309、及びステップS313~ステップS321における処理は、図9に示す上述した実施形態に係る安全制御方法でのステップS101~ステップS109、及びステップS113~ステップS121における処理と略同様である。従って、これらの処理については、詳細な説明は省略する。
 本変形例では、ステップS309において進行領域内で鏡筒生体組織間距離が第1制限距離以下であると判断された場合に、鏡筒を退避させる旨の指示、及び比較的大規模な警告を実行する旨の指示が発行される(ステップS311)。具体的には、ステップS311では、図2に示す安全制御部170が、アーム制御部130に対してアーム部に退避動作を実行させる旨の指示を発行するとともに、出力部160に対して比較的大規模な警告を実行する旨の指示を発行する。アーム制御部130及び出力部160がこれらの指示に従って動作することにより、鏡筒の退避動作、及び比較的大規模な警告が実行される。
 ここで、図14に示す処理手順は、上述した実施形態と同様に、支援システムが面測距を実行可能に構成される場合に対応するものである。しかし、本変形例はかかる例に限定されず、上記(5-1-1.鏡筒の先端に測距センサが設けられる場合)で説明したような、1点測距を実行可能に構成される支援システムに対しても適用可能である。つまり、本変形例に係る支援システムは、図10に示す支援システム1aと同様の機能構成によって実現されてもよい。
 この場合における安全制御部170における処理について、図15を参照して説明する。図15は、動作制限として退避動作が実行される変形例に係る安全制御方法の処理手順の他の例を示すフロー図である。
 図15を参照すると、本変形例に係る安全制御方法では、ステップS401~ステップS409、及びステップS413~ステップS417における処理は、図12に示す鏡筒の先端に測距センサが設けられる変形例に係る安全制御方法でのステップS201~ステップS209、及びステップS213~ステップS217における処理と略同様である。従って、これらの処理については、詳細な説明は省略する。
 本変形例では、ステップS409において鏡筒生体組織間距離が第1制限距離以下であると判断された場合に、鏡筒を退避させる旨の指示、及び比較的大規模な警告を実行する旨の指示が出される(ステップS411)。具体的には、ステップS411では、図10に示す安全制御部170が、アーム制御部130に対してアーム部に退避動作を実行させる旨の指示を発行するとともに、出力部160に対して比較的大規模な警告を実行する旨の指示を発行する。アーム制御部130及び出力部160がこれらの指示に従って動作することにより、鏡筒の退避動作、及び比較的大規模な警告が実行される。
 以上説明したように、本変形例によれば、鏡筒生体組織間距離が比較的小さい場合に鏡筒の退避動作が行われることにより、更に手術の安全性を確保することが可能になる。また、その際、測距方法にかかわらず、本変形例を適用することが可能である。
 (5-3.NUIを介したその他の構成の操作)
 上述した実施形態では、NUIを介して動作制限情報が入力可能であった。ただし、本実施形態はかかる例に限定されず、NUIを介して図1に示す内視鏡手術システム3000の他の構成に対する操作入力が可能であってもよい。
 図16は、本実施形態の一変形例である、NUIを介して内視鏡手術システム3000の他の構成に対する操作入力が可能に構成された支援システムの機能構成の一例を示すブロック図である。
 図16を参照すると、本変形例に係る支援システム1cは、その機能として、内視鏡部110と、支持アーム部120と、アーム制御部130と、画像処理距離算出部140と、入力部150と、出力部160と、安全制御部170と、撮像制御部181と、表示制御部182と、を備える。なお、本変形例に係る支援システム1cは、アーム制御部130及び画像処理距離算出部140の機能が一部変更されるとともに、撮像制御部181及び表示制御部182の機能が追加されること以外は、図2に示す支援システム1と略同様の構成を有する。従って、以下の本変形例に係る支援システム1cについての説明では、支援システム1との相違点について主に説明することとし、重複する事項についてはその詳細な説明を省略する。
 支援システム1cでは、入力部150からの操作入力により、内視鏡部110における撮像条件(例えば、照射光の種類、倍率及び/又は焦点距離等)が変更可能に構成される。具体的には、支援システム1cは、その機能として、内視鏡部110における撮像条件を制御する撮像制御部181を備え、内視鏡部110に対するユーザの操作入力についての情報が、入力部150から当該撮像制御部181に提供される。撮像制御部181は、ユーザの指示に従って、内視鏡部110の撮像条件を適宜制御する。なお、撮像制御部181の機能は、図1に示すCCU3401によって実現され得る。
 また、支援システム1cでは、入力部150からの操作入力により、支持アーム部120のアーム部を操作可能に構成される。つまり、直接操作以外の操作入力によって、アーム部が操作され得る。具体的には、支援システム1cでは、当該アーム部に対するユーザの操作入力についての情報が、入力部150からアーム制御部130に提供される。アーム制御部130は、ユーザの指示に従って、アーム部の動作を適宜制御する。
 また、支援システム1cでは、入力部150からの操作入力により、出力部160を構成する表示装置(図1に示す表示装置3403に対応する)における表示を操作可能に構成される。具体的には、支援システム1cでは、画像処理距離算出部140が、鏡筒生体組織間距離の算出処理とともに、内視鏡部110によって取得された画像信号に対して、当該画像信号に基づく画像を表示装置に表示させるための各種の画像処理(例えば、現像処理等)を施す。そして、画像処理距離算出部140は、画像処理を施した画像信号を表示制御部182に提供する。表示制御部182は、出力部160を構成する表示装置を駆動させ、その表示を制御する機能を有しており、当該画像信号に基づいて、撮像画像を当該表示装置に表示させる。本変形例では、当該表示装置に対するユーザの操作入力についての情報が、入力部150から表示制御部182に提供される。表示制御部182は、ユーザの指示に従って、当該表示装置における表示を適宜制御する。例えば、ユーザによる操作により、表示する画像の倍率や、明度等が変更されてよい。なお、表示制御部182の機能は、図1に示すCCU3401によって実現され得る。
 なお、以上説明した撮像制御部181及び表示制御部182の機能は、図1に示す内視鏡手術システム3000に元々備えられている機能である。つまり、図16では、説明のため、これらの機能をあえて明示したが、撮像制御部181による内視鏡部110の撮像条件の制御や、表示制御部182による表示装置における表示の制御は、上述した実施形態及び各変形例に係る支援システムでも同様に行われている。つまり、本変形例は、支援システム1cを適用することにより新たに導入された操作の入力方法(例えばNUIを介した操作入力)によって、内視鏡手術システム3000に元々備えられている機能を制御可能にするものである。
 以上説明したように、本変形例によれば、NUIを介した操作入力により、内視鏡部110の撮像条件、支持アーム部120のアーム部の動作、及び出力部160を構成する表示装置の表示を適宜操作することが可能である。NUIを用いることにより、非接触で操作入力を行うことが可能となるため、例えば清潔域に属するユーザであっても不潔域に属する入力装置に触れることなく、操作入力を行うことができる。また、より簡易な動作で、より直感的に操作入力を行うことができるため、作業の手を止めずに、各種の操作入力を行うことができる。従って、本変形例のように、NUIを介して内視鏡手術システム3000における各構成を操作可能であることにより、ユーザの利便性を格段に高めることが可能になる。
 (5-4.マスタースレイブ方式の支持アーム装置への適用)
 以上説明した実施形態では、内視鏡を支持する支持アーム装置は、スコピストによる直接操作によって操作可能に構成されていた。しかし、本実施形態はかかる例に限定されない。上記(1.内視鏡手術システムの構成)で説明したように、本実施形態に係る支援システムが適用され得る支持アーム装置は、マスタースレイブ方式で操作可能に構成されてもよい。
 支持アーム装置がマスタースレイブ方式で操作可能に構成される場合であっても、例えば図2に示す支援システム1の構成によって、上述した実施形態と同様に、安全制御を実行することが可能である。ただし、マスタースレイブ方式では、ユーザが直接支持アーム装置のアーム部に触れることがないので、動作制限が行われた際に、ユーザがそのことを直感的に把握し難いことが懸念される。従って、マスタースレイブ方式の支持アーム装置に対して支援システムが適用される場合には、動作制限が行われたことが、ユーザに対してより積極的に通知されることが好ましい。
 例えば、ユーザが操作入力を行うコントローラに対して、動作制限に応じたフィードバックが行われ得る。具体的には、アーム部の動作速度が制限された場合には、その動作速度に応じて、ユーザが操作するジョイスティック等の操作体の動作に抵抗感が付与されてもよい。あるいは、アーム部の動作が停止された場合には、それに連動して、ユーザが操作する操作体も動かなくなるように固定されてもよい。更に、このような操作体への抵抗感の付与、又は操作体の固定とともに、コントローラが振動してもよい。このような動作制限に応じた種々のフィードバックがユーザに対してなされることにより、当該ユーザは、動作制限が行われていることをより直観的に把握することが可能になる。
 (5-5.3Dモデルの利用)
 上述した実施形態において鏡筒生体組織間距離を算出する際に、例えば上記特許文献1に記載されているような、体腔内の生体組織の3Dモデルが併用されてもよい。例えば、3Dモデルを併用する変形例に係る支援システムは、図2に示す支援システム1に対して、3Dモデルを構築するための患者の体腔内の生体組織の3次元情報を記憶する記憶部が更に設けられることによって実現され得る。
 例えば、本変形例に係る支援システムでは、手術前に患者に対して実行されるMRIやCTによって得られた情報に基づいて、患者の体腔内の生体組織の位置及び形状を示す3次元情報を生成しておく。当該3次元情報は上記記憶部に記憶されており、支援システムは当該3次元情報に適宜アクセスすることが可能である。
 ここで、本変形例では、鏡筒生体組織間距離を患者の体腔内でリアルタイムで検出することができる。これを利用して、検出された当該鏡筒生体組織間距離によって、当該記憶部に格納されている3次元情報を手術中に随時更新する。鏡筒の位置は、アーム制御部から提供されるアーム部の状態を示す情報に基づいて算出可能であるため、安全制御部は、更新された3次元情報から最新の生体組織の3Dモデルを構築し、算出された鏡筒の位置と、構築した3Dモデルと、検出された鏡筒生体組織間距離と、を組み合わせることにより、鏡筒と当該鏡筒の周囲の生体組織との位置関係を同定することができる。そして、安全制御部は、その位置関係に応じて、上述した実施形態と同様に、動作制限指示及び警告の指示を適宜発行することができる。
 ここで、上記特許文献1に記載の技術では、手術前に取得された3次元情報に基づいて構築された3Dモデルを用いて、鏡筒と生体組織との距離を算出していたため、実際の手術時の生体の位置及び形状が正確に反映できていない可能性があった。これに対して、本変形例によれば、上述したように、リアルタイムで検出された鏡筒生体組織間距離によって、3次元情報が随時更新される。従って、実際の状況を反映した生体組織の3Dモデルを構築することができ、鏡筒と生体組織との距離をより正確に同定することが可能となる。このように、本実施形態に係る支援システムに、生体組織の3Dモデルを用いて鏡筒と生体組織との位置関係を把握する方法を併用することにより、動作制限及び警告をより適切に行うことが可能となり、更に安全な手術を提供することが可能になる。
 (6.補足)
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的なものではない。つまり、本開示に係る技術は、上記の効果とともに、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 例えば、上記実施形態では、一例として内視鏡手術システムにおける内視鏡の操作に対して、本開示に係る支援システムが適用された場合について説明したが、本技術はかかる例に限定されない。例えば、鉗子やレトラクタ等の他の術具に対して、本開示に係る支援システムが適用されてもよい。この場合には、これらの術具の先端に測距センサを設けたり、これらの術具を外部から観測し得る位置に測距センサを設けたりすることにより、上記(5-1.測距方法)で説明した変形例に係る支援システムを適用することが可能である。また、術部を拡大観察するための顕微鏡が支持アーム装置によって支持される、顕微鏡手術システムに対して、本開示に係る支援システムが適用されてもよい。この場合には、例えばステレオカメラからなる顕微鏡の撮像画像、顕微鏡に設けられる測距センサの検出値、又は顕微鏡を外部から観測し得る位置に設けられる測距センサの検出値、に基づいて、顕微鏡と当該顕微鏡の対物レンズと対向する生体組織との間の距離が検出され、顕微鏡と患者の生体組織とが接触しないように、安全制御が実行され得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記術具を支持する支持アーム装置のアーム部の動作を制限する制限動作指示を発行する、
 医療用安全制御装置。
(2)
 前記術具生体組織間距離が所定の第1制限距離以下である場合に、前記制限動作指示として、前記アーム部の動作を停止させる旨の指示を発行する、
 前記(1)に記載の医療用安全制御装置。
(3)
 前記術具生体組織間距離が前記第1制限距離よりも大きい所定の第2制限距離以下である場合に、前記制限動作指示として、前記アーム部の動作速度を所定の値以下に制限する旨の指示を発行する、
 前記(2)に記載の医療用安全制御装置。
(4)
 前記アーム部の動作速度を制限する前記所定の値は、前記術具生体組織間距離に応じて変化する、
 前記(3)に記載の医療用安全制御装置。
(5)
 前記術具生体組織間距離が所定の第1制限距離以下である場合に、前記制限動作指示として、前記術具が前記生体組織から離れる退避動作を行うように前記アーム部を動作させる旨の指示を発行する、
 前記(1)、3又は4に記載の医療用安全制御装置。
(6)
 前記退避動作では、前記術具が進行してきた経路を逆に辿って移動する、
 前記(5)に記載の医療用安全制御装置。
(7)
 前記術具生体組織間距離に基づいて、警告を発する旨の指示を更に発行する、
 前記(1)~(6)のいずれか1項に記載の医療用安全制御装置。
(8)
 前記警告は、前記術具生体組織間距離に応じて段階的に設定される、
 前記(7)に記載の医療用安全制御装置。
(9)
 前記術具は、ステレオカメラとして構成される内視鏡であり、
 前記術具生体組織間距離は、前記内視鏡による撮像画像に基づいて検出される、
 前記(1)~(8)のいずれか1項に記載の医療用安全制御装置。
(10)
 前記術具の進行方向と略垂直な面内における前記術具生体組織間距離の分布が検出され、
 前記術具の進行方向に設定される複数の領域のそれぞれにおける前記術具生体組織間距離に基づいて、前記制限動作指示を発行する、
 前記(9)に記載の医療用安全制御装置。
(11)
 前記術具生体組織間距離は、前記術具の先端に設けられる測距センサによって検出される、
 前記(1)~(8)のいずれか1項に記載の医療用安全制御装置。
(12)
 前記術具生体組織間距離は、前記術具及び前記生体組織を観測可能な位置に設けられる距離検出部によって検出される、
 前記(1)~(8)のいずれか1項に記載の医療用安全制御装置。
(13)
 前記アーム部の動作の制限を規定する条件は、ユーザによるNUIを介した入力に従って設定される、
 前記(1)~(12)のいずれか1項に記載の医療用安全制御装置。
(14)
 前記NUIを介した入力は、ユーザの音声、ユーザの視線の動き、ユーザの頭部の動き、及びユーザのジェスチャの少なくともいずれかによって実行される、
 前記(13)に記載の医療用安全制御装置。
(15)
 前記アーム部に対して、ユーザが前記アーム部に加えた外力にならって前記アーム部が駆動されるパワーアシスト制御が実行される、
 前記(1)~(14)のいずれか1項に記載の医療用安全制御装置。
(16)
 術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記術具を支持する支持アーム装置のアーム部の動作を制限する制限動作指示を発行すること、
 を含む、医療用安全制御方法。
(17)
 アーム部によって術具を支持する支持アーム部と、
 前記支持アーム部の駆動を制御するアーム制御部と、
 前記術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記アーム部の動作を制限する制限動作指示を、前記アーム制御部に対して発行する医療用安全制御部と、
 を備える、医療用支援システム。
 1、1a、1b、1c  支援システム
 110  内視鏡部
 120  支持アーム部
 130  アーム制御部
 140  画像処理距離算出部
 150  入力部
 151  音声検出部
 152  視線検出部
 153  ヘッドトラック検出部
 154  ジェスチャ検出部
 155  装置操作検出部
 160  出力部
 170  安全制御部
 180a、180b  距離検出部
 181  撮像制御部
 182  表示制御部
 3000  内視鏡手術システム
 3100  内視鏡
 3300  支持アーム装置3300
 3401  CCU
 3403  表示装置
 3407  アーム制御装置
 3408  安全制御装置
 3409  入力装置

Claims (17)

  1.  術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記術具を支持する支持アーム装置のアーム部の動作を制限する制限動作指示を発行する、
     医療用安全制御装置。
  2.  前記術具生体組織間距離が所定の第1制限距離以下である場合に、前記制限動作指示として、前記アーム部の動作を停止させる旨の指示を発行する、
     請求項1に記載の医療用安全制御装置。
  3.  前記術具生体組織間距離が前記第1制限距離よりも大きい所定の第2制限距離以下である場合に、前記制限動作指示として、前記アーム部の動作速度を所定の値以下に制限する旨の指示を発行する、
     請求項2に記載の医療用安全制御装置。
  4.  前記アーム部の動作速度を制限する前記所定の値は、前記術具生体組織間距離に応じて変化する、
     請求項3に記載の医療用安全制御装置。
  5.  前記術具生体組織間距離が所定の第1制限距離以下である場合に、前記制限動作指示として、前記術具が前記生体組織から離れる退避動作を行うように前記アーム部を動作させる旨の指示を発行する、
     請求項1に記載の医療用安全制御装置。
  6.  前記退避動作では、前記術具が進行してきた経路を逆に辿って移動する、
     請求項5に記載の医療用安全制御装置。
  7.  前記術具生体組織間距離に基づいて、警告を発する旨の指示を更に発行する、
     請求項1に記載の医療用安全制御装置。
  8.  前記警告は、前記術具生体組織間距離に応じて段階的に設定される、
     請求項7に記載の医療用安全制御装置。
  9.  前記術具は、ステレオカメラとして構成される内視鏡であり、
     前記術具生体組織間距離は、前記内視鏡による撮像画像に基づいて検出される、
     請求項1に記載の医療用安全制御装置。
  10.  前記術具の進行方向と略垂直な面内における前記術具生体組織間距離の分布が検出され、
     前記術具の進行方向に設定される複数の領域のそれぞれにおける前記術具生体組織間距離に基づいて、前記制限動作指示を発行する、
     請求項9に記載の医療用安全制御装置。
  11.  前記術具生体組織間距離は、前記術具の先端に設けられる測距センサによって検出される、
     請求項1に記載の医療用安全制御装置。
  12.  前記術具生体組織間距離は、前記術具及び前記生体組織を観測可能な位置に設けられる距離検出部によって検出される、
     請求項1に記載の医療用安全制御装置。
  13.  前記アーム部の動作の制限を規定する条件は、ユーザからの入力に従って設定される、
     請求項1に記載の医療用安全制御装置。
  14.  前記ユーザからの入力は、ユーザの音声、ユーザの視線の動き、ユーザの頭部の動き、及びユーザのジェスチャの少なくともいずれかによって実行される、
     請求項13に記載の医療用安全制御装置。
  15.  前記アーム部に対して、ユーザが前記アーム部に加えた外力にならって前記アーム部が駆動されるパワーアシスト制御が実行される、
     請求項1に記載の医療用安全制御装置。
  16.  術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記術具を支持する支持アーム装置のアーム部の動作を制限する制限動作指示を発行すること、
     を含む、医療用安全制御方法。
  17.  アーム部によって術具を支持する支持アーム部と、
     前記支持アーム部の駆動を制御するアーム制御部と、
     前記術具によって患者の生体組織に対して処置を行っている間に検出される前記術具と前記生体組織との距離である術具生体組織間距離に基づいて、前記アーム部の動作を制限する制限動作指示を、前記アーム制御部に対して発行する医療用安全制御部と、
     を備える、医療用支援システム。
PCT/JP2016/085891 2016-01-25 2016-12-02 医療用安全制御装置、医療用安全制御方法、及び医療用支援システム WO2017130567A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017563725A JPWO2017130567A1 (ja) 2016-01-25 2016-12-02 医療用安全制御装置、医療用安全制御方法、及び医療用支援システム
DE112016006299.0T DE112016006299T5 (de) 2016-01-25 2016-12-02 Medizinische Sicherheitssteuerungsvorrichtung, medizinisches Sicherheitssteuerungsverfahren und medizinisches Unterstützungssystem
US16/063,550 US11058509B2 (en) 2016-01-25 2016-12-02 Medical safety control apparatus, medical safety control method, and medical support system
US17/359,647 US20210322125A1 (en) 2016-01-25 2021-06-28 Medical safety control apparatus, medical safety control method, and medical support system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016011348 2016-01-25
JP2016-011348 2016-01-25

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/063,550 A-371-Of-International US11058509B2 (en) 2016-01-25 2016-12-02 Medical safety control apparatus, medical safety control method, and medical support system
US17/359,647 Continuation US20210322125A1 (en) 2016-01-25 2021-06-28 Medical safety control apparatus, medical safety control method, and medical support system

Publications (1)

Publication Number Publication Date
WO2017130567A1 true WO2017130567A1 (ja) 2017-08-03

Family

ID=59399052

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085891 WO2017130567A1 (ja) 2016-01-25 2016-12-02 医療用安全制御装置、医療用安全制御方法、及び医療用支援システム

Country Status (4)

Country Link
US (2) US11058509B2 (ja)
JP (2) JPWO2017130567A1 (ja)
DE (1) DE112016006299T5 (ja)
WO (1) WO2017130567A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021529633A (ja) * 2018-07-16 2021-11-04 エシコン エルエルシーEthicon LLC 外科用可視化プラットフォーム
CN113729940A (zh) * 2021-09-23 2021-12-03 上海卓昕医疗科技有限公司 手术辅助定位系统及其控制方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6773039B2 (ja) * 2015-10-02 2020-10-21 ソニー株式会社 医療用制御装置、制御方法、およびプログラム
US10678338B2 (en) * 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
WO2019098052A1 (ja) * 2017-11-20 2019-05-23 株式会社Medi Plus 医療安全システム
JP2020156800A (ja) * 2019-03-27 2020-10-01 ソニー株式会社 医療用アームシステム、制御装置、及び制御方法
FR3101532A1 (fr) * 2019-10-04 2021-04-09 Collin Dispositif robotisé d’intervention chirurgicale à bras articulé commandé pour le suivi d’un trajet
CN114027968B (zh) * 2021-11-30 2024-04-02 深圳市联影高端医疗装备创新研究院 手术设备、电外科手术装置和手术设备的安全检测方法
CN114469340A (zh) * 2022-01-18 2022-05-13 上海健康医学院 一种手术机器人软组织识别处理方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05211990A (ja) * 1991-12-10 1993-08-24 Olympus Optical Co Ltd 電動湾曲式内視鏡装置
JPH0966056A (ja) * 1995-09-01 1997-03-11 Olympus Optical Co Ltd 医療用マニピュレータシステム
JP2004223128A (ja) * 2003-01-27 2004-08-12 Hitachi Ltd 医療行為支援装置および方法
JP2006136385A (ja) * 2004-11-10 2006-06-01 Pentax Corp 内視鏡
JP2010104426A (ja) * 2008-10-28 2010-05-13 Olympus Medical Systems Corp 医療機器
JP2013192773A (ja) * 2012-03-21 2013-09-30 Olympus Corp 手術用映像システムおよび映像表示方法
JP2014161537A (ja) * 2013-02-26 2014-09-08 Olympus Corp 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP2014223293A (ja) * 2013-04-23 2014-12-04 オリンパスメディカルシステムズ株式会社 導入装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5923139A (en) * 1996-02-23 1999-07-13 Northwestern University Passive robotic constraint devices using non-holonomic transmission elements
US6810281B2 (en) * 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
GB0102245D0 (en) * 2001-01-29 2001-03-14 Acrobot Company The Ltd Systems/Methods
ES2304430T3 (es) * 2001-01-29 2008-10-16 The Acrobot Company Limited Robots con limitacion activa.
US20050193451A1 (en) * 2003-12-30 2005-09-01 Liposonix, Inc. Articulating arm for medical procedures
US8945095B2 (en) * 2005-03-30 2015-02-03 Intuitive Surgical Operations, Inc. Force and torque sensing for surgical instruments
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
JP4152402B2 (ja) * 2005-06-29 2008-09-17 株式会社日立メディコ 手術支援装置
JP2007029232A (ja) 2005-07-25 2007-02-08 Hitachi Medical Corp 内視鏡手術操作支援システム
US9266239B2 (en) * 2005-12-27 2016-02-23 Intuitive Surgical Operations, Inc. Constraint based control in a minimally invasive surgical apparatus
US7907166B2 (en) * 2005-12-30 2011-03-15 Intuitive Surgical Operations, Inc. Stereo telestration for robotic surgery
CN104688281B (zh) * 2006-06-13 2017-04-19 直观外科手术操作公司 微创手术系统
US8496575B2 (en) * 2006-11-14 2013-07-30 Olympus Corporation Measuring endoscope apparatus, program and recording medium
US8561473B2 (en) * 2007-12-18 2013-10-22 Intuitive Surgical Operations, Inc. Force sensor temperature compensation
US8641663B2 (en) * 2008-03-27 2014-02-04 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system input device
JP5211990B2 (ja) 2008-09-29 2013-06-12 沖電気工業株式会社 現金入出金装置の精査システム、その精査方法及び窓口端末装置
US8317746B2 (en) * 2008-11-20 2012-11-27 Hansen Medical, Inc. Automated alignment
US20120059378A1 (en) * 2009-11-25 2012-03-08 James David Farrell Efficient Sculpting System
JP5535725B2 (ja) * 2010-03-31 2014-07-02 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
US20120158011A1 (en) * 2010-12-16 2012-06-21 Sandhu Kulbir S Proximity sensor interface in a robotic catheter system
US9308050B2 (en) * 2011-04-01 2016-04-12 Ecole Polytechnique Federale De Lausanne (Epfl) Robotic system and method for spinal and other surgeries
US10866783B2 (en) * 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
GB2505926A (en) 2012-09-14 2014-03-19 Sony Corp Display of Depth Information Within a Scene
CN105050479B (zh) * 2013-04-12 2017-06-23 奥林巴斯株式会社 内窥镜系统
WO2014199413A1 (ja) * 2013-06-13 2014-12-18 テルモ株式会社 医療用マニピュレータおよびその制御方法
DE102013108115A1 (de) * 2013-07-30 2015-02-05 gomtec GmbH Verfahren und Vorrichtung zum Festlegen eines Arbeitsbereichs eines Roboters
WO2015046081A1 (ja) * 2013-09-24 2015-04-02 ソニー・オリンパスメディカルソリューションズ株式会社 医療用ロボットアーム装置、医療用ロボットアーム制御システム、医療用ロボットアーム制御方法及びプログラム
US9283048B2 (en) * 2013-10-04 2016-03-15 KB Medical SA Apparatus and systems for precise guidance of surgical tools
US10368850B2 (en) * 2014-06-18 2019-08-06 Siemens Medical Solutions Usa, Inc. System and method for real-time ultrasound guided prostate needle biopsies using a compliant robotic arm
CN106999248B (zh) * 2014-06-19 2021-04-06 Kb医疗公司 用于执行微创外科手术的系统及方法
US11033340B2 (en) * 2015-10-01 2021-06-15 Sony Corporation Medical support arm apparatus and medical system
US10136952B2 (en) * 2016-06-16 2018-11-27 Zimmer, Inc. Soft tissue balancing in articular surgery

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05211990A (ja) * 1991-12-10 1993-08-24 Olympus Optical Co Ltd 電動湾曲式内視鏡装置
JPH0966056A (ja) * 1995-09-01 1997-03-11 Olympus Optical Co Ltd 医療用マニピュレータシステム
JP2004223128A (ja) * 2003-01-27 2004-08-12 Hitachi Ltd 医療行為支援装置および方法
JP2006136385A (ja) * 2004-11-10 2006-06-01 Pentax Corp 内視鏡
JP2010104426A (ja) * 2008-10-28 2010-05-13 Olympus Medical Systems Corp 医療機器
JP2013192773A (ja) * 2012-03-21 2013-09-30 Olympus Corp 手術用映像システムおよび映像表示方法
JP2014161537A (ja) * 2013-02-26 2014-09-08 Olympus Corp 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP2014223293A (ja) * 2013-04-23 2014-12-04 オリンパスメディカルシステムズ株式会社 導入装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021529633A (ja) * 2018-07-16 2021-11-04 エシコン エルエルシーEthicon LLC 外科用可視化プラットフォーム
JP7416756B2 (ja) 2018-07-16 2024-01-17 エシコン エルエルシー 外科用可視化プラットフォーム
CN113729940A (zh) * 2021-09-23 2021-12-03 上海卓昕医疗科技有限公司 手术辅助定位系统及其控制方法
CN113729940B (zh) * 2021-09-23 2023-05-23 上海卓昕医疗科技有限公司 手术辅助定位系统及其控制方法

Also Published As

Publication number Publication date
JP7414770B2 (ja) 2024-01-16
DE112016006299T5 (de) 2018-10-11
US20190000585A1 (en) 2019-01-03
JP2021118883A (ja) 2021-08-12
JPWO2017130567A1 (ja) 2018-11-22
US20210322125A1 (en) 2021-10-21
US11058509B2 (en) 2021-07-13

Similar Documents

Publication Publication Date Title
JP7414770B2 (ja) 医療用アーム装置、医療用アーム装置の作動方法、及び情報処理装置
US11007023B2 (en) System and method of registration between devices with movable arms
KR102437404B1 (ko) 수술 기구를 제어하는 시스템 및 방법
US20200397515A1 (en) Interface for Laparoscopic Surgeries - Movement Gestures
KR102643758B1 (ko) 생검 장치 및 시스템
KR102476150B1 (ko) 조향 가능한 신장된 장치의 시스템 및 방법
US10182873B2 (en) Structural adjustment systems and methods for a teleoperational medical system
EP3426128B1 (en) Image processing device, endoscopic surgery system, and image processing method
WO2017169098A1 (ja) 制御装置及び制御方法
KR20190014112A (ko) 영상 안내식 시술 중에 복수의 모드에서 안내 정보를 디스플레이하기 위한 그래픽 사용자 인터페이스
US20220265380A1 (en) Systems and methods for steerable elongate device
KR20200047737A (ko) 입력 장치의 오퍼레이터가 볼 수 있는 디스플레이 영역으로 기구가 진입할 때 기구의 제어를 입력 장치로 전환하는 방법
WO2019155931A1 (ja) 手術システム、画像処理装置及び画像処理方法
JP2018075218A (ja) 医療用支持アーム及び医療用システム
JP2015016181A (ja) 手術支援ロボット
JP7044140B2 (ja) 手術支援システム、画像処理方法及び情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16888151

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017563725

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112016006299

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16888151

Country of ref document: EP

Kind code of ref document: A1