WO2019116592A1 - 内視鏡の表示画像の調整装置及び手術システム - Google Patents

内視鏡の表示画像の調整装置及び手術システム Download PDF

Info

Publication number
WO2019116592A1
WO2019116592A1 PCT/JP2018/004037 JP2018004037W WO2019116592A1 WO 2019116592 A1 WO2019116592 A1 WO 2019116592A1 JP 2018004037 W JP2018004037 W JP 2018004037W WO 2019116592 A1 WO2019116592 A1 WO 2019116592A1
Authority
WO
WIPO (PCT)
Prior art keywords
processor
endoscope
information
scene
interest
Prior art date
Application number
PCT/JP2018/004037
Other languages
English (en)
French (fr)
Inventor
智子 後町
悟 菊池
岸 宏亮
尊己 芝崎
竜一 頼本
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2019116592A1 publication Critical patent/WO2019116592A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image

Definitions

  • the present invention relates to an adjustment device of display image of an endoscope and a surgery system.
  • JP-A-2004-199004 discloses a drive mechanism for moving a zoom lens of an endoscope in the optical axis direction and a CCD drive mechanism for moving the zoom lens in the direction orthogonal to the optical axis direction based on a voice recognition device.
  • An endoscope system capable of controlling driving and changing a view range of a display image on a monitor by an endoscope is disclosed.
  • the operator While observing the displayed image displayed on the monitor, the operator appropriately moves the position and posture of the tip of the insertion portion of the endoscope (visual field, gaze point and view to the region of interest) according to the treatment content, and performs the treatment Do.
  • various treatments are performed in appropriate operation scenes such as, for example, a bleeding scene, an ablation scene, an angiectomy (dissection) scene, an organ ablation scene, and a suture / anastomosis scene. It is desirable to provide a display image of an endoscope that is easy for the operator to view, and provide an environment in which the operator can easily focus on surgery, to the region of interest in the treatment in each scene.
  • the apparatus for adjusting a display image of an endoscope receives a captured image information acquired by the endoscope, and at least one of the endoscope and a holder for holding the endoscope receives a drive signal. Transmitting and operating at least one of the endoscope and the holder to adjust at least one of a visual field, a viewpoint, and a sight of an intraoperative display image of the endoscope displayed on a monitor among the captured image information;
  • the processor has one or more processors, and the processor acquires scene identification information for identifying a scene under surgery, the captured image information, and / or a predetermined trigger signal input to the processor, A region of interest (gaze point) of the operator in the display image of the endoscope displayed on the monitor is identified based on the acquired information, and according to the identification result of the region of interest To the region of interest in the displayed image during surgery the serial endoscope, the field of view, adjusting at least one of the viewpoint and the perspectives.
  • FIG. 1 is a schematic view showing a surgery system according to the first and second embodiments.
  • FIG. 2 is a schematic block diagram showing a surgery system according to the first and second embodiments.
  • FIG. 3 is a schematic view showing an example of a treatment tool (energy treatment tool) that can be used in the surgery system according to the first and second embodiments.
  • FIG. 4 is a schematic view showing an example in the vicinity of the distal end portion of the insertion portion of the endoscope which can be used in the surgery system according to the first and second embodiments.
  • FIG. 5A is a schematic view showing a state in which the visual field is changed while maintaining the view point and the view in the display image of the endoscope displayed on the monitor.
  • FIG. 5B is a schematic view showing a state in which the visual point and the visual point are maintained and the viewpoint is changed in the display image of the endoscope displayed on the monitor.
  • FIG. 5C is a schematic view showing a state in which the view is changed while maintaining the field of view and the viewpoint in the display image of the endoscope displayed on the monitor.
  • FIG. 6 is a schematic view showing an endoscope used in the surgery system according to the first and second embodiments, and a holder for mounting the endoscope.
  • FIG. 7A is a flowchart showing an example of the operation of the processor in an appropriate surgery scene in the surgery system according to the first embodiment.
  • FIG. 7B is a flowchart different from the flowchart shown in FIG.
  • FIG. 7A showing an example of the operation of the processor in an appropriate surgery scene in the surgery system according to the first embodiment.
  • FIG. 8 is a flowchart showing the operation of the processor when the surgery scene is a bleeding scene in the surgery system according to the first embodiment.
  • FIG. 9 is a schematic view showing a state before and after changing the display image of the endoscope displayed on the monitor when the flow shown in FIG. 8 is executed in the surgery system according to the first embodiment. is there.
  • FIG. 10 is a schematic view showing a modification of the example shown in FIG. 9 of the display image of the endoscope displayed on the monitor when the flow shown in FIG. 8 is executed in the surgery system according to the first embodiment.
  • FIG. 11 is a modification of the example shown in FIG. 9 and FIG.
  • FIG. 12 is a modification of the example shown in FIG. 9 to FIG. 11 of the display image of the endoscope displayed on the monitor when the flow shown in FIG. 8 is executed in the surgery system according to the first embodiment.
  • FIG. FIG. 13 is a modification of the example shown in FIGS. 9 to 12 of the display image of the endoscope displayed on the monitor when the flow shown in FIG. 8 is executed in the surgery system according to the first embodiment.
  • FIG. FIG. 14 is a flowchart showing the operation of the processor when the surgery scene is a peeling scene in the surgery system according to the first embodiment.
  • FIG. 15A shows a state in which an appropriate tension is applied between tissues by the operation of a pair of treatment tools when the surgery scene is a peeling scene in the surgery system according to the first embodiment, It is a figure which shows the state which the processor estimated the peeling line of and displayed the peeling line on the display image of an endoscope by superposition.
  • FIG. 15B is a diagram illustrating the surgical system according to the first embodiment in which, after the processor estimates the peeling line, the processor is inserted when a dedicated treatment tool for peeling between tissues is reflected in the display image of the endoscope.
  • FIG. 16 is a flow chart showing the operation of the processor in the case where the surgery scene is a vascular ablation scene in the surgery system according to the first embodiment.
  • FIG. 17A is a surgical system according to the first embodiment, and in the case where the surgical scene is a vessel ablation scene, the processor estimates a vessel to be ablated and shows the vessel in the display image of the endoscope. It is a figure which shows the state which superimposed and displayed the line.
  • FIG. 17B shows a state in which the processor operates the endoscope after estimating the line indicating the vessel, and the observation optical system of the endoscope enlarges and displays the vessel to be removed in the display image. It is.
  • FIG. 18A is a diagram showing a state in which a dedicated treatment tool (clip applier) is reflected in the display image of the endoscope.
  • FIG. 18B is a view showing a state in which the dedicated treatment tool is moved after it is reflected in the display image of the endoscope.
  • FIG. 18A is a diagram showing a state in which a dedicated treatment tool (clip applier) is reflected in the display image of the endoscope.
  • FIG. 18B is a view showing a state in which the dedicated treatment tool is moved after it is reflected in the display image of the endoscope.
  • FIG. 18C shows that the processor operates the endoscope following movement of the dedicated treatment tool after the dedicated treatment tool is reflected in the display image of the endoscope, and the endoscope is observed It is a figure which shows the state which has caught the treatment tool for exclusive use by the optical system in the center of a display image.
  • FIG. 19 when a dedicated treatment tool different from that shown in FIGS. 18A to 18C appears in the display image of the endoscope, the processor operates the endoscope, and the observation optical system of the endoscope It is a figure which shows the state which makes a display image follow a treatment image in the state which caught the special treatment tool at the center of a display image.
  • FIG. 19 shows that the processor operates the endoscope following movement of the dedicated treatment tool after the dedicated treatment tool is reflected in the display image of the endoscope, and the endoscope is observed It is a figure which shows the state which has caught the treatment tool for exclusive use by the optical system in the center of a display image.
  • FIG. 19 when a dedicated treatment
  • FIG. 20 is a flowchart showing the operation of the processor when the surgery scene is an organ resection scene in the surgery system according to the first embodiment.
  • FIG. 21 is a flowchart showing the operation of the processor when the surgical scene is a suture / anastomosis scene in the surgical system according to the first embodiment.
  • FIG. 22 is a flowchart showing an example of the operation of the processor in an appropriate surgery scene in the surgery system according to the modification of the first embodiment.
  • FIG. 23 is adjusted according to the scene information stored in the surgery system according to the modification of the first embodiment, the scene identified based on the scene information, and / or the region of interest of the operator It is a table showing the correspondence with the display image of the endoscope.
  • FIG. 21 is a flowchart showing the operation of the processor when the surgical scene is a suture / anastomosis scene in the surgical system according to the first embodiment.
  • FIG. 22 is a flowchart showing an example of the operation of the processor in an appropriate surgery scene
  • FIG. 24 is a flowchart showing an example of the operation of the processor in an appropriate surgery scene in the surgery system according to the second embodiment.
  • FIG. 25 is a flowchart showing an example of the operation of the processor in an appropriate surgery scene in the surgery system according to the modification of the second embodiment.
  • FIG. 26 corresponds to information on a treatment tool stored in a surgical system according to a modification of the second embodiment, a scene identified based on the information on the treatment tool, and / or a region of interest of the operator It is a table
  • First Embodiment 1 and 2 show a surgical system 10 in the present embodiment.
  • the surgical system 10 is used, for example, for laparoscopic surgery.
  • the surgery system 10 includes an endoscope 12, a scope holder (robot arm) 14, an input unit 16, a monitor 18, and an adjustment device 20 for a display image of the endoscope 12.
  • the adjustment device 20 includes a processor 22 and a storage unit (memory and / or storage) 24.
  • the number of processors 22 and storage units 24 may be one or plural.
  • the endoscope 12, the scope holder 14, the input unit 16, the monitor 18, and the storage unit 24 are connected to the processor 22 via an interface in a wired or wireless manner.
  • the processor 22 generates drive signals for operating various devices (the treatment tool 32, the endoscope 12, the scope holder 14, the monitor 18, and the like).
  • the storage unit 24 stores a program that causes the processor 22 to function.
  • the storage unit 24 stores data used by the processor 22 for processing, setting data (parameters, functions, tables, etc.) for setting various functions of various devices connected to the processor 22. .
  • the storage unit 24 is used as a work memory or the like when the processor 22 executes a program.
  • the processor 22 is used as a controller that controls the entire system 10.
  • the processor 22 executes various functions in accordance with a program stored in the storage unit 24 and controls the operation of each unit of the system 10.
  • the processor 22 can transmit and receive appropriate signals between the endoscope 12, the scope holder 14, the input unit 16, the monitor 18, and the storage unit 24. The configuration of each unit connected to the processor 22 will be described later.
  • the processor 22 is formed of an integrated circuit or circuitry including a central processing unit (CPU), an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).
  • CPU central processing unit
  • ASIC application specific integrated circuit
  • FPGA field programmable gate array
  • the input unit 16 inputs various types of information to the processor 22.
  • the input unit 16 may include a keyboard, a switch, a lever, and the like (not shown) operated directly by the operator.
  • the input unit 16 is a microphone 16a (see FIG. 1) for inputting the voice of the operator, a gaze detection sensor 16b (see FIG. 1) for detecting the gaze of the operator, and an action information detection sensor ( Not shown) and the like.
  • the gaze detection sensor 16 b may be provided, for example, in goggles attached by the operator.
  • the gaze detection sensor 16 b and the behavior information detection sensor may be installed on the monitor 18 or the like that the operator keeps observing during the operation.
  • a camera (not shown) installed in the operating room may be used as a behavior information detection sensor of the operator.
  • the processor 22 detects the voice information of the operator input via the microphone 16a (see FIG. 1), the detection information detected by the sight line detection sensor 16b (see FIG. 1), the action information detection sensor
  • the operator's input information (action information) such as detection information is input.
  • the information input to the input unit 16 can be one of scene specification information for the processor 22 to specify a surgical scene during surgery and / or a predetermined trigger signal.
  • the system 10 is connected to a server 26 installed, for example, in a hospital where surgery is performed.
  • the server 26 is used when using the system 10, such as diagnostic image information of a patient acquired before or during surgery, surgical plan information acquired before or during surgery, and past surgical information of other patients. Data are stored.
  • the processor 22 can access and read various information in the server 26 based on, for example, an instruction from the input unit 16. In addition, the processor 22 keeps storing the display image of the endoscope 12 during the operation in the storage unit 24 and / or the server 26.
  • the processor 22 associates the association between the captured image information in the display image of the endoscope 12 and the region of interest of the operator with the operator's behavior information (voice information of the operator, the operator, and the like input to the processor 22 through the input unit 16 And at least one input information of the operator's gesture information).
  • the processor 22 further outputs, from the captured image information, image information associated based on the evaluation result to the storage unit 24 and / or the server 26.
  • the processor 22 recognizes audio information input through the microphone 16a, and outputs, in a report format, captured image information of the endoscope 12 associated with the audio information.
  • the processor 22 preferably performs data conversion to convert voice information into text format and outputs the data to the storage unit 24 and / or the server 26.
  • the processor 22 transmits drive signals for driving the drive sources 47, 49, 58 to drive sources 47, 49 of the endoscope 12 described later and a plurality of drive sources 58 of the scope holder 14 described later.
  • the processor 22 receives information of the endoscope 12 and the scope holder 14 operating based on the transmission of the drive signal.
  • the processor 22 preferably performs feedback control of the drive sources 47, 49, and 58 to control the tip 42a of the insertion portion 42, which will be described later, of the endoscope 12 to be close to a desired position and posture.
  • the system 10 be selected from the treatment tools 32, 32,... Set in advance.
  • One or more of the treatment tools 32, 32,... Set in advance may be connected to the processor 22.
  • a plurality of treatment tools 32, 32,... necessary treatment tools 32 may be registered with the system 10 before or during surgery.
  • the treatment tools 32, 32, ... are set or registered in applications (gripping, hemostasis, incision, ligation, ).
  • the processor 22 can determine whether the connected treatment tool 32 is preset in the system 10 when the treatment tool 32 is connected to the processor 22.
  • Examples of the treatment tools 32, 32, ... include, for example, a grasping forceps for grasping a living tissue, an energy treatment tool for incising / hemostasis of a living tissue, a needle holder for holding a suture needle, and the like.
  • the endoscope 12 is not included in the treatment tool in the present embodiment.
  • Treatment tools that are not preset treatment tools 32 may be used for the surgical system 10.
  • the treatment tool inserted is preset by the image recognition technology or the like based on the captured image information of the endoscope 12.
  • an appropriate technology such as one using artificial intelligence can be used.
  • the processor 22 sets in advance the treatment tool placed in the body cavity by, for example, a warning sound or a warning display on the monitor 18. It is preferable to notify the operator that the treatment instrument 32 is not processed.
  • FIG. 3 shows an example of the treatment tool 32 preset in the system 10.
  • the treatment tool 32 has a shaft 34 having a treatment portion 34a at its tip, and a handle 36 provided on the proximal side of the shaft 34.
  • the processor 22 performs signal processing on the captured image information captured by the imaging unit 48 a through the observation window 48 b of the endoscope 12 using image processing technology, thereby presetting the captured image of the endoscope 12 It is determined whether the treatment portion 34a of the tool 32 has been inserted.
  • a sensor may be provided at any position of the treatment tool 32 to recognize the position and posture of an appropriate part of the treatment section 34a with respect to the tip 42a of the insertion section 42 of the endoscope 12.
  • the sensor may be part of an input 16 that inputs a signal to the processor 22.
  • the captured image of the endoscope 12 captures a three-dimensional space.
  • the outer edge of the imaging space can be calculated as coordinates based on the direction in which the observation window 48b is directed, magnification information of the zoom mechanism, and the like.
  • the processor 22 can detect, for example, whether or not an appropriate region of the treatment portion 34 a of the treatment tool 32 has entered the outer edge of the imaging space in the captured image of the endoscope 12. Therefore, the processor 22 can determine whether or not, for example, the tip of the treatment unit 34a is included in the captured image of the endoscope 12 without using the image processing technique.
  • the treatment tool 32 is inserted into the abdominal wall through a hole formed in the abdominal wall. It is preferable that a trocar 38, which is a passage for communicating the inside of the body with the outside, be disposed in the abdominal wall. For this reason, the tip 42a of the later-described insertion portion 42 of the endoscope 12 and the treatment portion 34a of the treatment instrument 32 can be inserted into the body via the trocar 38.
  • an RFID tag (not shown) is attached to the endoscope 12 and the shaft 34 of the treatment tool 32.
  • a reader (not shown) of an RFID tag is attached to the trocker 38.
  • the shaft 34 of the treatment tool 32 to which the RFID tag is attached is inserted into the body cavity through the trocker 38, whether the treatment tool is a lineup of treatment tools and whether the treatment portion 34a of the treatment tool is in the body cavity. It is recognized that it has been inserted. Whether or not the shaft 34 of the treatment tool that has been lined up is inserted into the trocker 38 can be detected also by, for example, an optical sensor or the like connected to the processor 22. Note that the RFID tag, the reader, the light sensor, and the like can be part of the input unit 16 that inputs a signal to the processor 22.
  • the position and attitude of the trocar 38 in the system 10 can be detected by a sensor (not shown) provided on the trocker 38 and connected to the processor 22. Therefore, in the system 10, the position and posture of an appropriate part (for example, the tip along the longitudinal axis) of the treatment portion 34a of the treatment tool 32 is specified by the positional relationship with the trocker 38 and displayed on the monitor 18. Image processing information or the like based on the display image of the endoscope 12 can be specified.
  • a sensor (not shown) provided in the trocker 38 can be a part of the input unit 16 that inputs a signal to the processor 22.
  • the endoscope 12 is, for example, an insertion portion 42 which is inserted into a body cavity such as an abdominal wall via a trocar 38, and a mounting portion (holding portion) 56 of the scope holder 14 which is provided on the proximal end side of the insertion portion 42. And an attached portion (held portion) 44 to be held.
  • the insertion portion 42 is provided with a bending portion 46 that curves in a predetermined direction on the tip end side, and an observation optical element provided from the tip 42 a of the insertion portion 42 to the mounted portion (held portion) 44 And a system 48.
  • the structures of the bending portion 46 and the observation optical system 48 are known, and thus the description thereof is omitted.
  • the observation optical system 48 is in the vicinity of the distal end of the insertion unit 42, and includes an imaging unit 48a (see FIG. 2) that captures an image of an observation target.
  • the imaging unit 48a captures an image of a body cavity to generate captured image information.
  • the processor 22 continues to receive captured image information acquired by the imaging unit 48 a of the endoscope 12 during operation.
  • the processor 22 keeps transmitting the captured image information to the monitor 18, and keeps the monitor 18 displaying an image (display image) inside a body cavity under surgery.
  • the system 10 may display the captured image information captured by the imaging unit 48 a as a display image on the monitor 18 using an image processing apparatus (not shown) other than the processor 22 (not shown). Also at this time, the processor 22 transmits and receives signals to and from the image processing apparatus, and captured image information of a display image displayed on the monitor 18 is input to the processor 22.
  • the endoscope 12 has a drive source 47 (see FIG. 2) that causes the bending portion 46 to bend.
  • the processor 22 appropriately drives the drive source 47 to bend the bending portion 46 by inputting an appropriate drive signal to the drive source 47.
  • the bending portion 46 can be curved, for example, in four directions, as in a known endoscope.
  • Examples of the drive source 47 include, but are not limited to, actuators such as motors, pneumatics, hydraulics, hydraulics, and artificial muscles.
  • the present system 10 may use an endoscope having no bending portion 46 different from that shown in FIG. 4.
  • the endoscope 12 moves, for example, the observation window 48b of the tip 42a of the insertion portion 42 of the endoscope 12 to a desired position and posture by the bending operation of the bending portion 46, for example, by a signal (command) from the processor 22 And maintain its position.
  • the observation optical system 48 of the endoscope 12 has a zoom mechanism such as a known electronic zoom / optical zoom, and is configured to be able to exhibit the zoom function.
  • the optical zoom mechanism is operated by driving the drive source 49 by the input of the drive signal from the processor 22.
  • the drive source 49 is proximal to the observation window 48b along the longitudinal axis and operates the optical zoom mechanism.
  • an actuator such as a motor, air pressure, water pressure, oil pressure, artificial muscle or the like may be used, but the invention is not limited thereto.
  • captured image information of an image in a narrower range among images captured by the imaging unit 48 a is input to the processor 22 by input of a drive signal from the processor 22 to the imaging unit 48 a .
  • the processor 22 appropriately cuts out the area near the center of the imaging device of the imaging unit 48 a of the captured image signals input from the imaging unit 48 a and causes the monitor 18 to display the region.
  • the drive source 49 may be unnecessary. As shown in FIG.
  • the processor 22 appropriately operates a zoom mechanism such as an optical zoom that operates the drive source 49 and / or an electronic zoom according to a drive signal (command) from the processor 22 so that the monitor 18 operates. It is possible to adjust the field of view of the captured image to be displayed. At this time, the processor 22 can adjust the field of view within a predetermined range while maintaining the viewpoint and the sight by the zoom mechanism, that is, maintaining the position and posture of the tip 42a of the insertion portion 42 with respect to the observation object is there.
  • a zoom mechanism such as an optical zoom that operates the drive source 49 and / or an electronic zoom according to a drive signal (command) from the processor 22 so that the monitor 18 operates. It is possible to adjust the field of view of the captured image to be displayed. At this time, the processor 22 can adjust the field of view within a predetermined range while maintaining the viewpoint and the sight by the zoom mechanism, that is, maintaining the position and posture of the tip 42a of the insertion portion 42 with respect to the observation object is there.
  • System 10 may include multiple endoscopes 12.
  • the plurality of endoscopes 12 can simultaneously observe one observation target from a plurality of directions using each observation optical system 48.
  • the processor 22 can cause the monitor 18 to display a view range as a center of the region of interest as a single image by an appropriate image combining technique that combines captured image information from a plurality of directions.
  • the observation optical system 48 of the endoscope 12 may be configured to observe the body cavity in a wide field of view, for example, by selection of an objective lens or the like.
  • the processor 22 can construct a display image by cutting out a visual field range centered on the region of interest from the wide-field observation image.
  • the scope holder 14 is installed, for example, on the bedside.
  • the scope holder 14 holds the mounted portion (held portion) 44 of the endoscope 12.
  • the scope holder 14 may be fixed to a rail or the like of the bed, and may be installed on the floor so that its position can be moved / fixed by means of a caster, for example, or may be installed on a ceiling.
  • the scope holder 14 has a mounting portion (holding portion) 56 for holding a plurality of arms 52 such as an articulated structure, a plurality of joints 54, and the mounting portion 44 of the endoscope 12. And.
  • the arms 52 operate by driving a plurality of drive sources 58 (see FIG. 2) provided to the joints 54 respectively.
  • Examples of the drive source 58 of each joint 54 include, but are not limited to, actuators such as motors, pneumatics, hydraulics, hydraulics, and artificial muscles.
  • the scope holder 14 appropriately operates the drive source 58 and appropriately moves the arm 52 and the mounting portion 56 by the joint 54, so that the endoscope 12 has a desired position and a desired posture within a predetermined range. Can be held in
  • the positional relationship with the tip 42 a of the insertion portion 42 may change depending on the mounting state (holding position, holding posture, etc.). Therefore, when the mounting portion 44 of the endoscope 12 is mounted on the mounting portion 56 of the scope holder 14, calibration is performed to grasp the position and posture of the tip 42 a of the insertion portion 42 of the endoscope 12. Therefore, in the three-dimensional coordinate system of the system 10 having an appropriate position as the origin, the position (coordinates) and attitude (the direction in which the observation window 48b is directed) of the tip 42a of the insertion portion 42 of the endoscope 12 with respect to the mounting portion 56 Be grasped.
  • the scope holder 14 receives the observation window 48b of the tip 42a of the insertion portion 42 of the endoscope 12 mounted (held) on the mounting portion 56. It can be moved to a desired coordinate position and posture, and the position can be maintained. Therefore, the scope holder 14 can hold the observation window 48b of the tip 42a of the insertion portion 42 of the endoscope 12 at a desired position and posture based on the signal (command) from the processor 22.
  • the processor 22 operates both the bending portion 46 of the endoscope 12 and the scope holder 14, for example, independently or simultaneously, in the coordinate system of the system 10 at the tip 42 a of the insertion portion 42 of the endoscope 12.
  • the observation window 48b can be moved to a desired position and posture, and the state can be maintained.
  • the processor 22 operates the observation optical system 48 of the endoscope 12 independently or simultaneously with the operation of the bending portion 46 of the endoscope 12 and the scope holder 14 so that the observation optical system of the endoscope 12 can be operated.
  • the field of view of the system 48 can be adjusted to an appropriate state within a predetermined range. Therefore, the processor 22 appropriately operates the endoscope 12 and the scope holder 14 to set the visual field, viewpoint and view of the observation optical system 48 of the endoscope 12, that is, the display form in an appropriate state within a predetermined range. Can be adjusted.
  • the endoscope 12 is moved in cooperation with the scope holder 14 based on the drive signal from the processor 22, and the imaging unit 48a picks up an observation target (region of interest) to which the observation window 48b is directed.
  • the processor 22 can receive the captured image information captured by the imaging unit 48 a of the endoscope 12 and can display a captured image based on the captured image information on the monitor 18.
  • the processor 22 can appropriately change the captured image for the region of interest (object) ROI displayed on the monitor 18 by adjusting the direction in which the observation window 48b of the endoscope 12 is directed and adjusting the zoom function.
  • the processor 22 changes the field of view with respect to the region of interest ROI as shown in FIG. 5A, changes the viewpoint as shown in FIG. 5B, and changes the viewpoint as shown in FIG. 5C. Is possible.
  • the field of view (proximity, eyelid) of the display image including the region of interest (object) ROI designated by the user is changed. It means that.
  • the processor 22 maintains the posture of the endoscope 12 by, for example, the operation of the drive source 58 (the operation of the arm 52 of the scope holder 14) Change The processor 22 can maintain the position and posture of the endoscope 12 by using, for example, an optical zoom mechanism by the operation of the drive source 49 of the endoscope 12 as a second example.
  • the operation of the arm 52 of the scope holder 14 and the zoom mechanism of the endoscope 12 may be appropriately combined.
  • a region of interest (object) ROI designated by the user (operator) or selected by the processor 22 is displayed as an image It means to arrange at the screen center / specified position of.
  • the distal end 42 a of the insertion portion 42 of the endoscope 12 is moved while being maintained parallel or substantially parallel.
  • the processor 22 operates, for example, the operation of the drive source 58 (the operation of the arm 52 of the scope holder 14) and the operation of the drive source 47 (the bending operation of the bending portion 46, that is, the bending portion 46) swing action).
  • the processor 22 performs, for example, only the operation of the drive source 47 (the bending operation of the bending portion 46) as a second example. Therefore, in the second example, the position of the endoscope 12 is maintained and the posture is changed.
  • the processor 22 performs, for example, the operation of the drive source 58 (the operation of the arm 52 of the scope holder 14) as a third example. For this reason, in the third example, the position of the endoscope 12 is changed while maintaining the posture thereof.
  • changing the view of the endoscope 12 changes the view (viewing angle) of the display image including the region of interest (object) ROI designated by the user.
  • the processor 22 performs, for example, the operation of the drive source 58 (the operation of the arm 52 of the scope holder 14) and the operation of the drive source 47 (the bending operation of the bending portion 46, that is, the swinging operation of the bending portion 46). . Therefore, when changing the viewpoint, the position and posture of the endoscope 12 are changed.
  • the treatment portions 34a of the treatment tools 32, 32, ... registered in the system 10 have predetermined positions of the treatment portions 34a in relation to the observation window 48b of the tip 42a of the insertion portion 42 of the endoscope 12 It may be possible to recognize whether it is at the position (coordinates) of.
  • the processor 22 can acquire 3D diagnostic image information such as CT image information and MRI image information of a patient examined and acquired before surgery from the server 26.
  • the processor 22 can obtain surgery plan information from the server 26 such as a treatment procedure planned before the surgery and changed during the surgery as needed.
  • the diagnostic image information and the operation plan information may be scene specification information for the processor 22 to specify a scene during surgery and information for specifying a region of interest of the operator.
  • the processor 22 can access, for example, the server 26 not only before surgery but also during surgery to obtain diagnostic image information and / or surgical plan information. Therefore, the processor 22 can acquire scene specifying information specifying a surgical scene at an appropriate time during the operation.
  • FIG. 7A is a flow chart illustrating the operation of system 10 (especially processor 22).
  • the system 10 can grasp the position and posture of the observation window 48b of the tip 42a of the insertion portion 42 of the endoscope 12 mounted on the scope holder 14 with respect to the origin of the appropriate three-dimensional coordinate system.
  • the system 10 determines the position and posture of the observation window 48b of the tip 42a of the insertion portion 42 with respect to the treatment target (for example, the exfoliation layer, vessel, organ, suture / anastomosis target, etc. described later) in the body cavity of the patient.
  • the treatment target for example, the exfoliation layer, vessel, organ, suture / anastomosis target, etc. described later
  • the processor 22 of the display image adjustment device 20 of the endoscope 12 acquires scene specifying information for specifying a scene under surgery (surgery scene), that is, when the scene specifying information is input to the processor 22, the scene specifying information is Based on the scene during the operation is specified (S101).
  • the scene includes tasks on the predetermined treatment procedure (protocol) (individual treatments constituting the protocol) and current conditions such as bleeding.
  • the processor 22 acquires scene identification information input based on the treatment procedure.
  • the scene identification information may be input to the processor 22 as input information through the input unit 16.
  • the processor 22 acquires image processing information obtained by performing image processing on captured image information captured by the imaging unit 48a of the endoscope 12 as scene identification information.
  • image processing information may be input to the processor 22 as scene identification information.
  • the image processing (image processing information) at this time may include image recognition (image recognition information).
  • the processor 22 identifies, for example, a bleeding scene, an ablation scene, an angiectomy scene, an organ ablation scene, a suture / anastomosis scene, and the like as a scene based on the scene identification information.
  • the scenes are not limited to those described above, and can be added as appropriate.
  • the processor 22 may monitor, for example, the bleeding point or bleeding information in the monitor 18 for the endoscope 12. If it is displayed as a display image of, it is possible to identify a real-time scene as a bleeding scene. If the release layer is displayed on the monitor 18 as a display image of the endoscope 12, the processor 22 may identify the real-time scene as a release scene. If the vessel to be ablated is displayed on the monitor 18 as a display image of the endoscope 12, the processor 22 may identify the real-time scene as the angiectomy scene.
  • the processor 22 may identify the scene in real time as the organ removal scene. If the suture / anastomosis object is displayed on the monitor 18 as a display image of the endoscope 12, the processor 22 can identify the scene in real time as the suture / anastomosis scene.
  • the operator usually performs treatment according to the treatment procedure while looking at the display image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 identifies the region of interest of the operator in the display image of the endoscope 12 displayed on the monitor 18 based on scene identification information that identifies a scene during surgery. Therefore, the processor 22 identifies the region of interest of the operator based on the acquired information.
  • an example of the region of interest of the operator is the bleeding point (first region of interest) and / or the treatment portion 34a of the treatment tool 32 for hemostasis (second region of interest) It is.
  • an example of the region of interest of the operator is the peeling layer (predetermined treatment target) of the living tissue and / or the treatment portion of the treatment tool 32 for peeling the tissue.
  • 34a If the scene under surgery is a vascular ablation scene, an example of the region of interest of the operator is the vessel to be resected (predetermined treatment target) and / or the treatment of the treatment tool 32 for resecting the vessel. Part 34a.
  • the scene under surgery is an organ removal scene
  • an example of the region of interest of the operator is the organ to be removed (predetermined treatment target) and / or the treatment portion 34a of the treatment tool 32 for removing the organ is there.
  • the scene under surgery is a suture / anastomosis scene
  • an example of the region of interest of the operator is the suture / anastomosis target (predetermined treatment target) and / or the treatment portion 34 a of the treatment tool 32 for suture / anastomosis. It is.
  • the processor 22 When the region of interest of the operator is a living body, the processor 22 appropriately processes, for example, a bleeding point, a peeling layer, a vessel to be removed, an organ to be removed, a suture / anastomosis target, etc. (image recognition technique) May be specified as the region of interest of the operator, or may be specified as the region of interest of the operator by the input information from the input unit 16, or information such as 3D volume data acquired from the server 26 And may be identified as the region of interest of the operator.
  • the processor 22 processes the treatment unit 34a by using an appropriate image processing technique, based on information (image processing information) processed by the operator.
  • the region may be specified, or the region of interest of the operator may be specified by the input information from the input unit 16.
  • the processing may be performed by another image processing apparatus (image processor) instead of the processor 22 and image processing information (processing signal) may be input to the processor 22.
  • the processor 22 specifies the region of interest by the input information from the input unit 16, for example, information from the gaze detection sensor 16b (information on which position the operator looks at mainly on the display image of the monitor 18) is used. obtain.
  • the processor 22 may directly specify the region of interest of the operator based on the scene specifying information without specifying the scene.
  • the processor 22 is input through the captured image information in the display image of the endoscope 12, the diagnostic image information acquired before or during the operation, the operation plan information acquired before or during the operation, and the input unit 16
  • the scene can be specified as at least one of the input information from the operator as scene specification information, and / or the region of interest of the operator can be specified.
  • the processor 22 captures an image of the display image of the endoscope 12 in which a predetermined trigger signal is displayed on the input unit 16 and / or the monitor 18 after the scene is identified and / or the region of interest is identified. It is determined whether or not image information or the like has been input (S102). The processor 22 determines whether or not it is a predetermined trigger signal based on the identified scene and / or the identified region of interest.
  • the processor 22 may control the endoscope 12 and the scope holder 14 at present. Wait for the position and posture of
  • the processor 22 may drive the drive sources 47 and 49 of the endoscope 12 and / or the scope holder 14 depending on the identified scene and the region of interest.
  • the drive signal is sent to the drive source 58 of
  • the processor 22 appropriately operates at least one of the drive sources 47, 49, 58. For this reason, the observation optical system 48 of the endoscope 12 is appropriately moved with respect to a certain object (the region of interest of the operator). Therefore, the processor 22 changes the display form (viewpoint, view and / or visual field) of the display image displayed on the monitor 18 with respect to the region of interest (a certain object) of the operator (S103).
  • the processor 22 causes the monitor 18 to display an image (for example, an enlarged image, a bird's-eye image, a follow-up image, a reduced image, a proximity image, etc.) considered optimum for the operator according to the identified scene and region of interest.
  • the processor 22 moves at least one of the drive sources 47, 49, 58 to magnify the region of interest in the display image of the endoscope 12 displayed on the monitor 18, and displays the region of interest in a bird's eye view. In accordance with the movement of the subject, the region of interest is followed and displayed, or the region of interest is displayed at a predetermined position of the display image.
  • the processor 22 may drive the drive source 47 based on scene specifying information specifying a scene and / or a predetermined trigger signal. , 49, 58 may be operated.
  • the processor 22 requests the operator to receive a predetermined trigger signal. Notification (notification) may be performed to the effect that the display mode is to be changed.
  • the processor 22 may, in particular, notify the operator of an adjustment method of how to adjust the display image.
  • the processor 22 can display the notification, for example, on the monitor 18 and / or notify the operator by sound from a speaker not shown.
  • the processor 22 preferably does not identify a plurality of scenes at the same time, but only one scene. After the scene is identified by the processor 22, new scene identification information may be input to the processor 22 before a predetermined trigger signal is input to the processor 22 (S104). In the processor 22, after the exfoliation scene is identified, bleeding is caused to identify the hemorrhage scene, or after the exfoliation scene is identified by a change in the treatment procedure, the angiectomy scene is identified, etc. A new scene different from the existing scene may be identified (S104-Yes). In this case, in accordance with the input of the predetermined trigger signal according to the specified scene, the process of changing the display form to the object can be continuously performed (see FIG. 7A) (S102 ′, S103 ′). Alternatively, as shown in FIG. 7B, when specifying another new scene, the processor 22 cancels the current scene, and once the new scene is specified, the processing ends. Then, the processor 22 performs the same processing based on the newly identified scene by the new flow.
  • FIG. 8 is a flow chart illustrating the operation of processor 22 in a bleeding scene.
  • the processor 22 detects bleeding information on the basis of image processing information obtained by image processing of captured image information of the endoscope 12. Further, the processor 22 receives voice information that the operator has confirmed that a bleeding state appears on the monitor 18, and detection information of the operator's line-of-sight sensor via the input unit 16 to the processor 22. Detects bleeding information as scene specific information. Therefore, the processor 22 specifies that the scene is a bleeding scene, for example, by inputting captured image information of the endoscope 12 and scene specification information to the processor 22.
  • the processor 22 When the processor 22 acquires bleeding information as scene specifying information, or when bleeding information is input to the processor 22 as scene specifying information, the processor 22 specifies a bleeding point B as a region of interest of the operator (S101). .
  • the processor 22 specifies a bleeding point B as a region of interest based on image processing information subjected to image processing based on captured image information of the endoscope 12 and / or input information from the operator.
  • the processor 22 can specify the bleeding point B as a region of interest based on the input information using the input information input to the processor 22 through the input unit 16 to which the operator's instruction is input as a trigger signal.
  • the processor 22 detects, for example, a change in color in the captured image or a motion / change in the captured image based on image processing information based on the captured image information of the endoscope 12.
  • the presence or absence of a hemorrhage and the position of the hemorrhage (bleeding point) are recognized (detected) by the like.
  • special light which is easier to obtain information for blood than white light, is emitted from the vicinity of the observation window 48b of the tip 42a of the insertion portion 42 of the endoscope 12 to the observation object (region including the region of interest)
  • the captured image information related to the bleeding point may be easily detected.
  • the accuracy of the input information to the processor 22 can be improved by combining various action information of the operator.
  • the processor 22 When bleeding actually occurs from the living tissue, the processor 22 does not start to collect the bleeding point B and the imaging image information including the bleeding point B and the input information of the presence of the bleeding point B from the operator etc.
  • the bleeding scene may be identified.
  • the processor 22 uses a known distance measuring function or the like of the observation optical system 48 of the endoscope 12 in relation to the position and posture of the tip 42 a of the insertion portion 42 of the endoscope 12 in the coordinate system of the system 10.
  • the coordinates of the bleeding point B may be specified.
  • the processor 22 determines whether a predetermined trigger signal has been input to the processor 22 (S102).
  • the action information is to press a switch or the like on the input unit 16 with the voice of the operator, the line of sight, a gesture, or the operator's own intention.
  • the signal generated by the input unit 16 is input to the processor 22 as a predetermined trigger signal.
  • the processor 22 waits for processing (S102-No).
  • a predetermined trigger signal is input to the processor 22 (S102-Yes)
  • the processor 22 operates the endoscope 12 and / or the scope holder 14 appropriately.
  • the processor 22 enlarges and displays the bleeding point B in the captured image of the endoscope 12 displayed on the monitor 18 (S103).
  • the processor 22 specifies the bleeding point B and then inputs the drive sources 47 and 49 of the endoscope 12 and / or the drive source 58 of the scope holder 14 when a predetermined trigger signal is input. Operate properly.
  • the monitor 18 displays a magnified image with respect to the state in which the hemorrhage point (the region of interest of the operator) B in the observation field of the living tissue is overlooked (see FIG. 9).
  • the processor 22 adjusts the field of view without changing the viewpoint and view of the observation optical system 48 of the endoscope 12, ie, the observation window 48b of the tip 42a of the insertion portion 42. There is.
  • the optical zoom of the endoscope 12 This can be realized by using a zoom mechanism such as.
  • the processor 22 can be realized by performing an operation to bring the tip 42 a of the insertion portion 42 of the endoscope 12 close to the bleeding point B when the bleeding point B (a certain observation target) in the captured image on the monitor 18 is enlarged.
  • the processor 22 operates the drive source 58 of the scope holder 14 to operate the joint 54 and the arm 52.
  • the processor 22 processes the image information of the bleeding point (the position specified as the region of interest of the operator) as the captured image of the imaging unit 48a.
  • the display image of the bleeding point (the position identified as the region of interest of the operator) is displayed on the monitor 18 based on the cut-out image information. Therefore, the processor 22 can enlarge and display the bleeding point B of the living tissue on the monitor 18 without moving the endoscope 12 in appearance.
  • the processor 22 ends the processing as a bleeding scene when the predetermined trigger signal is input and the bleeding point B in the captured image displayed on the monitor 18 is changed to a predetermined state in accordance with the bleeding scene. Do.
  • the processor 22 When expanding the bleeding point B in the captured image displayed on the monitor 18, the processor 22 makes a burst of an image obtained by enlarging the bleeding point B from the display image at the time of detecting the bleeding point B as shown in FIG. To expand.
  • the processor 22 may gradually or continuously enlarge the bleeding point B in the captured image displayed on the monitor 18, as shown in FIG. That is, the processor 22 causes the display image showing the middle of enlargement of the bleeding point to be displayed from the display image at the time of detection of the bleeding point B, and thereafter displays the enlarged display image to be displayed finally. At this time, the processor 22 may enlarge at one time from the state shown in the left diagram in FIG. 10 to the state shown in the center diagram in FIG.
  • the processor 22 may enlarge at one time from the state shown in the center view in FIG. 10 to the state shown in the right view in FIG. 10, and from the state shown in the center view in FIG. The state shown in the figure may be enlarged continuously (slowly).
  • FIG. 11 shows an example in which the display form of the monitor 18 different from that in FIG. 9 is designated in the bleeding scene.
  • the processor 22 detects The drive source 49 is operated appropriately and the function of the zoom mechanism is exhibited.
  • the processor 22 operates at least one of the drive sources 47, 49, and 58
  • the bleeding point B as a region of interest is displayed on the monitor 18
  • the image is displayed at or near the center of the display image of the endoscope 12.
  • the processor 22 displays the bleeding point B as a region of interest on the monitor 18 when at least one of the drive sources 47, 49, 58 is operated.
  • the display image of the endoscope 12 is enlarged and displayed as compared to the left view in FIG.
  • the processor 22 takes, as an example, the observation optical system 48 of the endoscope 12, ie, the observation window 48b of the tip 42a of the insertion portion 42
  • the viewpoint and the field of view are adjusted without changing the viewpoint.
  • the processor 22 performs endoscope processing on image information of a bleeding point (observation object) B (a position specified as a region of interest). It cuts out from the captured image information of the 12 imaging parts 48a.
  • the processor 22 cuts out the image information from the captured image information, and arranges and displays the bleeding point B at or near the center of the display image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 causes the monitor 18 to display the display image of the bleeding point (observation object) B (the position identified as the region of interest) based on the cut out image information.
  • the processor 22 causes the bleeding point B to be displayed on the monitor 18 or the center of the display image of the endoscope 12 or the like while enlarging the bleeding point B of the living tissue without moving the endoscope 12 in appearance. Arrange on the display.
  • the example in which the action information of the operator (input of information to the input unit 16) is used as a trigger signal has been described.
  • the processor 22 recognizes a predetermined treatment tool 32 among the treatment tools 32, 32,... Set in advance as a trigger signal of another example.
  • the fact that the treatment portion 34a of the treatment tool 32 set in advance is included in the display image of the endoscope 12 displayed on the monitor 18 is a predetermined trigger signal.
  • the processor 22 indicates that the blood and the bleeding point B (the region of interest of the operator) are reflected in the display image, based on the captured image information in the display image of the endoscope 12, the captured image information of the endoscope 12
  • the scene is identified as a bleeding scene based on the detection signal.
  • the operator brings the treatment portion 34a of the treatment instrument 32 for hemostasis, which has been set in advance, close to or reaches the bleeding point via the trocar 38 (see FIG. 1).
  • the processor 22 is inserted into the body cavity via the trocar 38, and the treatment portion 34a of the treatment tool 32 which is brought close to or reached the bleeding point is one for setting a preset hemostasis, or an imaged image of the endoscope 12 It judges by the image processing technology etc. based on information.
  • the processor 22 determines that the treatment portion 34a of the treatment tool 32 which has approached or reached the bleeding point B is a preset one, the processor 22 causes the treatment portion 34a of the treatment tool 32 to approach the bleeding point B or It is recognized that a predetermined trigger signal based on the captured image information of the endoscope 12 is input as it reaches.
  • the processor 22 determines that a predetermined trigger signal has been input, the tip 22 a of the insertion portion 42 of the endoscope 12 is appropriately moved to operate the zoom function as appropriate, or A part of the image is cut out while maintaining the position of the tip 42a of the insertion portion 42. For this reason, the processor 22 arranges the bleeding point B shown in the right figure in FIG. 12 at the center of the display image of the monitor 18 from the display image shown in the left figure in FIG. , And change the bleeding point B into a magnified display image.
  • the predetermined trigger signal is not limited to the captured image information of the endoscope 12.
  • the processor 22 specifies the coordinates of the bleeding point (the region of interest of the operator) B prior to the input of the trigger signal to the processor 22 by a ranging function or the like using the observation optical system 48 of the endoscope 12.
  • the processor 22 predetermines the treatment tool 32 to be brought close to or reached the bleeding point B by communication between the reader / writer attached to the trocker 38 and the RFID tag attached to the shaft 34 of the treatment tool 32. Determine if it is for hemostasis.
  • the processor 22 specifies the coordinates of a predetermined position such as the tip of the treatment portion 34 a of the treatment tool 32 in relation to the position of the insertion portion 42 of the endoscope 12 in the coordinate system of the system 10.
  • the processor 22 determines, based on the relationship between the coordinates of the bleeding point B and the coordinates of the predetermined position of the treatment unit 34 a of the treatment tool 32, between the coordinates of the bleeding point B and the coordinates of the treatment unit 34 a of the treatment tool 32 It is determined whether the distance is equal to or less than a predetermined distance determined in advance.
  • the processor 22 detects the imaging shown in the left view in FIG. 12 acquired by the imaging unit of the endoscope 12 The image is continuously displayed on the monitor 18.
  • the processor 22 appropriately moves the tip 42a of the insertion portion 42 of the endoscope 12 to The zoom mechanism of the endoscope 12 is operated and / or a part of the image is cut out while maintaining the position of the tip 42 a of the insertion portion 42 of the endoscope 12. For this reason, the processor 22 arranges the bleeding point B shown in the right figure in FIG. 12 at the center of the display screen of the monitor 18 from the captured image shown in the left figure in FIG. And change the bleeding point B into a magnified image.
  • the processor 22 detects that the treatment portion 34a of the treatment tool 32 set in advance is reflected in the display image of the monitor 18 based on the captured image information of the endoscope 12, the detection signal is detected.
  • the drive sources 47, 49 and 58 may be operated as trigger signals.
  • the treatment tool 32 for hemostasis that generates a trigger signal according to the bleeding scene
  • the processor 22 does not recognize the signal input to the processor 22 as a predetermined trigger signal. Therefore, even if the treatment tool 32 other than the treatment tool 32 for hemostasis approaches or reaches the bleeding point B, the processor 22 maintains the display image of the endoscope 12 as shown in the left view in FIG. , And the endoscope 12 and the scope holder 14 are not operated.
  • the fact that the treatment portion 34 a (the region of interest of the operator) of the treatment tool 32 set in advance is reflected in the display image of the endoscope 12 is
  • the detected signal is input to the processor 22 as a predetermined trigger signal.
  • the processor 22 operates at least one of the drive sources 47, 49, 58 by the input of the trigger signal to the processor 22, and as shown in the center view in FIG. 13 and the right view in FIG.
  • the size of the image of the treatment portion 34 a and the bleeding point B is gradually enlarged while displaying the treatment portion 34 a and the bleeding point B.
  • the processor 22 specifies both the treatment unit 34a and the bleeding point B as a region of interest of the operator. For example, when enlarging the size of the image of the treatment portion 34a of the treatment tool 32 and the bleeding point B, the processor 22 sets the bleeding point B as shown in the center view in FIG. 13 and the right view in FIG. It may be controlled to be displayed in the center of the display image of the monitor 18 as a region of interest more main than the treatment section 34 a of the treatment tool 32.
  • FIG. 14 is a flowchart showing the operation of the processor 22 in a peeling scene.
  • the processor 22 identifies the real-time scene as the exfoliation scene by any one or more means described later, and the exfoliation layer (the operator's first region of interest) Are identified (S101).
  • the processor 22 acquires, for example, operation plan information (treatment procedure) as scene specification information, and specifies a scene as a peeling scene.
  • the processor 22 may acquire diagnostic image information as scene specifying information in addition to the operation plan information, and specify the scene as a peeling scene.
  • the processor 22 may specify a peeling scene as, for example, audio information of “peeling” by the operator as scene specifying information as input information to the microphone 16 a of the input unit 16.
  • the processor 22 displays the display of the endoscope 12 based on the captured image information, the diagnostic image information, and at least one of the input information input through the input unit 16.
  • the processor 22 specifies the peeling layer based on at least one of the captured image information, the diagnostic image information, and the input information input through the input unit 16.
  • the processor 22 identifies the release layer.
  • the processor 22 recognizes, for example, the anatomy (the boundary between the liver and the gallbladder) from the image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 specifies the exfoliation layer (the region of interest of the operator) from image processing information of captured image information based on the captured image of the endoscope 12 displayed on the monitor 18, for example.
  • the processor 22 specifies the fixation point as the exfoliation layer (first region of interest) from the line of sight of the operator by means of the line of sight detection sensor 16b. As shown in FIG. 15A, the operator and the assistant insert the treatment portion 34a of the pair of forceps 32, 32 into the body cavity.
  • the pair of forceps 32, 32 is different from the treatment tool for peeling the peeling layer.
  • the processor 22 calculates a vector with a force sensor (not shown) provided on the holder. And identify the release layer. The operator may specify the exfoliation layer while confirming the display image of the endoscope 12 displayed on the monitor 18. At this time, the processor 22 can detect the exfoliation layer, for example, by a detection signal from the sight line detection sensor 16b. Here, the processor 22 has not identified the scene as a peeling scene yet. As shown in FIG.
  • the operator and the assistant insert the treatment portion 34a of the pair of forceps 32, 32 into the body cavity.
  • the operator and the assistant manipulate the pair of forceps 32, 32 to apply tension (traction) to the tissue (exfoliated layer) between the forceps 32, 32.
  • the processor 22 detects that tension is applied to the tissue between the forceps 32, from image processing information by image processing performed based on the captured image information.
  • the processor 22 identifies a peeling scene using this detection signal as scene identification information.
  • the processor 22 may specify the peeling scene by appropriately combining the above-described information to specify the peeling scene, or may take other measures to specify the peeling scene.
  • the processor 22 With the processor 22 identifying the exfoliation layer and identifying the scene as an exfoliation scene, or identifying the scene as an exfoliation scene and identifying the exfoliation layer, the processor 22 detects, for example, the endoscope 12. "Peeling line” is estimated by using the captured image information in the display image of the image. The processor 22 may estimate the "peel line” using the diagnostic image information.
  • the processor 22 superimposes the candidate of the region of interest on the display image of the monitor 18 with respect to the display image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 superimposes and displays the “peel line” on the display image of the monitor 18. Therefore, in the exfoliation scene, the processor 22 determines the state of the estimated region of interest as a “exfoliation line” and notifies the operator of the determination result. Processor 22 continues to maintain the "stripping line” as the region of interest. It is preferable that the processor 22 continues to superimpose the “peeling line” on the display image of the monitor 18 until the end of the processing of the peeling scene (end of the peeling treatment).
  • the processor 22 may trigger the processor 22 in advance. It is determined whether a signal is input (S102).
  • the processor 22 waits for processing (S102-No).
  • the processor 22 determines whether the treatment portion 34 a of the treatment tool 32 set in advance is reflected in the display image of the endoscope 12 displayed on the monitor 18.
  • the treatment tool 32 in the exfoliation scene needs to be one suitable for the exfoliation scene, that is, for exfoliating a living tissue, as an example.
  • the processor 22 detects that the treatment portion 34a of the treatment tool 32 set in advance is reflected in the display image based on the captured image information in the display image of the endoscope 12, the detection signal is detected by the image processing technique Is recognized as a predetermined trigger signal for operating at least one of the drive sources 47, 49, 58 (S102--Yes).
  • the processor 22 specifies an appropriate position of the treatment portion 34 a of the treatment tool 32 set in advance as a region of interest (second region of interest) different from the “peeling line” of the peeling layer. That is, the processor 22 sets a peripheral region of the treatment portion 34a of the treatment tool 32 and the treatment portion 34a of the treatment tool 32 set in advance which are recognized based on captured image information in the display image of the endoscope 12 to another region of interest. Identify as The processor 22 keeps maintaining the predetermined position of the treatment portion 34a of the treatment tool 32 as another region of interest.
  • the processor 22 sets at least one of the drive sources 47, 49, 58 as a trigger signal that the treatment portion 34a of the treatment tool 32 is reflected in the display image based on the captured image information in the display image of the endoscope 12 Make it work.
  • the processor 22 displays, as an example, an appropriate position of the treatment portion 34 a of the treatment tool 32 set in advance on the monitor 18 so as to place the appropriate position of the treatment image 34 on the monitor 18.
  • the display state of the display image of the endoscope 12 is changed.
  • the processor 22 causes the monitor 18 to display the peripheral region of the treatment portion 34 a of the treatment tool 32 and the treatment portion 34 a of the treatment tool 32 as another region of interest as a display image while displaying the peeling line as the region of interest.
  • the processor 22 determines the area around the treatment portion 34a of the treatment tool 32 and the treatment portion 34a of the treatment tool 32 as a region of interest based on the movement information of the treatment tool 32 recognized in the image information acquired by the endoscope 12 Set the view range centered on the display image.
  • the treatment portion 34a of the treatment tool 32 can move by the operation of the operator.
  • the processor 22 operates the drive sources 47 and 49 of the endoscope 12 and / or the drive source 58 of the scope holder 14 to cause the treatment section 34a of the treatment tool 32 set in advance to follow (S103).
  • the processor 22 causes the endoscope 12 to operate appropriately, and the observation optical system 48 of the endoscope 12 causes the treatment portion 34 a of the treatment tool 32 to be at the center of the display image, for example. Keep captured.
  • the processor 22 moves at least one of the drive sources 47, 49, 58, and the display image of the endoscope 12 displayed on the monitor 18 displays another region of interest (pretreatment of the treatment tool 32 In accordance with the movement of the appropriate position of the portion 34a, the treatment portion 34a of the treatment tool 32 is followed and displayed.
  • the processor 22 causes the treatment portion 34a of the treatment tool 32 to follow while maintaining the magnification of the display image of the endoscope 12 displayed on the monitor 18 constant. Therefore, the processor 22 does not use the zoom mechanism of the endoscope 12, and the distance between the exfoliation line of the exfoliation layer of the living tissue (the treatment target site) and the tip 42a of the insertion portion 42 of the endoscope 12 is constant It is preferable to keep the
  • the operator observes the display image of the endoscope 12 which follows in accordance with the operation of the treatment section 34a of the treatment tool 32 set in advance, to the peeling line displayed in the display image.
  • the treatment portion 34a is moved along to peel off the tissue.
  • the processor 22 ends the processing as a peeling scene when it is determined that the peeling treatment of the living tissue has been completed based on the image processing information subjected to image processing based on the captured image information.
  • the processor 22 The processing as the peeling scene may be ended.
  • the processor 22 is not used to exfoliate a living tissue, the processor 22
  • the image processing technology detects that the treatment portion 34a of the treatment tool 32 is reflected in the display image based on the captured image information in the display image of the endoscope 12, but the detection signal is detected by the drive sources 47 and 49. , 58 are not recognized as a predetermined trigger signal for operating at least one of them.
  • the treatment portion of the treatment tool that is not in the lineup of the system 10 is inserted into the body cavity, the treatment portion may be reflected in the display image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 detects that the treatment portion of the treatment tool that is not in the lineup is reflected in the display image based on the captured image information in the display image of the endoscope 12 by the image processing technology, but the detection signal Is not recognized as a trigger signal for operating at least one of the drive sources 47, 49, 58.
  • the processor 22 may set the peeling layer as a region of interest, and may use gesture information based on “seeing” performed by the operator itself or gaze detection information as input information to the processor 22 through the input unit 16. In this case, this input information may be used as a trigger signal, and at least one of the drive sources 47, 49, 58 may be operated based on the input information. In this case, the processor 22 determines the endoscope 12 based on the gesture information and the line-of-sight detection information based on “seeing” performed by the operator after the specification of the separation scene and the specification of the separation layer as the region of interest. Move appropriately to adjust at least one of the field of view, the viewpoint, and the perspective.
  • the processor 22 may set the peeling layer as the region of interest, and may use the voice information “right” issued by the operator itself as the input information to the processor 22 through the input unit 16. In this case, the processor 22 may recognize this input information (voice information) as a predetermined trigger signal, and operate at least one of the drive sources 47, 49, and 58 based on the input information.
  • the processor 22 identifies the intraoperative scene as the exfoliation scene and cancels the exfoliation scene specification if hemorrhage is displayed in the display image before the trigger signal is input, and the intraoperative surgery is hemorrhaged. Identify as a scene.
  • the bleeding point B is identified by image processing, the bleeding point B is enlarged, and the bleeding point B is stopped using the treatment tool 32 for hemostasis.
  • the processor 22 identifies the intraoperative scene again as the exfoliation scene when the processing of the bleeding scene is finished.
  • the processor 22 performs processing according to the peeling scene, and the operator appropriately peels the peeling layer if there is no unintended bleeding or the like.
  • FIG. 16 is a flow chart illustrating the operation of processor 22 in an angiectomy scene.
  • the term “vessel” refers to a tube that passes body fluid, such as blood vessels and lymphatic vessels.
  • the processor 22 determines that the real-time scene is a vessel ablation scene by any one or a plurality of means described later, and the vessel to be ablated (the operator's One region of interest is identified (S101).
  • the processor 22 acquires, for example, surgical plan information (treatment procedure) as scene specific information, acquires diagnostic image information as scene specific information in addition to the surgical plan information, or the like, as in the case of specifying the exfoliation scene, or
  • the input information to the input unit 16 can be acquired as scene specification information to specify a vascular ablation scene.
  • the processor 22 When the vessel (region of interest) to be ablated is not identified, the processor 22 performs an endoscope based on the captured image information, the diagnostic image information, and at least one of the input information input through the input unit 16. It is determined whether or not there is a vessel (predetermined treatment target) to be cut out in the 12 display images. Then, when the processor 22 determines that there is a vessel to be ablated, the vessel to be ablated based on at least one of the captured image information, the diagnostic image information, and the input information input through the input unit 16. Identify
  • the vessel to be ablated is identified as a region of interest first, and then it is identified as a vessel ablation scene.
  • the case where the blood vessel is a blood vessel will be described as an example.
  • the processor 22 identifies the vessel to be resected.
  • the processor 22 recognizes the anatomical feature from the image of the endoscope 12 displayed on the monitor 18, for example.
  • the processor 22 specifies, for example, a vessel (region of interest of the operator) to be ablated from captured image information based on a captured image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 specifies the gaze point as a vessel (region of interest) to be ablated from the line of sight of the operator by means of the line of sight detection sensor 16b.
  • the operator When cutting a part of a blood vessel as a region of interest as a blood vessel, the operator performs clip treatment at multiple locations of the blood vessel to block the flow of blood (liquid) in the blood vessel. Generally, after the branch position of the blood vessel is identified, the clip treatment is performed in the vicinity of the branch position. Therefore, before performing the clip treatment, the processor 22 identifies a branch of the blood vessel from the display image of the endoscope 12 displayed on the monitor 18. The processor 22 identifies the bifurcation of the blood vessel using the diagnostic image information as needed. The processor 22 determines the upstream and downstream of the blood vessel based on the anatomical understanding and the viewing direction (head side / caudal side).
  • Processor 22 may use the diagnostic image information to determine upstream and downstream of the vessel as needed.
  • the processor 22 identifies a point (clip attachment site) where the clip treatment is to be performed according to the distance from the branch position of the blood vessel.
  • the processor 22 preferably identifies, for example, a region including three positions where clip processing is performed as a vessel (region of interest) to be ablated.
  • the processor 22 may specify a region to be ablated from the blood vessel (clip attachment region) from diagnostic image information acquired before or during the operation.
  • the operator may perform a threading process in at least one of the clip attachment sites in the blood vessel, instead of performing the clip process using the clip.
  • the operator may specify a vessel to be ablated (region of interest of the operator) while confirming the display image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 can detect a vessel to be ablated, for example, based on a detection signal from the gaze detection sensor 16b.
  • the operator may identify a vessel (region of interest) to be ablated while confirming the display image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 can detect a vessel to be ablated, for example, based on a detection signal from the gaze detection sensor 16b.
  • the processor 22 has not yet identified the scene as a vascular ablation scene.
  • the processor 22 detects a vessel to be ablated from image processing information by image processing performed based on captured image information.
  • the processor 22 identifies the vascular ablation scene using this detection signal as scene identification information.
  • the processor 22 may identify the angiectomy scene by appropriately combining the above-mentioned information to identify the angiectomy scene, and other measures may be taken to identify the angiectomy scene. Also good.
  • the processor 22 identifies a vessel to be ablated and identifies a scene as a vessel ablation scene, or identifies a scene as a vessel ablation scene and a vessel to be ablated.
  • the processor 22 estimates a vessel to be ablated using, for example, captured image information in a display image of the endoscope 12.
  • the processor 22 may estimate the vessel to be resected using the diagnostic image information.
  • the processor 22 preferably superimposes the candidate of the region of interest on the display image of the monitor 18 with respect to the display image of the endoscope 12 displayed on the monitor 18 as in the example of the peeling scene.
  • the processor 22 superimposes and displays the separation position on the display image of the monitor 18.
  • the processor 22 determines the state of the estimated region of interest as the separation position, and notifies the operator of the determination result.
  • the processor 22 keeps maintaining the separation position as the region of interest. It is preferable that the processor 22 continues to superimpose the separation position on the display image of the monitor 18 until the end of the processing of the angiectomy scene (end of the angiectomy procedure).
  • the processor 22 After the processor 22 identifies the scene as an angiectomy scene and identifies vessels to be ablated (the identification of the scene and the identification order of the regions of interest may be ordered back and forth), the processor 22 sends to the processor 22 It is determined whether a predetermined trigger signal has been input (S102). The processor 22 determines whether the treatment portion 34 a of the treatment tool 32 set in advance is reflected in the display image of the endoscope 12 displayed on the monitor 18. As an example, the first treatment tool 32 in the angiectomy scene needs to be suitable for the angiectomy scene. For example, as the first treatment tool 32, a forceps holding a vessel to be removed may be used.
  • the detection signal is recognized as a predetermined trigger signal for operating at least one of the drive sources 47, 49, 58.
  • the processor 22 waits for processing (S102-No).
  • the display mode of the captured image displayed on the monitor 18 is changed.
  • the processor 22 operates the endoscope 12 and / or the scope holder 14 appropriately when a predetermined trigger signal is input, and monitors the entire captured image of the vessel to be ablated. Display on 18 For this reason, in the vascular ablation scene, the processor 22 appropriately operates the drive sources 47 and 49 of the endoscope 12 and / or the drive source 58 of the scope holder 14 when a predetermined trigger signal is input.
  • the monitor 18 displays a display image of a state (see FIG.
  • the processor 22 identifies the ablation site of the vessel, the treatment unit 34a of the first treatment tool 32 is reflected in the display image based on the captured image information in the display image of the endoscope 12 At least one of the drive sources 47, 49, 58 is operated using the trigger signal as a trigger signal.
  • the processor 22 particularly adjusts the display image of the endoscope 12 in a state in which the entire ablation range including the ablation site of the vessel is included in the display image.
  • the processor 22 does not change the view point and view of the observation optical system 48 of the endoscope 12, that is, the observation window 48b of the tip 42a of the insertion portion 42 in the state shown in FIGS. Adjust the field of view.
  • the operator performs a clip treatment with the treatment unit 34a of the second treatment tool (clip applier) 32 that has been lineuped, so the treatment unit 34a (the operator's second region of interest) is passed through the trocar 38. (See FIG. 18A).
  • the processor 22 identifies the blood vessel to be ablated and causes the monitor 18 to display the ablation target range as a display image, and then determines whether or not a predetermined trigger signal is input to the processor 22 (S105) . If the predetermined trigger signal is not input to the processor 22, the processor 22 waits for processing (S105-No).
  • the treatment portion 34a of the second treatment tool 32 set in advance is reflected in the display image based on the captured image information in the display image of the endoscope 12
  • the detection signal is recognized as a predetermined trigger signal for operating at least one of the drive sources 47, 49, 58 (S105-Yes).
  • the processor 22 displays an appropriate portion of the treatment portion 34 a of the second treatment tool 32 at the center of the display image of the monitor 18.
  • the processor 22 displays the whole area of the separation target portion in accordance with the movement of the treatment portion 34a of the second treatment tool 32, and at the center of the display image of the monitor 18, the treatment portion 34a of the second treatment tool 32.
  • the distal end 42a of the insertion portion 42 of the endoscope 12 is moved so as to display.
  • the second treatment tool 32 in the angiectomy scene needs to be, for example, one suitable for the angiectomy scene, that is, a clip applier for performing a clipping operation on a living tissue.
  • the processor 22 specifies an appropriate position of the treatment portion 34a of the second treatment tool 32 set in advance as a region of interest different from the ablation range of the blood vessel.
  • the processor 22 keeps maintaining the predetermined position of the treatment portion 34a of the second treatment tool 32 as a different region of interest.
  • the processor 22 uses at least the drive sources 47, 49, 58 as a trigger signal that the treatment portion 34a of the second treatment tool 32 is reflected in the display image based on the captured image information in the display image of the endoscope 12 Operate one.
  • the processor 22 places the appropriate position of the treatment section 34a of the second treatment tool 32 set in advance, as an example, at the center or near the center of the display image of the monitor 18.
  • the appropriate position of the treatment portion 34a of the treatment tool 32 can be moved by the operation of the operator. Therefore, the processor 22 operates the drive sources 47 and 49 of the endoscope 12 and / or the drive source 58 of the scope holder 14 to move the position of the treatment portion 34a of the treatment tool 32 set in advance. To move the observation optical system 48 of the endoscope 12 (S106). Therefore, the processor 22 moves at least one of the drive sources 47, 49, 58 to display the region of interest (the treatment portion 34a of the treatment tool 32 set in advance in the display image of the endoscope 12 displayed on the monitor 18). , And the follow-up display for following the treatment portion 34 a of the treatment tool 32.
  • the operator performs a clipping process on the ablation target site of the blood vessel with the treatment portion 34 a of the second treatment tool (clip applier) 32.
  • the clip treatment is performed two upstream and one downstream among the blood vessel ablation target sites.
  • the processor 22 moves with movement of the treatment portion 34a for clip treatment,
  • the endoscope 12 is appropriately moved to adjust at least one of the field of view, the sight, and the viewpoint of the display image displayed on the monitor 18 of the endoscope 12.
  • the processor 22 determines that the clip treatment has ended.
  • the operator separates the vessel to be resected, which is different from the clip applier (the treatment tool 32), and sets in advance the treatment portion 34a of the third treatment tool 32 for cutting the blood vessel into the body cavity. insert.
  • the processor 22 identifies the excision site of the blood vessel, and determines that the clip treatment has been completed, and then the display unit 34a of the third treatment tool 32 displays a display image based on captured image information in the display image of the endoscope 12 When it is detected by image processing technology that the image is reflected, the detection signal is recognized as a predetermined trigger signal for operating at least one of the drive sources 47, 49, 58 (S107-Yes).
  • the processor 22 displays an appropriate portion of the treatment portion 34 a of the third treatment tool 32 at the center of the display image of the monitor 18. At this time, the processor 22 adjusts the display image of the endoscope 12 so that the entire ablation range including the ablation site of the vessel is included in the display image.
  • the processor 22 displays the entire area of the separation target portion in accordance with the movement of the treatment portion 34a of the third treatment tool 32, and at the center of the display image of the monitor 18, the treatment portion 34a of the third treatment tool 32.
  • the distal end 42a of the insertion portion 42 of the endoscope 12 is moved so as to display.
  • the processor 22 further sets an appropriate position of the treatment portion 34a of the third treatment tool 32 set in advance to the ablation range of the blood vessel and the treatment portion 34a of the second treatment tool (clip applier) 32. Identify as another area of interest.
  • the processor 22 keeps maintaining the predetermined position of the treatment portion 34a of the third treatment tool 32 as a further region of interest (third region of interest).
  • the processor 22 uses at least the drive sources 47, 49, 58 as a trigger signal that the treatment portion 34a of the third treatment tool 32 is reflected in the display image based on the captured image information in the display image of the endoscope 12 Operate one.
  • the processor 22 arranges, as an example, an appropriate position of the treatment portion 34a of the third treatment tool 32 set in advance at the center or near the center of the display image of the monitor 18. Change the display state of the captured image.
  • the appropriate position of the treatment portion 34a of the third treatment tool 32 can be moved by the operation of the operator. Therefore, the processor 22 operates the drive sources 47 and 49 of the endoscope 12 and / or the drive source 58 of the scope holder 14 to properly set the treatment portion 34a of the third treatment tool 32 set in advance. Following the movement of the position, the observation optical system 48 of the endoscope 12 is moved (S108).
  • the processor 22 moves at least one of the drive sources 47, 49, 58, and the display image of the endoscope 12 displayed on the monitor 18 displays the region of interest (the third treatment tool 32 preset. In accordance with the movement of the appropriate position of the treatment unit 34a, the treatment unit 34a of the treatment tool 32 is followed and displayed.
  • the operator cuts the site between the two upstream clips and the downstream one clip at the treatment section 34a of the third treatment instrument 32 for cutting blood vessels.
  • the third treatment tool 32 for cutting the blood vessel at this time may use a treatment tool for mere cutting, use an energy treatment tool (see FIG. 3) which can be cut while sealing the blood vessel. Is preferred.
  • the processor 22 increases the distance between the appropriate position of the treatment unit 34a and the cut blood vessel and can not display both at a constant magnification, The processor 22 ends the processing as the vascular ablation scene.
  • FIG. 20 is a flowchart showing the operation of the processor 22 in an organ removal scene.
  • the processor 22 identifies the real-time scene as an organ resection scene by means similar to the means described in the ablation scene and the angiectomy scene described above, and removes the organ to be excised (the first region of interest of the operator ) Is specified (S101). Therefore, the processor 22 specifies an organ to be ablated from, for example, captured image information based on a captured image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 acquires, for example, surgical plan information (procedure procedure) as scene specific information, and adds diagnostic image information as scene specific information in the same manner as specifying the exfoliation scene or the vascular ablation scene. Acquisition or input information to the input unit 16 may be acquired as scene specification information to specify an organ resection scene.
  • the processor 22 determines the endoscope 12 based on the captured image information, the diagnostic image information, and at least one of the input information input through the input unit 16. It is determined whether or not there is an organ (predetermined treatment target) to be excised in the display image of. Then, when the processor 22 determines that there is an organ to be ablated, the processor 22 specifies the organ to be ablated based on the captured image information, the diagnostic image information, and at least one of the input information input through the input unit 16. Do.
  • the treatment target is based on the in-vivo image captured by the imaging unit 48 a of the endoscope 12 and / or the diagnostic image acquired before or during the operation. Identify the excision range of the organ (the treatment range of the treatment object).
  • the excision range of the organ based on at least one of the captured image information, the diagnostic image information, and / or the input information input through the input unit 16 Identify
  • the processor 22 After the processor 22 identifies the scene as an organ removal scene and identifies organs to be ablated (the identification of the scene and the identification order of the regions of interest may be reversed), the processor 22 predetermines the processor 22. It is determined whether the trigger signal has been input (S102). The processor 22 determines whether the treatment portion 34 a of the treatment tool 32 set in advance is reflected in the display image of the endoscope 12 displayed on the monitor 18. When the processor 22 detects that the treatment portion 34a of the treatment tool 32 set in advance is reflected in the display image based on the captured image information in the display image of the endoscope 12, the detection signal is detected by the image processing technique Is recognized as a predetermined trigger signal for operating at least one of the drive sources 47, 49, 58.
  • the processor 22 waits for processing (S102-No).
  • the display mode of the captured image displayed on the monitor 18 is changed.
  • the processor 22 operates the endoscope 12 and / or the scope holder 14 as appropriate when the predetermined trigger signal is input, and causes the treatment instrument 32 to be centered on the display image of the monitor 18. An appropriate part of the treatment unit 34a is displayed.
  • the operator When performing a treatment for excising a part of an organ, the operator appropriately treats (eg, seals) blood vessels (arteries and / or veins) around the organ to be excised before excising the actual organ.
  • the processor 22 causes the center of the display image of the monitor 18 to be displayed while displaying the sealing target portion of the blood vessel and the vicinity thereof along with the movement of the treatment portion 34 a of the treatment tool 32. Then, the distal end 42a of the insertion portion 42 of the endoscope 12 is moved so that the treatment portion 34a of the treatment tool 32 is displayed.
  • the processor 22 causes the treatment portion 34 a of the treatment tool 32 to be displayed at the center of the display image of the monitor 18 while displaying the entire area of the blood vessel sealing target with the movement of the treatment portion 34 a of the treatment tool 32.
  • the operator After the operator appropriately manipulates the treatment tool 32 to treat the blood vessel to be sealed, the operator excises a specified removal range of the organ with the treatment portion 34a of the same treatment instrument 32. Also at this time, the processor 22 displays the treatment portion 34 a of the treatment tool 32 at the center of the display image of the monitor 18 while displaying the portion to be excised and the vicinity thereof as the treatment portion 34 a of the treatment tool 32 moves. The distal end 42a of the insertion portion 42 of the endoscope 12 is moved so as to be moved (S103).
  • the operator After the operator appropriately operates the treatment tool 32 to remove the organ to be removed, the operator pulls out the treatment portion 34a of the treatment tool 32 from the trocker 38, and the processing by the processor 22 ends.
  • a recovery scene for recovering a site removed in the organ is included.
  • the processor 22 determines, from among the organs, whether or not the ablation of the site to be ablated has been completed, from, for example, a sensor (external sensor) disposed in the trocker or captured image information in a display image of the endoscope 12.
  • the operator puts the treatment portion 34a of the forceps-like second treatment tool 32 for gripping the excised organ tissue into the body cavity through the trocker 38, and a collection bag for the organ as a kind of treatment tool (not shown) ) Into the body cavity through another port. If the processor 22 determines that a portion to be removed has been excised among the organs, the treatment image set in advance, such as the treatment portion 34 a of the second treatment device 32 and the collection back, is reflected on the display image of the monitor 18. Determine if it has become too tight.
  • the processor 22 uses as a trigger signal that the treatment section 34a of the second treatment tool 32 is reflected on the display screen. Operates at least one of the drive sources 47, 49, 58.
  • the processor 22 operates the tip 42a of the insertion portion 42 of the endoscope 12 as appropriate, and the display image displayed on the monitor 18 is recovered back, the treatment portion 34a of the second treatment tool 32, and cut off Make sure that the entire area of the site fits on the screen.
  • the processor 22 maintains this state. Note that not only the treatment portion 34a of the second treatment tool 32 but also the treatment portion 34a of the second treatment tool 32 and the recovery bag are simultaneously reflected as a trigger signal, at least the drive sources 47, 49, 58 You may operate one.
  • the processor 22 ends the process in this state.
  • the operator places the organ excised by the treatment portion 34 a of the forceps-like treatment instrument 32 in the recovery bag (the treatment instrument 32). Then, the operator withdraws the treatment portion 34a of the treatment instrument 32 from the trocker 38 and withdraws the collection bag (the treatment instrument 32) through a port (not shown).
  • FIG. 21 is a flow chart showing the operation of processor 22 in a suture / anastomosis scene.
  • the processor 22 identifies the real-time scene as a suture / anastomosis scene by any one or a plurality of means described later, and the suture / anastomosis target object to be treated. (The operator's first region of interest) is identified (S101).
  • the processor 22 identifies a suture / anastomosis target from captured image information based on, for example, a captured image of the endoscope 12 displayed on the monitor 18.
  • the processor 22 acquires, for example, surgical plan information (procedure procedure) as scene specific information and adds diagnostic image information to surgical plan information in the same manner as specifying the exfoliation scene, the vascular ablation scene, and the organ excision scene.
  • the scene identification information may be acquired, or the input information to the input unit 16 may be acquired as scene identification information to identify a suture / anastomosis scene.
  • the processor 22 displays the display image of the endoscope 12 based on the captured image information, the diagnostic image information, and at least one of the input information input through the input unit 16. Determine if there is a suture / anastomosis target at Then, when the processor 22 determines that the suture / anastomosis target is present, the suture / anastomosis target is based on at least one of the captured image information, the diagnostic image information, and the input information input through the input unit 16. Identify
  • the treatment target is based on the in-vivo image imaged by the imaging unit 48 a of the endoscope 12 and / or the diagnostic image acquired before or during the operation. Identify sutures / anastomosis.
  • the processor 22 After the processor 22 identifies the scene as a suture / anastomosis scene and identifies the suture / anastomosis objects (the scene identification and the identification order of the regions of interest may be performed back and forth), the processor 22 causes the processor 22 to It is determined whether a predetermined trigger signal has been input (S102).
  • the processor 22 displays an appropriate portion of the treatment portion 34 a of the treatment instrument 32 at the center of the display image of the monitor 18.
  • the processor 22 causes the treatment portion 34 a (for example, a needle) of the treatment tool 32 to be displayed at the center of the display image of the monitor 18 while displaying the suture / anastomosis target as the treatment portion 34 a of the treatment tool 32 moves.
  • the tip 42 a of the insertion portion 42 of the endoscope 12 is moved.
  • the treatment tool 32 in the suturing / anastomosis scene includes, for example, a needle holder that holds a needle / end stitch.
  • part displayed on the center of the display image of the monitor 18 is not restricted to the treatment part 34a (for example, needle
  • FIG. the position where the operator is sending the line of sight may be displayed at the center of the display image of the monitor 18 based on the line-of-sight information of the operator detected by the line-of-sight detection sensor 16b.
  • the processor 22 specifies an appropriate position of the treatment portion 34a of the treatment tool 32 set in advance as a region of interest different from the suture / anastomosis target.
  • the processor 22 keeps maintaining the predetermined position of the treatment portion 34a of the treatment tool 32 as another region of interest.
  • the processor 22 uses, as a trigger signal, that the treatment portion 34a of the treatment tool 32 is reflected in the display image based on the captured image information in the display image of the endoscope 12 (S102-Yes), the drive sources 47, 49, Operate at least one of the 58 In the suturing / anastomosis scene, as an example, the processor 22 sets an appropriate position of the treatment portion 34a of the treatment tool 32 set in advance to the center of the display image of the monitor 18 or in the vicinity of the center Change the display state. The appropriate position of the treatment portion 34a of the treatment tool 32 can be moved by the operation of the operator.
  • the processor 22 operates the drive sources 47 and 49 of the endoscope 12 and / or the drive source 58 of the scope holder 14 to move the position of the treatment portion 34a of the treatment tool 32 set in advance.
  • the processor 22 moves at least one of the drive sources 47, 49, 58 to display the region of interest (the treatment portion 34a of the treatment tool 32 set in advance in the display image of the endoscope 12 displayed on the monitor 18).
  • the follow-up display for following the treatment portion 34 a of the treatment tool 32.
  • the operator performs treatment on the suture / anastomosis target with the treatment portion (needle) 34 a of the treatment tool (needle holder) 32.
  • the operator inserts the needle of the treatment section 34a into the suture / anastomosis target.
  • the processor 22 controls the needle of the treatment portion 34a of the treatment tool 32 to the suture / anastomosis target based on captured image information in the display image of the endoscope 12 and / or input information such as the gaze detection sensor 16b.
  • At least one of the drive sources 47, 49, 58 is operated as a predetermined trigger signal that it has been recognized that the patient has been inserted (S105-Yes).
  • the processor 22 identifies the position where the needle of the treatment section 34a of the treatment tool 32 has been pierced into the suture / anastomosis target, that is, the insertion point as a new region of interest.
  • the processor 22 operates at least one of the drive sources 47, 49, 58 based on the predetermined trigger signal and the information on the new region of interest.
  • the processor 22 operates, for example, the drive source 49 to adjust the field of view by the optical zoom function.
  • the processor 22 adjusts the visual field range according to the organ scale calculated based on the diagnostic image information of the patient acquired before or during the operation based on the insertion point (S106).
  • the processor 22 not only adjusts the visual field of the observation optical system 48 of the endoscope 12, that is, the observation window 48 b of the distal end 42 a of the insertion unit 42 according to the movement of the treatment unit (needle) 34 a
  • the viewpoint and view of the observation optical system 48 are adjusted (S108).
  • the processor 22 when the operator performs the suturing / anastomosis procedure, the processor 22 operates the drive sources 47 and 49 of the endoscope 12 and / or the drive source 58 of the scope holder 14 to set the treatment tool 32 set in advance.
  • the display image follows the movement of the appropriate position of the treatment unit 34a. Therefore, the processor 22 maintains the state where the suture / anastomosis target and the treatment portion (needle) 34 a are displayed on the display image of the monitor 18 while maintaining an appropriate observation magnification.
  • the processor 22 ends the processing as the suturing / anastomosis scene when it is determined that the suturing / anastomosis treatment of the living tissue has been completed based on the image processing information subjected to the image processing based on the captured image information.
  • the processor 22 may end the processing as a peeling scene.
  • the processor 22 receives the captured image information acquired by the endoscope 12 and also drives the drive sources 47 and 49 of the endoscope 12 and the drive source 58 of the holder 14 that holds the endoscope 12.
  • the endoscope 12 During the operation of the endoscope 12 to transmit drive signals to at least one of the above to operate the drive sources 47, 49, 58 (in some cases, an electronic zoom that does not require a drive source) and to display the captured image information on the monitor 18 Adjusting at least one of the visual field, the viewpoint, and the visual point of the display image of
  • the processor 22 acquires scene identification information for identifying the intraoperative scene, captured image information acquired by the endoscope 12, and / or a predetermined trigger signal input to the processor 22, and causes the monitor 18 to The region of interest of the operator in the displayed image of the endoscope 12 to be displayed is specified based on the acquired information.
  • the processor 22 adjusts at least one of the field of view, the viewpoint, and the view with respect to the region of interest in the display image during the operation of the endoscope 12 according to the result of specifying the region of interest.
  • the endoscope 12 is appropriately moved according to the treatment content for the different regions of interest according to the respective scenes during the operation, and the display image of the endoscope 12 is appropriately made. It can be adjusted. Therefore, according to the present embodiment, the display image adjustment device 20 of the display image of the endoscope 12 which provides the display image of the endoscope 12 easy for the operator to view and provides the environment where the operator can easily concentrate on the operation A surgical system 10 can be provided.
  • the processor 22 may operate as shown in FIG. As shown in FIG. 23, for example, the storage unit 24 stores the display form (enlargement, following, eyebrow, maintenance of the current state) of the display image of the endoscope 12 on the monitor 18 corresponding to each scene during surgery. It is done.
  • the processor 22 identifies a scene from the information from the input unit 16 and / or the scene identification information (S101).
  • the processor 22 identifies the region of interest from among the display images of the endoscope 12 displayed on the monitor 18 based on the identified scene.
  • the processor 22 After specifying the scene and the region of interest, the processor 22 refers to the storage unit 24 (S102a). Therefore, the processor 22 reads out a form (display form) in which at least one of the endoscope 12 and the holder 14 is operated based on the scene specifying information. The processor 22 operates at least one of the drive sources 47, 49, 58 based on the identification result of the region of interest. At this time, the processor 22 operates at least one of the endoscope 12 and the holder 14 based on the read form (display form). At this time, according to the specification result of the region of interest, in the display image during the operation of the endoscope 12, at least one of the visual field, the viewpoint and the sight is adjusted to display the region of interest on the display image (S103).
  • the processor 22 specifies a region of interest corresponding to the scene A and reads out a display form (enlargement) corresponding to the scene A. After that, the processor 22 operates at least one of the drive sources 47, 49, 58 to magnify and display the specified region of interest in the display image of the endoscope 12.
  • the processor 22 specifies a region of interest corresponding to the scene B and reads a display form (following) corresponding to the scene B. After that, the processor 22 operates at least one of the drive sources 47, 49, 58 to display the display region in the display image of the endoscope 12 while following the specified region of interest.
  • the processor 22 specifies a region of interest corresponding to the scene C and reads out a display form ( ⁇ ) corresponding to the scene C. Thereafter, the processor 22 operates at least one of the drive sources 47, 49, 58, and appropriately enlarges / specifies the identified region of interest in a state in which the display image of the endoscope 12 is displayed. Display in reduced size.
  • the processor 22 reads the display form (maintaining the current state) according to the scene D.
  • the processor 22 does not operate any of the drive sources 47, 49, 58, and maintains the identified region of interest in the display image of the endoscope 12 as it is.
  • the processor 22 reads out a predetermined form in which the region of interest is displayed in an appropriate state as the display image of the monitor 18 according to the scene, and displays the region of interest in the read-out form.
  • the input of the trigger signal to the processor 22 is not necessarily required.
  • the processor 22 may use, for example, identification of a region of interest as a trigger signal.
  • the second embodiment is a modification of the first embodiment including the modification, and the same members as the members described in the first embodiment or members having the same functions are denoted by the same reference numerals, I omit explanation.
  • the processor 22 may operate as shown in FIG. As shown in FIG. 24, the processor 22 first determines whether or not a predetermined trigger signal has been input to the processor 22 before identifying the surgical scene and / or the region of interest of the operator.
  • the processor 22 detects that the appropriate position of the treatment units 34a of the treatment tools 32, 32, ... in the lineup is reflected in the display image of the endoscope 12 by the image processing technology, the detection is performed
  • the signal is recognized as a trigger signal (S201-Yes).
  • the detection signal contains information on the type of treatment tool 32.
  • the type of treatment tool 32 differs in the treatment to be performed. Therefore, the processor 22 identifies a surgical scene based on the detection signal detected by the image processing technique (S202). In addition, the processor 22 identifies a surgical scene and identifies a region of interest of the operator in the display image of the endoscope 12 displayed on the monitor 18 (S202). The processor 22 may directly specify the region of interest of the operator based on the trigger signal without specifying the surgical scene.
  • the processor 22 After the processor 22 identifies the scene and identifies the region of interest, the drive sources 47 and 49 of the endoscope 12 and / or the drive source 58 of the scope holder 14 according to the identified scene and the identified region of interest. Operate properly. Therefore, based on the trigger signal, the processor 22 determines that the treatment portion 34a of the treatment tool 32 set in advance is reflected in the display image based on the captured image information of the endoscope 12 based on the trigger signal. After identifying the region of interest, at least one of the drive sources 47, 49, 58 is operated based on the detection signal. The processor 22 changes the display form (viewpoint, view and / or view) of the display image displayed on the monitor 18 with respect to the region of interest of the operator (S203).
  • the processor 22 determines the scene of interest (for example, a bleeding scene, a peeling scene, an angiectomy scene, an organ ablation scene, a suture / anastomosis scene, etc.) and a region of interest of the operator, as described in the first embodiment.
  • the drive sources 47 and 49 of the endoscope 12 and / or the drive source 58 of the scope holder 14 are operated appropriately.
  • the processor 22 selects the region of interest of the operator in the display image of the endoscope 12 displayed on the monitor 18 by using the captured image information and a predetermined trigger signal (previously It is specified based on the input of the detection signal when the treatment unit 34a of the treatment tool 32 is reflected in the display image by the image processing technology, and according to the specification result of the region of interest, In the display image during the operation, at least one of the visual field, the viewpoint and the visual field is adjusted to display the region of interest on the display image.
  • the drive signal is transmitted to at least one of drive sources 47 and 49 of the endoscope 12 and a drive source 58 of the holder 14 for holding the endoscope 12 as well as receiving captured image information acquired by the endoscope 12
  • Operating the drive source 47, 49, 58 (in some cases, an electronic zoom that does not require the drive source) to display the visual field, viewpoint, and sight of the intraoperative display image of the endoscope 12 displayed on the monitor 18 among the captured image information.
  • Adjust at least one of the The processor 22 acquires a predetermined trigger signal.
  • the processor 22 identifies the scene and / or the region of interest of the operator based on the trigger signal.
  • the processor 22 adjusts at least one of the field of view, the viewpoint, and the view with respect to the region of interest in the display image during the operation of the endoscope 12 according to the result of specifying the region of interest.
  • the endoscope 12 is appropriately moved by using the treatment instrument 32 as a trigger signal to put the treatment tool 32 in the display image for different regions of interest depending on each scene during surgery.
  • the display image of the endoscope 12 can be adjusted appropriately. Therefore, according to the present embodiment, the display image adjustment device 20 of the display image of the endoscope 12 which provides the display image of the endoscope 12 easy for the operator to view and provides the environment where the operator can easily concentrate on the operation A surgical system 10 can be provided.
  • the processor 22 may operate as shown in FIG. As shown in FIG. 26, for example, the storage unit 24 stores the display form (enlargement, follow-up, eyebrow, maintenance of the current state) of the display image of the endoscope 12 on the monitor 18 corresponding to each scene during surgery. It is done.
  • the processor 22 has treatment tools 32 (here, treatment tools A, B, C, and D) set in advance in the display image of the endoscope 12 displayed on the monitor 18. Determine if it is reflected.
  • the processor 22 recognizes the detection signal as a trigger signal when it detects that the appropriate position of the treatment portion 34a of the treatment tool 32 set in advance is reflected in the display image of the endoscope 12 by image processing technology. Yes (S201-Yes).
  • the detection signal detected by the image processing technique includes information on the type of treatment instrument 32. Therefore, the processor 22 identifies the treatment tool 32 reflected in the display image of the endoscope 12 displayed on the monitor 18 based on the detection signal detected by the image processing technique (S201). Then, the processor 22 identifies the surgical scene and / or the region of interest of the operator according to the type of the treatment tool 32.
  • the region of interest here is a target to be treated by the treatment portion 34 a of the treatment tool 32 and the treatment portion 34 a of the treatment tool 32 reflected in the display image of the endoscope 12 displayed on the monitor 18. It is a treatment target site.
  • the processor 22 may directly specify the region of interest of the operator based on the trigger signal without specifying the surgical scene.
  • the processor 22 After detecting the treatment tool 32, the processor 22 refers to the storage unit 24 before identifying two regions of interest or after identifying two regions of interest (S202a). At this time, the processor 22 reads out the configuration for operating at least one of the endoscope 12 and the holder 14 based on the input of the trigger signal. The processor 22 operates at least one of the drive sources 47, 49, 58 based on the information of the two regions of interest (detected treatment tool 32 and treatment target site). That is, the processor 22 operates at least one of the endoscope 12 and the holder 14 based on the read form. At this time, according to the specification result of the region of interest, in the display image during the operation of the endoscope 12, at least one of the visual field, the viewpoint and the sight is adjusted to display the region of interest on the display image (S203).
  • the processor 22 specifies the region of interest corresponding to the treatment tool A, and the display form according to the treatment tool A (enlarged Read). After that, the processor 22 operates at least one of the drive sources 47, 49, 58 to magnify and display the specified region of interest in the display image of the endoscope 12.
  • the processor 22 specifies the region of interest corresponding to the treatment tool B, and the display form according to the treatment tool B (following Read). After that, the processor 22 operates at least one of the drive sources 47, 49, 58 to display the display region in the display image of the endoscope 12 while following the specified region of interest.
  • the processor 22 specifies the region of interest corresponding to the treatment tool C, and the display form according to the treatment tool C ( ⁇ Read). Thereafter, the processor 22 operates at least one of the drive sources 47, 49, 58, and appropriately enlarges / specifies the identified region of interest in a state in which the display image of the endoscope 12 is displayed. Display in reduced size.
  • the processor 22 When the treatment tool D is detected in the display image of the endoscope 12 as the treatment tool 32, the processor 22 specifies the region of interest corresponding to the treatment tool D, and the display form according to the treatment tool D Read out). The processor 22 does not operate any of the drive sources 47, 49, 58, and maintains the identified region of interest in the display image of the endoscope 12 as it is.
  • the processor 22 reads out a predetermined form in which the region of interest is displayed in an appropriate state as the display image of the monitor 18 according to the type of the treatment tool 32, and displays the region of interest in the read-out form. .

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡の表示画像の調整装置は、内視鏡及び内視鏡を保持するホルダの少なくとも一方に駆動信号を送信して内視鏡及びホルダの少なくとも一方を動作させ、内視鏡の撮像画像情報のうちモニタに表示させる内視鏡の術中の表示画像の表示形態を調整する、1もしくは複数のプロセッサを有する。プロセッサは、内視鏡の表示画像における、術者の関心領域を特定し、関心領域の特定結果に応じて、内視鏡の術中の表示画像における関心領域に対して、表示形態を調整する。

Description

内視鏡の表示画像の調整装置及び手術システム
 この発明は、内視鏡の表示画像の調整装置、及び、手術システムに関する。
 例えば特開2004-199004号公報には、音声認識装置に基づいて、内視鏡のズームレンズを光軸方向に移動させる駆動機構、及び、光軸方向と直交する方向に移動させるCCD駆動機構の駆動を制御し、内視鏡によるモニタへの表示画像の視野範囲を変更することが可能な内視鏡システムを開示している。
 術者はモニタに表示された表示画像を観察しながら、内視鏡の挿入部の先端の位置及び姿勢(関心領域に対する視野、注視点及び視座)を処置内容に合わせて適宜に動かし、処置を行う。手術中、例えば出血シーン、剥離シーン、脈管切除(切離)シーン、臓器切除シーン、縫合/吻合シーンなどの適宜の手術シーンにおいて、それぞれ様々な処置が行われる。それぞれのシーンにおける処置の関心領域に対し、術者が見易い内視鏡の表示画像を提供し、術者が手術に集中し易い環境を提供することが望まれている。
 本発明では、術者が見易い内視鏡の表示画像を提供し、術者が手術に集中し易い環境を提供する、内視鏡の表示画像の調整装置及び手術システムを提供することを目的とする。
 一態様に係る内視鏡の表示画像の調整装置は、内視鏡で取得される撮像画像情報を受信するとともに、前記内視鏡及び前記内視鏡を保持するホルダの少なくとも一方に駆動信号を送信して前記内視鏡及び前記ホルダの少なくとも一方を動作させ、前記撮像画像情報のうちモニタに表示させる前記内視鏡の術中の表示画像の視野、視点及び視座の少なくとも1つを調整する、1もしくは複数のプロセッサを有し、前記プロセッサは、前記プロセッサに入力される、術中のシーンを特定するシーン特定情報、前記撮像画像情報、及び/又は、予め決められたトリガー信号を取得し、前記モニタに表示される前記内視鏡の前記表示画像における、術者の関心領域(注視点)を、取得した情報に基づいて特定し、前記関心領域の特定結果に応じて、前記内視鏡の術中の前記表示画像における前記関心領域に対して、前記視野、前記視点及び前記視座の少なくとも1つを調整する。
図1は、第1及び第2実施形態に係る手術システムを示す概略図である。 図2は、第1及び第2実施形態に係る手術システムを示す概略的なブロック図である。 図3は、第1及び第2実施形態に係る手術システムに用いられ得る処置具(エネルギ処置具)の一例を示す概略図である。 図4は、第1及び第2実施形態に係る手術システムに用いられ得る内視鏡の挿入部の先端部近傍の例を示す概略図である。 図5Aは、モニタに表示される内視鏡の表示画像において、視点及び視座を維持して視野を変更した状態を示す概略図である。 図5Bは、モニタに表示される内視鏡の表示画像において、視野及び視座を維持して視点を変更した状態を示す概略図である。 図5Cは、モニタに表示される内視鏡の表示画像において、視野及び視点を維持して視座を変更した状態を示す概略図である。 図6は、第1及び第2実施形態に係る手術システムに用いられる内視鏡、及び、内視鏡を装着するホルダを示す概略図である。 図7Aは、第1実施形態に係る手術システムにおける、適宜の手術シーンでのプロセッサの動作の一例を示すフローチャートである。 図7Bは、第1実施形態に係る手術システムにおける、適宜の手術シーンでのプロセッサの動作の一例を示す、図7Aに示すフローチャートとは異なるフローチャートである。 図8は、第1実施形態に係る手術システムにおいて、手術シーンが出血シーンである場合のプロセッサの動作を示すフローチャートである。 図9は、第1実施形態に係る手術システムにおいて、図8に示すフローが実行されたときに、モニタに表示される内視鏡の表示画像の変更前と変更後の状態を示す概略図である。 図10は、第1実施形態に係る手術システムにおいて、図8に示すフローが実行されたときに、モニタに表示される内視鏡の表示画像の、図9に示す例の変形例を示す概略図である。 図11は、第1実施形態に係る手術システムにおいて、図8に示すフローが実行されたときに、モニタに表示される内視鏡の表示画像の、図9及び図10に示す例の変形例を示す概略図である。 図12は、第1実施形態に係る手術システムにおいて、図8に示すフローが実行されたときに、モニタに表示される内視鏡の表示画像の、図9から図11に示す例の変形例を示す概略図である。 図13は、第1実施形態に係る手術システムにおいて、図8に示すフローが実行されたときに、モニタに表示される内視鏡の表示画像の、図9から図12に示す例の変形例を示す概略図である。 図14は、第1実施形態に係る手術システムにおいて、手術シーンが剥離シーンである場合のプロセッサの動作を示すフローチャートである。 図15Aは、第1実施形態に係る手術システムにおいて、手術シーンが剥離シーンである場合に、1対の処置具の動作により組織間に適宜の張力がかけられた状態を示すとともに、組織の境目の剥離ラインをプロセッサが推定して、内視鏡の表示画像中に剥離ラインを重畳表示させた状態を示す図である。 図15Bは、第1実施形態に係る手術システムにおいて、プロセッサが剥離ラインを推定した後、組織間を剥離させる専用の処置具が内視鏡の表示画像中に映り込んだときに、プロセッサが内視鏡を動作させ、内視鏡の観察光学系が専用の処置具を表示画像の中央に捕らえた状態で表示画像を処置具に追従させている状態を示す図である。 図16は、第1実施形態に係る手術システムにおいて、手術シーンが脈管切除シーンである場合のプロセッサの動作を示すフローチャートである。 図17Aは、第1実施形態に係る手術システムにおいて、手術シーンが脈管切除シーンである場合に、切除対象の脈管をプロセッサが推定して、内視鏡の表示画像中に脈管を示すラインを重畳表示させた状態を示す図である。 図17Bは、プロセッサが脈管を示すラインを推定した後、内視鏡を動作させ、内視鏡の観察光学系で切除対象の脈管を表示画像中に拡大表示させている状態を示す図である。 図18Aは、専用の処置具(クリップアプライヤ)が内視鏡の表示画像中に映り込んだ状態を示す図である。 図18Bは、専用の処置具が内視鏡の表示画像中に映り込んだ後、専用の処置具を移動させている状態を示す図である。 図18Cは、専用の処置具が内視鏡の表示画像中に映り込んだ後、専用の処置具を移動させているのに追従してプロセッサが内視鏡を動作させ、内視鏡の観察光学系で専用の処置具を表示画像の中央に捕らえている状態を示す図である。 図19は、図18Aから図18Cに示すのとは異なる専用の処置具が内視鏡の表示画像中に映り込んだときに、プロセッサが内視鏡を動作させ、内視鏡の観察光学系が専用の処置具を表示画像の中央に捕らえた状態で表示画像を処置具に追従させている状態を示す図である。 図20は、第1実施形態に係る手術システムにおいて、手術シーンが臓器切除シーンである場合のプロセッサの動作を示すフローチャートである。 図21は、第1実施形態に係る手術システムにおいて、手術シーンが縫合/吻合シーンである場合のプロセッサの動作を示すフローチャートである。 図22は、第1実施形態の変形例に係る手術システムにおける、適宜の手術シーンでのプロセッサの動作の一例を示すフローチャートである。 図23は、第1実施形態の変形例に係る手術システムに記憶されたシーンの情報と、シーンの情報に基づいて特定されるシーン、及び/又は、術者の関心領域に対応して調整される内視鏡の表示画像との対応関係を示す表である。 図24は、第2実施形態に係る手術システムにおける、適宜の手術シーンでのプロセッサの動作の一例を示すフローチャートである。 図25は、第2実施形態の変形例に係る手術システムにおける、適宜の手術シーンでのプロセッサの動作の一例を示すフローチャートである。 図26は、第2実施形態の変形例に係る手術システムに記憶された処置具の情報と、処置具の情報に基づいて特定されるシーン、及び/又は、術者の関心領域に対応して調整される内視鏡の表示画像との対応関係を示す表である。
 以下、図面を参照しながらこの発明を実施するための形態について説明する。
 [第1実施形態]
 図1及び図2は、本実施形態における手術システム10を示す。この手術システム10は、例えば腹腔鏡下手術に使用される。
 手術システム10は、内視鏡12、スコープホルダ(ロボットアーム)14、入力部16、モニタ18、及び、内視鏡12の表示画像の調整装置20を有する。調整装置20は、プロセッサ22及び記憶部(メモリ及び/又はストレージ)24を有する。プロセッサ22及び記憶部24は、1つでも良く、複数でも良い。
 システム10では、内視鏡12、スコープホルダ14、入力部16、モニタ18及び記憶部24は、プロセッサ22に対し、インターフェースを介して有線又は無線で接続されている。
 プロセッサ22は、各種機器(処置具32、内視鏡12、スコープホルダ14、モニタ18等)を動作させるための駆動信号を生成する。記憶部24には、プロセッサ22を機能させるプログラムが記憶されている。記憶部24には、プロセッサ22が処理を行うために用いられるデータ、プロセッサ22に接続された各種機器の各種機能を設定するための設定データ(パラメータ、関数及びテーブル等)などが記憶されている。記憶部24は、プロセッサ22によってプログラムを実行するときのワークメモリなどとして用いられる。
 プロセッサ22は、システム10の全体を制御するコントローラとして用いられる。プロセッサ22は、記憶部24に記憶されているプログラムに従って各種機能を実行し、システム10の各部の動作を制御する。プロセッサ22は、内視鏡12、スコープホルダ14、入力部16、モニタ18、記憶部24との間で適宜の信号を送受信することができる。プロセッサ22に接続される各部の構成については後述する。
 プロセッサ22は、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)等を含む集積回路又は回路構成(circuitry)等から形成される。
 入力部16は、各種の情報をプロセッサ22に入力する。入力部16は、術者により直接操作される、図示しないキーボード、スイッチ、レバー等を含み得る。入力部16は、術者の音声を入力するマイク16a(図1参照)、術者の視線を検知する視線検知センサ16b(図1参照)、術者のジェスチャなどを検知する行動情報検知センサ(図示せず)等を含み得る。視線検知センサ16bは、例えば術者が取り付けるゴーグルに設けられ得る。視線検知センサ16b及び行動情報検知センサは、術者が術中に観察し続けるモニタ18等に設置され得る。手術室内に設置したカメラ(図示せず)を術者の行動情報検知センサとして用いても良い。
 そして、プロセッサ22には、マイク16a(図1参照)を介して入力される術者の音声情報、視線検知センサ16b(図1参照)により検出される検出情報、行動情報検知センサにより検出される検出情報などの術者の入力情報(行動情報)が入力される。入力部16に入力される情報は、術中にプロセッサ22が手術シーンを特定するためのシーン特定情報、及び/又は、予め決められたトリガー信号の1つになり得る。
 システム10は、例えば手術を行う病院内に設置されたサーバ26に接続されている。サーバ26には、術前又は術中に取得した患者の診断画像情報、術前又は術中に取得した手術計画情報、さらには、他の患者の過去の手術情報等、システム10を使用する際に用いられる各種のデータが保存されている。プロセッサ22は、例えば入力部16による指示に基づいて、サーバ26における各種の情報にアクセスして読み出し可能である。また、プロセッサ22は、記憶部24、及び/又は、サーバ26に、手術中の内視鏡12の表示画像を保存し続ける。
 プロセッサ22は、内視鏡12の表示画像における撮像画像情報と術者の関心領域との関連付けを、入力部16を通してプロセッサ22に入力される術者の行動情報(術者の音声情報、術者の視線情報、及び、術者のジェスチャ情報のうち少なくとも1つの入力情報)に基づいて評価する。プロセッサ22は、さらに、撮像画像情報から、評価結果に基づいて関連付けられた画像情報を記憶部24及び/又はサーバ26に出力する。
 プロセッサ22は、マイク16aを通して入力された音声情報を認識するとともに、その音声情報に関連付けられた内視鏡12の撮像画像情報を、レポート形式で出力する。プロセッサ22は特に、音声情報をテキスト形式に変換するデータ化を行って、記憶部24及び/又はサーバ26に出力することが好ましい。
 プロセッサ22は、内視鏡12の後述する駆動源47,49、及び、スコープホルダ14の後述する複数の駆動源58に対し、これら駆動源47,49,58を駆動させる駆動信号を送信する。プロセッサ22は、駆動信号の送信に基づいて動作させている内視鏡12及びスコープホルダ14の情報を受信する。プロセッサ22は、駆動源47,49,58をフィードバック制御し、内視鏡12の後述する挿入部42の先端42aを、所望の位置及び姿勢に近づける状態に制御することが好適である。
 システム10には、予め設定された処置具32,32,…から選択されたものが用いられることが好適である。プロセッサ22には、予め設定された処置具32,32,…の1つ又は複数が接続され得る。このため、このシステム10には、複数の同一又は異なる種類の処置具32,32,…がラインナップされている。また、手術前又は手術中に、システム10に対し、必要な処置具32が登録されても良い。システム10には、処置具32,32,…は、用途(把持、止血、切開、結紮、…)が設定又は登録されている。プロセッサ22は、処置具32がプロセッサ22に接続された時点で、接続された処置具32がこのシステム10で予め設定されたものであるか否か判断できることが好適である。
 処置具32,32,…の例としては、例えば生体組織を把持する把持鉗子、生体組織の切開/止血等を行うエネルギ処置具、縫合針を保持する持針器等が挙げられる。内視鏡12は本実施形態における処置具には含まない。
 予め設定された処置具32でない処置具が手術システム10に用いられることがあり得る。プロセッサ22は、例えば、予め設定された処置具32でない処置具が体腔内に入れられたとき、内視鏡12の撮像画像情報に基づく画像認識技術等により、入れられた処置具が予め設定されたものであるか否か判断する。画像認識技術には、人工知能を用いるものなど、適宜の技術を用いることができる。
 プロセッサ22は、体腔内に予め設定された処置具32でない処置具が挿入されたときなどに、例えば警告音や、モニタ18への警告表示などによって、体腔内に入れられた処置具が予め設定された処置具32ではない旨を術者に知らせることが好適である。
 図3は、システム10で予め設定された処置具32の一例を示す。処置具32は、先端に処置部34aを有するシャフト34と、シャフト34の基端側に設けられたハンドル36とを有する。プロセッサ22は、内視鏡12の観察窓48bを通して撮像部48aで撮像した撮像画像情報を、画像処理技術を用いて信号処理することにより、内視鏡12の撮像画像に、予め設定された処置具32の処置部34aが入ったか否かを判別する。
 例えば処置具32のいずれかの位置に、内視鏡12の挿入部42の先端42aに対する、処置部34aの適宜の部位の位置及び姿勢を認識するセンサが設けられていても良い。この場合、センサは、プロセッサ22に信号を入力する入力部16の一部となり得る。内視鏡12の撮像画像は、3次元的な空間を撮像している。撮像空間の外縁は、観察窓48bが向けられた向き及びズーム機構の倍率情報等に基づいて、座標として算出できる。このため、プロセッサ22は、例えば内視鏡12の撮像画像における撮像空間の外縁内に、処置具32の処置部34aの適宜の部位が入ったか否かを検出することができる。したがって、プロセッサ22は、画像処理技術を用いなくても、内視鏡12の撮像画像に、処置部34aの例えば先端が入ったか否かを判別することができる。
 処置具32は、腹壁に形成した孔から腹壁内に挿入される。腹壁には、体内と体外とを連通させる通路となるトロッカー38が配置されることが好適である。このため、内視鏡12の後述する挿入部42の先端42a及び処置具32の処置部34aはトロッカー38を介して体内に挿入され得る。内視鏡12、処置具32のシャフト34には、例えばRFIDタグが(図示せず)が取り付けられている。トロッカー38には、例えばRFIDタグのリーダ(図示せず)が取り付けられている。このため、RFIDタグが付された処置具32のシャフト34がトロッカー38を通して体腔内に挿入されると、ラインナップされた処置具であるか否か、及び、処置具の処置部34aが体腔内に挿入されていること、が認識される。トロッカー38に対して、ラインナップされた処置具のシャフト34が挿入されているか否かは、プロセッサ22に接続される、例えば光センサなどによっても、検出可能である。なお、これらRFIDタグ、リーダ及び光センサなどは、プロセッサ22に信号を入力する入力部16の一部となり得る。
 システム10におけるトロッカー38の位置及び姿勢は、トロッカー38に設けられ、プロセッサ22に接続された図示しないセンサにより検出することができる。このため、処置具32の処置部34aの適宜の部位(例えば長手軸に沿って先端)の位置及び姿勢は、システム10において、トロッカー38との位置関係による特定、及び、モニタ18に表示された内視鏡12の表示画像に基づく画像処理情報等により、特定され得る。なお、トロッカー38に設けられた図示しないセンサは、プロセッサ22に信号を入力する入力部16の一部となり得る。
 内視鏡12は、例えばトロッカー38を介して腹壁内などの体腔内に挿入される挿入部42と、挿入部42の基端側に設けられスコープホルダ14の後述する装着部(保持部)56で保持される被装着部(被保持部)44とを有する。
 挿入部42は、例えば、図4に示すように、先端側に所定の方向に湾曲する湾曲部46と、挿入部42の先端42aから被装着部(被保持部)44にかけて設けられた観察光学系48とを有する。湾曲部46及び観察光学系48の構造は公知であるので、ここでの説明を省略する。
 観察光学系48は、挿入部42の先端部近傍にあり、観察対象物の像を撮像する撮像部48a(図2参照)を有する。撮像部48aは、体腔内を撮像して撮像画像情報を生成する。プロセッサ22は、術中、内視鏡12の撮像部48aで取得される撮像画像情報を受信し続ける。プロセッサ22は、撮像画像情報をモニタ18に送信し続け、モニタ18に術中の体腔内の像(表示画像)を表示させ続ける。
 なお、本実施形態では、内視鏡12の撮像部48aで撮像した画像の撮像画像情報をプロセッサ22で処理して、モニタ18に内視鏡12の表示画像として表示させる例について説明する。システム10は、プロセッサ22とは別の図示しない画像処理装置(画像プロセッサ(図示せず)を用いて、撮像部48aで撮像した撮像画像情報を、モニタ18に表示画像として表示させるようにしても良い。このときも、プロセッサ22は、画像処理装置と信号を送受信し、モニタ18に表示している表示画像の撮像画像情報がプロセッサ22に入力されている。
 内視鏡12は、湾曲部46を湾曲させる駆動源47(図2参照)を有する。プロセッサ22は、適宜の駆動信号を駆動源47に入力することにより、駆動源47を適宜に駆動させ、湾曲部46を湾曲させる。湾曲部46は、公知の内視鏡と同様に、例えば4つの方向に湾曲され得る。駆動源47としては、例えば、モータ、空圧、水圧、油圧、人工筋肉などのアクチュエータが挙げられるが、これに限定されるものではない。もちろん、本システム10には、図4に示すのとは異なる、湾曲部46がない内視鏡が用いられてもよい。内視鏡12は、例えばプロセッサ22からの信号(指令)により、内視鏡12の挿入部42の先端42aの例えば観察窓48bを、湾曲部46の湾曲動作等によって所望の位置及び姿勢に移動させ、その位置を維持することができる。
 例えば、内視鏡12の観察光学系48は、公知の電子ズーム/光学ズームなどのズーム機構を備え、ズーム機能を発揮可能に構成されている。光学ズーム機構は、プロセッサ22からの駆動信号の入力により、駆動源49を駆動することによって動作される。駆動源49は、観察窓48bよりも長手軸に沿って基端側にあり、光学ズーム機構を動作させる。駆動源49として対物レンズ群を適宜に移動させるものには、例えば、モータ、空圧、水圧、油圧、人工筋肉などのアクチュエータが用いられ得るが、これらに限定されるものではない。 
 電子ズーム機構を用いる場合、一例として、プロセッサ22から撮像部48aへの駆動信号の入力により、撮像部48aで撮像した像のうち、より狭い範囲の像の撮像画像情報がプロセッサ22に入力される。又は、電子ズーム機構を用いる場合、プロセッサ22は、撮像部48aから入力された撮像画像信号のうち、撮像部48aの撮像素子の中央部近傍の領域を適宜に切り取って、モニタ18に表示させる。内視鏡12の観察光学系48が電子ズーム機構のみを用いる場合、駆動源49は不要となり得る。 
 図5Aに示すように、プロセッサ22は、プロセッサ22からの駆動信号(指令)により、駆動源49を動作させた光学ズーム、及び/又は、電子ズームなどのズーム機構を適宜に働かせて、モニタ18に表示する撮像画像の視野を調整可能である。このとき、プロセッサ22は、ズーム機構により、視点及び視座を維持し、すなわち、観察対象物に対する挿入部42の先端42aの位置及び姿勢を維持した状態で、所定の範囲内で視野を調整可能である。
 以下の説明では、駆動源49を用いて光学ズーム機構を動作させる例について説明するが、駆動源49が不要な電子ズーム機構も、光学ズーム機構の代わりに、又は、光学ズーム機構とともに、適宜に用いられ得る。
 システム10は、複数の内視鏡12を備えていても良い。この場合、複数の内視鏡12は、各観察光学系48を用いて、1つの観察対象物を同時に複数方向から観察可能である。そして、プロセッサ22は、関心領域を中心とした視野範囲を複数方向からの撮像画像情報を合成する適宜の画像合成技術により、1つの像としてモニタ18に表示させることができる。
 内視鏡12の観察光学系48は例えば対物レンズの選択等により、体腔内を広視野で観察する状態に構成されていても良い。この場合、プロセッサ22は、関心領域を中心とした視野範囲を広視野の観察画像から切り出すことによって表示画像を構成することができる。
 図1に示すように、スコープホルダ14は、例えばベッドサイドに設置される。スコープホルダ14は、内視鏡12の被装着部(被保持部)44を保持する。スコープホルダ14は、ベッドのレール等に固定されていてもよく、例えばキャスター等で位置を移動/固定可能に床に設置されていてもよく、天井に設置されていてもよい。
 図6に示すように、スコープホルダ14は、多関節構造など、複数のアーム52と、複数の関節54と、内視鏡12の被装着部44を保持するための装着部(保持部)56とを有する。アーム52は、各関節54に設けられた複数の駆動源58(図2参照)を駆動させることによってそれぞれ動作する。各関節54の駆動源58としては、例えば、モータ、空圧、水圧、油圧、人工筋肉などのアクチュエータが挙げられるが、これに限定されるものではない。スコープホルダ14は、駆動源58を適宜に動作させ、関節54によりアーム52及び装着部56を適宜に移動させることで、内視鏡12を、所定の範囲内で、所望の位置及び所望の姿勢に保持することができる。
 スコープホルダ14の装着部56は、内視鏡12の被装着部44を装着したとき、装着状態(保持位置及び保持姿勢等)により挿入部42の先端42aとの位置関係が変化し得る。このため、スコープホルダ14の装着部56に内視鏡12の被装着部44を装着したとき、内視鏡12の挿入部42の先端42aの位置及び姿勢を把握するキャリブレーションが行われる。したがって、適宜の位置を原点とするシステム10の3次元座標系において、装着部56に対する内視鏡12の挿入部42の先端42aの位置(座標)及び姿勢(観察窓48bが向けられる向き)が把握される。
 スコープホルダ14は、例えばプロセッサ22からの信号(指令)が駆動源58に伝達されると、装着部56に装着(保持)された内視鏡12の挿入部42の先端42aの観察窓48bを、所望の座標位置及び姿勢に移動させ、その位置を維持することができる。このため、スコープホルダ14は、プロセッサ22からの信号(指令)に基づいて、内視鏡12の挿入部42の先端42aの観察窓48bを、所望の位置及び姿勢に保持することができる。
 プロセッサ22は、内視鏡12の湾曲部46及びスコープホルダ14の両者を例えば独立して、又は、同時に動作させて、システム10の座標系において、内視鏡12の挿入部42の先端42aの観察窓48bを、所望の位置及び姿勢に移動させ、その状態を保持することができる。また、プロセッサ22は、内視鏡12の観察光学系48を、内視鏡12の湾曲部46及びスコープホルダ14の動作と独立して、又は、同時に動作させて、内視鏡12の観察光学系48の視野を所定の範囲内で適宜の状態に調整することができる。したがって、プロセッサ22は、内視鏡12及びスコープホルダ14を適宜に動作させて、内視鏡12の観察光学系48の視野、視点及び視座、すなわち表示形態を、所定の範囲内で適宜の状態に調整することができる。
 このように、内視鏡12はプロセッサ22からの駆動信号に基づいてスコープホルダ14と協働して動かされ、観察窓48bが向けられる観察対象物(関心領域)を撮像部48aで撮像することができる。プロセッサ22は、内視鏡12の撮像部48aで撮像した撮像画像情報を受信して、撮像画像情報に基づく撮像画像をモニタ18に表示することができる。
 プロセッサ22は、内視鏡12の観察窓48bが向けられる向きの調整及びズーム機能の調整により、モニタ18に表示される関心領域(対象物)ROIに対する撮像画像を適宜に変更することができる。ここでは、プロセッサ22は、図5Aに示すように関心領域ROIに対して視野を変更すること、図5Bに示すように視点を変更すること、及び、図5Cに示すように視座を変更することが可能である。
 図5Aに示すように、本システム10において、内視鏡12の視野を変更する場合とは、ユーザが指定した関心領域(対象物)ROIを含む表示画像の視野(近接、俯瞰)を変更することをいう。表示画像の視野を変更する場合、第1例として、プロセッサ22は、例えば駆動源58の動作(スコープホルダ14のアーム52の動作)により、内視鏡12の姿勢を保って視線軸上で位置を変更する。プロセッサ22は、第2例として、内視鏡12の例えば駆動源49の動作による光学ズーム機構を用いることによって、内視鏡12の位置及び姿勢を保つことができる。視野を変更する場合、例えばスコープホルダ14のアーム52の動作及び内視鏡12のズーム機構を適宜に組み合わせてもよい。
 図5Bに示すように、本システム10において、内視鏡12の視点を変更する場合とは、ユーザ(術者)が指定、又は、プロセッサ22が選択した関心領域(対象物)ROIを表示画像の画面中央/指定位置に配置することをいう。このとき、内視鏡12の挿入部42の先端42aが向けられた向きを平行又は略平行に維持したまま移動させる。視点を変更する場合、プロセッサ22は、第1例として、例えば駆動源58の動作(スコープホルダ14のアーム52の動作)、及び、駆動源47の動作(湾曲部46の湾曲動作、すなわち湾曲部46の首振り動作)を行う。このため、第1例では、内視鏡12の位置及び姿勢を変更する。視点を変更する場合、プロセッサ22は、第2例として、例えば駆動源47の動作(湾曲部46の湾曲動作)のみを行う。このため、第2例では、内視鏡12の位置を保って姿勢を変更する。視点を変更する場合、プロセッサ22は、第3例として、例えば駆動源58の動作(スコープホルダ14のアーム52の動作)を行う。このため、第3例では、内視鏡12の姿勢を保って位置を変更する。
 図5Cに示すように、本システム10において、内視鏡12の視座を変更する場合とは、ユーザが指定した関心領域(対象物)ROIを含む表示画像の視座(見る角度)を変更することをいう。視座を変更する場合、さらに、視点に対して距離を保って位置と姿勢を変えることが好適である。このとき、プロセッサ22は、例えば駆動源58の動作(スコープホルダ14のアーム52の動作)、及び、駆動源47の動作(湾曲部46の湾曲動作、すなわち湾曲部46の首振り動作)を行う。このため、視座を変更する場合、内視鏡12の位置及び姿勢を変更する。
 なお、システム10に登録された処置具32,32,…の処置部34aは、内視鏡12の挿入部42の先端42aの観察窓48bとの関係で、処置部34aの所定の位置がいずれの位置(座標)にあるのか、認識できるようにしても良い。
 プロセッサ22は、術前に検査し取得した患者のCT画像情報やMRI画像情報等の3D診断画像情報をサーバ26から取得できる。プロセッサ22は、術前に計画され、必要に応じて術中に変更された処置手順等の手術計画情報をサーバ26から取得できる。これら診断画像情報及び手術計画情報は、術中にプロセッサ22がシーンを特定するためのシーン特定情報、及び、術者の関心領域を特定するための情報になり得る。プロセッサ22は、例えば術前だけでなく、術中にも例えばサーバ26にアクセスし、診断画像情報及び/又は手術計画情報を取得することができる。このため、プロセッサ22は、術中の適宜の時期に、手術シーンを特定するシーン特定情報を取得することができる。
 図7Aは、システム10(特にプロセッサ22)の動作を示すフローチャートである。ここでは、システム10が、適宜の3次元座標系の原点に対し、スコープホルダ14に装着された内視鏡12の挿入部42の先端42aの観察窓48bの位置及び姿勢を把握できているものとして説明する。そして、システム10は、患者の体腔内の処置対象物(例えば、後述する剥離層、脈管、臓器、縫合/吻合対象物等)に対する挿入部42の先端42aの観察窓48bの位置及び姿勢を把握しているものとする。
 内視鏡12の表示画像の調整装置20のプロセッサ22が術中のシーン(手術シーン)を特定するシーン特定情報を取得し、すなわち、シーン特定情報がプロセッサ22に入力されると、シーン特定情報に基づいて術中におけるシーンを特定する(S101)。ここでのシーンとは、予め定められている処置手順(プロトコル)上のタスク(プロトコルを構成する個々の処置)、及び、出血などの現在の状況を含む。
 プロセッサ22は、処置手順に基づいて入力されるシーン特定情報を取得する。シーン特定情報は、入力部16を通した入力情報として、プロセッサ22に入力されても良い。プロセッサ22は、内視鏡12の撮像部48aで撮像された撮像画像情報を画像処理した画像処理情報をシーン特定情報として取得する。または、プロセッサ22には、画像処理情報がシーン特定情報として入力されても良い。このときの画像処理(画像処理情報)には、画像認識(画像認識情報)を含み得る。
 プロセッサ22は、シーン特定情報に基づいて、シーンとして、例えば出血シーン、剥離シーン、脈管切除シーン、臓器切除シーン、縫合/吻合シーン等を特定する。シーンは、上述したものに限られず、適宜に追加することができる。
 プロセッサ22が、内視鏡12の撮像画像情報を画像処理した画像処理情報をシーン特定情報として、シーンを特定する場合、プロセッサ22は、例えば、出血点又は出血情報がモニタ18に内視鏡12の表示画像として表示されていれば、リアルタイムのシーンを出血シーンであると特定し得る。剥離層がモニタ18に内視鏡12の表示画像として表示されていれば、プロセッサ22はリアルタイムのシーンが剥離シーンであると特定し得る。切除対象の脈管がモニタ18に内視鏡12の表示画像として表示されていれば、プロセッサ22はリアルタイムのシーンが脈管切除シーンと特定し得る。切除対象の臓器がモニタ18に内視鏡12の表示画像として表示されていれば、プロセッサ22はリアルタイムのシーンが臓器切除シーンと特定し得る。縫合/吻合対象物がモニタ18に内視鏡12の表示画像として表示されていれば、プロセッサ22はリアルタイムのシーンが縫合/吻合シーンと特定し得る。
 術者は通常、モニタ18に表示される内視鏡12の表示画像を見ながら、処置手順にしたがって処置を行っていく。プロセッサ22は、モニタ18に表示される内視鏡12の表示画像における術者の関心領域を、術中のシーンを特定するシーン特定情報に基づいて特定する。このため、プロセッサ22は、取得した情報に基づいて、術者の関心領域を特定する。
 術中のシーンが出血シーンであれば、術者の関心領域の一例は、出血点(第1の関心領域)、及び/又は、止血用の処置具32の処置部34a(第2の関心領域)である。術中のシーンが剥離シーンであれば、術者の関心領域の一例は、生体組織のうちの剥離層(所定の処置対象物)、及び/又は、組織を剥離させるための処置具32の処置部34aである。術中のシーンが脈管切除シーンであれば、術者の関心領域の一例は、切除対象の脈管(所定の処置対象物)、及び/又は、脈管を切除するための処置具32の処置部34aである。術中のシーンが臓器切除シーンであれば、術者の関心領域の一例は、切除対象の臓器(所定の処置対象物)、及び/又は、臓器を切除するための処置具32の処置部34aである。術中のシーンが縫合/吻合シーンであれば、術者の関心領域の一例は、縫合/吻合対象物(所定の処置対象物)、及び/又は、縫合/吻合用の処置具32の処置部34aである。
 術者の関心領域が生体の場合、プロセッサ22は、例えば出血点、剥離層、切除対象の脈管、切除対象の臓器、縫合/吻合対象物等を、適宜の画像処理技術(画像認識技術)を用いて、術者の関心領域として特定しても良いし、入力部16からの入力情報により、術者の関心領域として特定しても良いし、サーバ26から取得する3Dボリュームデータ等の情報に基づいて、術者の関心領域として特定しても良い。また、術者の関心領域が処置具32の処置部34aである場合、プロセッサ22は処置部34aを適宜の画像処理技術を用いて画像処理した情報(画像処理情報)に基づいて術者の関心領域を特定しても良いし、入力部16からの入力情報により術者の関心領域を特定しても良い。これら画像処理を行う場合、これらの処理はプロセッサ22ではなく、例えば別の画像処理装置(画像プロセッサ)が行って、画像処理情報(処理信号)をプロセッサ22に入力しても良い。
 プロセッサ22が入力部16からの入力情報により関心領域を特定する場合、例えば視線検知センサ16bによる情報(術者が主として、モニタ18の表示画像のいずれの位置を見ているかの情報)が用いられ得る。
 プロセッサ22は、シーンを特定せずに、シーン特定情報に基づいて、術者の関心領域を直接的に特定しても良い。
 このように、プロセッサ22は、内視鏡12の表示画像における撮像画像情報、術前又は術中に取得した診断画像情報、術前又は術中に取得した手術計画情報、及び、入力部16を通して入力される術者からの入力情報の少なくとも1つをシーン特定情報として、シーンを特定し、及び/又は、術者の関心領域を特定することができる。
 プロセッサ22は、シーンが特定、及び/又は、関心領域が特定された後に、予め決められたトリガー信号が入力部16、及び/又は、モニタ18に表示される内視鏡12の表示画像における撮像画像情報等に入力されたか否か判断する(S102)。プロセッサ22は、予め決められたトリガー信号であるか否かは、特定したシーン、及び/又は、特定した関心領域に基づいて判断する。
 入力部16、及び/又は、内視鏡12の表示画像における撮像画像情報等を通して、プロセッサ22に予め決められたトリガー信号が入力されない場合、プロセッサ22は、内視鏡12及びスコープホルダ14を現在の位置及び姿勢を維持した状態に待機させる。
 予め決められたトリガー信号がプロセッサ22に入力された場合、プロセッサ22は、特定されたシーン、及び、関心領域に応じて、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58に駆動信号を送信する。プロセッサ22は、これら駆動源47,49,58の少なくとも1つを適宜に動作させる。このため、ある対象物(術者の関心領域)に対して、内視鏡12の観察光学系48が適宜に動かされる。したがって、プロセッサ22は、術者の関心領域(ある対象物)に対して、モニタ18に表示される表示画像の表示形態(視点、視座及び/又は視野)を変更する(S103)。プロセッサ22は、特定されたシーン及び関心領域に応じて、術者にとって、最適と考えられる画像(例えば、拡大画像、俯瞰画像、追従画像、縮小画像、近接画像等)をモニタ18に表示させる。プロセッサ22は、駆動源47,49,58の少なくとも1つを動かして、モニタ18に表示される内視鏡12の表示画像において、関心領域を拡大表示させ、関心領域を俯瞰表示させ、関心領域の移動に伴って関心領域を追従する追従表示させ、又は、関心領域を表示画像の所定の位置に表示させる。
 なお、プロセッサ22は、関心領域を特定した後に予め決められたトリガー信号が入力された際に、シーンを特定するシーン特定情報、及び/又は、予め決められたトリガー信号に基づいて、駆動源47,49,58の少なくとも1つを動作させれば良い。
 予め決められたトリガー信号が入力され、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を適宜に動作させる前に、プロセッサ22は、術者に対して、表示形態を変更させる旨の報知(告知)を行っても良い。プロセッサ22は、特に、表示画像をどのように調整するのかの調整方式を術者に対して報知しても良い。プロセッサ22は、報知を、例えばモニタ18に表示させることができ、及び/又は、図示しないスピーカーからの音声によって術者に知らせることができる。
 プロセッサ22は、同時期に複数のシーンを特定せず、1つのシーンのみを特定することが好適である。プロセッサ22でシーンを特定した後、予め決められたトリガー信号がプロセッサ22に入力される前にプロセッサ22に新たなシーン特定情報が入力されることがあり得る(S104)。プロセッサ22において、剥離シーンが特定された後、出血が生じて出血シーンが特定されたり、処置手順の変更により剥離シーンが特定された後、脈管切除シーンが特定されるなど、現在特定されているシーンとは別の新たなシーンが特定されることがある(S104-Yes)。この場合、特定されたシーンに応じた予め決められたトリガー信号の入力に応じて対象物への表示形態の変更処理を続けて行う(図7A参照)ことができる(S102´,S103´)。 
 または、図7Bに示すように、プロセッサ22は、別の新たなシーンを特定する場合、現在のシーンをキャンセルし、新たなシーンを特定した時点で一旦、処理を終了する。そして、プロセッサ22は、新たなフローにより、新たに特定したシーンに基づいて、同様に処理を行っていく。
 [術中のシーンが出血シーンである場合]
 図8は、出血シーンにおけるプロセッサ22の動作を示すフローチャートである。
 生体組織から出血が生じた場合、速やかに出血点(関心領域)を止血することが術者に求められる。プロセッサ22は、内視鏡12の撮像画像情報の画像処理した画像処理情報により出血情報を検知する。また、術者がモニタ18に出血状態が映っていることを確認したことの音声情報や、術者の視線センサの検知情報が入力部16を介してプロセッサ22に入力されることにより、プロセッサ22は、シーン特定情報として出血情報を検知する。このため、プロセッサ22は、例えば内視鏡12の撮像画像情報やシーン特定情報がプロセッサ22に入力されることで、シーンが出血シーンであると特定する。
 プロセッサ22がシーン特定情報として出血情報を取得し、又は、シーン特定情報として出血情報がプロセッサ22に入力された際、プロセッサ22は、術者の関心領域として、出血点Bを特定する(S101)。プロセッサ22は、内視鏡12の撮像画像情報に基づいて画像処理した画像処理情報、及び/又は、術者からの入力情報に基づいて、関心領域として出血点Bを特定する。プロセッサ22は、術者の指示が入力される入力部16を通してプロセッサ22に入力された入力情報をトリガー信号として、入力情報に基づいて関心領域として出血点Bを特定することができる。
 なお、プロセッサ22は、内視鏡12の撮像画像情報に基づく画像処理情報に基づいて、例えば、撮像画像中の色の変化を検出したり、撮像画像中の動き/変化を検出したりすること等により、出血の有無及び出血の位置(出血点)を認識(検知)する。内視鏡12の挿入部42の先端42aの観察窓48bの近傍から観察対象物(関心領域を含む領域)に対して、例えば白色光に比べて血液に対する情報を得やすい特殊光を出射させて、出血点に関する撮像画像情報を検出し易くしても良い。
 なお、術者の様々な行動情報を組み合わせることでプロセッサ22への入力情報の精度を上げることができる。
 実際に生体組織から出血が生じたとき、プロセッサ22は、出血点Bを含む撮像画像情報、及び、術者等からの出血点Bの存在の入力情報の両者がそろってはじめて、出血点B及び出血シーンを特定しても良い。
 図4に示す内視鏡12の挿入部42の先端42aには、2つの観察窓48bがある。プロセッサ22は、内視鏡12の観察光学系48の公知の測距機能等を用いて、システム10の座標系における、内視鏡12の挿入部42の先端42aの位置及び姿勢との関係で、出血点Bの座標を特定しても良い。
 プロセッサ22は、関心領域として、生体組織からの出血点Bを特定した後、プロセッサ22に予め決められたトリガー信号が入力されたか否か判断する(S102)。
 ここで、出血シーンにおける予め決められたトリガー信号としては、一例として上述した術者の行動情報がある。例えば、行動情報は、入力部16に対して、術者の声や視線やジェスチャ、術者自身の意思でスイッチ等を押すことである。これにより入力部16で生成された信号が予め決められたトリガー信号として、プロセッサ22に入力される。
 出血シーンに応じた予め決められたトリガー信号がプロセッサ22に入力されない場合、プロセッサ22は処理を待機する(S102-No)。 
 プロセッサ22に予め決められたトリガー信号が入力された場合(S102-Yes)、プロセッサ22は、内視鏡12及び/又はスコープホルダ14を適宜に動作させる。出血シーンでは、プロセッサ22は、モニタ18に表示される内視鏡12の撮像画像中の出血点Bを拡大させて表示する(S103)。
 出血シーンでは、プロセッサ22は、出血点Bを特定した後、予め決められたトリガー信号が入力されたら、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を適宜に動作させる。生体組織の観察視野内の出血点(術者の関心領域)Bを俯瞰した状態に対して拡大した撮像画像をモニタ18に表示させる(図9参照)。このとき、図9に示す状態においては、プロセッサ22は、内視鏡12の観察光学系48、すなわち挿入部42の先端42aの観察窓48bの視点及び視座を変更せず、視野を調整している。
 プロセッサ22は、モニタ18上の撮像画像中のある観察対象物(術者の関心領域としての出血点)を、俯瞰視野から拡大する拡大視野にするだけである場合、内視鏡12の光学ズームなどのズーム機構を用いることよって実現できる。プロセッサ22は、モニタ18上の撮像画像中の出血点B(ある観察対象物)を拡大させる場合、内視鏡12の挿入部42の先端42aを出血点Bに近づける動作を行うことによって実現できる。このとき、プロセッサ22は、スコープホルダ14の駆動源58を動作させて、関節54及びアーム52を動作させる。いわゆる4K/8Kなどの高解像度の撮像部48aを有する内視鏡12であれば、プロセッサ22は、出血点(術者の関心領域として特定された位置)の画像情報を撮像部48aの撮像画像情報から切り出し、出血点(術者の関心領域として特定された位置)の表示画像を、切り出した画像情報に基づいて、モニタ18に表示させる。このため、プロセッサ22は、内視鏡12を外観的に移動させずに、生体組織の出血点Bを拡大してモニタ18に表示することができる。
 プロセッサ22は、予め決められたトリガー信号が入力され、モニタ18に表示される撮像画像中の出血点Bが出血シーンに合わせて所定の状態に変更された時点で、出血シーンとしての処理を終了する。
 モニタ18に表示された撮像画像中の出血点Bを拡大させる際、プロセッサ22は、図9に示すように、出血点Bを検出した時点の表示画像から、出血点Bを拡大した画像に一気に拡大させる。別の例としては、プロセッサ22は、図10に示すように、モニタ18に表示された撮像画像中の出血点Bを徐々に、又は、連続的に拡大させてもよい。つまり、プロセッサ22は、出血点Bを検出した時点の表示画像から、その出血点の拡大途中を示す表示画像を表示させ、その後、最終的に表示させたい拡大した表示画像を表示させる。このとき、プロセッサ22は、図10中の左図に示す状態から図10中の中央図に示す状態に一度に拡大させても良く、図10中の左図に示す状態から図10中の中央図に示す状態に連続的(徐々)に拡大させても良い。同様に、プロセッサ22は、図10中の中央図に示す状態から図10中の右図に示す状態に一度に拡大させても良く、図10中の中央図に示す状態から図10中の右図に示す状態に連続的(徐々)に拡大させても良い。
 次に、図11は、出血シーンにおいて、図9とは異なるモニタ18の表示形態が指定されている例を示す。
 図11中の左図に示すように、出血点Bがモニタ18に表示される内視鏡12の表示画像の中央又はその近傍から離れた位置にある場合、プロセッサ22は、内視鏡12の駆動源49を適宜に動作させるとともに、ズーム機構の機能を発揮させる。例えば図11中の右図に示すように、プロセッサ22は、駆動源47,49,58の少なくとも1つを動作させたときに、関心領域としての出血点Bを、モニタ18に表示される内視鏡12の表示画像の中央又はその近傍に表示させる。また、例えば図11中の右図に示すように、プロセッサ22は、駆動源47,49,58の少なくとも1つを動作させたときに、関心領域としての出血点Bを、モニタ18に表示される内視鏡12の表示画像において、図11中の左図に比べて拡大して表示させる。このとき、プロセッサ22は、図11中の左図及び図11中の右図に示す状態において、一例として、内視鏡12の観察光学系48、すなわち挿入部42の先端42aの観察窓48bの視座を変更せず、視点及び視野を調整している。
 4K/8K等の高解像度の撮像部48aを有する内視鏡12を用いる場合、プロセッサ22は、出血点(観察対象物)B(関心領域として特定された位置)の画像情報を、内視鏡12の撮像部48aの撮像画像情報から切り出す。ここでは、プロセッサ22は、撮像画像情報から画像情報を切り出して、出血点Bをモニタ18に表示される内視鏡12の表示画像の中央又はその近傍に配置して表示させる。そして、プロセッサ22は、出血点(観察対象物)B(関心領域として特定された位置)の表示画像を、切り出した画像情報に基づいて、モニタ18に表示させる。プロセッサ22は、内視鏡12を外観的に移動させずに、生体組織の出血点Bを拡大しながら、出血点Bをモニタ18に表示される内視鏡12の表示画像の中央又はその近傍に配置して表示させる。
 このように、モニタ18に表示される内視鏡12の表示画像の中央又はその近傍に出血点Bを表示させる方式としては、スコープホルダ14のアーム52の移動制御、内視鏡12の湾曲部46の移動制御、内視鏡12のズーム機構の制御、及び/又は、内視鏡12の撮像画像の切り出し位置の変更によって、実現できる。
 図9から図11に示す例では、術者の行動情報(入力部16への情報の入力)をトリガー信号とする例について説明した。ここでは、別の例のトリガー信号として、予め設定された処置具32,32,…のうち、所定の処置具32をプロセッサ22が認識する例について説明する。出血シーンにおいて、予め設定された処置具32の処置部34aをモニタ18に表示された内視鏡12の表示画像中に入れたことを、予め決められたトリガー信号とする例について説明する。
 プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、血液及び出血点B(術者の関心領域)が表示画像に映り込んだことを、内視鏡12の撮像画像情報を画像処理した画像処理情報に基づいて検知したとき、その検知信号に基づいて、シーンを出血シーンであると特定する。
 術者は、予め設定された止血用の処置具32の処置部34aを、トロッカー38(図1参照)を介して出血点に近接又は到達させる。プロセッサ22は、トロッカー38を介して体腔内に挿入され、出血点に近接又は到達された処置具32の処置部34aが予め設定された止血用のものであるか、内視鏡12の撮像画像情報に基づく画像処理技術等により判断する。
 プロセッサ22が出血点Bに近接又は到達された処置具32の処置部34aが予め設定されたものであると判断した場合、プロセッサ22は、処置具32の処置部34aが出血点Bに近接又は到達するのを、内視鏡12の撮像画像情報に基づく、予め決められたトリガー信号が入力されたものと認識する。
 プロセッサ22は、予め決められたトリガー信号が入力されたと判断したとき、内視鏡12の挿入部42の先端42aを適宜に移動させ、ズーム機能を適宜に動作させ、又は、内視鏡12の挿入部42の先端42aの位置を維持したまま像の一部を切り取る。このため、プロセッサ22は、モニタ18に表示する表示画像を、図12中の左図に示す表示画像から、図12中の右図に示す出血点Bをモニタ18の表示画像の中央に配置し、かつ、出血点Bを拡大した表示画像に変更する。
 予め決められたトリガー信号は、内視鏡12の撮像画像情報に限られない。プロセッサ22は、内視鏡12の観察光学系48を用いた測距機能等により、プロセッサ22に対するトリガー信号の入力前に、出血点(術者の関心領域)Bの座標を特定する。プロセッサ22は、トロッカー38に取り付けられたリーダ/ライタと、処置具32のシャフト34に取り付けられたRFIDタグとの間の通信等により、出血点Bに近接又は到達される処置具32が予め決められた止血用のものであるか判断する。その後、プロセッサ22は、システム10の座標系における、内視鏡12の挿入部42の位置との関係で、処置具32の処置部34aの先端等の所定の位置の座標を特定する。プロセッサ22は、出血点Bの座標と処置具32の処置部34aの所定の位置の座標との関係に基づいて、出血点Bの座標と処置具32の処置部34aの座標との間が、予め決められた所定の距離以下となっているか否かを判断する。出血点Bの座標と処置具32の処置部34aの座標との間が所定の距離よりも大きい場合、プロセッサ22は、内視鏡12の撮像部で取得した図12中の左図に示す撮像画像をモニタ18に表示させ続ける。出血点Bの座標と処置具32の処置部34aの座標との間が所定の距離以下になった場合、プロセッサ22は、内視鏡12の挿入部42の先端42aを適宜に移動させ、内視鏡12のズーム機構を動作させ、及び/又は、内視鏡12の挿入部42の先端42aの位置を維持したまま像の一部を切り取る。このため、プロセッサ22は、モニタ18に表示する撮像画像を、図12中の左図に示す撮像画像から、図12中の右図に示す出血点Bをモニタ18の表示画面の中心に配置し、かつ、出血点Bを拡大した撮像画像に変更する。
 このように、プロセッサ22は、予め設定された処置具32の処置部34aがモニタ18の表示画像に映り込んだことを内視鏡12の撮像画像情報に基づいて検知したとき、その検知信号をトリガー信号として駆動源47,49,58を動作させても良い。
 例えば、システム10のラインナップの中から選択された処置具32の処置部34aが出血点Bに近接又は到達しても、止血用の処置具32(出血シーンに応じたトリガー信号を生成するもの)でない場合、プロセッサ22は、プロセッサ22に入力された信号を、予め決められたトリガー信号としては認定しない。このため、止血用の処置具32でない処置具32が出血点Bに近接又は到達しても、プロセッサ22は、内視鏡12の表示画像を、図12中の左図に示す状態を維持し、内視鏡12及びスコープホルダ14を動作させない。
 他の一例として、図13中の左図に示すように、予め設定された処置具32の処置部34a(術者の関心領域)が内視鏡12の表示画像に映り込んだことを、内視鏡12の撮像画像情報を画像処理した画像処理情報に基づいて検知したとき、その検知信号は予め決められたトリガー信号としてプロセッサ22に入力される。このトリガー信号のプロセッサ22への入力によって、プロセッサ22は駆動源47,49,58の少なくとも1つを動作させ、図13中の中央図及び図13中の右図に示すように、処置具32の処置部34a及び出血点Bを表示しつつ、徐々に処置部34a及び出血点Bの像の大きさを拡大していく。
 プロセッサ22は、処置部34a及び出血点Bを、ともに術者の関心領域として特定する。例えば、処置具32の処置部34a及び出血点Bの像の大きさを拡大する際は、プロセッサ22は、図13中の中央図及び図13中の右図に示すように、出血点Bを、処置具32の処置部34aよりも主要な関心領域として、モニタ18の表示画像の中央に表示させるように制御してもよい。
 [術中のシーンが剥離シーンである場合]
 図14は、剥離シーンにおけるプロセッサ22の動作を示すフローチャートである。
 図14に示すように、プロセッサ22は、後述するいずれか1つ、又は、複数の手段によって、リアルタイムのシーンが剥離シーンであると特定するとともに、剥離層(術者の第1の関心領域)を特定する(S101)。
 剥離シーンを特定する手段は複数ある。 
 プロセッサ22は、例えば手術計画情報(処置手順)をシーン特定情報として取得し、シーンを剥離シーンとして特定する。プロセッサ22は、手術計画情報に加えて、診断画像情報をシーン特定情報として取得し、シーンを剥離シーンと特定しても良い。プロセッサ22は、入力部16のマイク16aへの入力情報として、例えば、術者による“剥離”の音声情報をシーン特定情報として、剥離シーンを特定しても良い。剥離層(関心領域)が特定されていない場合、プロセッサ22は、撮像画像情報、診断画像情報、及び、入力部16を通して入力された入力情報の少なくとも1つの情報に基づいて内視鏡12の表示画像に剥離層(所定の処置対象物)があるか否かを判断する。そして、プロセッサ22は、剥離層があると判断した場合、撮像画像情報、診断画像情報、及び、入力部16を通して入力された入力情報の少なくとも1つの情報に基づいて剥離層を特定する。
 先に、関心領域として剥離層を特定した後、剥離シーンであると特定する例について説明する。
 プロセッサ22が剥離層を特定する手段は複数ある。プロセッサ22は、例えば、モニタ18に表示される内視鏡12の画像から解剖(肝臓と胆嚢の境界)を認識する。プロセッサ22は、例えば、モニタ18に表示される内視鏡12の撮像画像に基づく撮像画像情報の画像処理情報から剥離層(術者の関心領域)を特定する。プロセッサ22は、視線検出センサ16bにより術者の視線から注視点を剥離層(第1の関心領域)として特定する。図15Aに示すように、術者及び助手は、1対の鉗子32,32の処置部34aを体腔内に挿入する。1対の鉗子32,32は、剥離層を剥離させる処置具とは異なる。1対の鉗子(処置具)32,32がスコープホルダ14と同様の構造を有するホルダでそれぞれ保持されている場合、プロセッサ22はホルダに設けられた力覚センサ(図示せず)でベクトルを計算し、剥離層を特定する。 
 術者が、モニタ18に表示される内視鏡12の表示画像を確認しながら、剥離層を特定しても良い。このとき、プロセッサ22は、例えば視線検出センサ16bによる検出信号により、剥離層を検出することができる。ここでは、プロセッサ22は、シーンを、未だ、剥離シーンと特定していない。図15Aに示すように、術者及び助手は、1対の鉗子32,32の処置部34aを体腔内に挿入する。術者及び助手は、1対の鉗子32,32を操作し、鉗子32,32同士の間の組織(剥離層)に張力(トラクション)をかける。プロセッサ22は、鉗子32,32同士の間の組織に張力がかかっていることを撮像画像情報に基づいて行った画像処理による画像処理情報から検出する。プロセッサ22は、この検出信号をシーン特定情報として剥離シーンを特定する。
 プロセッサ22は、剥離シーンを特定するのに、上述した情報を適宜に組み合わせることで剥離シーンを特定しても良く、他の手段を講じて剥離シーンを特定するようにしても良い。
 プロセッサ22が剥離層を特定し、シーンを剥離シーンであると特定した状態で、又は、シーンを剥離シーンであると特定し、剥離層を特定した状態で、プロセッサ22は、例えば内視鏡12の表示画像における撮像画像情報を用いて組織の境目を“剥離ライン”を推定する。プロセッサ22は、診断画像情報を用いて“剥離ライン”を推定しても良い。
 プロセッサ22は、モニタ18に表示された内視鏡12の表示画像に対して、関心領域の候補をモニタ18の表示画像に重畳表示させることが好ましい。プロセッサ22は、ここでは、図15Aに示すように、“剥離ライン”をモニタ18の表示画像に重畳表示させている。このため、剥離シーンにおいて、プロセッサ22は、“剥離ライン”として、推定した関心領域の状態を判断し、判断結果を術者に対して報知している。プロセッサ22は、“剥離ライン”を関心領域として維持し続ける。プロセッサ22は、モニタ18の表示画像に対し、“剥離ライン”を剥離シーンの処理の終了(剥離処置の終了)まで重畳表示させ続けることが好適である。
 プロセッサ22がシーンを剥離シーンであると特定し、剥離層を特定した後(シーンの特定及び関心領域の特定の順序は前後しても良い)、プロセッサ22は、プロセッサ22に予め決められたトリガー信号が入力されたか否か判断する(S102)。
 予め決められたトリガー信号がプロセッサ22に入力されない場合、プロセッサ22は処理を待機する(S102-No)。
 プロセッサ22は、モニタ18に表示される内視鏡12の表示画像に予め設定された処置具32の処置部34aが映り込んだか否か判断する。剥離シーンでの処置具32は、一例として、剥離シーンに適したもの、すなわち生体組織を剥離させるためのものであることが必要である。プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、予め設定された処置具32の処置部34aが表示画像に映り込んだことを画像処理技術により検知したとき、その検知信号を駆動源47,49,58の少なくとも1つを動作させる、予め決められたトリガー信号として認識する(S102-Yes)。
 このとき、プロセッサ22は、予め設定された処置具32の処置部34aの適宜の位置を、剥離層の“剥離ライン”とは別の関心領域(第2の関心領域)として特定する。すなわち、プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて認識される予め設定された処置具32の処置部34a及び処置具32の処置部34aの周辺領域を別の関心領域として特定する。プロセッサ22は、予め設定された処置具32の処置部34aの適宜の位置を、別の関心領域として維持し続ける。プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、処置具32の処置部34aが表示画像に映り込んだことをトリガー信号として駆動源47,49,58の少なくとも1つを動作させる。剥離シーンでは、プロセッサ22は、一例として、予め設定された処置具32の処置部34aの適宜の位置をモニタ18の表示画像の中央又は中央近傍に配置するように、モニタ18に表示された内視鏡12の表示画像の表示状態を変更する。プロセッサ22は、関心領域として剥離ラインを表示させつつ、別の関心領域として処置具32の処置部34a及び処置具32の処置部34aの周辺領域をモニタ18に表示画像として表示させる。プロセッサ22は、内視鏡12で取得した画像情報において認識された処置具32の動き情報に基づいて、関心領域としての処置具32の処置部34a及び処置具32の処置部34aの周辺領域を表示画像の中央とした視野範囲を設定する。
 処置具32の処置部34aは、術者の操作により移動し得る。このとき、プロセッサ22は、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を動作させ、予め設定された処置具32の処置部34aに追従させる(S103)。処置具32を移動させているのに追従してプロセッサ22が内視鏡12を適宜に動作させ、内視鏡12の観察光学系48で処置具32の処置部34aを表示画像の例えば中央に捕らえた状態を維持する。したがって、プロセッサ22は、駆動源47,49,58の少なくとも1つを動かして、モニタ18に表示される内視鏡12の表示画像において、別の関心領域(予め設定された処置具32の処置部34aの適宜の位置)の移動に伴って、処置具32の処置部34aを追従する追従表示させる。
 剥離シーンでは、プロセッサ22は、一例として、モニタ18に表示される内視鏡12の表示画像の倍率を一定に維持しながら処置具32の処置部34aに追従させる。このため、プロセッサ22は、内視鏡12のズーム機構を使用せず、生体組織の剥離層の剥離ライン(処置対象部位)と、内視鏡12の挿入部42の先端42aとの距離を一定に保つことが好適である。
 図15Bに示すように、術者は、予め設定された処置具32の処置部34aの操作にしたがって追従する内視鏡12の表示画像を観察しながら、表示画像に表示されている剥離ラインに沿って処置部34aを動かして、組織を剥離させる。
 プロセッサ22は、撮像画像情報に基づいて画像処理した画像処理情報により、生体組織の剥離処置を終えたと判断したとき、剥離シーンとしての処理を終了させる。また、予め設定された処置具32をトロッカー38から引き抜くなど、処置部34aの適宜の位置と、剥離ラインとの距離を大きくし、一定の倍率において、両者を表示できなくなったら、プロセッサ22は、剥離シーンとしての処理を終了させても良い。
 なお、例えばシステム10のラインナップの中から選択された処置具32の処置部34aが剥離層に近接又は到達しても、処置具32が生体組織を剥離させるのに用いられるものでない場合、プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、処置具32の処置部34aが表示画像に映り込んだことを画像処理技術により検知するが、その検知信号を駆動源47,49,58の少なくとも1つを動作させる、予め決められたトリガー信号として認識しない。また、システム10のラインナップにない処置具の処置部が体腔内に挿入されると、その処置部はモニタ18に表示される内視鏡12の表示画像に映り込むことがある。この場合、プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、ラインナップにない処置具の処置部が表示画像に映り込んだことを画像処理技術により検知するが、その検知信号を駆動源47,49,58の少なくとも1つを動作させるトリガー信号として認識しない。
 プロセッサ22は、剥離層を関心領域として、術者自体が行う“覗き込み”に基づくジェスチャ情報や視線検出情報を、入力部16を通したプロセッサ22への入力情報とし得る。この場合、この入力情報をトリガー信号とし、入力情報に基づいて、駆動源47,49,58の少なくとも1つを動作させても良い。この場合、剥離シーンの特定、及び、関心領域としての剥離層の特定後、術者自体が行う“覗き込み”に基づくジェスチャ情報や視線検出情報に基づいて、プロセッサ22は、内視鏡12を適宜に動かして、視野、視点、視座の少なくとも1つを調整する。
 プロセッサ22は、剥離層を関心領域として、術者自体が行う“右”と発した音声情報を、入力部16を通したプロセッサ22への入力情報とし得る。この場合、プロセッサ22は、この入力情報(音声情報)を予め決められたトリガー信号として認識し、入力情報に基づいて、駆動源47,49,58の少なくとも1つを動作させても良い。
 プロセッサ22は、術中のシーンを剥離シーンであると特定した後、トリガー信号が入力される前に、表示画像中に出血が表示された場合、剥離シーンの特定をキャンセルし、術中のシーンを出血シーンとして特定する。このとき、上述した出血シーンにおいて説明したように、画像処理により出血点Bが特定され、出血点Bが拡大され、止血用の処置具32を用いて出血点Bが止血される。その後、プロセッサ22は、出血シーンの処理の終了に伴って、術中のシーンを再び、剥離シーンとして特定する。プロセッサ22は剥離シーンにしたがって処理を行い、術者は、意図しない出血等がなければ、剥離層を適宜に剥離させる。
 [術中のシーンが脈管切除(切離)シーンである場合]
 図16は、脈管切除シーンにおけるプロセッサ22の動作を示すフローチャートである。なお、脈管とは、ここでは、血管やリンパ管など、体液を通している管をいう。
 図16に示すように、プロセッサ22は、後述するいずれか1つ、又は、複数の手段によって、リアルタイムのシーンが脈管切除シーンであると特定するとともに、切除対象の脈管(術者の第1の関心領域)を特定する(S101)。
 脈管切除シーンを特定する手段は複数ある。プロセッサ22は、剥離シーンを特定するのと同様に、例えば、手術計画情報(処置手順)をシーン特定情報として取得し、手術計画情報に加えて診断画像情報をシーン特定情報として取得し、又は、入力部16への入力情報をシーン特定情報として取得し、脈管切除シーンを特定し得る。
 切除対象の脈管(関心領域)が特定されていない場合、プロセッサ22は、撮像画像情報、診断画像情報、及び、入力部16を通して入力された入力情報の少なくとも1つの情報に基づいて内視鏡12の表示画像に切除対象の脈管(所定の処置対象物)があるか否かを判断する。そして、プロセッサ22は、切除対象の脈管があると判断した場合、撮像画像情報、診断画像情報、及び、入力部16を通して入力された入力情報の少なくとも1つの情報に基づいて切除対象の脈管を特定する。
 先に関心領域として切除対象の脈管を特定した後、脈管切除シーンであると特定する例について説明する。ここでは、脈管が血管である場合を例にして説明する。
 プロセッサ22が切除対象の脈管を特定する手段は複数ある。プロセッサ22は、例えば、モニタ18に表示される内視鏡12の画像から解剖の特徴を認識する。プロセッサ22は、例えば、モニタ18に表示される内視鏡12の撮像画像に基づく撮像画像情報から切除対象の脈管(術者の関心領域)を特定する。プロセッサ22は、視線検出センサ16bにより術者の視線から注視点を切除対象の脈管(関心領域)として特定する。
 術者は、脈管として血管の一部を関心領域として切除する場合、血管内の血液(液体)の流れを遮断するため、血管の複数個所にクリップ処置を行う。クリップ処置は、血管の分岐位置を特定した後、その分岐位置の近傍に行うことが一般的である。このため、クリップ処置を行う前に、プロセッサ22は、モニタ18に表示される内視鏡12の表示画像から血管の分岐を特定する。プロセッサ22は、必要に応じて診断画像情報を用いて血管の分岐を特定する。プロセッサ22は、血管の上流及び下流を、解剖理解と、視野方向(頭側/尾側)により判断する。プロセッサ22は、必要に応じて診断画像情報を用いて血管の上流及び下流を判断しても良い。 
 プロセッサ22は、血管の分岐位置からの距離にしたがってクリップ処置を行う箇所(クリップ取付部位)を特定する。プロセッサ22は、例えばクリップ処置を行う3つの位置を含む領域を切除対象の脈管(関心領域)として特定することが好適である。プロセッサ22は、術前又は術中に取得した診断画像情報から、血管の切除対象部位(クリップ取付部位)を特定しても良い。術者は、クリップを用いるクリップ処置を行う代わりに、血管のうち、クリップ取付部位の中の少なくとも1箇所において、糸で縛る糸処理を行ってもよい。
 術者が、モニタ18に表示される内視鏡12の表示画像を確認しながら、切除対象の脈管(術者の関心領域)を特定しても良い。このとき、プロセッサ22は、例えば視線検出センサ16bによる検出信号により、切除対象の脈管を検出することができる。
 術者が、モニタ18に表示される内視鏡12の表示画像を確認しながら、切除対象の脈管(関心領域)を特定しても良い。このとき、プロセッサ22は、例えば視線検出センサ16bによる検出信号により、切除対象の脈管を検出することができる。ここでは、プロセッサ22は、シーンを、未だ、脈管切除シーンと特定していない。プロセッサ22は、撮像画像情報に基づいて行った画像処理による画像処理情報から、切除対象の脈管を検出する。プロセッサ22は、この検出信号をシーン特定情報として脈管切除シーンを特定する。
 プロセッサ22は、脈管切除シーンを特定するのに、上述した情報を適宜に組み合わせることで脈管切除シーンを特定しても良く、他の手段を講じて脈管切除シーンを特定するようにしても良い。
 プロセッサ22が切除対象の脈管を特定し、シーンを脈管切除シーンであると特定した状態で、又は、シーンを脈管切除シーンであると特定し、切除対象の脈管を特定した状態で、プロセッサ22は、例えば内視鏡12の表示画像における撮像画像情報を用いて切除対象の脈管を推定する。プロセッサ22は、診断画像情報を用いて切除対象の脈管を推定しても良い。
 プロセッサ22は、剥離シーンの例と同様に、モニタ18に表示された内視鏡12の表示画像に対して、関心領域の候補をモニタ18の表示画像に重畳表示させることが好ましい。プロセッサ22は、ここでは、図17Aに示すように、切離位置をモニタ18の表示画像に重畳表示させている。このため、脈管切除シーンにおいて、プロセッサ22は、切離位置として、推定した関心領域の状態を判断し、判断結果を術者に対して報知している。プロセッサ22は、切離位置を関心領域として維持し続ける。プロセッサ22は、モニタ18の表示画像に対し、切離位置を脈管切除シーンの処理の終了(脈管切除処置の終了)まで重畳表示させ続けることが好適である。
 プロセッサ22がシーンを脈管切除シーンであると特定し、切除対象の脈管を特定した後(シーンの特定及び関心領域の特定の順序は前後しても良い)、プロセッサ22は、プロセッサ22に予め決められたトリガー信号が入力されたか否か判断する(S102)。プロセッサ22は、モニタ18に表示される内視鏡12の表示画像に予め設定された処置具32の処置部34aが映り込んだか否か判断する。脈管切除シーンでの第1の処置具32は、一例として、脈管切除シーンに適したものであることが必要である。例えば、第1の処置具32としては、切除対象の脈管を保持する鉗子などが用いられ得る。プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、予め設定された第1の処置具32の処置部34aが表示画像に映り込んだことを画像処理技術により検知したとき、その検知信号を駆動源47,49,58の少なくとも1つを動作させる、予め決められたトリガー信号として認識する。
 予め決められたトリガー信号がプロセッサ22に入力されない場合、プロセッサ22は処理を待機する(S102-No)。
 プロセッサ22に予め決められたトリガー信号が入力された場合(S102-Yes)、モニタ18に表示される撮像画像の表示形態を変更する。脈管切除シーンでは、プロセッサ22は、予め決められたトリガー信号が入力されたら、内視鏡12及び/又はスコープホルダ14を適宜に動作させて、切除対象の脈管の全体の撮像画像をモニタ18に表示させる。このため、脈管切除シーンでは、プロセッサ22は、予め決められたトリガー信号が入力されたら、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を適宜に動作させ、生体組織の観察視野内の切除対象の脈管(術者の関心領域)を拡大した状態(図17A参照)に対して俯瞰した状態(図17B参照)の表示画像をモニタ18に表示させる(S103)。このため、プロセッサ22は、脈管の切除部位を特定した場合に、内視鏡12の表示画像における撮像画像情報に基づいて、第1の処置具32の処置部34aが表示画像に映り込んだことをトリガー信号として駆動源47,49,58の少なくとも1つを動作させる。プロセッサ22は特に、脈管の切除部位を含む切除範囲全域を表示画像に収める状態に、内視鏡12の表示画像を調整する。このとき、一例として、プロセッサ22は、図17A及び図17Bに示す状態において、内視鏡12の観察光学系48、すなわち挿入部42の先端42aの観察窓48bの視点及び視座を変更せず、視野を調整する。
 その後、術者は、ラインナップされた第2の処置具(クリップアプライヤ)32の処置部34aでクリップ処置を行うため、トロッカー38を通して処置部34a(術者の第2の関心領域)を体腔内に挿入する(図18A参照)。
 プロセッサ22は、切除対象の血管を特定し、血管のうち切除対象範囲をモニタ18に表示画像として表示させた後、プロセッサ22に予め決められたトリガー信号が入力されたか否か判断する(S105)。予め決められたトリガー信号がプロセッサ22に入力されない場合、プロセッサ22は処理を待機する(S105-No)。
 プロセッサ22は、血管の切除位置(関心領域)を特定した後、内視鏡12の表示画像における撮像画像情報に基づいて、予め設定した第2の処置具32の処置部34aが表示画像に映り込んだことを画像処理技術により検知したとき、その検知信号を駆動源47,49,58の少なくとも1つを動作させる、予め決められたトリガー信号として認識する(S105-Yes)。プロセッサ22は、モニタ18の表示画像の中央に、第2の処置具32の処置部34aの適宜の部位を表示させる。プロセッサ22は、第2の処置具32の処置部34aの移動に伴って、切離対象箇所の全域を表示させつつ、モニタ18の表示画像の中央に、第2の処置具32の処置部34aを表示させるように、内視鏡12の挿入部42の先端42aを移動させる。脈管切除シーンでの第2の処置具32は、一例として、脈管切除シーンに適したもの、すなわち生体組織にクリップ処置を行うクリップアプライヤであることが必要である。
 このとき、プロセッサ22は、予め設定された第2の処置具32の処置部34aの適宜の位置を、血管の切除範囲とは別の関心領域として特定する。プロセッサ22は、予め設定された第2の処置具32の処置部34aの適宜の位置を、別の関心領域として維持し続ける。プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、第2の処置具32の処置部34aが表示画像に映り込んだことをトリガー信号として駆動源47,49,58の少なくとも1つを動作させる。脈管切除シーンでは、プロセッサ22は、一例として、予め設定された第2の処置具32の処置部34aの適宜の位置をモニタ18の表示画像の中央又は中央近傍に配置するようにモニタ18の撮像画像の表示状態を変更する。処置具32の処置部34aの適宜の位置は、術者の操作により移動し得る。このため、プロセッサ22は、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を動作させ、予め設定された処置具32の処置部34aの適宜の位置の移動に追従して内視鏡12の観察光学系48を移動させる(S106)。したがって、プロセッサ22は、駆動源47,49,58の少なくとも1つを動かして、モニタ18に表示される内視鏡12の表示画像において、関心領域(予め設定された処置具32の処置部34aの適宜の位置)の移動に伴って、処置具32の処置部34aを追従する追従表示させる。
 術者は、第2の処置具(クリップアプライヤ)32の処置部34aで、血管の切除対象部位に対して、クリップ処理を行う。ここでは、血管の切除対象部位のうち、上流側に2つ、下流に1つ、クリップ処置を行う。このとき、図18B及び図18Cに示すように、予め設定された第2の処置具32の処置部34aの位置、すなわち、クリップ処置のための処置部34aの移動に伴って、プロセッサ22は、内視鏡12を適宜に動かして、内視鏡12のモニタ18に表示される表示画像の視野、視座及び視点の少なくとも1つを調整する。
 脈管切除シーンでは、例えば3つのクリップによって切除対象の血管の血流(脈管の液体の流れ)を止めた後、上流側の2つのクリップと、下流側の1つのクリップの間の位置を切断する。
 例えば、第2の処置具(クリップアプライヤ)32を抜き取ると、プロセッサ22はクリップ処置が終了したと判断する。術者は、クリップアプライヤ(処置具32)とは異なる、切除対象の脈管を切除する、予め設定された、血管を切断するための第3の処置具32の処置部34aを体腔内に挿入する。プロセッサ22は、血管の切除部位を特定し、クリップ処置を終了したと判断した後、内視鏡12の表示画像における撮像画像情報に基づいて、第3の処置具32の処置部34aが表示画像に映り込んだことを画像処理技術により検知したとき、その検知信号を駆動源47,49,58の少なくとも1つを動作させる、予め決められたトリガー信号として認識する(S107-Yes)。
 プロセッサ22は、モニタ18の表示画像の中央に、第3の処置具32の処置部34aの適宜の部位を表示させる。このとき、プロセッサ22は、脈管の切除部位を含む切除範囲全域を表示画像に収める状態に、内視鏡12の表示画像を調整する。プロセッサ22は、第3の処置具32の処置部34aの移動に伴って、切離対象箇所の全域を表示させつつ、モニタ18の表示画像の中央に、第3の処置具32の処置部34aを表示させるように、内視鏡12の挿入部42の先端42aを移動させる。
 このとき、プロセッサ22は、予め設定された第3の処置具32の処置部34aの適宜の位置を、血管の切除範囲、第2の処置具(クリップアプライヤ)32の処置部34aとは更に別の関心領域として特定する。プロセッサ22は、予め設定された第3の処置具32の処置部34aの適宜の位置を、更に別の関心領域(第3の関心領域)として維持し続ける。プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、第3の処置具32の処置部34aが表示画像に映り込んだことをトリガー信号として駆動源47,49,58の少なくとも1つを動作させる。脈管切除シーンでは、プロセッサ22は、一例として、予め設定された第3の処置具32の処置部34aの適宜の位置をモニタ18の表示画像の中央又は中央近傍に配置するようにモニタ18の撮像画像の表示状態を変更する。第3の処置具32の処置部34aの適宜の位置は、術者の操作により移動し得る。このため、プロセッサ22は、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を動作させ、予め設定された第3の処置具32の処置部34aの適宜の位置の移動に追従して内視鏡12の観察光学系48を移動させる(S108)。したがって、プロセッサ22は、駆動源47,49,58の少なくとも1つを動かして、モニタ18に表示される内視鏡12の表示画像において、関心領域(予め設定された第3の処置具32の処置部34aの適宜の位置)の移動に伴って、処置具32の処置部34aを追従する追従表示させる。
 術者は、血管の切断用の第3の処置具32の処置部34aで、上流側の2つのクリップと、下流の1つのクリップとの間の部位を切断する。このときの血管の切断用の第3の処置具32は、単なる切断用の処置具が用いられても良いが、血管を封止しながら切断可能なエネルギ処置具(図3参照)を用いることが好適である。
 プロセッサ22は、例えば、第3の処置具32をトロッカー38から引き抜くなど、処置部34aの適宜の位置と、切断した血管との距離を大きくし、一定の倍率において、両者を表示できなくなったら、プロセッサ22は、脈管切除シーンとしての処理を終了させる。
 [術中のシーンが臓器切除シーンである場合]
 図20は、臓器切除シーンにおけるプロセッサ22の動作を示すフローチャートである。
 プロセッサ22は、上述した剥離シーン及び脈管切除シーンにおいて説明した手段と同様の手段によって、リアルタイムのシーンが臓器切除シーンであると特定するとともに、切除対象の臓器(術者の第1の関心領域)を特定する(S101)。このため、プロセッサ22は、例えば、モニタ18に表示される内視鏡12の撮像画像に基づく撮像画像情報から切除対象の臓器を特定する。
 臓器切除シーンを特定する手段は複数ある。プロセッサ22は、剥離シーンや脈管切除シーンを特定するのと同様に、例えば、手術計画情報(処置手順)をシーン特定情報として取得し、手術計画情報に加えて診断画像情報をシーン特定情報として取得し、又は、入力部16への入力情報をシーン特定情報として取得し、臓器切除シーンを特定し得る。
 切除対象の臓器(関心領域)が特定されていない場合、プロセッサ22は、撮像画像情報、診断画像情報、及び、入力部16を通して入力された入力情報の少なくとも1つの情報に基づいて内視鏡12の表示画像に切除対象の臓器(所定の処置対象物)があるか否かを判断する。そして、プロセッサ22は、切除対象の臓器があると判断した場合、撮像画像情報、診断画像情報、及び、入力部16を通して入力された入力情報の少なくとも1つの情報に基づいて切除対象の臓器を特定する。
 プロセッサ22は、切除対象の臓器があると判断した場合、内視鏡12の撮像部48aで撮像された体内画像、及び/又は、術前又は術中に取得した診断画像に基づいて、処置対象の臓器の切除範囲(処置対象物の処置範囲)を特定する。プロセッサ22は、切除対象の臓器があると判断した場合、撮像画像情報、診断画像情報、及び/又は、入力部16を介して入力された入力情報の少なくとも1つの情報に基づいて臓器の切除範囲を特定する。
 プロセッサ22がシーンを臓器切除シーンであると特定し、切除対象の臓器を特定した後(シーンの特定及び関心領域の特定の順序は前後しても良い)、プロセッサ22は、プロセッサ22に予め決められたトリガー信号が入力されたか否か判断する(S102)。プロセッサ22は、モニタ18に表示される内視鏡12の表示画像に予め設定された処置具32の処置部34aが映り込んだか否か判断する。プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、予め設定された処置具32の処置部34aが表示画像に映り込んだことを画像処理技術により検知したとき、その検知信号を駆動源47,49,58の少なくとも1つを動作させる、予め決められたトリガー信号として認識する。
 予め決められたトリガー信号がプロセッサ22に入力されない場合、プロセッサ22は処理を待機する(S102-No)。
 プロセッサ22に予め決められたトリガー信号が入力された場合(S102-Yes)、モニタ18に表示される撮像画像の表示形態を変更する。臓器切除シーンでは、プロセッサ22は、予め決められたトリガー信号が入力されたら、内視鏡12及び/又はスコープホルダ14を適宜に動作させて、モニタ18の表示画像の中央に、処置具32の処置部34aの適宜の部位を表示させる。
 臓器の一部を切除する処置を行う場合、術者は、実際の臓器の切除前に、切除対象の臓器の周辺の血管(動脈及び/又は静脈)を適宜に処置(例えば封止)する。予め決められたトリガー信号が入力された場合、プロセッサ22は、処置具32の処置部34aの移動に伴って、血管の封止対象箇所及びその近傍を表示させつつ、モニタ18の表示画像の中央に、処置具32の処置部34aを表示させるように、内視鏡12の挿入部42の先端42aを移動させる。プロセッサ22は、処置具32の処置部34aの移動に伴って、血管の封止対象箇所の全域を表示させつつ、モニタ18の表示画像の中央に、処置具32の処置部34aを表示させる。
 術者が適宜に処置具32を操作して封止対象の血管を処置した後、同一の処置具32の処置部34aで、術者は、臓器のうち特定した切除範囲を切除する。このときも、プロセッサ22は、処置具32の処置部34aの移動に伴って、切除対象箇所及びその近傍を表示させつつ、モニタ18の表示画像の中央に、処置具32の処置部34aを表示させるように、内視鏡12の挿入部42の先端42aを移動させる(S103)。
 術者が適宜に処置具32を操作して切除対象の臓器を切除した後、術者が処置具32の処置部34aをトロッカー38から引き抜くことで、プロセッサ22による処理は終了する。
 臓器切除シーンにおいて臓器のうち切除した部位を回収する回収シーンを含むものとする。
 プロセッサ22は、臓器のうち、切除対象部位の切除が終了したか否かを、例えばトロッカーに配置したセンサ(外部センサ)、又は、内視鏡12の表示画像における撮像画像情報から判断する。
 術者は、トロッカー38を通して、切除した臓器組織を把持する鉗子状の第2の処置具32の処置部34aを体腔内に入れるとともに、処置具の一種としての臓器用の回収バッグ(図示せず)を、別のポートを通して体腔内に入れる。プロセッサ22は、臓器のうち、切除対象部位が切除されたと判断した場合に、モニタ18の表示画像に、第2の処置具32の処置部34a及び回収バックなど、予め設定された処置具が映り込んだか否か判断する。
 モニタ18に表示される表示画像に予め設定された第2の処置具32が映り込んだ場合、表示画面に第2の処置具32の処置部34aが映り込んだことをトリガー信号として、プロセッサ22は、駆動源47,49,58の少なくとも1つを動作させる。プロセッサ22は、内視鏡12の挿入部42の先端42aを適宜に動作させ、モニタ18に表示される表示画像に、回収バック、第2の処置具32の処置部34a、及び、切除された部位の全域が画面に収めるようにする。プロセッサ22は、この状態を維持する。 
 なお、第2の処置具32の処置部34aだけなく、第2の処置具32の処置部34a及び回収バッグの両者が同時に映り込んだことをトリガー信号として、駆動源47,49,58の少なくとも1つを動作させても良い。
 プロセッサ22は、この状態で、処理を終了する。
 術者は、回収バッグ(処置具32)に鉗子状の処置具32の処置部34aで切除した臓器を入れる。そして、術者は、トロッカー38から処置具32の処置部34aを引き抜くとともに、図示しないポートを通して回収バッグ(処置具32)を引き抜く。
 [術中のシーンが縫合/吻合シーンである場合]
 図21は、縫合/吻合シーンにおけるプロセッサ22の動作を示すフローチャートである。
 図21に示すように、プロセッサ22は、後述するいずれか1つ、又は、複数の手段によって、リアルタイムのシーンが縫合/吻合シーンであると特定するとともに、処置対象物である縫合/吻合対象物(術者の第1の関心領域)を特定する(S101)。プロセッサ22は、例えば、モニタ18に表示される内視鏡12の撮像画像に基づく撮像画像情報から縫合/吻合対象物を特定する。
 縫合/吻合シーンを特定する手段は複数ある。プロセッサ22は、剥離シーン、脈管切除シーン、臓器切除シーンを特定するのと同様に、例えば、手術計画情報(処置手順)をシーン特定情報として取得し、手術計画情報に加えて診断画像情報をシーン特定情報として取得し、又は、入力部16への入力情報をシーン特定情報として取得し、縫合/吻合シーンを特定し得る。
 縫合/吻合対象物が特定されていない場合、プロセッサ22は、撮像画像情報、診断画像情報、及び、入力部16を通して入力された入力情報の少なくとも1つの情報に基づいて内視鏡12の表示画像に縫合/吻合対象物があるか否かを判断する。そして、プロセッサ22は、縫合/吻合対象物があると判断した場合、撮像画像情報、診断画像情報、及び、入力部16を通して入力された入力情報の少なくとも1つの情報に基づいて縫合/吻合対象物を特定する。
 プロセッサ22は、縫合/吻合対象物があると判断した場合、内視鏡12の撮像部48aで撮像された体内画像、及び/又は、術前又は術中に取得した診断画像に基づいて、処置対象の縫合/吻合物を特定する。
 プロセッサ22がシーンを縫合/吻合シーンであると特定し、縫合/吻合対象物を特定した後(シーンの特定及び関心領域の特定の順序は前後しても良い)、プロセッサ22は、プロセッサ22に予め決められたトリガー信号が入力されたか否か判断する(S102)。プロセッサ22は、モニタ18の表示画像の中央に、処置具32の処置部34aの適宜の部位を表示させる。プロセッサ22は、処置具32の処置部34aの移動に伴って、縫合/吻合対象物を表示させつつ、モニタ18の表示画像の中央に、処置具32の処置部34a(例えば針)を表示させるように、内視鏡12の挿入部42の先端42aを移動させる。縫合/吻合シーンでの処置具32は、一例として、針/エンドステッチを保持する持針器が挙げられる。
 なお、モニタ18の表示画像の中央に表示させる部位は、処置具32の処置部34a(例えば針)に限られない。例えば視線検知センサ16bにより検知される術者の視線情報に基づいて、術者が視線を送っている位置を、モニタ18の表示画像の中央に表示させる部位としても良い。
 プロセッサ22は、予め設定された処置具32の処置部34aの適宜の位置を、縫合/吻合対象物とは別の関心領域として特定する。プロセッサ22は、予め設定された処置具32の処置部34aの適宜の位置を、別の関心領域として維持し続ける。プロセッサ22は、内視鏡12の表示画像における撮像画像情報に基づいて、処置具32の処置部34aが表示画像に映り込んだことをトリガー信号として(S102-Yes)、駆動源47,49,58の少なくとも1つを動作させる。縫合/吻合シーンでは、プロセッサ22は、一例として、予め設定された処置具32の処置部34aの適宜の位置をモニタ18の表示画像の中央又は中央近傍に配置するようにモニタ18の撮像画像の表示状態を変更する。処置具32の処置部34aの適宜の位置は、術者の操作により移動し得る。このため、プロセッサ22は、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を動作させ、予め設定された処置具32の処置部34aの適宜の位置の移動に表示画像を追従させる(S103)。したがって、プロセッサ22は、駆動源47,49,58の少なくとも1つを動かして、モニタ18に表示される内視鏡12の表示画像において、関心領域(予め設定された処置具32の処置部34aの適宜の位置)の移動に伴って、処置具32の処置部34aを追従する追従表示させる。
 術者は、処置具(持針器)32の処置部(針)34aで、縫合/吻合対象物に対して、処置を行う。術者は、縫合/吻合対象物に対して、処置部34aの針を刺し入れる。プロセッサ22は、内視鏡12の表示画像における撮像画像情報、及び/又は、視線検知センサ16bなどの入力情報に基づいて、処置具32の処置部34aの針が、縫合/吻合対象物に対して刺し入れられたことを認識したことを予め決められたトリガー信号として駆動源47,49,58の少なくとも1つを動作させる(S105-Yes)。プロセッサ22は、処置具32の処置部34aの針が、縫合/吻合対象物に対して刺し入れられた位置、すなわち刺入点を新たな関心領域として特定する。
 プロセッサ22は、予め決められたトリガー信号、及び、新たな関心領域の情報に基づいて、駆動源47,49,58の少なくとも1つを動作させる。プロセッサ22は、例えば、駆動源49を動作させて、光学ズーム機能により視野を調整する。そして、プロセッサ22は、刺入点を基準として、術前又は術中に取得した患者の診断画像情報に基づいて算出した臓器スケールに応じた視野範囲に調整する(S106)。そして、プロセッサ22は、処置部(針)34aの動きに合わせて、内視鏡12の観察光学系48、すなわち挿入部42の先端42aの観察窓48bの視野を調整するだけでなく、適宜に観察光学系48の視点及び視座を調整する(S108)。すなわち、術者が縫合/吻合処置を行う場合、プロセッサ22は、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を動作させ、予め設定された処置具32の処置部34aの適宜の位置の移動に表示画像を追従させる。このため、プロセッサ22は、適宜の観察倍率を維持しながら、縫合/吻合対象物、及び、処置部(針)34aがモニタ18の表示画像に表示された状態を維持する。
 プロセッサ22は、撮像画像情報に基づいて画像処理した画像処理情報により、生体組織の縫合/吻合処置を終えたと判断したとき、縫合/吻合シーンとしての処理を終了させる。また、予め設定された処置具32をトロッカー38から引き抜くなど、処置部34aの適宜の位置と、縫合/吻合対象物との距離を大きくし、一定の倍率において、両者を表示できなくなったら、プロセッサ22は、剥離シーンとしての処理を終了させても良い。
 以上説明したように、本実施形態によれば、以下のことが言える。 
 本実施形態に係るプロセッサ22は、内視鏡12で取得される撮像画像情報を受信するとともに、内視鏡12の駆動源47,49及び内視鏡12を保持するホルダ14の駆動源58との少なくとも一方に駆動信号を送信して駆動源47,49,58(場合によっては駆動源を必要としない電子ズーム)を動作させ、撮像画像情報のうちモニタ18に表示させる内視鏡12の術中の表示画像の視野、視点及び視座の少なくとも1つを調整する。プロセッサ22は、プロセッサ22に入力される、術中のシーンを特定するシーン特定情報、内視鏡12で取得される撮像画像情報、及び/又は、予め決められたトリガー信号を取得し、モニタ18に表示される内視鏡12の表示画像における、術者の関心領域を、取得した情報に基づいて特定する。そして、プロセッサ22は、関心領域の特定結果に応じて、内視鏡12の術中の表示画像における関心領域に対して、視野、視点及び視座の少なくとも1つを調整する。このように、本実施形態によれば、手術中の各シーンに応じて異なる関心領域に対し、処置内容に応じて、内視鏡12を適宜に動かして内視鏡12の表示画像を適宜に調整することができる。このため、本実施形態によれば、術者が見易い内視鏡12の表示画像を提供し、術者が手術に集中し易い環境を提供する、内視鏡12の表示画像の調整装置20及び手術システム10を提供することができる。
 [変形例]<記憶部24に、シーンに応じた表示形態情報が記憶されている場合>
 プロセッサ22は、図22に示すように動作させてもよい。図23に示すように、例えば記憶部24には、術中の各シーンに対応するモニタ18への内視鏡12の表示画像の表示形態(拡大、追従、俯瞰、現状維持)が関連付けられて記憶されている。
 図22に示すように、プロセッサ22は、入力部16からの情報及び/又はシーン特定情報から、シーンを特定する(S101)。プロセッサ22は、特定したシーンに基づいて、関心領域をモニタ18に表示された内視鏡12の表示画像中から特定する。
 プロセッサ22は、シーン及び関心領域を特定した後、記憶部24を参照する(S102a)。このため、プロセッサ22は、シーン特定情報に基づいて内視鏡12及びホルダ14の少なくとも一方を動作させる形態(表示形態)を読み出している。プロセッサ22は、関心領域の特定結果に基づいて駆動源47,49,58の少なくとも1つを動作させる。このとき、プロセッサ22は、読み出した形態(表示形態)に基づいて内視鏡12及びホルダ14の少なくとも一方を動作させる。このとき、関心領域の特定結果に応じて、内視鏡12の術中の表示画像において、視野、視点及び視座の少なくとも1つを調整して関心領域を表示画像に表示させる(S103)。
 プロセッサ22は、手術シーンとしてシーンAが特定された場合、シーンAに応じた関心領域を特定するとともに、シーンAに応じた表示形態(拡大)を読み出す。その後、プロセッサ22は、駆動源47,49,58の少なくとも1つを動作させ、特定した関心領域を、内視鏡12の表示画像中に、拡大表示させる。
 プロセッサ22は、手術シーンとしてシーンBが特定された場合、シーンBに応じた関心領域を特定するとともに、シーンBに応じた表示形態(追従)を読み出す。その後、プロセッサ22は、駆動源47,49,58の少なくとも1つを動作させて特定した関心領域を追従しながら、内視鏡12の表示画像中に、表示させる。
 プロセッサ22は、手術シーンとしてシーンCが特定された場合、シーンCに応じた関心領域を特定するとともに、シーンCに応じた表示形態(俯瞰)を読み出す。その後、プロセッサ22は、駆動源47,49,58の少なくとも1つを動作させ、特定した関心領域を、内視鏡12の表示画像中に、俯瞰させた状態とするように、適宜に拡大/縮小表示させる。
 プロセッサ22は、手術シーンとしてシーンDが特定された場合、シーンDに応じた表示形態(現状維持)を読み出す。プロセッサ22は、駆動源47,49,58をいずれも動作させず、特定した関心領域を、内視鏡12の表示画像中に、そのまま維持する。
 このように、プロセッサ22は、シーンに応じて、モニタ18の表示画像として関心領域を適宜の状態に表示させる、予め決められた形態を読み出し、読み出した形態に関心領域を表示させる。
 このように、術中の適宜の手術シーンに基づく関心領域を、適宜の形態でモニタ18に表示させるように、内視鏡12の術中の表示画像の視野、視点及び視座の少なくとも1つを調整する場合、プロセッサ22へのトリガー信号の入力は必ずしも必要ではない。なお、プロセッサ22は、例えば関心領域の特定をトリガー信号としても良い。
 [第2実施形態]
 次に、第2実施形態について、図24を用いて説明する。第2実施形態は、変形例を含む第1実施形態の変形例であって、第1実施形態で説明した部材と同一の部材又は同一の機能を有する部材には同一の符号を付し、詳しい説明を省略する。
 プロセッサ22は、図24に示すように動作させてもよい。図24に示すように、プロセッサ22は、手術シーン及び/又は術者の関心領域を特定する前に、プロセッサ22に予め決められたトリガー信号が入力されたか否かを先に判断する。ここでは、プロセッサ22は、ラインナップされた処置具32,32,…の処置部34aの適宜の位置が、内視鏡12の表示画像に映り込んだことを画像処理技術により検知したとき、その検知信号をトリガー信号として認識する(S201-Yes)。
 検知信号は処置具32の種類の情報を含む。処置具32の種類によって、これから行おうとする処置が異なる。このため、プロセッサ22は、画像処理技術により検知された検知信号に基づいて、手術シーンを特定する(S202)。また、プロセッサ22は、手術シーンを特定するとともに、モニタ18に表示される内視鏡12の表示画像における、術者の関心領域を特定する(S202)。プロセッサ22は、手術シーンを特定せずに、トリガー信号に基づいて、術者の関心領域を直接的に特定しても良い。
 プロセッサ22は、シーンを特定し、関心領域を特定した後に、特定したシーン及び特定した関心領域に応じて、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を適宜に動作させる。このため、プロセッサ22は、内視鏡12の撮像画像情報に基づいて、予め設定された処置具32の処置部34aが表示画像に映り込んだことをトリガー信号として、トリガー信号に基づいてシーン及び/又は関心領域を特定した後、駆動源47,49,58の少なくとも1つを、検知信号に基づいて動作させる。プロセッサ22は、術者の関心領域に対して、モニタ18に表示される表示画像の表示形態(視点、視座及び/又は視野)を変更する(S203)。
 プロセッサ22は、第1実施形態で説明したのと同様に、特定したシーン(例えば、出血シーン、剥離シーン、脈管切除シーン、臓器切除シーン、縫合/吻合シーン等)及び術者の関心領域に応じて、内視鏡12の駆動源47,49、及び/又は、スコープホルダ14の駆動源58を適宜に動作させる。
 このため、本実施形態に係るプロセッサ22は、モニタ18に表示される内視鏡12の表示画像における、術者の関心領域を、撮像画像情報、及び、予め決められたトリガー信号(予め設定された処置具32の処置部34aが表示画像に映り込んだことを画像処理技術により検知したときの検知信号)の入力に基づいて特定し、関心領域の特定結果に応じて、内視鏡12の術中の表示画像において、視野、視点及び視座の少なくとも1つを調整して関心領域を表示画像に表示させる。
 以上説明したように、本実施形態によれば、以下のことが言える。 
 内視鏡12で取得される撮像画像情報を受信するとともに、内視鏡12の駆動源47,49及び内視鏡12を保持するホルダ14の駆動源58との少なくとも一方に駆動信号を送信して駆動源47,49,58(場合によっては駆動源を必要としない電子ズーム)を動作させ、撮像画像情報のうちモニタ18に表示させる内視鏡12の術中の表示画像の視野、視点及び視座の少なくとも1つを調整する。プロセッサ22は、予め決められたトリガー信号を取得する。プロセッサ22は、トリガー信号に基づいて、シーン及び/又は術者の関心領域を特定する。そして、プロセッサ22は、関心領域の特定結果に応じて、内視鏡12の術中の表示画像における関心領域に対して、視野、視点及び視座の少なくとも1つを調整する。このように、本実施形態によれば、手術中の各シーンに応じて異なる関心領域に対し、処置具32を表示画像内に入れるのをトリガー信号として、内視鏡12を適宜に動かして内視鏡12の表示画像を適宜に調整することができる。このため、本実施形態によれば、術者が見易い内視鏡12の表示画像を提供し、術者が手術に集中し易い環境を提供する、内視鏡12の表示画像の調整装置20及び手術システム10を提供することができる。
 [変形例]<記憶部24に、処置具32の種類に応じた表示形態情報が記憶されている場合>
 プロセッサ22は、図25に示すように動作させてもよい。図26に示すように、例えば記憶部24には、術中の各シーンに対応するモニタ18への内視鏡12の表示画像の表示形態(拡大、追従、俯瞰、現状維持)が関連付けられて記憶されている。
 図25に示すように、プロセッサ22は、モニタ18に表示される内視鏡12の表示画像中に予め設定された処置具32(ここでは、処置具A,B,C,Dとする)が映り込んだか否か判断する。プロセッサ22は、予め設定された処置具32の処置部34aの適宜の位置が、内視鏡12の表示画像に映り込んだことを画像処理技術により検知したとき、その検知信号をトリガー信号として認識する(S201-Yes)。
 画像処理技術により検知された検知信号は処置具32の種類の情報を含む。このため、プロセッサ22は、画像処理技術により検知された検知信号に基づいて、モニタ18に表示された内視鏡12の表示画像に映り込んだ処置具32を特定する(S201)。そして、プロセッサ22は、処置具32の種類に応じた、手術シーン、及び/又は、術者の関心領域を特定する。ここでの関心領域は、モニタ18に表示される内視鏡12の表示画像中に映り込んだ処置具32の処置部34a、及び、その処置具32の処置部34aにより処置される対象となる処置対象部位である。プロセッサ22は、手術シーンを特定せずに、トリガー信号に基づいて、術者の関心領域を直接的に特定しても良い。
 プロセッサ22は、処置具32を検出した後、2つの関心領域を特定する前、又は、2つの関心領域を特定した後に、記憶部24を参照する(S202a)。このとき、プロセッサ22は、トリガー信号の入力に基づいて内視鏡12及びホルダ14の少なくとも一方を動作させる形態を読み出している。プロセッサ22は、2つの関心領域の情報(検出された処置具32及び処置対象部位)の情報に基づいて、駆動源47,49,58の少なくとも1つを動作させる。すなわち、すなわち、プロセッサ22は、読み出した形態に基づいて内視鏡12及びホルダ14の少なくとも一方を動作させる。このとき、関心領域の特定結果に応じて、内視鏡12の術中の表示画像において、視野、視点及び視座の少なくとも1つを調整して関心領域を表示画像に表示させる(S203)。
 プロセッサ22は、処置具32として処置具Aが、内視鏡12の表示画像中に検知された場合、処置具Aに応じた関心領域を特定するとともに、処置具Aに応じた表示形態(拡大)を読み出す。その後、プロセッサ22は、駆動源47,49,58の少なくとも1つを動作させ、特定した関心領域を、内視鏡12の表示画像中に、拡大表示させる。
 プロセッサ22は、処置具32として処置具Bが、内視鏡12の表示画像中に検知された場合、処置具Bに応じた関心領域を特定するとともに、処置具Bに応じた表示形態(追従)を読み出す。その後、プロセッサ22は、駆動源47,49,58の少なくとも1つを動作させて特定した関心領域を追従しながら、内視鏡12の表示画像中に、表示させる。
 プロセッサ22は、処置具32として処置具Cが、内視鏡12の表示画像中に検知された場合、処置具Cに応じた関心領域を特定するとともに、処置具Cに応じた表示形態(俯瞰)を読み出す。その後、プロセッサ22は、駆動源47,49,58の少なくとも1つを動作させ、特定した関心領域を、内視鏡12の表示画像中に、俯瞰させた状態とするように、適宜に拡大/縮小表示させる。
 プロセッサ22は、処置具32として処置具Dが、内視鏡12の表示画像中に検知された場合、処置具Dに応じた関心領域を特定するとともに、処置具Dに応じた表示形態(現状維持)を読み出す。プロセッサ22は、駆動源47,49,58をいずれも動作させず、特定した関心領域を、内視鏡12の表示画像中に、そのまま維持する。
 このように、プロセッサ22は、処置具32の種類に応じて、モニタ18の表示画像として関心領域を適宜の状態に表示させる、予め決められた形態を読み出し、読み出した形態に関心領域を表示させる。
 これまで、いくつかの実施形態について図面を参照しながら具体的に説明したが、この発明は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で行なわれるすべての実施を含む。

Claims (29)

  1.  内視鏡で取得される撮像画像情報を受信するとともに、前記内視鏡及び前記内視鏡を保持するホルダの少なくとも一方に駆動信号を送信して前記内視鏡及び前記ホルダの少なくとも一方を動作させ、前記撮像画像情報のうちモニタに表示させる前記内視鏡の術中の表示画像の視野、視点及び視座の少なくとも1つを調整する、1もしくは複数のプロセッサを有し、
     前記プロセッサは、
     前記プロセッサに入力される、術中のシーンを特定するシーン特定情報、前記撮像画像情報、及び/又は、予め決められたトリガー信号を取得し、
     前記モニタに表示される前記内視鏡の前記表示画像における、術者の関心領域を、取得した情報に基づいて特定し、
     前記関心領域の特定結果に応じて、前記内視鏡の術中の前記表示画像における前記関心領域に対して、前記視野、前記視点及び前記視座の少なくとも1つを調整する、内視鏡の表示画像の調整装置。
  2.  前記プロセッサは、前記内視鏡及び前記ホルダの少なくとも一方を動作させたときに、前記モニタに表示される前記内視鏡の前記表示画像において、前記関心領域を拡大表示させ、前記関心領域を俯瞰表示させ、前記関心領域に追従させる追従表示させ、及び/又は、前記関心領域を前記表示画像の所定の位置に表示させる、請求項1に記載の装置。
  3.  前記プロセッサは、前記内視鏡及び前記ホルダの少なくとも一方を動作させたときに、前記関心領域を前記表示画像の中央に表示させる、請求項2に記載の装置。
  4.  前記プロセッサは、
     前記関心領域として特定された位置の画像情報を前記撮像画像情報から切り出し、
     前記関心領域として特定された前記位置の前記表示画像を、前記画像情報に基づいて、前記モニタに表示させる、請求項1に記載の装置。
  5.  前記プロセッサは、
     前記内視鏡の前記表示画像における前記撮像画像情報に基づいて認識される予め設定された処置具及び前記処置具の周辺領域を前記関心領域として特定し、
     前記処置具及び前記処置具の前記周辺領域を前記モニタに前記表示画像として表示させる、請求項1に記載の装置。
  6.  前記プロセッサは、
     前記シーン特定情報に基づいて前記内視鏡及び前記ホルダの少なくとも一方を動作させる形態を読み出し、
     読み出した前記形態に基づいて前記内視鏡及び前記ホルダの少なくとも一方を動作させる、請求項1に記載の装置。
  7.  前記プロセッサは、
     前記トリガー信号の入力に基づいて前記内視鏡及び前記ホルダの少なくとも一方を動作させる形態を読み出し、
     読み出した前記形態に基づいて前記内視鏡及び前記ホルダの少なくとも一方を動作させる、請求項1に記載の装置。
  8.  前記プロセッサは、前記内視鏡の前記表示画像に対して前記関心領域の候補を前記モニタに重畳表示させる、請求項1に記載の装置。
  9.  前記プロセッサは、術者の指示が入力される入力部を通して前記プロセッサに入力された入力情報を前記トリガー信号として、前記入力情報に基づいて前記関心領域を特定する、請求項1に記載の装置。
  10.  前記プロセッサは、
     術者の指示が入力される入力部を通して前記プロセッサに入力された行動情報を認識し、
     前記撮像画像情報のうち、前記行動情報に関連付けられた画像情報を出力する、請求項1に記載の装置。
  11.  前記行動情報は、前記術者から入力される音声情報であり、
     前記プロセッサは、前記音声情報をテキスト形式に変換して前記画像情報とともに出力する、請求項10に記載の装置。
  12.  前記プロセッサは、前記シーン特定情報、前記撮像画像情報、及び/又は、前記予め決められた前記トリガー信号に加えて、術前又は術中に取得した診断画像情報、術前又は術中に取得した手術計画情報、及び/又は、術者からの入力情報に基づいて、前記関心領域を特定する、請求項1に記載の装置。
  13.  前記プロセッサは、前記関心領域の特定結果に応じて前記視野、前記視点及び前記視座の少なくとも1つを調整する前に、前記内視鏡の術中の前記表示画像の調整方式を術者に対して報知する、請求項1に記載の装置。
  14.  前記プロセッサは、予め設定された処置具の処置部が前記モニタの前記表示画像に映り込んだことを前記内視鏡の前記撮像画像情報に基づいて検知したとき、その検知信号を前記トリガー信号として前記内視鏡及び前記ホルダの少なくとも一方を動作させる、請求項1に記載の装置。
  15.  前記プロセッサは、前記関心領域を特定した後に前記トリガー信号が入力された際に、前記シーンを特定する前記シーン特定情報、及び/又は、前記トリガー信号に基づいて、前記内視鏡及び前記ホルダの少なくとも一方を動作させる、請求項1に記載の装置。
  16.  前記プロセッサは、前記トリガー信号に基づいて術中のシーンを特定するとともに、前記トリガー信号に基づいて前記関心領域を特定する、請求項1に記載の装置。
  17.  前記プロセッサは、術前又は術中に取得した診断画像情報、術前又は術中に取得した手術計画情報、及び/又は、術者からの入力情報を前記シーン特定情報として、前記関心領域を特定する、請求項1に記載の装置。
  18.  前記プロセッサは、
     前記シーン特定情報及び/又は前記トリガー信号として出血情報が前記プロセッサに入力された際に、前記トリガー信号及び/又は前記撮像画像情報に基づいて前記関心領域を出血点と特定し、
     前記トリガー信号が入力されると、前記シーン特定情報及び/又は前記トリガー信号に基づいて、前記内視鏡及び前記ホルダの少なくとも一方を動作させる、請求項1に記載の装置。
  19.  前記プロセッサは、前記出血情報に基づいて前記シーンを出血シーンであると特定する、請求項18に記載の装置。
  20.  前記プロセッサは、
     前記シーン特定情報及び/又は前記撮像画像情報に基づいて前記内視鏡の前記表示画像に所定の処置対象物があるか否かを判断し、
     前記処置対象物があると判断した場合、前記撮像画像情報、術前又は術中に取得した診断画像情報、及び/又は、術者からの入力情報に基づいて前記処置対象物を特定し、
     前記処置対象物を特定した場合に、予め設定された第1の処置具の処置部が前記モニタの前記表示画像に映り込んだことを前記内視鏡の前記撮像画像情報に基づいて検知したとき、その検知信号を前記トリガー信号とし、前記検知信号に基づいて、前記処置対象物及び前記第1の処置具の前記処置部の少なくとも一方を前記関心領域として、前記内視鏡及び前記ホルダの少なくとも一方を動作させる、請求項1に記載の装置。
  21.  前記プロセッサは、前記予め設定された前記第1の処置具の前記処置部とは異なる、予め設定された第2の処置具の処置部が前記モニタの前記表示画像に映り込んだことを前記内視鏡の前記撮像画像情報に基づいて検知したとき、その検知信号を前記トリガー信号とし、前記検知信号に基づいて、前記処置対象物及び前記第2の処置具の前記処置部の少なくとも一方を前記関心領域として、前記内視鏡及び前記ホルダの少なくとも一方を動作させる、請求項20に記載の装置。
  22.  前記プロセッサは、
     前記処置対象物の処置範囲が処置されたか否かを外部センサに基づく情報又は前記内視鏡の前記表示画像における前記撮像画像情報から判断し、
     前記処置対象物の前記処置範囲が処置されたと判断したときに、前記第1の処置具の前記処置部が前記モニタの前記表示画像に映り込んだことを前記内視鏡の前記撮像画像情報から得るのを前記トリガー信号として前記内視鏡及び前記ホルダの少なくとも一方を動作させ、前記処置対象物の前記処置範囲を前記表示画像に収める、請求項20に記載の装置。
  23.  前記プロセッサは、
     前記内視鏡の前記表示画像における前記撮像画像情報と前記関心領域との関連付けを前記プロセッサに入力される術者の行動情報に基づいて行って評価し、
     前記撮像画像情報から、評価結果に基づいて関連付けられた画像情報を出力する、請求項1に記載の装置。
  24.  請求項1に記載の調整装置と、
     前記撮像画像情報を取得する撮像部と、前記表示画像を拡大/縮小させるズーム機構とを有する内視鏡と、
     前記内視鏡の前記撮像画像情報を前記表示画像として表示するモニタと、
     前記内視鏡を所定の範囲内に移動させるアームと、前記アームに設けられ前記内視鏡を保持する保持部とを有するホルダと、
     前記内視鏡及び前記ホルダの前記アームの少なくとも一方に設けられ、前記プロセッサからの前記駆動信号に基づいて前記内視鏡及び前記アームの少なくとも一方を動作させる、駆動源と
     を有する、手術システム。
  25.  前記プロセッサは、前記駆動源を動作させて、前記内視鏡の前記ズーム機構を動作させる、請求項24に記載のシステム。
  26.  前記内視鏡は、電子ズーム機構を用いて、前記表示画像を拡大/縮小させる、請求項24に記載のシステム。
  27.  前記内視鏡は、前記撮像部の位置及び姿勢を変化させる湾曲部を有し、
     前記プロセッサは、前記駆動源を動作させて、前記内視鏡の前記湾曲部を動作させる、請求項24に記載のシステム。
  28.  前記術者の行動情報のうち少なくとも1つの指示が入力される入力部を有し、
     前記プロセッサは、前記入力部からの入力情報の少なくとも1つに基づいて前記関心領域を特定する、請求項24に記載のシステム。
  29.  前記内視鏡は同時に複数方向から観察可能であり、
     前記プロセッサは、前記関心領域を中心とした視野範囲を前記複数方向からの前記撮像画像情報を合成して前記モニタに表示させる、請求項24に記載のシステム。
PCT/JP2018/004037 2017-12-14 2018-02-06 内視鏡の表示画像の調整装置及び手術システム WO2019116592A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762598913P 2017-12-14 2017-12-14
US62/598,913 2017-12-14

Publications (1)

Publication Number Publication Date
WO2019116592A1 true WO2019116592A1 (ja) 2019-06-20

Family

ID=66819136

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2018/004038 WO2019116593A1 (ja) 2017-12-14 2018-02-06 手術支援装置
PCT/JP2018/004037 WO2019116592A1 (ja) 2017-12-14 2018-02-06 内視鏡の表示画像の調整装置及び手術システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/004038 WO2019116593A1 (ja) 2017-12-14 2018-02-06 手術支援装置

Country Status (2)

Country Link
US (1) US11974716B2 (ja)
WO (2) WO2019116593A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021029293A1 (ja) * 2019-08-13 2021-02-18 富士フイルム株式会社 医用画像処理装置、内視鏡システム、及び医用画像処理方法
WO2021200139A1 (ja) * 2020-03-31 2021-10-07 ソニーグループ株式会社 医療用画像処理システム、画像処理方法、および医療用画像処理装置
WO2022044617A1 (ja) * 2020-08-24 2022-03-03 富士フイルム株式会社 画像処理装置、方法及びプログラム
WO2022054882A1 (ja) * 2020-09-10 2022-03-17 オリンパス株式会社 制御装置、内視鏡システムおよび制御方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018098465A1 (en) 2016-11-28 2018-05-31 Inventio, Inc. Endoscope with separable, disposable shaft
JP2021049198A (ja) * 2019-09-25 2021-04-01 株式会社日立製作所 手術支援装置及び手術ナビゲーションシステム
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
CN116194027A (zh) * 2020-07-28 2023-05-30 富士胶片株式会社 内窥镜系统及其工作方法
WO2022050227A1 (en) * 2020-09-01 2022-03-10 Sony Group Corporation Medical information control system, signal processing device, and medical information control method
WO2022050310A1 (ja) * 2020-09-03 2022-03-10 テルモ株式会社 プログラム、情報処理装置、情報処理方法及びモデル生成方法
JP2022180177A (ja) * 2021-05-24 2022-12-06 富士フイルム株式会社 内視鏡システム、医療画像処理装置及びその作動方法
JPWO2022264192A1 (ja) * 2021-06-14 2022-12-22
US20220401179A1 (en) 2021-06-22 2022-12-22 Olympus Corporation Surgical support system, surgical support method, and information storage medium
JP2023005896A (ja) * 2021-06-29 2023-01-18 富士フイルム株式会社 内視鏡システム、医療画像処理装置及びその作動方法
JP7081862B1 (ja) * 2021-11-26 2022-06-07 株式会社Jmees 手術支援システム、手術支援方法、及び手術支援プログラム
JP7148193B1 (ja) 2021-11-26 2022-10-05 株式会社Jmees 手術支援システム、手術支援方法、及び手術支援プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05337118A (ja) * 1992-06-04 1993-12-21 Olympus Optical Co Ltd スコープ保持装置
JPH08336497A (ja) * 1995-06-09 1996-12-24 Olympus Optical Co Ltd 体腔内観察装置
JP2004199004A (ja) * 2002-12-20 2004-07-15 Olympus Corp 音声入力医用制御システム
WO2017061495A1 (ja) * 2015-10-08 2017-04-13 オリンパス株式会社 内視鏡システム
WO2017110459A1 (ja) * 2015-12-22 2017-06-29 オリンパス株式会社 内視鏡用画像処理装置及び内視鏡システム
WO2017145475A1 (ja) * 2016-02-24 2017-08-31 ソニー株式会社 医療用情報処理装置、情報処理方法、医療用情報処理システム
WO2017160792A1 (en) * 2016-03-14 2017-09-21 Endochoice, Inc. System and method for guiding and tracking a region of interest using an endoscope

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1080396A (ja) * 1996-09-09 1998-03-31 Nippon Colin Co Ltd 内視鏡装置
JP4152402B2 (ja) 2005-06-29 2008-09-17 株式会社日立メディコ 手術支援装置
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
JP5028191B2 (ja) * 2007-09-03 2012-09-19 オリンパスメディカルシステムズ株式会社 内視鏡装置
US10117721B2 (en) * 2008-10-10 2018-11-06 Truevision Systems, Inc. Real-time surgical reference guides and methods for surgical applications
EP2583619B1 (en) * 2011-10-22 2022-03-16 Alcon Inc. Apparatus for monitoring one or more surgical parameters of the eye
JP2014135974A (ja) * 2013-01-15 2014-07-28 Toshiba Corp X線診断装置
US10849689B1 (en) * 2016-08-26 2020-12-01 Smith & Nephew, Inc. Technologies for preoperative implant size estimation
CN107887018B (zh) * 2016-09-30 2021-09-10 上海微创医疗器械(集团)有限公司 术前评估系统以及术前评估方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05337118A (ja) * 1992-06-04 1993-12-21 Olympus Optical Co Ltd スコープ保持装置
JPH08336497A (ja) * 1995-06-09 1996-12-24 Olympus Optical Co Ltd 体腔内観察装置
JP2004199004A (ja) * 2002-12-20 2004-07-15 Olympus Corp 音声入力医用制御システム
WO2017061495A1 (ja) * 2015-10-08 2017-04-13 オリンパス株式会社 内視鏡システム
WO2017110459A1 (ja) * 2015-12-22 2017-06-29 オリンパス株式会社 内視鏡用画像処理装置及び内視鏡システム
WO2017145475A1 (ja) * 2016-02-24 2017-08-31 ソニー株式会社 医療用情報処理装置、情報処理方法、医療用情報処理システム
WO2017160792A1 (en) * 2016-03-14 2017-09-21 Endochoice, Inc. System and method for guiding and tracking a region of interest using an endoscope

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021029293A1 (ja) * 2019-08-13 2021-02-18 富士フイルム株式会社 医用画像処理装置、内視鏡システム、及び医用画像処理方法
JPWO2021029293A1 (ja) * 2019-08-13 2021-02-18
WO2021200139A1 (ja) * 2020-03-31 2021-10-07 ソニーグループ株式会社 医療用画像処理システム、画像処理方法、および医療用画像処理装置
WO2022044617A1 (ja) * 2020-08-24 2022-03-03 富士フイルム株式会社 画像処理装置、方法及びプログラム
WO2022054882A1 (ja) * 2020-09-10 2022-03-17 オリンパス株式会社 制御装置、内視鏡システムおよび制御方法

Also Published As

Publication number Publication date
US11974716B2 (en) 2024-05-07
WO2019116593A1 (ja) 2019-06-20
US20200297422A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
WO2019116592A1 (ja) 内視鏡の表示画像の調整装置及び手術システム
US11779418B2 (en) System and apparatus for positioning an instrument in a body cavity for performing a surgical procedure
US20200397515A1 (en) Interface for Laparoscopic Surgeries - Movement Gestures
US11638615B2 (en) Intelligent surgical tool control system for laparoscopic surgeries
EP2675366B1 (en) Indicator for knife location in a stapling or vessel sealing instrument
CN108697304B (zh) 医疗用信息处理装置、信息处理方法、医疗用信息处理系统
EP3426128B1 (en) Image processing device, endoscopic surgery system, and image processing method
KR20140112207A (ko) 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
JP2006218129A (ja) 手術支援システム
JP6598982B2 (ja) 内視鏡装置、内視鏡システム、及びそれらを備えた手術システム
US20200084379A1 (en) Control apparatus, control method, and program
JP6387367B2 (ja) 血管穿孔機の内視鏡支援による配置
JP4027876B2 (ja) 体腔内観察システム
CN110651333A (zh) 手术成像系统、方法和计算机程序产品
WO2019155931A1 (ja) 手術システム、画像処理装置及び画像処理方法
JP2023537882A (ja) 管腔内ロボット(elr)システム及び方法
JPWO2018173681A1 (ja) 医療用システムの制御装置、医療用システムの制御方法及び医療用システム
KR20120052574A (ko) 수술용 로봇 시스템 및 수술용 로봇 시스템의 내시경 구동방법
JP2023507063A (ja) 手術中に画像取込装置を制御するための方法、装置、およびシステム
JP2001238205A (ja) 内視鏡システム
JP7044140B2 (ja) 手術支援システム、画像処理方法及び情報処理装置
WO2021181502A1 (ja) 手術支援システム、手術支援システムの作動方法および手術支援システムの制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18889646

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18889646

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP