WO2023286336A1 - システム、プログラム及び判定方法 - Google Patents

システム、プログラム及び判定方法 Download PDF

Info

Publication number
WO2023286336A1
WO2023286336A1 PCT/JP2022/009693 JP2022009693W WO2023286336A1 WO 2023286336 A1 WO2023286336 A1 WO 2023286336A1 JP 2022009693 W JP2022009693 W JP 2022009693W WO 2023286336 A1 WO2023286336 A1 WO 2023286336A1
Authority
WO
WIPO (PCT)
Prior art keywords
energy
tissue
image
learning
output
Prior art date
Application number
PCT/JP2022/009693
Other languages
English (en)
French (fr)
Inventor
貫太郎 西川
雅敏 飯田
新二 安永
吉隆 本田
豪 新井
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2023535111A priority Critical patent/JPWO2023286336A5/ja
Publication of WO2023286336A1 publication Critical patent/WO2023286336A1/ja
Priority to US18/368,100 priority patent/US20230419486A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • A61B18/1442Probes having pivoting end effectors, e.g. forceps
    • A61B18/1445Probes having pivoting end effectors, e.g. forceps at the distal end of a shaft, e.g. forceps or scissors at the end of a rigid rod
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N7/02Localised ultrasound hyperthermia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/0042Surgical instruments, devices or methods, e.g. tourniquets with special provisions for gripping
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00577Ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00636Sensing and controlling the application of energy
    • A61B2018/00696Controlled or regulated parameters
    • A61B2018/00702Power or energy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00636Sensing and controlling the application of energy
    • A61B2018/00773Sensed parameters
    • A61B2018/00791Temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00636Sensing and controlling the application of energy
    • A61B2018/00898Alarms or notifications created in response to an abnormal condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0538Measuring electrical impedance or conductance of a portion of the body invasively, e.g. using a catheter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Definitions

  • the present invention relates to systems, programs, determination methods, and the like.
  • Patent Literature 1 discloses a surgical system that determines the type of tissue grasped by an energy device based on energy device energy output data and tissue position, patient status, or optical tissue sensor information. For example, vascular or non-vascular, presence or absence of nerves, etc. are recognized as tissue types. This surgical system stops energy output and warns the user when the treatment content for the recognized type is inappropriate.
  • Patent Document 1 does not consider the degree of heat diffusion to or around the tissue to be treated or the prevention of heat diffusion, the energy output is appropriately adjusted according to the state of the tissue or device during treatment by the energy device.
  • I have a problem that I can't. Specifically, if heat diffusion occurs widely or rapidly due to the treatment tissue or the like, the heat may propagate to the important tissue before thermally denaturing the treatment target tissue, causing thermal damage to the important tissue.
  • providing various sensors such as an optical tissue sensor is not preferable from the viewpoint of sterilization.
  • One aspect of the present disclosure is a learning device tissue image that is an image obtained by capturing at least one energy device and at least one biological tissue during energy output that receives energy supply and outputs energy, or the at least one biological tissue estimating a thermal diffusion region from the energy device to the living tissue and a specific tissue region in the living tissue, generated by energy output from the energy device, from a learning tissue image that is an image of the tissue captured;
  • a captured image that is an image during energy output in which at least one of the energy devices and at least one of the living tissues is imaged, including a storage unit that stores a trained model that has been learned, and a control unit.
  • the thermal diffusion region and the specific tissue region are estimated from the captured image by processing based on the learned model stored in the storage unit, and from the estimated thermal diffusion region and the specific tissue region, It relates to a system for determining the risk of thermal damage to the specific tissue due to the energy output of the energy device.
  • another aspect of the present disclosure is to acquire in real time a captured image that is an image of at least one energy device outputting energy that receives energy supply and outputs energy and at least one living tissue; From the learning device tissue image, which is an image obtained by imaging the at least one energy device during energy output and the at least one biological tissue, or the learning tissue image, which is an image obtained by imaging the at least one biological tissue, Learning to output image recognition information, which is at least one of information related to a thermal diffusion area from the energy device to the living tissue and a specific tissue area in the living tissue generated by the energy output of the energy device. estimating the image recognition information from the captured image, and determining the risk of thermal damage to the specific tissue due to the energy output of the energy device from the estimated image recognition information, by processing based on the completed model. related to the program you want to run.
  • another aspect of the present disclosure is to acquire in real time a captured image that is an image of at least one energy device outputting energy that receives energy supply and outputs energy and at least one living tissue; From the learning device tissue image, which is an image obtained by imaging the at least one energy device during energy output and the at least one biological tissue, or the learning tissue image, which is an image obtained by imaging the at least one biological tissue, Learning to output image recognition information, which is at least one of information related to a thermal diffusion area from the energy device to the living tissue and a specific tissue area in the living tissue generated by the energy output of the energy device.
  • the thermal damage risk is determined by estimating the image recognition information from the captured image and determining the thermal damage risk of the specific tissue due to the energy output of the energy device from the estimated image recognition information by processing based on the completed model. It is related to the method of making the determination of
  • FIG. 4 is an explanatory diagram when the control unit detects a specific tissue;
  • FIG. 4 is an explanatory diagram when a control unit detects a thermal diffusion area;
  • Explanatory drawing when a control part determines a heat damage risk.
  • An example of output adjustment when the control unit adjusts the energy output.
  • a configuration example of a learning device Explanatory diagram of the learning stage for estimating important tissues. Examples of images used in the learning phase for estimating the thermal diffusion region. Explanatory drawing of 2nd Embodiment.
  • FIG. 4 is an explanatory diagram of input information used in a processing example of the embodiment; FIG. 4 is a diagram showing the dependence of the distance between the specific tissue region and the heat diffusion region on the energy output time.
  • Explanatory drawing of the input information of 3rd Embodiment Explanatory drawing of the learning stage for estimating the thermal diffusion region.
  • Explanatory drawing of 4th Embodiment Explanatory drawing of the learning stage for estimating the thermal diffusion region.
  • a processing example of the fifth embodiment. A processing example of the sixth embodiment.
  • FIG. 1 is a configuration example of a system 10 in this embodiment.
  • FIG. 1 shows an example of a system configuration for photographing an operative field with an endoscope.
  • System 10 shown in FIG. 1 includes controller 100 , endoscope system 200 , generator 300 and energy device 310 .
  • System 10 is a surgical system for performing surgery using at least one energy device under an endoscope. Although an example in which the system 10 includes one energy device 310 is shown here, the system 10 may include multiple energy devices.
  • the endoscope system 200 is a system that performs imaging with an endoscope, image processing of endoscopic images, and monitor display of endoscopic images.
  • Endoscope system 200 includes endoscope 210 , main unit 220 and display 230 .
  • a rigid endoscope for surgical operation will be described as an example.
  • the endoscope 210 includes an insertion section to be inserted into a body cavity, an operation section connected to the proximal end of the insertion section, a universal cord connected to the proximal end of the operation section, and connected to the proximal end of the universal cord. and a connector portion.
  • the insertion section includes a rigid tube, an objective optical system, an imaging device, an illumination optical system, a transmission cable, and a light guide.
  • An objective optical system and an imaging element for photographing the inside of the body cavity, and an illumination optical system for illuminating the inside of the body cavity are provided at the distal end of an elongated cylindrical rigid tube.
  • the distal end of the rigid tube may be configured to be bendable.
  • a transmission cable that transmits an image signal acquired by the imaging element and a light guide that guides illumination light to the illumination optical system are provided inside the rigid tube.
  • the operation unit is held by a user and receives operations from the user.
  • the operation unit is provided with buttons to which various functions are assigned.
  • the operation section is provided with an angle operation lever.
  • the connector section includes a video connector that detachably connects a transmission cable to main device 220 and a light guide connector that detachably connects a light guide to main device 220 .
  • the main device 220 includes a processing device that performs endoscope control, image processing of an endoscopic image, and display processing of an endoscopic image, and a light source device that generates and controls illumination light.
  • the main unit 220 is also called a video system center.
  • the processing device is composed of a processor such as a CPU, processes an image signal transmitted from the endoscope 210 to generate an endoscopic image, and outputs the endoscopic image to the display 230 and the controller 100 .
  • the illumination light emitted by the light source device is guided by the light guide to the illumination optical system and emitted from the illumination optical system into the body cavity.
  • the energy device 310 outputs energy in the form of high-frequency power, ultrasonic waves, or the like from its tip, thereby performing treatments such as coagulation, sealing, hemostasis, incision, dissection, or ablation on the tissue with which the tip is in contact. It is a device that performs The energy device 310 is also called an energy treatment instrument.
  • the energy device 310 includes a monopolar device that applies high-frequency power between the electrode at the tip of the device and an electrode outside the body, a bipolar device that applies high-frequency power between two jaws, a probe and jaws, and ultrasonic waves from the probe.
  • An ultrasound device that emits ultrasonic waves, or a combination device that applies high-frequency power between a probe and a jaw and emits ultrasonic waves from the probe.
  • the generator 300 supplies energy to the energy device 310 , controls the energy supply, and acquires electrical information from the energy device 310 .
  • the generator 300 supplies RF power and the energy device 310 outputs that RF power from the electrodes or jaws.
  • the generator 300 supplies power, and the probe of the energy device 310 converts that power into ultrasound and outputs it.
  • the electrical information is the electrical information of the tissue with which the electrodes, probes, or jaws of the energy device 310 are in contact. Specifically, it is the information obtained as a response to the energy device 310 outputting high-frequency power to the tissue. Electrical information is, for example, impedance information of tissue treated by energy device 310 . However, the electrical information is not limited to impedance information as will be described later.
  • the generator 300 performs control to temporally change the energy output from the energy device 310 according to the output sequence.
  • Generator 300 may vary its energy output in response to changes in impedance information over time.
  • the output sequence may define how the energy output varies with changes in the impedance information.
  • the generator 300 may automatically turn off the energy output according to the temporal change of the impedance information. For example, the generator 300 may determine that the treatment is completed and turn off the energy output when the impedance rises above a certain level.
  • the controller 100 recognizes the living tissue and the energy device 310 from the endoscopic image by image recognition processing using machine learning or the like, and outputs an energy output adjustment instruction to the generator 300 based on the recognized information.
  • Information about the living tissue recognized from the endoscopic image, information about the energy device 310, or both of these are called image recognition information. These pieces of information are information on matters affecting heat diffusion by the energy device 310 .
  • the energy device 310 is an energy device such as a monopolar device 320, a bipolar device 330, an ultrasonic device 340, etc., as described in FIGS. 4 to 6 below, but may be other than these.
  • the generator 300 adjusts the energy output of the energy device 310 according to the energy output adjustment instruction. That is, the system 10 of this embodiment is a system that automatically adjusts the energy output from the energy device 310 based on the endoscopic image.
  • the generator 300 supplies energy to the energy device 310 at the energy supply amount instructed by the energy output adjustment instruction, and the energy device 310 receives the energy supply and outputs energy, so that the energy output is increased according to the energy output adjustment instruction. adjusted.
  • the energy output adjustment instruction is an instruction to increase or decrease the output of the entire waveform of the output sequence, or an instruction to set one of a plurality of selectable output sequences.
  • the energy output adjustment instructions are instructions indicating the stepwise scale factor for the energy output.
  • the generator 300 increases or decreases the high frequency output or the ultrasonic output according to the indicated magnification. Magnification may be continuously adjustable.
  • the energy output adjustment instruction is an instruction indicating any one of the plurality of output sequences.
  • Generator 300 outputs energy from energy device 310 according to the instructed output sequence.
  • the energy output adjustment instruction may include both an instruction to increase or decrease the energy output and an instruction to change the output sequence.
  • Controller FIG. 2 is a configuration example of the controller 100 .
  • Controller 100 includes control unit 110 , storage unit 120 , I/O device 180 and I/O device 190 .
  • 1 and 2 show an example in which the controller 100 is configured as a separate device from the generator 300.
  • the controller 100 is configured by an information processing device such as a PC or a server device.
  • the controller 100 may be implemented in a cloud or the like in which one or a plurality of information processing devices connected via a network execute processing.
  • the I/O device 180 receives image data of endoscopic images from the main unit 220 of the endoscope system 200 .
  • the I/O device 180 is a connector to which a cable for image transmission is connected, or an interface circuit connected to the connector to communicate with the main device 220 .
  • the control unit 110 estimates the specific tissue and the heat diffusion region from the endoscopic image by image recognition processing using the trained model 121, and outputs an energy output adjustment instruction based on the estimation result.
  • Control unit 110 includes one or more processors as hardware.
  • the processor is a general-purpose processor such as a CPU (Central Processing Unit), GPU (Graphical Processing Unit) or DSP (Digital Signal Processor).
  • the processor may be a dedicated processor such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).
  • the storage unit 120 stores a trained model 121 used for image recognition processing.
  • storage unit 120 stores a program describing an inference algorithm and parameters used in the inference algorithm as trained model 121 .
  • Trained models 121 include a first trained model 122 and a second trained model 123 .
  • the first trained model 122 is a trained model 121 for estimating a specific tissue region, which will be described later with reference to FIG. 12, and the second trained model 123 is a trained model 121 for estimating a thermal diffusion region.
  • the storage unit 120 stores parameters used in the inference algorithm as a trained model 121 .
  • the storage unit 120 is a storage device such as a semiconductor memory, hard disk drive, or optical disk drive.
  • the semiconductor memory may be RAM, ROM, non-volatile memory, or the like.
  • a neural network for example, can be used as an inference algorithm for image recognition processing. Weighting factor and bias of node-to-node connection in neural network are parameters.
  • a neural network consists of an input layer that receives image data, an intermediate layer that performs arithmetic processing on the data input through the input layer, and an output layer that outputs recognition results based on the operation results output from the intermediate layer. ,including.
  • a neural network used for image recognition processing for example, a CNN (Convolutional Neural Network) can be employed.
  • the control unit 110 also includes a thermal diffusion detection unit 111 , an important tissue detection unit 112 , a heat damage risk determination unit 114 and an output setting unit 113 .
  • the storage unit 120 stores a program in which functions of the thermal diffusion detection unit 111, the important tissue detection unit 112, the thermal damage risk determination unit 114, and the output setting unit 113 are described.
  • One or more processors of the control unit 110 read out the program from the storage unit 120 and execute the program, so that the thermal diffusion detection unit 111, the important tissue detection unit 112, the heat damage risk determination unit 114, and the output setting unit 113 Realize the function of each part of
  • a program describing the function of each unit can be stored in a non-temporary information storage medium that is a computer-readable medium.
  • the information storage medium can be implemented by, for example, an optical disc, memory card, HDD, semiconductor memory, or the like.
  • the semiconductor memory is for example ROM or non-volatile memory.
  • the I/O device 190 transmits an energy output adjustment instruction signal to the generator 300 .
  • the I/O device 190 is a connector to which a signal transmission cable is connected, or an interface circuit connected to the connector to communicate with the generator 300 .
  • FIG. 3 is a flow chart explaining the processing performed by the controller 100 and the system 10.
  • the control unit 110 acquires an endoscope image from the main unit 220 of the endoscope system 200 via the I/O device 180 .
  • the control unit 110 executes steps S2A and S2B.
  • step S2A the important tissue detection unit 112 performs image recognition processing using the first trained model 122 on the endoscopic image, thereby estimating and detecting the important tissue from the image.
  • the thermal diffusion detection unit 111 performs image recognition processing using the second trained model 123 on the endoscopic image, thereby estimating the thermal diffusion area around the jaw of the energy device 310. To detect.
  • a thermal diffusion area is an area where heat is diffused by the energy output of the energy device 310 .
  • the thermal damage risk determination unit 114 determines the risk of heat diffusing into the important tissue and causing thermal damage to the important tissue based on the estimation results in steps S2A and S2B. Send a signal to 113.
  • Thermal damage includes, for example, denaturation of proteins, deactivation of intracellular enzymes, and the like. Below, the said risk is described as a heat damage risk.
  • the output setting section 113 adjusts the energy output of the energy device 310 based on the signal.
  • FIG. 4 is a configuration example of the monopolar device 320.
  • the monopolar device 320 includes an elongated cylindrical insertion portion 322, an electrode 321 provided at the distal end of the insertion portion 322, an operation portion 323 connected to the proximal end of the insertion portion 322, an operation portion 323 and a connector (not shown). and a cable 325 connecting the .
  • the connector is detachably connected to generator 300 .
  • the high-frequency power output by the generator 300 is transmitted through the cable 325 and output from the electrode 321 .
  • a counter electrode is provided outside the patient's body, and current is passed between the electrode 321 and the counter electrode. Thereby, high-frequency energy is applied to the tissue with which the electrode 321 is in contact, and Joule heat is generated in the tissue.
  • Various shapes of electrodes are employed for the electrodes 321 depending on the content of the treatment.
  • the monopolar device 320 can adjust the degree of coagulation and incision by changing the energization pattern. In general, the treatment target of the monopolar device 320 is the tissue with which the electrode 321 is in contact, but the surrounding tissue may be affected by the heat diffused around the tissue with which the electrode 321 is in contact.
  • FIG. 5 is a configuration example of the bipolar device 330.
  • the bipolar device 330 includes an elongated cylindrical insertion portion 332, two jaws 337 and 338 provided at a distal end portion 331 of the insertion portion 332, an operation portion 333 connected to the proximal end of the insertion portion 332, and an operation portion 333. and a cable 335 connecting the connector (not shown).
  • the connector may be removably connected to generator 300 .
  • Jaws 337 and 338 are grasping portions for grasping tissue and applying energy to the grasped tissue, and are configured to be openable and closable about an axis provided at proximal end 336 .
  • the operation portion 333 is provided with a grip portion for opening and closing the jaws 337 and 338 . As the doctor squeezes the grasper, the jaws 337, 338 close and grasp the tissue.
  • the high-frequency power output by the generator 300 is transmitted by the cable 335 and conducts electricity between the two jaws 337, 338 when the jaws 337, 338 grip the tissue.
  • high-frequency energy is applied to the tissue sandwiched between the two jaws 337 and 338, generating Joule heat in the tissue and coagulating the tissue.
  • the generator 300 may measure impedance information of the tissue grasped by the jaws 337, 338, detect treatment completion based on the impedance information, and automatically stop energy output.
  • the generator 300 may also automatically adjust the energy applied to the tissue based on the impedance information.
  • the device temperature of the bipolar device 330 only rises, for example, to about 100 degrees Celsius, there is a possibility that a stray current will occur around the portion gripped by the jaws 337 and 338, and that stray current will cause heat diffusion.
  • a vessel sealing device is a device in which a cutter is provided on the jaw of a bipolar device. After coagulating tissue by energization, the tissue is cut by running the cutter.
  • FIG. 6 is a configuration example of the ultrasonic device 340.
  • the ultrasonic device 340 includes an elongated cylindrical insertion portion 342, a jaw 347 and a probe 348 provided at a distal end portion 341 of the insertion portion 342, an operation portion 343 connected to the proximal end of the insertion portion 342, and an operation portion 343. and a cable 345 connecting the connector (not shown).
  • the connector is detachably connected to generator 300 .
  • the jaw 347 is movable around an axis provided at the proximal end 346 and configured to be openable and closable with respect to the immovable probe 348 .
  • the operation portion 343 is provided with a grip portion for opening and closing the jaws 347 .
  • the operation unit 343 is provided with an operation button 344a to which the first output mode is assigned and an operation button 344b to which the second output mode is assigned.
  • the output mode is selected according to the treatment content, and when the operation button for each output mode is pressed, ultrasonic energy is output in the output sequence of that mode.
  • the number of operation buttons provided on the operation unit 343 is not limited to the configuration in FIG.
  • the power output by the generator 300 is transmitted by the cable 335, and when the operation button 344a or 344b is pressed, the probe 348 converts the power into ultrasonic waves and outputs them. As a result, frictional heat is generated in the tissue sandwiched between jaw 347 and probe 348, and the tissue is coagulated or dissected.
  • a combination device that uses both high-frequency power and ultrasonic waves has the same configuration as the ultrasonic device in FIG. 6, for example.
  • the combination device can generate Joule heat in the tissue gripped by the jaw and the probe by applying high-frequency power between the jaw and the probe, and coagulate the tissue. Further, the combination device can incise the tissue gripped by the jaws and the probe by outputting ultrasonic waves from the probe, like the ultrasonic device.
  • a high frequency mode is assigned to one of the two operation buttons provided on the operation unit, and a seal & cut mode is assigned to the other.
  • the high-frequency mode is a mode in which treatment such as coagulation is performed only by high-frequency energy output.
  • the seal & cut mode is a mode that uses both high-frequency energy and ultrasonic energy, and is a mode that coagulates and cuts tissue by outputting high-frequency energy.
  • thermal diffusion of combination devices for example, thermal diffusion similar to bipolar devices, thermal diffusion similar to ultrasonic devices, or both may occur.
  • the bipolar device 330 is mainly used as the energy device 310 will be described as an example. However, this embodiment is applicable when using various energy devices described above in which thermal diffusion may occur.
  • FIG. 7 shows a processing example of the first embodiment.
  • an endoscopic image is input to the control unit 110 as shown in S21. Specifically, each frame image of the moving image captured by the endoscope is sequentially input to the control unit 110 .
  • An endoscopic image input to the control unit 110 shows one or more energy devices that are outputting energy and one or more living tissues.
  • the control unit 110 detects important tissues from the endoscopic image by executing an estimation program adjusted by machine learning. Specifically, the control unit 110 detects the important tissue by inputting the endoscopic image during surgery to a network having an estimation program learned by annotating the important tissue to the endoscopic image.
  • important tissues include, but are not limited to, large blood vessels, pancreas, duodenum, and the like.
  • FIG. 8 is a diagram explaining the detection of the important tissue shown in S22A of FIG. As shown in FIG. 8, the control unit 110 estimates the region of the important tissue from the subject captured in the endoscopic image based on the estimation program, and colors the region of the important tissue. do the labeling. Then, the control unit 110 outputs the labeled endoscopic image to the heat damage risk determination unit 114 .
  • the control unit 110 detects the heat diffusion area from the endoscopic image by executing the estimation program described above.
  • the control unit 110 inputs the endoscopic image during surgery to a network having an estimation program learned by annotating the temperature range above the threshold to the endoscopic image, thereby detecting the heat diffusion region. do.
  • FIG. 9 is a diagram explaining the detection of the thermal diffusion area in S22B of FIG.
  • the control unit 110 colors an area of the internal organ shown in the endoscopic image that is estimated to have a temperature equal to or higher than a predetermined temperature. Label the extent of diffusion. Then, the control unit 110 outputs the labeled endoscopic image to the heat damage risk determination unit 114 .
  • the above-described labeling of the important tissue and the heat diffusion region may be performed by means other than color.
  • the thermal damage risk determination unit 114 of the control unit 110 receives the information of the estimation result of the important tissue and the thermal diffusion area, and calculates the thermal damage risk of the important tissue based on the estimation result. judgment is made.
  • FIG. 10 is a diagram for explaining a technique for determining the heat damage risk in S23 of FIG. Based on the endoscopic images output from the important tissue detection unit 112 and the heat diffusion detection unit 111, the heat damage risk determination unit 114 of the control unit 110 labels important tissues and heat diffusion regions as shown in FIG. generates an image in which is superimposed and displayed. Then, the distance between the region estimated to be the important tissue and the region estimated to have a temperature equal to or higher than a predetermined temperature is calculated.
  • FIG. 10 is a diagram for explaining a technique for determining the heat damage risk in S23 of FIG.
  • the distance is the actual distance between the heat diffusion area shown in gray around the jaws and the closest portion of the stomach, which is the critical tissue, for example, if the energy device 310 is a bipolar device.
  • the distance can be obtained, for example, by analyzing an image displayed on the display 230 .
  • the control unit 110 uses the distance as a margin M to determine the thermal damage risk.
  • the margin M is data or the like that can be used by the control unit 110 as information for determining the risk of thermal damage. For example, the distance described above is the margin M.
  • Thermal damage risk determination unit 114 outputs a signal regarding the determination result as to the presence or absence of thermal damage risk described above to output setting unit 113 .
  • the output setting unit 113 issues an output change instruction based on the signal output by the thermal damage risk determination unit 114.
  • storage unit 120 stores table data about energy output adjustment instructions corresponding to the presence or absence of thermal damage risk
  • control unit 110 refers to the table data to determine the presence or absence of thermal damage risk.
  • a corresponding energy output adjustment instruction is output to generator 300 via I/O device 190 .
  • Generator 300 then adjusts the output sequence of the bipolar device in accordance with the energy output adjustment instruction output by control section 110 .
  • the algorithm for outputting the energy output adjustment instruction according to the presence or absence of heat damage risk is not limited to the above. FIG.
  • FIG. 11 shows an example of output adjustment when the output setting unit 113 of the control unit 110 issues an energy output adjustment instruction based on the result of the heat damage risk determination.
  • the output setting unit 113 determines that there is a risk of thermal damage to important tissues, it adjusts the output so as to weaken the energy output. Specifically, the output setting unit 113 suppresses or stops voltage, power, or the like. Also, if it is determined that there is no risk of thermal damage to important tissues, the energy output is adjusted so as to maintain or increase the energy output.
  • the output setting unit 113 outputs signals regarding these output adjustment instructions to the generator 300 .
  • control unit 110 recognizes the important tissue and the heat diffusion area due to the energy output from the endoscopic image, and when it is determined that there is a risk of thermal damage to the important tissue, automatic adjustment of the energy output of the generator 300 is performed. done.
  • the threshold value of the margin M for determining the presence or absence of the thermal damage risk may differ according to the tissue type of the specific tissue detected in S22A.
  • the threshold may be variable. By doing so, it is possible to avoid the occurrence of thermal damage to the organ for which the occurrence of thermal damage is particularly problematic. For example, in the case of living tissue such as the pancreas and duodenum, the margin M is increased, and in the case of living tissue such as the stomach and liver, the margin M is decreased. The occurrence of thermal damage to vital tissues with a greater degree of severity can be avoided.
  • the energy output adjustment instruction is an instruction to increase, decrease, or maintain the energy output based on the reference energy output.
  • the generator 300 has an operation unit that accepts an energy output setting operation, and the energy output can be set to one of five levels of intensity 1 to 5, for example, by the operation unit. An intensity of 1 indicates the lowest energy output and an intensity of 5 indicates the highest energy output.
  • the reference energy output is, for example, a predetermined energy output such as "intensity 3".
  • the instruction to increase the reference energy output is an instruction to set "intensity 4" or "intensity 5"
  • the instruction to decrease the reference energy output is to set "intensity 2" or "intensity 1".
  • the reference energy output may be the current energy output set by the operator of generator 300 .
  • an instruction to increase the energy output above the reference energy output is an instruction to set the energy output higher than the currently set energy output
  • an instruction to decrease the energy output below the reference energy output is an instruction to increase the energy output below the currently set energy output.
  • the reference energy output may be a range of intensities 1-5 that can be set on the generator 300 .
  • the instruction to increase the reference energy output is an instruction to set the energy output higher than "intensity 5"
  • the instruction to decrease the reference energy output is to set the energy output lower than "intensity 1". This is an instruction to
  • the system 10 acquires captured images in which the energy device 310 and living tissue are captured, estimates the thermal diffusion region and the specific tissue region by processing based on the learned model, Determine the risk of thermal injury to specific tissues by Based on this thermal damage risk, the system 10 can adjust the appropriate amount of energy applied to the tissue to be treated, thereby reducing the risk of causing thermal damage to critical tissue without noticing thermal diffusion. In this way, the system 10 adjusts the output energy of the energy device, which has been conventionally performed by a doctor, thereby reducing the burden on the doctor. In addition, since the system 10 autonomously adjusts the output, even a non-expert can perform stable treatment. As described above, the stability of the operation can be improved, or the uniformity of the procedure can be achieved without depending on the experience of the doctor.
  • FIG. 12 is a configuration example of a learning device 500 that performs machine learning for estimation processing of important tissues and heat diffusion regions.
  • the learning device 500 is implemented by an information processing device such as a PC or a server device, and includes a processing unit 510 and a storage unit 520 .
  • the processing unit 510 is a processor such as a CPU
  • the storage unit 520 is a storage device such as a semiconductor memory or hard disk drive.
  • Storage unit 520 stores learning model 522 and teacher data 521 .
  • the teacher data 521 includes first teacher data 521A and second teacher data 521B.
  • Learning models 522 also include a first learning model 522A and a second learning model 522B.
  • the processing unit 510 causes the learning model 522 to learn using the teacher data 521 to generate the trained model 121 .
  • the teacher data 521 includes image data of a plurality of learning images and correct data attached to each learning image.
  • the first teacher data 521A is data about the important tissue
  • the second teacher data 521B is data about the thermal diffusion area.
  • the first learning model 522A is a learning model for important tissues
  • the second learning model 522B is a learning model for thermal diffusion regions.
  • the plurality of training images includes endoscopic images showing one or more body tissues and one or more energy devices 310 . This endoscopic image is also called a learning device tissue image. Also, the plurality of learning images may include endoscopic images in which one or a plurality of living tissues are shown and the energy device 310 is not shown. This endoscopic image is also called a learning tissue image. Correct data are annotations in segmentation (area detection), annotations in detection (position detection), correct labels in classification, or correct labels in regression (regression analysis).
  • the processing unit 510 inputs a learning image to the inference processing by the learning model 522, feeds back to the learning model 522 based on the error between the result of the inference processing and the correct data, and repeats it with a large number of teacher data. , to generate a trained model 121 .
  • the generated learned model 121 is transferred to the storage unit 120 of the controller 100 .
  • FIG. 13 is a diagram explaining the learning stage for estimating important organizations.
  • a learning device 500 (not shown) feeds back a learning device tissue image or a learning tissue image as first teacher data 521A to a first learning model 522A.
  • a learning device tissue image is an image obtained by capturing at least one energy device 310 that is receiving energy and outputting energy, and at least one living tissue.
  • a tissue image for learning is an image obtained by capturing at least one living tissue. Then, the learning device tissue image or the learning tissue image is labeled with the region of the important tissue on the image. The labeling is applied, for example, by a doctor.
  • the control unit 110 can estimate the important tissue. The accuracy is improved.
  • FIG. 14 is an example of an endoscope image obtained by coloring the thermal diffusion range of various living tissues using temperature information captured by a thermo camera.
  • the thermal diffusion state is displayed in three temperature ranges of 59 degrees Celsius or below, 60 degrees Celsius to 79 degrees Celsius, and above the threshold temperature.
  • the threshold temperature is a temperature at which there is a risk of thermal damage when the temperature exceeds the threshold temperature, and in the case of FIG. 14, it is 80 degrees Celsius. In this case, the image shown in FIG.
  • risk assessment based on a simple temperature range risk assessment based on the history of the product of temperature and time, risk assessment based on the amount of heating, or risk assessment based on activation energy by the Arrhenius equation is known.
  • simple temperature ranges for example, 60 degrees Celsius or 50 degrees Celsius is the basis for risk assessment.
  • 0.1 seconds at 60 degrees Celsius or 0.1 seconds at 50 degrees Celsius is the criterion for risk evaluation.
  • Risk assessment based on the amount of heat is used for cauterization of the liver and the like, and risk assessment based on activation energy by the Arrhenius equation is mainly used for burns.
  • FIG. 15 is a diagram explaining the learning stage for estimating the thermal diffusion area.
  • a learning device 500 (not shown)
  • a history image captured using, for example, the above-described thermo camera is fed back to a second learning model 522B as second teacher data 521B.
  • the history image is, for example, an endoscopic image in which the heat diffusion area is indicated by color or the like based on the temperature information obtained by the above-described thermo camera. In this way, the most recent history image can be used as the second teacher data 521B for learning the network used in the thermal diffusion detection function.
  • the output energy history information of the energy device 310 can be used as the second teacher data 521B.
  • the output energy history information of the energy device 310 can be used as the second teacher data 521B.
  • the above history image and output energy history information includes a large number of data such as scene 1, scene 2, .
  • This second teacher data 521B is fed back to the second learning model 522B, and the second trained model 123 is generated.
  • output energy history information can also be fed back to the second learning model 522B, and the control unit 110 can estimate the thermal diffusion region with higher accuracy. .
  • FIG. 16 shows an example of input information used in S21 of the processing example shown in FIG.
  • the control unit 110 can use a plurality of endoscopic images captured at different timings as input information in S21.
  • the endoscopic images with different imaging timings are, for example, each frame image of a moving image.
  • the control unit 110 can also use the information on the energy output history output from the energy device 310 as input information together with the plurality of endoscopic images. Then, the detection of the thermal diffusion area in step S22B of FIG. 7 is performed based on a plurality of endoscopic images and energy output history information.
  • the control unit 110 can estimate the heat diffusion area with high accuracy.
  • FIG. 17 is a diagram showing the dependence of the distance between the important tissue region and the heat diffusion region, ie, the margin M, on the energy output time T described above.
  • t on the horizontal axis shown in FIG. 17 is the current time
  • t0 is the estimated time when thermal diffusion reaches the important tissue. Therefore, time t0-n, which is, for example, a specified time n before time t0, is the timing at which it is determined that there is a risk of thermal damage to important tissues.
  • the behavior of the time margin M from time 0 to time t in the graph of FIG. 17 is, as described with reference to FIG. can be estimated. As shown in FIG. 17, the margin M decreases with the passage of time from time 0 to time t.
  • the estimated time t0 at which the thermal diffusion reaches the important tissue can be predicted.
  • the control unit 110 extrapolates the dependence of the margin M on the energy output time T from the behavior of the margin M from time 0 to time t, and obtains the intersection with the horizontal axis indicating the energy output time T. t0 can be predicted.
  • the time t0-n which is a specified time n before t0 obtained in this way, is the timing at which it is determined that there is a risk of thermal damage to important tissues.
  • the control unit 110 can output the time required for thermal diffusion to reach the specific tissue region as a prediction result, determine the thermal damage risk, and output the determination result. By doing so, the risk of heat damage to important tissues can be reduced, and surgery can be safely performed.
  • the input information of S21 in the first embodiment shown in FIG. 7 may include history information of multi-wavelength images.
  • the input information can include a real-time image and a history image with special light in addition to the energy output history and the image with normal light of the endoscope.
  • An image captured by special light is, for example, a multi-wavelength image by illumination light using narrow-band light narrower than the wavelength band of visible light, or a plurality of narrow-band lights. Examples of such multi-wavelength images include AFI (Auto Fluorescence Imaging) and NBI (Narrow Band Imaging).
  • the normal light is also called white light.
  • FIG. 19 is an explanatory diagram in the case where the history information of multi-wavelength images is included in the second teacher data 521B.
  • the second teacher data 521B includes real-time multi-wavelength images and their history images.
  • the second trained model 123 is generated by feeding back the second teacher data 521B including the multi-wavelength image to the second learned model 522B.
  • FIG. 20 is an image example of the result of observation of an excised blood vessel by AFI.
  • the control unit 110 can clearly distinguish the blood vessel and the connective tissue and observe the removed blood vessel.
  • tissue that tends to thermally contract can be observed separately, and the accuracy of image recognition can be improved.
  • an image including white burn due to thermal denaturation can be used as the captured image acquired by the control unit 110 .
  • a white burn is a state in which heat damage is caused to a living tissue, and the body tissue becomes whiter than other non-thermally damaged portions, and looks different from other regions. In this way, it is possible to estimate a region at risk of thermal damage from the whitened area.
  • FIG. 21 is a diagram illustrating a case where an image including white burn due to thermal denaturation is used as the captured image acquired by the control unit 110 .
  • the control unit 110 inputs the intraoperative endoscopic image to the network of this function, and performs image processing to estimate the whitened range.
  • control unit 110 defines a range obtained by adding a specified range to the extracted white-spotted range as a thermal diffusion region, and uses it as input information for thermal damage risk determination.
  • the whitened range can be obtained from the endoscopic image, so there is no need to use a device such as a thermo camera when creating the teaching data 521. Also, the number of networks used by the control unit 110 can be reduced, and the processing speed of the control unit 110 can be increased.
  • FIG. 22 is an explanatory diagram of the learning stage when the input information includes an image labeled with a whitened area.
  • a learning device 500 (not shown) feeds back a learning device tissue image or a learning tissue image in which a living tissue labeled with a whitened range is used as second teacher data 521B to a second learning model 522B. 2 Create a trained model 123 .
  • the fifth embodiment shown in FIG. 23 is different from the first embodiment shown in FIG. 7 in the estimation processing of S22A for detecting the important tissue and S22B for detecting the thermal diffusion region. Specifically, in the estimation process of the fifth embodiment, S42C for recognizing the heat capacity and heat resistance of the electric heating path is added. For example, even if the distance between the important tissue and the heat diffusion area is estimated, if the tissue heat transfer characteristics of the living tissue between the important tissue and the heat diffusion area are different, the time until heat diffuses to the important tissue will change. come. Therefore, in the first embodiment shown in FIG. 7, the influence of the electrothermal characteristics is not considered, and the accuracy of the thermal diffusion prediction results remains at a certain level.
  • the trained model 121 learns to estimate tissue heat transfer characteristics from the learning energy output information of the energy device 310, the learning device tissue image, or the learning tissue image.
  • the control unit 110 performs processing based on the learned model 121 stored in the storage unit 120 to estimate tissue heat transfer characteristics from the energy output information of the energy device 310 or the captured image. Therefore, the control unit 110 can predict the distance between the heat diffusion region and the important tissue, that is, the reduction of the margin M from the characteristics of the heat transfer path. Therefore, the risk of heat damage to important tissues can be reduced, and surgery can be performed safely. It should be noted that changes in the rate of decrease of the margin M can be predicted by using machine learning or the like, for example.
  • FIG. 24 differs from the first embodiment shown in FIG. 7 in the processing after S23 for determining the thermal damage risk.
  • the control unit 110 determines the risk of thermal damage, it is determined in S54 whether or not it is necessary to present an alert. Specifically, the control unit 110 determines that it is necessary to present an alert when it is determined that there is a risk of heat damage in the determination of S53, and does not need to present an alert when it is determined that there is no risk of heat damage. We judge that it is.
  • the control unit 110 presents an alert in S55, and if it is determined that there is no risk of heat damage, the control unit 110 does not present an alert in S56.
  • the alert presentation is performed, for example, by presenting a recommendation to reduce the energy output from the current energy output or a recommendation to stop the energy output due to the risk of heat damage on the monitor screen viewed by the doctor performing the surgery. In this way, the energy output can be reduced or stopped at the doctor's discretion after being notified of the risk of thermal injury.
  • Seventh Embodiment A seventh embodiment shown in FIG. 25 is different from the first embodiment shown in FIG. 7 in S22A regarding important tissue detection.
  • detection of important tissues is estimated by 3D matching with preoperative images such as endoscopic images instead of endoscopic images.
  • Important tissues are detected by 3D matching with CT (Computed Tomography) or MRI (Magnetic Resonance Imaging). In this way, it becomes possible to detect important tissue that cannot be seen with an endoscope.
  • the system of this embodiment can also be implemented as a program. That is, the program of the present embodiment acquires in real time a captured image, which is an image of at least one energy device outputting energy that receives energy supply and outputs energy, and at least one living tissue; From the learning device tissue image, which is an image obtained by imaging the energy device and at least one biological tissue during output of at least one energy, or the learning tissue image, which is an image obtained by imaging at least one biological tissue, the energy device By processing based on a trained model that has learned to output image recognition information, which is at least one of information related to a thermal diffusion area from the energy device to the living tissue and a specific tissue area in the living tissue generated by the energy output, A computer can be caused to estimate image recognition information from the captured image and determine the risk of thermal damage to a specific tissue due to the energy output of the energy device from the estimated image recognition information.
  • the computer is assumed to be a network terminal such as a personal computer.
  • the computer may be a wearable terminal such as a smart phone, a tablet
  • the system 10 of the present embodiment described above includes a storage unit 120 that stores a trained model 121 and a control unit 110.
  • the trained model 121 is designed to estimate a thermal diffusion region from the energy device 310 to the living tissue and a specific tissue region in the living tissue generated by the energy output of the energy device 310 from the learning device tissue image or the learning tissue image.
  • a learning device tissue image is an image obtained by capturing at least one energy device 310 that receives energy supply and outputs energy, and at least one living tissue.
  • a learning tissue image is an image obtained by capturing at least one living tissue.
  • the control unit 110 acquires a captured image, which is an image during energy output in which at least one energy device 310 and at least one living tissue are imaged.
  • the control unit 110 estimates the thermal diffusion region and the specific tissue region from the captured image by processing based on the learned model 121 stored in the storage unit 120 .
  • the control unit 110 determines the risk of thermal damage to the specific tissue due to the energy output of the energy device 310 from the estimated thermal diffusion area and specific tissue area.
  • the system 10 acquires captured images in which the energy device 310 and the living tissue are captured, estimates the thermal diffusion region and the specific tissue region by processing based on the learned model, and calculates the specific tissue by the energy device. determine the risk of heat damage to Based on this thermal damage risk, the system 10 can adjust the appropriate amount of energy applied to the tissue to be treated, thereby reducing the risk of causing thermal damage to critical tissue without noticing thermal diffusion. In this way, the system 10 adjusts the output energy of the energy device, which has been conventionally performed by a doctor, thereby reducing the burden on the doctor. In addition, since the system 10 autonomously adjusts the output, even a non-expert can perform stable treatment. As described above, the stability of the operation can be improved, or the uniformity of the procedure can be achieved without depending on the experience of the doctor.
  • the learning device tissue image, the learning tissue image, the specific organization, and the important organization are described in "1. System".
  • control unit 110 may determine that there is a risk of thermal damage when the distance between the specific tissue region and the heat diffusion region is equal to or less than a preset threshold.
  • the distance between the specific tissue region and the heat diffusion region can be evaluated based on the result estimated from the image acquired by the controller 100, and the presence or absence of the risk of heat damage is determined based on the distance. can be used as a reference for A method for determining the heat damage risk using the threshold is described in "4. First Embodiment".
  • the threshold may differ according to the tissue type of the specific tissue.
  • the captured images may be a plurality of endoscopic images with different imaging timings for each endoscopic image.
  • a thermal diffusion area is created. Therefore, the thermal diffusion area can be estimated in consideration of dynamic information, and the estimation accuracy of the thermal diffusion area can be improved.
  • a plurality of endoscopic images captured at different timings are described in FIG. 16 of "5. Second Embodiment".
  • the captured images are a plurality of endoscopic images captured at different timings for each endoscopic image
  • the control unit 110 estimates the thermal diffusion region and the specific tissue region from each image. Based on the plurality of heat diffusion regions and the specific tissue region estimated from the image, the time required for heat diffusion to reach the specific tissue region may be output as a prediction result.
  • the controller 100 can acquire the decrease in the distance between the thermal diffusion area and the specific tissue in chronological order, and predict the time when the thermal diffusion reaches the specific tissue area. This allows the operator to adjust the output of the energy device in advance based on the predicted results. Therefore, it is possible to reduce the risk of heat damage to the specific tissue region and safely perform surgery. Prediction of the time at which thermal diffusion reaches the specific tissue region is described in FIG. 17 of "5. Second Embodiment.”
  • control unit 110 may determine the thermal damage risk before the time that is the prediction result, and output the determination result.
  • the determination result regarding the thermal damage risk is output before thermal diffusion reaches the specific tissue region. Therefore, it is possible to adjust the energy output a predetermined time before thermal damage to the specific tissue occurs, reduce the risk of thermal damage to the specific tissue region, and safely perform surgery. Prediction of the time at which thermal diffusion reaches the specific tissue region is described in FIG. 17 of "5. Second Embodiment.”
  • the control unit 110 sends an energy output adjustment instruction, which is an instruction to reduce the energy output from the current energy output or an instruction to stop the energy output, to the energy device 310 based on the determination result. You may output with respect to the generator 300 which controls a supply amount based on an energy output adjustment instruction
  • the system 10 can autonomously adjust the energy output according to the risk of thermal damage occurring in a specific tissue region. Therefore, even non-experts can avoid the risk of heat damage occurring in specific tissue regions. Note that the energy output adjustment instruction is described in FIG. 11 of "4. First Embodiment".
  • control unit 110 may present a recommendation to lower the energy output from the current energy output or a recommendation to stop the energy output based on the determination result.
  • the trained model 121 is derived from the learning energy output information of the energy device 310 and the learning device tissue image, or from the learning tissue image, the thermal diffusion region and the specific tissue region from the energy device 310 to the tissue.
  • the control unit 110 performs processing based on the learned model 121 stored in the storage unit 120 to determine the heat diffusion region and the specific heat diffusion region from the energy output information of the energy device 310 and the captured image A tissue area may be estimated.
  • the control unit 110 can estimate the heat diffusion area with higher accuracy. Note that the learning energy output information is described in FIG. 15 of "5. Second Embodiment".
  • the energy device 310 is a device that has two jaws 337 and 338 capable of gripping tissue, and is a device that receives energy supply from the generator 300 and outputs energy from the two jaws 337 and 338.
  • the energy device 310 may be a bipolar device 330.
  • Bipolar devices are described, for example, in FIG. 5 of “3. Energy Devices”.
  • the energy device 310 may be an ultrasound device 340 .
  • the ultrasonic device 340 may be a combined device of the ultrasonic device 340 and the bipolar device 330.
  • the ultrasound device 340 and the combined device are described, for example, in FIG. 6 in “3. Energy Devices”.
  • the captured image may include white burn due to thermal denaturation.
  • information on the whitened range can be obtained from the endoscopic image, so there is no need to use other equipment when creating the teacher data 521. Also, the number of networks used by the control unit 110 can be reduced, and the processing speed of the control unit 110 can be increased.
  • the white burn is described in "7. Fourth Embodiment".
  • the captured image may include an endoscopic image captured with special light different from normal light.
  • multi-wavelength images are also used as time-series data when learning the network used in the thermal diffusion detection function and when estimating the thermal diffusion area, so that a specific tissue such as a connective tissue around a blood vessel can be focused on. Additional information can be input. In this way, dynamic information such as cohesion of connective tissue can be easily obtained, and the accuracy of estimation of the specific tissue region, thermal diffusion region, etc. can be improved by utilizing the information. Note that normal light and special light are described in "6. Third Embodiment.”
  • the trained model 121 is a trained model trained to estimate tissue heat transfer characteristics from the learning energy output information of the energy device 310, the learning device tissue image, or the learning tissue image.
  • the control unit 110 may estimate the tissue heat transfer characteristics from the energy output information of the energy device 310 or the captured image by processing based on the learned model 121 stored in the storage unit 120 .
  • control unit 110 can predict the decrease in the distance between the heat diffusion area and the specific tissue area from the characteristics of the heat transfer path. Therefore, it is possible to reduce the risk of heat damage to the specific tissue region and safely perform surgery.
  • the tissue heat transfer characteristics are described in "8. Fifth Embodiment”.
  • the above processing may be described as a program. That is, the program of the present embodiment acquires a captured image, and obtains information about a thermal diffusion region from the energy device to the living tissue and a specific tissue region in the living tissue from the captured image by processing based on the learned model 121. estimating at least one piece of image recognition information; and determining a risk of thermal damage to a specific tissue due to the energy output of the energy device 310 from the estimated image recognition information.
  • the above processing may also be described as a method. That is, the method of the present embodiment acquires in real time a captured image, which is a captured image of at least one energy device outputting energy that receives energy and outputs energy, and at least one biological tissue; From the learning device tissue image, which is an image obtained by imaging the energy device and at least one biological tissue during output of at least one energy, or the learning tissue image, which is an image obtained by imaging at least one biological tissue, the energy device By processing based on a trained model that has learned to output image recognition information, which is at least one of information related to a thermal diffusion area from the energy device to the living tissue and a specific tissue area in the living tissue generated by the energy output, The thermal damage risk is determined by estimating image recognition information from the captured image and determining the thermal damage risk of the specific tissue due to the energy output of the energy device from the estimated image recognition information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Otolaryngology (AREA)
  • Pathology (AREA)
  • Plasma & Fusion (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Urology & Nephrology (AREA)
  • Human Computer Interaction (AREA)
  • Surgical Instruments (AREA)
  • Endoscopes (AREA)

Abstract

システム(10)は、学習済みモデル(121)を記憶する記憶部(120)と、制御部(110)と、を含む。制御部は、少なくとも1つのエネルギーデバイス(310)及び少なくとも1つの生体組織が撮像された画像である撮像画像を取得する。制御部は、記憶部に記憶された学習済みモデルに基づく処理により、撮像画像から熱拡散領域及び特定組織領域を推定する。制御部は、推定した熱拡散領域及び特定組織領域から、エネルギーデバイスのエネルギー出力による特定組織の熱損傷リスクを判定する。

Description

システム、プログラム及び判定方法
 本発明は、システム、プログラム及び判定方法等に関する。
 特許文献1には、エネルギーデバイスのエネルギー出力データと、組織位置、患者状態又は光学組織センサ情報とに基づいて、エネルギーデバイスが把持している組織のタイプを決定する手術システムが開示されている。例えば、血管であるか非血管であるか、又は神経の有無等が、組織のタイプとして認識される。この手術システムは、認識したタイプに対する処置内容が不適切である場合に、エネルギー出力を停止すると共にユーザに警告する。
米国特許出願公開第2017/0252095号明細書
 特許文献1では、処置される組織又はその周辺への熱拡散の度合い又は熱拡散の防止が考慮されていないため、エネルギーデバイスによる処置時の組織又はデバイス状態等に応じて適切にエネルギー出力を調整することができないという課題がある。具体的には、処置組織等により熱拡散が広く又は速く生じる場合、処置対象組織を熱変性させる前に熱が重要組織に伝搬し、重要組織に熱損傷を生じさせるおそれがある。また、光学組織センサ等の各種センサを設けるのは、滅菌性の観点から好ましくない。
 本開示の一態様は、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記エネルギーデバイスのエネルギー出力により発生した、前記エネルギーデバイスから前記生体組織への熱拡散領域及び前記生体組織中の特定組織領域を推定するように学習した学習済みモデルを記憶する記憶部と、制御部と、を含み、前記制御部は、少なくとも1つの前記エネルギーデバイス及び少なくとも1つの前記生体組織が撮像されたエネルギー出力中の画像である撮像画像を取得し、前記記憶部に記憶された前記学習済みモデルに基づく処理により、前記撮像画像から前記熱拡散領域及び前記特定組織領域を推定し、推定した前記熱拡散領域及び前記特定組織領域から、前記エネルギーデバイスのエネルギー出力による前記特定組織の熱損傷リスクを判定するシステムに関係する。
 また本開示の他の態様は、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像をリアルタイムで取得することと、前記少なくとも1つのエネルギー出力中のエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記エネルギーデバイスのエネルギー出力により発生した、前記エネルギーデバイスから前記生体組織への熱拡散領域及び前記生体組織中の特定組織領域に関する情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定することと、推定した前記画像認識情報から前記エネルギーデバイスのエネルギー出力による前記特定組織の熱損傷リスクを判定することと、をコンピュータに実行させるプログラムに関係する。
 また本開示の他の態様は、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像をリアルタイムで取得することと、前記少なくとも1つのエネルギー出力中のエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記エネルギーデバイスのエネルギー出力により発生した、前記エネルギーデバイスから前記生体組織への熱拡散領域及び前記生体組織中の特定組織領域に関する情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定することと、推定した前記画像認識情報から前記エネルギーデバイスのエネルギー出力による前記特定組織の熱損傷リスクを判定することにより熱損傷リスクの判定を行う方法に関係する。
システムの構成例。 コントローラの構成例。 システムが行う処理を説明するフローチャート。 モノポーラデバイスの構成例。 バイポーラデバイスの構成例。 超音波デバイスの構成例。 第1実施形態の処理例。 制御部が特定組織の検出を行う場合の説明図。 制御部が熱拡散領域の検出を行う場合の説明図。 制御部が熱損傷リスクを判定する場合の説明図。 制御部がエネルギー出力を調整する場合の出力調整例。 学習装置の構成例。 重要組織の推定についての学習段階の説明図。 熱拡散領域の推定についての学習段階で用いられる画像の例。 第2実施形態の説明図。 本実施形態の処理例で用いられるインプット情報についての説明図。 特定組織領域と熱拡散領域の距離のエネルギー出力時間に対する依存性を示す図。 第3実施形態のインプット情報の説明図。 熱拡散領域の推定についての学習段階の説明図。 特殊光を用いた場合の内視鏡画像の例。 第4実施形態の説明図。 熱拡散領域の推定についての学習段階の説明図。 第5実施形態の処理例。 第6実施形態の処理例。 第7実施形態の処理例。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。
 1.システム
 図1は、本実施形態におけるシステム10の構成例である。図1には、内視鏡により術野を撮影する場合のシステム構成例を示す。図1に示すシステム10は、コントローラ100と内視鏡システム200とジェネレータ300とエネルギーデバイス310とを含む。システム10は、内視鏡下において少なくとも1つのエネルギーデバイスを用いて手術を行うための手術システムである。ここではシステム10が1つのエネルギーデバイス310を含む例を示すが、システム10が複数のエネルギーデバイスを含んでもよい。
 内視鏡システム200は、内視鏡による撮影、内視鏡画像の画像処理、及び内視鏡画像のモニタ表示を行うシステムである。内視鏡システム200は、内視鏡210と本体装置220とディスプレイ230とを含む。ここでは、外科手術用の硬性鏡を例に説明する。
 内視鏡210は、体腔に挿入される挿入部と、挿入部の基端に接続される操作部と、操作部の基端に接続されるユニバーサルコードと、ユニバーサルコードの基端に接続されるコネクタ部とを含む。挿入部は、硬性管と対物光学系と撮像素子と照明光学系と伝送ケーブルとライトガイドとを含む。体腔内を撮影するための対物光学系及び撮像素子と、体腔内を照明するための照明光学系は、細長い円筒形状の硬性管の先端部に設けられる。硬性管の先端部は、湾曲可能に構成されてもよい。撮像素子により取得された画像信号を伝送する伝送ケーブル、及び照明光を照明光学系へ導光するライトガイドは、硬性管の内部に設けられる。操作部は、ユーザにより把持され、ユーザからの操作を受け付ける。操作部には、様々な機能が割り当てられたボタンが設けられる。挿入部先端が湾曲可能である場合には、操作部に、アングル操作レバーが設けられる。コネクタ部は、伝送ケーブルを本体装置220に着脱可能に接続するビデオコネクタと、ライトガイドを本体装置220に着脱可能に接続するライトガイドコネクタとを含む。
 本体装置220は、内視鏡の制御、内視鏡画像の画像処理及び内視鏡画像の表示処理を行う処理装置と、照明光の生成及び照明光の制御を行う光源装置とを含む。本体装置220はビデオシステムセンターとも呼ばれる。処理装置は、CPU等のプロセッサにより構成され、内視鏡210から送信される画像信号を画像処理して内視鏡画像を生成し、その内視鏡画像をディスプレイ230とコントローラ100に出力する。光源装置が出射した照明光は、ライトガイドにより照明光学系へ導光され、照明光学系から体腔内へ出射される。
 エネルギーデバイス310は、その先端部から高周波電力又は超音波等の形態としてエネルギーを出力することで、その先端部が接する組織に対して凝固、封止、止血、切開、切離又は剥離等の処置を行うデバイスである。エネルギーデバイス310は、エネルギー処置具とも呼ばれる。エネルギーデバイス310は、デバイス先端の電極と体外の電極の間に高周波電力を通電させるモノポーラデバイス、2つのジョウの間に高周波電力を通電させるバイポーラデバイス、プローブとジョウが設けられると共にプローブから超音波を出射する超音波デバイス、又はプローブとジョウの間に高周波電力を通電させると共にプローブから超音波を出射する併用デバイス等である。
 ジェネレータ300は、エネルギーデバイス310へのエネルギー供給、エネルギー供給の制御、及びエネルギーデバイス310からの電気的情報の取得を行う。エネルギーデバイス310が高周波エネルギーを出力する場合、ジェネレータ300は高周波電力を供給し、エネルギーデバイス310は、その高周波電力を電極又はジョウから出力する。エネルギーデバイス310が超音波エネルギーを出力する場合、ジェネレータ300は電力を供給し、エネルギーデバイス310のプローブは、その電力を超音波に変換して出力する。
 電気的情報は、エネルギーデバイス310の電極、プローブ、又はジョウが接する組織の電気的情報であり、具体的には、エネルギーデバイス310が組織に高周波電力を出力した応答として得られる情報である。電気的情報は、例えば、エネルギーデバイス310により処置される組織のインピーダンス情報である。但し、後述のように電気的情報はインピーダンス情報に限らない。
 ジェネレータ300は、出力シーケンスに従って、エネルギーデバイス310からのエネルギー出力を時間的に変化させる制御を行う。ジェネレータ300は、インピーダンス情報の時間的変化に応じてエネルギー出力を変化させてもよい。この場合、出力シーケンスは、インピーダンス情報の変化に対してどのようにエネルギー出力を変化させるかを、規定してもよい。また、ジェネレータ300は、インピーダンス情報の時間的変化に応じてエネルギー出力を自動オフしてもよい。例えば、ジェネレータ300は、インピーダンスが一定以上に上昇したとき、処置終了と判断してエネルギー出力をオフしてもよい。
 コントローラ100は、機械学習等を用いた画像認識処理により内視鏡画像から生体組織、エネルギーデバイス310を認識し、その認識した情報に基づいてエネルギー出力調整指示をジェネレータ300に出力する。内視鏡画像から認識される生体組織に関する情報若しくはエネルギーデバイス310に関する情報又はこれら両方を画像認識情報と呼ぶ。これらの情報は、エネルギーデバイス310による熱拡散に影響を与える事項に関する情報である。
 生体組織に関する情報は、特定の臓器だけでなく、臓器間を繋ぐ組織等の臓器に付随する部分も含まれる。なお、以下の説明では生体組織のことを、適宜、特定組織又は重要組織と記載する。また特定組織を含む領域のことを特定組織領域と記載する。エネルギーデバイス310は、後述の図4~図6で説明するように、モノポーラデバイス320、バイポーラデバイス330、超音波デバイス340等のエネルギーデバイスであるが、これら以外であってよい。
 ジェネレータ300は、エネルギー出力調整指示に従って、エネルギーデバイス310のエネルギー出力を調整する。即ち、本実施形態のシステム10は、内視鏡画像に基づいてエネルギーデバイス310からのエネルギー出力を自動調整するシステムである。ジェネレータ300は、エネルギー出力調整指示により指示されるエネルギー供給量でエネルギーデバイス310にエネルギーを供給し、エネルギーデバイス310が、そのエネルギー供給を受けてエネルギー出力することで、エネルギー出力がエネルギー出力調整指示により調整される。
 エネルギー出力調整指示は、出力シーケンスの波形全体としての出力を増減する指示、或いは、選択可能な複数の出力シーケンスのうち、いずれかの出力シーケンスに設定する指示等である。例えば、エネルギーデバイス310からのエネルギー出力が段階的な倍率により調整可能であるとき、エネルギー出力調整指示は、そのエネルギー出力の段階的な倍率を示す指示である。ジェネレータ300は、その指示された倍率に応じて高周波出力又は超音波出力を増減させる。倍率は連続的に調整可能であってもよい。或いは、複数の出力シーケンスが設けられているとき、エネルギー出力調整指示は、その複数の出力シーケンスのいずれかを示す指示である。ジェネレータ300は、その指示された出力シーケンスに従ってエネルギーデバイス310からのエネルギー出力を行う。なお、エネルギー出力調整指示は、エネルギー出力の増減と出力シーケンスの変更の両方の指示を含んでもよい。
 2.コントローラ
 図2は、コントローラ100の構成例である。コントローラ100は、制御部110と記憶部120とI/Oデバイス180とI/Oデバイス190とを含む。図1と図2には、コントローラ100がジェネレータ300と別体の装置で構成される例を示す。その場合、コントローラ100は、PC又はサーバ装置等の情報処理装置により構成される。或いは、コントローラ100は、ネットワークを介して接続された1又は複数の情報処理装置によって処理を実行するクラウド等で実現されてもよい。
 I/Oデバイス180は、内視鏡システム200の本体装置220から内視鏡画像の画像データを受信する。I/Oデバイス180は、画像伝送用のケーブルが接続されるコネクタ、又は、そのコネクタに接続され、本体装置220との通信を行うインターフェース回路である。
 制御部110は、学習済みモデル121を用いた画像認識処理により内視鏡画像から、特定組織及び熱拡散領域を推定し、その推定結果に基づいてエネルギー出力調整指示を出力する。制御部110は、ハードウェアとして1又は複数のプロセッサを含む。プロセッサは、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)又はDSP(Digital Signal Processor)等の汎用プロセッサである。或いは、プロセッサは、ASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)等の専用プロセッサであってもよい。
 記憶部120は、画像認識処理に用いられる学習済みモデル121を記憶する。汎用プロセッサにより画像認識処理が行われる場合には、記憶部120は、推論アルゴリズムが記述されたプログラムと、その推論アルゴリズムに用いられるパラメータと、を学習済みモデル121として記憶する。学習済みモデル121は、第1学習済みモデル122と第2学習済みモデル123とを含む。第1学習済みモデル122は、後述の図12で説明する特定組織領域の推定に関する学習済みモデル121であり、第2学習済みモデル123は、熱拡散領域の推定に関する学習済みモデル121である。推論アルゴリズムがハードウェア化された専用プロセッサにより画像認識処理が行われる場合には、記憶部120は、推論アルゴリズムに用いられるパラメータを学習済みモデル121として記憶する。
 記憶部120は、半導体メモリ、ハードディスクドライブ、又は光学ディスクドライブ等の記憶装置である。半導体メモリは、RAM、ROM又は不揮発性メモリ等である。
 画像認識処理の推論アルゴリズムとしては、例えばニューラルネットワークを採用できる。ニューラルネットワークにおけるノード間接続の重み係数とバイアスがパラメータである。ニューラルネットワークは、画像データが入力される入力層と、入力層を通じて入力されたデータに対し演算処理を行う中間層と、中間層から出力される演算結果に基づいて認識結果を出力する出力層と、を含む。画像認識処理に用いられるニューラルネットワークとして、例えばCNN(Convolutional Neural Network)を採用できる。
 また制御部110は、熱拡散検出部111と重要組織検出部112と熱損傷リスク判断部114と出力設定部113とを含む。記憶部120は、熱拡散検出部111、重要組織検出部112、熱損傷リスク判断部114及び出力設定部113の各部の機能が記述されたプログラムを記憶する。制御部110の1又は複数のプロセッサが、記憶部120からプログラムを読み出し、そのプログラムを実行することで、熱拡散検出部111、重要組織検出部112、熱損傷リスク判断部114及び出力設定部113の各部の機能を実現する。この各部の機能が記述されたプログラムは、コンピュータにより読み取り可能な媒体である非一時的な情報記憶媒体に格納できる。情報記憶媒体は、例えば光ディスク、メモリカード、HDD、或いは半導体メモリなどにより実現できる。半導体メモリは例えばROM又は不揮発性メモリである。
 I/Oデバイス190は、ジェネレータ300へエネルギー出力調整指示の信号を送信する。I/Oデバイス190は、信号伝送用のケーブルが接続されるコネクタ、又は、そのコネクタに接続され、ジェネレータ300との通信を行うインターフェース回路である。
 図3は、コントローラ100及びシステム10が行う処理を説明するフローチャートである。ステップS1において、制御部110が、内視鏡システム200の本体装置220からI/Oデバイス180を介して内視鏡画像を取得する。次に、制御部110はステップS2A及びステップS2Bを実行する。ステップS2Aでは、重要組織検出部112は、第1学習済みモデル122を用いた画像認識処理を内視鏡画像に対して行うことで、当該画像から重要組織を推定することにより検出する。ステップS2Bでは、熱拡散検出部111は、第2学習済みモデル123を用いた画像認識処理を内視鏡画像に対して行うことで、エネルギーデバイス310のジョウ周辺の熱拡散領域を推定することにより検出する。熱拡散領域は、エネルギーデバイス310のエネルギー出力により、熱が拡散している領域のことである。例えば、ある生体組織の領域の温度が所定の温度以上である場合に、当該部分が熱拡散領域とすることができる。次にステップS3において、熱損傷リスク判断部114は、ステップS2A、S2Bでの推定結果に基づいて、熱が重要組織にまで拡散し、重要組織に熱損傷を与えるリスクを判断し、出力設定部113に信号を送付する。熱損傷としては、例えば蛋白質の変性、細胞内酵素の失活等がある。以下においては、当該リスクのことを熱損傷リスクと記載する。そして、ステップ4において、出力設定部113は、当該信号に基づいて、エネルギーデバイス310のエネルギー出力の調整を行う。
 3.エネルギーデバイス
 以下、エネルギーデバイス310の一例として、モノポーラデバイス320、バイポーラデバイス330、超音波デバイス340及び併用デバイスについて説明する。
 図4は、モノポーラデバイス320の構成例である。モノポーラデバイス320は、細長い円筒形状の挿入部322と、挿入部322の先端に設けられる電極321と、挿入部322の基端に接続される操作部323と、操作部323と不図示のコネクタとを接続するケーブル325とを含む。コネクタはジェネレータ300に着脱可能に接続される。
 ジェネレータ300が出力した高周波電力はケーブル325により伝送され、電極321から出力される。患者の体外に対極板が設けられており、電極321と対極板の間で通電する。これにより、電極321が接する組織に高周波エネルギーが印加され、その組織にジュール熱が発生する。電極321は、処置の内容に応じて様々な形状の電極が採用される。モノポーラデバイス320は、通電パターンの変更により、凝固と切開の程度を調整可能である。一般に、モノポーラデバイス320の処置対象は、電極321が接する組織であるが、その電極321が接する組織の周囲に拡散した熱によって周囲組織に影響を与える可能性がある。
 図5は、バイポーラデバイス330の構成例である。バイポーラデバイス330は、細長い円筒形状の挿入部332と、挿入部332の先端部331に設けられる2つのジョウ337、338と、挿入部332の基端に接続される操作部333と、操作部333と不図示のコネクタとを接続するケーブル335とを含む。コネクタはジェネレータ300に着脱可能に接続されてもよい。ジョウ337、338は、組織を把持すると共に把持された組織にエネルギーを印加するための把持部のことであり、基端336に設けられた軸を中心として開閉可能に構成されている。操作部333は、ジョウ337、338の開閉を操作するための把持部が設けられている。医師が把持部を握り込むことで、ジョウ337、338が閉まり組織を把持する。
 ジェネレータ300が出力した高周波電力はケーブル335により伝送され、ジョウ337、338が組織を把持したとき2つのジョウ337、338の間に通電する。これにより、2つのジョウ337、338に挟まれた組織に高周波エネルギーが印加され、その組織にジュール熱が発生し、その組織が凝固する。ジェネレータ300は、ジョウ337、338に把持された組織のインピーダンス情報を計測し、そのインピーダンス情報に基づいて処置完了を検知し、エネルギー出力を自動停止してもよい。また、ジェネレータ300は、インピーダンス情報に基づいて、組織への印加エネルギーを自動調整してもよい。バイポーラデバイス330のデバイス温度は、例えば、摂氏100度程度までしか上がらないが、ジョウ337、338により把持された部分の周辺に回り込み電流が生じ、その回り込み電流により熱拡散が生じる可能性がある。
 なお、バイポーラデバイスの派生デバイスとしてベッセルシーリングデバイスがある。ベッセルシーリングデバイスは、バイポーラデバイスのジョウにカッターが設けられたデバイスであり、通電により組織を凝固した後にカッターを走らせることで組織を切離する。
 図6は、超音波デバイス340の構成例である。超音波デバイス340は、細長い円筒形状の挿入部342と、挿入部342の先端部341に設けられるジョウ347及びプローブ348と、挿入部342の基端に接続される操作部343と、操作部343と不図示のコネクタとを接続するケーブル345とを含む。コネクタはジェネレータ300に着脱可能に接続される。ジョウ347は、基端346に設けられた軸を中心として可動であり、非可動のプローブ348に対して開閉可能に構成されている。操作部343は、ジョウ347の開閉を操作するための把持部が設けられている。医師が把持部を握り込むことで、ジョウ347が閉まり、ジョウ347とプローブ348が組織を把持する。操作部343には、例えば図6に示すように第1出力モードが割り当てられた操作ボタン344aと、第2出力モードが割り当てられた操作ボタン344bとが設けられる。出力モードは処置内容に応じて選択されるものであり、各出力モードの操作ボタンが押されると、そのモードの出力シーケンスで超音波エネルギーが出力される。操作部343に設けられる操作ボタンの数は図6の構成に限定されない。
 ジェネレータ300が出力した電力はケーブル335により伝送され、操作ボタン344a又は344bが押されたときにプローブ348が電力を超音波に変換して出力する。これにより、ジョウ347とプローブ348に挟まれた組織に摩擦熱が発生し、その組織が凝固する又は組織が切開される。
 高周波電力と超音波を併用する併用デバイスは、例えば図6の超音波デバイスと同様の構成である。但し、併用デバイスは、ジョウとプローブの間に高周波電力を通電することで、ジョウとプローブに把持された組織にジュール熱を発生させ、その組織を凝固させることができる。また併用デバイスは、超音波デバイスと同様に、プローブから超音波を出力することで、ジョウとプローブに把持された組織を切開できる。操作部に設けられた2つの操作ボタンの一方には、高周波モードが割り当てられ、他方にはシール&カットモードが割り当てられる。高周波モードは、高周波エネルギー出力のみで凝固等の処置を行うモードである。シール&カットモードは、高周波エネルギーと超音波エネルギーを併用するモードであり、高周波エネルギー出力により組織を凝固させると共に組織を切離するモードである。併用デバイスの熱拡散に関しては、例えば、バイポーラデバイスと同様な熱拡散、超音波デバイスと同様な熱拡散、又はそれら両方が生じる可能性がある。
 なお、以下の実施形態においては、主にバイポーラデバイス330をエネルギーデバイス310として用いる場合を例に説明する。但し、本実施形態は、熱拡散が生じる可能性がある上記の様々なエネルギーデバイスを用いる場合に適用可能である。
 4.第1実施形態
 図7は、第1実施形態の処理例である。まず、S21に示すように制御部110に内視鏡画像が入力される。具体的には、内視鏡により撮影された動画像の各フレーム画像が順次に制御部110に入力される。制御部110に入力される内視鏡画像には、1又は複数のエネルギー出力中のエネルギーデバイス及び1又は複数の生体組織が写っている。
 次に、S22Aに示すように、制御部110は、機械学習によって調整された推定プログラムを実行することで、内視鏡画像から重要組織を検出する。具体的には、内視鏡画像に重要組織をアノテーションして学習させた推定プログラムを有するネットワークに、制御部110が手術中の内視鏡画像をインプットすることで重要組織を検出する。ここで、重要組織は、例えば大血管、膵臓、十二指腸等であるが、これらに限られない。図8は、図7のS22Aに示す重要組織の検出について説明する図である。図8に示すように、制御部110は、推定プログラムに基づいて、内視鏡画像に写された被写体の中から、重要組織の領域を推定し、当該重要組織の領域に色を付してラベリングをする。そして、制御部110は当該ラベリングのされた内視鏡画像を熱損傷リスク判断部114に出力する。
 また、図7のS22Bに示すように、制御部110は、前述した推定プログラムを実行することで、内視鏡画像から熱拡散領域を検出する。S22Aと同様に、内視鏡画像に閾値以上の温度範囲をアノテーションして学習させた推定プログラムを有するネットワークに、制御部110が手術中の内視鏡画像をインプットすることで熱拡散領域を検出する。図9は、図7のS22Bでの熱拡散領域の検出について説明する図である。図9に示すように、制御部110は、当該推定プログラムに基づいて、内視鏡画像に写された臓器の所定の温度以上になっていると推定される領域に色を付して、熱拡散の範囲をラベリングする。そして、制御部110は当該ラベリングのされた内視鏡画像を熱損傷リスク判断部114に出力する。なお、上述した重要組織や熱拡散領域のラベリングは色以外によって行ってもよい。
 次に図7のS23に示すように、制御部110の熱損傷リスク判断部114は、重要組織及び熱拡散領域の推定結果の情報を受けて、当該推定結果に基づいて重要組織の熱損傷リスクの判定を行う。図10は、図7のS23での熱損傷リスクの判定について手法について説明する図である。制御部110の熱損傷リスク判断部114は、重要組織検出部112及び熱拡散検出部111のそれぞれから出力された内視鏡画像に基づき、図10に示すような重要組織と熱拡散領域のラベリングが重畳して表示された画像を生成する。そして、重要組織であると推定された領域と所定の温度以上になっていると推定された領域の距離を算出する。図10では、例えば重要組織として胃が推定された場合に、胃と、所定の温度以上になっていると推定された領域との距離が示されている。ここで、当該距離は例えばエネルギーデバイス310がバイポーラデバイスの場合、ジョウの周りに灰色で示された熱拡散領域と、重要組織である胃の最も接近した部分の実際の距離である。当該距離は、例えばディスプレイ230に写った画像の解析処理により求めることができる。そして、制御部110は当該距離をマージンMとして、熱損傷リスクの判定に用いる。マージンMは、制御部110が熱損傷リスクを判定する際の判断材料として用いることのできるデータ等であり、例えば、上述した距離がマージンMになる。そして、マージンMが予め設定された閾値以下である場合には、重要組織の熱損傷リスクがあると判定する。またマージンMが当該閾値よりも大きい場合には、重要組織の熱損傷リスクはないと判定する。熱損傷リスク判断部114は上述の熱損傷リスク有無についての判定結果についての信号を出力設定部113に出力する。
 そして、図7のS24に示すように、出力設定部113は熱損傷リスク判断部114が出力した当該信号に基づいて出力変更指示を行う。具体的には、記憶部120が、熱損傷リスクの有無に対応するエネルギー出力調整指示についてのテーブルデータを記憶し、制御部110は、そのテーブルデータを参照することで、熱損傷リスクの有無に対応したエネルギー出力調整指示をI/Oデバイス190を介して、ジェネレータ300に出力する。そして、ジェネレータ300は、制御部110が出力したエネルギー出力調整指示に従ってバイポーラデバイスの出力シーケンスを調整する。なお、熱損傷リスクの有無に応じたエネルギー出力調整指示を出力するアルゴリズムは、上記に限定されない。図11は、制御部110の出力設定部113が熱損傷リスクの判定結果に基づいてエネルギー出力調整指示を行う際の出力調整の例である。出力設定部113は、重要組織の熱損傷リスクがあると判定した場合、エネルギー出力を弱めるように出力の調整を行う。具体的には、出力設定部113は、電圧又は電力等の抑制或いは停止を行う。また重要組織の熱損傷リスクは無いと判定した場合、エネルギー出力を維持し又は強めるように出力の調整を行う。出力設定部113は、これらの出力調整指示についての信号をジェネレータ300に出力する。
 このように制御部110が、内視鏡画像より重要組織とエネルギー出力による熱拡散領域とを認識し、重要組織の熱損傷リスクがあると判断された場合、ジェネレータ300のエネルギー出力の自動調整が行われる。
 図7のS23に示す熱損傷リスクの判断において、S22Aで検出した特定組織の組織種類に応じて、熱損傷リスクの有無を判断する際のマージンMの閾値が異なっていてもよい。或いは、当該閾値は可変であってもよい。このようにすれば、熱損傷の発生が特に問題となる臓器について、熱損傷の発生を回避することができる。例えば、膵臓、十二指腸等の生体組織の場合には、マージンMを大きくし、例えば胃、肝臓等の生体組織の場合には、マージンMを小さくすることで、特に熱損傷が発生した場合、その重篤さの程度が高い重要組織の熱損傷の発生を回避することができる。
 エネルギー出力調整指示は、基準エネルギー出力を基準として、エネルギー出力を増加させる、減少させる又は維持する指示である。ジェネレータ300は、エネルギー出力の設定操作を受け付ける操作部を有しており、その操作部によりエネルギー出力を例えば強度1~5の5段階のいずれかに設定可能である。強度1が最低のエネルギー出力、強度5が最高のエネルギー出力を示す。このとき、基準エネルギー出力は、例えば、予め決められた「強度3」等のエネルギー出力である。その場合、基準エネルギー出力よりも増加させる指示は、「強度4」又は「強度5」に設定する指示であり、基準エネルギー出力よりも減少させる指示は、「強度2」又は「強度1」に設定する指示である。或いは、基準エネルギー出力は、ジェネレータ300の操作部により設定されている現在のエネルギー出力であってもよい。その場合、基準エネルギー出力よりも増加させる指示は、現在設定されているエネルギー出力よりも高いエネルギー出力に設定する指示であり、基準エネルギー出力よりも減少させる指示は、現在設定されているエネルギー出力よりも低いエネルギー出力に設定する指示である。或いは、基準エネルギー出力は、ジェネレータ300に設定可能な強度1~5の出力範囲であってもよい。その場合、基準エネルギー出力よりも増加させる指示は、「強度5」よりも高いエネルギー出力に設定する指示であり、基準エネルギー出力よりも減少させる指示は、「強度1」よりも低いエネルギー出力に設定する指示である。
 さて、外科手術においてエネルギー処置を行う際のポイントとして、エネルギーデバイス310からの熱拡散を抑制して周囲臓器の熱損傷を避けることが挙げられる。ここで、処置される組織は一様ではないため、組織種類の違い、組織状態の違い又は患者の個人差等により、切離等の処置に要する時間にバラつきが生じ、熱拡散の程度も様々になる。これらに対処し、熱拡散を抑制すべく、医師はエネルギーデバイスの出力エネルギーの調整を行っているが、経験が必要な操作であり、特に非エキスパートにおいては適切な調整が困難な場合がある。
 このように、一般に、エネルギーデバイスを用いた処置においては、しばしば周囲への熱拡散が問題となるため、医師が拡散の程度を推測しながら処置を行う。上記特許文献1に開示された手術システムでは、インピーダンス値等に基づいて処置対象組織の熱変性の有無を判定し、すでに熱変性が起きている場合には、エネルギー出力モードを低いエネルギーを出力するモードに切り替える。しかし、当該手術システムでは、エネルギーデバイスによる処置対象組織の熱変性有無の判断のみで、処置組織周辺への熱拡散について考慮されていない。このため、処置組織やエネルギーデバイスの状態に応じたエネルギー出力の適切な調整ができない問題がある。例えば、外科手術のエネルギー処置具を使用する際、特に経験の浅い医師にあっては、周囲組織への熱拡散に対する意識が薄れる場合がある。このような場合に、熱拡散が広く又は速く生じる組織にあっては、処置対象組織を熱変性させる前に熱が重要組織に伝搬し、重要組織に熱損傷を生じさせるおそれがある。
 この点、本実施形態によれば、システム10が、エネルギーデバイス310及び生体組織が撮像された撮像画像を取得し、学習済みモデルに基づく処理により熱拡散領域及び特定組織領域を推定し、エネルギーデバイスによる特定組織の熱損傷リスクを判定する。この熱損傷リスクに基づいて、システム10は処置対象組織に印加するエネルギーを適切な量に調整できるため、熱拡散に気づかずに重要組織の熱損傷を発生させるリスクを低減できる。このように、従来医師が行っていたエネルギーデバイスの出力エネルギーの調整を、システム10が行うことで、医師の負担を軽減できる。また、システム10が自律的に出力調整を行うことで、非エキスパートにおいても安定した処置が可能となる。以上により、手術の安定性向上が図られ、或いは医師の経験値に依らない手技の均てん化が図れる。
 図12は、重要組織及び熱拡散領域の推定処理の機械学習を行う学習装置500の構成例である。学習装置500は、例えばPC又はサーバ装置等の情報処理装置によって実現され、処理部510と記憶部520とを含む。
 処理部510はCPU等のプロセッサであり、記憶部520は半導体メモリ又はハードディスクドライブ等の記憶装置である。記憶部520は学習モデル522と教師データ521とを記憶している。ここで、教師データ521は第1教師データ521Aと第2教師データ521Bとを含む。また学習モデル522は、第1学習モデル522Aと第2学習モデル522Bとを含む。そして、処理部510が教師データ521を用いて学習モデル522を学習させることで、学習済みモデル121を生成する。教師データ521は、複数の学習用画像の画像データと、各学習用画像に付された正解データとを含む。ここで、第1教師データ521Aは重要組織についてのデータであり、第2教師データ521Bは熱拡散領域についてのデータである。また第1学習モデル522Aは重要組織についての学習モデルであり、第2学習モデル522Bは熱拡散領域についての学習モデルある。複数の学習用画像は、1又は複数の生体組織及び1又は複数のエネルギーデバイス310が写る内視鏡画像を含む。この内視鏡画像を学習用デバイス組織画像とも呼ぶ。また複数の学習用画像は、1又は複数の生体組織が写り、且つエネルギーデバイス310が写らない内視鏡画像を含んでもよい。この内視鏡画像を学習用組織画像とも呼ぶ。正解データは、セグメンテーション(領域検出)におけるアノテーション、ディテクション(位置検出)におけるアノテーション、クラシフィケーション(分類)における正解ラベル、又はリグレッション(回帰分析)における正解ラベルである。処理部510は、学習モデル522による推論処理に学習用画像を入力し、その推論処理の結果と正解データの誤差に基づいて学習モデル522にフィードバックを行い、それを多数の教師データで繰り返すことで、学習済みモデル121を生成する。生成された学習済みモデル121は、コントローラ100の記憶部120に転送される。
 図13は、重要組織の推定するための学習段階について説明した図である。図13に示すように、不図示の学習装置500では、学習用デバイス組織画像又は学習用組織画像を第1教師データ521Aとして、第1学習モデル522Aにフィードバックする。学習用デバイス組織画像とは、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギー出力中のエネルギーデバイス310及び少なくとも1つの生体組織が撮像された画像である。また学習用組織画像とは、少なくとも1つの生体組織が撮像された画像である。そして、学習用デバイス組織画像又は学習用組織画像は、当該画像上に重要組織の領域がラベリングされている。当該ラベリングは、例えば医師により付される。学習装置500において、このような多数の学習用デバイス組織画像又は学習用組織画像を第1教師データ521Aとして、第1学習モデル522Aにフィードバックすることで、制御部110が重要組織を推定する際の精度の向上が図られる。
 前述した熱拡散領域の推定プログラムのアノテーションは、例えばサーモカメラ等を用いて撮像された画像に基づいて第2教師データ521Bを作成することにより行う。図14は、サーモカメラによって撮像された温度情報を用いて、各種生体組織に熱拡散範囲を色付けした内視鏡画像の例である。図14に示す例では、摂氏59度以下、摂氏60度~摂氏79度、閾値温度以上の3つの温度範囲に分けて熱拡散状態が表示されている。閾値温度は、当該温度以上の温度になると熱損傷のおそれが生じる温度であり、図14の場合、摂氏80度である。そして、この場合、図14に示す画像が第2教師データ521Bの学習用画像になり、当該画像に色で示された熱拡散領域の情報が正解データになる。ここで、熱拡散による熱損傷リスクの評価は、例えば蛋白質の変性、細胞内酵素の失活が基準になる。その代替指標として、単純な温度範囲もよるリスク評価、温度と時間の積の履歴によるリスク評価、加熱量によるリスク評価又はアレニウスの式による活性化エネルギーに基づくリスク評価によるものが知られている。単純な温度範囲による場合、例えば摂氏60度、或いは摂氏50度がリスク評価の基準になる。また温度と時間の積の履歴による場合、例えば摂氏60度で0.1秒或いは、摂氏50度で0.1秒がリスク評価の基準になる。なお、加熱量によるリスク評価は肝臓の焼灼などで用いられ、アレニウスの式による活性化エネルギーに基づくリスク評価は火傷で主に用いられる。
 5.第2実施形態
 第2実施形態では、熱拡散領域の推定において履歴情報を用いる。以下、第1実施形態と異なる部分を主に説明する。図15は、熱拡散領域を推定するための学習段階について説明した図である。図15に示すように、不図示の学習装置500では、例えば前述したサーモカメラ等を用いて撮像された履歴画像を第2教師データ521Bとして、第2学習モデル522Bにフィードバックする。当該履歴画像は、例えば上述したサーモカメラによる温度情報に基づいて、色などで熱拡散領域が示された内視鏡画像である。このように熱拡散検出機能で用いるネットワークの学習には、直近の履歴画像を第2教師データ521Bとして用いることができる。
 また熱拡散領域を推定するための学習段階において、上記の履歴画像と併せて、例えばエネルギーデバイス310の出力エネルギーの履歴情報を第2教師データ521Bとして用いることもできる。具体的には、図15に示すように、エネルギーデバイス310の出力エネルギーのアウトプットの時間依存性についての情報を用いることができる。そして、上記の履歴画像と出力エネルギーの履歴情報は、シーン1、シーン2、・・・、シーンnというように多数のデータを含み、第2教師データ521Bとして用いられる。この第2教師データ521Bを第2学習モデル522Bにフィードバックを行い、第2学習済みモデル123が生成される。このようにすれば、直近の内視鏡画像に加えて、出力エネルギーの履歴情報についても第2学習モデル522Bにフィードバックでき、制御部110は、より高精度な熱拡散領域の推定が可能になる。
 図16は、図7に示した処理例のS21で用いられるインプット情報の例を示す。図16に示すように、制御部110はS21におけるインプット情報として、撮像タイミングの異なる複数の内視鏡画像を用いることができる。撮像タイミングの異なる内視鏡画像は、例えば、動画の各フレーム画像である。また、制御部110は複数の内視鏡画像と併せて、エネルギーデバイス310から出力されたエネルギー出力履歴に関する情報をインプット情報として用いることもできる。そして、図7のステップS22Bにおける熱拡散領域の検出は、複数の内視鏡画像及びエネルギー出力履歴情報に基づいて行われる。
 このように熱拡散領域の推定の際に、リアルタイムで撮像された画像のみでなく、直近の履歴画像及びエネルギーの出力履歴も含めてインプット情報として用いることで、動的な情報、例えば組織の収縮なども含めて熱拡散領域を推定することができる。従って、制御部110は、高い精度で熱拡散領域を推定することができる。
 図17は、前述した重要組織領域と熱拡散領域の距離、即ちマージンMのエネルギー出力時間Tに対する依存性を示す図である。図17に示す横軸のtは現在の時刻であり、t0は熱拡散が重要組織に到達すると推定される時刻である。従って、時刻t0の例えば規定時間n前の時刻t0-nが、重要組織の熱損傷リスクが有ると判断するタイミングになる。図17のグラフの時刻0から時刻tまでの時間のマージンMの振る舞いは、図16で説明したように、制御部110が、直近の履歴画像である撮像タイミングの異なる複数の内視鏡画像から推定することができる。図17に示すように、時刻0から時刻tまでは時間の経過に伴ってマージンMは減少している。そして、時刻0から時刻tまでのマージンMのエネルギー出力時間Tに対するマージンMの振る舞いから、熱拡散が重要組織に到達する推定時刻t0が予測できる。例えば、制御部110が、時刻0から時刻tまでのマージンMの振る舞いから、マージンMのエネルギー出力時間Tに対する依存性を外挿し、エネルギー出力時間Tを示す横軸との交点を求めることで時刻t0を予測できる。このようにして求められたt0から規定時間n前の時刻t0-nが、重要組織の熱損傷リスクが有るものと判断するタイミングになる。
 このように重要組織と熱拡散領域の距離であるマージンMの減少を時系列で取得し、熱拡散の到達が予測される時刻の規定時間n前に熱損傷リスクが有るものと判断することができる。即ち、制御部110は、特定組織領域に熱拡散が到達する時間を予測結果として出力し、熱損傷リスクを判定し、判定結果を出力することができる。このようにすれば、重要組織の熱損傷発生リスクを低減し、安全に手術を実施することができる。
 6.第3実施形態
 また図7に示す第1実施形態におけるS21のインプット情報は、複数波長画像の履歴情報を含んでいてもよい。例えば、図18に示すように、インプット情報として、エネルギー出力履歴と内視鏡の通常光による画像に加えて、特殊光によるリアルタイム画像及び履歴画像を含むことができる。特殊光により撮像された画像は、例えば、可視光の波長帯域よりも狭い狭帯域光、或いは複数の狭帯域光を使った照明光による複数波長画像である。このような複数波長画像としては、例えば、AFI(Auto Fluorescence Imaging)、NBI(Narrow Band Imaging)がある。なお、通常光は白色光ともいう。このように、熱拡散領域の検出の際に複数波長画像を用いることで、血管周囲の結合組織など、特定の組織に着目した情報もインプットすることができる。このようにすれば、結合組織の凝集など、動的な情報が得られやすくなり、それを活用することで、重要組織の推定、熱拡散領域の推定の精度が向上する。また熱拡散領域を推定するための学習段階については、図14、図15で説明したが、図19は、複数波長画像の履歴情報が第2教師データ521Bに含まれる場合の説明図である。図15に示す場合と比較して、第2教師データ521Bにリアルタイムの複数波長画像とその履歴画像が含まれている。不図示の学習装置500において、複数波長画像を含む第2教師データ521Bを第2学習モデル522Bにフィードバックし、第2学習済みモデル123が生成される。
 図20は、AFIにより摘出血管を観察した結果の画像例である。図20に示すように、AFIを用いることで、制御部110は、血管と結合組織を明確に識別して、摘出血管の観察を行うことが可能になる。このように、AFIの複数波長画像を用いることで、例えば熱収縮しやすい組織について分離観察することができ、画像認識の精度向上が図られる。
 7.第4実施形態
 また図7に示す第1実施形態において、制御部110が取得した撮像画像として、熱変性による白焼けを含む画像を用いることもできる。白焼けとは、熱により生体組織に熱損傷が生じ、他の熱損傷の生じていない部分と比較して白くなり、外見上、他の領域と異なって見える状態にあることをいう。このように、白焼けした範囲から熱損傷リスクのある領域を推定することができる。図21は、制御部110が取得した撮像画像として、熱変性による白焼けを含む画像を用いた場合について説明した図である。S31で制御部110は手術中の内視鏡画像を本機能のネットワークに入力し、画像処理を行うことで白焼けした範囲を推定する。具体的には、内視鏡画像に白やけ範囲をアノテーションして学習させたネットワークを用いる。また外見上の異常が現れていなくても、熱損傷が生じている場合がある。そこで、S32で、制御部110は抽出された白焼けした範囲に規定の範囲を追加した範囲を熱拡散領域とし、熱損傷リスク判断のインプット情報として用いる。
 このようにすれば、白焼けした範囲の情報は内視鏡画像から取得できるため、教師データ521作成時にサーモカメラなどの機器を使用する必要がなくなる。また、制御部110が使用するネットワークの数も減らすことができ、制御部110の処理を高速化できる。
 図22は、インプット情報に白焼けした領域がラベリングされた画像を含む場合における学習段階についての説明図である。不図示の学習装置500は、白焼けした範囲がラベリングされた生体組織が写った学習用デバイス組織画像又は学習用組織画像を第2教師データ521Bとして、第2学習モデル522Bにフィードバックを行い、第2学習済みモデル123を作成する。
 8.第5実施形態
 図23に示す第5実施形態は、図7の第1実施形態と、重要組織の検出を行うS22A及び熱拡散領域の検出を行うS22Bの推定処理の部分が異なっている。具体的には、第5実施形態の推定処理では、電熱経路の熱容量及び熱抵抗の認識を行うS42Cが加わっている。例えば、重要組織と熱拡散領域の距離が推定されたとしても、その重要組織と熱拡散領域の間の生体組織の組織伝熱特性が異なれば、重要組織に熱が拡散するまでの時間は変わってくる。このため、図7に示す第1実施形態では、電熱特性の影響は考慮されておらず、熱拡散の予測結果の精度が一定の水準に留まる。
 この点、第5実施形態では、学習済みモデル121は、エネルギーデバイス310の学習用エネルギー出力情報、学習用デバイス組織画像、又は学習用組織画像から、組織伝熱特性を推定するように学習している。そして、制御部110は、記憶部120に記憶された学習済みモデル121に基づく処理により、エネルギーデバイス310のエネルギー出力情報又は撮像画像から組織伝熱特性を推定する。従って、制御部110は熱拡散領域と重要組織の距離、即ちマージンMの減少を伝熱経路の特性から予測することができる。よって、重要組織の熱損傷の発生リスクを低減し、安全に手術を実施することができる。なお、マージンMの減少率の変化については、例えば、機械学習等を活用することで、予測することができる。
 9.第6実施形態
 図24に示す第6実施形態は、図7の第1実施形態と、熱損傷リスクの判定を行うS23後の処理が異なっている。第6実施形態では、制御部110が熱損傷リスクの判定を行った後、S54でアラート提示が必要か否かの判断をする。具体的には、制御部110は、S53の判定において熱損傷リスクがあると判定された場合にはアラート提示が必要と判断し、熱損傷リスクがないと判定された場合にはアラート提示は不要であると判断する。そして、制御部110は、熱損傷リスクがあると判定された場合には、S55でアラート提示を行い、熱損傷リスクがないと判定された場合には、S56でアラート提示を行わない。アラート提示は、例えば手術を行う医師が見るモニタ画面に、熱損傷リスクがあるため、現在のエネルギー出力よりエネルギー出力を低下させる推奨又はエネルギー出力を停止させる推奨を提示することにより行う。このようにすれば、熱損傷のリスクを通知した上で、医師の判断によりエネルギー出力の低下又は停止ができる。
 10.第7実施形態
 図25に示す第7実施形態は、図7の第1実施形態と、重要組織検出についてのS22Aが異なっている。第7実施形態では、重要組織の検出を内視鏡画像ではなく、などの術前画像との3Dマッチングで推定する。CT(Computed Tomography)或いはMRI(Magnetic Resonance Imaging)との3Dマッチングにより、重要組織の検出を行う。このようにすれば、内視鏡では見えない重要組織を検出することが可能になる。
 また、本実施形態のシステムは、プログラムとしても実現できる。即ち、本実施形態のプログラムは、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像をリアルタイムで取得することと、少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は少なくとも1つの生体組織が撮像された画像である学習用組織画像から、エネルギーデバイスのエネルギー出力により発生した、エネルギーデバイスから生体組織への熱拡散領域及び生体組織中の特定組織領域に関する情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、撮像画像から画像認識情報を推定することと、推定した画像認識情報からエネルギーデバイスのエネルギー出力による特定組織の熱損傷リスクを判定することと、をコンピュータに実行させることができる。ここで、コンピュータとしては、パソコン等のネットワーク端末等が想定される。但し、コンピュータは、スマートフォンやタブレット端末、スマートウォッチ等のウェアラブル端末であってもよい。このようにすることで、上記と同様の効果を得ることができる。
 以上に説明した本実施形態のシステム10は、学習済みモデル121を記憶する記憶部120と、制御部110と、を含む。学習済みモデル121は、学習用デバイス組織画像又は学習用組織画像からエネルギーデバイス310のエネルギー出力により発生した、エネルギーデバイス310から生体組織への熱拡散領域及び生体組織中の特定組織領域を推定するように学習される。学習用デバイス組織画像は、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギーデバイス310及び少なくとも1つの生体組織が撮像された画像である。学習用組織画像は、少なくとも1つの生体組織が撮像された画像である。制御部110は、少なくとも1つのエネルギーデバイス310及び少なくとも1つの生体組織が撮像されたエネルギー出力中の画像である撮像画像を取得する。制御部110は、記憶部120に記憶された学習済みモデル121に基づく処理により、撮像画像から熱拡散領域及び特定組織領域を推定する。制御部110は、推定した熱拡散領域及び特定組織領域から、エネルギーデバイス310のエネルギー出力による特定組織の熱損傷リスクを判定する。
 本実施形態によれば、システム10が、エネルギーデバイス310及び生体組織が撮像された撮像画像を取得し、学習済みモデルに基づく処理により熱拡散領域及び特定組織領域を推定し、エネルギーデバイスによる特定組織の熱損傷リスクを判定する。この熱損傷リスクに基づいて、システム10は処置対象組織に印加するエネルギーを適切な量に調整できるため、熱拡散に気づかずに重要組織の熱損傷を発生させるリスクを低減できる。このように、従来医師が行っていたエネルギーデバイスの出力エネルギーの調整を、システム10が行うことで、医師の負担を軽減できる。また、システム10が自律的に出力調整を行うことで、非エキスパートにおいても安定した処置が可能となる。以上により、手術の安定性向上が図られ、或いは医師の経験値に依らない手技の均てん化が図れる。なお、学習用デバイス組織画像、学習用組織画像、特定組織及び重要組織については、「1.システム」で説明されている。
 また本実施形態では、制御部110は、特定組織領域と熱拡散領域間の距離が、予め設定された閾値以下の場合に熱損傷リスクがあると判定してもよい。
 本実施形態によれば、コントローラ100の取得した画像から推定された結果に基づいて、特定組織領域と熱拡散領域間の距離を評価することができ、当該距離を熱損傷リスクの有無を判定するための基準として用いることができる。閾値を用いた熱損傷リスクの判定手法については「4.第1実施形態」で説明されている。
 また本実施形態では、閾値は、特定組織の組織種類に応じて異なっていてもよい。
 本実施形態によれば、熱損傷が特に問題となる特定組織について、熱損傷の発生リスクを回避できる。詳細は「4.第1実施形態」で説明されている。
 また本実施形態では、撮像画像は、各内視鏡画像の撮像タイミングが異なる複数の内視鏡画像であってもよい。
 本実施形態によれば、熱拡散領域ができる。従って、動的な情報についても考慮して熱拡散領域を推定することができ、熱拡散領域の推定精度の向上が図られる。なお、撮像タイミングが異なる複数の内視鏡画像については、「5.第2実施形態」の図16で説明されている。
 また本実施形態では、撮像画像が、各内視鏡画像の撮像タイミングの異なる複数の内視鏡画像であり、制御部110は、各画像から、熱拡散領域および特定組織領域を推定し、各画像から推定した複数の熱拡散領域及び特定組織領域に基づいて、特定組織領域に熱拡散が到達する時間を予測結果として出力してもよい。
 本実施形態によれば、コントローラ100が熱拡散領域と特定組織の距離の減少を時系列で取得し、熱拡散が特定組織領域に到達する時間を予測できる。これにより、手術を行う者は、その予測結果に基づいて、事前にエネルギーデバイスの出力を調整することができる。従って、特定組織領域の熱損傷発生リスクを低減し、安全に手術を実施することができる。なお、特定組織領域に熱拡散が到達する時間の予測については、「5.第2実施形態」の図17で説明されている。
 また本実施形態では、制御部110は、予測結果である時間より前に熱損傷リスクを判定し、判定結果を出力してもよい。
 本実施形態によれば、特定組織領域に熱拡散が到達する前に、熱損傷リスクについての判定結果が出力される。従って、特定組織の熱損傷が発生する所定時間前に、エネルギー出力の調整を行うことが可能になり、特定組織領域の熱損傷発生リスクを低減し、安全に手術を実施することができる。なお、特定組織領域に熱拡散が到達する時間の予測については、「5.第2実施形態」の図17で説明されている。
 また本実施形態では、制御部110は、判定の結果に基づいて、現在のエネルギー出力よりエネルギー出力を低下させる指示又はエネルギー出力を停止させる指示であるエネルギー出力調整指示を、エネルギーデバイス310へのエネルギー供給量をエネルギー出力調整指示に基づいて制御するジェネレータ300に対して、出力してもよい。
 本実施形態によれば、特定組織領域に熱損傷が発生するリスクに応じて、システム10が自律的にエネルギーの出力調整を行うことができる。従って、非エキスパートにおいても、特定組織領域に熱損傷が発生するリスクを回避できる。なお、エネルギー出力調整指示については、「4.第1実施形態」の図11で説明されている。
 また本実施形態では、制御部110は、判定の結果に基づいて、現在のエネルギー出力よりエネルギー出力を低下させる推奨又はエネルギー出力を停止させる推奨を提示してもよい。
 本実施形態によれば、エネルギー出力を低下又は停止させる推奨を提示できる。従って、これに基づいて、手術を行う者はエネルギー出力を調整できるようになる。詳細は、「9.第6実施形態」の図24で説明されている。
 また本実施形態では、学習済みモデル121は、エネルギーデバイス310の学習用エネルギー出力情報と学習用デバイス組織画像、又は学習用組織画像とから、エネルギーデバイス310から組織への熱拡散領域及び特定組織領域を推定するように学習した学習済みモデルであり、制御部110は、記憶部120に記憶された学習済みモデル121に基づく処理により、エネルギーデバイス310のエネルギー出力情報と撮像画像から熱拡散領域及び特定組織領域を推定してもよい。
 本実施形態によれば、学習段階において出力エネルギーの履歴情報についても学習モデル522にフィードバックできる。従って、制御部110は、より高精度な熱拡散領域の推定を行うことができる。なお、学習用エネルギー出力情報については、「5.第2実施形態」の図15で説明されている。
 また本実施形態では、エネルギーデバイス310は、組織を把持可能な2つのジョウ337、338を有するデバイスであり、ジェネレータ300からエネルギー供給を受けて2つのジョウ337、338からエネルギー出力を行うデバイスであってもよい。
 即ち、エネルギーデバイス310は、バイポーラデバイス330であってもよい。バイポーラデバイスについては、例えば「3.エネルギーデバイス」の図5で説明されている。
 また本実施形態では、エネルギーデバイス310は、超音波デバイス340であってもよい。
 ここで、超音波デバイス340は、超音波デバイス340とバイポーラデバイス330の併用デバイスであってもよい。超音波デバイス340及び併用デバイスについては、例えば「3.エネルギーデバイス」の図6で説明されている。
 また本実施形態では、撮像画像は、熱変性による白焼けを含んでいてもよい。
 本実施形態によれば、白焼けした範囲の情報は内視鏡画像から取得できるため、教師データ521作成時に他の機器を使用する必要がなくなる。また、制御部110が使用するネットワークの数も減らすことができ、制御部110の処理を高速化できる。なお、白焼けについては、「7.第4実施形態」で説明されている。
 また本実施形態では、撮像画像は、通常光とは異なる特殊光により撮像された内視鏡画像を含んでいてもよい。
 本実施形態によれば、熱拡散検出機能で用いるネットワークの学習時及び熱拡散領域の推定時の時系列データとして、複数波長画像も用いることで、血管周囲の結合組織など、特定の組織に着目した情報を追加でインプットすることができる。このようにすれば、結合組織の凝集など、動的な情報が得られやすくなり、それを活用することで特定組織領域、熱拡散領域等の推定の精度の向上が図られる。なお、通常光及び特殊光については、「6.第3実施形態」で説明されている。
 また本実施形態では、学習済みモデル121は、エネルギーデバイス310の学習用エネルギー出力情報、学習用デバイス組織画像、又は学習用組織画像から、組織伝熱特性を推定するように学習した学習済みモデルであり、制御部110は、記憶部120に記憶された学習済みモデル121に基づく処理により、エネルギーデバイス310のエネルギー出力情報又は撮像画像から組織伝熱特性を推定してもよい。
 本実施形態によれば、制御部110は熱拡散領域と特定組織領域の距離の減少を伝熱経路の特性から予測することができる。従って、特定組織領域の熱損傷の発生リスクを低減し、安全に手術を実施できる。なお、組織伝熱特性については、「8.第5実施形態」で説明されている。
 また以上の処理はプログラムとして記述されてもよい。即ち、本実施形態のプログラムは、撮像画像を取得することと、学習済みモデル121に基づく処理により撮像画像から、エネルギーデバイスから生体組織への熱拡散領域及び生体組織中の特定組織領域に関する情報の少なくとも1つである画像認識情報を推定することと、推定した画像認識情報からエネルギーデバイス310のエネルギー出力による特定組織の熱損傷リスクを判定することと、をコントローラ100に実行させる。
 また以上の処理は方法として記述されてもよい。即ち、本実施形態の方法は、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像をリアルタイムで取得することと、少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は少なくとも1つの生体組織が撮像された画像である学習用組織画像から、エネルギーデバイスのエネルギー出力により発生した、エネルギーデバイスから生体組織への熱拡散領域及び生体組織中の特定組織領域に関する情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、撮像画像から画像認識情報を推定することと、推定した画像認識情報からエネルギーデバイスのエネルギー出力による特定組織の熱損傷リスクを判定することにより熱損傷リスクの判定を行う。
 以上、本実施形態およびその変形例について説明したが、本開示は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、本開示の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
10 システム、100 コントローラ、110 制御部、111 熱拡散検出部、112 重要組織検出部、113 出力設定部、114 熱損傷リスク判断部、120 記憶部、121 学習済みモデル、122 第1学習済みモデル、123 第2学習済みモデル、180 I/Oデバイス、190 I/Oデバイス、200 内視鏡システム、210 内視鏡、220 本体装置、230 ディスプレイ、300 ジェネレータ、310 エネルギーデバイス、320 モノポーラデバイス、321 電極、322 挿入部、323 操作部、325 ケーブル、330 バイポーラデバイス、331 先端部、332 挿入部、333 操作部、335 ケーブル、336 基端、337 ジョウ、338 ジョウ、340 超音波デバイス、341 先端部、342 挿入部、343 操作部、344a 操作ボタン、344b 操作ボタン、345 ケーブル、346 基端、347 ジョウ、348 プローブ、500 学習装置、510 処理部、520 記憶部、521 教師データ、521A 第1教師データ、521B 第2教師データ、522 学習モデル、522A 第1学習モデル、522B 第2学習モデル、M マージン、S1 ステップ、S21 ステップ、S22B ステップ、S24 ステップ、S2A ステップ、S2B ステップ、S3 ステップ、T エネルギー出力時間、n 規定時間、t0 推定時刻

Claims (16)

  1.  エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記エネルギーデバイスのエネルギー出力により発生した、前記エネルギーデバイスから前記生体組織への熱拡散領域及び前記生体組織中の特定組織領域を推定するように学習した学習済みモデルを記憶する記憶部と、
     制御部と、
     を含み、
     前記制御部は、
     少なくとも1つの前記エネルギーデバイス及び少なくとも1つの前記生体組織が撮像されたエネルギー出力中の画像である撮像画像を取得し、
     前記記憶部に記憶された前記学習済みモデルに基づく処理により、前記撮像画像から前記熱拡散領域及び前記特定組織領域を推定し、
     推定した前記熱拡散領域及び前記特定組織領域から、前記エネルギーデバイスのエネルギー出力による前記特定組織の熱損傷リスクを判定することを特徴とするシステム。
  2.  請求項1に記載されたシステムにおいて、
     前記制御部は、
     前記特定組織領域と前記熱拡散領域間の距離が、予め設定された閾値以下の場合に熱損傷リスクがあると判定することを特徴とするシステム。
  3.  請求項2に記載されたシステムにおいて、
     前記閾値は、前記特定組織の組織種類に応じて異なることを特徴とするシステム。
  4.  請求項1に記載のシステムにおいて、
     前記撮像画像は、各画像の撮像タイミングが異なる複数の内視鏡画像であることを特徴とするシステム。
  5.  請求項1に記載されたシステムにおいて、
     前記制御部は、
     前記各画像から、前記熱拡散領域および前記特定組織領域を推定し、
     前記各画像から推定した複数の前記熱拡散領域及び前記特定組織領域に基づいて、前記特定組織領域に熱拡散が到達する時間を予測結果として出力することを特徴とするシステム。
  6.  請求項5に記載されたシステムにおいて、
     前記制御部は、
     前記予測結果である時間より前に熱損傷リスクを判定し、判定結果を出力することを特徴とするシステム。
  7.  請求項1に記載されたシステムにおいて、
     前記制御部は、
     前記判定の結果に基づいて、現在のエネルギー出力よりエネルギー出力を低下させる指示又はエネルギー出力を停止させる指示であるエネルギー出力調整指示を、前記エネルギーデバイスへのエネルギー供給量を前記エネルギー出力調整指示に基づいて制御するジェネレータに対して、出力することを特徴とするシステム。
  8.  請求項1に記載されたシステムにおいて、
     前記制御部は、
     前記判定の結果に基づいて、現在のエネルギー出力よりエネルギー出力を低下させる推奨又はエネルギー出力を停止させる推奨を提示することを特徴とするシステム。
  9.  請求項1に記載されたシステムにおいて、
     前記学習済みモデルは、
     前記エネルギーデバイスの学習用エネルギー出力情報と前記学習用デバイス組織画像、又は前記学習用組織画像とから、前記エネルギーデバイスから組織への前記熱拡散領域及び前記特定組織領域を推定するように学習した学習済みモデルであり、
     前記制御部は、
     前記記憶部に記憶された前記学習済みモデルに基づく処理により、前記エネルギーデバイスのエネルギー出力情報と前記撮像画像から前記熱拡散領域及び前記特定組織領域を推定することを特徴とするシステム。
  10.  請求項1に記載されたシステムにおいて、
     前記エネルギーデバイスは、
     組織を把持可能な2つのジョウを有するデバイスであり、ジェネレータから前記エネルギー供給を受けて前記2つのジョウからエネルギー出力を行うデバイスであることを特徴とするシステム。
  11.  請求項1に記載されたシステムにおいて、
     前記エネルギーデバイスは、超音波デバイスであることを特徴とするシステム。
  12.  請求項1に記載されたシステムにおいて、
     前記撮像画像は、熱変性による白焼けを含むことを特徴とするシステム。
  13.  請求項1に記載のシステムにおいて、
     前記撮像画像は、通常光とは異なる特殊光により撮像された内視鏡画像を含むであることを特徴とするシステム。
  14.  請求項1に記載されたシステムにおいて、
     前記学習済みモデルは、
     前記エネルギーデバイスの学習用エネルギー出力情報、前記学習用デバイス組織画像、又は前記学習用組織画像から、組織伝熱特性を推定するように学習した学習済みモデルであり、
     前記制御部は、
     前記記憶部に記憶された前記学習済みモデルに基づく処理により、前記エネルギーデバイスのエネルギー出力情報又は前記撮像画像から前記組織伝熱特性を推定することを特徴とするシステム。
  15.  エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像をリアルタイムで取得することと、
     前記少なくとも1つのエネルギー出力中のエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記エネルギーデバイスのエネルギー出力により発生した、前記エネルギーデバイスから前記生体組織への熱拡散領域及び前記生体組織中の特定組織領域に関する情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定することと、
     推定した前記画像認識情報から前記エネルギーデバイスのエネルギー出力による前記特定組織の熱損傷リスクを判定することと、
     をコンピュータに実行させることを特徴とするプログラム。
  16.  エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギー出力中のエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像をリアルタイムで取得することと、
     前記少なくとも1つのエネルギー出力中のエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記エネルギーデバイスのエネルギー出力により発生した、前記エネルギーデバイスから前記生体組織への熱拡散領域及び前記生体組織中の特定組織領域に関する情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定することと、
     推定した前記画像認識情報から前記エネルギーデバイスのエネルギー出力による前記特定組織の熱損傷リスクを判定することと、
     を特徴とする熱損傷リスクの判定方法。
PCT/JP2022/009693 2021-07-13 2022-03-07 システム、プログラム及び判定方法 WO2023286336A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023535111A JPWO2023286336A5 (ja) 2022-03-07 システム
US18/368,100 US20230419486A1 (en) 2021-07-13 2023-09-14 System

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163221128P 2021-07-13 2021-07-13
US63/221,128 2021-07-13
US202163222252P 2021-07-15 2021-07-15
US63/222,252 2021-07-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/368,100 Continuation US20230419486A1 (en) 2021-07-13 2023-09-14 System

Publications (1)

Publication Number Publication Date
WO2023286336A1 true WO2023286336A1 (ja) 2023-01-19

Family

ID=84919163

Family Applications (4)

Application Number Title Priority Date Filing Date
PCT/JP2022/009692 WO2023286335A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び情報処理方法
PCT/JP2022/009691 WO2023286334A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及びエネルギー出力調整方法
PCT/JP2022/009694 WO2023286337A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び情報処理方法
PCT/JP2022/009693 WO2023286336A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び判定方法

Family Applications Before (3)

Application Number Title Priority Date Filing Date
PCT/JP2022/009692 WO2023286335A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び情報処理方法
PCT/JP2022/009691 WO2023286334A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及びエネルギー出力調整方法
PCT/JP2022/009694 WO2023286337A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び情報処理方法

Country Status (3)

Country Link
US (4) US20230380695A1 (ja)
JP (3) JP7493684B2 (ja)
WO (4) WO2023286335A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140296842A1 (en) * 2013-04-02 2014-10-02 Siemens Corporation Patient Specific Planning and Simulation of Ablative Procedures
WO2020104308A1 (en) * 2018-11-20 2020-05-28 Koninklijke Philips N.V. Temporal mapping of thermal ablation areas
US20210038314A1 (en) * 2019-08-11 2021-02-11 phenoMapper, LLC Method and System for Personalized Treatment Planning in Ablation of Cancerous Tissue
JP2021029258A (ja) * 2019-08-13 2021-03-01 ソニー株式会社 手術支援システム、手術支援方法、情報処理装置、及び情報処理プログラム
JP2021029979A (ja) * 2019-08-29 2021-03-01 国立研究開発法人国立がん研究センター 教師データ生成装置、教師データ生成プログラム及び教師データ生成方法
JP2021049341A (ja) * 2019-09-22 2021-04-01 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 機械学習(ml)を使用する心臓アブレーションの案内
JP2021083970A (ja) * 2019-11-29 2021-06-03 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム
JP2021514724A (ja) * 2018-02-23 2021-06-17 バイオコンパティブルズ ユーケー リミテッド ボリュームの画像処理

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10314655B2 (en) 2015-04-02 2019-06-11 Heartflow, Inc. Systems and methods for providing personalized estimates of bioheat transfer
JPWO2017090165A1 (ja) * 2015-11-26 2018-08-30 オリンパス株式会社 処置システム、及び処置具
US10786298B2 (en) 2016-03-01 2020-09-29 Covidien Lp Surgical instruments and systems incorporating machine learning based tissue identification and methods thereof
US11908584B2 (en) * 2017-05-15 2024-02-20 Ne Scientific, Llc Methods and systems for modeling a necrotized tissue volume in an ablation procedure
JP7043317B2 (ja) 2018-03-29 2022-03-29 富士フイルムヘルスケア株式会社 医療システム
US11666368B2 (en) * 2018-09-07 2023-06-06 Cilag Gmbh International Method for constructing and using a modular surgical energy system with multiple devices
JP6952204B2 (ja) * 2018-11-07 2021-10-20 オリンパス株式会社 制御装置、残熱判定方法、及び残熱判定プログラム
JP7482690B2 (ja) * 2020-06-04 2024-05-14 リンナイ株式会社 加熱調理システム、加熱調理方法、学習装置および学習方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140296842A1 (en) * 2013-04-02 2014-10-02 Siemens Corporation Patient Specific Planning and Simulation of Ablative Procedures
JP2021514724A (ja) * 2018-02-23 2021-06-17 バイオコンパティブルズ ユーケー リミテッド ボリュームの画像処理
WO2020104308A1 (en) * 2018-11-20 2020-05-28 Koninklijke Philips N.V. Temporal mapping of thermal ablation areas
US20210038314A1 (en) * 2019-08-11 2021-02-11 phenoMapper, LLC Method and System for Personalized Treatment Planning in Ablation of Cancerous Tissue
JP2021029258A (ja) * 2019-08-13 2021-03-01 ソニー株式会社 手術支援システム、手術支援方法、情報処理装置、及び情報処理プログラム
JP2021029979A (ja) * 2019-08-29 2021-03-01 国立研究開発法人国立がん研究センター 教師データ生成装置、教師データ生成プログラム及び教師データ生成方法
JP2021049341A (ja) * 2019-09-22 2021-04-01 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 機械学習(ml)を使用する心臓アブレーションの案内
JP2021083970A (ja) * 2019-11-29 2021-06-03 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム

Also Published As

Publication number Publication date
JPWO2023286335A1 (ja) 2023-01-19
US20230419486A1 (en) 2023-12-28
JP7493684B2 (ja) 2024-05-31
JPWO2023286336A1 (ja) 2023-01-19
WO2023286335A1 (ja) 2023-01-19
JP7465413B2 (ja) 2024-04-10
US20230404652A1 (en) 2023-12-21
WO2023286334A1 (ja) 2023-01-19
US20230380695A1 (en) 2023-11-30
JPWO2023286334A1 (ja) 2023-01-19
US20230410298A1 (en) 2023-12-21
WO2023286337A1 (ja) 2023-01-19
JPWO2023286337A1 (ja) 2023-01-19

Similar Documents

Publication Publication Date Title
JP5789387B2 (ja) 重要な構造に対する近接を決定するためのシステムおよび方法
JP5814569B2 (ja) 重要な構造に対する近接を決定するためのシステムおよび方法
US8968314B2 (en) Apparatus, system and method for performing an electrosurgical procedure
US8753333B2 (en) System for determining proximity relative to a nerve
EP3001941A1 (en) Endoscopic device and endoscopic device operation method
US11992338B2 (en) System and method used to detect or differentiate tissue or an artifact
US20210100606A1 (en) Systems and methods for controlling delivery of electrosurgical energy
US20220233229A1 (en) Method and system for controlling a surgical hf generator, and software program product
WO2023286336A1 (ja) システム、プログラム及び判定方法
WO2021173286A1 (en) Energy based surgical systems and methods based on an artificial-intelligence learning system
US20240135542A1 (en) Surgery details evaluation system, surgery details evaluation method, and computer program
WO2023149527A1 (ja) 医療用システム、報知方法及び医療用システムの作動方法
CN116887771A (zh) 系统、程序以及能量输出调整方法
US20240099763A1 (en) Tissue therapy energy delivery using optical imaging
JP6184649B1 (ja) 処置システム及び制御装置
EP4082024A1 (en) Energy-based surgical systems and methods based on an artificial-intelligence learning system
JP7212756B2 (ja) 医療用システム、エネルギー制御方法、およびプロセッサ
CN117460474A (zh) 使用光学成像进行组织治疗能量递送
JP2023534929A (ja) 組織又はアーティファクトを検出又は区別するために使用されるシステム及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22841686

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023535111

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE