WO2022145424A1 - コンピュータプログラム、学習モデルの生成方法、及び手術支援装置 - Google Patents

コンピュータプログラム、学習モデルの生成方法、及び手術支援装置 Download PDF

Info

Publication number
WO2022145424A1
WO2022145424A1 PCT/JP2021/048592 JP2021048592W WO2022145424A1 WO 2022145424 A1 WO2022145424 A1 WO 2022145424A1 JP 2021048592 W JP2021048592 W JP 2021048592W WO 2022145424 A1 WO2022145424 A1 WO 2022145424A1
Authority
WO
WIPO (PCT)
Prior art keywords
blood vessel
surgical field
learning model
image
field image
Prior art date
Application number
PCT/JP2021/048592
Other languages
English (en)
French (fr)
Inventor
直 小林
勇太 熊頭
成昊 銭谷
Original Assignee
アナウト株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アナウト株式会社 filed Critical アナウト株式会社
Priority to JP2022501024A priority Critical patent/JP7146318B1/ja
Priority to CN202180088036.8A priority patent/CN116724334A/zh
Priority to US18/268,889 priority patent/US20240049944A1/en
Publication of WO2022145424A1 publication Critical patent/WO2022145424A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Definitions

  • the present invention relates to a computer program, a learning model generation method, and a surgical support device.
  • An object of the present invention is to provide a computer program capable of outputting a blood vessel recognition result from a surgical field image, a learning model generation method, and a surgical support device.
  • the computer program in one aspect of the present invention learns to acquire an image of the surgical field obtained by imaging the surgical field of endoscopic surgery on a computer, and to output information on blood vessels when the surgical field image is input. It is a computer program for discriminating and recognizing a blood vessel included in an acquired surgical field image and a blood vessel which should call attention among the blood vessels by using the learned learning model.
  • the method of generating a learning model in one aspect of the present invention includes a surgical field image obtained by imaging the surgical field of a microscopic operation by a computer, and first correct answer data showing a blood vessel portion included in the surgical field image. , When training data including the second correct answer data indicating the blood vessel part that should call attention is acquired and the surgical field image is input based on the acquired training data set, the information about the blood vessel is output. Generate a learning model to do.
  • the surgical support device has an acquisition unit that acquires a surgical field image obtained by imaging the surgical field under a microscope, and outputs information about a blood vessel when the surgical field image is input.
  • the recognition unit that distinguishes and recognizes the blood vessels included in the acquired surgical field image and the blood vessels that should call attention among the blood vessels, and the recognition unit based on the recognition result of the recognition unit. It is equipped with an output unit that outputs support information related to endoscopic surgery.
  • the recognition result of blood vessels can be output from the surgical field image.
  • FIG. It is a schematic diagram explaining the schematic structure of the laparoscopic surgery support system which concerns on Embodiment 1.
  • FIG. It is a block diagram explaining the internal structure of the operation support device. It is a schematic diagram which shows an example of a surgical field image. It is a schematic diagram which shows the structural example of the 1st learning model. It is a schematic diagram which shows the recognition result by the 1st learning model. It is a schematic diagram which shows the structural example of the 2nd learning model. It is a schematic diagram which shows the recognition result by the 2nd learning model. It is a flowchart explaining the generation procedure of the 1st learning model. It is a flowchart explaining the execution procedure of the surgical support. It is a schematic diagram which shows the display example of a micro blood vessel.
  • FIG. It is a schematic diagram which shows the display example of the attention blood vessel. It is explanatory drawing explaining the generation method of the training data for the 2nd learning model. It is explanatory drawing explaining the structure of the soft max layer of the learning model in Embodiment 3.
  • FIG. It is a schematic diagram which shows the display example in Embodiment 3. It is a schematic diagram which shows the display example in Embodiment 4. It is explanatory drawing explaining the display method in Embodiment 5. It is a flowchart explaining the procedure of the process executed by the operation support apparatus which concerns on Embodiment 6. It is a schematic diagram which shows the display example in Embodiment 6. It is explanatory drawing explaining the structure of the soft max layer of the learning model in Embodiment 7.
  • Embodiment 7 It is a schematic diagram which shows the display example in Embodiment 7. It is a schematic diagram which shows the structural example of the learning model for a special optical image. It is a flowchart explaining the procedure of the process executed by the operation support apparatus which concerns on Embodiment 8. It is explanatory drawing explaining the outline of the process performed by the operation support apparatus which concerns on Embodiment 9. It is a flowchart explaining the execution procedure of the operation support in Embodiment 10. It is a schematic diagram which shows the example of the enlarged display. It is a schematic diagram which shows the example of the warning display.
  • FIG. 1 is a schematic diagram illustrating a schematic configuration of a laparoscopic surgery support system according to the first embodiment.
  • trocca 10 In laparoscopic surgery, instead of performing laparotomy, a plurality of laparoscopic devices called trocca 10 are attached to the abdominal wall of the patient, and the laparoscope 11, energy treatment tool 12, and forceps 13 are attached through the laparoscopic holes provided in the trocca 10. Insert a device such as into the patient's body. The surgeon performs treatment such as excising the affected area using the energy treatment tool 12 while viewing the image of the inside of the patient (surgical field image) captured by the laparoscope 11 in real time. The surgical tools such as the laparoscope 11, the energy treatment tool 12, and the forceps 13 are held by an operator, a robot, or the like. A surgeon is a medical worker involved in laparoscopic surgery, including a surgeon, an assistant, a nurse, and a doctor who monitors the surgery.
  • the laparoscope 11 includes an insertion portion 11A inserted into the patient's body, an image pickup device 11B built in the tip portion of the insertion portion 11A, an operation portion 11C provided in the rear end portion of the insertion portion 11A, and a camera control unit (CCU). )
  • a universal cord 11D for connecting to the 110 or the light source device 120 is provided.
  • the insertion portion 11A of the laparoscope 11 is formed by a rigid tube.
  • a curved portion is provided at the tip of the rigid tube.
  • the bending mechanism in the curved portion is a well-known mechanism incorporated in a general laparoscope, and is configured to be curved in four directions, for example, up, down, left, and right by pulling an operation wire linked to the operation of the operation portion 11C. ..
  • the laparoscope 11 is not limited to the flexible mirror having a curved portion as described above, and may be a rigid mirror having no curved portion or an imaging device having no curved portion or a rigid tube. Further, the laparoscope 11 may be an omnidirectional camera that captures a range of 360 degrees.
  • the image pickup device 11B includes a solid-state image pickup element such as CMOS (Complementary Metal Oxide Semiconductor), and a driver circuit including a timing generator (TG) and an analog signal processing circuit (AFE).
  • CMOS Complementary Metal Oxide Semiconductor
  • AFE analog signal processing circuit
  • the driver circuit of the image pickup device 11B takes in the signals of each RGB color output from the solid-state image sensor in synchronization with the clock signal output from the TG, and performs necessary processing such as noise reduction, amplification, and AD conversion in AFE. , Generate digital format image data.
  • the driver circuit of the image pickup apparatus 11B transmits the generated image data to the CCU 110 via the universal code 11D.
  • the operation unit 11C is provided with an angle lever, a remote switch, etc. operated by the operator.
  • the angle lever is an operating tool that receives an operation for bending a curved portion.
  • a curved operation knob, a joystick, or the like may be provided.
  • the remote switch includes, for example, a changeover switch for switching the observed image to a moving image display or a still image display, a zoom switch for enlarging or reducing the observed image, and the like.
  • the remote switch may be assigned a specific predetermined function, or may be assigned a function set by the operator.
  • the operation unit 11C may have a built-in oscillator composed of a linear resonance actuator, a piezo actuator, or the like.
  • the CCU 110 vibrates the operation unit 11C by operating the vibrator built in the operation unit 11C, and causes the occurrence of the event. You may inform the surgeon.
  • a light guide or the like that guides the illumination light emitted from the light source device 120 to the tip end portion of the insertion portion 11A is arranged.
  • the illumination light emitted from the light source device 120 is guided to the tip portion of the insertion portion 11A through the light guide, and is irradiated to the surgical field through the illumination lens provided at the tip portion of the insertion portion 11A.
  • the light source device 120 is described as an independent device, but the light source device 120 may be configured to be built in the CCU 110.
  • the CCU 110 includes a control circuit for controlling the operation of the image pickup device 11B included in the laparoscope 11, an image processing circuit for processing image data from the image pickup device 11B input through the universal code 11D, and the like.
  • the control circuit includes a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), etc., and responds to the operation of various switches provided in the CCU 110 and the operation of the operation unit 11C provided in the laparoscope 11.
  • a control signal is output to the image pickup device 11B, and control such as start of image pickup, stop of image pickup, and zoom is performed.
  • the image processing circuit is equipped with a DSP (Digital Signal Processor), image memory, etc., and is suitable for color separation, color interpolation, gain correction, white balance adjustment, gamma correction, etc. for image data input through the universal code 11D. Apply processing.
  • the CCU 110 generates a frame image for moving images from the processed image data, and sequentially outputs each generated frame image to the surgery support device 200 described later.
  • the frame rate of the frame image is, for example, 30 FPS (FramesPerSecond).
  • the CCU 110 may generate video data conforming to a predetermined standard such as NTSC (National Television System Committee), PAL (Phase Alternate Line), DICOM (Digital Imaging and COmmunication in Medicine).
  • NTSC National Television System Committee
  • PAL Phase Alternate Line
  • DICOM Digital Imaging and COmmunication in Medicine
  • the CCU 110 can display the surgical field image (video) on the display screen of the display device 130 in real time.
  • the display device 130 is a monitor provided with a liquid crystal panel, an organic EL (Electro-Luminescence) panel, and the like. Further, the CCU 110 may output the generated video data to the recording device 140 and have the recording device 140 record the video data.
  • the recording device 140 includes a recording device such as an HDD (Hard Disk Drive) that records video data output from the CCU 110 together with an identifier that identifies each operation, an operation date and time, an operation place, a patient name, an operator name, and the like. It was
  • the surgery support device 200 generates support information regarding laparoscopic surgery based on the image data input from the CCU 110 (that is, the image data of the surgical field image obtained by imaging the surgical field). Specifically, the surgical support device 200 distinguishes and recognizes all the microvessels included in the surgical field image and the microvessels that should call attention among these microvessels, and obtains information on the recognized microvessels. A process for displaying on the display device 130 is performed.
  • the microblood vessel does not have a unique name and represents a small blood vessel that runs irregularly in the body.
  • Blood vessels that have a unique name and can be easily recognized by the operator may be excluded from the recognition target. That is, unique names such as left gastric artery, right gastric artery, left hepatic artery, right hepatic artery, splenic artery, superior mesenteric artery, inferior mesenteric artery, hepatic vein, left renal vein, and right renal vein are given.
  • the blood vessels may be excluded from the recognition target.
  • Microvessels are blood vessels with a diameter of approximately 3 mm or less. Even a blood vessel having a diameter of more than 3 mm can be recognized if it is not given a unique name. On the contrary, even if the blood vessel has a diameter of 3 mm or less, the blood vessel that has a unique name and can be easily recognized by the operator may be excluded from the recognition target.
  • the microvessels that should be alerted refer to the above-mentioned microvessels that require attention by the operator (hereinafter, also referred to as attention vessels).
  • Attention blood vessels are blood vessels that may be damaged during surgery or that may not be noticed by the operator during surgery.
  • the surgical support device 200 may recognize a microvessel existing in the central visual field of the operator as a caution blood vessel, or may recognize a microvessel not present in the central visual field of the operator as a caution blood vessel. Further, the surgical support device 200 may recognize microvessels in a tensioned state such as extension as attention vessels regardless of whether or not they are present in the central visual field.
  • a configuration for executing the recognition processing of microvessels in the surgery support device 200 will be described, but as a configuration in which the CCU 110 is provided with the same function as the surgery support device 200 and the recognition processing for microvessels is executed in the CCU 110. May be good.
  • FIG. 2 is a block diagram illustrating the internal configuration of the surgery support device 200.
  • the surgery support device 200 is a dedicated or general-purpose computer including a control unit 201, a storage unit 202, an operation unit 203, an input unit 204, an output unit 205, a communication unit 206, and the like.
  • the surgery support device 200 may be a computer installed in the operating room or a computer installed outside the operating room. Further, the surgery support device 200 may be a server installed in the hospital where the laparoscopic surgery is performed, or may be a server installed outside the hospital.
  • the control unit 201 includes, for example, a CPU, a ROM, a RAM, and the like.
  • the ROM included in the control unit 201 stores a control program or the like that controls the operation of each hardware unit included in the surgery support device 200.
  • the CPU in the control unit 201 executes a control program stored in the ROM and various computer programs stored in the storage unit 202 described later, and controls the operation of each part of the hardware to support the operation of the entire device in the present application. Make it function as a device.
  • the RAM included in the control unit 201 temporarily stores data and the like used during the execution of the calculation.
  • control unit 201 is configured to include a CPU, ROM, and RAM, but the configuration of the control unit 201 is arbitrary, for example, GPU (Graphics Processing Unit), DSP (Digital Signal Processor), FPGA. It may be an arithmetic circuit or a control circuit provided with one or a plurality of (FieldProgrammableGateArray), a quantum processor, a volatile or non-volatile memory, and the like. Further, the control unit 201 may have functions such as a clock for outputting date and time information, a timer for measuring the elapsed time from the instruction for starting measurement to the instruction for ending measurement, and a counter for counting numbers. good.
  • the storage unit 202 includes a storage device using a hard disk, a flash memory, or the like.
  • the storage unit 202 stores a computer program executed by the control unit 201, various data acquired from the outside, various data generated inside the apparatus, and the like.
  • the computer program stored in the storage unit 202 is a recognition processing program PG1 that causes the control unit 201 to execute a process for recognizing a microvessel portion included in the surgical field image, and displays support information based on the recognition result on the display device 130.
  • the display processing program PG2 for causing the control unit 201 to execute the processing for causing the control, and the learning processing program PG3 for generating the learning models 310 and 320 are included.
  • the recognition processing program PG1 and the display processing program PG2 do not have to be independent computer programs, and may be implemented as one computer program. These programs are provided, for example, by a non-temporary recording medium M in which a computer program is readablely recorded.
  • the recording medium M is a portable memory such as a CD-ROM, a USB memory, or an SD (Secure Digital) card.
  • the control unit 201 reads a desired computer program from the recording medium M using a reading device (not shown in the figure), and stores the read computer program in the storage unit 202.
  • the computer program may be provided by communication using the communication unit 206.
  • the learning models 310 and 320 used in the above-mentioned recognition processing program PG1 are stored in the storage unit 202.
  • the learning model 310 is a learning model trained to output the recognition result of the microvessel portion included in the surgical field image in response to the input of the surgical field image.
  • the learning model 320 is a learning model trained to output the recognition result of the microvessel portion that should call attention among the microvessels included in the surgeon image.
  • the learning models 310 and 320 are described separately, the former is also described as the first learning model 310, and the latter is also described as the second learning model 320.
  • the learning models 310 and 320 are described by definition information, respectively.
  • the definition information of the learning models 310 and 320 includes information on the layers included in the learning models 310 and 320, information on the nodes constituting each layer, and parameters such as weighting and bias between the nodes.
  • the learning model 310 stored in the storage unit 202 uses a predetermined learning algorithm with the surgical field image obtained by imaging the surgical field and the correct answer data indicating the microvascular portion in the surgical field image as training data. It is a learned and learned learning model.
  • the learning model 320 has been trained using a predetermined learning algorithm using the surgical field image obtained by imaging the surgical field and the correct answer data indicating the attention vessel portion in the surgical field image as training data. It is a learning model of.
  • the configuration of the learning models 310 and 320 and the procedure for generating the learning models 310 and 320 will be described in detail later.
  • the operation unit 203 includes an operation device such as a keyboard, a mouse, a touch panel, and a stylus pen.
  • the operation unit 203 receives an operation by an operator or the like, and outputs information regarding the received operation to the control unit 201.
  • the control unit 201 executes appropriate processing according to the operation information input from the operation unit 203.
  • the surgery support device 200 is provided with the operation unit 203, but the operation may be received through various devices such as the CCU 110 connected to the outside.
  • the input unit 204 includes a connection interface for connecting input devices.
  • the input device connected to the input unit 204 is the CCU 110.
  • Image data of the surgical field image imaged by the laparoscope 11 and processed by the CCU 110 is input to the input unit 204.
  • the input unit 204 outputs the input image data to the control unit 201.
  • the control unit 201 may store the image data acquired from the input unit 204 in the storage unit 202.
  • the configuration of acquiring the image data of the surgical field image from the CCU 110 through the input unit 204 will be described, but the image data of the surgical field image may be directly acquired from the laparoscope 11 and the laparoscope 11 may be obtained.
  • Image data of the surgical field image may be acquired from an image processing device (not shown) that is detachably attached to the surgical field.
  • the surgery support device 200 may acquire image data of the surgical field image recorded in the recording device 140.
  • the output unit 205 includes a connection interface for connecting output devices.
  • the output device connected to the output unit 205 is the display device 130.
  • the control unit 201 When the control unit 201 generates information to be notified to the operator or the like, such as the recognition results by the learning models 310 and 320, the control unit 201 outputs the generated information from the output unit 205 to the display device 130 to provide information to the display device 130. Is displayed.
  • the display device 130 is connected to the output unit 205 as an output device, but an output device such as a speaker that outputs sound may be connected to the output unit 205.
  • the communication unit 206 includes a communication interface for transmitting and receiving various data.
  • the communication interface included in the communication unit 206 is a communication interface conforming to a wired or wireless communication standard used in Ethernet (registered trademark) and WiFi (registered trademark).
  • Ethernet registered trademark
  • WiFi registered trademark
  • the surgery support device 200 does not have to be a single computer, but may be a computer system including a plurality of computers and peripheral devices. Further, the surgery support device 200 may be a virtual machine virtually constructed by software.
  • FIG. 3 is a schematic diagram showing an example of a surgical field image.
  • the surgical field image in the present embodiment is an image obtained by imaging the inside of the abdominal cavity of the patient with a laparoscope 11.
  • the surgical field image does not have to be a raw image output by the image pickup device 11B of the laparoscope 11, and may be an image (frame image) processed by CCU 110 or the like.
  • the surgical field imaged by the laparoscope 11 includes tissues constituting organs, tissues including lesions such as tumors, membranes and layers covering the tissues, blood vessels existing around the tissues, and the like. While grasping the relationship between these anatomical structures, the surgeon uses an instrument such as forceps or an energy treatment tool to exfoliate or dissect the target tissue.
  • the surgical field image shown as an example in FIG. 3 shows a scene in which the membrane covering the organ is pulled by using forceps 13 and the periphery of the target tissue including the membrane is to be peeled off by using the energy treatment tool 12. Bleeding occurs when blood vessels are damaged during the process of such traction or detachment. Bleeding blurs the tissue boundaries and makes it difficult to recognize the correct exfoliated layer. In particular, in situations where hemostasis is difficult, the visual field is significantly deteriorated, and unreasonable hemostasis operation poses a risk of secondary injury.
  • the surgery support device 200 recognizes the microvessel portion included in the surgical field image using the learning models 310 and 320, and outputs the support information regarding the laparoscopic surgery based on the recognition result.
  • FIG. 4 is a schematic diagram showing a configuration example of the first learning model 310.
  • the first learning model 310 is a learning model for performing image segmentation, and is constructed by a neural network including a convolution layer such as SegNet.
  • the first learning model 310 is constructed not only by SegNet but also by using an arbitrary neural network capable of image segmentation such as FCN (Fully Convolutional Network), U-Net (U-Shaped Network), PSPNet (Pyramid Scene Parsing Network). May be done.
  • the first learning model 310 may be constructed by using a neural network for object detection such as YOLO (You Only Look Once) and SSD (Single Shot Multi-Box Detector) instead of the neural network for image segmentation. good.
  • the input image to the first learning model 310 is a surgical field image obtained from the laparoscope 11.
  • the first learning model 310 is trained to output an image showing the recognition result of the microvessel portion included in the surgical field image in response to the input of the surgical field image.
  • the first learning model 310 includes, for example, an encoder 311, a decoder 312, and a softmax layer 313.
  • the encoder 311 is configured by alternately arranging convolution layers and pooling layers.
  • the convolutional layer is multi-layered into two or three layers. In the example of FIG. 4, the convolutional layer is shown without hatching, and the pooling layer is shown with hatching.
  • the convolution operation is performed between the input data and the filter of the size (for example, 3 ⁇ 3 or 5 ⁇ 5) specified in each. That is, the input value input at the position corresponding to each element of the filter is multiplied by the weighting coefficient preset in the filter for each element, and the linear sum of the multiplication values for each element is calculated.
  • the output in the convolution layer is obtained by adding the set bias to the calculated linear sum.
  • the result of the convolution operation may be converted by the activation function. For example, ReLU (Rectified Linear Unit) can be used as the activation function.
  • the output of the convolution layer represents a feature map that extracts the features of the input data.
  • the local statistics of the feature map output from the convolution layer which is the upper layer connected to the input side, are calculated. Specifically, a window of a predetermined size (for example, 2 ⁇ 2, 3 ⁇ 3) corresponding to the position of the upper layer is set, and a local statistic is calculated from the input value in the window. As the statistic, for example, the maximum value can be adopted. The size of the feature map output from the pooling layer is reduced (downsampled) according to the size of the window. In the example of FIG.
  • the operation in the convolution layer and the operation in the pooling layer are sequentially repeated in the encoder 311 to obtain an input image of 224 pixels ⁇ 224 pixels, 112 ⁇ 112, 56 ⁇ 56, 28 ⁇ 28, ..., 1. It is shown that the feature map of ⁇ 1 is sequentially downsampled.
  • the output of the encoder 311 (1 ⁇ 1 feature map in the example of FIG. 4) is input to the decoder 312.
  • the decoder 312 is configured by alternately arranging deconvolution layers and deconvolution layers.
  • the deconvolution layer is multi-layered into two or three layers. In the example of FIG. 4, the deconvolution layer is shown without hatching, and the deconvolution layer is shown with hatching.
  • the deconvolution operation is performed on the input feature map.
  • the deconvolution operation is an operation that restores the feature map before the convolution operation under the presumption that the input feature map is the result of the convolution operation using a specific filter.
  • a specific filter is represented by a matrix
  • a feature map for output is generated by calculating the product of the transposed matrix for this matrix and the input feature map.
  • the calculation result of the deconvolution layer may be converted by an activation function such as ReLU described above.
  • the reverse pooling layer included in the decoder 312 is individually associated with the pooling layer included in the encoder 311 on a one-to-one basis, and the associated pairs have substantially the same size.
  • the reverse pooling layer again enlarges (upsamples) the size of the downsampled feature map in the pooling layer of the encoder 311.
  • the operation in the convolution layer and the operation in the pooling layer are sequentially repeated in the decoder 312 to sequentially upsample to a feature map of 1 ⁇ 1, 7 ⁇ 7, 14 ⁇ 14, ..., 224 ⁇ 224. It shows that it is.
  • the output of the decoder 312 (the feature map of 224 ⁇ 224 in the example of FIG. 4) is input to the softmax layer 313.
  • the softmax layer 313 outputs the probability of the label that identifies the portion at each position (pixel) by applying the softmax function to the input value from the deconvolution layer connected to the input side.
  • a label for identifying the microvessel may be set, and whether or not the label belongs to the microvessel may be identified on a pixel-by-pixel basis.
  • a threshold value for example, 70% or more
  • an image of 224 pixels ⁇ 224 pixels is used as an input image for the first learning model 310, but the size of the input image is not limited to the above, and the processing capacity of the surgery support device 200 is not limited to the above.
  • the size of the surgical field image obtained from the laparoscope 11 can be appropriately set.
  • the input image to the first learning model 310 does not have to be the entire surgical field image obtained from the laparoscope 11, and may be a partial image generated by cutting out a region of interest of the surgical field image.
  • the area of interest that includes the treatment target is often located near the center of the surgical field image, for example, a partial image obtained by cutting out the vicinity of the center of the surgical field image in a rectangular shape so as to be about half the original size is used. You may use it.
  • the recognition accuracy can be improved while increasing the processing speed.
  • FIG. 5 is a schematic diagram showing the recognition result by the first learning model 310.
  • the microvessel portion recognized using the first learning model 310 is shown by a thick solid line (or a region painted in black), and the other organs, membranes, and surgical instruments are referred to by broken lines. Shows.
  • the control unit 201 of the surgical support device 200 generates a recognition image of the microvessel in order to display the recognized microvessel portion discriminatingly.
  • the recognition image is an image having the same size as the surgical field image and assigning a specific color to the pixels recognized as microvessels.
  • the color assigned to the microvessels is arbitrarily set.
  • the surgical support device 200 can display the microvessel portion as a structure having a specific color on the surgical field image by superimposing the recognition image thus generated on the surgical field image and displaying it.
  • FIG. 6 is a schematic diagram showing a configuration example of the second learning model 320.
  • the second learning model 320 includes an encoder 321 and a decoder 322, and a softmax layer 323 so as to output an image showing the recognition result of the attention blood vessel portion included in the surgical field image in response to the input of the surgical field image. It is composed of. Since the configurations of the encoder 321 and the decoder 322 and the softmax layer 323 included in the second learning model 320 are the same as those of the first learning model 310, detailed description thereof will be omitted.
  • FIG. 7 is a schematic diagram showing the recognition result by the second learning model 320.
  • the attention vessel portion recognized by using the second learning model 320 is shown by a thick solid line (or a region painted in black), and the other organs, membranes, and surgical instruments are referred to by broken lines. Shows.
  • the control unit 201 of the surgical support device 200 generates a recognition image of the attention blood vessel in order to display the recognized attention blood vessel portion discriminatingly.
  • the recognition image is an image having the same size as the surgical field image and assigning a specific color to the pixels recognized as attention blood vessels. Attention The color assigned to blood vessels is different from the color assigned to microvessels, and is preferably a color that can be distinguished from surrounding tissues.
  • the color assigned to the attention blood vessel may be a cool color (blue) such as blue or light blue, or may be a green color such as green or yellowish green.
  • information indicating transparency is added to each pixel constituting the recognition image, an opaque value is set for the pixel recognized as a caution blood vessel, and a transmission value is set for the other pixels.
  • Annotation is performed on the captured surgical field image as a preparatory step for generating the first learning model 310 and the second learning model 320.
  • a worker In the preparatory stage for generating the first learning model 310, a worker (expert such as a doctor) displays a surgical field image recorded on the recording device 140 on the display device 130, and a mouse or stylus pen provided as an operation unit 203. Annotation is performed by designating the part corresponding to the microvessel in pixel units. A set of a large number of surgical field images used for annotation and data indicating the positions of pixels corresponding to microvessels specified in each surgical field image (first correct answer data) generates a first learning model 310. It is stored in the storage unit 202 of the operation support device 200 as training data for the purpose.
  • the training data may include a set of a surgical field image generated by applying fluoroscopic transformation, reflection processing, or the like and correct answer data for the surgical field image. Further, if the learning progresses, a set of the surgical field image and the recognition result (correct answer data) of the first learning model 310 obtained by inputting the surgical field image may be included in the training data.
  • the operator is in a state where microvessels existing in the central visual field of the operator (or microvessels not present in the central visual field of the operator) or tension are applied.
  • Annotation is performed by designating the part corresponding to the microvessel in pixel units.
  • the central visual field is, for example, a rectangular or circular region set in the center of the surgical field image, and is set to have a size of about 1/4 to 1/3 of the surgical field image.
  • a set of a large number of surgical field images used for annotation and data indicating the positions of pixels corresponding to the attention blood vessels specified in each surgical field image (second correct answer data) generates a second learning model 320.
  • the training data for this purpose, it is stored in the storage unit 202 of the surgery support device 200.
  • the training data may include a set of a surgical field image generated by applying fluoroscopic transformation, reflection processing, or the like and correct answer data for the surgical field image. Further, if the learning progresses, a set of the surgical field image and the recognition result (correct answer data) of the second learning model 320 obtained by inputting the surgical field image may be included in the training data.
  • the surgery support device 200 generates the first learning model 310 and the second learning model 320 using the above-mentioned training data.
  • FIG. 8 is a flowchart illustrating the generation procedure of the first learning model 310.
  • the control unit 201 of the surgery support device 200 reads the learning processing program PG3 from the storage unit 202 and executes the following procedure to generate the first learning model 310.
  • the definition information describing the first learning model 310 is given an initial value.
  • the control unit 201 accesses the storage unit 202 and selects a set of training data from the training data prepared in advance for generating the first learning model 310 (step S101).
  • the control unit 201 inputs the surgical field image included in the selected training data into the first learning model 310 (step S102), and executes the calculation by the first learning model 310 (step S103). That is, the control unit 201 generates a feature map from the input surgical field image, and a calculation by the encoder 311 that sequentially downsamples the generated feature map, and a calculation by the decoder 312 that sequentially upsamples the feature map input from the encoder 311. , And the softmax layer 313 that identifies each pixel of the feature map finally obtained from the decoder 312 is executed.
  • the control unit 201 acquires the calculation result from the first learning model 310 and evaluates the acquired calculation result (step S104). For example, the control unit 201 may evaluate the calculation result by calculating the degree of similarity between the image data of the microblood vessel obtained as the calculation result and the correct answer data included in the training data.
  • the degree of similarity is calculated by, for example, the Jaccard index.
  • the Jaccard index is given by A ⁇ B / A ⁇ B ⁇ 100 (%), where A is the microvessel portion extracted by the first learning model 310 and B is the microvessel portion included in the correct answer data.
  • the Dice coefficient or the Simpson coefficient may be calculated, or the similarity may be calculated using other existing methods.
  • the control unit 201 determines whether or not the learning is completed based on the evaluation of the calculation result (step S105). The control unit 201 can determine that the learning is completed when the similarity equal to or higher than the preset threshold value is obtained.
  • control unit 201 When it is determined that the learning is not completed (S105: NO), the control unit 201 inputs the weighting coefficient and the bias in each layer of the first learning model 310 from the output side of the learning model 310 by using the inverse error propagation method. It is updated sequentially toward the side (step S106). After updating the weighting coefficient and the bias of each layer, the control unit 201 returns the process to step S101, and executes the process from step S101 to step S105 again.
  • step S105 When it is determined in step S105 that the learning is completed (S105: YES), the learned first learning model 310 is obtained, so that the control unit 201 ends the process according to this flowchart.
  • the procedure for generating the first learning model 310 has been described in the flowchart of FIG. 8, the same applies to the procedure for generating the second learning model 320. That is, the surgery support device 200 uses the training data prepared to generate the second learning model 320, and repeatedly executes the calculation by the second learning model 320 and the evaluation of the calculation result, so that the second training support device 200 is second.
  • the learning model 320 may be generated.
  • the surgery support device 200 is configured to generate the learning models 310 and 320, but the learning models 310 and 320 may be generated using an external computer such as a server device.
  • the surgery support device 200 may acquire the learning models 310 and 320 generated by an external computer by means such as communication, and store the acquired learning models 310 and 320 in the storage unit 202.
  • the surgery support device 200 provides surgery support in the operation phase after the learning models 310 and 320 are generated.
  • FIG. 9 is a flowchart illustrating a procedure for executing surgical support.
  • the control unit 201 of the surgery support device 200 reads and executes the recognition processing program PG1 and the display processing program PG2 from the storage unit 202, thereby executing the following procedure.
  • the surgical field image obtained by imaging the surgical field with the imaging device 11B of the laparoscope 11 is output to the CCU 110 at any time via the universal code 11D.
  • the control unit 201 of the surgery support device 200 acquires the surgical field image output from the CCU 110 at the input unit 204 (step S121).
  • the control unit 201 executes the processes of steps S122 to S127 each time the surgical field image is acquired.
  • the control unit 201 inputs the acquired surgical field image to the first learning model 310, executes an operation by the first learning model 310 (step S122), and recognizes a microvascular portion included in the surgical field image (step S123). ). That is, the control unit 201 generates a feature map from the input surgical field image, performs an operation by the encoder 311 that sequentially downsamples the generated feature map, and a decoder 312 that sequentially upsamples the feature map input from the encoder 311. The calculation and the calculation by the softmax layer 313 that identifies each pixel of the feature map finally obtained from the decoder 312 are executed. Further, the control unit 201 recognizes a pixel whose label probability output from the softmax layer 313 is equal to or greater than a threshold value (for example, 70% or more) as a microvessel portion.
  • a threshold value for example, 70% or more
  • the control unit 201 generates a recognition image of the microvessels in order to discriminately display the microvessel portion recognized by using the first learning model 310 (step S124). As described above, the control unit 201 may assign a specific color to the pixels recognized as micro blood vessels, and set the transmittance so that the background can be transmitted to the pixels other than the micro blood vessels.
  • the control unit 201 inputs the acquired surgical field image to the second learning model 320, executes an operation by the second learning model 320 (step S125), and recognizes the attention blood vessel portion included in the surgical field image. (Step S126).
  • the second learning model 320 is generated, if annotations are made to recognize the microvessels in the central visual field of the operator, in step S126, the microvessels existing in the central visual field of the operator are attention vessels. Is recognized as. Further, when the annotation is performed so as to recognize the microvessels that are not in the central visual field of the operator, in step S126, the microvessels that are not in the central visual field of the operator are recognized as attention blood vessels.
  • step S126 the microvessel is recognized as a caution blood vessel at the stage when the microvessel shifts from the pre-tensioned state to the tense state.
  • control unit 201 generates a recognition image of the attention blood vessel in order to discriminately display the attention blood vessel portion recognized by using the second learning model 320 (step S127).
  • control unit 201 assigns a color different from other microvessels such as blue and green to the pixels recognized as attention blood vessels, and allows the background to pass through the pixels other than the attention blood vessels. Transparency should be set.
  • control unit 201 determines whether or not a microblood vessel display instruction has been given (step S128).
  • the control unit 201 may determine whether or not the display instruction has been given by determining whether or not the operator's instruction has been received through the operation unit 203.
  • the control unit 201 outputs the recognition image of the micro blood vessel generated at that time from the output unit 205 to the display device 130, and the micro blood vessel is displayed on the surgical field image.
  • the recognition image of the blood vessel is superimposed and displayed on the display device 130 (step S129).
  • the recognition image of the attention blood vessel When the recognition image of the attention blood vessel is superimposed and displayed in the immediately preceding frame, the recognition image of the microvessel may be superimposed and displayed instead of the recognition image of the attention blood vessel. As a result, the microvessel portion recognized using the learning model 310 is displayed on the surgical field image as a structure shown in a specific color.
  • FIG. 10 is a schematic diagram showing a display example of microblood vessels.
  • the microvessel portion is indicated by a thick solid line or a region painted in black.
  • the portion corresponding to the microvessel is painted with a predetermined color in pixel units, so that the operator can recognize the microvessel portion by checking the display screen of the display device 130.
  • the control unit 201 determines whether or not the display instruction of the attention blood vessel is given (step S130).
  • the control unit 201 may determine whether or not the display instruction has been given by determining whether or not the operator's instruction has been received through the operation unit 203.
  • a caution blood vessel display instruction is given (S130: YES)
  • the control unit 201 outputs the recognition blood vessel recognition image generated at that time from the output unit 205 to the display device 130, and pays attention to the surgical field image.
  • the recognition image of the blood vessel is superimposed and displayed on the display device 130 (step S131).
  • the recognition image of the microvessel When the recognition image of the microvessel is superimposed and displayed in the immediately preceding frame, the recognition image of the attention blood vessel may be superimposed and displayed instead of the recognition image of the microvessel.
  • the attention blood vessel portion recognized by using the learning model 320 is displayed on the surgical field image as a structure shown in a specific blue or green color.
  • FIG. 11 is a schematic diagram showing a display example of a caution blood vessel.
  • the attention blood vessel portion is indicated by a thick solid line or a region painted in black.
  • the part corresponding to the attention blood vessel is painted in a color that does not exist inside the human body such as blue or green on a pixel-by-pixel basis, so that the operator can see the attention blood vessel by looking at the display screen of the display device 130. It can be clearly identified.
  • the surgeon can suppress the occurrence of bleeding by coagulating and dissecting using, for example, an energy treatment tool 12.
  • step S132 determines whether or not to end the display of the surgical field image.
  • the control unit 201 determines that the display of the surgical field image is terminated.
  • the control unit 201 returns the process to step S128.
  • the control unit 201 ends the process according to this flowchart.
  • the control unit 201 may switch to the other recognition image and display it by being given a display switching instruction.
  • the pixels corresponding to the micro blood vessels and the attention blood vessels are colored and displayed in a color that does not exist inside the blue or green human body, but the pixels existing around those pixels are displayed. May be configured to be colored and displayed in the same color or different colors.
  • the micro blood vessel portion and the attention blood vessel portion can be highlighted (thickened), and the visibility can be improved.
  • only one of the microvessel portion and the caution blood vessel portion may be highlighted, or both portions may be highlighted.
  • the display color (blue or greenish color) set for the microvessel part or the caution blood vessel part is averaged with the display color of the background surgical field image.
  • the control unit 201 controls the blood vessel.
  • the portion may be colored with the color (R2 / 2, G2 / 2, (B1 + B2) / 2) and displayed.
  • the weighting coefficients W1 and W2 may be introduced and the recognized blood vessel portion may be colored and displayed in the color (W2 ⁇ R2, W2 ⁇ G2, W1 ⁇ B1 + W2 ⁇ B2).
  • At least one of the microvessel portion and the caution blood vessel portion may be blinking and displayed. That is, the control unit 201 alternately alternates between displaying the recognized blood vessel portion for the first set time (for example, 2 seconds) and hiding the recognized blood vessel portion for the second set time (for example, 2 seconds).
  • the display and non-display of the blood vessel portion may be periodically switched by repeatedly executing the procedure.
  • the display time and non-display time of the blood vessel portion may be appropriately set.
  • the display / non-display of the blood vessel portion may be switched in synchronization with the biological information such as the patient's heartbeat and pulse.
  • the operation unit 203 of the surgery support device 200 gives a display instruction or a switching instruction
  • the operation unit 11C of the laparoscope 11 may give a display instruction or a switching instruction.
  • a display instruction or a switching instruction may be given by a foot switch, a voice input device, or the like not shown in 1.
  • the surgical support device 200 recognizes the attention blood vessel by the second learning model 320
  • the predetermined area including the attention blood vessel may be enlarged and displayed.
  • the enlarged display may be performed on the surgical field image or may be performed on a separate screen.
  • the display device 130 is configured to superimpose and display the microvessels and attention blood vessels on the surgical field image, but the detection of the microvessels and attention blood vessels may be notified to the operator by sound or voice. ..
  • the control unit 201 when the attention blood vessel is recognized by the second learning model 320, the control unit 201 outputs a control signal for controlling a medical device such as an energy treatment tool 12 or a surgical robot (not shown). It may be configured to generate and output the generated control signal to the medical device. For example, the control unit 201 may supply an electric current to the energy treatment tool 12 and output a control signal instructing the coagulation / cutting so that the attention blood vessel can be cut while coagulating.
  • a medical device such as an energy treatment tool 12 or a surgical robot (not shown). It may be configured to generate and output the generated control signal to the medical device.
  • the control unit 201 may supply an electric current to the energy treatment tool 12 and output a control signal instructing the coagulation / cutting so that the attention blood vessel can be cut while coagulating.
  • the structures of the microvessels and the attention blood vessels are recognized using the learning models 310 and 320, and the recognized microvessel portion and the attention blood vessel portion can be displayed in a discriminable manner on a pixel-by-pixel basis. Because it can be done, it is possible to provide visual support in laparoscopic surgery.
  • the image generated from the surgical support device 200 may be used not only for surgical support but also for educational support of residents and the like, and may be used for evaluation of laparoscopic surgery. .. For example, by comparing the image recorded on the recording device 140 during the surgery with the image generated by the surgery support device 200, it is determined whether or not the traction operation and the peeling operation in the laparoscopic surgery were appropriate. , Laparoscopic surgery can be evaluated.
  • FIG. 12 is an explanatory diagram illustrating a training data generation method for the second learning model 320.
  • the worker in the preparatory stage for generating the second learning model 320, the worker annotates by designating the portion corresponding to the attention blood vessel in pixel units.
  • the recognition result of the microvessels by the first learning model 310 is displayed, and the operator selects and excludes the recognized microvessels that do not correspond to the attention blood vessels. By doing the work of leaving only the attention blood vessel, annotation is performed.
  • the control unit 201 of the surgery support device 200 refers to the recognition result of the first learning model 310 and labels the adjacent pixels that are microvessels to obtain a series of pixels corresponding to the microvessels. Recognize as an area.
  • the control unit 201 excludes blood vessels other than the attention blood vessel by accepting a selection operation (click operation or tap operation by the operation unit 203) for the recognized microvessel region that does not correspond to the attention blood vessel.
  • the control unit 201 designates the pixels of the selected microvessel region as the pixels corresponding to the attention blood vessels.
  • the set of the data (second correct answer data) indicating the position of the pixel corresponding to the attention blood vessel designated in this way and the original surgical field image is used as training data for generating the second learning model 320, and surgical support is provided. It is stored in the storage unit 202 of the device 200.
  • the control unit 201 generates the second learning model 320 using the training data stored in the storage unit 202. Since the method of generating the second learning model 320 is the same as that of the first embodiment, the description thereof will be omitted.
  • the recognition result of the first learning model 310 can be diverted to generate the training data for the second learning model 320, so that the work load of the worker can be reduced.
  • the attention blood vessel is specified by selecting the micro blood vessel to be excluded, but the selection operation for the micro blood vessel recognized by the first learning model 310 that corresponds to the attention blood vessel. It may be configured to specify the attention blood vessel by accepting.
  • FIG. 13 is an explanatory diagram illustrating the configuration of the softmax layer 333 of the learning model 330 in the third embodiment.
  • the softmax layer 333 outputs the probability for the label set corresponding to each pixel.
  • a label for identifying microvessels, a label for identifying attention blood vessels, and a label for identifying other blood vessels are set.
  • the control unit 201 of the surgical support device 200 recognizes that the pixel is a microvessel if the probability of the label identifying the microvessel is equal to or greater than the threshold value, and if the probability of the label identifying the attention blood vessel is equal to or greater than the threshold value.
  • the control unit 201 Recognize that the pixel is a attention blood vessel. Further, the control unit 201 recognizes that the pixel is neither a microvessel nor a caution blood vessel if the probability of the label identifying other than that is equal to or more than the threshold value.
  • the learning model 330 for obtaining such a recognition result uses a set including the surgical field image and correct answer data indicating the positions (pixels) of the microvessel portion and the attention blood vessel portion included in the surgical field image as training data. It is generated by learning. Since the method of generating the learning model 330 is the same as that of the first embodiment, the description thereof will be omitted.
  • FIG. 14 is a schematic diagram showing a display example in the third embodiment.
  • the surgical support device 200 in the third embodiment recognizes the micro blood vessel portion and the attention blood vessel portion included in the surgical field image by using the learning model 330, and displays them on the display device 130 so that they can be discriminated.
  • the microvessel portion recognized by using the learning model 330 is shown by a thick solid line or a blackened region, and the caution blood vessel portion is shown by hatching.
  • the part corresponding to the attention blood vessel is colored with a color that does not exist inside the human body such as bluish color or greenish color on a pixel-by-pixel basis, and the part corresponding to the microvessel other than the attention blood vessel is colored with other colors.
  • the permeability may be changed between the attention blood vessel and the microvessel other than the attention blood vessel. In this case, the permeability may be set relatively low for the attention blood vessel and relatively high for the microvessels other than the attention blood vessel.
  • the third embodiment in order to discriminately display the micro blood vessel portion and the attention blood vessel portion recognized by the learning model 330, useful information is provided to the operator when performing a traction operation, a peeling operation, or the like. Can be presented accurately.
  • the softmax layer 333 of the learning model 330 outputs the probability for the label set corresponding to each pixel. This probability represents the certainty of the recognition result.
  • the control unit 201 of the surgical support device 200 changes the display mode of the microvessel portion and the attention blood vessel portion depending on the certainty of the recognition result.
  • FIG. 15 is a schematic diagram showing a display example in the fourth embodiment.
  • FIG. 15 shows an enlarged area including the attention blood vessel.
  • the concentration is increased when the certainty is 70% to 80%, 80% to 90%, 90% to 95%, and 95% to 100%, respectively.
  • the attention vessel part is displayed differently.
  • the display mode may be changed so that the higher the certainty, the higher the concentration.
  • the display mode of the attention blood vessel is configured to be different depending on the certainty, but similarly, the display mode of the micro blood vessel may be different according to the certainty.
  • the density is made different according to the certainty, but the color and the transmittance may be made different according to the certainty.
  • the higher the certainty the more the color does not exist in the blue or green human body, and the higher the certainty, the more the color exists in the red human body.
  • the display mode may be changed so that the higher the certainty, the lower the transparency.
  • the transparency is changed in four stages according to the certainty, but the transparency may be set more finely and the gradation display may be performed according to the certainty. Further, instead of the configuration in which the transparency is changed, the configuration in which the color is changed may be used.
  • FIG. 16 is an explanatory diagram illustrating the display method according to the fifth embodiment.
  • the surgical support device 200 recognizes the microvessel portion included in the surgical field image by using the learning models 310 and 320 (or the learning model 330).
  • the surgical support device 200 is assumed to use the learning models 310 and 320 (or the learning model 330).
  • the microvascular part hidden behind the object cannot be recognized from the surgical field image. Therefore, when the recognition image of the microvessel portion is superimposed on the surgical field image and displayed, the microvessel portion hidden behind the object cannot be displayed discriminatingly.
  • the surgical support device 200 holds a recognition image of the microvessel portion recognized in a state of not being hidden behind the object in the storage unit 202, and the microvessel portion is behind the object.
  • the recognition image held in the storage unit 202 is read out and superimposed and displayed on the surgical field image.
  • time T1 shows an image of the surgical field in which the microvessels are not hidden behind the surgical instrument
  • time T2 shows an image of the surgical field in which a part of the microvessels is hidden behind the surgical instrument. Shows. However, it is assumed that the laparoscope 11 is not moved between the time T1 and the time T2, and there is no change in the imaged region.
  • the generated recognition image of the microvessel is stored in the storage unit 202.
  • the surgery support device 200 reads out the recognition image of the microblood vessel generated from the surgical field image at time T1 from the storage unit 202, and superimposes and displays it on the surgical field image at time T2.
  • the portion shown by the broken line is a microvessel portion that is hidden by the surgical instrument and cannot be visually recognized.
  • the surgical support device 200 includes the portion by diverting the recognition image recognized at the time T1. It is possible to display it in a discriminative manner.
  • the presence of microvessels hidden behind an object such as a surgical tool and cannot be visually recognized can be notified to the operator, so that the safety at the time of surgery can be enhanced. can.
  • FIG. 17 is a flowchart illustrating a procedure of processing executed by the surgery support device 200 according to the sixth embodiment.
  • the control unit 201 of the surgical support device 200 acquires the surgical field image (step S601), inputs the acquired surgical field image to the first learning model 310, and uses the first learning model 310, as in the first embodiment.
  • the operation is executed (step S602).
  • the control unit 201 predicts the running pattern of the blood vessel based on the calculation result of the first learning model 310 (step S603).
  • a recognition image of a microvessel portion is generated by extracting pixels having a label probability output from the softmax layer 313 of the first learning model 310 of the first threshold value or more (for example, 70% or more).
  • the running pattern of the blood vessel is predicted by lowering the threshold value.
  • the probability of the label output from the softmax layer 313 of the first learning model 310 is less than the first threshold value (for example, less than 70%), and the pixels are equal to or more than the second threshold value (for example, 50% or more).
  • the running pattern of blood vessels is predicted.
  • the control unit 201 displays the blood vessel portion estimated by the predicted running pattern so as to be discriminating (step S604).
  • FIG. 18 is a schematic diagram showing a display example in the sixth embodiment.
  • the recognized microvessel portion is shown by a thick solid line (or a region painted in black), and the blood vessel portion estimated by the predicted running pattern is shown by hatching.
  • the microvessel portion is shown by a thick solid line (or the region painted in black), and the blood vessel portion estimated by the traveling pattern is shown by hatching. Display modes such as transparency may be different.
  • the blood vessel portion estimated by the running pattern of the blood vessel can be displayed together, so that visual support in laparoscopic surgery can be performed.
  • the blood vessel travels by extracting pixels having a label output from the softmax layer 313 having a probability of less than the first threshold value (for example, less than 70%) and a second threshold value or more (for example, 50% or more).
  • a learning model for predicting the running pattern of the blood vessel may be prepared. That is, it is sufficient to prepare a learning model trained using the surgical field image obtained by imaging the surgical field and the correct answer data showing the running pattern of the blood vessel in the surgical field image as training data.
  • the correct answer data may be generated by a specialist such as a doctor judging the running pattern of the blood vessel while checking the surgical field image and annotating the surgical field image.
  • FIG. 19 is an explanatory diagram illustrating the configuration of the softmax layer 343 of the learning model 340 according to the seventh embodiment.
  • the softmax layer 343 outputs the probability for the label set corresponding to each pixel.
  • a label for identifying a blood vessel having blood flow, a label for identifying a blood vessel without blood flow, and a label for identifying other than that are set. If the probability of the label that identifies the blood vessel with blood flow is equal to or greater than the threshold value, the control unit 201 of the surgery support device 200 recognizes that the pixel is a blood vessel with blood flow and identifies the blood vessel without blood flow.
  • the pixel is recognized as a blood vessel without blood flow. Further, the control unit 201 recognizes that the pixel is not a blood vessel if the probability of the label that identifies other than that is equal to or more than the threshold value.
  • the learning model 340 for obtaining such a recognition result includes a surgical field image and correct answer data indicating the positions (pixels) of the blood vessel portion with blood flow and the blood vessel portion without blood flow included in the surgical field image. It is generated by learning using the set as training data.
  • an ICG (Indocyanine Green) fluorescence image may be used as a surgical field image including a blood vessel portion having blood flow. That is, a fluorescent image is generated by injecting a tracer such as an ICG having an absorption wavelength in the near-infrared region into an artery or a vein and observing the fluorescence emitted when the near-infrared light is irradiated, and this has blood flow.
  • Correct answer data may be used as correct answer data indicating the position of the blood vessel portion.
  • the color, shape, temperature, blood concentration, oxygen saturation, etc. of the blood vessel differ between the blood vessel with blood flow and the blood vessel without blood flow.
  • Correct answer data may be prepared by specifying the position and the position of the blood vessel portion where there is no blood flow. Since the method of generating the learning model 340 is the same as that of the first embodiment, the description thereof will be omitted.
  • the probability that there is blood flow, the probability that there is no blood flow, and other probabilities are output from the softmax layer 343, but it depends on the blood flow volume or blood flow velocity. It may be configured to output the probability.
  • FIG. 20 is a schematic diagram showing a display example in the seventh embodiment.
  • the surgical support device 200 according to the seventh embodiment uses the learning model 340 to recognize the blood vessel portion having blood flow and the blood vessel portion without blood flow, and display them on the display device 130 so that they can be discriminated from each other.
  • the blood vessel portion with blood flow is shown by a thick solid line or a black-painted area, and the blood vessel portion without blood flow is shown with hatching, but there is blood flow.
  • Blood vessels may be colored with a specific color, and blood vessels without blood flow may be colored with another color for display.
  • the permeability may be changed between the blood vessel having blood flow and the blood vessel having no blood flow. Further, either a blood vessel having blood flow or a blood vessel having no blood flow may be displayed so as to be discriminable.
  • the blood vessels having blood flow and the blood vessels having no blood flow are displayed in a distinguishable manner, so that visual support in laparoscopic surgery can be performed.
  • the laparoscope 11 in the eighth embodiment has a function of irradiating normal light to image the surgical field and a function of irradiating special light to image the surgical field. Therefore, the laparoscopic surgery support system according to the eighth embodiment may be separately provided with a light source device (not shown) for emitting special light, and is used for normal light with respect to the light emitted from the light source device 120. By switching between the optical filter of the above and the optical filter for special light, a configuration may be made in which normal light and special light are switched and irradiated.
  • Normal light is, for example, light having a wavelength band of white light (380 nm to 650 nm).
  • the illumination light described in the first embodiment or the like corresponds to normal light.
  • the special light is different illumination light from the normal light, and corresponds to narrow band light, infrared light, excitation light and the like. In this specification, the distinction between normal light and special light is for convenience only, and does not emphasize that special light is special as compared with normal light.
  • narrow band imaging Narrow Band Imaging
  • the observation target is irradiated with light in two narrowed wavelength bands (for example, 390 to 445 nm / 530 to 550 nm) that are easily absorbed by hemoglobin in blood. This makes it possible to highlight the capillaries and the like on the surface layer of the mucous membrane.
  • IRI InfraRed Imaging
  • two infrared lights (790 to 820 nm / 905 to 970 nm) are irradiated to the observation target after intravenously injecting an infrared indicator drug that easily absorbs infrared light. do.
  • ICG Infrared light observation
  • ICG is used as the infrared indicator agent.
  • excitation light 390 to 470 nm
  • light with a wavelength 540 to 560 nm
  • the observation method using special light is not limited to the above, and may be HSI (Hyper Spectral Imaging), LSCI (Laser Spectral Imaging), FICE (Flexible Spectral Imaging Color Enhancement), or the like.
  • the surgical field image obtained by irradiating the surgical field with normal light is also described as a normal light image
  • the surgical field image obtained by irradiating the surgical field with special light is referred to as special light. Also described as an image.
  • the surgical support device 200 includes a learning model 350 for a special optical image in addition to the first learning model 310 and the second learning model 320 described in the first embodiment.
  • FIG. 21 is a schematic diagram showing a configuration example of a learning model 350 for a special optical image.
  • the learning model 350 includes an encoder 351 and a decoder 352, and a softmax layer 353, and is configured to output an image showing the recognition result of the blood vessel portion appearing in the special light image in response to the input of the special light image. ..
  • Such a learning model 350 includes an image taken by irradiating a special light to image the surgical field (special light image) and data on the position of a blood vessel designated by a doctor or the like for the special light image (correct answer). It is generated by using a data set containing (data) and as training data and performing training according to a predetermined learning algorithm.
  • the surgery support device 200 provides surgery support in the operation phase after the learning model 350 for the special optical image is generated.
  • FIG. 22 is a flowchart illustrating a procedure of processing executed by the surgery support device 200 according to the eighth embodiment.
  • the control unit 201 of the surgery support device 200 acquires a normal light image (step S801), inputs the acquired normal light image to the first learning model 310, and executes an operation by the first learning model 310 (step S802). ..
  • the control unit 201 Based on the calculation result of the first learning model 310, the control unit 201 recognizes the small blood vessel portion included in the normal light image (step S803), and predicts the traveling pattern of the blood vessel which is difficult to see in the normal light image. (Step S804).
  • the method for recognizing microvessels is the same as in the first embodiment.
  • the control unit 201 recognizes a pixel whose label probability output from the softmax layer 313 of the first learning model 310 is equal to or greater than a threshold value (for example, 70% or more) as a microvessel portion.
  • the driving pattern prediction method is the same as that of the sixth embodiment.
  • the control unit 201 extracts pixels having a label probability output from the softmax layer 313 of the first learning model 310 less than the first threshold value (for example, less than 70%) and a second threshold value or more (for example, 50% or more). Therefore, the traveling pattern of blood vessels, which is difficult to visually recognize with a normal optical image, is predicted.
  • the control unit 201 executes the following processing in parallel with the processing of steps S801 to S804.
  • the control unit 201 acquires a special light image (step S805), inputs the acquired special light image to the learning model 350 for the special light image, and executes an operation by the learning model 350 (step S806).
  • the control unit 201 recognizes the blood vessel portion appearing in the special optical image based on the calculation result of the learning model 350 (step S807).
  • the control unit 201 can recognize a pixel whose label probability output from the softmax layer 353 of the learning model 350 is equal to or greater than a threshold value (for example, 70% or more) as a blood vessel portion.
  • a threshold value for example, 70% or more
  • control unit 201 determines whether or not the presence of a blood vessel, which is difficult to see with a normal optical image, is detected by the prediction in step S803 (step S808).
  • control unit 201 When it is determined that the presence of a blood vessel that is difficult to see is not detected (S807: NO), the control unit 201 outputs a normal optical image from the output unit 205 to the display device 130 and displays it, and in step S803, the micro blood vessel is displayed. When is recognized, the recognition image of the microblood vessel portion is superimposed and displayed on the normal optical image (step S809).
  • control unit 201 When it is determined that the presence of a blood vessel that is difficult to see is detected (S807: YES), the control unit 201 outputs a normal optical image from the output unit 205 to the display device 130 and displays it, and recognizes it from the special optical image. The recognition image of the blood vessel portion is superimposed on the normal optical image and displayed (step S810).
  • the recognition image of the blood vessel portion recognized from the special light image is displayed. Therefore, for example, in the deep part of the organ.
  • the position of the existing blood vessel can be notified to the operator, and the safety in laparoscopic surgery can be enhanced.
  • the recognition image of the blood vessel portion recognized from the special light image is automatically displayed.
  • the structure may be such that the blood vessel portion recognized from the special optical image is displayed instead of the display of the microvascular portion recognized from the normal optical image.
  • the microvascular portion is recognized from the normal light image and the blood vessel portion is recognized from the special light image.
  • the second learning model 320 is used to recognize the caution blood vessel portion from the normal light image. It may be configured to recognize the blood vessel portion from the special optical image while recognizing.
  • the recognition result by the normal light image and the recognition result by the special light image are switched and displayed by one display device 130, but the recognition result by the normal light image is displayed on the display device 130.
  • the recognition result of the special optical image may be displayed on another display device (not shown).
  • control unit 201 is configured to perform recognition of the microvessel portion by the normal optical image and recognition of the blood vessel portion by the special optical image, but the hardware (GPU) different from that of the control unit 201. Etc.) may be provided, and the recognition of the blood vessel portion in the special optical image may be performed in the background in this hardware.
  • FIG. 23 is an explanatory diagram illustrating an outline of the process executed by the surgical support device 200 according to the ninth embodiment.
  • the control unit 201 of the surgery support device 200 captures a normal light image obtained by irradiating the surgical field with normal light and an image obtained by irradiating the surgical field with special light. get.
  • the normal optical image is, for example, a full HD (High-Definition) RGB image
  • the special optical image is, for example, a full HD grayscale image.
  • the control unit 201 generates a combined image by combining the acquired normal light image and the special light image.
  • the normal light image is an image having three color information (RGB3 channel)
  • the special light image is an image having one color information (grayscale 1 channel)
  • the control unit 201 has four color information (RGB3).
  • a combined image is generated as an image in which channels (channel + grayscale 1 channel) are combined into one.
  • the control unit 201 inputs the generated combined image into the learning model 360 for the combined image, and executes the calculation by the learning model 360.
  • the training model 360 includes an encoder, a decoder, and a softmax layer (not shown in the figure), and is configured to output an image showing the recognition result of the blood vessel portion appearing in the combined image in response to the input of the combined image. ..
  • the learning model 360 uses a data set including a combined image and data (correct answer data) of the position of a blood vessel designated by a doctor or the like for the combined image as training data, and executes learning according to a predetermined learning algorithm. Generated by.
  • the control unit 201 superimposes and displays the recognition image of the blood vessel portion obtained by using the learning model 360 on the original surgical field image (normal image).
  • the blood vessel portion is recognized by using the combined image, it is possible to inform the operator of the existence of the blood vessel which is difficult to visually recognize by the normal optical image, and it is safe in laparoscopic surgery. It can enhance the sex.
  • the number of special light images to be combined with the normal light image is not limited to one, and a plurality of special light images having different wavelength bands may be combined with the normal light image.
  • FIG. 24 is a flowchart illustrating the procedure for executing the surgical support in the tenth embodiment.
  • the control unit 201 of the surgical support device 200 determines whether or not the surgical tool has approached the attention blood vessel (step S1001). For example, when the control unit 201 calculates the separation distance between the attention blood vessel and the tip of the surgical instrument in chronological order on the surgical field image and determines that the separation distance is shorter than a predetermined value, the surgical instrument Should be judged to have approached the attention blood vessel. When it is determined that the surgical tool is not close to the attention blood vessel (S1001: NO), the control unit 201 executes the processes after step S1003 described later.
  • FIG. 25 is a schematic diagram showing an example of enlarged display.
  • the area including the attention blood vessel is enlarged and displayed, and the character information indicating that the surgical instrument has approached the attention blood vessel is displayed.
  • the control unit 201 determines whether or not the surgical instrument has come into contact with the attention blood vessel (step S1003).
  • the control unit 201 determines whether or not the surgical instrument has come into contact with the attention blood vessel, for example, by calculating the separation distance between the attention blood vessel and the tip of the surgical instrument in chronological order on the surgical field image. When the control unit 201 determines that the calculated separation distance has become zero, it may determine that the surgical instrument has come into contact with the attention blood vessel. Further, when the contact sensor is provided at the tip of the surgical instrument, the control unit 201 may determine whether or not the surgical instrument has contacted the attention blood vessel by acquiring the output signal from the contact sensor. good. If it is determined that they are not in contact (S1003: NO), the control unit 201 ends the process according to this flowchart.
  • FIG. 26 is a schematic diagram showing an example of a warning display.
  • the contacted surgical tool is illuminated and text information indicating that the surgical tool has touched the attention blood vessel is displayed.
  • a warning by sound or vibration may be given together with the warning display or instead of the warning display.
  • a warning is displayed when the surgical instrument comes into contact with the attention blood vessel, but if it is determined that there is bleeding due to damage to the attention blood vessel, a warning is issued. It may be configured to be performed.
  • the control unit 201 counts the red pixels in a predetermined region including the attention blood vessel in time series, and when the number of red pixels increases by a certain amount or more, it can be determined that there is bleeding.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Vascular Medicine (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)

Abstract

コンピュータプログラム、学習モデルの生成方法、及び手術支援装置の提供。 コンピュータに、鏡視下手術の術野を撮像して得られる術野画像を取得し、術野画像を入力した場合、血管に関する認識結果を出力するように学習された学習モデルを用いて、取得した術野画像に含まれる血管と、血管のうち注意喚起を促すべき血管とを区別して認識し、認識した血管に関する情報を出力する処理を実行させる。

Description

コンピュータプログラム、学習モデルの生成方法、及び手術支援装置
 本発明は、コンピュータプログラム、学習モデルの生成方法、及び手術支援装置に関する。
 腹腔鏡手術では、例えば患者の体内に形成された悪性腫瘍などの病変部を取り除く手術を行う。このとき、患者の体内を腹腔鏡により撮像し、得られた術野画像をモニタに表示させる(例えば、特許文献1を参照)。
特開2005-287839号公報
 従来、術野画像から術者が注意を要するような血管を認識し、術者に報知することは困難であった。
 本発明は、術野画像から血管の認識結果を出力できるコンピュータプログラム、学習モデルの生成方法、及び手術支援装置を提供することを目的とする。
 本発明の一態様におけるコンピュータプログラムは、コンピュータに、鏡視下手術の術野を撮像して得られる術野画像を取得し、術野画像を入力した場合、血管に関する情報を出力するように学習された学習モデルを用いて、取得した術野画像に含まれる血管と、該血管のうち注意喚起を促すべき血管とを区別して認識する処理を実行させるためのコンピュータプログラムである。
 本発明の一態様における学習モデルの生成方法は、コンピュータが、鏡視下手術の術野を撮像して得られる術野画像と、該術野画像に含まれる血管部分を示す第1正解データと、前記血管部分のうち注意喚起を促すべき血管部分を示す第2正解データとを含む訓練データを取得し、取得した訓練データのセットに基づき、術野画像を入力した場合、血管に関する情報を出力する学習モデルを生成する。
 本発明の一態様における手術支援装置は、鏡視下手術の術野を撮像して得られる術野画像を取得する取得部と、術野画像を入力した場合、血管に関する情報を出力するように学習された学習モデルを用いて、取得した術野画像に含まれる血管と、該血管のうち注意喚起を促すべき血管とを区別して認識する認識部と、該認識部の認識結果に基づき、前記鏡視下手術に関する支援情報を出力する出力部とを備える。
 本願によれば、術野画像から血管の認識結果を出力できる。
実施の形態1に係る腹腔鏡手術支援システムの概略構成を説明する模式図である。 手術支援装置の内部構成を説明するブロック図である。 術野画像の一例を示す模式図である。 第1学習モデルの構成例を示す模式図である。 第1学習モデルによる認識結果を示す模式図である。 第2学習モデルの構成例を示す模式図である。 第2学習モデルによる認識結果を示す模式図である。 第1学習モデルの生成手順を説明するフローチャートである。 手術支援の実行手順を説明するフローチャートである。 微小血管の表示例を示す模式図である。 注意血管の表示例を示す模式図である。 第2学習モデル用の訓練データの生成手法を説明する説明図である。 実施の形態3における学習モデルのソフトマックス層の構成を説明する説明図である。 実施の形態3における表示例を示す模式図である。 実施の形態4における表示例を示す模式図である。 実施の形態5における表示手法を説明する説明図である。 実施の形態6に係る手術支援装置が実行する処理の手順を説明するフローチャートである。 実施の形態6における表示例を示す模式図である。 実施の形態7における学習モデルのソフトマックス層の構成を説明する説明図である。 実施の形態7における表示例を示す模式図である。 特殊光画像用の学習モデルの構成例を示す模式図である。 実施の形態8に係る手術支援装置が実行する処理の手順を説明するフローチャートである。 実施の形態9に係る手術支援装置が実行する処理の概要を説明する説明図である 実施の形態10における手術支援の実行手順を説明するフローチャートである。 拡大表示の例を示す模式図である。 警告表示の例を示す模式図である。
 以下、本発明を腹腔鏡手術の支援システムに適用した形態について、図面を用いて具体的に説明する。なお、本発明は、腹腔鏡手術に限らず、胸腔鏡、消化管内視鏡、膀胱鏡、関節鏡、ロボット支援下内視鏡、手術顕微鏡、外視鏡などの撮像装置を用いた鏡視下手術全般に適用可能である。
 (実施の形態1)
 図1は実施の形態1に係る腹腔鏡手術支援システムの概略構成を説明する模式図である。腹腔鏡手術では、開腹手術を実施する代わりに、トロッカ10と呼ばれる開孔器具を患者の腹壁に複数個取り付け、トロッカ10に設けられた開孔から、腹腔鏡11、エネルギ処置具12、鉗子13などの器具を患者の体内に挿入する。術者は、腹腔鏡11によって撮像された患者体内の画像(術野画像)をリアルタイムに見ながら、エネルギ処置具12を用いて患部を切除するなどの処置を行う。腹腔鏡11、エネルギ処置具12、鉗子13などの術具は、術者又はロボットなどにより保持される。術者とは、腹腔鏡手術に関わる医療従事者であり、執刀医、助手、看護師、手術をモニタしている医師などを含む。
 腹腔鏡11は、患者の体内に挿入される挿入部11A、挿入部11Aの先端部分に内蔵される撮像装置11B、挿入部11Aの後端部分に設けられる操作部11C、及びカメラコントロールユニット(CCU)110や光源装置120に接続するためのユニバーサルコード11Dを備える。
 腹腔鏡11の挿入部11Aは、硬性管により形成されている。硬性管の先端部分には湾曲部が設けられている。湾曲部における湾曲機構は一般的な腹腔鏡に組み込まれている周知の機構であり、操作部11Cの操作に連動した操作ワイヤの牽引によって例えば上下左右の4方向に湾曲するように構成されている。なお、腹腔鏡11は、上述したような湾曲部を有する軟性鏡に限らず、湾曲部を持たない硬性鏡であってもよく、湾曲部や硬性管を持たない撮像装置であってもよい。さらに、腹腔鏡11は、360度の範囲を撮像する全方位カメラであってもよい。
 撮像装置11Bは、CMOS(Complementary Metal Oxide Semiconductor)などの固体撮像素子、タイミングジェネレータ(TG)やアナログ信号処理回路(AFE)などを備えたドライバ回路を備える。撮像装置11Bのドライバ回路は、TGから出力されるクロック信号に同期して固体撮像素子から出力されるRGB各色の信号を取り込み、AFEにおいて、ノイズ除去、増幅、AD変換などの必要な処理を施し、デジタル形式の画像データを生成する。撮像装置11Bのドライバ回路は、生成した画像データを、ユニバーサルコード11Dを介して、CCU110へ伝送する。
 操作部11Cは、術者によって操作されるアングルレバーやリモートスイッチなどを備える。アングルレバーは、湾曲部を湾曲させるための操作を受付ける操作具である。アングルレバーに代えて、湾曲操作ノブ、ジョイスティックなどが設けられてもよい。リモートスイッチは、例えば、観察画像を動画表示又は静止画表示に切り替える切替スイッチ、観察画像を拡大又は縮小させるズームスイッチなどを含む。リモートスイッチには、予め定められた特定の機能が割り当てられてもよく、術者によって設定された機能が割り当てられてもよい。
 また、操作部11Cには、リニア共振アクチュエータやピエゾアクチュエータなどにより構成される振動子が内蔵されてもよい。腹腔鏡11を操作する術者に対して報知すべき事象が発生した場合、CCU110は、操作部11Cに内蔵された振動子を作動させることによって操作部11Cを振動させ、前記事象の発生を術者に知らせてもよい。
 腹腔鏡11の挿入部11A、操作部11C、及びユニバーサルコード11Dの内部には、CCU110から撮像装置11Bへ出力される制御信号や撮像装置11Bから出力される画像データを伝送するための伝送ケーブル、光源装置120から出射される照明光を挿入部11Aの先端部分まで導くライトガイドなどが配されている。光源装置120から出射される照明光は、ライトガイドを通じて挿入部11Aの先端部分まで導かれ、挿入部11Aの先端部分に設けられた照明レンズを介して術野に照射される。なお、本実施の形態では、光源装置120を独立した装置として記載したが、光源装置120はCCU110に内蔵される構成であってもよい。
 CCU110は、腹腔鏡11が備える撮像装置11Bの動作を制御する制御回路、ユニバーサルコード11Dを通じて入力される撮像装置11Bからの画像データを処理する画像処理回路等を備える。制御回路は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを備え、CCU110が備える各種スイッチの操作や腹腔鏡11が備える操作部11Cの操作に応じて、撮像装置11Bへ制御信号を出力し、撮像開始、撮像停止、ズームなどの制御を行う。画像処理回路は、DSP(Digital Signal Processor)や画像メモリなどを備え、ユニバーサルコード11Dを通じて入力される画像データに対して、色分離、色補間、ゲイン補正、ホワイトバランス調整、ガンマ補正等の適宜の処理を施す。CCU110は、処理後の画像データから動画用のフレーム画像を生成し、生成した各フレーム画像を後述する手術支援装置200へ順次出力する。フレーム画像のフレームレートは、例えば30FPS(Frames Per Second)である。
 CCU110は、NTSC(National Television System Committee)、PAL(Phase Alternating Line)、DICOM(Digital Imaging and COmmunication in Medicine)などの所定の規格に準拠した映像データを生成してもよい。CCU110は、生成した映像データを表示装置130へ出力することにより、表示装置130の表示画面に術野画像(映像)をリアルタイムに表示させることができる。表示装置130は、液晶パネルや有機EL(Electro-Luminescence)パネルなどを備えたモニタである。また、CCU110は、生成した映像データを録画装置140へ出力し、録画装置140に映像データを記録させてもよい。録画装置140は、CCU110から出力される映像データを、各手術を識別する識別子、手術日時、手術場所、患者名、術者名などと共に記録するHDD(Hard Disk Drive)などの記録装置を備える。 
 手術支援装置200は、CCU110から入力される画像データ(すなわち、術野を撮像して得られる術野画像の画像データ)に基づき、腹腔鏡手術に関する支援情報を生成する。具体的には、手術支援装置200は、術野画像に含まれる全ての微小血管と、これらの微小血管のうち注意喚起を促すべき微小血管とを区別して認識し、認識した微小血管に関する情報を表示装置130に表示させる処理を行う。
 本実施の形態において、微小血管とは、固有の名称が付けられておらず、体内を不規則に走行するような小さな血管を表す。固有の名称が付けられており、術者が容易に認識できるような血管については、認識対象から除外してもよい。すなわち、左胃動脈、右胃動脈、左肝動脈、右肝動脈、脾動脈、上腸間膜動脈、下腸間膜動脈、肝静脈、左腎静脈、右腎静脈などの固有名称が付けられた血管は、認識対象から除外してよい。微小血管は、直径がおよそ3mm以下の血管である。直径が3mm超の血管であっても、固有の名称が付けられていなければ認識対象となり得る。逆に、直径が3mm以下の血管であっても、固有の名称が付けられており、術者が容易に認識できるような血管は認識対象から除外してよい。
 一方、注意喚起を促すべき微小血管とは、上述した微小血管のうち、術者にとって注意を要するような血管(以下、注意血管ともいう)を表す。注意血管は、術中に損傷する可能性がある血管や術中に術者が気付かない可能性がある血管である。手術支援装置200は、術者の中心視野に存在する微小血管を注意血管として認識してもよく、術者の中心視野に存在しない微小血管を注意血管として認識してもよい。また、手術支援装置200は、中心視野に存在するか否かに関わらず、伸長するなどテンションが掛かった状態の微小血管を注意血管として認識してもよい。
 本実施の形態では、手術支援装置200において微小血管の認識処理を実行する構成について説明するが、手術支援装置200と同等の機能をCCU110に設け、CCU110において微小血管の認識処理を実行する構成としてもよい。
 以下、手術支援装置200の内部構成、手術支援装置200が実行する認識処理及び表示処理について説明する。
 図2は手術支援装置200の内部構成を説明するブロック図である。手術支援装置200は、制御部201、記憶部202、操作部203、入力部204、出力部205、通信部206などを備える専用又は汎用のコンピュータである。手術支援装置200は、手術室内に設置されるコンピュータであってもよく、手術室の外部に設置されるコンピュータであってもよい。また、手術支援装置200は、腹腔鏡手術を行う病院内に設置されるサーバであってもよく、病院外に設置されるサーバであってもよい。
 制御部201は、例えば、CPU、ROM、及びRAMなどを備える。制御部201が備えるROMには、手術支援装置200が備えるハードウェア各部の動作を制御する制御プログラム等が記憶される。制御部201内のCPUは、ROMに記憶された制御プログラムや後述する記憶部202に記憶された各種コンピュータプログラムを実行し、ハードウェア各部の動作を制御することによって、装置全体を本願における手術支援装置として機能させる。制御部201が備えるRAMには、演算の実行中に利用されるデータ等が一時的に記憶される。
 本実施の形態では、制御部201がCPU、ROM、及びRAMを備える構成としたが、制御部201の構成は任意であり、例えば、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、量子プロセッサ、揮発性又は不揮発性のメモリ等を1又は複数備えた演算回路や制御回路であってもよい。また、制御部201は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を有するものであってもよい。
 記憶部202は、ハードディスク、フラッシュメモリなどを用いた記憶装置を備える。記憶部202には、制御部201によって実行されるコンピュータプログラム、外部から取得した各種データ、装置内部で生成した各種データ等が記憶される。
 記憶部202に記憶されるコンピュータプログラムは、術野画像に含まれる微小血管部分を認識するための処理を制御部201に実行させる認識処理プログラムPG1、認識結果に基づく支援情報を表示装置130に表示させるための処理を制御部201に実行させる表示処理プログラムPG2、学習モデル310,320を生成するための学習処理プログラムPG3を含む。なお、認識処理プログラムPG1及び表示処理プログラムPG2は、それぞれ独立したコンピュータプログラムである必要はなく、1つのコンピュータプログラムとして実装されてもよい。これらのプログラムは、例えば、コンピュータプログラムを読み取り可能に記録した非一時的な記録媒体Mにより提供される。記録媒体Mは、CD-ROM、USBメモリ、SD(Secure Digital)カードなどの可搬型メモリである。制御部201は、図に示していない読取装置を用いて、記録媒体Mから所望のコンピュータプログラムを読み取り、読み取ったコンピュータプログラムを記憶部202に記憶させる。代替的に、上記コンピュータプログラムは、通信部206を用いた通信により提供されてもよい。
 また、記憶部202には、上述した認識処理プログラムPG1において用いられる学習モデル310,320が記憶される。学習モデル310は、術野画像の入力に対して、術野画像に含まれる微小血管部分の認識結果を出力するように学習された学習モデルである。一方、学習モデル320は、術者画像に含まれる微小血管のうち、注意喚起を促すべき微小血管部分の認識結果を出力するように学習された学習モデルである。以下において、学習モデル310,320を区別して説明する場合、前者を第1学習モデル310とも記載し、後者を第2学習モデル320とも記載する。
 学習モデル310,320は、それぞれ定義情報によって記述される。学習モデル310,320の定義情報は、学習モデル310,320が備える層の情報、各層を構成するノードの情報、ノード間の重み付け及びバイアスなどのパラメータを含む。記憶部202に記憶される学習モデル310は、術野を撮像して得られる術野画像と、術野画像内の微小血管部分を示す正解データとを訓練データとして、所定の学習アルゴリズムを用いて学習された学習済みの学習モデルである。一方、学習モデル320は、術野を撮像して得られる術野画像と、術野画像内の注意血管部分を示す正解データとを訓練データとして、所定の学習アルゴリズムを用いて学習された学習済みの学習モデルである。学習モデル310,320の構成及び学習モデル310,320の生成手順については後に詳述する。
 操作部203は、キーボード、マウス、タッチパネル、スタイラスペンなどの操作デバイスを備える。操作部203は、術者などによる操作を受付け、受付けた操作に関する情報を制御部201へ出力する。制御部201は、操作部203から入力される操作情報に応じて適宜の処理を実行する。なお、本実施の形態では、手術支援装置200が操作部203を備える構成としたが、外部に接続されたCCU110などの各種機器を通じて操作を受付ける構成であってもよい。
 入力部204は、入力機器を接続する接続インタフェースを備える。本実施の形態において、入力部204に接続される入力機器はCCU110である。入力部204には、腹腔鏡11によって撮像され、CCU110によって処理が施された術野画像の画像データが入力される。入力部204は、入力された画像データを制御部201へ出力する。また、制御部201は、入力部204から取得した画像データを記憶部202に記憶させてもよい。
 実施の形態では、入力部204を通じて、CCU110から術野画像の画像データを取得する構成について説明するが、腹腔鏡11から直接的に術野画像の画像データを取得してもよく、腹腔鏡11に着脱可能に装着される画像処理装置(不図示)より術野画像の画像データを取得してもよい。また、手術支援装置200は、録画装置140に記録された術野画像の画像データを取得してもよい。
 出力部205は、出力機器を接続する接続インタフェースを備える。本実施の形態において、出力部205に接続される出力機器は表示装置130である。制御部201は、学習モデル310,320による認識結果など、術者等に報知すべき情報を生成した場合、生成した情報を出力部205より表示装置130へ出力することにより、表示装置130に情報を表示させる。本実施の形態では、出力機器として表示装置130を出力部205に接続する構成としたが、音を出力するスピーカなどの出力機器が出力部205に接続されてもよい。
 通信部206は、各種のデータを送受信する通信インタフェースを備える。通信部206が備える通信インタフェースは、イーサネット(登録商標)やWiFi(登録商標)において用いられる有線又は無線の通信規格に準じた通信インタフェースである。通信部206は、送信すべきデータが制御部201から入力された場合、指定された宛先へ送信すべきデータを送信する。また、通信部206は、外部装置から送信されたデータを受信した場合、受信したデータを制御部201へ出力する。
 手術支援装置200は、単一のコンピュータである必要はなく、複数のコンピュータや周辺機器からなるコンピュータシステムであってもよい。更に、手術支援装置200は、ソフトウェアによって仮想的に構築される仮想マシンであってもよい。
 次に、手術支援装置200に入力される術野画像について説明する。
 図3は術野画像の一例を示す模式図である。本実施の形態における術野画像は、患者の腹腔内を腹腔鏡11により撮像して得られる画像である。術野画像は、腹腔鏡11の撮像装置11Bが出力する生の画像である必要はなく、CCU110などによって処理が施された画像(フレーム画像)であればよい。
 腹腔鏡11により撮像される術野には、臓器を構成する組織、腫瘍などの病変部を含む組織、組織を被う膜や層、組織の周囲に存在する血管などが含まれている。術者は、これらの解剖学的構造の関係を把握しながら、鉗子やエネルギ処置具などの器具を用いて、対象組織の剥離や切離を行う。図3に例として示す術野画像は、鉗子13を用いて臓器を被う膜を牽引し、エネルギ処置具12を用いて膜を含む対象組織周囲を剥離しようとしている場面を示している。このような牽引や剥離を行う過程で血管が損傷した場合、出血が発生する。出血により組織の境界は不鮮明となり、正しい剥離層を認識することが難しくなる。特に、止血が困難な状況下では視野を著しく劣化させ、また、無理な止血操作は二次損傷の危険性を生じさせる。
 血管の損傷を回避するためには、血管構造を把握することが重要となるが、上述したような微小血管は小さく、かつ不規則に走行していることが多いため、術者にとっては微小血管の血管構造を把握することは容易でない。そこで、本実施の形態に係る手術支援装置200は、学習モデル310,320を用いて術野画像に含まれる微小血管部分を認識し、認識結果に基づき、腹腔鏡手術に関する支援情報を出力する。
 次に、手術支援装置200において用いられる第1学習モデル310及び第2学習モデル320の構成例について説明する。
 図4は第1学習モデル310の構成例を示す模式図である。第1学習モデル310は、画像セグメンテーションを行うための学習モデルであり、例えばSegNetなどの畳み込み層を備えたニューラルネットワークにより構築される。第1学習モデル310は、SegNetに限らず、FCN(Fully Convolutional Network)、U-Net(U-Shaped Network)、PSPNet(Pyramid Scene Parsing Network)など、画像セグメンテーションが行える任意のニューラルネットワークを用いて構築されてもよい。また、第1学習モデル310は、画像セグメンテーション用のニューラルネットワークに代えて、YOLO(You Only Look Once)、SSD(Single Shot Multi-Box Detector)など物体検出用のニューラルネットワークを用いて構築されてもよい。
 本実施の形態において、第1学習モデル310への入力画像は、腹腔鏡11から得られる術野画像である。第1学習モデル310は、術野画像の入力に対し、術野画像に含まれる微小血管部分の認識結果を示す画像を出力するように学習される。
 第1学習モデル310は、例えば、エンコーダ311、デコーダ312、及びソフトマックス層313を備える。エンコーダ311は、畳み込み層とプーリング層とを交互に配置して構成される。畳み込み層は2~3層に多層化されている。図4の例では、畳み込み層にはハッチングを付さずに示し、プーリング層にはハッチングを付して示している。
 畳み込み層では、入力されるデータと、それぞれにおいて定められたサイズ(例えば、3×3や5×5など)のフィルタとの畳み込み演算を行う。すなわち、フィルタの各要素に対応する位置に入力された入力値と、フィルタに予め設定された重み係数とを各要素毎に乗算し、これら要素毎の乗算値の線形和を算出する。算出した線形和に、設定されたバイアスを加算することによって、畳み込み層における出力が得られる。なお、畳み込み演算の結果は活性化関数によって変換されてもよい。活性化関数として、例えばReLU(Rectified Linear Unit)を用いることができる。畳み込み層の出力は、入力データの特徴を抽出した特徴マップを表している。
 プーリング層では、入力側に接続された上位層である畳み込み層から出力された特徴マップの局所的な統計量を算出する。具体的には、上位層の位置に対応する所定サイズ(例えば、2×2、3×3)のウインドウを設定し、ウインドウ内の入力値から局所の統計量を算出する。統計量としては、例えば最大値を採用できる。プーリング層から出力される特徴マップのサイズは、ウインドウのサイズに応じて縮小(ダウンサンプリング)される。図4の例は、エンコーダ311において畳み込み層における演算とプーリング層における演算とを順次繰り返すことによって、224画素×224画素の入力画像を、112×112、56×56、28×28、…、1×1の特徴マップに順次ダウンサンプリングしていることを示している。
 エンコーダ311の出力(図4の例では1×1の特徴マップ)は、デコーダ312に入力される。デコーダ312は、逆畳み込み層と逆プーリング層とを交互に配置して構成される。逆畳み込み層は2~3層に多層化されている。図4の例では、逆畳み込み層にはハッチングを付さずに示し、逆プーリング層にはハッチングを付して示している。
 逆畳み込み層では、入力された特徴マップに対して、逆畳み込み演算を行う。逆畳み込み演算とは、入力された特徴マップが特定のフィルタを用いて畳み込み演算された結果であるという推定の下、畳み込み演算される前の特徴マップを復元する演算である。この演算では、特定のフィルタを行列で表したとき、この行列に対する転置行列と、入力された特徴マップとの積を算出することで、出力用の特徴マップを生成する。なお、逆畳み込み層の演算結果は、上述したReLUなどの活性化関数によって変換されてもよい。
 デコーダ312が備える逆プーリング層は、エンコーダ311が備えるプーリング層に1対1で個別に対応付けられており、対応付けられている対は実質的に同一のサイズを有する。逆プーリング層は、エンコーダ311のプーリング層においてダウンサンプリングされた特徴マップのサイズを再び拡大(アップサンプリング)する。図4の例は、デコーダ312において畳み込み層における演算とプーリング層における演算とを順次繰り返すことによって、1×1、7×7、14×14、…、224×224の特徴マップに順次アップサンプリングしていることを示している。
 デコーダ312の出力(図4の例では224×224の特徴マップ)は、ソフトマックス層313に入力される。ソフトマックス層313は、入力側に接続された逆畳み込み層からの入力値にソフトマックス関数を適用することにより、各位置(画素)における部位を識別するラベルの確率を出力する。本実施の形態では、微小血管を識別するラベルを設定し、微小血管に属するか否かを画素単位で識別すればよい。ソフトマックス層313から出力されるラベルの確率が閾値以上(例えば70%以上)の画素を抽出することによって、微小血管部分の認識結果を示す画像(以下、認識画像という)が得られる。
 なお、図4の例では、224画素×224画素の画像を第1学習モデル310への入力画像としているが、入力画像のサイズは上記に限定されるものではなく、手術支援装置200の処理能力、腹腔鏡11から得られる術野画像のサイズ等に応じて、適宜設定することが可能である。また、第1学習モデル310への入力画像は、腹腔鏡11より得られる術野画像の全体である必要はなく、術野画像の注目領域を切り出して生成される部分画像であってもよい。処置対象を含むような注目領域は術野画像の中央付近に位置することが多いので、例えば、元の半分程度のサイズとなるように術野画像の中央付近を矩形状に切り出した部分画像を用いてもよい。第1学習モデル310に入力する画像のサイズを小さくすることにより、処理速度を上げつつ、認識精度を高めることができる。
 図5は第1学習モデル310による認識結果を示す模式図である。図5の例では、第1学習モデル310を用いて認識した微小血管部分を太実線(若しくは黒色で塗られた領域)により示し、それ以外の臓器や膜、術具の部分を参考として破線により示している。手術支援装置200の制御部201は、認識した微小血管部分を判別可能に表示するために微小血管の認識画像を生成する。認識画像は、術野画像と同一サイズを有し、微小血管として認識された画素に特定の色を割り当てた画像である。微小血管に割り当てる色は任意に設定される。また、認識画像を構成する各画素には透過度を表す情報が付加され、微小血管として認識された画素には不透過の値、それ以外の画素は透過の値が設定される。手術支援装置200は、このように生成された認識画像を術野画像に重畳して表示することにより、微小血管部分を特定の色を有する構造として術野画像上に表示することができる。
 図6は第2学習モデル320の構成例を示す模式図である。第2学習モデル320は、エンコーダ321、デコーダ322、及びソフトマックス層323を備えており、術野画像の入力に対し、術野画像に含まれる注意血管部分の認識結果を示す画像を出力するように構成される。第2学習モデル320が備えるエンコーダ321、デコーダ322、及びソフトマックス層323の構成は、第1学習モデル310のものと同様であるため、その詳細な説明については省略することとする。
 図7は第2学習モデル320による認識結果を示す模式図である。図7の例では、第2学習モデル320を用いて認識した注意血管部分を太実線(若しくは黒色で塗られた領域)により示し、それ以外の臓器や膜、術具の部分を参考として破線により示している。手術支援装置200の制御部201は、認識した注意血管部分を判別可能に表示するために注意血管の認識画像を生成する。認識画像は、術野画像と同一サイズを有し、注意血管として認識された画素に特定の色を割り当てた画像である。注意血管に割り当てる色は、微小血管に割り当てた色とは異なり、周囲の組織と区別が付くような色が好ましい。例えば、注意血管に割り当てる色は、青色や水色などの寒色系(青系)の色であってもよく、緑色や黄緑色などの緑系の色であってもよい。また、認識画像を構成する各画素には透過度を表す情報が付加され、注意血管として認識された画素には不透過の値、それ以外の画素は透過の値が設定される。手術支援装置200は、このように生成された認識画像を術野画像に重畳して表示することにより、注意血管部分を特定の色を有する構造として術野画像上に表示することができる。
 以下、第1学習モデル310及び第2学習モデル320の生成手順について説明する。第1学習モデル310及び第2学習モデル320を生成する準備段階として、撮像済みの術野画像に対してアノテーションが実施される。
 第1学習モデル310を生成する準備段階において、作業者(医師などの専門家)は、録画装置140に録画された術野画像を表示装置130に表示させ、操作部203として備えるマウスやスタイラスペンなどを用いて、微小血管に該当する部分を画素単位で指定することによりアノテーションを行う。アノテーションに用いられた多数の術野画像と、各術野画像において指定された微小血管に該当する画素の位置を示すデータ(第1正解データ)とのセットは、第1学習モデル310を生成するための訓練データとして手術支援装置200の記憶部202に記憶される。訓練データの数を増やすために、透視変換や鏡映処理などを適用して生成した術野画像と、当該術野画像に対する正解データとのセットを訓練データに含めてもよい。更に、学習が進めば、術野画像と、術野画像を入力して得られる第1学習モデル310の認識結果(正解データ)とのセットを訓練データに含めてもよい。
 同様に、第2学習モデル320を生成する準備段階において、作業者は、術者の中心視野に存在する微小血管(若しくは、術者の中心視野に存在しない微小血管)やテンションが掛かった状態の微小血管に該当する部分を画素単位で指定することによって、アノテーションを行う。中心視野は、例えば、術野画像の中心に設定される矩形又は円形の領域であり、術野画像の1/4~1/3程度のサイズを有するように設定される。アノテーションに用いられた多数の術野画像と、各術野画像において指定された注意血管に該当する画素の位置を示すデータ(第2正解データ)とのセットは、第2学習モデル320を生成するための訓練データとして、手術支援装置200の記憶部202に記憶される。訓練データの数を増やすために、透視変換や鏡映処理などを適用して生成した術野画像と、当該術野画像に対する正解データとのセットを訓練データに含めてもよい。更に、学習が進めば、術野画像と、術野画像を入力して得られる第2学習モデル320の認識結果(正解データ)とのセットを訓練データに含めてもよい。
 手術支援装置200は、上述した訓練データを用いて、第1学習モデル310及び第2学習モデル320を生成する。
 図8は第1学習モデル310の生成手順を説明するフローチャートである。手術支援装置200の制御部201は、記憶部202から学習処理プログラムPG3を読み出し、以下の手順を実行することにより、第1学習モデル310を生成する。なお、学習を開始する前の段階では、第1学習モデル310を記述する定義情報には、初期値が与えられているものとする。
 制御部201は、記憶部202にアクセスし、第1学習モデル310を生成するために事前に準備された訓練データから、一組の訓練データを選択する(ステップS101)。制御部201は、選択した訓練データに含まれる術野画像を第1学習モデル310へ入力し(ステップS102)、第1学習モデル310による演算を実行する(ステップS103)。すなわち、制御部201は、入力した術野画像から特徴マップを生成し、生成した特徴マップを順次ダウンサンプリングするエンコーダ311による演算、エンコーダ311から入力される特徴マップを順次アップサンプリングするデコーダ312による演算、及びデコーダ312より最終的に得られる特徴マップの各画素を識別するソフトマックス層313による演算を実行する。
 制御部201は、第1学習モデル310から演算結果を取得し、取得した演算結果を評価する(ステップS104)。例えば、制御部201は、演算結果として得られる微小血管の画像データと、訓練データに含まれる正解データとの類似度を算出することによって、演算結果を評価すればよい。類似度は、例えばJaccard係数により算出される。Jaccard係数は、第1学習モデル310によって抽出した微小血管部分をA、正解データに含まれる微小血管部分をBとしたとき、A∩B/A∪B×100(%)により与えられる。Jaccard係数に代えて、Dice係数やSimpson係数を算出してもよく、その他の既存の手法を用いて類似度を算出してもよい。
 制御部201は、演算結果の評価に基づき、学習が完了したか否かを判断する(ステップS105)。制御部201は、予め設定した閾値以上の類似度が得られた場合に、学習が完了したと判断することができる。
 学習が完了していないと判断した場合(S105:NO)、制御部201は、逆誤差伝搬法を用いて、第1学習モデル310の各層における重み係数及びバイアスを学習モデル310の出力側から入力側に向かって順次的に更新する(ステップS106)。制御部201は、各層の重み係数及びバイアスを更新した後、処理をステップS101へ戻し、ステップS101からステップS105までの処理を再度実行する。
 ステップS105において学習が完了したと判断した場合(S105:YES)、学習済みの第1学習モデル310が得られるので、制御部201は、本フローチャートによる処理を終了する。
 図8のフローチャートでは第1学習モデル310の生成手順について説明したが、第2学習モデル320の生成手順についても同様である。すなわち、手術支援装置200は、第2学習モデル320を生成するために準備された訓練データを用いて、第2学習モデル320による演算と、演算結果の評価とを繰り返し実行することによって、第2学習モデル320を生成すればよい。
 本実施の形態では、手術支援装置200において学習モデル310,320を生成する構成としたが、サーバ装置などの外部コンピュータを用いて学習モデル310,320を生成してもよい。手術支援装置200は、外部コンピュータにて生成された学習モデル310,320を通信等の手段を用いて取得し、取得した学習モデル310,320を記憶部202に記憶させてもよい。
 手術支援装置200は、学習モデル310,320が生成された後の運用フェーズにおいて手術支援を行う。図9は手術支援の実行手順を説明するフローチャートである。手術支援装置200の制御部201は、記憶部202から認識処理プログラムPG1及び表示処理プログラムPG2を読み出して実行することにより、以下の手順を実行する。腹腔鏡手術が開始されると、腹腔鏡11の撮像装置11Bにより術野を撮像して得られる術野画像はユニバーサルコード11Dを介してCCU110へ随時出力される。手術支援装置200の制御部201は、CCU110から出力される術野画像を入力部204にて取得する(ステップS121)。制御部201は、術野画像を取得する都度、ステップS122~S127の処理を実行する。
 制御部201は、取得した術野画像を第1学習モデル310に入力して第1学習モデル310による演算を実行し(ステップS122)、術野画像に含まれる微小血管部分を認識する(ステップS123)。すなわち、制御部201は、入力された術野画像から特徴マップを生成し、生成した特徴マップを順次ダウンサンプリングするエンコーダ311による演算、エンコーダ311から入力された特徴マップを順次アップサンプリングするデコーダ312による演算、及びデコーダ312より最終的に得られる特徴マップの各画素を識別するソフトマックス層313による演算を実行する。また、制御部201は、ソフトマックス層313から出力されるラベルの確率が閾値以上(例えば70%以上)の画素を微小血管部分として認識する。
 制御部201は、第1学習モデル310を用いて認識した微小血管部分を判別可能に表示するために、微小血管の認識画像を生成する(ステップS124)。制御部201は、上述したように、微小血管として認識された画素には特定の色を割り当て、微小血管以外の画素には背景が透過するような透過度を設定すればよい。
 同様に、制御部201は、取得した術野画像を第2学習モデル320に入力して第2学習モデル320による演算を実行し(ステップS125)、術野画像に含まれる注意血管部分を認識する(ステップS126)。第2学習モデル320を生成する際に、術者の中心視野にある微小血管を認識するようにアノテーションが行われていた場合、ステップS126では、術者の中心視野に存在する微小血管が注意血管として認識される。また、術者の中心視野にない微小血管を認識するようにアノテーションが行われていた場合、ステップS126では、術者の中心視野にない微小血管が注意血管として認識される。更に、テンションが掛かった状態の微小血管を認識するようにアノテーションが行われていた場合、ステップS126では、微小血管が緊張した前の状態から緊張状態に移行した段階で注意血管として認識される。
 次いで、制御部201は、第2学習モデル320を用いて認識した注意血管部分を判別可能に表示するために、注意血管の認識画像を生成する(ステップS127)。制御部201は、上述したように、注意血管として認識された画素には青系や緑系などの他の微小血管部分とは異なる色を割り当て、注意血管以外の画素には背景が透過するような透過度を設定すればよい。
 次いで、制御部201は、微小血管の表示指示が与えられたか否かを判断する(ステップS128)。制御部201は、操作部203を通じて術者の指示を受付けたか否かを判断することにより、表示指示が与えられたか否かを判断すればよい。微小血管の表示指示が与えられた場合(S128:YES)、制御部201は、その時点で生成される微小血管の認識画像を出力部205より表示装置130へ出力し、術野画像上に微小血管の認識画像を重畳して表示装置130に表示させる(ステップS129)。なお、直前のフレームにおいて、注意血管の認識画像を重畳表示していた場合、注意血管の認識画像に代えて、微小血管の認識画像を重畳表示すればよい。これにより、学習モデル310を用いて認識した微小血管部分は特定の色で示される構造として術野画像上に表示される。
 図10は微小血管の表示例を示す模式図である。図面作成の都合上、図10の表示例では、微小血管部分を太実線又は黒色で塗られた領域により示している。実際には、微小血管に該当する部分は画素単位で予め定められた色で塗られるため、術者は、表示装置130の表示画面を確認することにより、微小血管部分を認識することができる。
 微小血管の表示指示が与えられていないと判断した場合(S128:NO)、制御部201は、注意血管の表示指示が与えられたか否かを判断する(ステップS130)。制御部201は、操作部203を通じて術者の指示を受付けたか否かを判断することにより、表示指示が与えられたか否かを判断すればよい。注意血管の表示指示が与えられた場合(S130:YES)、制御部201は、その時点で生成される注意血管の認識画像を出力部205より表示装置130へ出力し、術野画像上に注意血管の認識画像を重畳して表示装置130に表示させる(ステップS131)。なお、直前のフレームにおいて、微小血管の認識画像を重畳表示していた場合、微小血管の認識画像に代えて、注意血管の認識画像を重畳表示すればよい。これにより、学習モデル320を用いて認識した注意血管部分は青系や緑系の特定の色で示される構造として術野画像上に表示される。
 図11は注意血管の表示例を示す模式図である。図面作成の都合上、図11の表示例では、注意血管部分を太実線又は黒色で塗られた領域により示している。実際には、注意血管に該当する部分は画素単位で青系や緑系などの人体内部に存在しない色で塗られるため、術者は、表示装置130の表示画面を見ることにより、注意血管を明確に判別することができる。術者は、注意血管を含む部位を切離する必要がある場合には、例えばエネルギ処置具12を用いて凝固切離することにより、出血の発生を抑えることができる。
 ステップS130において注意血管の表示指示が与えられていない場合(S130:NO)、制御部201は、術野画像の表示を終了するか否かを判断する(ステップS132)。腹腔鏡手術が終了し、腹腔鏡11の撮像装置11Bによる撮像が停止された場合、制御部201は、術野画像の表示を終了すると判断する。術野画像の表示を終了しないと判断した場合(S132:NO)、制御部201は、処理をステップS128へ戻す。術野画像の表示を終了すると判断した場合(S132:YES)、制御部201は、本フローチャートによる処理を終了する。
 図9に示すフローチャートでは、微小血管を認識する処理を実行した後に、注意血管を認識する処理を実行する手順としたが、これらの処理の実行順序は前後してもよく、同時並行的に実行されてもよい。
 また、図9に示すフローチャートでは、微小血管の表示指示が与えられた場合、微小血管の認識画像を重畳表示し、注意血管の表示指示が与えられた場合、注意血管の認識画像を重畳表示する構成としたが、表示指示を受付けることなく、微小血管の認識画像又は注意血管の認識画像の一方をデフォルトで表示する構成としてもよい。この場合、制御部201は、表示切替指示が与えられることにより、他方の認識画像に切り替えて表示すればよい。
 また、本実施の形態では、微小血管や注意血管に該当する画素を青系や緑系の人体内部に存在しない色で着色して表示する構成としたが、それらの画素の周囲に存在する画素も同色又は異なる色で着色して表示する構成としてもよい。このようなエフェクトを施すことにより、微小血管部分や注意血管部分を強調表示(太く表示)することができ、視認性を高めることができる。なお、微小血管部分及び注意血管部分の何れか一方のみを強調表示してもよく、両部分を強調表示してもよい。
 更に、微小血管部分又は注意血管部分を着色する際、微小血管部分又は注意血管部分について設定された表示色(青系や緑系の色)と、背景の術野画像の表示色とを平均化し、平均化した色で着色して表示してもよい。例えば、血管部分について設定されている表示色を(0,0,B1)、背景の術野画像における血管部分の表示色を(R2,G2,B2)とした場合、制御部201は、当該血管部分を(R2/2,G2/2,(B1+B2)/2)の色で着色して表示すればよい。代替的に、重み係数W1,W2を導入し、認識した血管部分を(W2×R2,W2×G2,W1×B1+W2×B2)の色で着色して表示してもよい。
 更に、微小血管部分及び注意血管部分の少なくとも一方を点滅表示してもよい。すなわち、制御部201は、認識した血管部分を第1設定時間(例えば2秒間)だけ表示する処理と、認識した血管部分を第2設定時間(例えば2秒間)だけ非表示にする処理とを交互に繰り返し実行することにより、血管部分の表示及び非表示を周期的に切り替えてもよい。血管部分の表示時間及び非表示時間は適宜設定されるとよい。また、患者の心拍や脈拍などの生体情報に同期させて、血管部分の表示及び非表示を切り替える構成としてもよい。
 更に、本実施の形態では、手術支援装置200の操作部203により表示指示又は切替指示を与える構成としたが、腹腔鏡11の操作部11Cにより表示指示又は切替指示を与える構成としてもよく、図に示していないフットスイッチや音声入力装置等により表示指示又は切替指示を与える構成としてもよい。
 更に、手術支援装置200は、第2学習モデル320により注意血管を認識した場合、注意血管を含む所定領域を拡大表示してもよい。拡大表示は、術野画像上で行ってもよく、別画面上で行ってもよい。
 更に、本実施の形態では、表示装置130において微小血管及び注意血管を術野画像に重畳表示する構成としたが、微小血管及び注意血管の検出を音又は音声により術者に報知してもよい。
 更に、本実施の形態では、第2学習モデル320により注意血管を認識した場合、制御部201は、エネルギ処置具12や手術用ロボット(不図示)などの医療デバイスを制御するための制御信号を生成し、生成した制御信号を医療デバイスへ出力する構成としてもよい。例えば、注意血管を凝固しながら切断できるように、制御部201は、エネルギ処置具12に対して電流を供給させ、凝固切断を指示する制御信号を出力してもよい。
 以上のように、本実施の形態では、学習モデル310,320を用いて微小血管及び注意血管の構造を認識し、認識した微小血管部分及び注意血管部分を画素単位で判別可能に表示することができるので、腹腔鏡手術における視覚支援を行うことができる。なお、手術支援装置200から生成される画像は、手術支援に用いられるだけでなく、研修医等の教育支援のために用いられてもよく、腹腔鏡手術の評価のために用いられてもよい。例えば、また、手術中に録画装置140に録画された画像と手術支援装置200が生成した画像とを比較して、腹腔鏡手術における牽引操作や剥離操作が適切であったか否かを判断することにより、腹腔鏡手術を評価することができる。
(実施の形態2)
 実施の形態2では、第2学習モデル320用の訓練データを生成する際、第1学習モデル310による認識結果を流用する構成について説明する。
 なお、腹腔鏡手術支援システムの全体構成、手術支援装置200の内部構成等については実施の形態1と同様であるため、その説明を省略することとする。
 図12は第2学習モデル320用の訓練データの生成手法を説明する説明図である。実施の形態1では、第2学習モデル320を生成する準備段階において、作業者が注意血管に該当する部分を画素単位で指定することによって、アノテーションを行った。これに対し、実施の形態2では、第1学習モデル310による微小血管の認識結果を表示させ、認識された微小血管のうち注意血管に該当しないものを作業者が選択し、これらを除外することにより、注意血管のみを残す作業を行うことによってアノテーションを行う。
 手術支援装置200の制御部201は、第1学習モデル310の認識結果を参照し、隣接する画素同士が微小血管であるものをラベル付けしていくことにより、微小血管に該当する一連の画素を領域として認識する。制御部201は、認識した微小血管領域のうち、注意血管に該当しないものに対する選択操作(操作部203によるクリック操作やタップ操作)を受付けることにより、注意血管以外の血管を除外する。制御部201は、選択されなかった微小血管領域の画素を、注意血管に該当する画素として指定する。このように指定された注意血管に該当する画素の位置を示すデータ(第2正解データ)と元の術野画像とのセットは、第2学習モデル320を生成するための訓練データとして、手術支援装置200の記憶部202に記憶される。
 制御部201は、記憶部202に記憶された訓練データを用いて、第2学習モデル320を生成する。第2学習モデル320の生成手法は、実施の形態1と同様であるため、その説明を省略することとする。
 以上のように、実施の形態2では、第1学習モデル310の認識結果を流用して、第2学習モデル320用の訓練データを生成できるので、作業者の作業負担を軽減することができる。
 なお、本実施の形態では、除外する微小血管を選択することにより注意血管を指定する構成としたが、第1学習モデル310により認識された微小血管のうち、注意血管に該当するものに対する選択操作を受付けることによって、注意血管を指定する構成としてもよい。
(実施の形態3)
 実施の形態3では、1つの学習モデルを用いて微小血管及び注意血管の双方を認識する構成について説明する。
 なお、腹腔鏡手術支援システムの全体構成、手術支援装置200の内部構成等については実施の形態1と同様であるため、その説明を省略することとする。
 図13は実施の形態3における学習モデル330のソフトマックス層333の構成を説明する説明図である。図13では、簡略化のために、学習モデル330のソフトマックス層333のみを示している。ソフトマックス層333は、各画素に対応して設定されたラベルについて確率を出力する。実施の形態3では、微小血管を識別するラベル、注意血管を識別するラベル、それ以外を識別するラベルが設定される。手術支援装置200の制御部201は、微小血管を識別するラベルの確率が閾値以上であれば、その画素が微小血管であると認識し、注意血管を識別するラベルの確率が閾値以上であれば、その画素が注意血管であると認識する。また、制御部201は、それ以外を識別するラベルの確率が閾値以上であれば、その画素は微小血管でも注意血管でもないと認識する。
 このような認識結果を得るための学習モデル330は、術野画像と、術野画像に含まれる微小血管部分及び注意血管部分の位置(画素)を示す正解データとを含むセットを訓練データに用いて学習することにより生成される。学習モデル330の生成方法については、実施の形態1と同様であるため、その説明を省略する。
 図14は実施の形態3における表示例を示す模式図である。実施の形態3における手術支援装置200は、学習モデル330を用いて、術野画像に含まれる微小血管部分及び注意血管部分を認識し、これらを判別できるように表示装置130に表示させる。図14の表示例では、図面作成の都合上、学習モデル330を用いて認識された微小血管部分を太実線又は黒塗りの領域により示し、注意血管部分にハッチングを付して示している。実際には、注意血管に該当する部分については画素単位で青系の色や緑系の色などの人体内部に存在しない色で着色し、注意血管以外の微小血管に該当する部分については他の色で着色して表示すればよい。また、注意血管と注意血管以外の微小血管とで透過度を変えて表示してもよい。この場合、注意血管については透過度を相対的に低く、注意血管以外の微小血管については透過度を相対的に高く設定すればよい。
 以上のように、実施の形態3では、学習モデル330により認識した微小血管部分及び注意血管部分を判別可能に表示するため、牽引操作や剥離操作などを行う際に有用な情報を術者に対して的確に提示できる。
(実施の形態4)
 実施の形態4では、微小血管及び注意血管に対する認識結果の確信度に応じて、表示態様を変更する構成について説明する。
 実施の形態4において説明したように、学習モデル330のソフトマックス層333は、各画素に対応して設定されたラベルについて確率を出力する。この確率は、認識結果の確信度を表す。手術支援装置200の制御部201は、認識結果の確信度に応じて、微小血管部分及び注意血管部分の表示態様を異ならせる。
 図15は実施の形態4における表示例を示す模式図である。図15は注意血管を含む領域を拡大して示している。この例では、注意血管の認識結果に関して、確信度が70%~80%の場合、80%~90%の場合、90%~95%の場合、95%~100%の場合の夫々で濃度を異ならせて注意血管部分を表示している。この例では、確信度が高くなる程、濃度が高くなるように表示態様を変更すればよい。
 図15の例では、注意血管の表示態様を確信度に応じて異ならせる構成としたが、微小血管についても同様に、確信度に応じて表示態様を異ならせてもよい。
 また、図15の例では、確信度に応じて濃度を異ならせる構成としたが、確信度に応じて色や透過度を異ならせてもよい。色を異ならせる場合、確信度が高くなる程、青系や緑系の人体に存在しない色で表示し、確信度が高くなる程、赤系の人体に存在する色で表示すればよい。また、透過度を異ならせる場合、確信度が高くなる程、透過度が低くなるように表示態様を変更すればよい。
 また、図15の例では、確信度に応じて4段階に透過度を変更しているが、更に細かく透過度を設定し、確信度に応じたグラデーション表示を行ってもよい。また、透過度を変更する構成に代えて、色を変更する構成としてもよい。
(実施の形態5)
 実施の形態5では、術具などの物体の陰に隠れて視認することができない微小血管部分の推定位置を表示する構成について説明する。
 図16は実施の形態5における表示手法を説明する説明図である。上述したように、手術支援装置200は、学習モデル310,320(若しくは学習モデル330)を用いて、術野画像に含まれる微小血管部分を認識する。しかしながら、撮像対象の術野にエネルギ処置具12及び鉗子13を含む術具やガーゼなどの物体が存在する場合、手術支援装置200は、学習モデル310,320(若しくは学習モデル330)を用いたとしても、物体の陰に隠れている微小血管部分を術野画像から認識することはできない。このため、微小血管部分の認識画像を術野画像に重畳して表示させた場合、物体の陰に隠れている微小血管部分を判別可能に表示することはできない。
 そこで、実施の形態5に係る手術支援装置200は、物体の陰に隠れていない状態で認識した微小血管部分の認識画像を記憶部202に保持しておき、当該微小血管部分が物体の陰に隠れた場合、記憶部202に保持した認識画像を読み出して、術野画像に重畳表示することを行う。
 図16の例では、時刻T1は微小血管が術具の陰に隠れていない状態の術野画像を示し、時刻T2は微小血管の一部が術具の陰に隠れた状態の術野画像を示している。ただし、時刻T1と時刻T2との間では、腹腔鏡11は移動させておらず、撮像している領域に変化はないものとする。
 時刻T1の術野画像からは、術野に現れる全ての微小血管を認識することが可能であり、学習モデル310,320(若しくは学習モデル330)の認識結果から、微小血管の認識画像が生成される。生成された微小血管の認識画像は記憶部202に記憶される。
 一方、時刻T2の術野画像からは、術野に現れる微小血管のうち、術具に隠れていない微小血管については認識可能であるが、術具に隠れている微小血管については認識することがない。そこで、手術支援装置200は、時刻T1の術野画像から生成された微小血管の認識画像を記憶部202から読み出し、時刻T2の術野画像に重畳して表示する。図16の例では、破線で示す部分が術具に隠れて視認できない微小血管部分であるが、手術支援装置200は、時刻T1において認識された認識画像を流用することにより、当該部分も含めて判別可能に表示することが可能となる。
 以上のように、実施の形態5では、術具などの物体の陰に隠れて視認することができない微小血管の存在を術者に報知することができるので、手術時の安全性を高めることができる。
(実施の形態6)
 実施の形態6では、血管の走行パターンを予測し、予測した血管の走行パターンにより推定される血管部分を判別可能に表示する構成について説明する。
 図17は実施の形態6に係る手術支援装置200が実行する処理の手順を説明するフローチャートである。手術支援装置200の制御部201は、実施の形態1と同様に、術野画像を取得し(ステップS601)、取得した術野画像を第1学習モデル310に入力して第1学習モデル310による演算を実行する(ステップS602)。制御部201は、第1学習モデル310による演算結果に基づき、血管の走行パターンを予測する(ステップS603)。実施の形態1では、第1学習モデル310のソフトマックス層313から出力されるラベルの確率が第1閾値以上(例えば70%以上)の画素を抽出することによって、微小血管部分の認識画像を生成していたが、実施の形態6では、その閾値を下げることにより血管の走行パターンを予測する。例えば、制御部201は、第1学習モデル310のソフトマックス層313から出力されるラベルの確率が第1閾値未満(例えば70%未満)であり、第2閾値以上(例えば50%以上)の画素を抽出することによって、血管の走行パターンを予測する。
 制御部201は、予測した走行パターンにより推定される血管部分を判別可能に表示する(ステップS604)。図18は実施の形態6における表示例を示す模式図である。図18では、認識した微小血管部分を太実線(若しくは黒色で塗られた領域)により示し、予測した走行パターンにより推定される血管部分をハッチングにより示している。図面作成の都合上、図18の例では、微小血管部分を太実線(若しくは黒色で塗られた領域)により示し、走行パターンにより推定される血管部分をハッチングにより示しているが、色、濃度、透過度などの表示態様を異ならせて表示すればよい。
 以上のように、実施の形態6では、血管の走行パターンにより推定される血管部分を併せて表示できるので、腹腔鏡手術における視覚支援を行うことができる。
 本実施の形態では、ソフトマックス層313から出力されるラベルの確率が第1閾値未満(例えば70%未満)、第2閾値以上(例えば50%以上)の画素を抽出することによって、血管の走行パターンを予測する構成としたが、血管の走行パターンを予測するための学習モデルを用意してもよい。すなわち、術野を撮像して得られる術野画像と、術野画像内の血管の走行パターンを示す正解データとを訓練データとして学習された学習モデルを用意すればよい。正解データは、医師などの専門家が術野画像を確認しながら血管の走行パターンを判断し、当該術野画像にアノテーションを施すことにより生成されるとよい。
(実施の形態7)
 実施の形態7では、術野画像に基づき血流を認識し、血流の多少に応じた表示態様にて血管を表示する構成について説明する。
 図19は実施の形態7における学習モデル340のソフトマックス層343の構成を説明する説明図である。図19では、簡略化のために、学習モデル340のソフトマックス層343のみを示している。ソフトマックス層343は、各画素に対応して設定されたラベルについて確率を出力する。実施の形態7では、血流がある血管を識別するラベル、血流がない血管を識別するラベル、それ以外を識別するラベルが設定される。手術支援装置200の制御部201は、血流がある血管を識別するラベルの確率が閾値以上であれば、その画素は血流がある血管であると認識し、血流がない血管を識別するラベルの確率が閾値以上であれば、その画素は血流がない血管であると認識する。また、制御部201は、それ以外を識別するラベルの確率が閾値以上であれば、その画素は血管でないと認識する。
 このような認識結果を得るための学習モデル340は、術野画像と、術野画像に含まれる血流がある血管部分及び血流がない血管部分の位置(画素)を示す正解データとを含むセットを訓練データに用いて学習することにより生成される。血流がある血管部分を含む術野画像として、例えば、ICG(Indocyanine  Green)蛍光画像を用いてもよい。すなわち、近赤外域に吸収波長を有するICGなどのトレーサを動脈又は静脈に注入し、近赤外光を照射したとき発せられる蛍光を観測することによって蛍光画像を生成し、これを血流がある血管部分の位置を示す正解データとして用いてもよい。また、血流がある血管と血流がない血管とでは、血管の色合い、形状、温度、血液の濃度、酸素飽和度などが異なるので、これらを計測することによって、血流がある血管部分の位置、及び血流がない血管部分の位置を特定して正解データを用意してもよい。学習モデル340の生成方法については、実施の形態1と同様であるため、その説明を省略する。
 なお、図19に示す学習モデル340では、ソフトマックス層343から、血流がある確率、血流がない確率、及びその他の確率を出力する構成としたが、血流量または血流速に応じて確率を出力する構成としてもよい。
 図20は実施の形態7における表示例を示す模式図である。実施の形態7における手術支援装置200は、学習モデル340を用いて、血流がある血管部分と、血流がない血管部分とを認識し、これらを判別できるように表示装置130に表示させる。図20の表示例では、図面作成の都合上、血流がある血管部分を太実線又は黒塗りの領域により示し、血流がない血管部分をハッチングを付して示していが、血流がある血管を特定の色で着色し、血流がない血管を別の色で着色して表示すればよい。また、血流がある血管と血流がない血管とで透過度を変えて表示してもよい。更に、血流がある血管及び血流がない血管の何れか一方を判別可能に表示してもよい。
 以上のように、実施の形態7では、血流がある血管と血流がない血管とを判別可能に表示するので、腹腔鏡手術における視覚支援を行うことができる。
(実施の形態8)
 実施の形態8では、特殊光を照射して撮像される特殊光画像を用いて血管部分を認識し、特殊光画像を用いて認識した血管部分の画像を必要に応じて表示する構成について説明する。
 実施の形態8における腹腔鏡11は、通常光を照射して術野を撮像する機能と、特殊光を照射して術野を撮像する機能とを有する。このため、実施の形態8に係る腹腔鏡手術支援システムは、特殊光を出射するための光源装置(不図示)を別途備えてもよく、光源装置120から出射される光に対し、通常光用の光学フィルタと特殊光用の光学フィルタとを切り替えて適用することにより、通常光と特殊光とを切り替えて照射する構成としてもよい。
 通常光とは、例えば白色光の波長帯域(380nm~650nm)を有する光である。実施の形態1などで説明した照明光は通常光に該当する。一方、特殊光は、通常光とは異なる別の照明光であり、狭帯域光、赤外光、励起光などが該当する。なお、本明細書において、通常光/特殊光の区別は便宜的なものに過ぎず、特殊光が通常光と比較して特殊であることを強調するものではない。
 狭帯域光観察(NBI:Narrow Band Imaging)では、血液中のヘモグロビンに吸収されやすい狭帯域化された2つの波長帯域(例えば、390~445nm/530~550nm)の光を観察対象に照射する。これにより、粘膜表層の毛細血管等を強調表示することができる。
 赤外光観察(IRI:Infra Red Imaging)では、赤外光が吸収されやすい赤外指標薬剤を静脈注射した上で、2つの赤外光(790~820nm/905~970nm)を観察対象に照射する。これにより、通常光観察では視認することが困難な臓器深部の血管等を強調表示することができる。赤外指標薬剤には、例えばICGが用いられる。
 蛍光観察(AFI:Auto Fluorescence Imaging)では、生体組織からの自家蛍光を観察するための励起光(390~470nm)と血液中のヘモグロビンに吸収される波長(540~560nm)の光とを観察対象に照射す。これにより、2種類の組織(例えば病変組織と正常組織)を異なる色で強調表示することができる。
 特殊光を用いた観察手法は、上記に限らず、HSI(Hyper Spectral Imaging)、LSCI(Laser Speckle Contrast Imaging)、FICE(Flexible spectral Imaging Color Enhancement)などであってもよい。
 以下では、通常光を照射して術野を撮像することにより得られる術野画像を通常光画像とも記載し、特殊光を照射して術野を撮像することにより得られる術野画像を特殊光画像とも記載する。
 実施の形態8に係る手術支援装置200は、実施の形態1において説明した第1学習モデル310及び第2学習モデル320に加え、特殊光画像用の学習モデル350を備える。図21は特殊光画像用の学習モデル350の構成例を示す模式図である。学習モデル350は、エンコーダ351、デコーダ352、及びソフトマックス層353を備えており、特殊光画像の入力に対し、特殊光画像に現れる血管部分の認識結果を示す画像を出力するように構成される。このような学習モデル350は、特殊光を照射して術野を撮像することにより得られる撮像画像(特殊光画像)と、当該特殊光画像について医師等により指定される血管の位置のデータ(正解データ)とを含むデータセットを訓練データとして使用し、所定の学習アルゴリズムに従って学習を実行することにより生成される。
 手術支援装置200は、特殊光画像用の学習モデル350が生成された後の運用フェーズにおいて、手術支援を行う。図22は実施の形態8に係る手術支援装置200が実行する処理の手順を説明するフローチャートである。手術支援装置200の制御部201は、通常光画像を取得し(ステップS801)、取得した通常光画像を第1学習モデル310に入力して第1学習モデル310による演算を実行する(ステップS802)。制御部201は、第1学習モデル310による演算結果に基づき、通常光画像に含まれる微小血管部分を認識すると共に(ステップS803)、通常光画像では視認することが困難な血管の走行パターンを予測する(ステップS804)。
 微小血管の認識手法は、実施の形態1と同様である。制御部201は、第1学習モデル310のソフトマックス層313から出力されるラベルの確率が閾値以上(例えば70%以上)の画素を微小血管部分として認識する。走行パターンの予測手法は、実施の形態6と同様である。制御部201は、第1学習モデル310のソフトマックス層313から出力されるラベルの確率が第1閾値未満(例えば70%未満)、第2閾値以上(例えば50%以上)の画素を抽出することにより、通常光画像では視認することが困難な血管の走行パターンを予測する。
 制御部201は、ステップS801~S804の処理と並行して、以下の処理を実行する。制御部201は、特殊光画像を取得し(ステップS805)、取得した特殊光画像を特殊光画像用の学習モデル350に入力して学習モデル350による演算を実行する(ステップS806)。制御部201は、学習モデル350による演算結果に基づき、特殊光画像に現れる血管部分を認識する(ステップS807)。制御部201は、学習モデル350のソフトマックス層353から出力されるラベルの確率が閾値以上(例えば70%以上)の画素を、血管部分として認識することができる。
 次いで、制御部201は、ステップS803の予測により、通常光画像では視認することが困難な血管の存在を検出したか否かを判断する(ステップS808)。
 視認困難な血管の存在を検出していないと判断した場合(S807:NO)、制御部201は、通常光画像を出力部205より表示装置130へ出力して表示すると共に、ステップS803で微小血管を認識した場合には、微小血管部分の認識画像を通常光画像上に重畳して表示する(ステップS809)。
 視認困難な血管の存在を検出したと判断した場合(S807:YES)、制御部201は、通常光画像を出力部205より表示装置130へ出力して表示すると共に、特殊光画像より認識される血管部分の認識画像を通常光画像に重畳して表示する(ステップS810)。
 以上のように、実施の形態8では、通常光画像では視認することが困難な血管の存在を検出した場合、特殊光画像より認識される血管部分の認識画像を表示するので、例えば臓器深部に存在する血管の位置を術者に知らせることができ、腹腔鏡手術における安全性を高めることができる。
 なお、本実施の形態では、通常光画像では視認することが困難な血管の存在を検出した場合、特殊光画像より認識される血管部分の認識画像を自動的に表示する構成としたが、操作部203などを通じて術者の指示を受付けた場合、通常光画像より認識された微小血管部分の表示に代えて、特殊光画像より認識された血管部分の表示を行う構成としてもよい。
 また、本実施の形態では、通常光画像より微小血管部分を認識する共に、特殊光画像より血管部分を認識する構成としたが、第2学習モデル320を用いて、通常光画像より注意血管部分を認識すると共に、特殊光画像より血管部分を認識する構成としてもよい。
 本実施の形態では、通常光画像による認識結果と、特殊光画像による認識結果とを1つの表示装置130にて切り替えて表示する構成としたが、通常光画像による認識結果を表示装置130に表示し、特殊光画像による認識結果を別の表示装置(不図示)に表示する構成としてもよい。
 本実施の形態では、制御部201において、通常光画像による微小血管部分の認識と、特殊光画像による血管部分の認識とを実行する構成としたが、制御部201とは別のハードウェア(GPUなど)を設け、このハードウェアにおいて特殊光画像における血管部分の認識をバックグラウンドで実行してもよい。
(実施の形態9)
 実施の形態9では、通常光画像と特殊光画像との結合画像を用いて血管部分を認識する構成について説明する。
 図23は実施の形態9に係る手術支援装置200が実行する処理の概要を説明する説明図である。手術支援装置200の制御部201は、通常光を照射して術野を撮像することにより得られる通常光画像と、特殊光を照射して術野を撮像することにより得られる特殊光画像とを取得する。本実施の形態において、通常光画像は、例えばフルHD(High-Definition)のRGB画像であり、特殊光画像は、例えばフルHDのグレースケール画像である。
 制御部201は、取得した通常光画像と特殊光画像とを結合することで結合画像を生成する。例えば、通常光画像を3つの色情報(RGB3チャンネル)を有する画像、特殊光画像を1つの色情報(グレースケール1チャンネル)を有する画像とした場合、制御部201は、4つの色情報(RGB3チャンネル+グレースケール1チャンネル)を1つにまとめた画像として結合画像を生成する。
 制御部201は、生成した結合画像を結合画像用の学習モデル360に入力し、学習モデル360による演算を実行する。学習モデル360は、図に示していないエンコーダ、デコーダ、及びソフトマックス層を備えており、結合画像の入力に対し、結合画像に現れる血管部分の認識結果を示す画像を出力するように構成される。学習モデル360は、結合画像と、当該結合画像について医師等により指定される血管の位置のデータ(正解データ)とを含むデータセットを訓練データとして使用し、所定の学習アルゴリズムに従って学習を実行することにより生成される。
 制御部201は、学習モデル360を用いて得られる血管部分の認識画像を元の術野画像(通常画像)に重畳して表示する。
 以上のように、実施の形態9では、結合画像を用いて血管部分を認識するので、通常光画像では視認することが困難な血管の存在を術者に知らせることができ、腹腔鏡手術における安全性を高めることができる。
 なお、通常光画像に結合する特殊光画像は1つに限らず、通常光画像に対して、波長帯域が異なる複数の特殊光画像を結合してもよい。
(実施の形態10)
 実施の形態10では、術具が注意血管に接近した場合や接触した場合において、術者に報知する構成について説明する。
 図24は実施の形態10における手術支援の実行手順を説明するフローチャートである。手術支援装置200の制御部201は、術具が注意血管に接近したか否かを判断する(ステップS1001)。制御部201は、例えば、注意血管と術具の先端との間の離隔距離を術野画像上で時系列的に計算し、その離隔距離が所定値よりも短くなったと判断した場合、術具が注意血管に接近したと判断すればよい。術具が注意血管に接近していないと判断した場合(S1001:NO)、制御部201は、後述するステップS1003以降の処理を実行する。
 術具が注意血管に接近したと判断した場合(S1001:YES)、制御部201は、注意血管部分を拡大表示する(ステップS1002)。図25は拡大表示の例を示す模式図である。図25の例では、注意血管を含む領域を拡大表示し、術具が注意血管に接近した旨の文字情報を表示した例を示している。
 次いで、制御部201は、術具が注意血管に接触したか否かを判断する(ステップS1003)。制御部201は、例えば、注意血管と術具の先端との間の離隔距離を術野画像上で時系列的に計算することにより、術具が注意血管に接触したか否かを判断する。制御部201は、計算した離隔距離がゼロになったと判断した場合、術具が注意血管に接触したと判断すればよい。また、術具の先端部に接触センサが設けられている場合、制御部201は、この接触センサからの出力信号を取得することによって術具が注意血管に接触したか否かを判断してもよい。接触していないと判断した場合(S1003:NO)、制御部201は、本フローチャートによる処理を終了する。
 接触したと判断した場合(S1003:YES)、制御部201は、術具が注意血管に接触した旨を示す警告表示を行う(ステップS1004)。図26は警告表示の例を示す模式図である。図26の例では、接触した術具を光らせ、術具が注意血管に接触した旨の文字情報を表示した例を示している。警告表示と共に、または、警告表示に代えて、音又は振動による警告を行ってもよい。
 なお、本実施の形態では、術具が注意血管に接触した場合に警告表示を行う構成としたが、注意血管の損傷に伴う出血の有無を判断し、出血があったと判断した場合、警告を行う構成としてもよい。制御部201は、例えば、注意血管を含む所定領域内での赤色画素を時系列的に計数し、赤色画素の数が一定以上増加した場合、出血があったと判断することができる。
 今回開示された実施形態は、全ての点において例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
 10 トロッカ
 11 腹腔鏡
 12 エネルギ処置具
 13 鉗子
 110 カメラコントロールユニット(CCU)
 120 光源装置
 130 表示装置
 140 録画装置
 200 手術支援装置
 201 制御部
 202 記憶部
 203 操作部
 204 入力部
 205 出力部
 206 通信部
 310,320,330 学習モデル
 PG1 認識処理プログラム
 PG2 表示処理プログラム
 PG3 学習処理プログラム
 

Claims (25)

  1.  コンピュータに、
     鏡視下手術の術野を撮像して得られる術野画像を取得し、
     術野画像を入力した場合、血管に関する情報を出力するように学習された学習モデルを用いて、取得した術野画像に含まれる血管と、該血管のうち注意喚起を促すべき血管とを区別して認識する
     処理を実行させるためのコンピュータプログラム。
  2.  前記コンピュータに、
     前記術野画像から認識した血管部分と、注意喚起を促すべき血管部分とを、前記術野画像上で判別可能に表示する
     処理を実行させるための請求項1に記載のコンピュータプログラム。
  3.  前記コンピュータに、
     両血管部分を切替可能に表示する
     処理を実行させるための請求項2に記載のコンピュータプログラム。
  4.  前記コンピュータに、
     両血管部分を異なる表示態様にて表示する
     処理を実行させるための請求項2に記載のコンピュータプログラム。
  5.  前記コンピュータに、
     認識した少なくとも一方の血管部分の表示及び非表示を周期的に切り替える
     処理を実行させるための請求項2から請求項4の何れか1つに記載のコンピュータプログラム。
  6.  前記コンピュータに、
     認識した少なくとも一方の血管部分の表示に対して所定のエフェクトを施す
     処理を実行させるための請求項2から請求項5の何れか1つに記載のコンピュータプログラム。
  7.  前記コンピュータに、
     前記学習モデルによる認識結果の確信度を算出し、
     算出した確信度に応じた表示態様にて少なくとも一方の血管部分を表示する
     処理を実行させるための請求項2から請求項6の何れか1つに記載のコンピュータプログラム。
  8.  前記コンピュータに、
     前記学習モデルによる認識結果を参照し、他の物体の陰に隠れた血管部分の推定位置を表示する
     処理を実行させるための請求項1に記載のコンピュータプログラム。
  9.  前記コンピュータに、
     前記学習モデルを用いて血管の走行パターンを推定し、
     推定した血管の走行パターンに基づき、前記術野画像に現れない血管部分の推定位置を表示する
     処理を実行させるための請求項1に記載のコンピュータプログラム。
  10.  前記学習モデルは、注意喚起を促すべき血管の認識結果として、術者の中心視野に存在しない血管に関する情報を出力するよう学習してある
     請求項1から請求項9の何れか1つに記載のコンピュータプログラム。
  11.  前記学習モデルは、注意喚起を促すべき血管の認識結果として、術者の中心視野に存在する血管に関する情報を出力するよう学習してある
     請求項1から請求項10の何れか1つに記載のコンピュータプログラム。
  12.  前記学習モデルは、緊張した状態にある血管に関する情報を出力するよう学習してあり、
     前記学習モデルから出力される情報に基づき、緊張した状態にある血管部分を注意喚起を促すべき血管として認識する
     処理を前記コンピュータに実行させるための請求項1から請求項11の何れか1つに記載のコンピュータプログラム。
  13.  前記コンピュータに、
     前記術野画像の入力に応じて、血流に関する情報を出力するよう学習された血流認識用の学習モデルを用いて、前記術野画像に含まれる血管に流れる血流を認識し、
     前記学習モデルによる血流の認識結果を参照して、血管認識用の学習モデルを用いて認識した血管を、血流の多少に応じた表示態様にて表示する
     処理を実行させるための請求項1から請求項12の何れか1つに記載のコンピュータプログラム。
  14.  前記コンピュータに、
     前記術野画像用の照明光とは異なる別の照明光を照射して前記術野を撮像することにより得られる特殊光画像を取得し、
     特殊光画像を入力した場合、前記特殊光画像に現れる血管に関する情報を出力するように学習された特殊光画像用の学習モデルを用いて、前記特殊光画像に現れる血管部分を認識し、
     認識した前記血管部分を前記術野画像上に重畳して表示する
     処理を実行させるための請求項1から請求項13の何れか1つに記載のコンピュータプログラム。
  15.  前記コンピュータに、
     前記術野画像から認識した血管部分と、前記特殊光画像から認識した血管部分とを切替可能に表示する
     処理を実行させるための請求項14に記載のコンピュータプログラム。
  16.  前記コンピュータに、
     前記術野画像用の照明光とは異なる別の照明光を照射して前記術野を撮像することにより得られる特殊光画像を取得し、
     前記術野画像と前記特殊光画像との結合画像を生成し、
     結合画像を入力した場合、前記結合画像に現れる血管に関する情報を出力するように学習された結合画像用の学習モデルを用いて、前記結合画像に現れる血管部分を認識し、
     認識した前記血管部分を前記術野画像上に重畳して表示する
     処理を実行させるための請求項1から請求項13の何れか1つに記載のコンピュータプログラム。
  17.  前記コンピュータに、
     前記術野画像に基づき出血を検出し、
     出血を検出した場合、警告情報を出力する
     処理を実行させるための請求項1から請求項16の何れか1つに記載のコンピュータプログラム。
  18.  前記コンピュータに、
     前記術野画像に基づき術具の接近を検出し、
     前記術具の接近を検出した場合に注意喚起を促すべき血管を判別可能に表示する
     処理を実行させるための請求項1から請求項17の何れか1つに記載のコンピュータプログラム。
  19.  前記コンピュータに、
     注意喚起を促すべき血管として認識した血管部分を拡大表示する
     処理を実行させるための請求項1から請求項18の何れか1つに記載のコンピュータプログラム。
  20.  前記コンピュータに、
     認識した血管に基づき、医療機器に対する制御情報を出力する
     処理を実行させるための請求項1から請求項19の何れか1つに記載のコンピュータプログラム。
  21.  コンピュータが、
     鏡視下手術の術野を撮像して得られる術野画像と、該術野画像に含まれる血管部分を示す第1正解データと、前記血管部分のうち注意喚起を促すべき血管部分を示す第2正解データとを含む訓練データを取得し、
     取得した訓練データのセットに基づき、術野画像を入力した場合、血管に関する情報を出力する学習モデルを生成する
     学習モデルの生成方法。
  22.  前記コンピュータが、
     術野画像を入力した場合、前記術野画像に含まれる血管に関する情報を出力する第1学習モデルと、
     術野画像を入力した場合、前記術野画像に含まれる血管のうち、注意喚起を促すべき血管に関する情報を出力する第2学習モデルと
     を個別に生成する請求項21に記載の学習モデルの生成方法。
  23.  コンピュータが、
     鏡視下手術の術野を撮像して得られる術野画像と、該術野画像に含まれる血管部分を示す第1正解データとを含む訓練データを取得し、
     取得した訓練データのセットに基づき、術野画像を入力した場合、血管に関する情報を出力する第1学習モデルを生成し、
     前記第1学習モデルを用いて認識した術野画像の血管部分のうち、注意喚起を促すべき血管部分についての指定を受付けることにより、第2正解データを生成し、
     前記術野画像と前記第2正解データとを含む訓練データのセットに基づき、術野画像を入力した場合、注意喚起を促すべき血管に関する情報を出力する第2学習モデルを生成する
     学習モデルの生成方法。
  24.  術野画像に含まれる血管部分のうち注意喚起を促すべき血管部分は、緊張状態にある血管部分である
     請求項21から請求項23の何れか1つに記載の学習モデルの生成方法。
  25.  鏡視下手術の術野を撮像して得られる術野画像を取得する取得部と、
     術野画像を入力した場合、血管に関する情報を出力するように学習された学習モデルを用いて、取得した術野画像に含まれる血管と、該血管のうち注意喚起を促すべき血管とを区別して認識する認識部と、
     該認識部の認識結果に基づき、前記鏡視下手術に関する支援情報を出力する出力部と
     を備える手術支援装置。
     
PCT/JP2021/048592 2020-12-29 2021-12-27 コンピュータプログラム、学習モデルの生成方法、及び手術支援装置 WO2022145424A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022501024A JP7146318B1 (ja) 2020-12-29 2021-12-27 コンピュータプログラム、学習モデルの生成方法、及び手術支援装置
CN202180088036.8A CN116724334A (zh) 2020-12-29 2021-12-27 计算机程序、学习模型的生成方法、以及手术辅助装置
US18/268,889 US20240049944A1 (en) 2020-12-29 2021-12-27 Recording Medium, Method for Generating Learning Model, and Surgery Support Device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020219806 2020-12-29
JP2020-219806 2020-12-29

Publications (1)

Publication Number Publication Date
WO2022145424A1 true WO2022145424A1 (ja) 2022-07-07

Family

ID=82260776

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048592 WO2022145424A1 (ja) 2020-12-29 2021-12-27 コンピュータプログラム、学習モデルの生成方法、及び手術支援装置

Country Status (4)

Country Link
US (1) US20240049944A1 (ja)
JP (1) JP7146318B1 (ja)
CN (1) CN116724334A (ja)
WO (1) WO2022145424A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053698A1 (ja) * 2022-09-09 2024-03-14 慶應義塾 手術支援プログラム、手術支援装置、および手術支援方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013507182A (ja) * 2009-10-07 2013-03-04 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 臨床画像上に強調された画像化データを表示するための方法および装置
US20150230875A1 (en) * 2014-02-17 2015-08-20 Children's National Medical Center Method and system for providing recommendation for optimal execution of surgical procedures
JP2018108173A (ja) * 2016-12-28 2018-07-12 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、プログラム
WO2019092950A1 (ja) * 2017-11-13 2019-05-16 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム
JP2020156860A (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP2021029979A (ja) * 2019-08-29 2021-03-01 国立研究開発法人国立がん研究センター 教師データ生成装置、教師データ生成プログラム及び教師データ生成方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6265627B2 (ja) * 2013-05-23 2018-01-24 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
US11754712B2 (en) * 2018-07-16 2023-09-12 Cilag Gmbh International Combination emitter and camera assembly
US20200289228A1 (en) * 2019-03-15 2020-09-17 Ethicon Llc Dual mode controls for robotic surgery

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013507182A (ja) * 2009-10-07 2013-03-04 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 臨床画像上に強調された画像化データを表示するための方法および装置
US20150230875A1 (en) * 2014-02-17 2015-08-20 Children's National Medical Center Method and system for providing recommendation for optimal execution of surgical procedures
JP2018108173A (ja) * 2016-12-28 2018-07-12 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、プログラム
WO2019092950A1 (ja) * 2017-11-13 2019-05-16 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム
JP2020156860A (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP2021029979A (ja) * 2019-08-29 2021-03-01 国立研究開発法人国立がん研究センター 教師データ生成装置、教師データ生成プログラム及び教師データ生成方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HASEGAWA, HIROSHI ET AL.: "WS15-4 New Efforts for Surgical System Development Using AI in Endoscopic Surgery Systems", JAPANESE JOURNAL OF GASTROENTEROLOGICAL SURGERY, vol. 53, no. Suppl. 1, 1 December 2020 (2020-12-01), JP , pages 290, XP009538024, ISSN: 0386-9768 *
MORIMITSU, SHINTARO: "OP3-12 Extraction of Vessel Regions from Laparoscopic Video Using Fully Convolutional Network", JAMIT ANNUAL MEETING 2019; NARA, JAPAN; 24-26 JULY 2019, vol. 38, 24 July 2019 (2019-07-24), pages 50 - 398, XP009538037 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053698A1 (ja) * 2022-09-09 2024-03-14 慶應義塾 手術支援プログラム、手術支援装置、および手術支援方法

Also Published As

Publication number Publication date
US20240049944A1 (en) 2024-02-15
JP7146318B1 (ja) 2022-10-04
CN116724334A (zh) 2023-09-08
JPWO2022145424A1 (ja) 2022-07-07

Similar Documents

Publication Publication Date Title
US20220095903A1 (en) Augmented medical vision systems and methods
JP6834184B2 (ja) 情報処理装置、情報処理装置の作動方法、プログラム及び医療用観察システム
JP7312394B2 (ja) 脈管認識装置、脈管認識方法および脈管認識システム
JP7289373B2 (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
JP7194889B2 (ja) コンピュータプログラム、学習モデルの生成方法、手術支援装置、及び情報処理方法
WO2020183770A1 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
JP7457415B2 (ja) コンピュータプログラム、学習モデルの生成方法、及び支援装置
WO2020090729A1 (ja) 医療画像処理装置、医療画像処理方法及びプログラム、診断支援装置
JP2024051041A (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
WO2022145424A1 (ja) コンピュータプログラム、学習モデルの生成方法、及び手術支援装置
JPWO2020184257A1 (ja) 医用画像処理装置及び方法
JP7387859B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
WO2021044910A1 (ja) 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
WO2022054400A1 (ja) 画像処理システム、プロセッサ装置、内視鏡システム、画像処理方法及びプログラム
JP7311936B1 (ja) コンピュータプログラム、学習モデルの生成方法、及び情報処理装置
JP7147890B2 (ja) 情報処理システム、情報処理方法及びプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2022501024

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21915283

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18268889

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180088036.8

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21915283

Country of ref document: EP

Kind code of ref document: A1