WO2024095675A1 - 医療支援装置、内視鏡、医療支援方法、及びプログラム - Google Patents

医療支援装置、内視鏡、医療支援方法、及びプログラム Download PDF

Info

Publication number
WO2024095675A1
WO2024095675A1 PCT/JP2023/036269 JP2023036269W WO2024095675A1 WO 2024095675 A1 WO2024095675 A1 WO 2024095675A1 JP 2023036269 W JP2023036269 W JP 2023036269W WO 2024095675 A1 WO2024095675 A1 WO 2024095675A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
intestinal
endoscope
medical support
Prior art date
Application number
PCT/JP2023/036269
Other languages
English (en)
French (fr)
Inventor
康彦 森本
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2024095675A1 publication Critical patent/WO2024095675A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes

Definitions

  • the technology disclosed herein relates to a medical support device, an endoscope, a medical support method, and a program.
  • JP 2020-62218 A discloses a learning device that includes an acquisition unit that acquires multiple pieces of information that associate images of the duodenal papilla of Vater in the bile duct with information indicating a cannulation method, which is a method of inserting a catheter into the bile duct, a learning unit that performs machine learning using information indicating the cannulation method as teacher data based on images of the duodenal papilla of Vater in the bile duct, and a storage unit that associates and stores the results of the machine learning performed by the learning unit with the information indicating the cannulation method.
  • a cannulation method which is a method of inserting a catheter into the bile duct
  • a learning unit that performs machine learning using information indicating the cannulation method as teacher data based on images of the duodenal papilla of Vater in the bile duct
  • a storage unit that associates and stores the results of the machine learning performed by the learning unit with the information indicating the
  • One embodiment of the technology disclosed herein provides a medical support device, endoscope, medical support method, and program that can make it easier for the user to understand the degree to which the position of the endoscope scope is misaligned relative to the direction of the duodenal intestine.
  • a first aspect of the technology disclosed herein is a medical support device that includes a processor, and the processor acquires intestinal direction related information related to the intestinal direction of the duodenum based on geometric characteristic information that can identify the geometric characteristics of the duodenum into which an endoscope is inserted, and outputs the intestinal direction related information.
  • a second aspect of the technology disclosed herein is a medical support device according to the first aspect, in which the intestinal direction-related information includes deviation amount information indicating the amount of deviation between the posture of the endoscope and the intestinal direction.
  • a third aspect of the technology disclosed herein is a medical support device according to the first or second aspect, in which the geometric characteristic information includes an intestinal wall image obtained by imaging the intestinal wall of the duodenum with a camera provided in an endoscope, and the processor acquires intestinal direction-related information by performing a first image recognition process on the intestinal wall image.
  • a fourth aspect of the technology disclosed herein is a medical support device according to any one of the first to third aspects, in which outputting the intestinal tract direction related information includes displaying the intestinal tract direction related information on a first screen.
  • a fifth aspect of the technology disclosed herein is a medical support device according to any one of the first to fourth aspects, in which the intestinal direction related information includes first direction information capable of identifying a first direction that intersects with the intestinal direction at a predetermined angle.
  • a sixth aspect of the technology disclosed herein is a medical support device according to the fifth aspect, in which the first direction information is obtained by performing a second image recognition process on an intestinal wall image obtained by capturing an image of the intestinal wall of the duodenum with a camera provided in an endoscope.
  • a seventh aspect of the technology disclosed herein is a medical support device according to the sixth aspect, in which the first direction information is information obtained with a degree of certainty equal to or greater than a threshold value by performing an AI-based image recognition process as the second image recognition process.
  • An eighth aspect of the technology disclosed herein is a medical support device according to any one of the first to eighth aspects, in which the processor acquires posture information capable of identifying the posture of the endoscope when the endoscope is inserted into the duodenum, the intestinal direction related information includes posture adjustment support information that supports posture adjustment, and the posture adjustment support information is information determined based on the amount of deviation between the intestinal direction and the posture identified from the posture information.
  • a ninth aspect of the technology disclosed herein is a medical support device according to any one of the first to eighth aspects, in which the intestinal direction-related information includes condition information indicating a condition for aligning the optical axis direction of a camera provided on the endoscope with a second direction that intersects with the intestinal direction at a predetermined angle by changing the posture of the endoscope.
  • a tenth aspect of the technology disclosed herein is a medical support device according to the ninth aspect, in which the conditions include operation conditions related to operations performed on the endoscope to align the optical axis direction with the second direction.
  • An eleventh aspect of the technology disclosed herein is a medical support device according to any one of the first to tenth aspects, in which, when the optical axis direction of a camera provided in an endoscope coincides with a third direction that intersects with the intestinal direction at a predetermined angle, the intestinal direction related information includes notification information that notifies the user that the optical axis direction coincides with the third direction.
  • a twelfth aspect of the technology disclosed herein is a medical support device according to any one of the first to eleventh aspects, in which the processor detects the duodenal papilla region by executing a third image recognition process on an intestinal wall image obtained by imaging the intestinal wall of the duodenum with a camera provided in an endoscope, displays the duodenal papilla region on a second screen, and displays papilla orientation information indicating the orientation of the duodenal papilla region, which is obtained based on intestinal direction related information, on the second screen.
  • a thirteenth aspect of the technology disclosed herein is a medical support device according to any one of the first to twelfth aspects, in which the processor detects the duodenal papilla region by executing a fourth image recognition process on an intestinal wall image obtained by imaging the intestinal wall of the duodenum with a camera provided in an endoscope, displays the duodenal papilla region on a third screen, and displays running direction information indicating the running direction of the tube leading to the opening of the duodenal papilla region, which is obtained based on intestinal direction related information, on the third screen.
  • a fourteenth aspect of the technology disclosed herein is the medical support device according to the thirteenth aspect, in which the duct is a bile duct or a pancreatic duct.
  • a fifteenth aspect of the technology disclosed herein is a medical support device according to any one of the first to fourteenth aspects, in which the geometric characteristic information includes depth information indicating the depth of the duodenum, and the intestinal direction related information is acquired based on the depth information.
  • a sixteenth aspect of the technology disclosed herein is an endoscope comprising a medical support device according to any one of the first to fifteenth aspects and an endoscope scope.
  • a seventeenth aspect of the technology disclosed herein is a medical support method that includes acquiring intestinal direction related information related to the intestinal direction of the duodenum based on geometric characteristic information capable of identifying the geometric characteristics of the duodenum into which an endoscope is inserted, and outputting the intestinal direction related information.
  • An 18th aspect of the technology disclosed herein is a program for causing a computer to execute processing including obtaining intestinal direction related information relating to the intestinal direction of the duodenum based on geometric characteristic information capable of identifying the geometric characteristics of the duodenum into which the endoscope is inserted, and outputting the intestinal direction related information.
  • FIG. 1 is a conceptual diagram showing an example of an embodiment in which the duodenoscope system is used.
  • 1 is a conceptual diagram showing an example of the overall configuration of a duodenoscope system.
  • 2 is a block diagram showing an example of a hardware configuration of an electrical system of the duodenoscope system.
  • FIG. FIG. 1 is a conceptual diagram showing an example of an embodiment in which a duodenoscope is used.
  • 2 is a block diagram showing an example of a hardware configuration of an electrical system of the image processing apparatus;
  • 1 is a conceptual diagram showing an example of the correlation between an endoscope, a duodenoscope body, an image acquisition unit, an image recognition unit, and a derivation unit.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, an image acquisition unit, an image recognition unit, a derivation unit, and a display control unit. 13 is a flowchart showing an example of the flow of a medical support process.
  • 1 is a conceptual diagram showing an example of the correlation between an endoscope, a duodenoscope body, an image acquisition unit, an image recognition unit, and a derivation unit.
  • 1 is a conceptual diagram showing an example of the correlation between an endoscope, a duodenoscope body, an image acquisition unit, an image recognition unit, and a derivation unit.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, an image recognition unit, a derivation unit, and a display control unit.
  • FIG. 4 is a conceptual diagram showing an example of the correlation between an endoscope, an image acquisition unit, an image recognition unit, and a derivation unit.
  • FIG. 1 is a conceptual diagram showing an example of the correlation between a display device, an image recognition unit, a derivation unit, and a display control unit.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, a derivation unit, and a display control unit.
  • 1 is a conceptual diagram showing an example of the correlation between an endoscope, a duodenoscope body, an image acquisition unit, an image recognition unit, and a derivation unit.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, an image recognition unit, a derivation unit, and a display control unit.
  • FIG. 1 is a conceptual diagram showing an example of the correlation between a display device, an image recognition unit, a derivation unit, and a display control unit.
  • 13 is a conceptual diagram showing an example of a manner in which an endoscope is opposed directly to a papilla.
  • 1 is a conceptual diagram showing an example of the correlation between an endoscope, a duodenoscope body, an image acquisition unit, an image recognition unit, and a derivation unit.
  • 1 is a conceptual diagram showing an example of the correlation between an endoscope, a duodenoscope body, an image acquisition unit, an image recognition unit, and a derivation unit.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, an image recognition unit, a derivation unit, and a display control unit.
  • FIG. 1 is a conceptual diagram showing an example of the correlation between an endoscope, a duodenoscope body, an image acquisition unit, an image recognition unit, and a derivation unit.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, an image recognition unit, a derivation unit, and a display control unit.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, an image recognition unit, a derivation unit, and a display control unit.
  • 4 is a conceptual diagram showing an example of the correlation between an endoscope, an image acquisition unit, an image recognition unit, and a derivation unit.
  • FIG. 1 is a conceptual diagram showing an example of the correlation between a display device, a derivation unit, and a display control unit.
  • FIG. 13 is a flowchart showing an example of the flow of a medical support process.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, a derivation unit, and a display control unit.
  • 4 is a conceptual diagram showing an example of the correlation between an endoscope, an image acquisition unit, an image recognition unit, and a derivation unit.
  • FIG. 1 is a conceptual diagram showing an example of the correlation between a display device, a derivation unit, and a display control unit.
  • 4 is a conceptual diagram showing an example of the correlation between an endoscope, an image acquisition unit, an image recognition unit, and a derivation unit.
  • FIG. 4 is a conceptual diagram showing an example of the correlation between an endoscope, an image acquisition unit, an image recognition unit, and a derivation unit.
  • FIG. 4 is a conceptual diagram showing an example of the correlation between an endoscope, an image acquisition unit, an image recognition unit, and a derivation unit.
  • FIG. 4 is a conceptual diagram showing an example of the correlation between an endoscope, an image acquisition unit, an image recognition unit, and a derivation unit.
  • FIG. 1 is a conceptual diagram showing an example of the correlation between a display device, a derivation unit, and a display control unit.
  • 4 is a conceptual diagram showing an example of the correlation between an endoscope, an image acquisition unit, an image recognition unit, and a derivation unit.
  • FIG. 4 is a conceptual diagram showing an example of the correlation between an endoscope, an image acquisition unit, an image recognition unit, and a derivation unit.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, a derivation unit, and a display control unit.
  • 1 is a conceptual diagram showing an example of the correlation between a display device, a derivation unit, and a display control unit.
  • CPU is an abbreviation for "Central Processing Unit”.
  • GPU is an abbreviation for "Graphics Processing Unit”.
  • RAM is an abbreviation for "Random Access Memory”.
  • NVM is an abbreviation for "Non-volatile memory”.
  • EEPROM is an abbreviation for "Electrically Erasable Programmable Read-Only Memory”.
  • ASIC is an abbreviation for "Application Specific Integrated Circuit”.
  • PLD is an abbreviation for "Programmable Logic Device”.
  • FPGA is an abbreviation for "Field-Programmable Gate Array”.
  • SoC is an abbreviation for "System-on-a-chip”.
  • SSD is an abbreviation for "Solid State Drive”.
  • USB is an abbreviation for "Universal Serial Bus”.
  • HDD is an abbreviation for "Hard Disk Drive”.
  • EL is an abbreviation for "Electro-Luminescence”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor”.
  • CCD is an abbreviation for "Charge Coupled Device”.
  • AI is an abbreviation for "Artificial Intelligence”.
  • BLI is an abbreviation for "Blue Light Imaging”.
  • LCI is an abbreviation for "Linked Color Imaging”.
  • I/F is an abbreviation for "Interface”.
  • FIFO is an abbreviation for "First In First Out”.
  • ERCP is an abbreviation for "Endoscopic Retrograde Cholangio-Pancreatography”.
  • TOF is an abbreviation for "Time of Flight”.
  • a duodenoscope system 10 includes a duodenoscope 12 and a display device 13.
  • the duodenoscope 12 is used by a doctor 14 in an endoscopic examination.
  • the duodenoscope 12 is communicatively connected to a communication device (not shown), and information obtained by the duodenoscope 12 is transmitted to the communication device.
  • the communication device receives the information transmitted from the duodenoscope 12 and executes a process using the received information (e.g., a process of recording the information in an electronic medical record, etc.).
  • the duodenoscope 12 is equipped with an endoscope scope 18.
  • the duodenoscope 12 is a device for performing medical treatment on an observation target 21 (e.g., the duodenum) contained within the body of a subject 20 (e.g., a patient) using the endoscope scope 18.
  • the observation target 21 is an object observed by a doctor 14.
  • the endoscope scope 18 is inserted into the body of the subject 20.
  • the duodenoscope 12 causes the endoscope scope 18 inserted into the body of the subject 20 to capture an image of the observation target 21 inside the body of the subject 20, and performs various medical procedures on the observation target 21 as necessary.
  • the duodenoscope 12 is an example of an "endoscope" according to the technology disclosed herein.
  • the duodenoscope 12 captures images of the inside of the subject's body 20, and outputs images showing the state of the inside of the body.
  • the duodenoscope 12 is an endoscope with an optical imaging function that captures images of reflected light obtained by irradiating light inside the body and reflecting it off the object of observation 21.
  • the duodenoscope 12 is equipped with a control device 22, a light source device 24, and an image processing device 25.
  • the control device 22 and the light source device 24 are installed on a wagon 34.
  • the wagon 34 has multiple stands arranged in the vertical direction, and the image processing device 25, the control device 22, and the light source device 24 are installed from the lower stand to the upper stand.
  • a display device 13 is installed on the top stand of the wagon 34.
  • the control device 22 is a device that controls the entire duodenoscope 12.
  • the image processing device 25 is a device that performs image processing on the images captured by the duodenoscope 12 under the control of the control device 22.
  • the display device 13 displays various information including images (e.g., images that have been subjected to image processing by the image processing device 25).
  • images e.g., images that have been subjected to image processing by the image processing device 25.
  • Examples of the display device 13 include a liquid crystal display and an EL display.
  • a tablet terminal with a display may be used in place of the display device 13 or together with the display device 13.
  • the display device 13 displays a plurality of screens side by side. In the example shown in FIG. 1, screens 36, 37, and 38 are shown.
  • An endoscopic image 40 obtained by the duodenoscope 12 is displayed on the screen 36.
  • the endoscopic image 40 shows the observation target 21.
  • the endoscopic image 40 is an image obtained by imaging the observation target 21 by a camera 48 (see FIG. 2) provided on the endoscope scope 18 inside the body of the subject 20.
  • An example of the observation target 21 is the intestinal wall of the duodenum.
  • an intestinal wall image 41 which is an endoscopic image 40 in which the intestinal wall of the duodenum is imaged as the observation target 21.
  • duodenum is merely one example, and any area that can be imaged by the duodenoscope 12 may be used. Examples of areas that can be imaged by the duodenoscope 12 include the esophagus and stomach. Intestinal wall image 41 is an example of an "intestinal wall image" and "geometric characteristic information" according to the technology disclosed herein.
  • a moving image including multiple frames of intestinal wall images 41 is displayed on the screen 36.
  • multiple frames of intestinal wall images 41 are displayed on the screen 36 at a preset frame rate (e.g., several tens of frames per second).
  • the duodenoscope 12 includes an operating section 42 and an insertion section 44.
  • the insertion section 44 is partially curved by operating the operating section 42.
  • the insertion section 44 is inserted while curving in accordance with the shape of the observation target 21 (e.g., the shape of the duodenum) according to the operation of the operating section 42 by the doctor 14.
  • the tip 46 of the insertion section 44 is provided with a camera 48, a lighting device 50, a treatment opening 51, and an erecting mechanism 52.
  • the camera 48 and the lighting device 50 are provided on the side of the tip 46.
  • the duodenoscope 12 is a side-viewing scope. This makes it easier to observe the intestinal wall of the duodenum.
  • Camera 48 is a device that captures images of the inside of subject 20 to obtain intestinal wall images 41 as medical images.
  • One example of camera 48 is a CMOS camera. However, this is merely one example, and other types of cameras such as a CCD camera may also be used.
  • Camera 48 is an example of a "camera" according to the technology of this disclosure.
  • the illumination device 50 has an illumination window 50A.
  • the illumination device 50 irradiates light through the illumination window 50A.
  • Types of light irradiated from the illumination device 50 include, for example, visible light (e.g., white light) and non-visible light (e.g., near-infrared light).
  • the illumination device 50 also irradiates special light through the illumination window 50A. Examples of the special light include light for BLI and/or light for LCI.
  • the camera 48 captures images of the inside of the subject 20 by optical techniques while light is irradiated inside the subject 20 by the illumination device 50.
  • the treatment opening 51 is used as a treatment tool ejection port for ejecting the treatment tool 54 from the tip 46, as a suction port for sucking blood and internal waste, and as a delivery port for delivering fluids.
  • the treatment tool 54 protrudes from the treatment opening 51 in accordance with the operation of the doctor 14.
  • the treatment tool 54 is inserted into the insertion section 44 from the treatment tool insertion port 58.
  • the treatment tool 54 passes through the insertion section 44 via the treatment tool insertion port 58 and protrudes from the treatment opening 51 into the body of the subject 20.
  • a cannula protrudes from the treatment opening 51 as the treatment tool 54.
  • the cannula is merely one example of the treatment tool 54, and other examples of the treatment tool 54 include a papillotomy knife or a snare.
  • the standing mechanism 52 changes the protruding direction of the treatment tool 54 protruding from the treatment opening 51.
  • the standing mechanism 52 is equipped with a guide 52A, and the guide 52A rises in the protruding direction of the treatment tool 54, so that the protruding direction of the treatment tool 54 changes along the guide 52A. This makes it easy to protrude the treatment tool 54 toward the intestinal wall.
  • the standing mechanism 52 changes the protruding direction of the treatment tool 54 to a direction perpendicular to the traveling direction of the tip 46.
  • the standing mechanism 52 is operated by the doctor 14 via the operating unit 42. This allows the degree of change in the protruding direction of the treatment tool 54 to be adjusted.
  • the endoscope scope 18 is connected to the control device 22 and the light source device 24 via a universal cord 60.
  • the control device 22 is connected to the display device 13 and the reception device 62.
  • the reception device 62 receives instructions from a user (e.g., the doctor 14) and outputs the received instructions as an electrical signal.
  • a keyboard is given as an example of the reception device 62.
  • the reception device 62 may also be a mouse, a touch panel, a foot switch, and/or a microphone, etc.
  • the control device 22 controls the entire duodenoscope 12.
  • the control device 22 controls the light source device 24 and transmits and receives various signals to and from the camera 48.
  • the light source device 24 emits light under the control of the control device 22 and supplies the light to the illumination device 50.
  • the illumination device 50 has a built-in light guide, and the light supplied from the light source device 24 passes through the light guide and is irradiated from illumination windows 50A and 50B.
  • the control device 22 causes the camera 48 to capture an image, obtains an intestinal wall image 41 (see FIG. 1) from the camera 48, and outputs it to a predetermined output destination (for example, the image processing device 25).
  • the image processing device 25 is communicably connected to the control device 22, and performs image processing on the intestinal wall image 41 output from the control device 22. Details of the image processing in the image processing device 25 will be described later.
  • the image processing device 25 outputs the intestinal wall image 41 that has been subjected to image processing to a predetermined output destination (e.g., the display device 13).
  • a predetermined output destination e.g., the display device 13.
  • the control device 22 and the display device 13 may be connected, and the intestinal wall image 41 that has been subjected to image processing by the image processing device 25 may be displayed on the display device 13 via the control device 22.
  • the control device 22 includes a computer 64, a bus 66, and an external I/F 68.
  • the computer 64 includes a processor 70, a RAM 72, and an NVM 74.
  • the processor 70, the RAM 72, the NVM 74, and the external I/F 68 are connected to the bus 66.
  • the processor 70 has a CPU and a GPU, and controls the entire control device 22.
  • the GPU operates under the control of the CPU, and is responsible for executing various graphic processing operations and performing calculations using neural networks.
  • the processor 70 may be one or more CPUs that have integrated GPU functionality, or one or more CPUs that do not have integrated GPU functionality.
  • RAM 72 is a memory in which information is temporarily stored, and is used as a work memory by processor 70.
  • NVM 74 is a non-volatile storage device that stores various programs and various parameters, etc.
  • One example of NVM 74 is a flash memory (e.g., EEPROM and/or SSD). Note that flash memory is merely one example, and other non-volatile storage devices such as HDDs may also be used, or a combination of two or more types of non-volatile storage devices may also be used.
  • the external I/F 68 is responsible for transmitting various types of information between devices that exist outside the control device 22 (hereinafter also referred to as "external devices") and the processor 70.
  • external devices include a USB interface.
  • the camera 48 is connected to the external I/F 68 as one of the external devices, and the external I/F 68 is responsible for the exchange of various information between the camera 48 provided in the endoscope 18 and the processor 70.
  • the processor 70 controls the camera 48 via the external I/F 68.
  • the processor 70 also acquires, via the external I/F 68, intestinal wall images 41 (see FIG. 1) obtained by imaging the inside of the subject 20 with the camera 48 provided in the endoscope 18.
  • the light source device 24 is connected to the external I/F 68 as one of the external devices, and the external I/F 68 is responsible for the exchange of various information between the light source device 24 and the processor 70.
  • the light source device 24 supplies light to the lighting device 50 under the control of the processor 70.
  • the lighting device 50 irradiates the light supplied from the light source device 24.
  • the external I/F 68 is connected to the reception device 62 as one of the external devices, and the processor 70 acquires instructions accepted by the reception device 62 via the external I/F 68 and executes processing according to the acquired instructions.
  • the image processing device 25 is connected to the external I/F 68 as one of the external devices, and the processor 70 outputs the intestinal wall image 41 to the image processing device 25 via the external I/F 68.
  • a procedure called ERCP (endoscopic retrograde cholangiopancreatography) examination may be performed.
  • ERCP examination for example, first, a duodenoscope 12 is inserted into the duodenum J via the esophagus and stomach. In this case, the insertion state of the duodenoscope 12 may be confirmed by X-ray imaging. Then, the tip 46 of the duodenoscope 12 reaches the vicinity of the duodenal papilla N (hereinafter also simply referred to as "papilla N”) present in the intestinal wall of the duodenum J.
  • papilla N duodenal papilla N
  • a cannula 54A is inserted from the papilla N.
  • the papilla N is a part that protrudes from the intestinal wall of the duodenum J, and the openings of the ends of the bile duct T (e.g., common bile duct, intrahepatic bile duct, cystic duct) and pancreatic duct S are present in the papillary protuberance NA of the papilla N.
  • X-rays are taken in a state in which a contrast agent is injected into the bile duct T and pancreatic duct S through the opening of the papilla N via the cannula 54A.
  • an ERCP examination includes various procedures such as inserting the duodenoscope 12 into the duodenum J, checking the position, orientation, and type of the papilla N, and inserting a treatment tool (e.g., a cannula) into the papilla N. Therefore, the doctor 14 needs to operate the duodenoscope 12 and observe the condition of the target area according to each procedure.
  • a treatment tool e.g., a cannula
  • the papilla N will be viewed in a tilted state, which may result in a misidentification of the direction of the bile duct T and pancreatic duct S from the papilla N. Therefore, it is necessary to understand the degree to which the position of the endoscope scope 18 is tilted relative to the direction of the intestine within the duodenum J.
  • medical support processing is performed by the processor 82 of the image processing device 25 to support the performance of medical treatment for the duodenum, including ERCP examinations.
  • the image processing device 25 includes a computer 76, an external I/F 78, and a bus 80.
  • the computer 76 includes a processor 82, an NVM 84, and a RAM 81.
  • the processor 82, the NVM 84, the RAM 81, and the external I/F 78 are connected to the bus 80.
  • the computer 76 is an example of a "medical support device” and a “computer” according to the technology of the present disclosure.
  • the processor 82 is an example of a "processor" according to the technology of the present disclosure.
  • the hardware configuration of computer 76 (i.e., processor 82, NVM 84, and RAM 81) is basically the same as the hardware configuration of computer 64 shown in FIG. 3, so a description of the hardware configuration of computer 76 will be omitted here.
  • the role of external I/F 78 in image processing device 25 in terms of sending and receiving information with the outside world is basically the same as the role of external I/F 68 in control device 22 shown in FIG. 3, so a description of this role will be omitted here.
  • the NVM 84 stores a medical support processing program 84A.
  • the medical support processing program 84A is an example of a "program" according to the technology of the present disclosure.
  • the processor 82 reads out the medical support processing program 84A from the NVM 84, and executes the read out medical support processing program 84A on the RAM 81.
  • the medical support processing according to this embodiment is realized by the processor 82 operating as an image acquisition unit 82A, an image recognition unit 82B, a derivation unit 82C, and a display control unit 82D in accordance with the medical support processing program 84A executed on the RAM 81.
  • the NVM 84 stores a trained model 84B.
  • the image recognition unit 82B performs AI-based image recognition processing as image recognition processing for object detection.
  • the trained model 84B is optimized by performing machine learning in advance on the neural network.
  • the image acquisition unit 82A acquires the intestinal wall image 41 generated by the camera 48 capturing images at an imaging frame rate (e.g., several tens of frames per second) from the camera 48 on a frame-by-frame basis.
  • an imaging frame rate e.g., several tens of frames per second
  • the image acquisition unit 82A holds a time-series image group 89.
  • the time-series image group 89 is a plurality of time-series intestinal wall images 41 in which the observation subject 21 is captured.
  • the time-series image group 89 includes, for example, a certain number of frames (for example, a number of frames determined in advance within a range of several tens to several hundreds of frames) of intestinal wall images 41.
  • the image acquisition unit 82A updates the time-series image group 89 in a FIFO manner each time it acquires an intestinal wall image 41 from the camera 48.
  • time-series image group 89 is stored and updated by the image acquisition unit 82A, but this is merely one example.
  • the time-series image group 89 may be stored and updated in a memory connected to the processor 82, such as the RAM 81.
  • the image recognition unit 82B performs image recognition processing on the time-series image group 89 using the trained model 84B.
  • the intestinal tract direction CD refers to the lumen direction of the duodenum.
  • detection of the intestinal tract direction refers to processing for storing in memory in a state in which intestinal tract direction information 90 (e.g., position coordinates indicating the extension direction of the duodenum), which is information capable of identifying the intestinal tract direction CD, is associated with the intestinal wall image 41.
  • the intestinal tract direction information 90 is an example of "intestinal tract direction related information" according to the technology disclosed herein.
  • the trained model 84B is obtained by optimizing the neural network through machine learning performed on the neural network using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a region that may be the subject of an ERCP examination (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • One example of correct answer data is an annotation that can identify the intestinal direction CD.
  • an example of an annotation in the correct answer data is an annotation of the intestinal direction CD based on the shape of the intestinal folds shown in the intestinal wall image 41 (for example, an annotation in which the line segment connecting the centers of the arcs of the fold shape is the intestinal direction CD).
  • other annotations in the correct answer data include annotations based on depth information when the intestinal wall image 41 is a depth image (for example, an annotation in which the direction in which the depth direction indicated by the depth information increases is the intestinal direction CD).
  • each trained model 84B is created by performing machine learning specialized for the ERCP examination technique (e.g., the position of the duodenoscope 12 relative to the papilla N, etc.), and the trained model 84B corresponding to the ERCP examination technique currently being performed is selected and used by the image recognition unit 82B.
  • the ERCP examination technique e.g., the position of the duodenoscope 12 relative to the papilla N, etc.
  • the image recognition unit 82B inputs the intestinal wall image 41 acquired from the image acquisition unit 82A to the trained model 84B. As a result, the trained model 84B outputs intestinal tract direction information 90 corresponding to the input intestinal wall image 41. The image recognition unit 82B acquires the intestinal tract direction information 90 output from the trained model 84B.
  • the derivation unit 82C derives the amount of deviation (hereinafter simply referred to as "deviation amount") of the endoscope 18 with respect to the intestinal tract direction CD.
  • the deviation amount refers to the degree of deviation between the posture of the endoscope 18 and the intestinal tract direction CD.
  • the deviation amount refers to the amount of deviation between the direction along the imaging surface of the imaging element of the camera 48 provided on the endoscope 18 (e.g., the up and down direction in the angle of view) and the intestinal tract direction CD.
  • the deviation amount can also be considered as the angle between the longitudinal direction SD of the tip 46 (e.g., the central axis direction when the tip 46 is cylindrical) and the intestinal tract direction CD.
  • the derivation unit 82C acquires intestinal tract direction information 90 from the image recognition unit 82B.
  • the derivation unit 82C also acquires posture information 91 from the optical fiber sensor 18A provided in the endoscope 18.
  • the posture information 91 is information indicating the posture of the endoscope 18.
  • the optical fiber sensor 18A is a sensor arranged inside the endoscope 18 (e.g., the insertion section 44 and the tip 46) along the longitudinal direction.
  • the posture of the endoscope 18 e.g., the inclination of the tip 46 from a reference position (e.g., the straight state of the endoscope 18)
  • a known endoscope posture detection technology such as that described in Japanese Patent Publication No. 6797834 can be appropriately used.
  • the posture information 91 is an example of "posture information" related to the technology disclosed herein.
  • attitude detection technology using the optical fiber sensor 18A has been described here, this is merely one example.
  • the inclination of the tip 46 of the endoscope 18 may be detected using a so-called electromagnetic navigation method.
  • endoscope attitude detection technology such as that described in Patent Publication No. 6534193.
  • the derivation unit 82C uses the intestinal tract direction information 90 and the posture information 91 to derive displacement amount information 93, which is information indicating the displacement amount. In the example shown in FIG. 6, an angle A is shown as the displacement amount information 93.
  • the derivation unit 82C derives the displacement amount, for example, using a displacement amount calculation formula (not shown).
  • the displacement amount calculation formula is a calculation formula in which the position coordinate of the intestinal tract direction CD indicated by the intestinal tract direction information 90 and the position coordinate of the longitudinal direction SD of the tip portion 46 indicated by the posture information 91 are independent variables, and the angle between the intestinal tract direction CD and the longitudinal direction SD of the tip portion 46 is a dependent variable.
  • the displacement amount information 93 is an example of "displacement amount information" related to the technology disclosed herein.
  • the display control unit 82D acquires an intestinal wall image 41 from the image acquisition unit 82A.
  • the display control unit 82D also acquires intestinal tract direction information 90 from the image recognition unit 82B.
  • the display control unit 82D also acquires deviation amount information 93 from the derivation unit 82C.
  • the display control unit 82D generates an operation instruction image 93A for aligning the longitudinal direction SD of the tip portion 46 with the intestinal tract direction CD according to the deviation amount indicated by the deviation amount information 93.
  • the operation instruction image 93A is, for example, an arrow indicating the operation direction of the tip portion 46 in which the deviation amount becomes smaller.
  • the display control unit 82D generates a display image 94 including the intestinal wall image 41, the intestinal tract direction CD indicated by the intestinal tract direction information 90, and the operation instruction image 93A, and outputs it to the display device 13. Specifically, the display control unit 82D controls a GUI (Graphical User Interface) for displaying the display image 94, thereby causing the display device 13 to display a screen 36.
  • Screen 36 is an example of a "first screen” according to the technology of the present disclosure.
  • Operation instruction image 93A is an example of "posture adjustment support information" according to the technology of the present disclosure.
  • the technology of the present disclosure is not limited to this.
  • a message (not shown) indicating the operation to reduce the amount of misalignment may be displayed on the screen 36.
  • One example of the message is "Tilt the tip of the duodenoscope 10 degrees toward the back.”
  • the user may be notified by an audio output device such as a speaker.
  • the user can understand the intestinal tract direction CD by visually checking the screen 36 of the display device 13.
  • the user can understand the operation for reducing the misalignment between the tip 46 of the endoscope 18 and the intestinal tract direction CD by visually checking the operation instruction image 93A displayed on the screen 36.
  • FIG. 8 shows an example of the flow of medical support processing performed by the processor 82.
  • the flow of medical support processing shown in FIG. 8 is an example of a "medical support method" according to the technology of the present disclosure.
  • step ST10 the image acquisition unit 82A determines whether or not one frame of image has been captured by the camera 48 provided on the endoscope 18. If one frame of image has not been captured by the camera 48 in step ST10, the determination is negative and the determination in step ST10 is made again. If one frame of image has been captured by the camera 48 in step ST10, the determination is positive and the medical support process proceeds to step ST12.
  • step ST12 the image acquisition unit 82A acquires one frame of the intestinal wall image 41 from the camera 48 provided in the endoscope 18. After the processing of step ST12 is executed, the medical support processing proceeds to step ST14.
  • step ST14 the image recognition unit 82B detects the intestinal direction CD by performing AI-based image recognition processing (i.e., image recognition processing using the trained model 84B) on the intestinal wall image 41 acquired in step ST12. After the processing of step ST14 is executed, the medical support processing proceeds to step ST16.
  • AI-based image recognition processing i.e., image recognition processing using the trained model 84B
  • step ST16 the derivation unit 82C acquires posture information 91 from the optical fiber sensor 18A of the endoscope 18. After the processing of step ST16 is executed, the medical support processing proceeds to step ST18.
  • step ST18 the derivation unit 82C derives the amount of deviation based on the intestinal tract direction CD obtained by the image recognition unit 82B in step ST14 and the posture information 91 acquired in step ST16. Specifically, the derivation unit 82C derives the angle between the intestinal tract direction CD and the longitudinal direction SD of the tip portion 46 indicated by the posture information 91.
  • step ST20 the medical support processing proceeds to step ST20.
  • step ST20 the display control unit 82D generates a display image 94 in which the intestinal direction CD and an operation instruction image 93A corresponding to the amount of deviation derived in step ST18 are superimposed on the intestinal wall image 41.
  • step ST22 the display control unit 82D outputs the display image 94 generated in step ST20 to the display device 13. After the processing of step ST22 is executed, the medical support processing proceeds to step ST24.
  • step ST24 the display control unit 82D determines whether or not a condition for terminating the medical support process has been satisfied.
  • a condition for terminating the medical support process is that an instruction to terminate the medical support process has been given to the duodenoscope system 10 (for example, that an instruction to terminate the medical support process has been accepted by the acceptance device 62).
  • step ST24 If the conditions for terminating the medical support process are not met in step ST24, the determination is negative and the medical support process proceeds to step ST10. If the conditions for terminating the medical support process are met in step ST24, the determination is positive and the medical support process ends.
  • the image recognition unit 82B of the processor 82 performs image recognition processing on the intestinal wall image 41, and as a result of the image recognition processing, the intestinal direction CD in the intestinal wall image 41 is detected. Then, intestinal direction information 90 indicating the intestinal direction CD is output to the display control unit 82D, and a display image 94 generated by the display control unit 82D is output to the display device 13.
  • the display image 94 includes the intestinal direction CD superimposed on the intestinal wall image 41. This allows the user to recognize the intestinal direction CD, and this configuration makes it easier for the user to grasp the extent to which the posture of the endoscope scope 18 is deviated from the intestinal direction CD.
  • the deviation amount information 93 is derived in the derivation unit 82C.
  • the deviation amount information 93 indicates the amount of deviation between the posture of the endoscope 18 and the intestinal tract direction CD.
  • the deviation amount information 93 is output to the display control unit 82D, and a display image 94 generated in the display control unit 82D is output to the display device 13.
  • the display image 94 includes a display based on the deviation amount information 93. This allows the user to recognize the amount of deviation between the posture of the endoscope 18 and the intestinal tract direction CD, and this configuration makes it easier for the user to understand how much the posture of the endoscope 18 is deviated from the intestinal tract direction CD.
  • the image recognition unit 82B performs image recognition processing on the intestinal wall image 41, thereby obtaining intestinal direction information 90 indicating the intestinal direction CD. This allows for more accurate intestinal direction information 90 to be obtained compared to when the user visually specifies the intestinal direction CD for the intestinal wall image 41.
  • the display control unit 82D outputs intestinal direction information 90 to the display device 13, and the display device 13 displays the intestinal direction CD on the screen 36. This makes it easier for the user to visually grasp the degree to which the attitude of the endoscope scope 18 has deviated from the intestinal direction CD.
  • the output unit 82C acquires from the optical fiber sensor 18A posture information 91, which is information that can identify the posture of the endoscope 18.
  • the output unit 82C generates deviation amount information 93 based on the posture information 91 and the intestinal tract direction information 90.
  • the display control unit 82D generates an operation instruction image 93A indicating an operation direction that reduces the deviation amount based on the deviation amount information 93.
  • the display control unit 82D outputs the operation instruction image 93A to the display device 13, and the display device 13 displays the operation instruction image 93A superimposed on the intestinal wall image 41.
  • the user can bring the posture of the endoscope 18 closer to the intestinal tract direction CD by performing an operation to change the posture of the endoscope 18 in the direction indicated by the operation instruction image 93A.
  • the intestinal direction CD is detected by image recognition processing using an AI method
  • the technology of the present disclosure is not limited to this.
  • the intestinal direction CD may be detected by image recognition processing using a pattern matching method.
  • a region showing the folds of the intestine i.e., the fold region contained in the intestinal wall image 41 may be detected, and the intestinal direction may be estimated from the arc shape of the fold region (for example, the line connecting the centers of the arcs may be estimated as the intestinal direction).
  • the image recognition unit 82B derives the intestinal direction using the intestinal wall image 41, which is a depth image.
  • the intestinal wall image 41 is a depth image having depth information 41A, which is information indicating the depth of the duodenum, which is the subject, as a pixel value (i.e., the distance to the intestinal wall).
  • the depth of the duodenum is obtained, for example, by a distance measurement sensor mounted on the tip portion 46, by a so-called TOF method.
  • the image recognition unit 82B acquires the intestinal wall image 41 from the image acquisition unit 82A.
  • the depth information 41A is an example of "depth information" related to the technology of the present disclosure.
  • the image recognition unit 82B derives intestinal tract direction information 90 based on the depth information 41A indicated by the intestinal wall image 41.
  • the image recognition unit 82B derives the intestinal tract direction information 90 using, for example, an intestinal tract direction calculation formula 82B1.
  • the intestinal tract direction calculation formula 82B1 is, for example, a calculation formula in which the depth indicated by the depth information 41A is an independent variable and the position coordinate group of the axis line indicating the intestinal tract direction CD is a dependent variable. In this way, the intestinal tract direction information 90 is obtained based on the depth information 41A of the intestinal wall image 41.
  • the intestinal wall image 41 has depth information 41A indicating the depth of the duodenum, and the intestinal direction information 90 is acquired based on the depth information 41A.
  • the intestinal direction CD is a direction along the depth direction of the duodenal lumen.
  • the depth information 41A reflects the depth of the duodenal lumen. Therefore, the intestinal direction CD is derived based on the depth information 41A, and intestinal direction information 90 indicating the intestinal direction CD with higher accuracy is obtained compared to the case where the depth information 41A is not taken into consideration.
  • the image acquisition unit 82A updates the time-series image group 89 in a FIFO manner each time an intestinal wall image 41 is acquired from the camera 48.
  • the image recognition unit 82B acquires the time series image group 89 from the image acquisition unit 82A and inputs the acquired time series image group 89 to the trained model 84C. As a result, the trained model 84C outputs vertical direction information 97 corresponding to the input time series image group 89.
  • the image recognition unit 82B acquires the vertical direction information 97 output from the trained model 84C.
  • the vertical direction information 97 is information (for example, a group of position coordinates indicating an axis perpendicular to the intestinal tract direction CD) that can identify a direction VD perpendicular to the intestinal tract direction CD (hereinafter also simply referred to as the "vertical direction VD").
  • the confidence of the identification result is calculated according to the result of identifying the direction perpendicular to the intestinal direction CD.
  • the confidence is a statistical measure that indicates the certainty of the identification result.
  • the confidence is, for example, a score input to an activation function (e.g., a softmax function) of the output layer of the trained model 84C.
  • the vertical direction information 97 output from the trained model 84C has a score equal to or greater than a threshold (e.g., 0.9 or greater).
  • “vertical” refers not only to perfect verticality, but also to verticality including an error that is generally acceptable in the technical field to which the technology of the present disclosure belongs and that does not contradict the spirit of the technology of the present disclosure.
  • the perpendicular direction to the intestinal tract direction CD is given here as the default angle to the intestinal tract direction CD, the technology of the present disclosure is not limited to this.
  • the default angle may be 45 degrees, 60 degrees, or 80 degrees.
  • the trained model 84C is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a region that may be the subject of an ERCP examination (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • One example of correct answer data is an annotation that can identify the vertical direction VD.
  • the derivation unit 82C derives the degree of agreement between the predetermined direction and the direction of the optical axis of the camera 48.
  • the agreement between the predetermined direction and the direction of the optical axis means that the direction in which the camera 48 is facing is the same as the direction predetermined by the user. In other words, this means that the tip 46 on which the camera 48 is mounted is not in a direction not intended by the user (for example, a direction tilted relative to the intestinal tract direction CD).
  • the derivation unit 82C acquires vertical direction information 97.
  • the derivation unit 82C also acquires optical axis information 48A from the camera 48 of the endoscope 18.
  • the optical axis information 48A is information that can identify the optical axis of the optical system of the camera 48.
  • the derivation unit 82C generates coincidence information 99 by comparing the direction indicated by the vertical direction information 97 with the direction of the optical axis indicated by the optical axis information 48A.
  • the coincidence information 99 is information that indicates the degree of coincidence between the direction of the optical axis and the predetermined direction (for example, the angle between the direction of the optical axis and the predetermined direction).
  • coincidentence refers to a complete coincidence as well as a coincidence that includes an error that is generally acceptable in the technical field to which the technology of the present disclosure belongs and that does not go against the spirit of the technology of the present disclosure.
  • the vertical direction information 97 is an example of "first direction information” and "intestinal direction related information” related to the technology of the present disclosure.
  • the derivation unit 82C determines whether the direction of the optical axis and the predetermined direction match. If the direction of the optical axis and the predetermined direction match, the derivation unit 82C generates notification information 100.
  • the notification information 100 is information that notifies the user that the direction of the optical axis and the predetermined direction match (for example, text indicating that the direction of the optical axis and the predetermined direction match).
  • the display control unit 82D acquires vertical direction information 97 from the image recognition unit 82B.
  • the display control unit 82D also acquires coincidence information 99 from the derivation unit 82C.
  • the display control unit 82D generates an operation instruction image 93B (e.g., an arrow indicating an operation direction) for aligning the direction of the optical axis with the predetermined direction according to the degree of coincidence between the direction of the optical axis indicated by the coincidence information 99 and the predetermined direction.
  • the display control unit 82D then generates a display image 94 including the vertical direction VD indicated by the vertical direction information 97, the operation instruction image 93B, and the intestinal wall image 41, and outputs it to the display device 13.
  • the display device 13 displays the intestinal wall image 41 on which the vertical direction VD and the operation instruction image 93B are superimposed on the screen 36.
  • the vertical direction VD is an example of the "first direction,” “second direction,” and “third direction” according to the technology of the present disclosure.
  • the operation instruction image 93B is an example of "condition information" according to the technology of the present disclosure.
  • the derivation unit 82C outputs notification information 100 to the display control unit 82D instead of the coincidence information 99.
  • the display control unit 82D generates a display image 94, instead of an operation instruction image 93B, that includes content notifying the user that the direction of the optical axis indicated by the notification information 100 matches the predetermined direction.
  • a message stating "The optical axis and the vertical direction match" is displayed on the screen 37 of the display device 13.
  • the notification information 100 is an example of "notification information" related to the technology disclosed herein.
  • the notification information 100 may be output to an audio output device such as a speaker.
  • the derivation unit 82C derives vertical direction information 97, which is information capable of identifying a direction perpendicular to the intestinal direction CD.
  • the vertical direction information 97 is output to the display control unit 82D, and the display image 94 generated by the display control unit 82D is output to the display device 13.
  • the display image 94 includes the vertical direction VD indicated by the vertical direction information 97. This allows the user to recognize the direction that intersects with the intestinal direction CD at a predetermined angle.
  • the image recognition unit 82B performs image recognition processing on the intestinal wall image 41 to obtain vertical direction information 97 indicating the vertical direction VD. This allows for more accurate vertical direction information 97 to be obtained compared to when the user visually specifies the vertical direction VD for the intestinal wall image 41.
  • the vertical direction information 97 is obtained with a degree of confidence equal to or higher than a threshold value.
  • the optical axis information 48A is acquired from the camera 48 by the lead-out unit 82C.
  • the lead-out unit 82C generates coincidence information 99 based on the optical axis information 48A and the vertical direction information 97.
  • the display control unit 82D generates a display image 94 based on the coincidence information 99 and outputs it to the display device 13.
  • the display image 94 includes an indication of the degree of coincidence between the optical axis direction indicated by the coincidence information 99 and the predetermined direction. This allows the user to understand the degree of deviation between the optical axis of the camera 48 and the vertical direction VD.
  • the display control unit 82D generates an operation instruction image 93B for aligning the direction of the optical axis with a predetermined direction based on the coincidence information 99.
  • the display control unit 82D outputs the operation instruction image 93B to the display device 13, and the operation instruction image 93B is displayed on the display device 13 in a superimposed manner on the intestinal wall image 41. This allows the user to understand the operation required to align the optical axis direction of the camera 48 with the vertical direction VD.
  • the derivation unit 82C determines whether the direction of the optical axis coincides with the predetermined direction, and if the direction of the optical axis coincides with the predetermined direction, the derivation unit 82C generates notification information 100.
  • the display control unit 82D generates a display image 94 based on the notification information 100 and outputs it to the display device 13.
  • the display image 94 includes an indication that the direction of the optical axis indicated by the notification information 100 coincides with the predetermined direction. This allows the user to perceive that the direction of the optical axis coincides with the predetermined direction.
  • the intestinal tract direction CD is obtained by image recognition processing of the intestinal wall image 41
  • the technology of the present disclosure is not limited to this.
  • the running direction TD of the bile duct is obtained based on the intestinal tract direction CD.
  • the image acquisition unit 82A updates the time-series image group 89 in a FIFO manner each time an intestinal wall image 41 is acquired from the camera 48.
  • the image recognition unit 82B performs papilla detection processing on the time-series image group 89 using the trained model 84D.
  • the image recognition unit 82B acquires the time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84D.
  • the trained model 84D outputs papilla region information 95 corresponding to the input time-series image group 89.
  • the image recognition unit 82B acquires the papilla region information 95 output from the trained model 84D.
  • the papilla region information 95 includes information (e.g., coordinates and range within the image) that can identify the papilla region N1 in the intestinal wall image 41 in which the papilla N appears.
  • the trained model 84D is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the training data is, for example, an image (e.g., an image equivalent to the intestinal wall image 41) obtained by imaging a region that may be the subject of an ERCP examination (e.g., the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of the correct answer data is an annotation that can identify the papilla region N1.
  • the derivation unit 82C derives running direction information 96, which is information indicating the running direction TD of the bile duct.
  • the running direction information 96 includes information that can identify the direction in which the bile duct extends (for example, position coordinates indicating the direction in which the bile duct extends).
  • the derivation unit 82C acquires papilla region information 95 from the image recognition unit 82B.
  • the derivation unit 82C also acquires intestinal tract direction information 90 obtained by image recognition processing using the trained model 84B (see FIG. 6) from the image recognition unit 82B.
  • the derivation unit 82C then derives running direction information 96 based on the intestinal tract direction information 90 and the papilla region information 95.
  • the derivation unit 82C derives the running direction TD, for example, from a predetermined orientation relationship between the intestinal tract direction CD and the running direction TD. Specifically, the derivation unit 82C derives the running direction TD as the direction from 11 o'clock to 12 o'clock when the intestinal tract direction CD is the 6 o'clock direction. Furthermore, the derivation unit 82C sets the nipple region N1 indicated by the nipple region information 95 as the starting point of the travel direction TD.
  • the display control unit 82D acquires running direction information 96 from the derivation unit 82C.
  • the display control unit 82D also acquires nipple region information 95 from the image recognition unit 82B.
  • the display control unit 82D generates a display image 94 in which the running direction TD indicated by the running direction information 96 and the nipple region N1 indicated by the nipple region information 95 are superimposed on the intestinal wall image 41 acquired from the image acquisition unit 82A (see FIG. 6), and outputs the display image 94 to the display device 13.
  • the display device 13 displays the intestinal wall image 41 with the running direction TD superimposed on it on the screen 36.
  • the image recognition unit 82B performs a papilla detection process using the trained model 84D.
  • Papilla region information 95 is obtained by the papilla detection process.
  • the image recognition unit 82B performs an image recognition process using the trained model 84A, thereby obtaining intestinal direction information 90.
  • the derivation unit 82C derives running direction information 96 based on the intestinal direction information 90 and the papilla region information 95.
  • the display control unit 82D then outputs a display image 94 to the display device 13.
  • the display image 94 includes the papilla region N1 indicated by the papilla region information 95 and the running direction TD of the bile duct indicated by the running direction information 96.
  • the papilla region N1 and the running direction TD of the bile duct are displayed on the screen 36. This makes it easier for the user observing the papilla N through the screen 36 to visually grasp the running direction TD of the bile duct.
  • the camera 48 may be positioned directly facing the papilla N.
  • the running direction of the bile duct or pancreatic duct it becomes easier to grasp the position of the endoscope 18.
  • the camera 48 when inserting a treatment tool into the papilla N, by knowing the running direction of the bile duct or pancreatic duct, it becomes easier to perform the intubation operation of the bile duct or pancreatic duct within the papilla N.
  • the intestinal direction CD is obtained by image recognition processing of the intestinal wall image 41, but the technology of the present disclosure is not limited to this.
  • the orientation of the papilla protuberance NA at the papilla N (hereinafter also simply referred to as "papilla orientation ND") is obtained based on the intestinal direction CD.
  • the derivation unit 82C generates papilla direction information 102 based on the intestinal direction information 90 and papilla region information 95.
  • the papilla direction information 102 is information that can identify the papilla direction ND (e.g., the direction in which the papilla protuberance NA faces the treatment tool).
  • the papilla direction ND is obtained, for example, as a tangent to the papilla protuberance NA in the running direction TD of the bile duct.
  • the derivation unit 82C derives the running direction TD of the bile duct from the intestinal direction CD indicated by the intestinal direction information 90, and further derives the direction of the tangent to the papilla protuberance NA from the running direction TD as the papilla direction ND.
  • the display control unit 82D acquires the nipple orientation information 102 from the derivation unit 82C.
  • the display control unit 82D generates a display image 94 in which the nipple orientation ND indicated by the nipple orientation information 102 and the nipple region N1 indicated by the nipple region information 95 are superimposed on the intestinal wall image 41 acquired from the image acquisition unit 82A (see FIG. 6), and outputs the display image 94 to the display device 13.
  • the intestinal wall image 41 with the nipple orientation ND superimposed is displayed on the screen 36.
  • nipple direction ND is displayed as an arrow
  • the nipple direction ND may also be displayed in a form in which the direction is indicated by text.
  • the image recognition unit 82B performs a nipple detection process (see FIG. 12) to obtain nipple region information 95.
  • the image recognition unit 82B also performs an image recognition process using the trained model 84B (see FIG. 6) to obtain intestinal direction information 90.
  • the derivation unit 82C derives nipple orientation information 102 based on the intestinal direction information 90.
  • the display control unit 82D then outputs a display image 94 to the display device 13.
  • the display image 94 includes the nipple region N1 indicated by the nipple region information 95 and the nipple orientation ND indicated by the nipple orientation information 102.
  • the nipple region N1 and nipple orientation ND are displayed on the screen 36 of the display device 13. This makes it easier for a user observing the nipple N through the screen 36 to visually grasp the nipple orientation ND.
  • the camera 48 may be positioned directly facing the nipple N.
  • the nipple orientation ND it becomes easier to grasp the position of the endoscope 18.
  • the treatment tool can be positioned directly facing the nipple N, making it easier to insert the treatment tool into the nipple N.
  • the intestinal tract direction CD is obtained by image recognition processing of the intestinal wall image 41
  • the technology of the present disclosure is not limited to this.
  • the intestinal wall image 41 is an image obtained by capturing an image of the intestinal wall including the papilla N
  • the protruding direction RD of the papilla N is obtained by image recognition processing of the intestinal wall image 41.
  • the camera 48 may be positioned directly facing the protruding direction RD of the papilla N.
  • This makes it easier to estimate the running direction of the bile duct T and pancreatic duct S extending from the papilla N, and makes it easier to insert a treatment tool (e.g., a cannula) into the papilla N. Therefore, in this second embodiment, the protruding direction RD of the papilla N is obtained by performing image recognition processing on the intestinal wall image 41.
  • the image acquisition unit 82A updates the time-series image group 89 in a FIFO manner each time an intestinal wall image 41 is acquired from the camera 48.
  • the image recognition unit 82B acquires the time series image group 89 from the image acquisition unit 82A, and inputs the acquired time series image group 89 to the trained model 84E. As a result, the trained model 84E outputs the protuberance direction information 104 corresponding to the input time series image group 89.
  • the image recognition unit 82B acquires the protuberance direction information 104 output from the trained model 84E.
  • the protuberance direction information 104 is information that can identify the direction in which the nipple N protrudes (for example, a group of position coordinates of an axis indicating the protuberance direction RD).
  • the trained model 84E is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the training data is, for example, an image (e.g., an image equivalent to the intestinal wall image 41) obtained by imaging a region that may be the subject of an ERCP examination (e.g., the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of the correct answer data is an annotation that can identify the protrusion direction RD of the papilla N.
  • the protruding direction RD of the nipple N is specified as, for example, the direction from the top of the nipple protuberance NA of the nipple N to the top of the headband fold H1. This is because, according to medical findings, the protruding direction RD of the nipple N often coincides with the direction from the top of the nipple protuberance NA to the top of the headband fold H1.
  • the headband fold H1 is the fold closest to the nipple protuberance NA.
  • an example of an annotation in the correct answer data is an annotation in which the direction passing through the top of the headband fold H1 is the protruding direction RD.
  • the derivation unit 82C derives the degree of coincidence between the protruding direction RD and the direction of the optical axis of the camera 48.
  • the coincidence between the protruding direction RD and the direction of the optical axis means that the camera 48 is facing directly toward the nipple N. In other words, this means that the tip 46 on which the camera 48 is mounted is not in a direction not intended by the user (for example, a direction tilted relative to the protruding direction RD of the nipple N).
  • the derivation unit 82C then acquires the bulge direction information 104 from the image recognition unit 82B.
  • the derivation unit 82C also acquires the optical axis information 48A from the camera 48 of the endoscope 18.
  • the derivation unit 82C then generates the coincidence information 103 by comparing the direction indicated by the vertical direction information 97 with the direction of the optical axis indicated by the optical axis information 48A.
  • the coincidence information 103 is information that indicates the degree of coincidence between the direction of the optical axis and the bulge direction RD (for example, the angle between the direction of the optical axis and the bulge direction RD).
  • the display control unit 82D acquires the protuberance direction information 104 from the image recognition unit 82B.
  • the display control unit 82D also acquires the coincidence information 103 from the derivation unit 82C.
  • the display control unit 82D generates an operation instruction image 93C (e.g., an arrow indicating an operation direction) for matching the direction of the optical axis with the protuberance direction RD according to the degree of coincidence between the direction of the optical axis indicated by the coincidence information 103 and the protuberance direction RD.
  • the display control unit 82D then generates a display image 94 including the protuberance direction RD indicated by the protuberance direction information 104, the operation instruction image 93C, and the intestinal wall image 41, and outputs it to the display device 13.
  • the display device 13 displays the intestinal wall image 41 with the protuberance direction RD and the operation instruction image 93C superimposed on the screen 36.
  • the doctor 14 operates the endoscope 18 to bring the optical axis of the camera 48 closer to the protuberance direction RD.
  • This allows the doctor 14 to obtain an intestinal wall image 41 in which the papilla N and the camera 48 are directly facing each other, making it easier to estimate the running direction of the bile duct T and pancreatic duct S extending from the papilla N and to insert a treatment tool (e.g., a cannula) into the papilla N.
  • a treatment tool e.g., a cannula
  • the image recognition unit 82B of the processor 82 performs image recognition processing on the intestinal wall image 41, and as a result of the image recognition processing, the protuberance direction RD of the papilla N in the intestinal wall image 41 is detected. Then, protuberance direction information 104 indicating the protuberance direction RD is output to the display control unit 82D, and the display image 94 generated by the display control unit 82D is output to the display device 13.
  • the display image 94 includes the protuberance direction RD superimposed on the intestinal wall image 41. In this way, the protuberance direction RD is displayed on the screen 36 of the display device 13. This allows the user observing the intestinal wall image 41 to visually grasp the protuberance direction RD of the papilla N.
  • the image recognition unit 82B obtains bulging direction information 104 based on the intestinal wall image 41.
  • the bulging direction information 104 is output to the display control unit 82D, and a display image 94 generated in the display control unit 82D is output to the display device 13.
  • the display image 94 includes a display based on the bulging direction information 104. This allows the user observing the intestinal wall image 41 to visually grasp the bulging direction RD of the papilla N.
  • a display image 94 is generated in the display control unit 82D.
  • the display image 94 includes an image of an arrow indicating the protrusion direction RD. This allows the user observing the intestinal wall image 41 to visualize the protrusion direction RD of the papilla N and visually grasp it.
  • the optical axis information 48A is acquired from the camera 48 in the lead-out unit 82C.
  • the lead-out unit 82C generates the coincidence information 103 based on the optical axis information 48A and the protuberance direction information 104.
  • the display control unit 82D generates a display image 94 based on the coincidence information 103 and outputs it to the display device 13.
  • the display image 94 includes an indication of the degree of coincidence between the optical axis direction indicated by the coincidence information 103 and the protuberance direction RD. This allows the user observing the intestinal wall image 41 to visually grasp the degree of coincidence between the protuberance direction RD of the papilla N and the optical axis direction.
  • the protuberance direction RD is identified as the direction from the apex of the papilla N's papilla protuberance NA to the apex of the fold H1.
  • a display image 94 generated in the display control unit 82D is output to the display device 13.
  • the display image 94 includes the protuberance direction RD. This allows the user observing the intestinal wall image 41 to visually grasp the direction from the opening of the papilla protuberance NA to the apex of the fold H1. As a result, it becomes easier to identify the running direction TD of the bile duct leading to the opening of the papilla N.
  • the protuberance direction RD is identified as the direction from the apex of the papilla N's papilla protuberance NA to the apex of the fold H1.
  • a display image 94 generated in the display control unit 82D is output to the display device 13.
  • the display image 94 includes an image of an arrow indicating the protuberance direction RD. This allows the user observing the intestinal wall image 41 to visually grasp the direction from the opening of the papilla protuberance NA to the apex of the fold H1. As a result, it becomes easier to identify the running direction TD of the bile duct leading to the opening of the papilla N.
  • the image recognition unit 82B performs image recognition processing on the intestinal wall image 41 to obtain bulging direction information 104 indicating the bulging direction RD. This allows for more accurate bulging direction information 104 to be obtained compared to when the user visually specifies the bulging direction RD for the intestinal wall image 41.
  • the protuberance direction RD is specified as the direction from the apex of the nipple protuberance NA to the apex of the headband fold H1, but the technology of the present disclosure is not limited to this.
  • the protuberance direction RD is specified based on the configuration of the multiple folds H1 to H3.
  • the image recognition unit 82B acquires a time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84E.
  • the trained model 84E outputs uplift direction information 104 corresponding to the input time-series image group 89.
  • the image recognition unit 82B acquires the uplift direction information 104 output from the trained model 84E.
  • the rising direction RD of the nipple N is identified as, for example, the direction passing through the top of the headband fold H1. According to medical findings, the rising direction RD of the nipple N may coincide with the direction passing through the top of the headband fold H1.
  • an annotation in the correct answer data is an annotation that defines the direction passing through the top of the headband fold H1 as the rising direction RD.
  • the rising direction RD is specified as a direction passing through the apex of the headband pleat H1, this is merely one example.
  • the rising direction RD may also be specified as a direction passing through at least one of the apexes of the multiple pleats H1 to H3.
  • the protuberance direction RD is identified based on the state of the multiple folds H1 to H3. Then, the display image 94 generated in the display control unit 82D is output to the display device 13.
  • the display image 94 includes the protuberance direction RD. This allows the user observing the intestinal wall image 41 to visually grasp the direction passing through the apex of the headband fold H1 of the papillary protuberance NA as the protuberance direction RD.
  • the protuberance direction RD is specified as the direction from the apex of the nipple protuberance NA to the apex of the headband fold H1, but the technology of the present disclosure is not limited to this.
  • the protuberance direction RD is specified based on the nipple protuberance NA and the multiple folds H1 to H3.
  • the image recognition unit 82B acquires a time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84E.
  • the trained model 84E outputs uplift direction information 104 corresponding to the input time-series image group 89.
  • the image recognition unit 82B acquires the uplift direction information 104 output from the trained model 84E.
  • the protruding direction RD of the nipple N is specified as, for example, the direction passing from the top of the nipple protuberance NA through the tops of the headband folds H1, H2, and H3.
  • the protruding direction RD of the nipple N may coincide with the direction passing from the top of the nipple protuberance NA through the tops of the headband folds H1, H2, and H3.
  • an example of an annotation in the correct answer data is an annotation in which the direction passing from the top of the nipple protuberance NA through the tops of the headband folds H1, H2, and H3 is the protruding direction RD.
  • the protuberance direction RD is identified based on the papillary protuberance NA and the multiple folds H1 to H3. Then, the display image 94 generated in the display control unit 82D is output to the display device 13.
  • the display image 94 includes the protuberance direction RD. This allows the user observing the intestinal wall image 41 to visually grasp the direction passing through the top of the papillary protuberance NA and the tops of the multiple folds H1 to H3 as the protuberance direction RD.
  • the derivation unit 82C derives running direction information 96 based on the bulging direction information 104.
  • the running direction TD of the bile duct has a predetermined orientation relationship with the bulging direction RD of the papilla N. Specifically, when the bulging direction RD is the 12 o'clock direction, the derivation unit 82C derives the running direction TD as the 11 o'clock direction.
  • the display control unit 82D acquires the running direction information 96 from the derivation unit 82C.
  • the display control unit 82D generates a display image 94 in which the running direction TD indicated by the running direction information 96 is superimposed on the intestinal wall image 41 acquired from the image acquisition unit 82A (see FIG. 6), and outputs the display image 94 to the display device 13.
  • the display device 13 displays the intestinal wall image 41 with the running direction TD superimposed on the screen 36.
  • the running direction information 96 is obtained based on the protuberance direction information 104. In this way, since the running direction information 96 is obtained from the protuberance direction information 104, it is easier to identify the running direction TD compared to when the running direction information 96 is obtained by image recognition processing.
  • a display image 94 is generated in the display control unit 82D.
  • the display image 94 includes an image showing the running direction TD. This allows the user observing the intestinal wall image 41 to visually grasp the running direction TD of the bile duct.
  • the protruding direction RD of the papilla N is obtained by image recognition processing of the intestinal wall image 41, but the technology of the present disclosure is not limited to this.
  • the direction MD of the surface in which the opening exists in the papilla N (hereinafter also simply referred to as the "surface direction MD") is obtained by image recognition processing of the intestinal wall image 41.
  • the image acquisition unit 82A updates the time-series image group 89 in a FIFO manner each time an intestinal wall image 41 is acquired from the camera 48.
  • the image recognition unit 82B acquires the time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84F. As a result, the trained model 84F outputs face direction information 106 corresponding to the input time-series image group 89.
  • the image recognition unit 82B acquires the face direction information 106 output from the trained model 84F.
  • the face direction information 106 is information that can identify the face direction MD (for example, a group of position coordinates of axes indicating the face direction MD).
  • the trained model 84F is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a region that may be the subject of an ERCP examination (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of the correct answer data is an annotation that can identify the surface direction MD.
  • the derivation unit 82C derives the relative angle between the plane P on which the opening K of the papilla N is provided and the attitude of the endoscope 18. When the relative angle between the plane P on which the opening K of the papilla N is provided and the attitude of the endoscope 18 approaches 0, this means that the camera 48 approaches a state in which it faces the papilla N directly.
  • the derivation unit 82C acquires face direction information 106 from the image recognition unit 82B.
  • the derivation unit 82C also acquires attitude information 91 from the optical fiber sensor 18A of the endoscope 18.
  • the derivation unit 82C then generates relative angle information 108 by comparing the plane P having the opening K from the surface direction indicated by the face direction information 106 with the attitude of the endoscope 18 indicated by the attitude information 91.
  • the relative angle information 108 is information indicating the angle A formed between the plane P and the attitude of the endoscope 18 (for example, the imaging plane of the camera 48).
  • the display control unit 82D acquires face direction information 106 from the image recognition unit 82B.
  • the display control unit 82D also acquires relative angle information 108 from the derivation unit 82C.
  • the display control unit 82D generates an operation instruction image 93D (e.g., an arrow indicating an operation direction) for orienting the camera 48 directly to the papilla N according to the angle indicated by the relative angle information 108.
  • the display control unit 82D then generates a display image 94 including the face direction MD indicated by the face direction information 106, the operation instruction image 93D, and the intestinal wall image 41, and outputs it to the display device 13.
  • the display device 13 displays the intestinal wall image 41 with the face direction MD and the operation instruction image 93D superimposed on the screen 36.
  • the image recognition unit 82B of the processor 82 performs image recognition processing on the intestinal wall image 41, and as a result of the image recognition processing, the surface direction MD of the papilla N in the intestinal wall image 41 is detected. Then, surface direction information 106 indicating the surface direction MD is output to the display control unit 82D, and the display image 94 generated by the display control unit 82D is output to the display device 13.
  • the display image 94 includes the surface direction MD superimposed on the intestinal wall image 41. In this way, the surface direction MD is displayed on the screen 36 of the display device 13. This allows the user observing the intestinal wall image 41 to visually grasp the surface direction MD of the papilla N.
  • the derivation unit 82C acquires from the optical fiber sensor 18A posture information 91, which is information that can identify the posture of the endoscope 18.
  • the derivation unit 82C generates relative angle information 108 based on the posture information 91 and the face direction information 106.
  • the display control unit 82D generates an operation instruction image 93D for orienting the camera 48 directly toward the papilla N based on the relative angle information 108.
  • the display control unit 82D outputs the operation instruction image 93D to the display device 13, and the operation instruction image 93D is superimposed on the intestinal wall image 41 on the display device 13. This makes it easy for the user to set the posture of the endoscope 18 relative to the face direction MD of the papilla N to the posture intended by the user when the endoscope 18 is inserted into the duodenum.
  • the display control unit 82D acquires the protuberance direction information 104 from the image recognition unit 82B.
  • the display control unit 82D generates a nipple surface image 93E based on the protuberance direction RD indicated by the protuberance direction information 104.
  • the nipple surface image 93E is an image capable of identifying a surface that intersects with the protuberance direction RD at a predetermined angle (e.g., 90 degrees).
  • the display control unit 82D adjusts the nipple surface image 93E to a size and shape according to the nipple region N1 based on the nipple region information 95 obtained in the image recognition unit 82B.
  • the display control unit 82D also generates an operation instruction image 93C.
  • the display control unit 82D generates a display image 94 including the nipple surface image 93E, the operation instruction image 93C, and the intestinal wall image 41, and outputs it to the display device 13.
  • the display device 13 displays the intestinal wall image 41 on the screen 36 with the nipple surface image 93E and the operation instruction image 93C superimposed thereon.
  • the display control unit 82D generates a nipple surface image 93E based on the protuberance direction information 104.
  • the display control unit 82D outputs the nipple surface image 93E to the display device 13, and the nipple surface image 93E is superimposed on the intestinal wall image 41 on the display device 13. This makes it easier for the user observing the intestinal wall image 41 to visually predict the position of the opening contained in the nipple N.
  • the intestinal tract direction CD is obtained by image recognition processing of the intestinal wall image 41
  • the protuberance direction RD is obtained by image recognition processing of the intestinal wall image 41.
  • the technology of the present disclosure is not limited to this.
  • the running direction TD of the bile duct T is obtained by image recognition processing of the intestinal wall image 41.
  • a treatment tool e.g., a cannula
  • the treatment tool may then be intubated into the bile duct T or pancreatic duct S inside the papilla N.
  • the running direction of the bile duct T or pancreatic duct S is obtained by image recognition processing of the intestinal wall image 41. Note that, for ease of explanation, the following will use the case of the bile duct T as an example.
  • the image acquisition unit 82A updates the time-series image group 89 in a FIFO manner each time an intestinal wall image 41 is acquired from the camera 48.
  • the image recognition unit 82B acquires the time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84G. As a result, the trained model 84G outputs driving direction information 96 corresponding to the input time-series image group 89. The image recognition unit 82B acquires the driving direction information 96 output from the trained model 84E.
  • the trained model 84G is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a site that may be the subject of an ERCP examination (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of the correct answer data is an annotation that can identify the traveling direction TD.
  • the running direction TD of the bile duct T is identified as, for example, the direction passing through the apexes of the multiple folds of the papilla N. This is because, according to medical findings, the running direction of the bile duct T may coincide with a line connecting the apexes of the folds.
  • an annotation in the correct answer data is an annotation that defines the running direction TD of the bile duct T as the direction passing through the apex of the folds of the papilla N.
  • the acquired time-series image group 89 is also input to the trained model 84H.
  • the trained model 84H outputs diverticulum area information 110 corresponding to the input time-series image group 89.
  • the image recognition unit 82B acquires the diverticulum area information 110 output from the trained model 84H.
  • the diverticulum area information 110 is information that can identify an area indicating a diverticulum present in the papilla N (coordinates indicating the size and position of the diverticulum).
  • a diverticulum is an area in which part of the papilla N protrudes in a pouch-like shape outside the duodenum.
  • the trained model 84H is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a region that may be the subject of an ERCP test (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of correct answer data is an annotation that can identify an area indicating a diverticulum.
  • the derivation unit 82C derives a mode for displaying the traveling direction TD.
  • the traveling direction TD is specified in a mode that avoids the diverticulum. This is because, according to medical findings, the traveling direction TD may be formed to avoid the diverticulum. Therefore, the derivation unit 82C changes the display mode of the traveling direction TD based on the diverticulum area information 110. Specifically, the derivation unit 82C changes the portion of the traveling direction TD indicated by the traveling direction information 96 that intersects with the diverticulum indicated by the diverticulum area information 110 to a mode that avoids the diverticulum. In this way, the derivation unit 82C generates display mode information 112 that indicates the display mode of the changed traveling direction TD.
  • the display control unit 82D acquires the display mode information 112 from the derivation unit 82C.
  • the display control unit 82D generates a display image 94 including the changed traveling direction TD and the intestinal wall image 41 indicated by the display mode information 112, and outputs it to the display device 13.
  • the display device 13 displays the intestinal wall image 41 with the changed traveling direction TD superimposed on the screen 36.
  • Figure 26 shows an example of the flow of medical support processing performed by the processor 82.
  • step ST110 the image acquisition unit 82A determines whether or not one frame of image has been captured by the camera 48 provided on the endoscope 18. If one frame of image has not been captured by the camera 48 in step ST10, the determination is negative and the determination in step ST110 is made again. If one frame of image has been captured by the camera 48 in step ST110, the determination is positive and the medical support process proceeds to step ST112.
  • step ST112 the image acquisition unit 82A acquires one frame of the intestinal wall image 41 from the camera 48 provided in the endoscope 18. After the processing of step ST112 is executed, the medical support processing proceeds to step ST114.
  • step ST114 the image recognition unit 82B detects the traveling direction TD by performing an AI-based image recognition process (i.e., image recognition process using the trained model 84G) on the intestinal wall image 41 acquired in step ST112. After the process of step ST114 is executed, the medical support process proceeds to step ST116.
  • an AI-based image recognition process i.e., image recognition process using the trained model 84G
  • step ST116 the image recognition unit 82B detects the diverticulum area by performing AI-based image recognition processing (i.e., image recognition processing using the trained model 84H) on the intestinal wall image 41 acquired in step ST112. After the processing of step ST116 is executed, the medical support processing proceeds to step ST118.
  • AI-based image recognition processing i.e., image recognition processing using the trained model 84H
  • step ST118 the derivation unit 82C changes the display mode of the driving direction TD based on the driving direction TD obtained by the image recognition unit 82B in step ST114 and the diverticulum area obtained by the image recognition unit 82B in step ST116. Specifically, the derivation unit 82C changes the display mode of the driving direction TD to a mode that avoids the diverticulum area.
  • step ST120 the medical support processing proceeds to step ST120.
  • step ST120 the display control unit 82D generates a display image 94 in which the traveling direction TD, the display mode of which was changed by the derivation unit 82C in step ST118, is superimposed on the intestinal wall image 41.
  • step ST120 the medical support processing proceeds to step ST122.
  • step ST122 the display control unit 82D outputs the display image 94 generated in step ST120 to the display device 13. After the processing of step ST122 is executed, the medical support processing proceeds to step ST124.
  • step ST124 the display control unit 82D determines whether or not a condition for terminating the medical support process has been satisfied.
  • a condition for terminating the medical support process is that an instruction to terminate the medical support process has been given to the duodenoscope system 10 (for example, that an instruction to terminate the medical support process has been accepted by the acceptance device 62).
  • step ST124 If the conditions for terminating the medical support process are not met in step ST124, the determination is negative and the medical support process proceeds to step ST110. If the conditions for terminating the medical support process are met in step ST124, the determination is positive and the medical support process ends.
  • the image recognition unit 82B of the processor 82 performs image recognition processing on the intestinal wall image 41, and as a result of the image recognition processing, the running direction TD of the bile duct in the intestinal wall image 41 is detected. Then, running direction information 96 indicating the running direction TD is output to the display control unit 82D, and a display image 94 generated by the display control unit 82D is output to the display device 13.
  • the display image 94 includes the running direction TD superimposed on the intestinal wall image 41. In this way, the running direction TD is displayed on the screen 36 of the display device 13. This allows the user observing the intestinal wall image 41 to visually grasp the running direction TD of the bile duct.
  • the image recognition unit 82B performs image recognition processing on the intestinal wall image 41 to obtain diverticulum area information 110.
  • display mode information 112 is generated based on the running direction information 96 and the diverticulum area information 110. Then, the display mode information 112 indicating the changed running direction TD is output to the display control unit 82D, and the display image 94 generated by the display control unit 82D is output to the display device 13.
  • the display image 94 includes the changed running direction TD superimposed on the intestinal wall image 41. In this way, the changed running direction TD is displayed on the screen 36 of the display device 13.
  • the display mode information 112 indicates the traveling direction TD indicated by the traveling direction information 96, which has been changed to avoid the diverticulum. Then, the changed traveling direction TD is displayed on the screen 36 of the display device 13. This allows the user observing the intestinal wall image 41 to visually grasp the traveling direction TD of the bile duct that has been changed to avoid the diverticulum.
  • the display mode of the running direction TD of the bile duct is changed to avoid the diverticulum, but the technology disclosed herein is not limited to this.
  • the area of the running direction TD of the bile duct that intersects with the diverticulum may be hidden, or the area that intersects with the diverticulum may be displayed as a dashed line or semi-transparent.
  • a diverticulum is detected from the intestinal wall image 41 by image recognition processing, and the display mode of the traveling direction TD is changed according to the diverticulum.
  • the technology disclosed herein is not limited to this.
  • a configuration in which a diverticulum is not detected may also be used.
  • the derivation unit 82C acquires the traveling direction information 96 and the diverticulum area information 110 from the image recognition unit 82B.
  • the derivation unit 82C identifies the positional relationship between the diverticulum and the traveling direction TD based on the diverticulum area information 110 and the traveling direction information 96.
  • the derivation unit 82C compares the traveling direction TD indicated by the traveling direction information 96 with the position and size of the diverticulum indicated by the diverticulum area information 110 to identify whether the diverticulum intersects with the traveling direction TD. Then, when the derivation unit 82C identifies that the traveling direction TD and the diverticulum intersect with each other, it generates notification information 114.
  • the derivation unit 82C outputs the notification information 114 to the display control unit 82D.
  • the display control unit 82D generates a display image 94 including content notifying the user that the diverticulum indicated by the notification information 114 intersects with the driving direction TD.
  • a message stating "The diverticulum intersects with the driving direction" is displayed on the screen 37 of the display device 13.
  • the lead-out unit 82C identifies the positional relationship between the diverticulum and the running direction TD based on the diverticulum area information 110 and the running direction information 96, and generates notification information 114 based on the identification result.
  • the display control unit 82D generates a display image 94 based on the notification information 114 and outputs it to the display device 13.
  • the display image 94 includes an indication that the diverticulum indicated by the notification information 114 intersects with the running direction. This allows the user to perceive that the diverticulum intersects with the running direction.
  • the positional relationship between the papilla N and the treatment tool affects the success of the procedure. For example, if the direction of travel of the treatment tool does not match the papilla direction ND, the treatment tool will not be able to properly approach the papilla N, making it difficult to successfully perform the procedure. Therefore, in the fourth embodiment, the positional relationship between the treatment tool and the papilla N is identified by image recognition processing of the intestinal wall image 41.
  • the image acquisition unit 82A updates the time-series image group 89 in a FIFO manner each time an intestinal wall image 41 is acquired from the camera 48.
  • the image recognition unit 82B acquires the time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84I. As a result, the trained model 84I outputs positional relationship information 116 corresponding to the input time-series image group 89.
  • the image recognition unit 82B acquires the positional relationship information 116 output from the trained model 84I.
  • the positional relationship information 116 is information that can identify the position of the nipple N and the position of the treatment tool (for example, the distance and angle between the position of the nipple N and the position of the tip of the treatment tool).
  • the trained model 84I is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a site that may be the subject of an ERCP examination (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of the correct answer data is an annotation that can identify the position of the papilla N and the position of the treatment tool.
  • the derivation unit 82C acquires positional relationship information 116 from the image recognition unit 82B. Based on the positional relationship information 116, the derivation unit 82C generates notification information 118, which is information that notifies the user of the positional relationship between the nipple N and the treatment tool.
  • the derivation unit 82C compares the position of the treatment tool indicated by the positional relationship information 116 with the position of the nipple N. Then, when the position of the treatment tool and the position of the nipple N match, the derivation unit 82C generates notification information 118 to the effect that the position of the treatment tool and the position of the nipple N match. Furthermore, when the position of the treatment tool and the position of the nipple N do not match, the derivation unit 82C generates notification information 118 to the effect that the position of the treatment tool and the position of the nipple N do not match.
  • the display control unit 82D acquires notification information 118 from the derivation unit 82C.
  • the derivation unit 82C outputs the notification information 118 to the display control unit 82D.
  • the display control unit 82D generates a display image 94 including information notifying the user of the positional relationship between the treatment tool and the nipple N indicated by the notification information 118.
  • a message stating "The position of the treatment tool and the position of the nipple match" is displayed on the screen 37 of the display device 13.
  • the image recognition unit 82B of the processor 82 performs image recognition processing on the intestinal wall image 41 to identify the positional relationship between the treatment tool and the papilla.
  • the output unit 82C determines the positional relationship between the treatment tool and the papilla N based on positional relationship information 116 indicating the positional relationship between the treatment tool and the papilla, and generates notification information 118 based on the determination result.
  • the display control unit 82D generates a display image 94 based on the notification information 118 and outputs it to the display device 13.
  • the display image 94 includes an indication of the positional relationship between the treatment tool and the papilla N indicated by the notification information 118. This allows the user observing the intestinal wall image 41 to perceive the relationship between the position of the treatment tool and the position of the papilla N.
  • the image recognition unit 82B acquires a time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84J.
  • the trained model 84J outputs positional relationship information 116A corresponding to the input time-series image group 89.
  • the positional relationship information 116A is information that can identify the nipple orientation ND and the traveling direction of the treatment tool (for example, the angle between the nipple orientation ND and the traveling direction of the treatment tool).
  • the trained model 84J is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a site that may be the subject of an ERCP examination (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of the correct answer data is an annotation that can identify the relationship between the papilla direction ND and the direction of travel of the treatment tool.
  • the derivation unit 82C acquires positional relationship information 116A from the image recognition unit 82B. Based on the positional relationship information 116A, the derivation unit 82C generates notification information 118, which is information that notifies the user of the positional relationship between the nipple N and the treatment tool. If the angle between the nipple direction ND and the direction of travel of the treatment tool is within a predetermined range, the derivation unit 82C generates notification information 118 to the effect that the two match. In addition, if the angle between the nipple direction ND and the direction of travel of the treatment tool exceeds the predetermined range, the derivation unit 82C generates notification information 118 to the effect that the two do not match.
  • the image recognition unit 82B identifies the relationship between the treatment tool's traveling direction and the nipple direction ND.
  • notification information 118 is generated based on positional relationship information 116A indicating the relationship between the treatment tool's traveling direction and the nipple direction ND. This allows the user observing the intestinal wall image 41 to perceive the relationship between the treatment tool's traveling direction and the nipple direction ND.
  • the relationship between the treatment tool's traveling direction and the nipple direction ND is identified in the image recognition unit 82B, but the technology of the present disclosure is not limited to this.
  • the image recognition unit 82B may identify the relationship between the position of the nipple N and the position of the treatment tool, as well as the relationship between the treatment tool's traveling direction and the nipple direction ND.
  • the positional relationship information 116A is information indicating the relationship between the treatment tool's traveling direction and the nipple direction ND, and the relationship between the nipple N position and the treatment tool position
  • the derivation unit 82C makes a determination regarding the relationship between the treatment tool's traveling direction and the nipple direction ND, and a determination regarding the relationship between the nipple N position and the treatment tool position, based on the positional relationship information 116A.
  • the derivation unit 82C generates notification information 118 in accordance with these determination results.
  • the image recognition unit 82B acquires a time series image group 89 from the image acquisition unit 82A, and inputs the acquired time series image group 89 to the trained model 84K.
  • the trained model 84K outputs positional relationship information 116B corresponding to the input time series image group 89.
  • the positional relationship information 116B is information that can identify the relationship between the running direction TD of the bile duct and the traveling direction of the treatment tool (for example, the angle between the direction of the tangent of the opening end in the running direction TD of the bile duct (hereinafter simply referred to as the "bile duct tangent direction”) and the traveling direction of the treatment tool).
  • the trained model 84K is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a site that may be the subject of an ERCP examination (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of the correct answer data is an annotation that can identify the relationship between the running direction TD of the bile duct and the traveling direction of the treatment tool.
  • the derivation unit 82C acquires positional relationship information 116B from the image recognition unit 82B. Based on the positional relationship information 116B, the derivation unit 82C generates notification information 118 that notifies the user of the relationship between the running direction TD of the bile duct and the traveling direction of the treatment tool. If the angle between the bile duct tangent direction and the traveling direction of the treatment tool is within a predetermined range, the derivation unit 82C generates notification information 118 that the two match. In addition, if the angle between the bile duct tangent direction and the traveling direction of the treatment tool exceeds the predetermined range, the derivation unit 82C generates notification information 118 that the two do not match.
  • the image recognition unit 82B identifies the relationship between the treatment tool's traveling direction and the bile duct's running direction TD.
  • notification information 118 is generated based on positional relationship information 116B indicating the relationship between the treatment tool's traveling direction and the bile duct's running direction TD. This allows the user observing the intestinal wall image 41 to perceive the relationship between the treatment tool's traveling direction and the bile duct's running direction TD.
  • the image recognition unit 82B acquires a time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84L.
  • the trained model 84L outputs positional relationship information 116C corresponding to the input time-series image group 89.
  • the positional relationship information 116C is information that can identify the relationship between the vertical surface orientation and the traveling direction of the treatment tool (for example, the angle between the vertical surface orientation and the traveling direction of the treatment tool).
  • the trained model 84L is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a site that may be the subject of an ERCP examination (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of the correct answer data is an annotation that can identify the relationship between the vertical surface orientation and the direction of travel of the treatment tool.
  • the derivation unit 82C acquires positional relationship information 116C from the image recognition unit 82B. Based on the positional relationship information 116C, the derivation unit 82C generates notification information 118 that notifies the user of the relationship between the vertical surface orientation and the treatment tool's traveling direction. If the angle between the vertical surface orientation and the treatment tool's traveling direction is within a predetermined range, the derivation unit 82C generates notification information 118 that the two match. Furthermore, if the angle between the vertical surface orientation and the treatment tool's traveling direction exceeds the predetermined range, the derivation unit 82C generates notification information 118 that the two do not match.
  • the image recognition unit 82B identifies the relationship between the vertical surface orientation and the direction of travel of the treatment tool.
  • notification information 118 is generated based on positional relationship information 116C indicating the relationship between the vertical surface orientation and the direction of travel of the treatment tool. This allows the user observing the intestinal wall image 41 to perceive the relationship between the vertical surface orientation and the direction of travel of the treatment tool.
  • the image acquisition unit 82A updates the time-series image group 89 in a FIFO manner each time an intestinal wall image 41 is acquired from the camera 48.
  • the image recognition unit 82B acquires the time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84M.
  • the trained model 84M outputs evaluation value information 120 corresponding to the input time-series image group 89.
  • the image recognition unit 82B acquires the evaluation value information 120 output from the trained model 84M.
  • the evaluation value information 120 is information that can identify an evaluation value related to the appropriate positioning of the nipple N and the treatment tool (e.g., the degree of success of the procedure determined according to the positioning of the nipple N and the treatment tool).
  • the evaluation value information 120 is, for example, a plurality of scores (scores for each success or failure of the procedure) input to an activation function (e.g., a softmax function, etc.) of the output layer of the trained model 84M.
  • the trained model 84M is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (e.g., an image equivalent to the intestinal wall image 41) obtained by imaging a site that may be the subject of an ERCP examination (e.g., the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • An example of the correct answer data is an annotation that can identify an evaluation value regarding the appropriate positioning of the papilla N and the treatment tool (e.g., an annotation indicating the success or failure of the procedure).
  • the image recognition unit 82B also inputs the time-series image group 89 to the trained model 84N. As a result, the trained model 84N outputs contact presence/absence information 122 corresponding to the input time-series image group 89. The image recognition unit 82B acquires the contact presence/absence information 122 output from the trained model 84M.
  • the contact presence/absence information 122 is information that can identify the presence or absence of contact between the nipple N and the treatment tool.
  • the trained model 84N is obtained by optimizing the neural network through machine learning using training data.
  • the training data is a plurality of data (i.e., a plurality of frames of data) in which example data and correct answer data are associated with each other.
  • the example data is, for example, an image (for example, an image equivalent to the intestinal wall image 41) obtained by imaging a site that may be the subject of an ERCP examination (for example, the inner wall of the duodenum).
  • the correct answer data is an annotation that corresponds to the example data.
  • One example of the correct answer data is an annotation that can identify whether or not there is contact between the papilla N and a treatment tool.
  • the derivation unit 82C acquires contact presence/absence information 122 from the image recognition unit 82B. Based on the contact presence/absence information 122, the derivation unit 82C determines whether or not contact between the treatment tool and the nipple N has been detected. If contact between the treatment tool and the nipple N has been detected, the derivation unit 82C generates notification information 124 based on the evaluation value information 120.
  • the notification information 124 is information for notifying the user of the success probability of the procedure (e.g., text indicating the success probability of the procedure).
  • the display control unit 82D acquires notification information 124 from the derivation unit 82C.
  • the derivation unit 82C outputs the notification information 124 to the display control unit 82D.
  • the display control unit 82D generates a display image 94 including information notifying the user of the success probability of the procedure indicated by the notification information 124.
  • the example shown in FIG. 34 shows an example in which the message "Probability of successful cannulation: 90%" is displayed on the screen 37 of the display device 13.
  • the image recognition unit 82B of the processor 82 performs image recognition processing on the intestinal wall image 41, and calculates an evaluation value related to the arrangement of the treatment tool and the papilla N.
  • the derivation unit 82C generates notification information 124 based on evaluation value information 120 indicating the evaluation value.
  • the display control unit 82D generates a display image 94 based on the notification information 124 and outputs it to the display device 13.
  • the display image 94 includes an indication of the success probability of the procedure indicated by the notification information 124. This makes it possible to notify the user observing the intestinal wall image 41 of the success probability of the procedure using the treatment tool. After understanding the success probability of the procedure, the user can consider continuing or changing the operation, thereby supporting the success of the procedure using the treatment tool.
  • the image recognition unit 82B performs image recognition processing on the intestinal wall image 41 to determine whether or not there is contact between the treatment tool and the papilla N. Then, in the derivation unit 82C, when there is contact between the treatment tool and the papilla N based on the contact presence/absence information 122, notification information 124 is generated based on the evaluation value information 120. This makes it possible to notify the user observing the intestinal wall image 41 of the success rate of the procedure using the treatment tool only when necessary. In other words, it is possible to support the procedure on the papilla N using the treatment tool at the appropriate time.
  • the positional relationship between the treatment tool and the papilla N was identified by performing image recognition processing on the intestinal wall image 41, but the technology of the present disclosure is not limited to this.
  • the treatment tool is an incision tool
  • the incision direction is obtained based on the result of image recognition processing on the intestinal wall image 41.
  • an incision instrument e.g., a papillotomy knife
  • the incision instrument is used to cut open the papilla N, making it easier to insert the treatment tool into the papilla N and to make it easier to remove foreign bodies in the bile duct T or pancreatic duct S.
  • the direction in which the incision instrument cuts open the papilla N i.e., the incision direction
  • an image recognition process is performed on the intestinal wall image 41 to identify the recommended incision direction (i.e., the recommended incision direction).
  • the image acquisition unit 82A updates the time-series image group 89 in a FIFO manner each time an intestinal wall image 41 is acquired from the camera 48.
  • the image recognition unit 82B acquires the time-series image group 89 from the image acquisition unit 82A, and inputs the acquired time-series image group 89 to the trained model 84E. As a result, the trained model 84E outputs the uplift direction information 104 corresponding to the input time-series image group 89.
  • the derivation unit 82C acquires the protuberance direction information 104 from the image recognition unit 82B. The derivation unit 82C then derives the recommended incision direction information 126 based on the protuberance direction information 104.
  • the recommended incision direction information 126 is information that can identify the recommended incision direction (for example, a group of position coordinates of the start point and end point of the recommended incision direction).
  • the derivation unit 82C derives the recommended incision direction, for example, from a predetermined orientation relationship between the protuberance direction RD and the recommended incision direction. Specifically, when the protuberance direction RD is set to the 12 o'clock direction, the derivation unit 82C derives the recommended incision direction as the 11 o'clock direction.
  • the display control unit 82D acquires recommended incision direction information 126 from the derivation unit 82C.
  • the display control unit 82D generates an incision direction image 93F, which is an image indicating the incision direction, based on the incision direction indicated by the recommended incision direction information 126.
  • the display control unit 82D then generates a display image 94 including the incision direction image 93F and the intestinal wall image 41, and outputs it to the display device 13.
  • the display device 13 displays the intestinal wall image 41 with the incision direction image 93F superimposed on the screen 36.
  • the output unit 82C generates recommended incision direction information 126.
  • the display control unit 82D generates a display image 94 based on the recommended incision direction information 126 and outputs it to the display device 13.
  • the display image 94 includes an incision direction image 93F that indicates the recommended incision direction indicated by the recommended incision direction information 126. This allows the user observing the intestinal wall image 41 to understand the recommended incision direction. As a result, it is possible to support successful incision of the papilla N.
  • the derivation unit 82C derives non-recommended incision direction information 127.
  • the non-recommended incision direction information 127 is information that can identify a non-recommended incision direction (e.g., an angle indicating a direction other than the recommended incision direction).
  • the derivation unit 82C derives the recommended incision direction, for example, from a predetermined orientation relationship between the protuberance direction RD and the recommended incision direction. Specifically, when the protuberance direction RD is set to the 12 o'clock direction, the derivation unit 82C derives the recommended incision direction as the 11 o'clock direction. Then, the derivation unit 82C identifies a range excluding a predetermined angle range including the recommended incision direction (e.g., a range of ⁇ 5 degrees around the recommended incision direction) as the non-recommended incision direction.
  • a predetermined angle range including the recommended incision direction e.g., a range of ⁇ 5 degrees around the recommended incision direction
  • the display control unit 82D acquires non-recommended incision direction information 127 from the derivation unit 82C.
  • the display control unit 82D generates a non-recommended incision direction image 93G, which is an image indicating the non-recommended incision direction, based on the non-recommended incision direction indicated by the non-recommended incision direction information 127.
  • the display control unit 82D then generates a display image 94 including the non-recommended incision direction image 93G and the intestinal wall image 41, and outputs it to the display device 13.
  • the display device 13 displays the intestinal wall image 41 with the non-recommended incision direction image 93G superimposed on the screen 36.
  • the output unit 82C generates non-recommended incision direction information 127.
  • the display control unit 82D generates a display image 94 based on the non-recommended incision direction information 127 and outputs it to the display device 13.
  • the display image 94 includes a non-recommended incision direction image 93G that indicates the non-recommended incision direction indicated by the non-recommended incision direction information 127. This allows the user observing the intestinal wall image 41 to understand the non-recommended incision direction. As a result, it is possible to support successful incision of the papilla N.
  • an example has been described in which an image of an arrow indicating the operation direction is displayed on the screen 36 as a mode for indicating the operation direction to the user, but the technology of the present disclosure is not limited to this.
  • the image for indicating the operation direction to the user may be an image of a triangle indicating the operation direction.
  • a message indicating the operation direction may be displayed.
  • the image indicating the operation direction may not be displayed on the screen 36, but may be displayed in a separate window or on a separate display device.
  • the bile duct direction TD is indicated, but the technology of the present disclosure is not limited to this.
  • the running direction of the pancreatic duct S may be indicated.
  • various information is output to the display device 13, but the technology of the present disclosure is not limited to this.
  • the information may be output to an audio output device such as a speaker (not shown), or may be output to a printing device such as a printer (not shown).
  • various information is output to the display device 13 and is displayed on the screen 36 of the display device 13, but the technology disclosed herein is not limited to this.
  • the various information may also be output to an electronic medical record server.
  • the electronic medical record server is a server for storing electronic medical record information that indicates the results of medical treatment for patients.
  • the electronic medical record information includes various information.
  • the electronic medical record server is connected to the duodenoscope system 10 via a network.
  • the electronic medical record server acquires the intestinal wall image 41 and various information from the duodenoscope system 10.
  • the electronic medical record server stores the intestinal wall image 41 and various information as part of the medical treatment results indicated by the electronic medical record information.
  • the electronic medical record server is also connected via a network to terminals other than the duodenoscope system 10 (for example, personal computers installed in a medical facility). Users such as doctors 14 can access the intestinal wall images 41 and various information stored in the electronic medical record server via their terminals. In this way, the intestinal wall images 41 and various information are stored in the electronic medical record server, allowing users to access the intestinal wall images 41 and various information.
  • AI-based image recognition processing is performed on the intestinal wall image 41, but the technology disclosed herein is not limited to this.
  • a pattern matching-based image recognition processing may be performed.
  • the medical support processing is performed by the processor 82 of the computer 76 included in the image processing device 25, but the technology of the present disclosure is not limited to this.
  • the medical support processing may be performed by the processor 70 of the computer 64 included in the control device 22.
  • the device performing the medical support processing may be provided outside the duodenoscope 12. Examples of devices provided outside the duodenoscope 12 include at least one server and/or at least one personal computer that are communicatively connected to the duodenoscope 12.
  • the medical support processing may be distributed and performed by multiple devices.
  • the medical support processing program 84A is stored in the NVM 84, but the technology of the present disclosure is not limited to this.
  • the medical support processing program 84A may be stored in a portable non-transitory storage medium such as an SSD or USB memory.
  • the medical support processing program 84A stored in the non-transitory storage medium is installed in the computer 76 of the duodenoscope 12.
  • the processor 82 executes the medical support processing in accordance with the medical support processing program 84A.
  • the medical support processing program 84A may also be stored in a storage device such as another computer or server connected to the duodenoscope 12 via a network, and the medical support processing program 84A may be downloaded and installed in the computer 76 in response to a request from the duodenoscope 12.
  • processors listed below can be used as hardware resources for executing medical support processing.
  • An example of a processor is a CPU, which is a general-purpose processor that functions as a hardware resource for executing medical support processing by executing software, i.e., a program.
  • Another example of a processor is a dedicated electrical circuit, which is a processor with a circuit configuration designed specifically for executing specific processing, such as an FPGA, PLD, or ASIC. All of these processors have built-in or connected memory, and all of these processors execute medical support processing by using the memory.
  • the hardware resource that executes the medical support processing may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same or different types (e.g., a combination of multiple FPGAs, or a combination of a CPU and an FPGA). Also, the hardware resource that executes the medical support processing may be a single processor.
  • a configuration using a single processor first, there is a configuration in which one processor is configured using a combination of one or more CPUs and software, and this processor functions as a hardware resource that executes medical support processing. Secondly, there is a configuration in which a processor is used that realizes the functions of the entire system, including multiple hardware resources that execute medical support processing, on a single IC chip, as typified by SoCs. In this way, medical support processing is realized using one or more of the various processors listed above as hardware resources.
  • the hardware structure of these various processors can be an electric circuit that combines circuit elements such as semiconductor elements.
  • the above medical support process is merely one example. It goes without saying that unnecessary steps can be deleted, new steps can be added, and the processing order can be changed without departing from the spirit of the invention.
  • a and/or B is synonymous with “at least one of A and B.”
  • a and/or B means that it may be just A, or just B, or a combination of A and B.
  • the same concept as “A and/or B” is also applied when three or more things are expressed by linking them with “and/or.”

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Endoscopes (AREA)

Abstract

プロセッサを備え、プロセッサは、内視鏡スコープが挿入される十二指腸の幾何特性を特定可能な幾何特性情報に基づいて十二指腸の腸管方向に関連する腸管方向関連情報を取得し、腸管方向関連情報を出力する医療支援装置。

Description

医療支援装置、内視鏡、医療支援方法、及びプログラム
 本開示の技術は、医療支援装置、内視鏡、医療支援方法、及びプログラムに関する。
 特開2020-62218号公報には、胆管の十二指腸ファータ乳頭の画像と、胆管にカテーテルを挿入した方法であるカニュレーション方法を示す情報とを関連付けた情報を複数取得する取得部と、胆管の十二指腸ファータ乳頭の画像に基づいて、カニュレーション方法を示す情報を教師データとして、機械学習する学習部と、学習部が機械学習した結果とカニュレーション方法を示す情報とを関連付けて記憶する記憶部とを備える、学習装置が開示されている。
 本開示の技術に係る一つの実施形態は、十二指腸の腸管方向に対して内視鏡スコープの姿勢がどの程度ずれているかをユーザに把握させ易くすることが可能な医療支援装置、内視鏡、医療支援方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、プロセッサを備え、プロセッサは、内視鏡スコープが挿入される十二指腸の幾何特性を特定可能な幾何特性情報に基づいて十二指腸の腸管方向に関連する腸管方向関連情報を取得し、腸管方向関連情報を出力する医療支援装置である。
 本開示の技術に係る第2の態様は、腸管方向関連情報は、内視鏡スコープの姿勢と腸管方向とのずれ量を示すずれ量情報を含む第1の態様に係る医療支援装置である。
 本開示の技術に係る第3の態様は、幾何特性情報は、内視鏡スコープに設けられたカメラによって十二指腸の腸壁が撮像されることで得られた腸壁画像を含み、プロセッサは、腸壁画像に対して第1画像認識処理を実行することにより腸管方向関連情報を取得する第1の態様又は第2の態様に係る医療支援装置である。
 本開示の技術に係る第4の態様は、腸管方向関連情報を出力することは、腸管方向関連情報を第1画面に表示することを含む第1の態様から第3の態様のうちの何れか一つの態様に係る医療支援装置である。
 本開示の技術に係る第5の態様は、腸管方向関連情報は、腸管方向と既定角度で交差する第1方向を特定可能な第1方向情報を含む第1の態様から第4の態様のうちの何れか一つの態様に係る医療支援装置である。
 本開示の技術に係る第6の態様は、第1方向情報は、内視鏡スコープに設けられたカメラによって十二指腸の腸壁が撮像されることで得られた腸壁画像に対して第2画像認識処理が実行されることにより得られる第5の態様に係る医療支援装置である。
 本開示の技術に係る第7の態様は、第1方向情報は、第2画像認識処理としてAI方式の画像認識処理が行われることによって閾値以上の確信度で得られた情報である第6の態様に係る医療支援装置である。
 本開示の技術に係る第8の態様は、プロセッサは、十二指腸に内視鏡スコープが挿入された状態での内視鏡スコープの姿勢を特定可能な姿勢情報を取得し、腸管方向関連情報は、姿勢の調整を支援する姿勢調整支援情報を含み、姿勢調整支援情報は、腸管方向と姿勢情報から特定される姿勢とのずれ量に基づいて定められた情報である第1の態様から第8の態様のうちの何れか一つの態様に係る医療支援装置である。
 本開示の技術に係る第9の態様は、腸管方向関連情報は、内視鏡スコープの姿勢を変えることにより内視鏡スコープに設けられたカメラの光軸方向を腸管方向に既定角度で交差する第2方向と一致させる条件を示す条件情報を含む 第1の態様から第8の態様のうちの何れか一つの態様に係る医療支援装置である。
 本開示の技術に係る第10の態様は、条件は、光軸方向と第2方向とを一致させるために内視鏡スコープに対して行われる操作に関する操作条件を含む第9の態様に係る医療支援装置である。
 本開示の技術に係る第11の態様は、内視鏡スコープに設けられたカメラの光軸方向と腸管方向に既定角度で交差する第3方向とが一致した場合、腸管方向関連情報は、光軸方向と第3方向とが一致したことを報知する報知情報を含む第1の態様から第10の態様のうちの何れか一つの態様に係る医療支援装置である。
 本開示の技術に係る第12の態様は、プロセッサは、内視鏡スコープに設けられたカメラによって十二指腸の腸壁が撮像されることで得られた腸壁画像に対して第3画像認識処理を実行することにより十二指腸乳頭領域を検出し、十二指腸乳頭領域を第2画面に表示し、十二指腸乳頭領域の向きを示す乳頭向き情報であって、腸管方向関連情報に基づいて得られた乳頭向き情報を第2画面に表示する第1の態様から第11の態様のうちの何れか一つの態様に係る医療支援装置である。
 本開示の技術に係る第13の態様は、プロセッサは、内視鏡スコープに設けられたカメラによって十二指腸の腸壁が撮像されることで得られた腸壁画像に対して第4画像認識処理を実行することにより十二指腸乳頭領域を検出し、十二指腸乳頭領域を第3画面に表示し、十二指腸乳頭領域の開口に通じる管の走行方向を示す走行方向情報であって、腸管方向関連情報に基づいて得られた走行方向情報を第3画面に表示する第1の態様から第12の態様のうちの何れか一つの態様に係る医療支援装置である。
 本開示の技術に係る第14の態様は、管は、胆管又は膵管である第13の態様に係る医療支援装置である。
 本開示の技術に係る第15の態様は、幾何特性情報は、十二指腸の奥行の深度を示す深度情報を含み、腸管方向関連情報は、深度情報に基づいて取得される第1の態様から第14の態様のうちの何れか一つの態様に係る医療支援装置である。
 本開示の技術に係る第16の態様は、第1の態様から第15の態様のうちの何れか一つの態様に係る医療支援装置と、内視鏡スコープと、を備える内視鏡である。
 本開示の技術に係る第17の態様は、内視鏡スコープが挿入される十二指腸の幾何特性を特定可能な幾何特性情報に基づいて十二指腸の腸管方向に関連する腸管方向関連情報を取得すること、及び腸管方向関連情報を出力することを含む医療支援方法である。
 本開示の技術に係る第18の態様は、コンピュータに、内視鏡スコープが挿入される十二指腸の幾何特性を特定可能な幾何特性情報に基づいて十二指腸の腸管方向に関連する腸管方向関連情報を取得すること、及び腸管方向関連情報を出力することを含む処理を実行させるためのプログラムである。
十二指腸鏡システムが用いられている態様の一例を示す概念図である。 十二指腸鏡システムの全体構成の一例を示す概念図である。 十二指腸鏡システムの電気系のハードウェア構成の一例を示すブロック図である。 十二指腸鏡が用いられている態様の一例を示す概念図である。 画像処理装置の電気系のハードウェア構成の一例を示すブロック図である。 内視鏡スコープ、十二指腸鏡本体、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、画像取得部、画像認識部、導出部、及び表示制御部の相関の一例を示す概念図である。 医療支援処理の流れの一例を示すフローチャートである。 内視鏡スコープ、十二指腸鏡本体、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 内視鏡スコープ、十二指腸鏡本体、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、画像認識部、導出部、及び表示制御部の相関の一例を示す概念図である。 内視鏡スコープ、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、画像認識部、導出部、及び表示制御部の相関の一例を示す概念図である。 表示装置、導出部、及び表示制御部の相関の一例を示す概念図である。 内視鏡スコープ、十二指腸鏡本体、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、画像認識部、導出部、及び表示制御部の相関の一例を示す概念図である。 内視鏡スコープを乳頭に対して正対させる態様の一例を示す概念図である。 内視鏡スコープ、十二指腸鏡本体、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 内視鏡スコープ、十二指腸鏡本体、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、画像認識部、導出部、及び表示制御部の相関の一例を示す概念図である。 内視鏡スコープ、十二指腸鏡本体、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、画像認識部、導出部、及び表示制御部の相関の一例を示す概念図である。 表示装置、画像認識部、導出部、及び表示制御部の相関の一例を示す概念図である。 内視鏡スコープ、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、導出部、及び表示制御部の相関の一例を示す概念図である。 医療支援処理の流れの一例を示すフローチャートである。 表示装置、導出部、及び表示制御部の相関の一例を示す概念図である。 内視鏡スコープ、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、導出部、及び表示制御部の相関の一例を示す概念図である。 内視鏡スコープ、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 内視鏡スコープ、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 内視鏡スコープ、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 内視鏡スコープ、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、導出部、及び表示制御部の相関の一例を示す概念図である。 内視鏡スコープ、画像取得部、画像認識部、及び導出部の相関の一例を示す概念図である。 表示装置、導出部、及び表示制御部の相関の一例を示す概念図である。 表示装置、導出部、及び表示制御部の相関の一例を示す概念図である。
 以下、添付図面に従って本開示の技術に係る医療支援装置、内視鏡、医療支援方法、及びプログラムの実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。NVMとは、“Non-volatile memory”の略称を指す。EEPROMとは、“Electrically Erasable Programmable Read-Only Memory”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。AIとは、“Artificial Intelligence”の略称を指す。BLIとは、“Blue Light Imaging”の略称を指す。LCIとは、“Linked Color Imaging”の略称を指す。I/Fとは、“Interface”の略称を指す。FIFOとは、“First In First Out”の略称を指す。ERCPとは、“Endoscopic Retrograde Cholangio-Pancreatography”の略称を指す。TOFとは、“Time of Flight”の略称を指す。
 <第1実施形態>
 一例として図1に示すように、十二指腸鏡システム10は、十二指腸鏡12及び表示装置13を備えている。十二指腸鏡12は、内視鏡検査において医師14によって用いられる。十二指腸鏡12は、通信装置(図示省略)と通信可能に接続されており、十二指腸鏡12によって得られた情報は、通信装置に送信される。通信装置は、十二指腸鏡12から送信された情報を受信し、受信した情報を用いた処理(例えば、電子カルテ等に記録する処理)を実行する。
 十二指腸鏡12は、内視鏡スコープ18を備えている。十二指腸鏡12は、内視鏡スコープ18を用いて被検体20(例えば、患者)の体内に含まれる観察対象21(例えば、十二指腸)に対する診療を行うための装置である。観察対象21は、医師14によって観察される対象である。内視鏡スコープ18は、被検体20の体内に挿入される。十二指腸鏡12は、被検体20の体内に挿入された内視鏡スコープ18に対して、被検体20の体内の観察対象21を撮像させ、かつ、必要に応じて観察対象21に対して医療的な各種処置を行う。十二指腸鏡12は、本開示の技術に係る「内視鏡」の一例である。
 十二指腸鏡12は、被検体20の体内を撮像することで体内の態様を示す画像を取得して出力する。本実施形態において、十二指腸鏡12は、体内で光を照射することにより観察対象21で反射されて得られた反射光を撮像する光学式撮像機能を有する内視鏡である。
 十二指腸鏡12は、制御装置22、光源装置24及び画像処理装置25を備えている。制御装置22及び光源装置24は、ワゴン34に設置されている。ワゴン34には、上下方向に沿って複数の台が設けられており、下段側の台から上段側の台にかけて、画像処理装置25、制御装置22及び光源装置24が設置されている。また、ワゴン34の最上段の台には、表示装置13が設置されている。
 制御装置22は、十二指腸鏡12の全体を制御する装置である。また、画像処理装置25は、制御装置22の制御下で、十二指腸鏡12によって撮像された画像に対して画像処理を行う装置である。
 表示装置13は、画像(例えば、画像処理装置25によって画像処理が行われた画像)を含めた各種情報を表示する。表示装置13の一例としては、液晶ディスプレイ又はELディスプレイ等が挙げられる。また、表示装置13に代えて、又は、表示装置13と共に、ディスプレイ付きのタブレット端末を用いてもよい。
 表示装置13には、複数の画面が並べて表示される。図1に示す例では、画面36、37、及び38が示されている。画面36には、十二指腸鏡12によって得られた内視鏡画像40が表示される。内視鏡画像40には、観察対象21が写っている。内視鏡画像40は、被検体20の体内で内視鏡スコープ18に設けられたカメラ48(図2参照)によって観察対象21が撮像されることによって得られた画像である。観察対象21としては、十二指腸の腸壁が挙げられる。以下では、説明の便宜上、観察対象21として十二指腸の腸壁が撮像された内視鏡画像40である腸壁画像41を例に挙げて説明する。なお、十二指腸は、あくまでも一例に過ぎず、十二指腸鏡12によって撮像可能な領域であればよい。十二指腸鏡12によって撮像可能な領域としては、例えば、食道、又は胃等が挙げられる。腸壁画像41は、本開示の技術に係る「腸壁画像」及び「幾何特性情報」の一例である。
 画面36には、複数フレームの腸壁画像41を含んで構成される動画像が表示される。つまり、画面36には、複数フレームの腸壁画像41が既定のフレームレート(例えば、数十フレーム/秒)で表示される。
 一例として図2に示すように、十二指腸鏡12は、操作部42及び挿入部44を備えている。挿入部44は、操作部42が操作されることにより部分的に湾曲する。挿入部44は、医師14による操作部42の操作に従って、観察対象21の形状(例えば、十二指腸の形状)に応じて湾曲しながら挿入される。
 挿入部44の先端部46には、カメラ48、照明装置50、処置用開口51、及び起立機構52が設けられている。カメラ48及び照明装置50は、先端部46の側面に設けられている。すなわち、十二指腸鏡12は、側視鏡となっている。これにより、十二指腸の腸壁を観察しやすくなっている。
 カメラ48は、被検体20の体内を撮像することにより医用画像として腸壁画像41を取得する装置である。カメラ48の一例としては、CMOSカメラが挙げられる。但し、これは、あくまでも一例に過ぎず、CCDカメラ等の他種のカメラであってもよい。カメラ48は、本開示の技術に係る「カメラ」の一例である。
 照明装置50は、照明窓50Aを有する。照明装置50は、照明窓50Aを介して光を照射する。照明装置50から照射される光の種類としては、例えば、可視光(例えば、白色光等)及び非可視光(例えば、近赤外光等)が挙げられる。また、照明装置50は、照明窓50Aを介して特殊光を照射する。特殊光としては、例えば、BLI用の光及び/又はLCI用の光が挙げられる。カメラ48は、被検体20の体内で照明装置50によって光が照射された状態で、被検体20の体内を光学的手法で撮像する。
 処置用開口51は、処置具54を先端部46から突出させる処置具突出口、血液及び体内汚物等を吸引する吸引口、及び流体を送出する送出口として用いられる。
 処置用開口51からは、医師14の操作に従って、処置具54が突出する。処置具54は、処置具挿入口58から挿入部44内に挿入される。処置具54は、処置具挿入口58を介して挿入部44内を通過して処置用開口51から被検体20の体内に突出する。図2に示す例では、処置具54として、カニューレが処置用開口51から突出している。カニューレは、処置具54の一例に過ぎず、処置具54の他の例としては、パピロトミーナイフ又はスネア等が挙げられる。
 起立機構52は、処置用開口51から突出した処置具54の突出方向を変化させる。起立機構52は、ガイド52Aを備えており、ガイド52Aが処置具54の突出方向に対して起き上がることで、処置具54の突出方向が、ガイド52Aに沿って変化する。これにより、処置具54を腸壁に向かって突出させることが容易となっている。図2に示す例では、起立機構52によって、処置具54の突出方向が、先端部46の進行方向に対して直交する方向に変化している。起立機構52は、医師14によって操作部42を介して操作される。これにより、処置具54の突出方向の変化の度合いが調整される。
 内視鏡スコープ18は、ユニバーサルコード60を介して制御装置22及び光源装置24に接続されている。制御装置22には、表示装置13及び受付装置62が接続されている。受付装置62は、ユーザ(例えば、医師14)からの指示を受け付け、受け付けた指示を電気信号として出力する。図2に示す例では、受付装置62の一例として、キーボードが挙げられている。但し、これは、あくまでも一例に過ぎず、受付装置62は、マウス、タッチパネル、フットスイッチ、及び/又はマイクロフォン等であってもよい。
 制御装置22は、十二指腸鏡12の全体を制御する。例えば、制御装置22は、光源装置24を制御したり、カメラ48との間で各種信号の授受を行ったりする。光源装置24は、制御装置22の制御下で発光し、光を照明装置50に供給する。照明装置50には、ライトガイドが内蔵されており、光源装置24から供給された光はライトガイドを経由して照明窓50A及び50Bから照射される。制御装置22は、カメラ48に対して撮像を行わせ、カメラ48から腸壁画像41(図1参照)を取得して既定の出力先(例えば、画像処理装置25)に出力する。
 画像処理装置25は、制御装置22に対して通信可能に接続されており、画像処理装置25は、制御装置22から出力された腸壁画像41に対して画像処理を行う。画像処理装置25における画像処理の詳細については後述する。画像処理装置25は、画像処理を施した腸壁画像41を既定の出力先(例えば、表示装置13)へ出力する。なお、ここでは、制御装置22から出力された腸壁画像41が、画像処理装置25を介して、表示装置13へ出力される形態例を挙げて説明したが、これはあくまでも一例に過ぎない。制御装置22と表示装置13とが接続されており、画像処理装置25で画像処理が施された腸壁画像41を、制御装置22を介して表示装置13に表示させる態様であってもよい。
 一例として図3に示すように、制御装置22は、コンピュータ64、バス66、及び外部I/F68を備えている。コンピュータ64は、プロセッサ70、RAM72、及びNVM74を備えている。プロセッサ70、RAM72、NVM74、及び外部I/F68は、バス66に接続されている。
 例えば、プロセッサ70は、CPU及びGPUを有しており、制御装置22の全体を制御する。GPUは、CPUの制御下で動作し、グラフィック系の各種処理の実行及びニューラルネットワークを用いた演算等を担う。なお、プロセッサ70は、GPU機能を統合した1つ以上のCPUであってもよいし、GPU機能を統合していない1つ以上のCPUであってもよい。
 RAM72は、一時的に情報が格納されるメモリであり、プロセッサ70によってワークメモリとして用いられる。NVM74は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。NVM74の一例としては、フラッシュメモリ(例えば、EEPROM及び/又はSSD)が挙げられる。なお、フラッシュメモリは、あくまでも一例に過ぎず、HDD等の他の不揮発性の記憶装置であってもよいし、2種類以上の不揮発性の記憶装置の組み合わせであってもよい。
 外部I/F68は、制御装置22の外部に存在する装置(以下、「外部装置」とも称する)とプロセッサ70との間の各種情報の授受を司る。外部I/F68の一例としては、USBインタフェースが挙げられる。
 外部I/F68には、外部装置の1つとしてカメラ48が接続されており、外部I/F68は、内視鏡スコープ18に設けられたカメラ48とプロセッサ70との間の各種情報の授受を司る。プロセッサ70は、外部I/F68を介してカメラ48を制御する。また、プロセッサ70は、内視鏡スコープ18に設けられたカメラ48によって被検体20の体内が撮像されることで得られた腸壁画像41(図1参照)を外部I/F68を介して取得する。
 外部I/F68には、外部装置の1つとして光源装置24が接続されており、外部I/F68は、光源装置24とプロセッサ70との間の各種情報の授受を司る。光源装置24は、プロセッサ70の制御下で、照明装置50に光を供給する。照明装置50は、光源装置24から供給された光を照射する。
 外部I/F68には、外部装置の1つとして受付装置62が接続されており、プロセッサ70は、受付装置62によって受け付けられた指示を、外部I/F68を介して取得し、取得した指示に応じた処理を実行する。
 外部I/F68には、外部装置の1つとして画像処理装置25が接続されており、プロセッサ70は、腸壁画像41を、外部I/F68を介して画像処理装置25へ出力する。
 ところで、内視鏡を用いた十二指腸に対する処置の中で、ERCP(内視鏡的逆行性胆管膵管造影)検査と呼ばれる処置が行われることがある。一例として図4に示すように、ERCP検査においては、例えば、先ず、十二指腸鏡12が、食道及び胃を介して、十二指腸Jまで挿入される。この場合、十二指腸鏡12の挿入状態は、X線撮像によって確認されてもよい。そして、十二指腸鏡12の先端部46が、十二指腸Jの腸壁に存在する十二指腸乳頭N(以下、単に「乳頭N」とも称する)の付近へ到達する。
 ERCP検査では、例えば、乳頭Nからカニューレ54Aを挿入する。ここで、乳頭Nは、十二指腸Jの腸壁から隆起した部位であり、胆管T(例えば、総胆管、肝内胆管、胆のう管)及び膵管Sの端部の開口が乳頭Nの乳頭隆起NAに存在している。乳頭Nの開口からカニューレ54Aを介して造影剤を胆管T及び膵管S等に注入した状態でX線撮影が行われる。このように、ERCP検査では、十二指腸鏡12の十二指腸J内への挿入、乳頭Nの位置及び向き、並びに種類の確認、さらに、処置具(例えば、カニューレ)の乳頭Nへの挿入等の種々の手技が含まれている。そのため、医師14は、各手技に応じて十二指腸鏡12の操作、及び対象部位の状態の観察を行う必要がある。
 例えば、十二指腸鏡12を十二指腸J内へ挿入する場合に、十二指腸鏡12の内視鏡スコープ18が腸管方向に対して傾いた状態であると、乳頭Nを傾いた状態で視認してしまうために乳頭Nから胆管T及び膵管Sの走行方向を誤認する可能性がある。そのため、十二指腸J内において、内視鏡スコープ18の姿勢が、腸管方向に対してどの程度傾いているかを把握する必要がある。
 そこで、このような事情に鑑み、ERCP検査を含む十二指腸に対する医療の実施を支援するために、画像処理装置25のプロセッサ82によって医療支援処理が行われる。
 一例として図5に示すように、画像処理装置25は、コンピュータ76、外部I/F78、及びバス80を備えている。コンピュータ76は、プロセッサ82、NVM84、及びRAM81を備えている。プロセッサ82、NVM84、RAM81、及び外部I/F78は、バス80に接続されている。コンピュータ76は、本開示の技術に係る「医療支援装置」及び「コンピュータ」の一例である。プロセッサ82は、本開示の技術に係る「プロセッサ」の一例である。
 なお、コンピュータ76のハードウェア構成(すなわち、プロセッサ82、NVM84、及びRAM81)は、図3に示すコンピュータ64のハードウェア構成と基本的に同じなので、ここでは、コンピュータ76のハードウェア構成に関する説明は省略する。また、画像処理装置25において外部I/F78が担う外部との情報の授受という役割は、図3に示す制御装置22において外部I/F68が担う役割と基本的に同じなので、ここでの説明は省略する。
 NVM84には、医療支援処理プログラム84Aが記憶されている。医療支援処理プログラム84Aは、本開示の技術に係る「プログラム」の一例である。プロセッサ82は、NVM84から医療支援処理プログラム84Aを読み出し、読み出した医療支援処理プログラム84AをRAM81上で実行する。本実施形態に係る医療支援処理は、プロセッサ82がRAM81上で実行する医療支援処理プログラム84Aに従って画像取得部82A、画像認識部82B、導出部82C、及び表示制御部82Dとして動作することによって実現される。
 NVM84には、学習済みモデル84Bが記憶されている。本実施形態では、画像認識部82Bによって、物体検出用の画像認識処理として、AI方式の画像認識処理が行われる。学習済みモデル84Bは、ニューラルネットワークに対して事前に機械学習が行われることによって最適化されている。
 一例として図6に示すように、画像取得部82Aは、カメラ48によって撮像フレームレート(例えば、数十フレーム/秒)に従って撮像されることで生成された腸壁画像41をカメラ48から1フレーム単位で取得する。
 画像取得部82Aは、時系列画像群89を保持する。時系列画像群89は、観察対象21が写っている時系列の複数の腸壁画像41である。時系列画像群89には、例えば、一定フレーム数(例えば、数十~数百フレームの範囲内で事前に定められたフレーム数)の腸壁画像41が含まれている。画像取得部82Aは、カメラ48から腸壁画像41を取得する毎に、FIFO方式で時系列画像群89を更新する。
 ここでは、画像取得部82Aによって時系列画像群89が保持されて更新される形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、時系列画像群89は、RAM81等のように、プロセッサ82に接続されているメモリに保持されて更新されるようにしてもよい。
 画像認識部82Bは、時系列画像群89に対して学習済みモデル84Bを用いた画像認識処理を行う。画像認識処理が行われることで、観察対象21に含まれる腸管方向CDが検出される。ここで、腸管方向CDとは、十二指腸の管腔方向を指す。ここで、腸管方向の検出とは、腸管方向CDを特定可能な情報である腸管方向情報90(例えば、十二指腸の伸びる方向を示す位置座標)と腸壁画像41とを対応付けた状態でメモリに記憶させる処理を指す。腸管方向情報90は、本開示の技術に係る「腸管方向関連情報」の一例である。
 学習済みモデル84Bは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、腸管方向CDを特定可能なアノテーションである。
 ここで、正解データにおけるアノテーションの例としては、腸壁画像41に示される腸管の襞形状に基づいた腸管方向CDのアノテーション(例えば、襞形状の円弧の中心を結ぶ線分が腸管方向CDとするアノテーション)が挙げられる。また、その他の正解データにおけるアノテーションとしては、腸壁画像41が深度画像である場合に、深度情報に基づくアノテーション(例えば、深度情報により示される奥行方向の深度が大きくなる方向を腸管方向CDとするアノテーション)が挙げられる。
 なお、ここでは、1つの学習済みモデル84Bのみが画像認識部82Bによって使用される形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、複数の学習済みモデル84Bから選択された学習済みモデル84Bが画像認識部82Bによって用いられるようにしてもよい。この場合、各学習済みモデル84Bは、ERCP検査の手技(例えば、十二指腸鏡12の乳頭Nに対する位置等)別に特化した機械学習が行われることによって作成され、現在行われているERCP検査の手技に対応する学習済みモデル84Bが選択されて画像認識部82Bによって用いられるようにすればよい。
 画像認識部82Bは、画像取得部82Aから取得した腸壁画像41を学習済みモデル84Bに入力する。これにより、学習済みモデル84Bは、入力された腸壁画像41に対応する腸管方向情報90を出力する。画像認識部82Bは、学習済みモデル84Bから出力された腸管方向情報90を取得する。
 導出部82Cは、内視鏡スコープ18の腸管方向CDに対する、ずれの量(以下単に「ずれ量」と称する)を導出する。ここで、ずれ量は、内視鏡スコープ18の姿勢と腸管方向CDとのずれの度合いを指す。具体的には、ずれ量は、内視鏡スコープ18に設けられたカメラ48の撮像素子の撮像面に沿った方向(例えば、画角における上下方向)と、腸管方向CDとのずれ量を指す。また、カメラ48は、先端部46に設けられているので、ずれ量は、先端部46の長手方向SD(例えば、先端部46が円柱状である場合に中心軸方向)と腸管方向CDとの間の角度ともいえる。
 導出部82Cは、画像認識部82Bから腸管方向情報90を取得する。また、導出部82Cは、内視鏡スコープ18に設けられた光ファイバセンサ18Aから姿勢情報91を取得する。姿勢情報91は、内視鏡スコープ18の姿勢を示す情報である。光ファイバセンサ18Aは、内視鏡スコープ18の内部(例えば、挿入部44及び先端部46)に長手方向に沿って、配置されたセンサである。光ファイバセンサ18Aを用いることで、内視鏡スコープ18の姿勢(例えば、基準となる位置(例えば、内視鏡スコープ18の真直状態)からの先端部46の傾き)を検出することができる。この場合において、例えば、特許6797834号公報等の公知の内視鏡の姿勢検出技術を適宜利用することが可能である。姿勢情報91は、本開示の技術に係る「姿勢情報」の一例である。
 また、ここでは、光ファイバセンサ18Aを用いた姿勢検出技術を挙げたが、これはあくまでも一例にすぎない。例えば、いわゆる電磁ナビゲーション方式を用いて、内視鏡スコープ18の先端部46の傾きを検出してもよい。この場合において、例えば、特許6534193号公報等の公知の内視鏡の姿勢検出技術を適宜利用することが可能である。
 導出部82Cは、腸管方向情報90と姿勢情報91とを用いて、ずれ量を示す情報である、ずれ量情報93を導出する。図6に示す例では、ずれ量情報93として角度Aが示されている。導出部82Cは、例えば、ずれ量演算式(図示省略)を用いて、ずれ量を導出する。ずれ量演算式は、腸管方向情報90により示される腸管方向CDの位置座標、及び姿勢情報91により示される先端部46の長手方向SDの位置座標を独立変数とし、腸管方向CDと先端部46の長手方向SDとが成す角度を従属変数とする演算式である。ずれ量情報93は、本開示の技術に係る「ずれ量情報」の一例である。
 一例として図7に示すように、表示制御部82Dは、画像取得部82Aから腸壁画像41を取得する。また、表示制御部82Dは、画像認識部82Bから腸管方向情報90を取得する。さらに、表示制御部82Dは、導出部82Cからずれ量情報93を取得する。表示制御部82Dは、ずれ量情報93により示されるずれ量に応じて、先端部46の長手方向SDを腸管方向CDへ一致させるための操作指示画像93Aを生成する。操作指示画像93Aは、例えば、ずれ量が小さくなる先端部46の操作方向を示す矢印である。表示制御部82Dは、腸壁画像41、腸管方向情報90により示される腸管方向CD、及び操作指示画像93Aを含む表示画像94を生成し、表示装置13に対して出力する。具体的には、表示制御部82Dは、表示画像94を表示するためのGUI(Graphical User Interface)制御を行うことで、表示装置13に対して画面36を表示させる。画面36は、本開示の技術に係る「第1画面」の一例である。操作指示画像93Aは、本開示の技術に係る「姿勢調整支援情報」の一例である。
 なお、ここでは、操作指示画像93Aを画面36に表示することで、ユーザに対してずれ量を把握させる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、ずれ量を低減する操作内容を示すメッセージ(図示省略)を画面36に表示してもよい。メッセージの一例としては、「十二指腸鏡の先端部を背中側に向けて10度傾けてください」等が挙げられる。スピーカ等の音声出力装置によってユーザに対して報知してもよい。
 ユーザは、表示装置13の画面36を視認することで、腸管方向CDを把握することができる。また、画面36に表示された操作指示画像93Aを視認することで、内視鏡スコープ18の先端部46と腸管方向CDとの間のずれを低減するための操作を把握することができる。
 次に、十二指腸鏡システム10の本開示の技術に係る部分についての作用を、図8を参照しながら説明する。
 図8には、プロセッサ82によって行われる医療支援処理の流れの一例が示されている。図8に示す医療支援処理の流れは、本開示の技術に係る「医療支援方法」の一例である。
 図8に示す医療支援処理では、先ず、ステップST10で、画像取得部82Aは、内視鏡スコープ18に設けられたカメラ48によって1フレーム分の撮像が行われたか否かを判定する。ステップST10において、カメラ48によって1フレーム分の撮像が行われていない場合は、判定が否定されて、ステップST10の判定が再び行われる。ステップST10において、カメラ48によって1フレーム分の撮像が行われた場合は、判定が肯定されて、医療支援処理はステップST12へ移行する。
 ステップST12で、画像取得部82Aは、内視鏡スコープ18に設けられたカメラ48から1フレーム分の腸壁画像41を取得する。ステップST12の処理が実行された後、医療支援処理はステップST14へ移行する。
 ステップST14で、画像認識部82Bは、ステップST12で取得された腸壁画像41に対するAI方式の画像認識処理(すなわち、学習済みモデル84Bを用いた画像認識処理)を行うことで、腸管方向CDを検出する。ステップST14の処理が実行された後、医療支援処理はステップST16へ移行する。
 ステップST16で、導出部82Cは、内視鏡スコープ18の光ファイバセンサ18Aから姿勢情報91を取得する。ステップST16の処理が実行された後、医療支援処理はステップST18へ移行する。
 ステップST18で、導出部82Cは、ステップST14で画像認識部82Bにより得られた腸管方向CDと、ステップST16で取得した姿勢情報91とに基づいてずれ量を導出する。具体的には、導出部82Cは、腸管方向CD及び姿勢情報91により示される先端部46の長手方向SDとの角度を導出する。ステップST18の処理が実行された後、医療支援処理はステップST20へ移行する。
 ステップST20で、表示制御部82Dは、腸壁画像41に対して、腸管方向CD、及びステップST18で導出されたずれ量に応じた操作指示画像93Aを重畳表示した表示画像94を生成する。ステップST20の処理が実行された後、医療支援処理はステップST22へ移行する。
 ステップST22で、表示制御部82Dは、表示装置13に対してステップST20において生成された表示画像94を出力する。ステップST22の処理が実行された後、医療支援処理はステップST24へ移行する。
 ステップST24で、表示制御部82Dは、医療支援処理を終了する条件を満足したか否かを判定する。医療支援処理を終了する条件の一例としては、十二指腸鏡システム10に対して、医療支援処理を終了させる指示が与えられたという条件(例えば、医療支援処理を終了させる指示が受付装置62によって受け付けられたという条件)が挙げられる。
 ステップST24において、医療支援処理を終了する条件を満足していない場合は、判定が否定されて、医療支援処理は、ステップST10へ移行する。ステップST24において、医療支援処理を終了する条件を満足した場合は、判定が肯定されて、医療支援処理が終了する。
 以上説明したように、本第1実施形態に係る十二指腸鏡システム10では、プロセッサ82の画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われ、画像認識処理の結果、腸壁画像41における腸管方向CDが検出される。そして、腸管方向CDを示す腸管方向情報90が、表示制御部82Dに出力され、表示制御部82Dにおいて生成された表示画像94が表示装置13に対して出力される。表示画像94は、腸壁画像41に重畳表示された腸管方向CDを含んでいる。これにより、ユーザは、腸管方向CDを認識することができ、本構成によれば、腸管方向CDに対して内視鏡スコープ18の姿勢がどの程度ずれているかをユーザに把握させ易くすることができる。
 また、本第1実施形態に係る十二指腸鏡システム10では、導出部82Cにおいて、ずれ量情報93が導出される。ずれ量情報93は、内視鏡スコープ18の姿勢と腸管方向CDとのずれ量を示す。ずれ量情報93は、表示制御部82Dに出力され、表示制御部82Dにおいて生成された表示画像94が表示装置13に対して出力される。表示画像94は、ずれ量情報93に基づいた表示を含んでいる。これにより、ユーザは、内視鏡スコープ18の姿勢と腸管方向CDとのずれ量を認識することができ、本構成によれば、腸管方向CDに対して内視鏡スコープ18の姿勢がどの程度ずれているかをユーザに把握させ易くすることができる。
 また、本第1実施形態に係る十二指腸鏡システム10では、画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われることにより、腸管方向CDを示す腸管方向情報90が得られる。これにより、ユーザが目視により腸壁画像41に対して腸管方向CDを指定する場合と比較して、高精度な腸管方向情報90が得られる。
 また、本第1実施形態に係る十二指腸鏡システム10では、表示制御部82Dにより腸管方向情報90が表示装置13に対して出力され、表示装置13において、腸管方向CDが画面36に表示される。これにより、腸管方向CDに対して内視鏡スコープ18の姿勢がどの程度ずれているかをユーザに視覚的に把握させ易くすることができる。
 また、本第1実施形態に係る十二指腸鏡システム10では、導出部82Cにより、内視鏡スコープ18の姿勢を特定可能な情報である姿勢情報91が、光ファイバセンサ18Aから取得される。また、導出部82Cにおいて、姿勢情報91と腸管方向情報90とに基づいて、ずれ量情報93が生成される。さらに、表示制御部82Dにおいて、ずれ量情報93に基づいて、ずれ量を低減する操作方向を示す操作指示画像93Aが生成される。表示制御部82Dは、操作指示画像93Aを表示装置13に対して出力し、表示装置13において、操作指示画像93Aが腸壁画像41に重畳表示される。これにより、内視鏡スコープ18が十二指腸に挿入された状態において、腸管方向CDに対する内視鏡スコープ18の姿勢をユーザが意図する姿勢にすることが容易になる。例えば、ユーザは、操作指示画像93Aが示す方向に内視鏡スコープ18の姿勢を変更する操作を行うことで、腸管方向CDと内視鏡スコープ18の姿勢とを近付けることができる。
 なお、上記第1実施形態では、AI方式による画像認識処理によって腸管方向CDが検出される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、パターンマッチング方式による画像認識処理によって腸管方向CDが検出されてもよい。この場合において、例えば、腸壁画像41に含まれる腸管の襞を示す領域(すなわち、襞領域)を検出し、襞領域の円弧形状から腸管方向を推定する(例えば、円弧の中心を結ぶ線を腸管方向と推定する)形態であってもよい。
 (第1変形例)
 上記第1実施形態では、深度情報を含まない腸壁画像41を用いて腸管方向CDの検出が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第1変形例では、画像認識部82Bにおいて、深度画像である腸壁画像41を用いた腸管方向の導出が行われる。一例として図9に示すように、腸壁画像41は、画素値として被写体である十二指腸の奥行の深度(すなわち、腸壁までの距離)を示す情報である深度情報41Aを有する深度画像である。十二指腸の奥行の深度は、例えば、先端部46に搭載された測距センサによって、いわゆるTOF方式の測距により得られる。画像認識部82Bは、画像取得部82Aから腸壁画像41を取得する。深度情報41Aは、本開示の技術に係る「深度情報」の一例である。
 画像認識部82Bは、腸壁画像41により示される深度情報41Aに基づいて、腸管方向情報90を導出する。画像認識部82Bは、例えば、腸管方向演算式82B1を用いて、腸管方向情報90を導出する。腸管方向演算式82B1は、例えば、深度情報41Aにより示される奥行の深度を独立変数とし、腸管方向CDを示す軸線の位置座標群を従属変数とする演算式である。このように、腸管方向情報90は、腸壁画像41の深度情報41Aに基づいて得られる。
 以上説明したように、本第1変形例に係る十二指腸鏡システム10では、腸壁画像41は、十二指腸の奥行の深度を示す深度情報41Aを有し、腸管方向情報90は、深度情報41Aに基づいて取得される。腸管方向CDは、十二指腸の管腔における奥行方向に沿った方向である。そして、深度情報41Aは、十二指腸の管腔の奥行の深度を反映している。このため、深度情報41Aに基づいて腸管方向CDが導出されるので、深度情報41Aが考慮されない場合と比較して、より精度の高い腸管方向CDを示す腸管方向情報90が得られる。
 (第2変形例)
 上記第1実施形態では、腸壁画像41に対する画像認識処理により腸管方向CDが得られる形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第2変形例では、腸管方向CDと既定角度で交差する方向(以下単に、「既定方向」とも称する)が得られる。
 一例として図10に示すように、画像取得部82Aは、腸壁画像41をカメラ48から取得する毎に、FIFO方式で時系列画像群89を更新する。
 画像認識部82Bは、時系列画像群89に対して画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Cに入力する。これにより、学習済みモデル84Cは、入力された時系列画像群89に対応する垂直方向情報97を出力する。画像認識部82Bは、学習済みモデル84Cから出力された垂直方向情報97を取得する。ここで、垂直方向情報97は、腸管方向CDに対して直交する方向VD(以下単に「垂直方向VD」とも称する)を特定可能な情報(例えば、腸管方向CDに直交する軸線を示す位置座標群)である。
 学習済みモデル84Cを用いた画像認識処理では、腸管方向CDに対して直交する方向を特定した結果に応じて、特定結果の確信度が算出される。ここで、確信度とは、特定結果の確実さを示す統計的な尺度である。確信度は、例えば、学習済みモデル84Cの出力層の活性化関数(例えば、ソフトマックス関数等)に入力されるスコアである。学習済みモデル84Cから出力される垂直方向情報97は、閾値以上(例えば、0.9以上)のスコアを有している。
 なお、本実施形態において、「垂直」とは、完全な垂直の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの垂直を指す。また、ここでは、腸管方向CDに対する既定角度として、腸管方向CDに対する垂直方向を挙げているが、本開示の技術はこれに限定されない。例えば、既定角度は、45度、60度、又は80度であってもよい。
 学習済みモデル84Cは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、垂直方向VDを特定可能なアノテーションである。
 導出部82Cは、既定方向とカメラ48の光軸の方向との一致度を導出する。既定方向と光軸の方向とが一致するということは、カメラ48が向いている方向が、ユーザが予め定めた方向と一致していることを意味する。すなわち、カメラ48が設けられた先端部46が、ユーザが意図しない方向(例えば、腸管方向CDに対して傾いた方向)となっていない状態であることを意味する。
 そこで、導出部82Cは、垂直方向情報97を取得する。また、導出部82Cは、内視鏡スコープ18のカメラ48から光軸情報48Aを取得する。光軸情報48Aは、カメラ48の光学系の光軸を特定可能な情報である。そして、導出部82Cは、垂直方向情報97により示される方向と、光軸情報48Aにより示される光軸の方向と比較することで、一致度情報99を生成する。一致度情報99は、光軸の方向と既定方向との一致する度合い(例えば、光軸の方向と既定方向との成す角度)を示す情報である。なお、本実施形態において、「一致」とは、完全な一致の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの一致を指す。垂直方向情報97は、本開示の技術に係る「第1方向情報」及び「腸管方向関連情報」の一例である。
 さらに、導出部82Cは、光軸の方向と既定方向とが一致したか否かを判定する。光軸の方向と既定方向とが一致した場合、導出部82Cは、報知情報100を生成する。報知情報100は、光軸の方向と既定方向とが一致していることをユーザに報知する情報(例えば、光軸の方向と既定方向とが一致したこと示すテキスト)である。
 一例として図11に示すように、表示制御部82Dは、画像認識部82Bから垂直方向情報97を取得する。また、表示制御部82Dは、導出部82Cから一致度情報99を取得する。表示制御部82Dは、一致度情報99により示される光軸の方向と既定方向との一致の度合いに応じて、光軸の方向を既定方向に一致させるための操作指示画像93B(例えば、操作方向を示す矢印)を生成する。そして、表示制御部82Dは、垂直方向情報97により示される垂直方向VD、操作指示画像93B、及び腸壁画像41を含む表示画像94を生成し、表示装置13に出力する。図11に示す例では、表示装置13において、画面36に垂直方向VD及び操作指示画像93Bが重畳表示された腸壁画像41が示されている。垂直方向VDは、本開示の技術に係る「第1方向」、「第2方向」、及び「第3方向」の一例である。操作指示画像93Bは、本開示の技術に係る「条件情報」の一例である。
 また、光軸の方向と既定方向とが一致している場合には、導出部82Cは、一致度情報99に代えて、報知情報100を表示制御部82Dに対して出力する。この場合、表示制御部82Dは、操作指示画像93Bに代えて、報知情報100により示される光軸の方向と既定方向とが一致していることをユーザに報知する内容を含む表示画像94を生成する。図11に示す例では、表示装置13において、画面37に「光軸と垂直方向とが一致しています」とのメッセージが表示された例が示されている。報知情報100は、本開示の技術に係る「報知情報」の一例である。
 なお、ここでは、表示装置13において報知情報100に基づくメッセージが表示される形態例を挙げて説明したが、これはあくまでも一例にすぎない。例えば、報知情報100に基づく丸印等の記号が表示されてもよい。また、表示装置13に代えて、又は、表示装置13と共にスピーカ等の音声出力装置に対して報知情報100が出力される形態であってもよい。
 以上説明したように、本第2変形例に係る十二指腸鏡システム10では、導出部82Cにおいて、腸管方向CDと直交する方向を特定可能な情報である垂直方向情報97が導出される。垂直方向情報97は、表示制御部82Dに出力され、表示制御部82Dにおいて生成された表示画像94が表示装置13に対して出力される。表示画像94は、垂直方向情報97により示される垂直方向VDを含んでいる。これにより、ユーザは、腸管方向CDに対して既定角度で交差する方向を認識することができる。
 また、本第2変形例に係る十二指腸鏡システム10では、画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われることにより、垂直方向VDを示す垂直方向情報97が得られる。これにより、ユーザが目視により腸壁画像41に対して垂直方向VDを指定する場合と比較して、高精度な垂直方向情報97が得られる。
 また、本第2変形例に係る十二指腸鏡システム10では、画像認識部82Bにおける学習済みモデル84Cを用いた画像認識処理において、垂直方向情報97は、閾値以上の確信度で得られる。これにより、画像認識部82Bにおける学習済みモデル84Cを用いた画像認識処理において、確信度に対して閾値を設定しない場合と比較して、高精度な垂直方向情報97が得られる。
 また、本第2変形例に係る十二指腸鏡システム10では、導出部82Cにより、カメラ48から光軸情報48Aが取得される。また、導出部82Cにおいて、光軸情報48Aと垂直方向情報97とに基づいて、一致度情報99が生成される。さらに、表示制御部82Dにおいて、一致度情報99に基づいて表示画像94が生成され、表示装置13に対して出力される。表示画像94は、一致度情報99により示される光軸の方向と既定方向との一致の度合いに関する表示を含んでいる。これにより、ユーザは、カメラ48の光軸と垂直方向VDとがどの程度ずれているかを把握することができる。例えば、光軸と垂直方向VDとが一致している場合、カメラ48は、十二指腸の腸壁と正対している可能性が高い。この状態に内視鏡スコープ18の姿勢を保持することで、十二指腸の腸壁に存在する乳頭Nを見つけやすくなり、さらに乳頭Nに対してもカメラ48を正対させやすくなる。
 また、本第2変形例に係る十二指腸鏡システム10では、表示制御部82Dにおいて、一致度情報99に基づいて、光軸の方向を既定方向に一致させるための操作指示画像93Bが生成される。表示制御部82Dは、操作指示画像93Bを表示装置13に対して出力し、表示装置13において、操作指示画像93Bが腸壁画像41に重畳表示される。これにより、カメラ48の光軸方向と垂直方向VDとを一致させるのに必要な操作をユーザに把握させることができる。
 また、本第2変形例に係る十二指腸鏡システム10では、導出部82Cにおいて、光軸の方向と既定方向とが一致したか否かが判定され、光軸の方向と既定方向とが一致した場合、導出部82Cは、報知情報100を生成する。表示制御部82Dにおいて、報知情報100に基づいて、表示画像94が生成され、表示装置13に対して出力される。表示画像94には、報知情報100により示される光軸の方向と既定方向とが一致している旨の表示が含まれている。これにより、ユーザに対して、光軸の方向と既定方向とが一致していることを知覚させることができる。
 (第3変形例)
 上記第1実施形態では、腸壁画像41に対する画像認識処理により腸管方向CDが得られる形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第3変形例では、腸管方向CDに基づいて胆管の走行方向TDが得られる。
 一例として図12に示すように、画像取得部82Aは、腸壁画像41をカメラ48から取得する毎に、FIFO方式で時系列画像群89を更新する。
 画像認識部82Bは、時系列画像群89に対して学習済みモデル84Dを用いた乳頭検出処理を行う。画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Dに入力する。これにより、学習済みモデル84Dは、入力された時系列画像群89に対応する乳頭領域情報95を出力する。画像認識部82Bは、学習済みモデル84Dから出力された乳頭領域情報95を取得する。ここで、乳頭領域情報95には、乳頭Nが写っている腸壁画像41において乳頭領域N1を特定可能な情報(例えば、画像内の座標及び範囲)が含まれる。
 学習済みモデル84Dは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。教師データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、乳頭領域N1を特定可能なアノテーションが挙げられる。
 導出部82Cは、胆管の走行方向TDを示す情報である走行方向情報96を導出する。走行方向情報96には、胆管の伸びる方向を特定可能な情報(例えば、胆管の伸びる方向を示す位置座標)が含まれる。導出部82Cは、画像認識部82Bから乳頭領域情報95を取得する。また、導出部82Cは、学習済みモデル84B(図6参照)を用いた画像認識処理により得られた腸管方向情報90を、画像認識部82Bから取得する。そして、導出部82Cは、腸管方向情報90及び乳頭領域情報95に基づいて、走行方向情報96を導出する。導出部82Cは、例えば、腸管方向CDと走行方向TDとの間の既定の方位関係から、走行方向TDを導出する。具体的には、導出部82Cは、腸管方向CDを6時の方向とした場合において、走行方向TDを11時~12時の方向として導出する。さらに、導出部82Cは、乳頭領域情報95により示される乳頭領域N1を、走行方向TDの起点とする。
 一例として図13に示すように、表示制御部82Dは、導出部82Cから走行方向情報96を取得する。また、表示制御部82Dは、画像認識部82Bから乳頭領域情報95を取得する。表示制御部82Dは、画像取得部82A(図6参照)から取得した腸壁画像41に、走行方向情報96により示される走行方向TD及び乳頭領域情報95により示される乳頭領域N1を重畳表示した表示画像94を生成し、表示装置13に出力する。表示装置13において、画面36には、走行方向TDが重畳表示された腸壁画像41が表示される。
 以上説明したように、本第3変形例に係る十二指腸鏡システム10では、画像認識部82Bにおいて、学習済みモデル84Dを用いて乳頭検出処理が行われる。乳頭検出処理によって乳頭領域情報95が得られる。また、画像認識部82Bにおいて、学習済みモデル84Aを用いて画像認識処理が行われることで、腸管方向情報90が得られる。導出部82Cは、腸管方向情報90及び乳頭領域情報95に基づいて、走行方向情報96を導出する。そして、表示制御部82Dにより表示画像94が表示装置13に対して出力される。表示画像94は、乳頭領域情報95により示される乳頭領域N1、及び走行方向情報96により示される胆管の走行方向TDを含んでいる。表示装置13において、乳頭領域N1及び胆管の走行方向TDが画面36に表示される。これにより、画面36を通して乳頭Nを観察しているユーザに対して、胆管の走行方向TDを視覚的に把握させ易くすることができる。
 例えば、ERCP検査においては、乳頭Nに対してカメラ48を正対させる場合がある。この場合に、胆管又は膵管の走行方向を利用することで、内視鏡スコープ18の姿勢を把握しやすくなる。また、処置具を乳頭Nに対して挿入する場合に、胆管又は膵管の走行方向を把握しておくことで、乳頭N内における胆管又は膵管への挿管の操作が行いやすくなる。
 (第4変形例)
 上記第1実施形態では、腸壁画像41に対する画像認識処理により腸管方向CDが得られる形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第4変形例では、腸管方向CDに基づいて乳頭Nにおける乳頭隆起NAの向き(以下単に、「乳頭向きND」とも称する)が得られる。
 画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われることで、腸管方向情報90及び乳頭領域情報95が得られる(図12参照)。一例として図14に示すように、導出部82Cは、腸管方向情報90及び乳頭領域情報95に基づいて、乳頭向き情報102を生成する。乳頭向き情報102は、乳頭向きND(例えば、乳頭隆起NAが処置具と正対する向き)を特定可能な情報である。乳頭向きNDは、例えば、胆管の走行方向TDにおいて、乳頭隆起NAにおける接線として得られる。そこで、導出部82Cは、腸管方向情報90により示される腸管方向CDから、胆管の走行方向TDを導出し、さらに、走行方向TDから乳頭隆起NAにおける接線の方向を、乳頭向きNDとして導出する。
 表示制御部82Dは、導出部82Cから乳頭向き情報102を取得する。表示制御部82Dは、画像取得部82A(図6参照)から取得した腸壁画像41に、乳頭向き情報102により示される乳頭向きND及び乳頭領域情報95により示される乳頭領域N1を重畳表示した表示画像94を生成し、表示装置13に出力する。表示装置13において、画面36には、乳頭向きNDが重畳表示された腸壁画像41が表示される。
 なお、ここでは、乳頭向きNDが矢印として表示されている形態例を挙げているが、これはあくまでも一例にすぎない。乳頭向きNDは、テキストにより方向が示される態様であってもよい。
 以上説明したように、本第4変形例に係る十二指腸鏡システム10では、画像認識部82Bにおいて、乳頭検出処理が行われ(図12参照)、乳頭領域情報95が得られる。また、画像認識部82Bにおいて、学習済みモデル84B(図6参照)を用いて画像認識処理が行われることで、腸管方向情報90が得られる。導出部82Cは、腸管方向情報90に基づいて、乳頭向き情報102を導出する。そして、表示制御部82Dにより表示画像94が表示装置13に対して出力される。表示画像94は、乳頭領域情報95により示される乳頭領域N1、及び乳頭向き情報102により示される乳頭向きNDを含んでいる。表示装置13において、乳頭領域N1及び乳頭向きNDが画面36に表示される。これにより、画面36を通して乳頭Nを観察しているユーザに対して、乳頭向きNDを視覚的に把握させ易くすることができる。
 例えば、ERCP検査において、乳頭Nに対してカメラ48を正対させる場合がある。この場合に、乳頭向きNDを利用することで、内視鏡スコープ18の姿勢を把握しやすくなる。また、処置具を乳頭Nに対して挿入する場合に、乳頭向きNDを把握しておくことで、乳頭Nに対して処置具を正対させることができ、乳頭Nへ処置具を挿入しやすくなる。
 <第2実施形態>
 上記第1実施形態では、腸壁画像41に対する画像認識処理によって腸管方向CDが得られる形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第2実施形態では、腸壁画像41は、乳頭Nを含む腸壁が撮像されることで得られた画像であり、腸壁画像41に対する画像認識処理によって乳頭Nの隆起方向RDが得られる。
 例えば、ERCP検査において、乳頭Nの隆起方向RDに対してカメラ48を正対させる場合がある。これにより、乳頭Nから伸びる胆管T及び膵管Sの走行方向が推定しやすくなったり、乳頭Nに対する処置具(例えば、カニューレ)の挿入がしやすくなったりする。そこで、本第2実施形態では、腸壁画像41に対する画像認識処理によって、乳頭Nの隆起方向RDを取得する。
 一例として図15に示すように、画像取得部82Aは、腸壁画像41をカメラ48から取得する毎に、FIFO方式で時系列画像群89を更新する。
 画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Eに入力する。これにより、学習済みモデル84Eは、入力された時系列画像群89に対応する隆起方向情報104を出力する。画像認識部82Bは、学習済みモデル84Eから出力された隆起方向情報104を取得する。ここで、隆起方向情報104は、乳頭Nが隆起する方向を特定可能な情報(例えば、隆起方向RDを示す軸線の位置座標群)である。
 学習済みモデル84Eは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。教師データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、乳頭Nの隆起方向RDを特定可能なアノテーションが挙げられる。
 ここで、乳頭Nの隆起方向RDは、例えば、乳頭Nの乳頭隆起NAの頂部から鉢巻き襞H1の頂部へと向かう方向として特定される。なぜならば、医学的所見によれば、乳頭Nの隆起方向RDは、乳頭隆起NAの頂部から鉢巻き襞H1の頂部へ向かう方向と一致する場合が多いためである。ここで、乳頭Nにおいて、隆起した部位の周囲に複数の襞(例えば、襞H1~H3)が存在している。鉢巻き襞H1には、乳頭隆起NAに最も近い襞である。そこで、正解データにおけるアノテーションの一例として、鉢巻き襞H1の頂部を通る方向を隆起方向RDとするアノテーションが挙げられる。
 導出部82Cは、隆起方向RDとカメラ48の光軸の方向との一致度を導出する。隆起方向RDと光軸の方向とが一致するということは、カメラ48が向いている方向が、乳頭Nに正対していることを意味する。すなわち、カメラ48が設けられた先端部46が、ユーザが意図しない方向(例えば、乳頭Nの隆起方向RDに対して傾いた方向)となっていない状態であることを意味する。
 そこで、導出部82Cは、画像認識部82Bから隆起方向情報104を取得する。また、導出部82Cは、内視鏡スコープ18のカメラ48から光軸情報48Aを取得する。そして、導出部82Cは、垂直方向情報97により示される方向と、光軸情報48Aにより示される光軸の方向と比較することで、一致度情報103を生成する。一致度情報103は、光軸の方向と隆起方向RDとの一致する度合い(例えば、光軸の方向と隆起方向RDとの成す角度)を示す情報である。
 一例として図16に示すように、表示制御部82Dは、画像認識部82Bから隆起方向情報104を取得する。また、表示制御部82Dは、導出部82Cから一致度情報103を取得する。表示制御部82Dは、一致度情報103により示される光軸の方向と隆起方向RDとの一致の度合いに応じて、光軸の方向を隆起方向RDに一致させるための操作指示画像93C(例えば、操作方向を示す矢印)を生成する。そして、表示制御部82Dは、隆起方向情報104により示される隆起方向RD、操作指示画像93C、及び腸壁画像41を含む表示画像94を生成し、表示装置13に出力する。図16に示す例では、表示装置13において、画面36に隆起方向RD及び操作指示画像93Cが重畳表示された腸壁画像41が示されている。
 一例として図17に示すように、医師14は、内視鏡スコープ18を操作することで、カメラ48の光軸を隆起方向RDに近付ける。これにより、乳頭Nとカメラ48とが正対した場合の腸壁画像41が得られるので、乳頭Nから伸びる胆管T及び膵管Sの走行方向が推定しやすくなったり、乳頭Nに対する処置具(例えば、カニューレ)の挿入がしやすくなったりする。
 以上説明したように、本第2実施形態に係る十二指腸鏡システム10では、プロセッサ82の画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われ、画像認識処理の結果、腸壁画像41における乳頭Nの隆起方向RDが検出される。そして、隆起方向RDを示す隆起方向情報104が、表示制御部82Dに出力され、表示制御部82Dにおいて生成された表示画像94が表示装置13に対して出力される。表示画像94は、腸壁画像41に重畳表示された隆起方向RDを含んでいる。このように、表示装置13において隆起方向RDが画面36に表示される。これにより、腸壁画像41を観察しているユーザに対して、乳頭Nの隆起方向RDを視覚的に把握させることができる。
 また、本第2実施形態に係る十二指腸鏡システム10では、画像認識部82Bにおいて、腸壁画像41に基づいて隆起方向情報104が得られる。隆起方向情報104は、表示制御部82Dに出力され、表示制御部82Dにおいて生成された表示画像94が表示装置13に対して出力される。表示画像94は、隆起方向情報104に基づいた表示を含んでいる。これにより、腸壁画像41を観察しているユーザに対して、乳頭Nの隆起方向RDを視覚的に把握させることができる。
 また、本第2実施形態に係る十二指腸鏡システム10では、表示制御部82Dにおいて、表示画像94が生成される。表示画像94には、隆起方向RDを示す矢印の画像が含まれる。これにより、腸壁画像41を観察しているユーザに対して、乳頭Nの隆起方向RDを画像化して視覚的に把握させることができる。
 また、本第2実施形態に係る十二指腸鏡システム10では、導出部82Cにおいて、カメラ48から光軸情報48Aが取得される。また、導出部82Cにおいて、光軸情報48Aと隆起方向情報104とに基づいて、一致度情報103が生成される。表示制御部82Dにおいて、一致度情報103に基づいて表示画像94が生成され、表示装置13に対して出力される。表示画像94は、一致度情報103により示される光軸の方向と隆起方向RDとの一致の度合いに関する表示を含んでいる。これにより、腸壁画像41を観察しているユーザに対して、乳頭Nの隆起方向RDと光軸方向との一致度を視覚的に把握させることができる。例えば、光軸と隆起方向RDとが一致している場合、カメラ48は、乳頭Nと正対している可能性が高い。この状態に内視鏡スコープ18の姿勢を保持することで、乳頭Nを観察しやすくなり、さらに乳頭Nに処置具を挿入しやすくなる。
 また、本第2実施形態に係る十二指腸鏡システム10では、画像認識部82Bにおける画像認識処理において、隆起方向RDは、乳頭Nの乳頭隆起NAの頂部から鉢巻き襞H1へと向かう方向として特定される。そして、表示制御部82Dにおいて生成された表示画像94が表示装置13に出力される。表示画像94には、隆起方向RDが含まれる。これにより、腸壁画像41を観察しているユーザに対して、乳頭隆起NAが有する開口から鉢巻襞H1の頂部に向かう方向を視覚的に把握させることができる。この結果、乳頭Nの開口に通じる胆管の走行方向TDを特定し易くすることができる。
 また、本第2実施形態に係る十二指腸鏡システム10では、画像認識部82Bにおける画像認識処理において、隆起方向RDは、乳頭Nの乳頭隆起NAの頂部から鉢巻き襞H1へと向かう方向として特定される。そして、表示制御部82Dにおいて生成された表示画像94が表示装置13に出力される。表示画像94には、隆起方向RDを示す矢印の画像が含まれる。これにより、腸壁画像41を観察しているユーザに対して、乳頭隆起NAが有する開口から鉢巻襞H1の頂部に向かう方向を視覚的に把握させることができる。この結果、乳頭Nの開口に通じる胆管の走行方向TDを特定し易くすることができる。
 また、本第2実施形態に係る十二指腸鏡システム10では、画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われることにより隆起方向RDを示す隆起方向情報104が得られる。これにより、ユーザが目視により腸壁画像41に対して隆起方向RDを指定する場合と比較して、高精度な隆起方向情報104が得られる。
 (第5変形例)
 上記第2実施形態では、隆起方向RDが、乳頭隆起NAの頂部から鉢巻き襞H1の頂部へ向かう方向として特定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。隆起方向RDは、複数の襞H1~H3の態様に基づいて特定される。
 一例として図18に示すように、画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Eに入力する。これにより、学習済みモデル84Eは、入力された時系列画像群89に対応する隆起方向情報104を出力する。画像認識部82Bは、学習済みモデル84Eから出力された隆起方向情報104を取得する。
 ここで、乳頭Nの隆起方向RDは、例えば、鉢巻き襞H1の頂部を通る方向として特定される。医学的所見によれば、乳頭Nの隆起方向RDは、鉢巻き襞H1の頂部を通る方向と一致する場合がある。そこで、正解データにおけるアノテーションの一例として、鉢巻き襞H1の頂部を通る方向を隆起方向RDとするアノテーションが挙げられる。
 なお、ここでは、鉢巻き襞H1の頂部を通る方向として隆起方向RDが、特定される態様を挙げて説明したが、これはあくまでも一例にすぎない。隆起方向RDは、複数の襞H1~H3の頂部のうちの少なくとも一つを通る方向として特定されてもよい。
 以上説明したように、本第5変形例に係る十二指腸鏡システム10では、画像認識部82Bにおける画像認識処理において、隆起方向RDは、複数の襞H1~H3の態様に基づいて特定される。そして、表示制御部82Dにおいて生成された表示画像94が表示装置13に出力される。表示画像94には、隆起方向RDが含まれる。これにより、腸壁画像41を観察しているユーザに対して、隆起方向RDとして乳頭隆起NAが有する鉢巻き襞H1の頂部を通る方向を視覚的に把握させることができる。
 (第6変形例)
 上記第2実施形態では、隆起方向RDが、乳頭隆起NAの頂部から鉢巻き襞H1の頂部へと向かう方向として特定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第6変形例では、隆起方向RDが、乳頭隆起NAと複数の襞H1~H3に基づいて特定される。
 一例として図19に示すように、画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Eに入力する。これにより、学習済みモデル84Eは、入力された時系列画像群89に対応する隆起方向情報104を出力する。画像認識部82Bは、学習済みモデル84Eから出力された隆起方向情報104を取得する。
 ここで、乳頭Nの隆起方向RDは、例えば、乳頭隆起NAの頂部から鉢巻き襞H1、襞H2、及びH3の各頂部を通る方向として特定される。医学的所見によれば、乳頭Nの隆起方向RDは、乳頭隆起NAの頂部から鉢巻き襞H1、襞H2、及びH3の各頂部を通る方向と一致する場合がある。そこで、正解データにおけるアノテーションの一例として、乳頭隆起NAの頂部から鉢巻き襞H1、襞H2、及びH3の各頂部を通る方向を隆起方向RDとするアノテーションが挙げられる。
 以上説明したように、本第6変形例に係る十二指腸鏡システム10では、画像認識部82Bにおける画像認識処理において、隆起方向RDは、乳頭隆起NAと複数の襞H1~H3に基づいて特定される。そして、表示制御部82Dにおいて生成された表示画像94が表示装置13に出力される。表示画像94には、隆起方向RDが含まれる。これにより、腸壁画像41を観察しているユーザに対して、隆起方向RDとして乳頭隆起NAの頂部と複数の襞H1~H3の頂部を通る方向を視覚的に把握させることができる。
 (第7変形例)
 上記第2実施形態では、腸壁画像41に対する画像認識処理により隆起方向RDが得られる形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第7変形例では、隆起方向RDに基づいて胆管の走行方向TDが得られる。
 画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われることで、隆起方向情報104及び乳頭領域情報95が得られる(図12及び図15参照)。一例として図20に示すように、導出部82Cは、隆起方向情報104に基づいて、走行方向情報96を導出する。胆管の走行方向TDは、乳頭Nの隆起方向RDと既定の方位関係を有している。具体的には、導出部82Cは、隆起方向RDを12時の方向とした場合において、走行方向TDを11時の方向として導出する。
 表示制御部82Dは、導出部82Cから走行方向情報96を取得する。表示制御部82Dは、画像取得部82A(図6参照)から取得した腸壁画像41に、走行方向情報96により示される走行方向TDを重畳表示した表示画像94を生成し、表示装置13に出力する。表示装置13において、画面36には、走行方向TDが重畳表示された腸壁画像41が表示される。
 以上説明したように、本第7変形例に係る十二指腸鏡システム10では、導出部82Cにおいて、走行方向情報96は、隆起方向情報104に基づいて得られる。このように、走行方向情報96が、隆起方向情報104により得られるので、走行方向情報96が画像認識処理により得られる場合と比較して、走行方向TDを特定することが容易となる。
 また、本第7変形例に係る十二指腸鏡システム10では、表示制御部82Dにおいて、表示画像94が生成される。表示画像94には、走行方向TDを示す画像が含まれる。これにより、腸壁画像41を観察しているユーザに対して、胆管の走行方向TDを視覚的に把握させることができる。
 (第8変形例)
 上記第2実施形態では、腸壁画像41に対する画像認識処理によって、乳頭Nの隆起方向RDが得られる形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第8変形例では、腸壁画像41に対する画像認識処理によって乳頭Nにおいて開口の存在する面の方向MD(以下単に「面方向MD」とも称する)が得られる。
 一例として図21に示すように、画像取得部82Aは、腸壁画像41をカメラ48から取得する毎に、FIFO方式で時系列画像群89を更新する。
 画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Fに入力する。これにより、学習済みモデル84Fは、入力された時系列画像群89に対応する面方向情報106を出力する。画像認識部82Bは、学習済みモデル84Fから出力された面方向情報106を取得する。ここで、面方向情報106は、面方向MDを特定可能な情報(例えば、面方向MDを示す軸線の位置座標群)である。
 学習済みモデル84Fは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、面方向MDを特定可能なアノテーションが挙げられる。
 導出部82Cは、乳頭Nの開口Kが設けられた面Pと内視鏡スコープ18の姿勢との相対角度を導出する。乳頭Nの開口Kが設けられた面Pと内視鏡スコープ18の姿勢との相対角度が、0に近づくことは、カメラ48が乳頭Nに正対した状態に近づくことを意味する。そこで、導出部82Cは、画像認識部82Bから面方向情報106を取得する。また、導出部82Cは、内視鏡スコープ18の光ファイバセンサ18Aから姿勢情報91を取得する。そして、導出部82Cは、面方向情報106により示される面の向きから開口Kを有する面Pと、姿勢情報91により示される内視鏡スコープ18の姿勢と比較することで、相対角度情報108を生成する。相対角度情報108は、面Pと内視鏡スコープ18の姿勢(例えば、カメラ48の撮像面)の成す角度Aを示す情報である。
 一例として図22に示すように、表示制御部82Dは、画像認識部82Bから面方向情報106を取得する。また、表示制御部82Dは、導出部82Cから相対角度情報108を取得する。表示制御部82Dは、相対角度情報108により示される角度に応じて、カメラ48を乳頭Nに正対させるための操作指示画像93D(例えば、操作方向を示す矢印)を生成する。そして、表示制御部82Dは、面方向情報106により示される面方向MD、操作指示画像93D、及び腸壁画像41を含む表示画像94を生成し、表示装置13に出力する。図22に示す例では、表示装置13において、画面36に面方向MD及び操作指示画像93Dが重畳表示された腸壁画像41が示されている。
 以上説明したように、本第8変形例に係る十二指腸鏡システム10では、プロセッサ82の画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われ、画像認識処理の結果、腸壁画像41における乳頭Nの面方向MDが検出される。そして、面方向MDを示す面方向情報106が、表示制御部82Dに出力され、表示制御部82Dにおいて生成された表示画像94が表示装置13に対して出力される。表示画像94は、腸壁画像41に重畳表示された面方向MDを含んでいる。このように、表示装置13において面方向MDが画面36に表示される。これにより、腸壁画像41を観察しているユーザに対して、乳頭Nの面方向MDを視覚的に把握させることができる。
 また、本第8変形例に係る十二指腸鏡システム10では、導出部82Cにより、内視鏡スコープ18の姿勢を特定可能な情報である姿勢情報91が、光ファイバセンサ18Aから取得される。また、導出部82Cにおいて、姿勢情報91と面方向情報106とに基づいて、相対角度情報108が生成される。さらに、表示制御部82Dにおいて、相対角度情報108に基づいて、カメラ48を乳頭Nに正対させるための操作指示画像93Dが生成される。表示制御部82Dは、操作指示画像93Dを表示装置13に対して出力し、表示装置13において、操作指示画像93Dが腸壁画像41に重畳表示される。これにより、内視鏡スコープ18が十二指腸に挿入された状態において、乳頭Nの面方向MDに対する内視鏡スコープ18の姿勢をユーザが意図する姿勢にすることが容易になる。
 (第9変形例)
 上記第2実施形態では、腸壁画像41に対する画像認識処理により得られた隆起方向RDが表示される形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第9変形例では、乳頭面画像93Eが表示される。
 一例として図23に示すように、表示制御部82Dは、画像認識部82Bから隆起方向情報104を取得する。表示制御部82Dは、隆起方向情報104により示される隆起方向RDに基づいて乳頭面画像93Eを生成する。乳頭面画像93Eは、隆起方向RDにと既定角度(例えば、90度)で交差する面を特定可能な画像である。さらに、表示制御部82Dは、画像認識部82Bにおいて得られた乳頭領域情報95に基づいて乳頭面画像93Eを乳頭領域N1に応じたサイズ及び形状に調整する。また、表示制御部82Dは、操作指示画像93Cを生成する。
 そして、表示制御部82Dは、乳頭面画像93E、操作指示画像93C、及び腸壁画像41を含む表示画像94を生成し、表示装置13に出力する。図23に示す例では、表示装置13において、画面36に乳頭面画像93E及び操作指示画像93Cが重畳表示された腸壁画像41が示されている。
 以上説明したように、本第9変形例に係る十二指腸鏡システム10では、表示制御部82Dにおいて、隆起方向情報104に基づいて乳頭面画像93Eが生成される。表示制御部82Dは、乳頭面画像93Eを表示装置13に対して出力し、表示装置13において、乳頭面画像93Eが腸壁画像41に重畳表示される。これにより、腸壁画像41を観察しているユーザに対して、乳頭Nに含まれる開口の位置を視覚的に予測させやすくなる。
 <第3実施形態>
 上記第1実施形態では、腸壁画像41に対する画像認識処理により腸管方向CDが得られ、また、上記第2実施形態では、腸壁画像41に対する画像認識処理により隆起方向RDが得られる形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第3実施形態では、腸壁画像41に対する画像認識処理により胆管Tの走行方向TDが得られる。
 例えば、ERCP検査において、乳頭Nに対して処置具(例えば、カニューレ)の挿入し、さらに乳頭N内の胆管T又は膵管Sに対して処置具を挿管する場合がある。この場合において、腸壁画像41では、乳頭Nの内部に存在する胆管T又は膵管Sの走行方向を把握するのは困難である。そこで、本第3実施形態では、腸壁画像41に対する画像認識処理によって、胆管T又は膵管Sの走行方向を取得する。なお、以下では、説明の便宜上、胆管Tの場合を例に挙げて説明する。
 一例として図24に示すように、画像取得部82Aは、腸壁画像41をカメラ48から取得する毎に、FIFO方式で時系列画像群89を更新する。
 画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Gに入力する。これにより、学習済みモデル84Gは、入力された時系列画像群89に対応する走行方向情報96を出力する。画像認識部82Bは、学習済みモデル84Eから出力された走行方向情報96を取得する。
 学習済みモデル84Gは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、走行方向TDを特定可能なアノテーションが挙げられる。
 ここで、胆管Tの走行方向TDは、例えば、乳頭Nの複数の襞の頂部を通る方向として特定される。なぜならば、医学的所見によれば、胆管Tの走行方向は、襞の頂部を繋いだ線と一致する場合があるからである。そこで、正解データにおけるアノテーションの一例として、乳頭Nの襞の頂部を通る方向を胆管Tの走行方向TDとするアノテーションが挙げられる。
 また、取得した時系列画像群89を学習済みモデル84Hに入力する。これにより、学習済みモデル84Hは、入力された時系列画像群89に対応する憩室領域情報110を出力する。画像認識部82Bは、学習済みモデル84Hから出力された憩室領域情報110を取得する。憩室領域情報110は、乳頭Nに存在する憩室を示す領域を特定可能な情報(憩室のサイズ及び位置を示す座標)である。ここで、憩室とは、乳頭Nの一部が十二指腸の外部へ嚢状に突出した領域である。
 学習済みモデル84Hは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、憩室を示す領域を特定可能なアノテーションが挙げられる。
 導出部82Cは、走行方向TDを表示するための態様を導出する。例えば、走行方向TDは、憩室を回避した態様で特定される。なぜならば、医学的所見によれば、走行方向TDは、憩室を避けて形成される場合があるからである。そこで、導出部82Cは、憩室領域情報110に基づいて、走行方向TDの表示態様を変更する。具体的には、導出部82Cは、走行方向情報96により示される走行方向TDにおいて、憩室領域情報110により示される憩室と交差する部分については、憩室を回避する態様に変更する。このように、導出部82Cは、変更後の走行方向TDの表示態様を示す表示態様情報112を生成する。
 一例として図25に示すように、表示制御部82Dは、導出部82Cから表示態様情報112を取得する。表示制御部82Dは、表示態様情報112により示される変更後の走行方向TD及び腸壁画像41を含む表示画像94を生成し、表示装置13に出力する。図25に示す例では、表示装置13において、画面36に変更後の走行方向TDが重畳表示された腸壁画像41が示されている。
 次に、十二指腸鏡システム10の本開示の技術に係る部分についての作用を、図26を参照しながら説明する。
 図26には、プロセッサ82によって行われる医療支援処理の流れの一例が示されている。
 図26に示す医療支援処理では、先ず、ステップST110で、画像取得部82Aは、内視鏡スコープ18に設けられたカメラ48によって1フレーム分の撮像が行われたか否かを判定する。ステップST10において、カメラ48によって1フレーム分の撮像が行われていない場合は、判定が否定されて、ステップST110の判定が再び行われる。ステップST110において、カメラ48によって1フレーム分の撮像が行われた場合は、判定が肯定されて、医療支援処理はステップST112へ移行する。
 ステップST112で、画像取得部82Aは、内視鏡スコープ18に設けられたカメラ48から1フレーム分の腸壁画像41を取得する。ステップST112の処理が実行された後、医療支援処理はステップST114へ移行する。
 ステップST114で、画像認識部82Bは、ステップST112で取得された腸壁画像41に対するAI方式の画像認識処理(すなわち、学習済みモデル84Gを用いた画像認識処理)を行うことで、走行方向TDを検出する。ステップST114の処理が実行された後、医療支援処理はステップST116へ移行する。
 ステップST116で、画像認識部82Bは、ステップST112で取得された腸壁画像41に対するAI方式の画像認識処理(すなわち、学習済みモデル84Hを用いた画像認識処理)を行うことで、憩室領域を検出する。ステップST116の処理が実行された後、医療支援処理はステップST118へ移行する。
 ステップST118で、導出部82Cは、ステップST114で画像認識部82Bにより得られた走行方向TDと、ステップST116で画像認識部82Bにより得られた憩室領域とに基づいて走行方向TDの表示態様を変更する。具体的には、導出部82Cは、憩室領域を避ける態様に走行方向TDの表示態様を変更する。ステップST118の処理が実行された後、医療支援処理はステップST120へ移行する。
 ステップST120で、表示制御部82Dは、腸壁画像41に対して、ステップST118で導出部82Cにより表示態様が変更された走行方向TDを重畳表示した表示画像94を生成する。ステップST120の処理が実行された後、医療支援処理はステップST122へ移行する。
 ステップST122で、表示制御部82Dは、表示装置13に対してステップST120において生成された表示画像94を出力する。ステップST122の処理が実行された後、医療支援処理はステップST124へ移行する。
 ステップST124で、表示制御部82Dは、医療支援処理を終了する条件を満足したか否かを判定する。医療支援処理を終了する条件の一例としては、十二指腸鏡システム10に対して、医療支援処理を終了させる指示が与えられたという条件(例えば、医療支援処理を終了させる指示が受付装置62によって受け付けられたという条件)が挙げられる。
 ステップST124において、医療支援処理を終了する条件を満足していない場合は、判定が否定されて、医療支援処理は、ステップST110へ移行する。ステップST124において、医療支援処理を終了する条件を満足した場合は、判定が肯定されて、医療支援処理が終了する。
 以上説明したように、本第3実施形態に係る十二指腸鏡システム10では、プロセッサ82の画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われ、画像認識処理の結果、腸壁画像41における胆管の走行方向TDが検出される。そして、走行方向TDを示す走行方向情報96が、表示制御部82Dに出力され、表示制御部82Dにおいて生成された表示画像94が表示装置13に対して出力される。表示画像94は、腸壁画像41に重畳表示された走行方向TDを含んでいる。このように、表示装置13において走行方向TDが画面36に表示される。これにより、腸壁画像41を観察しているユーザに対して、胆管の走行方向TDを視覚的に把握させることができる。
 また、本第3実施形態に係る十二指腸鏡システム10では、画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われ、憩室領域情報110が得られる。導出部82Cにおいて、走行方向情報96と憩室領域情報110とに基づいて、表示態様情報112が生成される。そして、変更後の走行方向TDを示す表示態様情報112が、表示制御部82Dに出力され、表示制御部82Dにおいて生成された表示画像94が表示装置13に対して出力される。表示画像94は、腸壁画像41に重畳表示された変更後の走行方向TDを含んでいる。このように、表示装置13において変更後の走行方向TDが画面36に表示される。これにより、腸壁画像41を観察しているユーザに対して、憩室の存在に応じて変更された胆管の走行方向TDを視覚的に把握させることができる。例えば、腸壁画像41を観察しているユーザに対して、乳頭Nの開口に通じる胆管の走行方向TDを、憩室の存在に起因して視覚的に誤って把握させてしまうという事態の発生を抑制することができる。
 また、本第3実施形態に係る十二指腸鏡システム10では、導出部82Cにおいて、表示態様情報112は、走行方向情報96により示される走行方向TDにおいて、憩室を避ける態様で変更された走行方向TDを示す。そして、表示装置13において変更後の走行方向TDが画面36に表示される。これにより、腸壁画像41を観察しているユーザに対して、憩室を回避する態様で変更された胆管の走行方向TDを視覚的に把握させることができる。
 なお、上記第3実施形態では、胆管の走行方向TDの表示態様を変更する形態例として、憩室を回避する態様を挙げたが、本開示の技術はこれに限定されない。例えば、胆管の走行方向TDにおいて、憩室と交差する領域を非表示としてもよいし、憩室と交差する領域を破線又は半透明としてもよい。
 また、上記第3実施形態では、腸壁画像41に対して画像認識処理によって憩室が検出され、憩室に応じて走行方向TDの表示態様を変更する形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、憩室の検出は行われない態様であってもよい。
 (第10変形例)
 上記第3実施形態では、胆管の走行方向TDが憩室を避けて表示される形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第10変形例では、胆管の走行方向TDが憩室と交差する場合に、ユーザに対してその旨が報知される。
 一例として図27に示すように、導出部82Cは、画像認識部82Bから走行方向情報96及び憩室領域情報110を取得する。導出部82Cは、憩室領域情報110と走行方向情報96とに基づいて憩室と走行方向TDとの位置関係を特定する。具体的には、導出部82Cは、走行方向情報96により示される走行方向TDと、憩室領域情報110により示される憩室の位置及びサイズを比較して、憩室と走行方向TDとが交差するかを特定する。そして、導出部82Cは、走行方向TDと憩室とが交差する位置関係であることを特定した場合には、報知情報114を生成する。
 導出部82Cは、報知情報114を表示制御部82Dに対して出力する。この場合、表示制御部82Dは、報知情報114により示される憩室と走行方向TDとが交差していることをユーザに報知する内容を含む表示画像94を生成する。図27に示す例では、表示装置13において、画面37に「憩室と走行方向とが交差しています」とのメッセージが表示された例が示されている。
 以上説明したように、本第10変形例に係る十二指腸鏡システム10では、導出部82Cにおいて、憩室領域情報110と走行方向情報96とに基づいて、憩室と走行方向TDとの位置関係が特定され、特定結果に基づいて報知情報114が生成される。表示制御部82Dにおいて、報知情報114に基づいて、表示画像94が生成され、表示装置13に対して出力される。表示画像94には、報知情報114により示される憩室と走行方向とが交差している旨の表示が含まれている。これにより、ユーザに対して、憩室と走行方向とが交差していることを知覚させることができる。例えば、腸壁画像41を観察しているユーザに対して、乳頭Nの開口に通じる胆管の走行方向TDを、憩室の存在に起因して視覚的に誤って把握させてしまうという事態の発生を抑制することができる。
 <第4実施形態>
 上記第1実施形態~上記第3実施形態では、腸壁画像41に対する画像認識処理により腸管方向CD、乳頭N、及び胆管の走行方向TD等の生体組織に関する情報が特定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第4実施形態では、腸壁画像41に対して画像認識処理が行われることで、処置具と生体組織との関係が特定される。
 例えば、ERCP検査において、乳頭Nに対して処置具を用いた種々の処置(例えば、乳頭Nに対してカニューレが挿入される)が行われる場合がある。この場合において、乳頭Nと処置具との位置関係が、手技の成否に影響する。例えば、処置具の進行方向が、乳頭向きNDと合っていない場合には、処置具が乳頭Nに対して適切にアプローチできず、手技を成功させることが困難になる。そこで、本第4実施形態では、腸壁画像41に対する画像認識処理により処置具と乳頭Nとの位置関係が特定される。
 一例として図28に示すように、画像取得部82Aは、腸壁画像41をカメラ48から取得する毎に、FIFO方式で時系列画像群89を更新する。
 画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Iに入力する。これにより、学習済みモデル84Iは、入力された時系列画像群89に対応する位置関係情報116を出力する。画像認識部82Bは、学習済みモデル84Iから出力された位置関係情報116を取得する。ここで、位置関係情報116は、乳頭Nの位置と処置具の位置とを特定可能な情報(例えば、乳頭Nの位置と処置具の先端の位置との距離及び角度)である。
 学習済みモデル84Iは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、乳頭Nの位置と処置具の位置とを特定可能なアノテーションが挙げられる。
 導出部82Cは、画像認識部82Bから位置関係情報116を取得する。導出部82Cは、位置関係情報116に基づいて、ユーザに対して乳頭Nと処置具との位置関係を報知する情報である報知情報118を生成する。導出部82Cは、位置関係情報116により示される処置具の位置と乳頭Nの位置とを比較する。そして、導出部82Cは、処置具の位置と乳頭Nの位置とが一致する場合は、処置具の位置と乳頭Nの位置とが一致する旨の報知情報118を生成する。また、導出部82Cは、処置具の位置と乳頭Nの位置とが一致しない場合は、処置具の位置と乳頭Nの位置とが一致しない旨の報知情報118を生成する。
 なお、ここでは、処置具の位置と乳頭Nの位置とが一致するか否かの場合を例に挙げて説明したが、これはあくまでも一例にすぎない。例えば、処置具の位置と乳頭Nの位置が予め定められた範囲内(例えば、予め定められた距離及び角度の範囲内)であるか否かが判定されてもよい。
 一例として図29に示すように、表示制御部82Dは、導出部82Cから報知情報118を取得する。導出部82Cは、報知情報118を表示制御部82Dに対して出力する。この場合、表示制御部82Dは、報知情報118により示される処置具と乳頭Nの位置関係をユーザに報知する内容を含む表示画像94を生成する。図29に示す例では、表示装置13において、画面37に「処置具の位置と乳頭の位置が一致」とのメッセージが表示された例が示されている。
 以上説明したように、本第4実施形態に係る十二指腸鏡システム10では、プロセッサ82の画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われ、処置具と乳頭との位置関係が特定される。導出部82Cにおいて、処置具と乳頭との位置関係を示す位置関係情報116に基づいて、処置具と乳頭Nとの位置関係に関する判定が行われ、判定結果に基づいて、報知情報118が生成される。表示制御部82Dにおいて、報知情報118に基づいて、表示画像94が生成され、表示装置13に対して出力される。表示画像94には、報知情報118により示される処置具と乳頭Nとの位置関係に関する表示が含まれている。これにより、腸壁画像41を観察しているユーザに対して、処置具の位置と乳頭Nの位置との関係が如何なる関係なのかを知覚させることができる。
 (第11変形例)
 上記第4実施形態では、処置具と乳頭Nとの位置関係として、乳頭Nの位置と処置具との位置との関係が特定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第11変形例では、処置具の進行方向と乳頭向きNDとの関係が特定される。
 一例として図30に示すように、画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Jに入力する。これにより、学習済みモデル84Jは、入力された時系列画像群89に対応する位置関係情報116Aを出力する。ここで、位置関係情報116Aは、乳頭向きNDと処置具の進行方向とを特定可能な情報(例えば、乳頭向きNDと処置具の進行方向との成す角度)である。
 学習済みモデル84Jは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、乳頭向きNDと処置具の進行方向との関係を特定可能なアノテーションが挙げられる。
 導出部82Cは、画像認識部82Bから位置関係情報116Aを取得する。導出部82Cは、位置関係情報116Aに基づいて、ユーザに対して乳頭Nと処置具との位置関係を報知する情報である報知情報118を生成する。導出部82Cは、乳頭向きNDと処置具の進行方向の成す角度が予め定められた範囲内である場合は、両者が一致する旨の報知情報118を生成する。また、導出部82Cは、乳頭向きNDと処置具の進行方向の成す角度が予め定められた範囲を超える場合は、両者が一致しない旨の報知情報118を生成する。
 以上説明したように、本第11変形例に係る十二指腸鏡システム10では、画像認識部82Bにおいて、処置具の進行方向と乳頭向きNDとの関係が特定される。導出部82Cにおいて、処置具の進行方向と乳頭向きNDとの関係を示す位置関係情報116Aに基づいて、報知情報118が生成される。これにより、腸壁画像41を観察しているユーザに対して、処置具の進行方向と乳頭向きNDとの関係が如何なる関係なのかを知覚させることができる。
 なお、上記第11変形例では、画像認識部82Bにおいて、処置具の進行方向と乳頭向きNDとの関係が特定される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、画像認識部82Bにおいて、処置具の進行方向と乳頭向きNDとの関係と共に、乳頭Nの位置と処置具の位置との関係が特定されてもよい。この場合において、位置関係情報116Aは、処置具の進行方向と乳頭向きNDとの関係、及び乳頭Nの位置と処置具の位置との関係を示す情報であり、導出部82Cは、位置関係情報116Aに基づいて、処置具の進行方向と乳頭向きNDとの関係に関する判定と、乳頭Nの位置と処置具の位置との関係に関する判定を行う。さらに導出部82Cは、これらの判定結果に応じて報知情報118を生成する。
 (第12変形例)
 上記第4実施形態では、処置具と乳頭Nとの位置関係として、乳頭Nの位置と処置具との位置との関係が特定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第11変形例では、処置具の進行方向と胆管の走行方向TDとの関係が特定される。
 一例として図31に示すように、画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Kに入力する。これにより、学習済みモデル84Kは、入力された時系列画像群89に対応する位置関係情報116Bを出力する。ここで、位置関係情報116Bは、胆管の走行方向TDと処置具の進行方向との関係を特定可能な情報(例えば、胆管の走行方向TDにおける開口端部の接線の方向(以下単に、「胆管接線方向」と称する)と、処置具の進行方向との成す角度)である。
 学習済みモデル84Kは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、胆管の走行方向TDと処置具の進行方向との関係を特定可能なアノテーションが挙げられる。
 導出部82Cは、画像認識部82Bから位置関係情報116Bを取得する。導出部82Cは、位置関係情報116Bに基づいて、ユーザに対して胆管の走行方向TDと処置具の進行方向との関係を報知する情報である報知情報118を生成する。導出部82Cは、胆管接線方向と処置具の進行方向の成す角度が予め定められた範囲内である場合は、両者が一致する旨の報知情報118を生成する。また、導出部82Cは、胆管接線方向と処置具の進行方向の成す角度が予め定められた範囲を超える場合は、両者が一致しない旨の報知情報118を生成する。
 以上説明したように、本第12変形例に係る十二指腸鏡システム10では、画像認識部82Bにおいて、処置具の進行方向と胆管の走行方向TDとの関係が特定される。導出部82Cにおいて、処置具の進行方向と胆管の走行方向TDとの関係を示す位置関係情報116Bに基づいて、報知情報118が生成される。これにより、腸壁画像41を観察しているユーザに対して、処置具の進行方向と胆管の走行方向TDとの関係が如何なる関係なのかを知覚させることができる。
 (第13変形例)
 上記第4実施形態では、処置具と乳頭Nとの位置関係として、乳頭Nの位置と処置具との位置との関係が特定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第13変形例では、処置具の進行方向と乳頭隆起NAの隆起方向RDに対して垂直な面の向き(以下単に「垂直面向き」とも称する)との関係が特定される。
一例として図32に示すように、画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Lに入力する。これにより、学習済みモデル84Lは、入力された時系列画像群89に対応する位置関係情報116Cを出力する。ここで、位置関係情報116Cは、垂直面向きと処置具の進行方向との関係を特定可能な情報(例えば、垂直面向きと処置具の進行方向との成す角度)である。
 学習済みモデル84Lは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、垂直面向きと処置具の進行方向との関係を特定可能なアノテーションが挙げられる。
 導出部82Cは、画像認識部82Bから位置関係情報116Cを取得する。導出部82Cは、位置関係情報116Cに基づいて、ユーザに対して垂直面向きと処置具の進行方向との関係を報知する情報である報知情報118を生成する。導出部82Cは、垂直面向きと処置具の進行方向との成す角度が予め定められた範囲内である場合は、両者が一致する旨の報知情報118を生成する。また、導出部82Cは、垂直面向きと処置具の進行方向との成す角度が予め定められた範囲を超える場合は、両者が一致しない旨の報知情報118を生成する。
 以上説明したように、本第13変形例に係る十二指腸鏡システム10では、画像認識部82Bにおいて、垂直面向きと処置具の進行方向との関係が特定される。導出部82Cにおいて、垂直面向きと処置具の進行方向との関係を示す位置関係情報116Cに基づいて、報知情報118が生成される。これにより、腸壁画像41を観察しているユーザに対して、垂直面向きと処置具の進行方向との関係が如何なる関係なのかを知覚させることができる。
 (第14変形例)
 上記第4実施形態では、腸壁画像41に対して画像認識処理を行うことで処置具と乳頭Nとの位置関係を特定する形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第14変形例では、腸壁画像41に対して画像認識処理を行うことで、処置具と乳頭Nの位置関係に関する評価値が取得される。
 一例として図33に示すように、画像取得部82Aは、腸壁画像41をカメラ48から取得する毎に、FIFO方式で時系列画像群89を更新する。
 画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Mに入力する。これにより、学習済みモデル84Mは、入力された時系列画像群89に対応する評価値情報120を出力する。画像認識部82Bは、学習済みモデル84Mから出力された評価値情報120を取得する。ここで、評価値情報120は、乳頭Nと処置具との適切な配置に関する評価値を特定可能な情報(例えば、乳頭Nと処置具との配置に応じて定まる手技の成功度合い)である。評価値情報120は、例えば、学習済みモデル84Mの出力層の活性化関数(例えば、ソフトマックス関数等)に入力される複数のスコア(手技の成功又は不成功毎のスコア)である。
 学習済みモデル84Mは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、乳頭Nと処置具との適切な配置に関する評価値を特定可能なアノテーション(例えば、手技の成功又は不成功を示すアノテーション)が挙げられる。
 また、画像認識部82Bは、時系列画像群89を学習済みモデル84Nに入力する。これにより、学習済みモデル84Nは、入力された時系列画像群89に対応する接触有無情報122を出力する。画像認識部82Bは、学習済みモデル84Mから出力された接触有無情報122を取得する。ここで、接触有無情報122は、乳頭Nと処置具との接触有無を特定可能な情報である。
 学習済みモデル84Nは、ニューラルネットワークに対して教師データを用いた機械学習が行われることによってニューラルネットワークが最適化されることで得られる。教師データは、例題データと正解データとが対応付けられた複数のデータ(すなわち、複数フレームのデータ)である。例題データは、例えば、ERCP検査の対象となり得る部位(例えば、十二指腸の内壁)が撮像されることによって得られた画像(例えば、腸壁画像41に相当する画像)である。正解データは、例題データに対応するアノテーションである。正解データの一例としては、乳頭Nと処置具との接触有無を特定可能なアノテーションが挙げられる。
 導出部82Cは、画像認識部82Bから接触有無情報122を取得する。導出部82Cは、接触有無情報122に基づいて、処置具と乳頭Nとの接触が検出されたか否かを判定する。処置具と乳頭Nとの接触が検出された場合、導出部82Cは、評価値情報120に基づいて、報知情報124を生成する。報知情報124は、ユーザに対して手技の成功確率を報知するための情報(例えば、手技の成功確率を示すテキスト)である。
 一例として図34に示すように、表示制御部82Dは、導出部82Cから報知情報124を取得する。導出部82Cは、報知情報124を表示制御部82Dに対して出力する。この場合、表示制御部82Dは、報知情報124により示される手技の成功確率をユーザに報知する内容を含む表示画像94を生成する。図34に示す例では、表示装置13において、画面37に「カニューレ挿入成功確率:90%」とのメッセージが表示された例が示されている。
 以上説明したように、本第14変形例に係る十二指腸鏡システム10では、プロセッサ82の画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われ、処置具と乳頭Nの配置に関する評価値が算出される。導出部82Cにおいて、評価値を示す評価値情報120に基づいて、報知情報124が生成される。表示制御部82Dにおいて、報知情報124に基づいて、表示画像94が生成され、表示装置13に対して出力される。表示画像94には、報知情報124により示される手技の成功確率に関する表示が含まれている。これにより、腸壁画像41を観察しているユーザに対して、処置具を用いた手技の成功確率を報知することができる。ユーザは、手技の成功確率を把握したうえで、操作の継続、又は変更を検討することができるので、処置具を用いた手技の成功を支援することができる。
 また、本第14変形例に係る十二指腸鏡システム10では、画像認識部82Bにおいて、腸壁画像41に対して画像認識処理が行われ、処置具と乳頭Nの接触の有無が特定される。そして、導出部82Cにおいて、接触有無情報122に基づいて、処置具と乳頭Nとが接触した場合に、評価値情報120に基づいて報知情報124が生成される。これにより、腸壁画像41を観察しているユーザに対して、必要な場面でのみ処置具を用いた手技の成功確率を報知することができる。換言すれば、処置具を用いた乳頭Nに対する手技を適切なタイミングで支援することができる。
 <第5実施形態>
 上記第4実施形態では、腸壁画像41に対して画像認識処理を行うことにより処置具と乳頭Nとの位置関係が特定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第5実施形態では、処置具が切開器具である場合に、腸壁画像41に対する画像認識処理の結果に基づいて切開方向が得られる。
 例えば、ERCP検査において、処置具としての切開器具(例えば、パピロトミーナイフ)が用いられる場合がある。切開器具を用いて、乳頭Nを切り開くことで、処置具の乳頭Nへの挿入を容易にしたり、胆管T又は膵管S内の異物を取り除き易くしたりするためである。この場合において、切開器具により乳頭Nを切り開く方向(すなわち、切開方向)の選択を誤ると不用意な出血を伴う等、手技の成功が困難になる場合がある。そこで、本第5実施形態では、腸壁画像41に対して画像認識処理を行うことで、切開方向として推奨される方向(すなわち、切開推奨方向)が特定される。
 一例として図35に示すように、画像取得部82Aは、腸壁画像41をカメラ48から取得する毎に、FIFO方式で時系列画像群89を更新する。
 画像認識部82Bは、画像取得部82Aから時系列画像群89を取得し、取得した時系列画像群89を学習済みモデル84Eに入力する。これにより、学習済みモデル84Eは、入力された時系列画像群89に対応する隆起方向情報104を出力する。
 導出部82Cは、隆起方向情報104を、画像認識部82Bから取得する。そして、導出部82Cは、隆起方向情報104に基づいて、切開推奨方向情報126を導出する。切開推奨方向情報126は、切開推奨方向を特定可能な情報(例えば、切開推奨方向の始点及び終点の位置座標群)である。導出部82Cは、例えば、隆起方向RDと切開推奨方向との間の既定の方位関係から、切開推奨方向を導出する。具体的には、導出部82Cは、隆起方向RDを12時の方向とした場合において、切開推奨方向を11時の方向として導出する。
 一例として図36に示すように、表示制御部82Dは、導出部82Cから切開推奨方向情報126を取得する。表示制御部82Dは、切開推奨方向情報126により示される切開方向に基づいて、切開方向を示す画像である切開方向画像93Fを生成する。そして、表示制御部82Dは、切開方向画像93F及び腸壁画像41を含む表示画像94を生成し、表示装置13に出力する。図36に示す例では、表示装置13において、画面36に切開方向画像93Fが重畳表示された腸壁画像41が示されている。
 以上説明したように、本第5実施形態に係る十二指腸鏡システム10では、導出部82Cにおいて、切開推奨方向情報126が生成される。表示制御部82Dにおいて切開推奨方向情報126に基づいて、表示画像94が生成され、表示装置13に対して出力される。表示画像94には切開推奨方向情報126により示される切開推奨方向を示す切開方向画像93Fが含まれている。これにより、腸壁画像41を観察しているユーザに対して、切開推奨方向を把握させることができる。この結果、乳頭Nに対する切開の成功を支援することができる。
 (第15変形例)
 なお、上記第5実施形態では、切開推奨方向が特定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。本第15変形例では、切開方向として推奨されない方向(すなわち、切開非推奨方向)が特定されてもよい。
 一例として図37に示すように、導出部82Cは、切開非推奨方向情報127を導出する。切開非推奨方向情報127は、切開非推奨方向を特定可能な情報(例えば、切開推奨方向の以外の方向を示す角度)である。導出部82Cは、例えば、隆起方向RDと切開推奨方向との間の既定の方位関係から、切開推奨方向を導出する。具体的には、導出部82Cは、隆起方向RDを12時の方向とした場合において、切開推奨方向を11時の方向として導出する。そして、導出部82Cは、切開推奨方向を含む予め定められた角度範囲(例えば、切開推奨方向を中心として±5度の範囲)を除く範囲を切開非推奨方向として特定する。
 表示制御部82Dは、導出部82Cから切開非推奨方向情報127を取得する。表示制御部82Dは、切開非推奨方向情報127により示される切開非推奨方向に基づいて切開非推奨方向を示す画像である切開非推奨方向画像93Gを生成する。そして、表示制御部82Dは、切開非推奨方向画像93G及び腸壁画像41を含む表示画像94を生成し、表示装置13に出力する。図37に示す例では、表示装置13において、画面36に切開非推奨方向画像93Gが重畳表示された腸壁画像41が示されている。
 以上説明したように、本第15変形例に係る十二指腸鏡システム10では、導出部82Cにおいて、切開非推奨方向情報127が生成される。表示制御部82Dにおいて切開非推奨方向情報127に基づいて、表示画像94が生成され、表示装置13に対して出力される。表示画像94には切開非推奨方向情報127により示される切開非推奨方向を示す切開非推奨方向画像93Gが含まれている。これにより、腸壁画像41を観察しているユーザに対して、切開非推奨方向を把握させることができる。この結果、乳頭Nに対する切開の成功を支援することができる。
 なお、上記各実施形態では、ユーザに対して操作方向を示す態様として、操作方向を示す矢印の画像が画面36に表示される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、ユーザに対して操作方向を示す画像は、操作方向を示す三角形の画像でもよい。また、操作方向を示す画像に代えて、又は、画像と共に、操作方向を示すメッセージが表示される態様であってもよい。さらに、操作方向を示す画像は、画面36に表示されるのではなく、別のウィンドウ又は別の表示装置に表示される態様であってもよい。
 また、上記各実施形態では、胆管方向TDが示される形態例を挙げて説明したが、本開示の技術は、これに限定されない。胆管方向TDに代えて、又は、胆管方向TDと共に、膵管Sの走行方向が示される態様であってもよい。
 また、上記各実施形態では、表示装置13に各種情報が出力される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、表示装置13に代えて、又は、表示装置13と共にスピーカ(図示省略)等の音声出力装置に出力されてもよいし、プリンタ(図示省略)等の印刷装置に出力されてもよい。
 上記各実施形態では、各種情報が、表示装置13に対して出力され、これらの情報が表示装置13の画面36に表示される形態例を挙げて説明したが、本開示の技術はこれに限定されない。各種情報は、電子カルテサーバに対して出力される態様であってもよい。電子カルテサーバは、患者に対する診療結果を示す電子カルテ情報を記憶するためのサーバである。電子カルテ情報は、各種情報を含んでいる。
 電子カルテサーバは、ネットワークを介して十二指腸鏡システム10と接続されている。電子カルテサーバは、十二指腸鏡システム10から腸壁画像41及び各種情報を取得する。電子カルテサーバは、腸壁画像41及び各種情報を電子カルテ情報により示される診療結果の一部として記憶する。
 電子カルテサーバは、十二指腸鏡システム10以外の端末(例えば、診療施設内に設置されたパーソナル・コンピュータ)ともネットワークを介して接続されている。医師14等のユーザは、電子カルテサーバに記憶された腸壁画像41及び各種情報を、端末を介して入手することができる。このように、腸壁画像41及び各種情報が、電子カルテサーバに記憶されていることで、ユーザは、腸壁画像41及び各種情報を入手することができる。
 また、上記各実施形態では、腸壁画像41に対してAI方式の画像認識処理が実行される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、パターンマッチング方式の画像認識処理が実行されてもよい。
 上記実施形態では、画像処理装置25に含まれるコンピュータ76のプロセッサ82によって医療支援処理が行われる形態例を挙げて説明したが、本開示の技術はこれに限定さない。例えば、医療支援処理は、制御装置22に含まれるコンピュータ64のプロセッサ70によって行われてもよい。また、医療支援処理を行う装置は、十二指腸鏡12の外部に設けられていてもよい。十二指腸鏡12の外部に設けられる装置としては、例えば、十二指腸鏡12と通信可能に接続されている少なくとも1台のサーバ及び/又は少なくとも1台のパーソナル・コンピュータ等が挙げられる。また、医療支援処理は、複数の装置によって分散して行われるようにしてもよい。
 上記実施形態では、NVM84に医療支援処理プログラム84Aが記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、医療支援処理プログラム84AがSSD又はUSBメモリなどの可搬型の非一時的記憶媒体に記憶されていてもよい。非一時的記憶媒体に記憶されている医療支援処理プログラム84Aは、十二指腸鏡12のコンピュータ76にインストールされる。プロセッサ82は、医療支援処理プログラム84Aに従って医療支援処理を実行する。
 また、ネットワークを介して十二指腸鏡12に接続される他のコンピュータ又はサーバ等の記憶装置に医療支援処理プログラム84Aを記憶させておき、十二指腸鏡12の要求に応じて医療支援処理プログラム84Aがダウンロードされ、コンピュータ76にインストールされるようにしてもよい。
 なお、十二指腸鏡12に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はNVM84に医療支援処理プログラム84Aの全てを記憶させておく必要はなく、医療支援処理プログラム84Aの一部を記憶させておいてもよい。
 医療支援処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、医療支援処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで医療支援処理を実行する。
 医療支援処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、医療支援処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、医療支援処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、医療支援処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、医療支援処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の医療支援処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 2022年11月4日に出願された日本国特許出願2022-177613号の開示は、その全体が参照により本明細書に取り込まれる。

Claims (18)

  1.  プロセッサを備え、
     前記プロセッサは、
     内視鏡スコープが挿入される十二指腸の幾何特性を特定可能な幾何特性情報に基づいて前記十二指腸の腸管方向に関連する腸管方向関連情報を取得し、
     前記腸管方向関連情報を出力する
     医療支援装置。
  2.  前記腸管方向関連情報は、前記内視鏡スコープの姿勢と前記腸管方向とのずれ量を示すずれ量情報を含む
     請求項1に記載の医療支援装置。
  3.  前記幾何特性情報は、前記内視鏡スコープに設けられたカメラによって前記十二指腸の腸壁が撮像されることで得られた腸壁画像を含み、
     前記プロセッサは、前記腸壁画像に対して第1画像認識処理を実行することにより前記腸管方向関連情報を取得する
     請求項1に記載の医療支援装置。
  4.  前記腸管方向関連情報を出力することは、前記腸管方向関連情報を第1画面に表示することを含む
     請求項1に記載の医療支援装置。
  5.  前記腸管方向関連情報は、前記腸管方向と既定角度で交差する第1方向を特定可能な第1方向情報を含む
     請求項1に記載の医療支援装置。
  6.  前記第1方向情報は、前記内視鏡スコープに設けられたカメラによって前記十二指腸の腸壁が撮像されることで得られた腸壁画像に対して第2画像認識処理が実行されることにより得られる
     請求項5に記載の医療支援装置。
  7.  前記第1方向情報は、前記第2画像認識処理としてAI方式の画像認識処理が行われることによって閾値以上の確信度で得られた情報である
     請求項6に記載の医療支援装置。
  8.  前記プロセッサは、前記十二指腸に前記内視鏡スコープが挿入された状態での前記内視鏡スコープの姿勢を特定可能な姿勢情報を取得し、
     前記腸管方向関連情報は、前記姿勢の調整を支援する姿勢調整支援情報を含み、
     前記姿勢調整支援情報は、前記腸管方向と前記姿勢情報から特定される前記姿勢とのずれ量に基づいて定められた情報である
     請求項1に記載の医療支援装置。
  9.  前記腸管方向関連情報は、前記内視鏡スコープの姿勢を変えることにより前記内視鏡スコープに設けられたカメラの光軸方向を前記腸管方向に既定角度で交差する第2方向と一致させる条件を示す条件情報を含む
     請求項1に記載の医療支援装置。
  10.  前記条件は、前記光軸方向と前記第2方向とを一致させるために前記内視鏡スコープに対して行われる操作に関する操作条件を含む
     請求項9に記載の医療支援装置。
  11.  前記内視鏡スコープに設けられたカメラの光軸方向と前記腸管方向に既定角度で交差する第3方向とが一致した場合、
     前記腸管方向関連情報は、前記光軸方向と前記第3方向とが一致したことを報知する報知情報を含む
     請求項1に記載の医療支援装置。
  12.  前記プロセッサは、
     前記内視鏡スコープに設けられたカメラによって前記十二指腸の腸壁が撮像されることで得られた腸壁画像に対して第3画像認識処理を実行することにより十二指腸乳頭領域を検出し、
     前記十二指腸乳頭領域を第2画面に表示し、
     前記十二指腸乳頭領域の向きを示す乳頭向き情報であって、前記腸管方向関連情報に基づいて得られた乳頭向き情報を前記第2画面に表示する
     請求項1に記載の医療支援装置。
  13.  前記プロセッサは、
     前記内視鏡スコープに設けられたカメラによって前記十二指腸の腸壁が撮像されることで得られた腸壁画像に対して第4画像認識処理を実行することにより十二指腸乳頭領域を検出し、
     前記十二指腸乳頭領域を第3画面に表示し、
     前記十二指腸乳頭領域の開口に通じる管の走行方向を示す走行方向情報であって、前記腸管方向関連情報に基づいて得られた走行方向情報を前記第3画面に表示する
     請求項1に記載の医療支援装置。
  14.  前記管は、胆管又は膵管である
     請求項13に記載の医療支援装置。
  15.  前記幾何特性情報は、前記十二指腸の奥行の深度を示す深度情報を含み、
     前記腸管方向関連情報は、前記深度情報に基づいて取得される
     請求項1に記載の医療支援装置。
  16.  請求項1から請求項15の何れか一項に記載の医療支援装置と、
     前記内視鏡スコープと、を備える
     内視鏡。
  17.  内視鏡スコープが挿入される十二指腸の幾何特性を特定可能な幾何特性情報に基づいて前記十二指腸の腸管方向に関連する腸管方向関連情報を取得すること、及び
     前記腸管方向関連情報を出力することを含む
     医療支援方法。
  18.  コンピュータに、
     内視鏡スコープが挿入される十二指腸の幾何特性を特定可能な幾何特性情報に基づいて前記十二指腸の腸管方向に関連する腸管方向関連情報を取得すること、及び
     前記腸管方向関連情報を出力することを含む処理を実行させるためのプログラム。
PCT/JP2023/036269 2022-11-04 2023-10-04 医療支援装置、内視鏡、医療支援方法、及びプログラム WO2024095675A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022177613 2022-11-04
JP2022-177613 2022-11-04

Publications (1)

Publication Number Publication Date
WO2024095675A1 true WO2024095675A1 (ja) 2024-05-10

Family

ID=90930419

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/036269 WO2024095675A1 (ja) 2022-11-04 2023-10-04 医療支援装置、内視鏡、医療支援方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2024095675A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006230906A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 医用診断システム、医用診断装置及び内視鏡
JP6534193B2 (ja) * 2014-07-02 2019-06-26 コヴィディエン リミテッド パートナーシップ 実時間自動位置合わせフィードバック
JP2020062218A (ja) * 2018-10-17 2020-04-23 学校法人日本大学 学習装置、推定装置、学習方法、推定方法、およびプログラム
JP6797834B2 (ja) * 2015-05-22 2020-12-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 画像誘導手術のための位置合わせのシステム及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006230906A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 医用診断システム、医用診断装置及び内視鏡
JP6534193B2 (ja) * 2014-07-02 2019-06-26 コヴィディエン リミテッド パートナーシップ 実時間自動位置合わせフィードバック
JP6797834B2 (ja) * 2015-05-22 2020-12-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 画像誘導手術のための位置合わせのシステム及び方法
JP2020062218A (ja) * 2018-10-17 2020-04-23 学校法人日本大学 学習装置、推定装置、学習方法、推定方法、およびプログラム

Similar Documents

Publication Publication Date Title
CN106659373B (zh) 用于在肺内部的工具导航的动态3d肺图谱视图
US7659912B2 (en) Insertion support system for producing imaginary endoscopic image and supporting insertion of bronchoscope
US10092216B2 (en) Device, method, and non-transitory computer-readable medium for identifying body part imaged by endoscope
US20090292175A1 (en) Medical device
EP3777645A1 (en) Endoscope observation assistance device, endoscope observation assistance method, and program
KR20160086629A (ko) 영상유도 수술에서 수술부위와 수술도구 위치정합 방법 및 장치
WO2020242949A1 (en) Systems and methods for video-based positioning and navigation in gastroenterological procedures
CN113365545A (zh) 图像记录装置、图像记录方法和图像记录程序
CN114980793A (zh) 内窥镜检查辅助装置、内窥镜检查辅助装置的工作方法以及程序
US20230148847A1 (en) Information processing system, medical system and cannulation method
EP2777593A2 (en) Real time image guidance system
WO2024095675A1 (ja) 医療支援装置、内視鏡、医療支援方法、及びプログラム
WO2024095676A1 (ja) 医療支援装置、内視鏡、及び医療支援方法
WO2024095674A1 (ja) 医療支援装置、内視鏡、医療支援方法、及びプログラム
CN115089163A (zh) 呼吸信号检测方法及其装置、手术导航方法及其装置
WO2024095673A1 (ja) 医療支援装置、内視鏡、医療支援方法、及びプログラム
JP7260060B2 (ja) 情報処理装置、表示方法、及びプログラム
JP2021194268A (ja) 血管観察システムおよび血管観察方法
WO2024018713A1 (ja) 画像処理装置、表示装置、内視鏡装置、画像処理方法、画像処理プログラム、学習済みモデル、学習済みモデル生成方法、及び、学習済みモデル生成プログラム
WO2024048098A1 (ja) 医療支援装置、内視鏡、医療支援方法、及びプログラム
CN113317874A (zh) 一种医学图像处理装置及介质
JP2021194268A6 (ja) 血管観察システムおよび血管観察方法
WO2023175986A1 (ja) 内視鏡挿入支援システム、内視鏡挿入支援方法および記憶媒体
US20240065527A1 (en) Medical support device, endoscope, medical support method, and program
US20240000299A1 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23885438

Country of ref document: EP

Kind code of ref document: A1