WO2022239518A1 - プログラム、情報処理方法及び内視鏡システム - Google Patents

プログラム、情報処理方法及び内視鏡システム Download PDF

Info

Publication number
WO2022239518A1
WO2022239518A1 PCT/JP2022/014208 JP2022014208W WO2022239518A1 WO 2022239518 A1 WO2022239518 A1 WO 2022239518A1 JP 2022014208 W JP2022014208 W JP 2022014208W WO 2022239518 A1 WO2022239518 A1 WO 2022239518A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
image
child
information
distance
Prior art date
Application number
PCT/JP2022/014208
Other languages
English (en)
French (fr)
Inventor
明彦 西出
淳子 管井
Original Assignee
Hoya株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya株式会社 filed Critical Hoya株式会社
Publication of WO2022239518A1 publication Critical patent/WO2022239518A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Definitions

  • the present technology relates to a program, an information processing method, and an endoscope system.
  • This application claims priority based on Japanese Application No. 2021-081151 filed on May 12, 2021, and incorporates all the descriptions described in these Japanese applications.
  • An endoscope is a medical device that enables observation and treatment of a desired site by inserting it into the body cavity of a subject. and an illumination device that illuminates the imaging field of the imaging unit.
  • Patent Document 1 describes an endoscope apparatus for observing the inside of the bile duct, pancreatic duct, etc., which includes a parent scope having an insertion portion that can be inserted into the duodenum, and a child scope that is inserted into a forceps channel of the parent scope to reach the bile duct and pancreatic duct.
  • a parent-child scope type endoscopic device capable of observation and treatment is disclosed.
  • An object of one aspect is to provide a program or the like capable of acquiring the insertion distance of the child endoscope in an endoscope apparatus having a parent endoscope and a child endoscope.
  • a program transmits a child endoscope image of a subject from a child endoscope to a computer communicably connected to an endoscope apparatus including a parent endoscope and a child endoscope.
  • a three-dimensional image of the inside of the body of the subject acquiring information about an insertion distance of the child endoscope inserted into the body of the subject at the time when the image of the child endoscope is captured;
  • a medical image is acquired, and a process of associating the child endoscope image with the three-dimensional medical image is executed based on information regarding the insertion distance of the child endoscope.
  • An information processing method acquires a secondary endoscopic image of a subject from the secondary endoscope, and inserts the secondary endoscopic image into the body of the subject at the time when the secondary endoscopic image is captured. acquiring information on the insertion distance of the child endoscope that has been inserted, acquiring a three-dimensional medical image of the inside of the body of the subject, and obtaining the information on the insertion distance of the child endoscope, A computer is caused to execute a process of associating the endoscopic image with the three-dimensional medical image.
  • An endoscope system is an endoscope system that includes an endoscope device and a control unit that processes an endoscopic image output from the endoscope device, the endoscope system comprising:
  • the endoscope apparatus includes a parent endoscope, a child endoscope protruding from the distal end of the parent endoscope, and a detection unit provided on the distal end side of the parent endoscope for detecting the child endoscope.
  • a secondary endoscope measuring unit provided on the proximal end side of the primary endoscope for measuring a protruding distance of the secondary endoscope; and a primary endoscope measuring unit for measuring an insertion distance of the primary endoscope.
  • control unit acquires the insertion distance of the parent endoscope output from the parent endoscope measurement unit, and when the detection unit detects the child endoscope, the child endoscope
  • the protruding distance of the secondary endoscope measured by the mirror measuring unit is acquired, and the secondary endoscope inserted into the body of the subject is obtained based on the insertion distance of the primary endoscope and the protruding distance of the secondary endoscope.
  • deriving an insertion distance of the endoscope acquiring a secondary endoscopic image of the subject from the secondary endoscope, acquiring a three-dimensional medical image of the interior of the subject, The secondary endoscopic image and the three-dimensional medical image are associated based on information about the insertion distance of the scope.
  • FIG. 1 is a schematic diagram showing an overview of an endoscope system according to Embodiment 1.
  • FIG. It is a block diagram which shows the structural example of the endoscope apparatus contained in an endoscope system. It is a block diagram which shows the structural example of the information processing apparatus contained in an endoscope system.
  • Fig. 2 is a side cross-sectional view schematically showing a child endoscope and the like;
  • FIG. 4 is an explanatory diagram illustrating a data layout of an endoscopic image DB;
  • FIG. 10 is an explanatory diagram illustrating processing for outputting operation support information using an operation information learning model;
  • FIG. 10 is an explanatory diagram illustrating processing for outputting a degree of matching with a child endoscope image using a degree of matching learning model
  • 3 is a functional block diagram illustrating functional units included in a control unit of the information processing apparatus
  • FIG. 10 is an explanatory diagram showing a distance (S-coordinate value) at which the child endoscope is inserted
  • FIG. 4 is an explanatory diagram relating to a relationship between a child endoscope image and a three-dimensional medical image
  • 4 is a flow chart showing an example of a processing procedure by a control unit of an information processing device
  • FIG. 11 is an explanatory diagram for explaining a process of outputting diagnostic support information using a diagnostic support learning model according to Embodiment 2 (correction of secondary endoscopic image);
  • 3 is a functional block diagram illustrating functional units included in a control unit of the information processing apparatus;
  • FIG. 4 is a flow chart showing an example of a processing procedure by a control unit of an information processing device; 4 is a flowchart showing an example of a processing procedure for outputting diagnosis support information by a control unit of an information processing device;
  • FIG. 11 is a side cross-sectional view schematically showing a child endoscope and the like according to Embodiment 3 (rotation measuring section).
  • FIG. 11 is a block diagram showing a configuration example of an endoscope system according to Embodiment 4 (a processor for a parent endoscope and a processor for a child endoscope);
  • FIG. 1 is a schematic diagram showing an overview of an endoscope system S according to Embodiment 1.
  • the endoscope system S includes an endoscope device 10 and an information processing device 6 communicably connected to the endoscope device 10 .
  • the endoscope apparatus 10 transmits images (captured images) captured by the imaging elements 445 of the endoscopes (the master endoscope 40 and the child endoscope 401) to the endoscope processor 20, and transmits them to the endoscope processor 20.
  • the processor 20 performs various image processing such as gamma correction, white balance correction, shading correction, etc. to generate endoscopic images (main endoscopic image and secondary endoscopic image) that are easy for the operator to see. do.
  • the endoscope device 10 outputs (transmits) the generated endoscope image to the information processing device 6 .
  • the information processing device 6 that has acquired the endoscopic images transmitted from the endoscope device 10 performs various types of information processing based on these endoscopic images, and outputs information regarding diagnosis support.
  • the endoscope apparatus 10 is a parent-child type endoscope apparatus 10 including an endoscope processor 20 , a parent endoscope 40 , a child endoscope 401 and a display device 50 .
  • the display device 50 is, for example, a liquid crystal display device or an organic EL (Electro Luminescence) display device.
  • a parent endoscope image is captured by the parent endoscope 40 and a child endoscope image is captured by the child endoscope 401 .
  • the display device 50 is installed on the upper level of the storage shelf 16 with casters.
  • the endoscope processor 20 is housed in the middle stage of the housing shelf 16 .
  • the storage shelf 16 is arranged near an endoscopy bed (not shown).
  • the storage shelf 16 has a pull-out shelf on which the keyboard 15 connected to the endoscope processor 20 is mounted.
  • the endoscope processor 20 has a substantially rectangular parallelepiped shape, and includes a touch panel 25 on one side.
  • a reading unit 28 is arranged below the touch panel 25 .
  • the reading unit 28 is a connection interface for reading and writing a portable recording medium such as a USB connector, an SD (Secure Digital) card slot, or a CD-ROM (Compact Disc Read Only Memory) drive.
  • the master endoscope 40 has an insertion section 44 , an operation section 43 , a universal cord 49 for the master endoscope, and a scope connector 48 .
  • a control button 431 is provided on the operation unit 43 .
  • the insertion portion 44 is elongated, and one end thereof is connected to the operation portion 43 via a folding stop portion 45 .
  • the insertion portion 44 has a flexible portion 441 , a bending portion 442 and a tip portion 443 in order from the operation portion 43 side.
  • the bending portion 442 bends according to the operation of the bending knob 433 .
  • a physical detection device such as a three-axis acceleration sensor, a gyro sensor, a geomagnetic sensor, a magnetic coil sensor, or an endoscope insertion shape observation device (coronavi) is mounted in the insertion section 44, and the parent endoscope 40 is attached to the subject.
  • the detection results from these physical detection devices may be acquired when inserted into the body.
  • a forceps opening 435 is provided in the operation section 43 of the master endoscope 40 , and the child endoscope 401 is inserted into the master endoscope 40 through the forceps opening 435 . That is, the secondary endoscope 401 is inserted through a forceps opening channel (working channel) provided inside the primary endoscope 40 and protrudes from the distal end portion 443 of the primary endoscope 40 .
  • a forceps opening channel working channel
  • the master endoscope universal cord 49 is long, and the first end is connected to the operation section 43 and the second end is connected to the scope connector 48 .
  • the parent endoscope universal cord 49 is flexible.
  • the scope connector 48 has a substantially rectangular parallelepiped shape.
  • the scope connector 48 is provided with an air/water supply base 36 (see FIG. 2) for connecting an air/water supply tube.
  • the child endoscope universal cord 491 is also connected to the scope connector 48 in the same manner as the master endoscope universal cord 49 .
  • the parent endoscope universal cord 49 and the child endoscope universal cord 491 may be integrated for common use by the parent endoscope 40 and the child endoscope 401 .
  • the main endoscope processor 201 and the secondary endoscope processor 202 are divided into two processors, and the primary endoscope processor 201 and the secondary endoscope processor 202 communicate and exchange information. It may be based on a configuration that can be used. The configuration will be described later.
  • FIG. 2 is a block diagram showing a configuration example of an endoscope device included in the endoscope system.
  • the control unit 21 is an arithmetic control device that executes the program of this embodiment.
  • One or a plurality of CPUs (Central Processing Units), GPUs (Graphics Processing Units), multi-core CPUs, or the like is used for the control unit 21 .
  • the control unit 21 is connected to each hardware unit constituting the endoscope processor 20 via a bus.
  • the main storage device 22 is, for example, a storage device such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), flash memory, or the like.
  • the main storage device 22 temporarily stores information necessary during the process performed by the control unit 21 and the program being executed by the control unit 21 .
  • the auxiliary storage device 23 is, for example, a storage device such as an SRAM, a flash memory, or a hard disk, and has a larger capacity than the main storage device 22 .
  • the auxiliary storage device 23 stores, for example, captured images acquired from the parent endoscopic image and the child endoscopic image (parent captured image and child captured image), generated endoscopic images (parent endoscopic image, child endoscopic image) may be stored as intermediate data.
  • the communication unit 24 is a communication module or communication interface for communicating with the information processing device 6 via a network by wire or wirelessly. Or a wide area wireless communication module such as 4G, 5G.
  • the touch panel 25 includes a display section such as a liquid crystal display panel and an input section stacked on the display section.
  • the communication unit 24 may communicate with a CT device, an MRI device (see FIG. 8), an ultrasonic diagnostic device, or a storage device (not shown) that stores data output from these devices.
  • the display device I/F 26 is an interface that connects the endoscope processor 20 and the display device 50 .
  • the input device I/F 27 is an interface that connects the endoscope processor 20 and an input device such as the keyboard 15 or the like.
  • the light source 33 is a high luminance white light source such as a white LED or a xenon lamp.
  • the light source 33 is connected to the bus via a driver (not shown).
  • the control unit 21 controls turning on/off and change in brightness of the light source 33 .
  • Illumination light emitted from the light source 33 enters the optical connector 312 .
  • the optical connector 312 engages with the scope connector 48 and supplies illumination light to the parent endoscope 40 and the child endoscope 401 .
  • the light source 33 may be shared by the parent endoscope 40 and the child endoscope 401, or the light source 33 may be provided separately for the parent endoscope 40 and the child endoscope 401. It may be provided as the light source 33 .
  • As the light source 33 (endoscope light source) a light source LED may be attached to each tip portion of the parent endoscope 40 and the child endoscope 401 . This method does not require the use of an optical cable, and requires only a thin power line.
  • the pump 34 generates pressure for the air/water supply function of the parent endoscope 40 .
  • the pump 34 is connected to the bus via a driver (not shown).
  • the control unit 21 controls turning on and off of the pump 34 and changing the pressure.
  • the pump 34 is connected via a water tank 35 to an air/water supply base 36 provided on a scope connector 48 .
  • a fiber bundle, a cable bundle, an air supply tube, a water supply tube, etc. are inserted into the scope connector 48, the universal cord 49 for the parent endoscope, the universal cord 491 for the child endoscope, the operation section 43, and the insertion section 44.
  • the illumination light emitted from the light source 33 is emitted from illumination windows provided at the distal ends of the parent endoscope 40 and the child endoscope 401 via the optical connector 312 and the fiber bundle.
  • the range illuminated by the illumination light is imaged by the imaging devices provided at the distal ends of the parent endoscope 40 and the child endoscope 401, respectively.
  • Photographed images (parent photographed image and child photographed image) are transmitted from the imaging devices of the parent endoscope 40 and the child endoscope 401 to the endoscope processor 20 via the cable bundle and the electrical connector 311, respectively.
  • the control unit 21 of the endoscope processor 20 functions as an image processing unit 211 by executing programs stored in the main storage device 22 .
  • the image processing unit 211 performs various corrections such as gamma correction, white balance correction, shading correction, etc. on the captured images (master captured image and child captured image) output from the endoscopes (master endoscope 40 and child endoscope 401). Image processing is performed and output as endoscopic images (parent endoscopic image, secondary endoscopic image).
  • FIG. 3 is a block diagram showing a configuration example of an information processing device included in the endoscope system.
  • the information processing device 6 includes a control section 62 , a communication section 61 , a storage section 63 and an input/output I/F 64 .
  • the information processing device 6 is, for example, a server device, a personal computer, or the like.
  • the server device includes not only a single server device but also a cloud server device or a virtual server device configured by a plurality of computers.
  • the information processing device 6 may be provided as a cloud server located on an external network accessible from the endoscope processor 20 .
  • the control unit 62 has one or more CPU (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit) or other arithmetic processing unit with a timing function, and is stored in the storage unit 63.
  • CPU Central Processing Unit
  • MPU Micro-Processing Unit
  • GPU Graphics Processing Unit
  • Various information processing, control processing, etc. related to the information processing device 6 are performed by reading out and executing the program P.
  • the storage unit 63 includes SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), volatile storage areas such as flash memory, and non-volatile storage areas such as EEPROM or hard disk.
  • the storage unit 63 stores in advance a program P (program product) and data to be referred to during processing.
  • the program P (program product) stored in the storage unit 63 may be the program P (program product) read from the recording medium 632 readable by the information processing device 6 .
  • the program P (program product) may be downloaded from an external computer (not shown) connected to a communication network (not shown) and stored in the storage unit 63 .
  • the storage unit 63 stores entity files (neural network (NN) instance files) that constitute a plurality of learning models (91, 92), which will be described later. These entity files may be configured as part of the program P (program product). Furthermore, the storage unit 63 may store an endoscopic image DB 631 (DataBase), which will be described later.
  • the communication unit 61 is a communication module or a communication interface for communicating with the endoscope device 10 by wire or wirelessly, for example, a short-range wireless communication module such as wifi (registered trademark) or Bluetooth (registered trademark), or 4G , LTE, etc. is a wide area wireless communication module.
  • the communication unit 61 may communicate with a CT device, an MRI device (see FIG. 8), an ultrasonic diagnostic device, or a storage device (not shown) that stores data output from these devices.
  • the input/output I/F 64 for example, conforms to communication standards such as USB or DSUB, and is a communication interface for serial communication with external devices connected to the input/output I/F 64.
  • the input/output I/F 64 is connected to, for example, a display unit 7 such as a display and an input unit 8 such as a keyboard, and the control unit 62 outputs information based on an execution command or an event input from the input unit 8.
  • the processing result is output to the display unit 7 .
  • FIG. 4 is a side sectional view schematically showing the child endoscope 401 and the like.
  • the child endoscope 401 is inserted from the forceps opening 435 provided in the master endoscope 40, passes through the forceps opening channel (working channel), and enters the distal end portion 443 of the master endoscope 40.
  • the parent endoscope 40 is, for example, a duodenal endoscope and corresponds to a parent scope
  • the child endoscope 401 is, for example, a biliary endoscope and corresponds to a child scope.
  • the insertion section 44 (flexible tube) of the master endoscope 40 is provided with a master endoscope measuring section 400 configured by a roller encoder in, for example, a mouthpiece. Measure the S coordinate, which is the interpolated distance.
  • the master endoscope measurement unit 400 includes, for example, a temperature sensor, an optical sensor, a pressure sensor, a wetness sensor (electrode), and a humidity sensor.
  • the sensor is an optical sensor
  • the optical sensor is arranged inside the insertion section 44 (flexible tube), but it emits light even when the insertion section 44 (flexible tube) is inserted into the body. can receive light. Therefore, it is possible to determine that the portion where the optical sensor receives more light is outside the body, and the portion where less light is received is inside the body.
  • the control unit 21 of the endoscope processor 20 identifies the optical sensor at the boundary position, which is the insertion site of the body cavity, based on the signal obtained by the optical sensor. It is possible to derive the S coordinate (the S coordinate of the parent endoscope 40), which is the distance (length) of the flexible tube).
  • the master endoscope 40 is an upper endoscope, attach the master endoscope measurement unit 400 that contacts the insertion section 44 (flexible tube), and measure the distance at which the insertion section 44 (flexible tube) is inserted into the body.
  • the S coordinate which is the distance at which the master endoscope 40 is inserted into the body.
  • a mouthpiece or the like (roller encoder) that constitutes the master endoscope measurement unit 400 rotates as the insertion unit 44 (flexible tube) advances and retreats, and moves along with the distal end portion 443 of the master endoscope 40 inserted into the body.
  • the roller encoder is in electrical communication with the endoscope processor 20 and sends the measured distance to the endoscope processor 20 .
  • an optical or magnetic encoder may be used instead of the roller encoder.
  • the insertion distance of the endoscope can be measured by attaching the master endoscope measurement unit 400 equivalent to a mouthpiece to the anus.
  • the master endoscope measuring unit 400 (auxiliary device) for measuring the insertion distance of the master endoscope 40 is attached to the body cavity insertion site that is the entrance of the subject, the passage distance of the master endoscope 40 is measured.
  • the S coordinate which is the distance at which the parent endoscope 40 is inserted into the body, can be obtained.
  • Auxiliary devices may be measuring distance with a magnetic field scale, for example a linear scale on the insert (flexible tube) 44 and a linear head on the mouthpiece, or a parent with rollers.
  • the mouthpiece of the endoscope 40 It may be the mouthpiece of the endoscope 40 .
  • the master endoscope measurement unit 400 auxiliary device having rollers similar to the mouthpiece may be used.
  • a chip that records the insertion distance at regular intervals may be built in the insertion portion (flexible tube) 44 of the master endoscope 40 . From the S-coordinate information recorded by the chip obtained by the mouthpiece or the like, the endoscope processor 20 can acquire the S-coordinate, which is the distance at which the master endoscope 40 is inserted into the body.
  • a secondary endoscope configured by, for example, a roller encoder, a magnetic or optical linear encoder, or the like, similar to the primary endoscope measurement unit 400.
  • a measurement unit 402 is provided.
  • a detection unit 403 for detecting the child endoscope 401 (the child endoscope 401 A detection unit 403) is provided.
  • the detection unit 403 is composed of, for example, a non-contact sensor such as an optical sensor, a contact sensor, a contact switch, and the like, and outputs the presence or absence of the child endoscope 401 within the sensing range of the optical sensor as a detection result.
  • the detector 403 corresponds to insertion start detection means for detecting that the endoscope 401 has started to be inserted into the body from the end of the forceps opening channel (working channel).
  • the detection unit 403 When the distal end of the child endoscope 401 protrudes from the distal end portion 443 of the parent endoscope 40, the detection unit 403 outputs a detection result indicating that the child endoscope 401 is present. When the distal end of the child endoscope 401 does not protrude from the distal end portion 443 of the parent endoscope 40, the detection unit 403 outputs a detection result indicating that the child endoscope 401 is absent. When the distal end of the secondary endoscope 401 does not protrude from the distal end portion 443 of the primary endoscope 40, the detection section 403 may output no signal or the like.
  • the child endoscope 401 can be raised approximately 90 degrees from the parent endoscope 40 by the elevator 406 at the distal end portion 443 of the parent endoscope 40, and the parent endoscope 401 reaches the duodenum. From 40 the child endoscope 401 can enter the bile duct.
  • the S coordinate (SP) which is the distance at which the master endoscope 40 is inserted into the body, is output as the measurement result by the master endoscope measurement unit 400.
  • the secondary endoscope measuring unit 402 measures the distance by which the secondary endoscope 401 is inserted from the time when the detection result is output. is output as the projection distance (SC). That is, the projection distance (SC) indicates the length of the secondary endoscope 401 that protrudes from the distal end portion 443 of the primary endoscope 40 .
  • S coordinate (S) the distance at which the child endoscope 401 is inserted into the body
  • SP the distance at which the parent endoscope 40 is inserted into the body
  • Calculation of the S coordinate of the child endoscope 401 based on the S coordinate of the parent endoscope 40 and the protrusion distance of the child endoscope 401 is controlled by the control unit
  • FIG. 5 is an explanatory diagram exemplifying the data layout of the endoscopic image DB 631.
  • the endoscopic image DB 631 is stored in the storage unit 63 of the information processing device 6 and configured by database management software such as RDBMS (Relational DataBase Management System) installed in the information processing device 6 .
  • the endoscopic image DB 631 may be stored in a predetermined storage area accessible from the information processing device 6 such as a storage device communicably connected to the information processing device 6 .
  • the endoscope image DB 631 may be stored in the main storage device 22 of the endoscope device 10 .
  • the predetermined storage area includes the storage unit 63 of the information processing device 6 , the main storage device 22 of the endoscope device 10 , and a storage device accessible from the information processing device 6 or the endoscope device 10 .
  • the information processing device 6 may acquire the secondary endoscopic image, the inspection date and time, and the subject's attribute information output by the endoscope processor 20 and register them in the inspection result DB 631 .
  • the secondary endoscopic image, examination date and time, and subject attribute information directly output from the endoscope processor 20 may be directly registered in the examination result DB 631 .
  • the image table includes management items (metadata) such as subject ID, examination date and time, child endoscope image, frame number, S coordinate (insertion distance), three-dimensional medical image, viewpoint position, viewpoint direction, virtual Contains endoscopic images.
  • management items such as subject ID, examination date and time, child endoscope image, frame number, S coordinate (insertion distance), three-dimensional medical image, viewpoint position, viewpoint direction, virtual Contains endoscopic images.
  • the subject ID item (field) is for associating with the biometric attribute of the subject managed in the subject master table, and stores the ID value of each subject. .
  • the examination date and time item (field) stores the date and time when the subject having the subject ID underwent the endoscopic examination.
  • the item (field) of the child endoscopic image stores the child endoscopic image of the subject ID as object data.
  • the child endoscope image may be a still image in jpeg format with one frame, or a moving image in avi format with several frames.
  • the child endoscopic image item (field) may store information indicating the storage location (file path) of the child endoscopic image stored as a file.
  • the frame number of the video is stored in the frame number item (field).
  • the insertion distance of the child endoscope 401 at the time when the child endoscope image stored in the same record is captured is stored as the value of the S coordinate.
  • the insertion distance (S coordinate) of the child endoscope 401 is the length ( It is the value (distance) obtained by adding (SP + SC) the projecting distance (SC).
  • Items (fields) of three-dimensional medical images include CT devices (X-ray CT, X-ray cone beam CT), MRI devices (MRI-CT), and means capable of capturing three-dimensional images of the inside of the body, such as ultrasonic diagnostic devices.
  • CT devices X-ray CT, X-ray cone beam CT
  • MRI-CT Magnetic resonance Imaging-CT
  • means capable of capturing three-dimensional images of the inside of the body such as ultrasonic diagnostic devices.
  • a three-dimensional medical image in DICOM (Digital Imaging and Communications in Medicine) format for example, generated based on the data output from the is stored as object data.
  • information indicating the storage location (file path) of the three-dimensional medical image stored as a file may be stored.
  • the item (field) of the viewpoint position stores the coordinates in the body of the child endoscope 401 at the time when the child endoscope image was captured, that is, the coordinates in the coordinate system of the three-dimensional medical image. Derivation of the viewpoint position and the like will be described later.
  • the viewpoint direction item stores the orientation of the child endoscope 401 at the time when the child endoscope image was captured, that is, the rotation angle in the coordinate system of the three-dimensional medical image (coordinates in the body coordinate system). be. Derivation of the viewpoint direction and the like will be described later.
  • a virtual endoscopic image generated from a three-dimensional medical image is stored as object data in the item (field) of the virtual endoscopic image.
  • Information indicating the storage location (file path) of the virtual endoscopic image stored as a file may be stored.
  • a virtual endoscopic image is generated from a three-dimensional medical image in order to perform matching processing with a child endoscopic image. For example, the virtual endoscopic image that best matches the child endoscopic image It is registered in the same record as the endoscopic image. Generation of the virtual endoscopic image and the like will be described later.
  • child endoscope images are registered in the endoscope image DB 631, but this is not a limitation.
  • the image is registered.
  • the S coordinate of the master endoscope image is measured by the master endoscope measurement unit 400 such as a mouthpiece as described above.
  • the image table included in the endoscopic image DB 631 includes items (fields) of categories (parent/child) indicating whether the image is a parent endoscopic image or a child endoscopic image in the management items (metadata). to indicate whether the registered endoscopic image is a parent endoscopic image or a child endoscopic image.
  • the endoscopic image DB 631 manages a child endoscopic image table for registering child endoscopic images and a parent endoscopic image table for registering parent endoscopic images as separate tables.
  • the mirror image table and the parent endoscope image table may be associated, for example, by subject ID, examination date and time, and their S coordinates.
  • the parent endoscopic image and the child endoscopic image captured by the parent-child system endoscope apparatus 10 can be displayed. After associating with the mirror image, it can be further associated with the three-dimensional medical image and the virtual endoscopic image, and useful medical information can be provided to the doctor or the like who is the operator of the endoscope apparatus 10. .
  • FIG. 6 is an explanatory diagram illustrating processing for outputting operation support information using the operation information learning model 91.
  • the information processing device 6 uses distance image information and body cavity information included in a three-dimensional medical image, which will be described later, as problem data, and obtains the insertion direction, insertion amount, insertion speed, and target point coordinates indicating the insertion destination of the secondary endoscope 401.
  • a neural network operation information learning model 91
  • a neural network is constructed (generated) as an output.
  • the operation information learning model 91 learned using training data is expected to be used as a program module that is part of artificial intelligence software.
  • the operation information learning model 91 is used in the information processing device 6 having the control unit 62 (CPU, etc.) and the storage unit 63 as described above, and is executed by the information processing device 6 having the arithmetic processing capability. By doing so, a neural network system is constructed. That is, the control unit 62 of the information processing device 6 follows the command from the operation information learning model 91 stored in the storage unit 63 to extract the distance image information and the feature amount of the three-dimensional medical image input to the input layer. , and operation support information including the insertion direction of the child endoscope 401 is output from the output layer.
  • the input layer has multiple neurons that receive range image information and body cavity information included in the 3D medical image, and passes the input range image information and body cavity information included in the 3D medical image to the intermediate layer.
  • the distance image information is information derived based on the virtual endoscopic image corresponding to the acquired secondary endoscopic image, and is information regarding the distance between pixels in the virtual endoscopic image. be. Since the secondary endoscopic image and the corresponding virtual endoscopic image have the same body part region as the imaging region, the distance image information is related to the distance between pixels in the secondary endoscopic image. Corresponds to information.
  • the distance between pixels means the distance in the coordinate system of the three-dimensional medical image (in-vivo coordinate system). be.
  • the distance image information input to the operation information learning model 91 may be added with information regarding the viewpoint position and orientation of the secondary endoscope 401 .
  • the body cavity information included in the three-dimensional medical image is the shape of the body organ into which the child endoscope 401 is inserted (the shape of the organ) in the three-dimensional area including the imaging area of the virtual endoscopic image from which the depth image information is derived. inner wall shape), and the curved surface data may be composed of, for example, a polynomial approximation formula or a point set.
  • the intermediate layer has, for example, a single-phase or multi-layered structure consisting of a single or a plurality of fully connected layers, and each of a plurality of neurons included in the fully connected layer receives input range image information and body cavity information included in the three-dimensional medical image. Based on the value of , output information indicating activation or deactivation.
  • the information processing device 6 optimizes the parameters used for arithmetic processing in the intermediate layer using, for example, backpropagation or the like.
  • the output layer has one or a plurality of neurons that output operation support information including the insertion direction of the child endoscope 401, etc. Based on the information indicating the activation or deactivation of each neuron output from the intermediate layer, , to output the operation support information.
  • the operation support information including the insertion direction of the child endoscope 401 is, for example, a plurality of coordinates in the coordinate system (in vivo coordinate system) of the three-dimensional medical image through which the distal end of the child endoscope 401 sequentially passes in the insertion direction.
  • the coordinate values and rotation angles may be represented in vector form.
  • the operation support information may include a velocity component with respect to the amount of movement between adjacent coordinate values as the child endoscope 401 sequentially passes.
  • FIG. 7 is an explanatory diagram for explaining the process of outputting the degree of matching with the child endoscope image using the degree of matching learning model 92.
  • the information processing device 6 uses the child endoscopic image and the virtual endoscopic image as problem data, and learns based on training data in which information about the degree of matching between these two images is answer data.
  • a neural network (matching degree learning model 92) is constructed (generated) that receives virtual endoscopic images as an input and outputs information such as a value indicating the degree of matching between both images.
  • the degree-of-match learning model 92 learned using the training data is assumed to be used as a program module that is part of artificial intelligence software, similar to the operation information learning model 91 .
  • the input layer has multiple neurons that receive input of pixel values of child endoscopic images and virtual endoscopic images, and passes the input pixel values to the intermediate layer.
  • the intermediate layer has a plurality of neurons for extracting image feature amounts of the child endoscopic image and the virtual endoscopic image, and passes the extracted image feature amounts of both images to the output layer.
  • the output layer has one or more neurons that output information about the degree of matching, such as a value indicating the degree of matching between the input child endoscopic image and the virtual endoscopic image, and Information about the degree of matching is output based on the image feature amount of each image.
  • the intermediate layer includes a convolution layer that convolves the pixel value of each pixel input from the input layer, and a convolution layer that convolves the pixel value. It has a configuration in which mapping (compressing) pooling layers are alternately connected, and while compressing the pixel information of the child endoscopic image and the virtual endoscopic image, finally the child endoscopic image and the virtual endoscopic image Extract image features.
  • the output layer includes, for example, a fully connected layer and a softmax layer. In the fully connected layer, the cosine similarity is derived by the inner product of the feature amount vector by the image feature amount of each of the two images. Based on this, a value (probability value) indicating the degree of matching is derived and output as information on the degree of matching.
  • the matching degree learning model 92 may be constructed by performing transfer learning using the training data obtained by .
  • the secondary endoscopic images used as training data and the virtual endoscopic images corresponding to the endoscopic images are a large amount of result data of inspections of the secondary endoscope 401 and CT equipment, etc. performed at each medical institution. By using these result data, a large amount of training data for learning the matching degree learning model 92 can be generated.
  • the operation information learning model 91 and the matching degree learning model 92 are described as being neural networks (NN) such as CNN, but these learning models (91, 92) are not limited to NNs, and are SVMs. (Support Vector Machine), Bayesian network, regression tree, and other learning models (91, 92) constructed with other learning algorithms.
  • NN neural networks
  • SVM Serial Vector Machine
  • Bayesian network Bayesian network
  • regression tree and other learning models (91, 92) constructed with other learning algorithms.
  • the input data for these learning models is based on the child endoscope image, but the present invention is not limited to this.
  • the operation information learning model 91 and the matching degree learning model 92 can also be applied to input data based on parent endoscope images.
  • FIG. 8 is a functional block diagram illustrating functional units included in the control unit 62 of the information processing device 6.
  • the control unit 21 of the endoscope processor 20 (endoscope apparatus 10 ) functions as an image processing unit 211 by executing programs stored in the main storage device 22 .
  • the control unit 62 of the information processing device 6 obtains an acquisition unit 621; , a distance image information derivation unit 625 and an operation support information output unit 626 .
  • the image processing unit 211 of the endoscope processor 20 performs various types of image processing such as gamma correction, white balance correction, and shading correction on the image (captured image) output from the secondary endoscope 401 to obtain a secondary endoscope image. output as The image processing unit 211 outputs (transmits) to the information processing device 6 the generated secondary endoscopic image and the examination date and time based on the imaging time of the secondary endoscopic image. The image processing unit 211 may further output the subject ID input from the keyboard 15 to the information processing device 6 .
  • the image processing unit 211 calculates the insertion distance (S coordinate) of the master endoscope measuring unit 400 output from the master endoscope measuring unit 400 and the secondary endoscope measuring unit output from the secondary endoscope measuring unit 402. Based on the projection distances 402 , these distances may be calculated (added), and information regarding the insertion distance (S coordinate) of the child endoscope 401 may be output to the information processing device 6 .
  • the image processing unit 211 may superimpose information on the calculated insertion distance (S coordinate) of the secondary endoscope 401 on the secondary endoscope image and display it on the display device.
  • the acquisition unit 621 acquires the subject ID, the examination date and time, the secondary endoscope image, and the S coordinate (insertion distance) of the secondary endoscope 401 output by the endoscope processor 20 .
  • the S coordinate (insertion distance) of the child endoscope 401 is the length of the child endoscope 401 protruding from the distal end 443 of the parent endoscope 40 to the S coordinate (SP) of the parent endoscope 40 . It is the value (distance) obtained by adding (SP+SC) to (projection distance (SC)).
  • the acquisition unit 621 acquires the S coordinate (SP) of the parent endoscope 40 and the protrusion distance (SC) of the child endoscope 401 from the endoscope processor 20, and adds these distances (SP+SC ) to derive the S coordinate (insertion distance) of the child endoscope 401 and output it to another functional unit.
  • SP S coordinate
  • SC protrusion distance
  • the acquiring unit 621 is output from means capable of capturing a three-dimensional image of the inside of the body, such as a CT device, a cone-beam CT device, an MRI device, or an ultrasonic diagnostic device, which are communicably connected.
  • a three-dimensional medical image of the subject is acquired.
  • a three-dimensional medical image output from another inspection device capable of capturing a three-dimensional image of the inside of the body, such as a CT device, a cone beam CT device, an MRI device, an ultrasonic diagnostic device, etc., is sent to, for example, an external server (not shown).
  • the information processing device 6 accesses the external server and acquires the three-dimensional medical image of the subject based on the subject ID output from the endoscope processor 20. It may be something to do.
  • Three-dimensional medical images are represented by volume data composed of tomographic image data output from means capable of capturing three-dimensional images of the inside of the body, such as CT equipment, cone-beam CT equipment, MRI equipment, and ultrasonic diagnostic equipment. and an image represented by volume data output from a Multi Slice CT device and an X-ray cone-beam CT device using an X-ray flat panel.
  • X-ray CT equipment or cone beam CT equipment for example, dual energy imaging is performed by X-ray CT, and the composition (body composition) of each pixel in the three-dimensional medical image is known from the effective mass number (effective-Z). It may be When an MRI apparatus is used, an image to which information on the composition (body composition) of each pixel of a three-dimensional medical image such as fat or lactic acid is added may be used.
  • the acquisition unit 621 outputs the acquired S coordinates of the child endoscope 401 to the viewpoint position derivation unit 622 .
  • the viewpoint position deriving unit 622 calculates the coordinates of the three-dimensional medical image (coordinates in the body coordinate system) corresponding to the S coordinates, that is, the child endoscopic image at the time when the child endoscopic image was captured.
  • a viewpoint position where the tip of the mirror 401 is located is derived.
  • FIG. 9 is an explanatory diagram showing the distance (S coordinate value) at which the child endoscope 401 is inserted.
  • digestive organs and the like photographed by the master endoscope 40 and the child endoscope 401 are represented by three-dimensional shapes using three-dimensional medical images.
  • a space is formed inside the inner wall of the digestive organ or the like, and the space serves as an insertion path through which the parent endoscope 40 and the child endoscope 401 are inserted.
  • Each of the S coordinates which are the insertion distances of the parent endoscope 40 and the child endoscope 401, is inside the insertion path (inside the inner wall of the digestive organ or the like), and the path length of the inserted path is the insertion distance. It becomes a place that is approximately equal to the distance.
  • the viewpoint position derivation unit 622 outputs information regarding the derived viewpoint position of the child endoscope 401 to the virtual endoscope image generation unit 623 .
  • the acquisition unit 621 outputs the acquired three-dimensional medical image to the virtual endoscopic image generation unit 623.
  • the virtual endoscopic image generation unit 623 generates a virtual endoscopic image based on the obtained three-dimensional medical image and the viewpoint position obtained from the viewpoint position derivation unit 622 .
  • a virtual endoscopic image is generated (reconstructed) based on a three-dimensional medical image obtained by X-ray CT, MRI, or X-ray cone-beam CT obtained by imaging tubular organs such as the trachea and bronchi or the intestine, and It is an image showing the inside of an imaged organ (inside a body cavity) with a virtual endoscope.
  • a virtual endoscopic image of the large intestine is generated (reconstructed) by performing CT imaging with air in the large intestine and performing volume rendering from the inside of the large intestine on the three-dimensional medical image obtained by the imaging. can be anything.
  • the virtual endoscopic image generation unit 623 extracts voxel data of organs within the subject from the acquired three-dimensional medical image.
  • organs include the duodenum, bile duct, large intestine, small intestine, kidney, bronchi, and blood vessels, but are not limited to these and may be other organs.
  • a method for extracting the large intestine region specifically, first, based on a three-dimensional medical image, multiple axial tomographic images of cross sections perpendicular to the body axis (axial) are reconstructed, and For each axial tomographic image, the boundary between the body surface and the body is obtained by using the X-ray CT value based on the X-ray absorption coefficient as a threshold by a known method, and processing is performed to separate the outside and the body regions based on the body surface. .
  • the reconstructed axial tomographic image is subjected to binarization processing using an X-ray CT value, a contour is extracted by contour extraction processing, and the inside of the extracted contour is extracted as an intracorporeal (human body) region.
  • binarization processing is performed on the axial tomographic image of the body region using a threshold value, and candidates for the region of the large intestine are extracted from each axial tomographic image.
  • a threshold corresponding to the CT value of air for example, -600 HU (Hounsfield Unit) or less
  • each axial position is An air region in the body of the tomographic image is extracted as a large intestine region candidate.
  • the virtual endoscopic image generation unit 623 projects voxel data on a plurality of light beam directions radially extended around a line-of-sight vector based on a rotation angle set as a viewpoint position and a line-of-sight direction onto a predetermined projection plane. Then, the image by the central projection is reconstructed as a virtual endoscopic image.
  • a specific method of central projection for example, a known volume rendering technique can be used.
  • the virtual endoscopic image generation unit 623 generates, for example, a viewing direction, that is, a rotation angle ( ⁇ x, .THETA.y, .THETA.z) are changed by a predetermined unit amount, for example, 1.degree., and a plurality of candidate virtual endoscopic images are sequentially generated. That is, the virtual endoscopic image generation unit 623, for example, rotates the inner wall of the digestive organ from the viewpoint position inside the digestive organ specified in the three-dimensional medical image by a plurality of rotation angles set as the viewpoint direction.
  • a plurality of virtual endoscopic images may be generated by projecting (projecting) the three-dimensional shape by.
  • the virtual endoscopic image generation unit 623 associates the plurality of generated virtual endoscopic images with the viewing direction (rotation angle) used when generating the virtual endoscopic images, and the matching degree determination unit 624 output to
  • the acquisition unit 621 outputs the acquired secondary endoscope image to the matching degree determination unit 624 .
  • the degree-of-match determination unit 624 determines the obtained secondary endoscopic image, the plurality of virtual endoscopic images obtained from the virtual endoscopic image generating unit 623, and the viewpoint direction used when generating the virtual endoscopic image. (rotation angle), the virtual endoscopic image that best matches the acquired child endoscopic image, and the viewpoint direction (rotation angle) used to generate the best matching virtual endoscopic image. Identify.
  • the degree-of-match determination unit 624 derives the degree of matching between the child endoscopic image and the virtual endoscopic image by comparing the obtained child endoscopic image with each of the plurality of virtual endoscopic images.
  • the degree-of-match determination unit 624 includes a degree-of-match learning model 92 that outputs information such as a value indicating the degree of match between the input child endoscopic image and the virtual endoscopic image.
  • the matching degree determination unit 624 inputs the acquired secondary endoscopic image and virtual endoscopic image to the matching degree learning model 92, and the value (probability value) indicating the degree of matching output by the matching degree learning model 92 also The virtual endoscopic image with the highest value may be output as the virtual endoscopic image corresponding to the child endoscopic image.
  • the degree-of-match determination unit 624 is not limited to including the degree-of-match learning model 92.
  • the matching degree determination unit 624 determines a match using an index that correlates the shadow image of the secondary endoscopic image and the shadow image of the virtual endoscopic image. It may be one that measures the degree. In order to quantitatively see the degree of matching between the virtual endoscopic image and the secondary endoscopic image, the degree of matching may be determined by looking at the degree of correlation of the shadow image information obtained from the luminance information. Alternatively, the degree-of-match determination unit 624 may compare degrees of similarity between the plurality of configured virtual endoscopic images and the child endoscopic image.
  • the similarity comparison between both images is performed by known image processing, and either matching at the level of pixel data or matching at the level of features extracted from the images may be used.
  • the virtual endoscopic image identified by the degree-of-match determining unit 624 as having the highest degree of matching with the child endoscopic image and the viewpoint direction (rotation angle) used to generate the virtual endoscopic image are It may be one registered in the scope image DB.
  • the degree-of-match determination unit 624 determines the virtual endoscopic image identified as having the highest degree of matching with the child endoscopic image, and the viewpoint position and direction (rotation angle) used to generate the virtual endoscopic image. , to the distance image information derivation unit 625 .
  • the degree-of-match determination unit 624 identifies a virtual endoscopic image that most closely matches the acquired secondary endoscopic image, but is not limited to this.
  • the degree-of-match determination unit 624 may specify a virtual endoscopic image with a degree of match equal to or greater than a predetermined value as a virtual endoscopic image that can be viewed substantially the same as the acquired secondary endoscopic image. .
  • a virtual endoscopic image whose degree of matching is equal to or greater than a predetermined value it is unnecessary to perform a full comparison with all the virtual endoscopic images generated as candidates, and the computational load on the information processing device 6 is reduced. And reduction of processing time can be aimed at.
  • the degree-of-match determination unit 624 determines a virtual endoscopic image that has the smallest difference (difference index) from the acquired secondary endoscopic image to be substantially the same as the acquired secondary endoscopic image. It may be specified as a mirror image.
  • the difference (difference index) between the secondary endoscopic image and the virtual endoscopic image corresponds to the reciprocal of the degree of matching between the endoscopic image and the virtual endoscopic image.
  • the matching degree determination unit 624 regenerates and reproduces a plurality of virtual endoscopic images using the viewpoint position obtained by finely modifying the viewpoint position acquired from the viewpoint position deriving unit 622.
  • the degree of matching between the plurality of virtual endoscopic images formed and the child endoscopic image may be derived, and the virtual endoscopic image with the highest degree of matching may be specified.
  • the distance image information derivation unit 625 derives distance image information based on the virtual endoscopic image acquired from the degree-of-match determination unit 624 .
  • the distance image information is information about the distance between pixels in the virtual endoscopic image.
  • the distance between pixels means the distance in the coordinate system of the three-dimensional medical image (in-vivo coordinate system).
  • a virtual endoscopic image is a two-dimensional image obtained by projectively transforming a three-dimensional medical image, and arbitrary points in the virtual endoscopic image correspond to points in the three-dimensional medical image. indicates the same position in the body site.
  • An arbitrary point in the virtual endoscopic image may be a pixel number (pixel coordinate) that is the minimum unit in the image, or a local area (composed of a plurality of pixels) that specifies a predetermined body part, for example. region).
  • Two points in the three-dimensional medical image are specified from two points in the virtual endoscopic image.
  • the distance and vector between the two points can be derived based on the coordinate values of the two points in the specified three-dimensional medical image.
  • a distance image i.e. A virtual endoscopic image (distance image) to which distance information in the coordinate system of the three-dimensional medical image is added to the virtual endoscopic image can be generated.
  • the distance image information derivation unit 625 may output a virtual endoscopic image (distance image) to which information about the distance between pixels is added as distance image information. Further, the distance image information derivation unit 625 may add the viewpoint position and direction of the child endoscope 401 used to generate the virtual endoscope image and output the same.
  • a child endoscope image is a virtual image reconstructed (generated) from a three-dimensional medical image based on the position (viewpoint position) and imaging direction (viewpoint direction) of the child endoscope 401 that captured the child endoscope image.
  • the distance image information based on the virtual endoscopic image corresponding to the secondary endoscopic image can also be applied to the secondary endoscopic image. That is, the distance between two points in the secondary endoscopic image is the distance between the two points in the virtual endoscopic image corresponding to the secondary endoscopic image (the distance in the distance image, and is the coordinate system of the three-dimensional medical image). distance).
  • the distance image information contained in the distance image (virtual endoscopic image) to the secondary endoscopic image, the distance between the internal body parts contained in the secondary endoscopic image, the size of the internal body part, etc. distance information (distance image information in the secondary endoscopic image) can be determined.
  • the operation support information output unit 626 acquires the distance image information output from the distance image information derivation unit 625 and the viewpoint position and direction (rotation angle) of the child endoscope 401 .
  • the operation support information output unit 626 acquires the three-dimensional medical image output from the acquisition unit 621 and extracts body cavity information included in the three-dimensional medical image.
  • the body cavity information included in the three-dimensional medical image refers to, for example, the inside of the body into which the child endoscope 401 is inserted in the three-dimensional area including the imaging area of the virtual endoscopic image from which the distance image information is derived. This is curved surface data representing the shape of an organ or the like (inner wall shape of the organ).
  • the operation support information output unit 626 operates the secondary endoscope 401 based on the input distance image information, the viewpoint position and direction of the secondary endoscope 401, and the body cavity information included in the three-dimensional medical image indicated by the curved surface data. It includes an operation information learning model 91 that outputs operation support information including the direction of entry and the like.
  • the operation support information output unit 626 inputs the acquired distance image information, the viewpoint position and direction of the secondary endoscope 401, and the body cavity information included in the three-dimensional medical image represented by the curved surface data to the operation information learning model 91. , and acquires operation support information including the entering direction of the child endoscope 401 output from the operation information learning model 91 .
  • the operation support information output from the operation information learning model 91 is, for example, the target point indicating the insertion destination from the viewpoint position and direction of the child endoscope 401 at the current point in time, that is, at the time when the image of the child endoscope is captured. It includes information on the insertion direction, insertion amount, or insertion speed of the child endoscope 401 up to.
  • the operation support information includes a plurality of coordinates in a coordinate system (in-vivo coordinate system) of a three-dimensional medical image through which the distal end portion 443 of the secondary endoscope 401 sequentially passes from the viewpoint position of the secondary endoscope 401 to the target point. Values and rotation angles may be represented in vector or matrix format.
  • the operation support information output section 626 may perform correction according to the hardness of the insertion section (flexible tube) 44 when deriving the coordinate values of the path points, and derive the coordinate values.
  • the operation support information output unit 626 acquires the child endoscope image output from the acquisition unit 621, for example, generates image data in which the operation support information is superimposed on the child endoscope image, and outputs it to the display unit 7. do.
  • the display unit 7 displays a secondary endoscopic image in which the operational support information is superimposed on the secondary endoscopic image based on the image data acquired from the operational support information output unit 626 .
  • Information about the viewpoint position and orientation of is associated and stored in the endoscopic image DB. That is, the control unit of the information processing apparatus functions as a DB registration unit, and registers and saves various images, information, or data acquired or derived by the acquisition unit 621 and the matching degree determination unit 624 in the endoscopic image DB.
  • the information or data registered in the endoscopic image DB is not limited to data relating to secondary endoscopic images, but also includes data relating to parent endoscopic images captured by the parent endoscope 40 .
  • Each functional unit such as the acquisition unit 621 performs the same processing as that for the child endoscope image on the master endoscope image captured by the master endoscope 40 .
  • FIG. 10 is an explanatory diagram regarding the relationship between the child endoscope image and the three-dimensional medical image.
  • the relationships among the three-dimensional medical image, the virtual endoscopic image, and the secondary endoscopic image are expressed in an object-oriented manner.
  • the three-dimensional medical images, virtual endoscopic images, and secondary endoscopic images registered in the endoscopic image DB 631 are the viewpoint positions of the secondary endoscope 401 at the time when the secondary endoscopic images are captured. , are associated based on the viewing direction.
  • the viewpoint position corresponds to the coordinates (x, y, z) in the coordinate system (in-body coordinate system) of the three-dimensional medical image.
  • the viewpoint direction corresponds to the rotation angles ( ⁇ x, ⁇ y, ⁇ z) on the x-, y-, and z-axes in the coordinate system (internal coordinate system) of the three-dimensional medical image.
  • Each pixel of the secondary endoscopic image corresponds to each pixel of the virtual endoscopic image (the virtual endoscopic image that best matches the secondary endoscopic image).
  • a virtual endoscopic image is an image generated by projecting (projecting) a 3D medical image, starting from the position of the viewpoint, through vector conversion using a viewpoint vector defined by the direction of the viewpoint (rotation angle). , and the coordinates in the coordinate system (in-vivo coordinate system) of the three-dimensional medical image are determined by the pixels of the virtual endoscopic image.
  • each pixel in the virtual endoscopic image corresponds to each pixel in the child endoscopic image.
  • Coordinates in a coordinate system (in-vivo coordinate system) of a three-dimensional medical image of the body part included in the endoscopic image can be determined. That is, by using the virtual endoscopic image as an intermediate medium, it is possible to associate the pixels of the secondary endoscopic image (internal part) with the coordinates in the coordinate system of the three-dimensional medical image (internal coordinate system).
  • the color information and narrowband pixel information of the pixels of the secondary endoscopic image may be added to the 3D medical image, and the 3D medical image may be registered in the endoscopic image DB 631 .
  • pixel information of the child endoscope image such as color information is to be added to the three-dimensional medical image
  • the distance between the pixel of the child endoscope image and the viewpoint position (the point of the imaging light source 446) is derived on the coordinate system of the three-dimensional medical image. Therefore, the lightness included in the pixel information of the child endoscope image may be corrected based on the reciprocal of the square of the derived distance.
  • the composition of each pixel of the three-dimensional medical image can be used as an image.
  • an image may be provided with information on the composition (body composition) of each pixel of a three-dimensional medical image such as fat or lactic acid.
  • body composition such as effective mass number (effective-Z)
  • effective-Z effective mass number
  • fat or lactic acid By adding information about body composition such as effective mass number (effective-Z), fat or lactic acid to the composition of each pixel of the three-dimensional medical image in this way, the added information and the three-dimensional medical image It is possible to provide a doctor or the like with information associated with the child endoscopic image associated with the coordinates specified by each pixel.
  • FIG. 11 is a flowchart showing an example of a processing procedure by the control unit 62 of the information processing device 6.
  • FIG. The information processing device 6 starts the processing of the flowchart, for example, based on the input content from the input unit 8 connected to the device itself.
  • the control unit 62 of the information processing device 6 acquires the examination date and time, the subject ID, the secondary endoscope image, and the information on the insertion distance output from the endoscope processor 20 (S101).
  • the child endoscope image that the control unit 62 acquires from the endoscope processor 20 may be a still image or a moving image.
  • the control unit 62 acquires information about the insertion distance (S coordinate) of the secondary endoscope 401, examination date and time (time and date of capturing the secondary endoscope image), subject ID, and the like. Acquire subject attribute information.
  • the control unit 62 of the information processing device 6 acquires a three-dimensional medical image output from an inspection device capable of capturing three-dimensional images of the inside of the body, such as a CT device, MRI device, or ultrasonic diagnostic device (S102).
  • a three-dimensional medical image is obtained by connecting the information processing device 6 to an examination device capable of taking three-dimensional images of the inside of the body, such as a CT device, an MRI device, and an ultrasonic diagnostic device, so as to be able to communicate with each other. There may be.
  • a three-dimensional medical image output from an inspection device capable of capturing three-dimensional images of the inside of the body is already stored in, for example, an external server (not shown).
  • the information processing device 6 accesses the external server and acquires a three-dimensional medical image of the subject based on the subject ID output from the endoscope processor 20. good.
  • the endoscope processor 20 is communicably connected to an inspection device capable of capturing three-dimensional images of the interior of the body, such as a CT device, an MRI device, or an ultrasonic diagnostic device, and the control unit 62 of the information processing device 6 may acquire three-dimensional medical images such as a CT device, an MRI device, or an ultrasonic diagnostic device that can capture a three-dimensional image of the inside of the body via the endoscope processor 20 .
  • an inspection device capable of capturing three-dimensional images of the interior of the body
  • the control unit 62 of the information processing device 6 may acquire three-dimensional medical images such as a CT device, an MRI device, or an ultrasonic diagnostic device that can capture a three-dimensional image of the inside of the body via the endoscope processor 20 .
  • the control unit 62 of the information processing device 6 derives the viewpoint position based on the insertion distance (S coordinate) (S103). Based on the insertion distance (S coordinate) of the child endoscope 401 and the three-dimensional medical image acquired via the endoscope processor 20, the control unit 62 determines the digestive organ or the like into which the child endoscope 401 is inserted. The coordinates of the distal end of the child endoscope 401 located inside the inner wall are derived.
  • the S coordinate (insertion distance) of the child endoscope 401 is the length of the child endoscope 401 protruding from the distal end 443 of the parent endoscope 40 to the S coordinate (SP) of the parent endoscope 40 .
  • the coordinates of the distal end of the daughter endoscope 401 are coordinates in a three-dimensional medical image coordinate system (in-vivo coordinate system) set with a predetermined point as the origin.
  • the control unit 62 of the information processing device 6 generates a plurality of candidate virtual endoscopic images based on the viewpoint position (S104). Starting from the viewpoint position corresponding to the coordinates of the distal end of the secondary endoscope 401, the control unit 62 changes the viewpoint direction, that is, the rotation angle ( ⁇ x, ⁇ y, ⁇ z) in the coordinate system of the three-dimensional medical image by a predetermined unit amount.
  • a plurality of candidate virtual endoscopic images are sequentially generated by changing the virtual endoscopic images one by one. For example, when the predetermined unit amount is 10°, the control unit 62 has 36 resolutions for the rotation angle of each axis, that is, 36 to the power of 36 (46656) candidate virtual endoscopic images. may be generated.
  • the control unit 62 of the information processing device 6 identifies the virtual endoscopic image that has the highest degree of matching with the child endoscopic image among the plurality of generated virtual endoscopic images (S105).
  • the control unit 62 identifies the virtual endoscopic image that has the highest degree of matching with the daughter endoscopic image using, for example, the matching degree learning model 92 .
  • the degree of matching may be measured using an index that correlates the shadow image of the secondary endoscopic image and the shadow image of the virtual endoscopic image.
  • the control unit 62 specifies the virtual endoscopic image with the highest degree of matching and the viewpoint position and direction (rotation angle) when generating the virtual endoscopic image.
  • the control unit 62 of the information processing device 6 derives distance image information from the acquired virtual endoscopic image and the like (S106).
  • the control unit 62 derives distance image information, which is information regarding the distance between pixels in the virtual endoscopic image.
  • the control unit 62 of the information processing device 6 outputs operation support information based on the distance image information and the body cavity information included in the three-dimensional medical image (S107).
  • the control unit 62 detects the body cavity information contained in the acquired three-dimensional medical image in a three-dimensional area including the imaging area of the virtual endoscopic image from which the range image information is derived, where the secondary endoscope 401 is inserted. Curved surface data representing the shape of an internal organ (inner wall shape of the organ) is extracted.
  • the control unit 62 inputs the extracted curved surface data, the distance image information, and the information indicating the position and orientation of the secondary endoscope 401 to the operation information learning model 91, and uses the operation support information output by the operation information learning model 91 as input. Output.
  • the control unit 62 When outputting the operation support information, the control unit 62 generates image data in which the operation support information is superimposed on the child endoscope image, the virtual endoscope image, or the three-dimensional medical image, and displays the operation support information on the display unit, for example. It may be one that outputs image data.
  • the display unit displays a secondary endoscopic image, a virtual endoscopic image, or a three-dimensional medical image on which operation support information is superimposed based on image data output from the control unit 62 of the information processing device 6 .
  • the operation support information superimposed on the secondary endoscope image, the virtual endoscope image, or the three-dimensional medical image includes the insertion direction, insertion amount, insertion speed, and target point coordinates indicating the insertion destination of the secondary endoscope 401. Since information related to the information is included, it is possible to provide useful information to the operator of the child endoscope 401 such as a doctor, thereby contributing to diagnosis support for the doctor or the like.
  • the control unit 62 of the information processing device 6 uses, for example, an X-ray CT, an X-ray cone beam CT, an MRI-CT, and an ultrasonic diagnostic device to perform three-dimensional imaging of the inside of the subject's body.
  • a medical image is acquired, and position information in the coordinate system of the three-dimensional medical image is derived based on information on the insertion distance of the child endoscope 401 . Therefore, even in the parent-child type endoscope apparatus 10 including the parent endoscope 40 and the child endoscope 401 , the child endoscope 401 image is similar to the image of the parent endoscope 40 captured by the parent endoscope 40 .
  • the child endoscope 401 image captured by the image can be associated with the three-dimensional medical image.
  • the control unit 62 of the information processing device 6 adds the projection distance of the child endoscope 401 projecting from the distal end portion 443 of the master endoscope 40 to the insertion distance of the master endoscope 40 in the subject's body.
  • the insertion distance of the child endoscope 401 in the body is derived, so the insertion distance of the child endoscope 401 can be efficiently calculated.
  • the control unit 62 of the information processing device 6 controls the child endoscope 401 image based on the distance image information included in the virtual endoscopic image generated from the three-dimensional medical image associated with the child endoscope 401 image. Since the operation support information regarding the operation of the endoscope 401 is output, useful information can be provided to the operator of the endoscope apparatus 10 such as a doctor.
  • FIG. 12 is an explanatory diagram illustrating processing for outputting diagnostic support information using a diagnostic support learning model according to the second embodiment (correction of secondary endoscopic image).
  • the information processing device 6 uses the secondary endoscopic image as question data, and diagnostic support information including at least one of the presence or absence of a lesion, the type of lesion symptom, the stage of the lesion symptom, and the location of the lesion as response data.
  • a child constructs (generates) a neural network that takes child endoscopic images as input and outputs diagnostic support information including the presence or absence of lesions.
  • the child endoscopic image includes, for example, an internal site where a lesion is suspected.
  • Presence/absence of lesion, type of symptom, stage of symptom, and location of lesion are information on presence/absence of lesion or probability value, type of symptom, stage of symptom, and location of lesion related to body parts included in secondary endoscopic images. is.
  • the secondary endoscopic image input to the diagnostic support learning model 93 is derived from the virtual endoscopic image corresponding to the secondary endoscopic image (the virtual endoscopic image that best matches the secondary endoscopic image). It may be a child endoscope image whose feature parameters are corrected based on the obtained distance image information. Correction of feature parameters based on the distance image information will be described later.
  • the neural network (diagnostic support learning model 93) learned using training data is expected to be used as a program module that is part of artificial intelligence software.
  • the diagnosis support learning model 93 is used in the information processing device 6 having the control unit 62 (CPU, etc.) and the storage unit 63 as described above, and is executed by the information processing device 6 having the arithmetic processing capability. By doing so, a neural network system is constructed. That is, the control unit 62 of the information processing device 6 performs an operation for extracting the feature amount of the secondary endoscopic image input to the input layer according to the instruction from the diagnostic support learning model 93 stored in the storage unit 63, It operates to output diagnostic support information including the presence or absence of lesions from the output layer.
  • the input layer has multiple neurons that accept input of pixel values of child endoscopic images, and passes the input pixel values and distance information to the intermediate layer.
  • the intermediate layer has a plurality of neurons for extracting image feature amounts of child endoscopic images, and passes the extracted image feature amounts to the output layer.
  • the output layer has one or more neurons that output information about the presence or absence of lesions and the stage of symptoms, and outputs information about the presence or absence of lesions and the stage of symptoms based on the image feature values output from the intermediate layer.
  • the diagnostic support learning model 93 is a CNN (Convolutional Neural Network)
  • the intermediate layer includes a convolution layer that convolves the pixel value of each pixel input from the input layer, and a mapping of the pixel value convoluted in the convolution layer.
  • the output layer has one or more neurons that output information regarding the presence or absence of lesions in the internal body part included in the secondary endoscopic image, and based on the image feature amount etc. output from the intermediate layer, the lesion Outputs information about the presence or absence of
  • the output information regarding the presence or absence of a lesion is information used as diagnostic support information by a doctor or the like who operates the child endoscope 401 .
  • the data input to the diagnostic support learning model 93 are described as secondary endoscopic images, but are not limited to this.
  • the data input to the diagnosis support learning model 93 may be a child photographed image (raw image) captured by the child endoscope 401 . That is, the diagnosis support learning model 93 may output information regarding the presence or absence of a lesion or the like by inputting a child photographed image (raw image).
  • the diagnostic support learning model 93 is described as a neural network (NN) such as CNN, but the diagnostic support learning model 93 is not limited to NN, SVM (Support Vector Machine), Bayesian network, regression tree It may be a diagnostic support learning model 93 constructed by other learning algorithms such as. Or, instead of CNN, use any object detection algorithm such as RCNN (Regions with Convolutional Neural Network), Fast RCNN, Faster RCNN or SSD (Single Shot Multibook Detector), YOLO (You Only Look Once), etc. good.
  • RCNN Regular with Convolutional Neural Network
  • Fast RCNN Faster RCNN
  • SSD Single Shot Multibook Detector
  • YOLO You Only Look Once
  • the information processing device 6 converts the values output from the output layer into labeled information (presence or absence of lesions, types of symptoms, and stage of symptoms), that is, correct values ( response data), and optimizes the parameters used for arithmetic processing in the intermediate layer so that the output value from the output layer approaches the correct value.
  • the parameters are, for example, weights (coupling coefficients) between neurons, coefficients of activation functions used in each neuron, and the like.
  • the parameter optimization method is not particularly limited, for example, the information processing device 6 optimizes various parameters using the error backpropagation method.
  • the information processing device 6 performs the above processing on the secondary endoscopic images included in the training data, generates a diagnostic support learning model 93 , and stores the generated diagnostic support learning model 93 in the storage unit 63 .
  • Child endoscopic images used as training data and information (response data) regarding the presence or absence of lesions correlated with these information are the results of examinations by the child endoscope 401 performed at each medical institution. A large amount of data is stored, and by using these result data, a large amount of training data for learning the diagnostic support learning model 93 can be generated.
  • FIG. 13 is a functional block diagram illustrating functional units included in the control unit 62 of the information processing device 6.
  • the control unit 62 of the information processing device 6 obtains the acquisition unit 621, the distance image information derivation unit 625, the feature parameter derivation unit 627, and the feature parameter correction unit. It functions as a unit 628 and an output unit 629 .
  • the control unit 62 functions as the diagnostic support learning model 93 by executing the program P stored in the storage unit 63 or by reading the entity files that constitute the diagnostic support learning model 93 .
  • the acquisition unit 621 receives the subject ID and the like input from the endoscope processor 20 or via the input unit 8, and acquires the subject ID and the like.
  • the acquisition unit 621 searches the endoscopic image DB 631 using the acquired subject ID or the subject ID and examination date and time as search keys, and obtains a secondary endoscopic image and a virtual image that best matches the secondary endoscopic image. Acquire multiple datasets of endoscopic images.
  • the acquisition unit 621 outputs the virtual endoscopic image to the distance image information derivation unit 625.
  • a distance image information derivation unit 625 derives distance image information based on the acquired virtual endoscopic image, as in the first embodiment.
  • the acquisition unit 621 outputs the child endoscope image to the feature parameter derivation unit 627.
  • the feature parameter derivation unit 627 derives a region of a predetermined internal body part included in the secondary endoscopic image as a feature parameter.
  • the feature parameter derivation unit 627 may use pattern recognition, edge detection, or the like to derive a region of a predetermined internal body part included in the secondary endoscopic image as a feature parameter.
  • the feature parameter derivation unit 627 uses a local feature parameter extraction method such as A-KAZE (Accelerated KAZE) or SIFT (Scale Invariant Feature Transform) based on changes in the color tone or folds of the body part from the secondary endoscopic image. Then, a region of a predetermined internal body part included in the secondary endoscopic image may be derived as a feature parameter.
  • a feature parameter correction unit 628 acquires the distance image information output from the distance image information derivation unit 625, the feature parameters output from the feature parameter derivation unit 627, and the child endoscope image output from the acquisition unit 621.
  • the feature parameter correction unit 628 generates a secondary endoscopic image in which the feature parameter is corrected by the range image information based on the acquired range image information, feature parameter, and secondary endoscopic image, and outputs it to the diagnostic support learning model 93. do.
  • the correction by the feature parameter correction unit 628 is, for example, correcting the area of the region of the predetermined body part identified as the feature parameter (area correction process).
  • the feature parameter correction unit 628 calculates the distance R (for example, r1 or r2, etc.) of each image region of the corresponding secondary endoscopic image based on the distance image information obtained from the virtual endoscopic image. ).
  • the feature parameter correction unit 628 compares the obtained distance of each image area with a reference distance (for example, 20 mm).
  • the control unit 21 performs correction using an inverse square ratio (R/20) ⁇ 2 ( ⁇ : exponentiation) to the distance R of each compared region.
  • the feature parameter correction unit 628 determines that the distance of the image area of the child endoscope image is equal to or greater than the reference distance (the pixel is far)
  • the number of pixels (the number of pixels) forming the image area is calculated as the distance of each area.
  • the image area is enlarged.
  • the feature parameter correction unit 628 determines that the distance of the image area of the child endoscope image is less than the reference distance (pixels are close)
  • the number of pixels constituting the image area is set to the inverse of the distance R of each area. Reduction processing is performed on the image area by correcting and reducing with a square ratio (R/20) ⁇ 2.
  • the feature parameter correction unit 628 may perform area correction processing using a nearest neighbor interpolation method, a bilinear interpolation method, a bicubic interpolation method, a Lanczos interpolation method, or the like.
  • the feature parameter correction unit 628 performs area correction processing on the secondary endoscopic image using these various methods, and outputs the corrected secondary endoscopic image to the diagnosis support learning model 93 .
  • the diagnostic support learning model 93 acquires the corrected secondary endoscopic image, and outputs diagnostic support information including the presence or absence of lesions in the internal body part included in the secondary endoscopic image to the output unit 629 .
  • the output unit 629 acquires diagnostic support information including the presence or absence of a lesion from the diagnostic support learning model 93, and acquires the secondary endoscopic image, subject ID, and the like from the feature parameter correction unit 628 or the acquisition unit 621.
  • the output unit 629 may acquire the daughter endoscope image with the feature parameters corrected from the feature parameter correction unit 628 .
  • the output unit 629 may search the endoscopic image DB 631 based on the child endoscopic image and acquire related information such as the viewpoint position of the child endoscopic image.
  • the output unit 629 associates diagnostic support information including the presence or absence of a lesion acquired from the diagnostic support learning model 93 with the secondary endoscopic image that is the target of the diagnostic support information, and outputs them to the display unit 7 .
  • the output unit 629 may output both the corrected child endoscope image and the uncorrected child endoscope image input to the diagnosis support learning model 93 to the display unit 7 .
  • the output unit 629 may associate the diagnostic support information with the three-dimensional medical image associated with the secondary endoscopic image that is the target of the diagnostic support information, and output the information to the display unit 7 .
  • the output unit 629 causes the position of the lesion in the three-dimensional medical image to be displayed on the display unit 7 in a highlighted state, for example. may be output to
  • the output unit 629 associates diagnostic support information including the presence or absence of a lesion acquired from the diagnostic support learning model 93 with the child endoscope image that is the target of the diagnostic support information, and registers the information in the endoscopic image DB 631. can be anything.
  • the output unit 629 may register both the child endoscopic image after correction and the child endoscopic image before correction input to the diagnosis support learning model 93 in the endoscopic image DB 631 .
  • the output unit 629 may acquire the distance image information (distance image) from the distance image information deriving unit 625, associate it with the secondary endoscopic image, and register it in the endoscopic image DB 631.
  • the acquiring unit 621 acquires the child endoscopic image and the virtual endoscopic image from the endoscopic image DB 631, but the invention is not limited to this.
  • the acquisition unit 621 acquires the secondary endoscopic image and the like from the endoscope processor 20 in the same manner as in the first embodiment, and the generation of the virtual endoscopic image and the derivation of the distance image information are performed in the same manner as in the first embodiment. It may be performed by a functional unit.
  • FIG. 14 is a flowchart showing an example of a processing procedure by the control unit 62 of the information processing device 6.
  • FIG. FIG. 15 is a flowchart showing an example of a processing procedure for outputting diagnostic support information by the control unit 62 of the information processing device 6. As shown in FIG. The information processing device 6 starts the processing of the flowchart, for example, based on the input content from the input unit 8 connected to the device itself.
  • the control unit 62 of the information processing device 6 acquires the examination date and time, the subject ID, the secondary endoscope image, and the information on the insertion distance output from the endoscope processor 20 (S201).
  • the control unit 62 of the information processing device 6 acquires a three-dimensional medical image output from an examination device capable of taking three-dimensional images of the interior of the body, such as a CT device, an MRI device, and an ultrasonic diagnostic device (S202).
  • the control unit 62 of the information processing device 6 derives the viewpoint position based on the insertion distance (S coordinate) (S203).
  • the control unit 62 of the information processing device 6 generates a plurality of candidate virtual endoscopic images based on the viewpoint position (S204).
  • the control unit 62 of the information processing device 6 identifies the virtual endoscopic image that has the highest degree of matching with the child endoscopic image among the plurality of generated virtual endoscopic images (S205).
  • the control unit 62 of the information processing device 6 derives distance image information from the acquired virtual endoscopic image or the like (S206).
  • the control unit 62 of the information processing device 6 outputs operation support information based on the distance image information and the body cavity information included in the three-dimensional medical image (S207).
  • the control unit 62 of the information processing device 6 performs the processes of S201 to S207 in the same manner as the processes of S101 to S107 of the first embodiment.
  • the control unit 62 of the information processing device 6 outputs diagnosis support information (S208). After executing the process of S206, the control unit 62 of the information processing device 6 may execute the process of S208 in parallel with the process of S207. The processing of S208 is shown by the flowchart of FIG.
  • the control unit 62 of the information processing device 6 derives feature parameters from the child endoscope image (S2081).
  • the control unit 62 of the information processing device 6 derives a feature parameter such as an area of the child endoscope image to be subjected to the area correction process, for example.
  • the control unit 62 of the information processing device 6 generates a secondary endoscopic image with corrected feature parameters based on the distance image information (S2082).
  • the control unit 62 of the information processing device 6 corrects, for example, the area of the region corresponding to the feature parameter based on the distance image information, and generates a secondary endoscopic image in which the feature parameter is corrected.
  • the control unit 62 of the information processing device 6 inputs the child endoscope image with the corrected feature parameter to the diagnosis support learning model 93 (S2083).
  • Information to be input to the diagnostic support learning model 93 includes, in addition to the daughter endoscopic image with corrected feature parameters, the effective mass number (effective-Z) associated with the pixels of the three-dimensional medical image corresponding to the feature parameters. and body composition.
  • the feature parameter corresponds to the area of the secondary endoscopic image, that is, the internal body part or the pixel included in the secondary endoscopic image, and the internal body part or pixel corresponds to the distance image information generated from the virtual endoscopic image. corresponds to the coordinates and pixels of the three-dimensional medical image.
  • the pixels of the three-dimensional medical image are accompanied by information on the effective mass number (effective-Z), body composition, or both. Based on the mirror image, we obtain the effective-Z and body composition associated with the three-dimensional medical image.
  • the diagnostic support learning model 93 is trained to output diagnosis support information related to ROIs such as lesions included in the secondary endoscopic image by inputting the secondary endoscopic image whose feature parameters have been corrected. There is In addition to the daughter endoscopic image corrected for the feature parameter, the diagnostic support learning model 93 inputs the effective mass number (effective-Z) and body composition, thereby identifying lesions included in the daughter endoscopic image. It may be learned to output diagnostic support information related to ROI such as. By inputting a child endoscope image or the like whose feature parameters are corrected to the diagnostic support learning model 93 learned in this way, more accurate diagnostic support information can be obtained.
  • the control unit 62 of the information processing device 6 acquires diagnostic support information output by the diagnostic support learning model 93 (S2084).
  • the control unit 62 of the information processing device 6 associates the acquired diagnostic support information with the child endoscope image and outputs them (S2085).
  • the control unit 62 outputs to the display unit 7 the acquired diagnosis support information, the secondary endoscopic image, the three-dimensional medical image, the virtual endoscopic image, and the information related to the secondary endoscopic image such as the viewpoint position. , may be displayed.
  • the control unit 62 may associate the acquired diagnostic support information with the secondary endoscopic image and register them in the endoscopic image DB 631 .
  • each functional unit in a series of processes including the diagnosis support learning model 93 is a functional unit by the control unit 21 of the endoscope processor 20 and a functional unit by the control unit 62 of the information processing device 6.
  • the sharing of these functional units is an example and is not limited to this.
  • the control section 21 of the endoscope processor 20 may function as all the functional sections performed by the control section 62 of the information processing device 6 .
  • the control unit 21 of the endoscope processor 20 and the control unit 62 of the information processing device 6 cooperate to function as respective functional units in a series of processes by performing inter-process communication, for example. There may be.
  • the control unit 62 of the information processing device 6 controls the child endoscope 401 image based on the distance image information included in the virtual endoscopic image generated from the three-dimensional medical image associated with the child endoscope 401 image. Since the operation support information regarding the operation of the endoscope 401 is output, useful information can be provided to the operator of the endoscope apparatus 10 such as a doctor.
  • FIG. 16 is a side cross-sectional view schematically showing a child endoscope 401 and the like according to Embodiment 3 (rotation measuring section).
  • the secondary endoscope bending measurement unit 404 and the secondary endoscope measurement unit 404 and the secondary endoscope measurement unit 404 and the secondary endoscope measurement unit 404 and the secondary endoscope measurement unit 404 are included as parts for measuring the secondary endoscope 401.
  • a scope rotation measuring unit 405 is provided.
  • the child endoscope bending measurement unit 404 is, for example, a child endoscope 401 (universal code for the child endoscope 401) like an endoscope insertion shape detection device disclosed in Japanese Patent Application Laid-Open No. 2019-37643. ) in which a plurality of magnetic coils are arranged at predetermined intervals along the longitudinal direction. Bending history information indicates physical parameters or information related to bending, such as bending angle and bending direction.
  • the child endoscope rotation measuring unit 405 is configured by, for example, a mouthpiece, an attachment, a gyroscope, or an acceleration sensor, and outputs the rotation angle of the child endoscope 401 .
  • the control unit 62 (acquisition unit) of the information processing device 6 adjusts the child endoscope 401 based on the bending history information acquired from the child endoscope bending measurement unit 404 and the rotation angle acquired from the child endoscope rotation measurement unit 405. , and using the corrected S coordinate, processing such as associating the image of the child endoscope 401 with the three-dimensional medical image may be performed in the same manner as in the first embodiment.
  • the control unit 62 of the information processing device 6 corrects the insertion distance (S coordinate) of the child endoscope 401 based on the information about the bending history and the rotation angle. can improve the accuracy of As a result, the viewpoint position (coordinates) and viewpoint direction (rotation angle) of the child endoscope 401 in the coordinate system of the three-dimensional medical image at the time when the image of the child endoscope 401 is captured can be specified with high accuracy, and a suitable virtual image can be obtained. An endoscopic image can be generated efficiently, and the accuracy in associating the child endoscope 401 image and the three-dimensional medical image can be further improved.
  • FIG. 17 is a block diagram showing a configuration example of an endoscope system according to Embodiment 4 (a processor 201 for a parent endoscope and a processor 202 for a child endoscope).
  • the endoscope processor 20 of the fourth embodiment includes a parent endoscope processor 201 connected to the parent endoscope 40 and a child endoscope processor 202 connected to the child endoscope 401 .
  • the parent endoscope processor 201 and the child endoscope processor 202 are communicably connected, and configured to be able to exchange various information such as the S coordinate of each of the parent endoscope 40 and the child endoscope 401. It is
  • the processor 201 for the parent endoscope and the processor 202 for the child endoscope include the control unit 21 (parent control unit, child control unit), the main storage device 22, etc., the captured images (parent captured image and child a photographed image) into an endoscopic image (a parent endoscopic image, a child endoscopic image).
  • the child endoscope processor 202 converts the child captured image transmitted from the child endoscope 401 via the child endoscope universal code 491 into a child endoscope image, and transmits the child endoscope image to the parent endoscope image. Output to the endoscope processor 201 .
  • the master endoscope processor 201 converts the master captured image transmitted from the master endoscope 40 via the master endoscope universal code 49 into a master endoscope image.
  • the parent endoscope processor 201 outputs the parent endoscope image and the child endoscope image to the display device 50, for example.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

プログラムは、親内視鏡及び子内視鏡を備える内視鏡装置と通信可能に接続されるコンピュータに、前記子内視鏡から被検者の子内視鏡画像を取得し、前記子内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記子内視鏡の挿入距離に関する情報を取得し、前記被検者の体内を撮像した3次元医用画像を取得し、前記子内視鏡の挿入距離に関する情報に基づいて、前記子内視鏡画像と前記3次元医用画像とを関連付ける処理を実行させる。

Description

プログラム、情報処理方法及び内視鏡システム
 本技術は、プログラム、情報処理方法及び内視鏡システムに関する。
 本出願は、2021年5月12日出願の日本出願第2021-081151号に基づく優先権を主張し、前記これらの日本出願に記載された全ての記載内容を援用するものである。
 内視鏡は、被検者の体腔内に挿入することで所望の箇所の観察、処置を可能とする医療用機器であり、体腔内に挿入される挿入管の先端部に組み込まれた撮像部と、該撮像部の撮像視野を照明する照明装置とを備えている。特許文献1には、胆管、膵管内等を観察する内視鏡装置として、十二指腸まで挿入可能な挿入部を有する親スコープと、この親スコープの鉗子チャンネルに子スコープを挿入して胆管、膵管まで観察及び処置できる親子スコープ方式の内視鏡装置が開示されている。
特開平4-354929号公報
 しかしながら、文献1に記載の内視鏡装置においては、体内における子スコープの内視鏡(子内視鏡)の位置に対応する、当該子内視鏡の挿入距離を取得する点が考慮されていないという問題点がある。
 一つの側面では、親内視鏡及び子内視鏡を備える内視鏡装置において、子内視鏡の挿入距離を取得することができるプログラム等を提供することを目的とする。
 本開示の一態様におけるプログラムは、親内視鏡及び子内視鏡を備える内視鏡装置と通信可能に接続されるコンピュータに、前記子内視鏡から被検者の子内視鏡画像を取得し、前記子内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記子内視鏡の挿入距離に関する情報を取得し、前記被検者の体内を撮像した3次元医用画像を取得し、前記子内視鏡の挿入距離に関する情報に基づいて、前記子内視鏡画像と前記3次元医用画像とを関連付ける処理を実行させる。
 本開示の一態様における情報処理方法は、前記子内視鏡から被検者の子内視鏡画像を取得し、前記子内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記子内視鏡の挿入距離に関する情報を取得し、前記被検者の体内を撮像した3次元医用画像を取得し、前記子内視鏡の挿入距離に関する情報に基づいて、前記子内視鏡画像と前記3次元医用画像とを関連付ける処理をコンピュータに実行させる。
 本開示の一態様における内視鏡システムは、内視鏡装置と、前記内視鏡装置から出力される内視鏡画像の処理を行う制御部とを含む内視鏡システムであって、前記内視鏡装置は、親内視鏡と、前記親内視鏡の先端部から突出する子内視鏡と前記親内視鏡の先端側に設けられ、前記子内視鏡を検知する検知部と、前記親内視鏡の基端側に設けられ、前記子内視鏡の突出距離を測定する子内視鏡測定部と、前記親内視鏡の挿入距離を測定する親内視鏡測定部とを備え、前記制御部は、前記親内視鏡測定部から出力される前記親内視鏡の挿入距離を取得し、前記検知部が前記子内視鏡を検知した際、前記子内視鏡測定部によって測定された前記子内視鏡の突出距離を取得し、前記親内視鏡の挿入距離及び前記子内視鏡の突出距離に基づき、被検者の体内に挿入された前記子内視鏡の挿入距離を導出し、前記子内視鏡から前記被検者の子内視鏡画像を取得し、前記被検者の体内を撮像した3次元医用画像を取得し、前記子内視鏡の挿入距離に関する情報に基づいて、前記子内視鏡画像と前記3次元医用画像とを関連付ける。
 本開示によれば、親内視鏡及び子内視鏡を備える内視鏡装置において、子内視鏡の挿入距離を取得するプログラム等を提供することができる。
実施形態1に係る内視鏡システムの概要を示す模式図である。 内視鏡システムに含まれる内視鏡装置の構成例を示すブロック図である。 内視鏡システムに含まれる情報処理装置の構成例を示すブロック図である。 子内視鏡等を模式的に示す側断面図である。 内視鏡画像DBのデータレイアウトを例示する説明図である。 操作情報学習モデルを用いて操作支援情報を出力する処理を説明する説明図である。 一致度学習モデルを用いて子内視鏡画像との一致度を出力する処理を説明する説明図である。 情報処理装置の制御部に含まれる機能部を例示する機能ブロック図である。 子内視鏡が挿入された距離(S座標の値)を示す説明図である。 子内視鏡画像と3次元医用画像との関連に関する説明図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。 実施形態2(子内視鏡画像の補正)に係る診断支援学習モデルを用いて診断支援情報を出力する処理を説明する説明図である。 情報処理装置の制御部に含まれる機能部を例示する機能ブロック図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。 情報処理装置の制御部による診断支援情報の出力の処理手順の一例を示すフローチャートである。 実施形態3(回転測定部)に係る子内視鏡等を模式的に示す側断面図である。 実施形態4(親内視鏡用プロセッサ、子内視鏡用プロセッサ)に係る内視鏡システムの構成例を示すブロック図である。
(実施形態1)
 以下、本発明をその実施の形態を示す図面に基づいて詳述する。図1は、実施形態1に係る内視鏡システムSの概要を示す模式図である。内視鏡システムSは、内視鏡装置10及び、内視鏡装置10と通信可能に接続される情報処理装置6を含む。
 内視鏡装置10は、内視鏡(親内視鏡40及び子内視鏡401)の撮像素子445によって撮影した画像(撮影画像)を内視鏡用プロセッサ20に伝送し、内視鏡用プロセッサ20によってガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行うことにより、操作者が目視し易い状態にした内視鏡画像(親内視鏡画像及び子内視鏡画像)を生成する。内視鏡装置10は、生成した内視鏡画像を情報処理装置6に出力(送信)する。内視鏡装置10から送信された内視鏡画像を取得した情報処理装置6は、これら内視鏡画像に基づき、種々の情報処理を行い、診断支援に関する情報を出力する。
 内視鏡装置10は、内視鏡用プロセッサ20と、親内視鏡40と、子内視鏡401と、表示装置50とを含む親子式の内視鏡装置10である。表示装置50は、例えば液晶表示装置、又は、有機EL(Electro Luminescence)表示装置である。親内視鏡40によって親内視鏡画像が撮像され、子内視鏡401によって子内視鏡画像が撮像される。
 表示装置50はキャスター付きの収容棚16の上段に設置されている。内視鏡用プロセッサ20は、収容棚16の中段に収容されている。収容棚16は、図示を省略する内視鏡検査用ベッドの近傍に配置される。収容棚16は内視鏡用プロセッサ20に接続されたキーボード15を搭載する、引き出し式の棚を有する。
 内視鏡用プロセッサ20は、略直方体形状であり、一面にタッチパネル25を備える。タッチパネル25の下部に、読取部28が配置されている。読取部28は、例えばUSBコネクタ、SD(Secure Digital)カードスロット、又はCD-ROM(Compact Disc Read Only Memory)ドライブ等の、可搬型記録媒体の読み書きを行なう接続用インターフェイスである。
 親内視鏡40は、挿入部44、操作部43、親内視鏡用ユニバーサルコード49及びスコープコネクタ48を有する。操作部43には、制御ボタン431が設けられている。挿入部44は長尺であり、一端が折止部45を介して操作部43に接続されている。挿入部44は、操作部43側から順に軟性部441、湾曲部442及び先端部443を有する。湾曲部442は、湾曲ノブ433の操作に応じて湾曲する。挿入部44には、3軸加速度センサ、ジャイロセンサ、地磁気センサ、磁気コイルセンサ又は内視鏡挿入形状観測装置(コロナビ)等の物理検出装置が実装され、親内視鏡40が被検者の体内に挿入された際、これら物理検出装置からの検出結果を取得するものであってもよい。
 親内視鏡40の操作部43には鉗子口435が設けられており、子内視鏡401は、当該鉗子口435から親内視鏡40の内部に挿入される。すなわち子内視鏡401は、親内視鏡40の内部に設けられた鉗子口チャネル(ワーキングチャネル)に挿通され、親内視鏡40の先端部443から突出する。
 親内視鏡用ユニバーサルコード49は長尺であり、第一端が操作部43に、第二端がスコープコネクタ48にそれぞれ接続されている。親内視鏡用ユニバーサルコード49は、軟性である。スコープコネクタ48は略直方体形状である。スコープコネクタ48には、送気送水用のチューブを接続する送気送水口金36(図2参照)が設けられている。子内視鏡用ユニバーサルコード491も、親内視鏡用ユニバーサルコード49と同様にスコープコネクタ48に接続されている。親内視鏡用ユニバーサルコード49と子内視鏡用ユニバーサルコード491とは、親内視鏡40及び子内視鏡401の共用として一体化されているものであってもよい。または親内視鏡用プロセッサ201及び子内視鏡用プロセッサ202(図17参照)による2つのプロセッサに分かれて、親内視鏡用プロセッサ201、子内視鏡用プロセッサ202間で通信し情報交換できる構成によるものであってもよい。当該構成については、後述する。
 図2は、内視鏡システムに含まれる内視鏡装置の構成例を示すブロック図である。制御部21は、本実施の形態のプログラムを実行する演算制御装置である。制御部21には、一又は複数のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)又はマルチコアCPU等が使用される。制御部21は、バスを介して内視鏡用プロセッサ20を構成するハードウェア各部と接続されている。
 主記憶装置22は、例えば、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、制御部21が行なう処理の途中で必要な情報及び制御部21で実行中のプログラムが一時的に保存される。補助記憶装置23は、例えば、SRAM、フラッシュメモリ又はハードディスク等の記憶装置であり、主記憶装置22よりも大容量の記憶装置である。補助記憶装置23には、例えば、親内視鏡画像及び子内視鏡画像から取得した撮影画像(親撮影画像及び子撮影画像)、生成した内視鏡画像(親内視鏡画像、子内視鏡画像)が、中間データとして保存されるものであってもよい。
 通信部24は、有線又は無線によりネットワークを介して情報処理装置6と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、5G等の広域無線通信モジュールである。タッチパネル25は、液晶表示パネル等の表示部と、表示部に積層された入力部を含む。通信部24は、CT装置、MRI装置(図8参照)、超音波診断装置又は、これら装置から出力されたデータを保存するストレージ装置(図示せず)と通信するものであってもよい。
 表示装置I/F26は、内視鏡用プロセッサ20と表示装置50とを接続するインターフェイスである。入力装置I/F27は、内視鏡用プロセッサ20とキーボード15等の入力装置とを接続するインターフェイスである。
 光源33は、例えば白色LED、キセノンランプ等の高輝度の白色光源である。光源33は、図示を省略するドライバを介してバスに接続されている。光源33の点灯、消灯及び明るさの変更は、制御部21により制御される。光源33から照射した照明光は、光コネクタ312に入射する。光コネクタ312は、スコープコネクタ48と係合し、親内視鏡40及び子内視鏡401に照明光を供給する。当該光源33は、親内視鏡40及び子内視鏡401にて共用されるものであってもよく、又は光源33は、親内視鏡40用と子内視鏡401用とを別個の光源33として備えるものであってもよい。光源33(内視鏡用光源)は、親内視鏡40、子内視鏡401のそれぞれの先端部分に光源用LEDを付けても良い。この方式の方が光ケーブルを使用する必要が無く、細い電源線のみで済む。
 ポンプ34は、親内視鏡40の送気・送水機能用の圧力を発生させる。ポンプ34は、図示を省略するドライバを介してバスに接続されている。ポンプ34のオン、オフ及び圧力の変更は、制御部21により制御される。ポンプ34は、送水タンク35を介して、スコープコネクタ48に設けられた送気送水口金36に接続される。
 内視鏡用プロセッサ20に接続された内視鏡(親内視鏡40及び子内視鏡401)の機能の概略を説明する。スコープコネクタ48、親内視鏡用ユニバーサルコード49、子内視鏡用ユニバーサルコード491、操作部43及び挿入部44の内部に、ファイバーバンドル、ケーブル束、送気チューブ及び送水チューブ等が挿通されている。光源33から出射した照明光は、光コネクタ312及びファイバーバンドルを介して、親内視鏡40及び子内視鏡401の先端に設けられた照明窓から放射される。照明光により照らされた範囲を、親内視鏡40及び子内視鏡401の先端それぞれに設けられた撮像素子それぞれで撮影する。親内視鏡40及び子内視鏡401の撮像素子それぞれからケーブル束及び電気コネクタ311を介して内視鏡用プロセッサ20に撮影画像(親撮影画像及び子撮影画像)が伝送される。
 内視鏡用プロセッサ20の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。画像処理部211は、内視鏡(親内視鏡40及び子内視鏡401)から出力された撮影画像(親撮影画像及び子撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、内視鏡画像(親内視鏡画像、子内視鏡画像)として出力する。
 図3は、内視鏡システムに含まれる情報処理装置の構成例を示すブロック図である。情報処理装置6は、制御部62、通信部61、記憶部63及び入出力I/F64を含む。情報処理装置6は、例えばサーバ装置、パーソナルコンピュータ等である。サーバ装置は、単体のサーバ装置のみならず、複数台のコンピュータによって構成されるクラウドサーバ装置、又は仮想サーバ装置を含む。情報処理装置6は、内視鏡用プロセッサ20からアクセス可能な外部ネットワーク上に位置するクラウドサーバとして設けられているものであってもよい。
 制御部62は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の計時機能を備えた演算処理装置を有し、記憶部63に記憶されたプログラムPを読み出して実行することにより、情報処理装置6に係る種々の情報処理、制御処理等を行う。
 記憶部63は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の揮発性記憶領域及び、EEPROM又はハードディスク等の不揮発性記憶領域を含む。記憶部63には、プログラムP(プログラム製品)及び処理時に参照するデータがあらかじめ記憶してある。記憶部63に記憶されたプログラムP(プログラム製品)は、情報処理装置6が読み取り可能な記録媒体632から読み出されたプログラムP(プログラム製品)を記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラムP(プログラム製品)をダウンロードし、記憶部63に記憶させたものであってもよい。記憶部63には、後述する複数の学習モデル(91,92)を構成する実体ファイル(ニューラルネットワーク(NN)のインスタンスファイル)が保存されている。これら実体ファイルは、プログラムP(プログラム製品)の一部位として構成されるものであってもよい。更に記憶部63には、後述する内視鏡画像DB631(DataBase)が記憶されているものであってもよい。
 通信部61は、有線又は無線により、内視鏡装置10と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、 Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、LTE等の広域無線通信モジュールである。通信部61は、CT装置、MRI装置(図8参照)、超音波診断装置又は、これら装置から出力されたデータを保存するストレージ装置(図示せず)と通信するものであってもよい。
 入出力I/F64は、例えば、USB又はDSUB等の通信規格に準拠したものであり、入出力I/F64に接続された外部機器とシリアル通信するための通信インターフェイスである。入出力I/F64には、例えばディプレイ等の表示部7、キーボード等の入力部8が接続されており、制御部62は、入力部8から入力された実行コマンド又はイベントに基づき行った情報処理の結果を表示部7に出力する。
 図4は、子内視鏡401等を模式的に示す側断面図である。上述のとおり、子内視鏡401は、親内視鏡40に設けられた鉗子口435から挿入され、鉗子口チャネル(ワーキングチャネル)を挿通(通過)して親内視鏡40の先端部443から突出する。親内視鏡40は、例えば十二指腸内視鏡であり親スコープに相当し、子内視鏡401は、例えば胆道内視鏡であり子スコープに相当する。親内視鏡40の挿入部44(可撓管)には、例えばマウスピース等にローラエンコーダにて構成される親内視鏡測定部400が設けられており、親内視鏡40が体内に挿入された距離であるS座標を測定する。
 親内視鏡測定部400は、例えば温度センサ、光センサ、圧力センサ、濡れセンサ(電極)、湿度センサを含む。例えば、当該センサが光センサである場合、光センサは挿入部44(可撓管)の内部に配置されているが、挿入部44(可撓管)が体内に挿入されているときでも光を受光することができる。そのため、光センサが光をより多く受光している部分が体外、少ない部分を体内として判別することが可能である。そして内視鏡用プロセッサ20の制御部21は、光センサで得られた信号に基づき、体腔挿入部位である境界位置にある光センサを特定することにより、体内に挿入されている挿入部44(可撓管)の距離(長さ)であるS座標(親内視鏡40のS座標)を導出することができる。
 親内視鏡40が上部内視鏡の場合は、挿入部44(可撓管)に接する親内視鏡測定部400を付け、挿入部44(可撓管)が体内に挿入されている距離分だけ親内視鏡測定部400のローラエンコーダが回転することを用いて、親内視鏡40が体内に挿入された距離であるS座標を取得することができる。親内視鏡測定部400を構成するマウスピース等(ローラエンコーダ)は、挿入部44(可撓管)の進退に伴って回転し、体内に挿入された親内視鏡40の先端部443と、例えば口又は鼻等の管腔に連通する開口部との間の長さ、すなわち挿入部44(可撓管)の挿入距離を測定できる。ローラエンコーダは、内視鏡用プロセッサ20と電気的に接続しており、測定した距離を内視鏡用プロセッサ20に送る。またローラエンコーダの代わりに光学式、磁気式エンコーダを用いても良い。
 親内視鏡40が下部内視鏡の場合は、肛門部にマウスピース相当の親内視鏡測定部400を付けることで内視鏡挿入距離が測定できる。親内視鏡40の挿入距離を測定する親内視鏡測定部400(補助装置)が被検体の入り口である体腔挿入部位に装着された場合、親内視鏡40の通過距離を測定することにより、親内視鏡40が体内に挿入された距離であるS座標を取得することができる。補助装置は、例えば挿入部(可撓管)44に付けたリニアスケールのような磁場のスケールとマウスピースに付けたリニアヘッドで距離を測定することであっても良く、又はローラーを付けた親内視鏡40のマウスピースであっても良い。なお、鼻又は肛門等に親内視鏡40が挿入される場合、マウスピースと類似のローラーを付けた親内視鏡測定部400(補助装置)を利用しても良い。親内視鏡40の挿入部(可撓管)44に一定間隔で挿入距離を記録したチップを内蔵しても良い。マウスピース等が得た該チップで記録されたS座標情報から、内視鏡用プロセッサ20は、親内視鏡40が体内に挿入された距離であるS座標を取得することができる。
 子内視鏡401が挿入される鉗子口435の近傍には、親内視鏡測定部400と同様に、例えばローラエンコーダ、磁気式又は光学式のリニアエンコーダ等にて構成される子内視鏡測定部402が設けられている。親内視鏡40の先端部443、すなわち子内視鏡401が挿通される鉗子口チャネル(ワーキングチャネル)の端部には、子内視鏡401を検出する検知部403(子内視鏡401検知部403)が設けられている。当該検知部403は、例えば光センサ等の比接触センサ、接触センサ、接触スイッチ等にて構成され、当該光センサのセンシング範囲における子内視鏡401の有無を検出結果として出力する。検知部403は、子内視鏡401が鉗子口チャネル(ワーキングチャネル)の端部から体内への挿入が開始されたことを検出する挿入開始検出手段に相当する。
 子内視鏡401の先端が、親内視鏡40の先端部443から突出した場合、検知部403は、子内視鏡401が有ることを示す検出結果を出力する。子内視鏡401の先端が、親内視鏡40の先端部443から突出していない場合、検知部403は、子内視鏡401が無いことを示す検出結果を出力する。子内視鏡401の先端が、親内視鏡40の先端部443から突出していない場合、検知部403は何ら信号等を出力しないものであってもよい。子内視鏡401は、親内視鏡40の先端部443にあるエレベータ406により子内視鏡は親内視鏡40から約90度立ち上がることができ、これにより十二指腸まで到達した親内視鏡40から子内視鏡401は胆管に入ってくことができる。
 上述のとおり、親内視鏡40が体内に挿入された距離であるS座標(SP)は、親内視鏡測定部400による測定結果として出力される。子内視鏡測定部402は、検知部403が、子内視鏡401が有ることを示す検出結果を出力した場合、当該検出結果が出力された時点から子内視鏡401が挿入された距離を突出距離(SC)として出力する。すなわち、当該突出距離(SC)は、親内視鏡40の先端部443から突出している子内視鏡401の長さを示す。
 子内視鏡401が体内に挿入された距離であるS座標(S)は、親内視鏡40が体内に挿入された距離であるS座標(SP)に、検知部403による検出結果(子内視鏡401が有)が出力された時点から子内視鏡401が体内に挿入された突出距離(SC)を加算することにより算出される(子内視鏡401のS座標=親内視鏡40のS座標[SP]+子内視鏡401の突出距離[SC])。親内視鏡40のS座標及び子内視鏡401の突出距離に基づく、子内視鏡401のS座標の算出は、情報処理装置6の制御部62、又は内視鏡用プロセッサ20の制御部21によって行われる。
 図5は、内視鏡画像DB631のデータレイアウトを例示する説明図である。内視鏡画像DB631は、情報処理装置6の記憶部63に記憶されており、情報処理装置6に実装されているRDBMS(Relational DataBase Management System)等のデータベース管理ソフトウェアにより構成される。又は、内視鏡画像DB631は、情報処理装置6と通信可能に接続されたストレージ装置等、情報処理装置6からアクセス可能な所定の記憶領域に記憶されているものであってもよい。又は、内視鏡画像DB631は、内視鏡装置10の主記憶装置22に記憶されているものであってもよい。すなわち、所定の記憶領域は、情報処理装置6の記憶部63、内視鏡装置10の主記憶装置22及び、情報処理装置6又は内視鏡装置10からアクセス可能なストレージ装置を含む。情報処理装置6は、内視鏡用プロセッサ20が出力した子内視鏡画像、検査日時及び被検者の属性情報を取得し、検査結果DB631に登録するものであってもよい。又は、内視鏡用プロセッサ20から直接出力された子内視鏡画像、検査日時及び被検者の属性情報が、検査結果DB631に直接的に登録されるものであってもよい。
 画像テーブルは、管理項目(メタデータ)として、例えば、被検者ID、検査日時、子内視鏡画像、フレーム番号、S座標(挿入距離)、3次元医用画像、視点位置、視点方向、仮想内視鏡画像を含む。
 被検者IDの項目(フィールド)には、被検者マスタテーブルに管理される被検者の生体属性と関連付けをするためのものであり、当該被検者夫々のIDの値が格納される。検査日時の項目(フィールド)には、当該被検者IDの被検者が内視鏡検査を受けた日時が格納される。子内視鏡画像の項目(フィールド)には、当該被検者IDの子内視鏡画像がオブジェクトデータとして格納される。子内視鏡画像は、1フレームによる例えばjpeg形式の静止画又は、数フレームによる例えばavi形式の動画であってもよい。子内視鏡画像の項目(フィールド)には、ファイルとして保存されている当該子内視鏡画像の保存場所(ファイルパス)を示す情報が格納されるものであってもよい。
 フレーム番号の項目(フィールド)には、子内視鏡画像が動画の場合、当該動画のフレーム番号が格納される。動画のフレーム番号を格納することにより、子内視鏡画像が動画であっても、静止画と同様に取り扱うことができ、後述する3次元医用画像又は仮想内視鏡画像の位置情報(体内座標系における座標)と関連付けることができる。
 S座標(挿入距離)の項目(フィールド)には、同じレコードに格納される子内視鏡画像の撮影時点における子内視鏡401の挿入距離が、S座標の値として格納される。子内視鏡401の挿入距離(S座標)は、親内視鏡40のS座標(SP)に、当該親内視鏡40の先端部443から突出している子内視鏡401の長さ(突出距離(SC))を加算(SP+SC)した値(距離)である。
 3次元医用画像の項目(フィールド)には、CT装置(X線CT、X線コーンビームCT)又はMRI装置(MRI-CT)、超音波診断装置のように体内を3次元画像で撮影できる手段から出力されたデータに基づき生成される、例えばDICOM(Digital Imaging and Communications in Medicine)形式の3次元医用画像が、オブジェクトデータとして格納される。又は、ファイルとして保存されている当該3次元医用画像の保存場所(ファイルパス)を示す情報が格納されるものであってもよい。
 視点位置の項目(フィールド)には、子内視鏡画像が撮影された時点における子内視鏡401の体内における座標、すなわち3次元医用画像の座標系における座標が格納される。視点位置の導出等については、後述する。
 視点方向の項目(フィールド)には、子内視鏡画像が撮影された時点における子内視鏡401の向き、すなわち3次元医用画像の座標系(体内座標系における座標)における回転角が格納される。視点方向の導出等については、後述する。
 仮想内視鏡画像の項目(フィールド)には、3次元医用画像から生成された仮想内視鏡画像がオブジェクトデータとして格納される。ファイルとして保存されている当該仮想内視鏡画像の保存場所(ファイルパス)を示す情報が格納されるものであってもよい。仮想内視鏡画像は、子内視鏡画像とのマッチング処理を行うために3次元医用画像から生成されるものであり、例えば、子内視鏡画像に最も一致する仮想内視鏡画像が、当該内視鏡画像と同じレコードに登録される。仮想内視鏡画像の生成等については、後述する。
 本実施形態において、内視鏡画像DB631には、子内視鏡画像が登録されるとしたが、これに限定されず、内視鏡画像DB631には、親内視鏡画像及び子内視鏡画像が登録される。親内視鏡画像のS座標は、上述のとおりマウスピース等の親内視鏡測定部400によって測定される。この場合、内視鏡画像DB631に含まれる画像テーブルは、管理項目(メタデータ)において、親内視鏡画像又は子内視鏡画像であるかを示す区分(親/子)の項目(フィールド)を含み、登録された内視鏡画像が親内視鏡画像又は子内視鏡画像のいずれかであるかが、示されるものであってもよい。又は、内視鏡画像DB631は、子内視鏡画像を登録する子内視鏡画像テーブルと、親内視鏡画像を登録する親内視鏡画像テーブルとを別テーブルとして管理し、子内視鏡画像テーブルと親内視鏡画像テーブルとが、例えば、被検者ID、検査日時及び、それぞれのS座標によって関連付けられるものであってもよい。このような内視鏡画像(親内視鏡画像又は子内視鏡画像)のデータ管理を行うことにより、親子方式の内視鏡装置10によって、撮像された親内視鏡画像と子内視鏡画像とを関連付けた上で更に、3次元医用画像及び仮想内視鏡画像との関連付けることができ、内視鏡装置10の操作者である医師等に有益な医療情報を提供することができる。
 図6は、操作情報学習モデル91を用いて操作支援情報を出力する処理を説明する説明図である。情報処理装置6は、後述する距離画像情報及び3次元医用画像に含まれる体腔情報を問題データとし、子内視鏡401の挿入方向、挿入量、挿入速度及び、挿入先を示す目標点座標等の少なくとも1つを含む操作支援情報を回答データとする訓練データに基づき学習することで、距離画像情報及び3次元医用画像を入力とし、子内視鏡401の挿入方向等を含む操作支援情報を出力とするニューラルネットワーク(操作情報学習モデル91)を構築(生成)する。
 訓練データを用いて学習された操作情報学習モデル91は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用が想定される。操作情報学習モデル91は、上述のごとく制御部62(CPU等)及び記憶部63を備える情報処理装置6にて用いられるものであり、このように演算処理能力を有する情報処理装置6にて実行されることにより、ニューラルネットワークシステムが構成される。すなわち、情報処理装置6の制御部62が、記憶部63に記憶された操作情報学習モデル91からの指令に従って、入力層に入力された距離画像情報及び3次元医用画像の特徴量を抽出する演算を行い、出力層から子内視鏡401の挿入方向等を含む操作支援情報を出力するように動作する。
 入力層は、距離画像情報及び3次元医用画像に含まれる体腔情報を受け付ける複数のニューロンを有し、入力された距離画像情報及び3次元医用画像に含まれる体腔情報を中間層に受け渡す。詳細は後述するが、距離画像情報は、取得した子内視鏡画像に対応する仮想内視鏡画像に基づき導出される情報であり、当該仮想内視鏡画像における各画素同士の距離に関する情報である。子内視鏡画像及び対応する仮想内視鏡画像とは、同一の体内部位の領域を撮像領域としているものであるため、当該距離画像情報は、子内視鏡画像における各画素同士の距離に関する情報に相当する。各画素同士の距離とは、3次元医用画像の座標系(体内座標系)における距離を意味するものであり、例えば、仮想内視鏡画像に含まれる2つの体内部位における奥行きを加味した距離である。また、操作情報学習モデル91に入力される距離画像情報には、子内視鏡401の視点位置及び向きに関する情報が付加されたものであってもよい。3次元医用画像に含まれる体腔情報は、距離画像情報を導出した仮想内視鏡画像の撮像領域を含む3次元領域において、子内視鏡401が挿入されている体内器官等の形状(器官の内壁形状)を示す曲面データであり、当該曲面データは、例えば多項近似式又は点集合によって構成されるものであってもよい。
 中間層は、例えば単数又は複数の全結合層からなる単相又は多層構造をなし、全結合層に含まれる複数のニューロン夫々は、入力された距離画像情報及び3次元医用画像に含まれる体腔情報の値に基づき、活性化又は非活性化を示す情報を出力する。情報処理装置6は、例えば、誤差逆伝播法(Backpropagation)等を用いて中間層での演算処理に用いるパラメータを最適化する。
 出力層は、子内視鏡401の挿入方向等を含む操作支援情報を出力する一又は複数のニューロンを有し、中間層から出力された各ニューロンの活性化又は非活性化を示す情報に基づき、当該操作支援情報を出力する。子内視鏡401の挿入方向等を含む操作支援情報は、例えば、当該挿入方向において子内視鏡401の先端部が順次に通過する3次元医用画像の座標系(体内座標系)における複数の座標値及び回転角をベクトル形式で示すものであってもよい。また、当該操作支援情報は、子内視鏡401が順次に通過するあたり隣接する座標値間の移動量に対する速度成分を含むものであってもよい。
 訓練データとして用いられる距離画像情報及び3次元医用画像問題データ(問題データ)と、これら情報に相関を有する子内視鏡401の挿入方向等を含む操作支援情報は、各医療機関において行われた子内視鏡401による検査の結果データとして大量に保存されており、これら結果データを用いることにより、操作情報学習モデル91を学習するための訓練データを大量に生成することができる。
 図7は、一致度学習モデル92を用いて子内視鏡画像との一致度を出力する処理を説明する説明図である。情報処理装置6は、子内視鏡画像及び仮想内視鏡画像を問題データとし、これら両画像の一致度に関する情報を回答データとする訓練データに基づき学習することで、子内視鏡画像及び仮想内視鏡画像を入力とし、両画像の一致度を示す値等の情報を出力とするニューラルネットワーク(一致度学習モデル92)を構築(生成)する。訓練データを用いて学習された一致度学習モデル92は、操作情報学習モデル91と同様に人工知能ソフトウェアの一部であるプログラムモジュールとして利用が想定される。
 入力層は、子内視鏡画像及び仮想内視鏡画像の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層に受け渡す。中間層は、子内視鏡画像及び仮想内視鏡画像の画像特徴量を抽出する複数のニューロンを有し、抽出した両画像夫々の画像特徴量を出力層に受け渡す。出力層は、入力された子内視鏡画像及び仮想内視鏡画像の一致度を示す値等、当該一致度に関する情報を出力する一又は複数のニューロンを有し、中間層から出力された両画像夫々の画像特徴量に基づいて、一致度に関する情報を出力する。
 一致度学習モデル92が、例えばCNN(Convolutional Neural Network)である場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピング(圧縮)するプーリング層とが交互に連結された構成を有し、子内視鏡画像及び仮想内視鏡画像の画素情報を圧縮しながら最終的に子内視鏡画像及び仮想内視鏡画像の特徴量を抽出する。出力層は、例えば全結合層及びソフトマックス層を含み、全結合層にて両画像夫々の画像特徴量による特徴量ベクトルの内積によるコサイン類似度を導出し、ソフトマックス層にてコサイン類似度に基づき一致度を示す値(確立値)を導出して、一致度に関する情報として出力する。
 一致度学習モデル92を構築(生成)するにあたり、例えば、VGG16モデル(caffemodel:VGG_ILSVRC_16_layers)にて実装したDCNN等のリポジトリ(学習済みのモデル)を用い、子内視鏡画像及び仮想内視鏡画像による訓練データによって転移学習を行い、当該一致度学習モデル92を構築するものであってもよい。訓練データとして用いられる子内視鏡画像及び、当該内視鏡画像に対応する仮想内視鏡画像は、各医療機関において行われた子内視鏡401の検査及びCT装置等の結果データとして大量に保存されており、これら結果データを用いることにより、一致度学習モデル92を学習するための訓練データを大量に生成することができる。
 本実施形態では操作情報学習モデル91及び一致度学習モデル92は、例えばCNN等のニューラルネットワーク(NN)であるとして説明するが、これら学習モデル(91,92)は、NNに限定されず、SVM(Support Vector Machine)、ベイジアンネットワーク、回帰木など、他の学習アルゴリズムで構築された学習モデル(91,92)であってもよい。操作情報学習モデル91及び一致度学習モデル92において、これら学習モデルの入力データは子内視鏡画像に基づくものにて説明したが、これに限定されない。操作情報学習モデル91及び一致度学習モデル92は、親内視鏡画像に基づく入力データに対しても、適用することができる。
 図8は、情報処理装置6の制御部62に含まれる機能部を例示する機能ブロック図である。内視鏡用プロセッサ20(内視鏡装置10)の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。情報処理装置6の制御部62は、記憶部63に記憶されているプログラムPを実行することにより、取得部621、視点位置導出部622、仮想内視鏡画像生成部623、一致度判定部624、距離画像情報導出部625、操作支援情報出力部626として機能する。
 内視鏡用プロセッサ20の画像処理部211は、子内視鏡401から出力された画像(撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、子内視鏡画像として出力する。画像処理部211は、生成した子内視鏡画像及び子内視鏡画像の撮像時点に基づく検査日時を情報処理装置6に出力(送信)する。画像処理部211は、更にキーボード15から入力された被検者IDを情報処理装置6に出力するものであってもよい。
 画像処理部211は、親内視鏡測定部400から出力される親内視鏡測定部400の挿入距離(S座標)、及び子内視鏡測定部402から出力される子内視鏡測定部402の突出距離に基づき、これら距離を算出(加算)して、子内視鏡401の挿入距離(S座標)に関する情報を、情報処理装置6に出力するものであってもよい。画像処理部211は、算出した子内視鏡401の挿入距離(S座標)に関する情報を、例えば、子内視鏡画像に重畳して表示装置に表示させるものであってもよい。
 取得部621は、内視鏡用プロセッサ20が出力した被検者ID、検査日時、子内視鏡画像及び子内視鏡401のS座標(挿入距離)を取得する。当該子内視鏡401のS座標(挿入距離)は、親内視鏡40のS座標(SP)に、当該親内視鏡40の先端部443から突出している子内視鏡401の長さ(突出距離(SC))を加算(SP+SC)した値(距離)である。又は、取得部621は、内視鏡用プロセッサ20から、親内視鏡40のS座標(SP)及び子内視鏡401の突出距離(SC)を取得し、これら距離を加算(SP+SC)して子内視鏡401のS座標(挿入距離)を導出し、他の機能部に出力するものであってもよい。
 取得部621は、取得した被検者IDに基づき、通信可能に接続されたCT装置、コーンビームCT装置又はMRI装置、超音波診断装置のように体内を3次元画像で撮影できる手段から出力される当該被検者の3次元用医用画像を取得する。CT装置、コーンビームCT装置又はMRI装置、超音波診断装置等のように体内を3次元画像で撮影できる他の検査装置から出力される3次元用医用画像が、例えば外部サーバ(図示せず)に既に保存されている場合、情報処理装置6は、当該外部サーバにアクセスし、内視鏡用プロセッサ20から出力された被検者IDに基づき、当該被検者の3次元用医用画像を取得するものであってもよい。
 3次元医用画像は、例えばCT装置、コーンビームCT装置及びMRI装置、超音波診断装置のように体内を3次元画像で撮影できる手段等から出力された断層像データから構成されたボリュームデータにより表される画像、並びにMulti SliceCT装置及びX線フラットパネルを用いたX線コーンビームCT装置から出力されたボリュームデータにより表される画像である。X線CT装置又はコーンビームCT装置を用いた場合、例えばX線CTでDual Energy 撮影を行い、実効質量数(effective-Z)により3次元医用画像の各画素の組成(体組成)が分かる画像とするものであってもよい。MRI装置を用いた場合、脂肪又は乳酸等の3次元医用画像の各画素の組成(体組成)に関する情報を付与した画像とするものであってもよい。
 取得部621は、取得した子内視鏡401のS座標を視点位置導出部622に出力する。視点位置導出部622は、取得したS座標に基づき、当該S座標に対応する3次元用医用画像の座標(体内座標系における座標)、すなわち子内視鏡画像が撮像された時点における子内視鏡401の先端が位置する視点位置を導出する。
 図9は、子内視鏡401が挿入された距離(S座標の値)を示す説明図である。図示されるように3次元用医用画像により、親内視鏡40及び子内視鏡401により撮影された消化器官等は、3次元形状により表現される。当該消化器官等の内壁の内側には、空間が形成されており、当該空間は親内視鏡40及び子内視鏡401が挿入される挿入経路となる。
 親内視鏡40及び子内視鏡401の挿入距離であるS座標それぞれは、当該挿入経路の内側(消化器官等の内壁の内側)であって、挿入されている経路の経路長が当該挿入距離に略等しくなる場所となる。これらS座標に基づき、消化器官等の内壁の内側に位置する親内視鏡40及び子内視鏡401の先端の座標それぞれを導出することができる。視点位置導出部622は、導出した子内視鏡401の視点位置に関する情報を仮想内視鏡画像生成部623に出力する。
 取得部621は、取得した3次元医用画像を仮想内視鏡画像生成部623に出力する。仮想内視鏡画像生成部623は、取得した3次元医用画像及び、視点位置導出部622から取得した視点位置に基づき、仮想内視鏡画像を生成する。仮想内視鏡画像は、気管及び気管支内又は腸管等の管状臓器を撮影したX線CT又はMRI又はX線コーンビームCTの3次元医用画像に基づいて生成(再構成)し、3次元用医用画像による器官内(体腔内)を仮想的内視鏡によって表した画像である。例えば、大腸に空気を入れた状態でCT撮影を行い、その撮影によって得た3次元用医用画像を大腸の内側からボリュームレンダリングすることによって、大腸の仮想内視鏡画像を生成(再構成)するものであってもよい。
 仮想内視鏡画像生成部623は、取得した3次元医用画像から被検者内の臓器のボクセルデータを抽出する。臓器としては、例えば十二指腸、胆管、大腸、小腸、腎臓、気管支又は血管等があるが、これに限らずその他の臓器でも良い。なお、本実施形態においては大腸のボクセルデータを抽出して取得するものとする。例えば、大腸領域を抽出する方法としては、具体的には、まず、3次元医用画像に基づいて体軸に垂直な断面(軸位断;axial)の軸位断画像を複数再構成し、その各軸位断画像に対して、公知の手法によりX線吸収係数に基づくX線CT値を閾値として体表面と体内の境界を求め、体表を基準に体外と体内領域を分離する処理を行う。例えば、再構成された軸位断画像に対してX線CT値による二値化処理を施し、輪郭抽出処理により輪郭を抽出し、その抽出した輪郭内部を体内(人体)領域として抽出する。次に、体内領域の軸位断画像に対して閾値による二値化処理を行い、各軸位断画像における大腸の領域の候補を抽出する。具体的には、大腸の管内には空気が入っているため、空気のCT値に対応する閾値(例えば、-600HU(Hounsfield Unit)以下)を設定して二値化処理を行い、各軸位断画像の体内の空気領域を大腸領域候補として抽出する。仮想内視鏡画像生成部623は、視点位置と視線方向として設定される回転角に基づく視線ベクトルを中心として、放射線状に伸ばした複数の光線方向上のボクセルデータを、所定の投影面に投影した中心投影による画像を仮想内視鏡画像として再構成する。なお、中心投影の具体的な方法としては、例えば公知のボリュームレンダリング手法等を用いることができる。
 仮想内視鏡画像生成部623は、例えば、子内視鏡401の先端部443の座標に相当する視点位置を起点に、視点方向、すなわち3次元用医用画像の座標系における回転角(Θx、Θy、Θz)を、例えば1°とする所定単位量ずつ変更させて、候補となる複数の仮想内視鏡画像を順次に生成する。すなわち、仮想内視鏡画像生成部623は、例えば、3次元医用画像にて特定される消化器官の内部となる視点位置から、視点方向として設定される複数の回転角により、当該消化器官の内壁による3次元形状を射影(投影)して、複数の仮想内視鏡画像を生成するものであってもよい。仮想内視鏡画像生成部623は、生成した複数の仮想内視鏡画像と、当該仮想内視鏡画像を生成する際に用いた視点方向(回転角)とを関連付けて、一致度判定部624に出力する。
 取得部621は、取得した子内視鏡画像を一致度判定部624に出力する。一致度判定部624は、取得した子内視鏡画像と、仮想内視鏡画像生成部623から取得した複数の仮想内視鏡画像及び当該仮想内視鏡画像を生成する際に用いた視点方向(回転角)とに基づき、取得した子内視鏡画像と、最も一致する仮想内視鏡画像及び、当該最も一致する仮想内視鏡画像を生成する際に用いた視点方向(回転角)を特定する。一致度判定部624は、取得した子内視鏡画像と、複数の仮想内視鏡画像夫々とを比較することにより、子内視鏡画像と仮想内視鏡画像との一致度を導出する。
 一致度判定部624は、入力された子内視鏡画像及び仮想内視鏡画像に基づき、両画像の一致度を示す値等の情報を出力とする一致度学習モデル92を含む。一致度判定部624は、取得した子内視鏡画像及び仮想内視鏡画像を一致度学習モデル92に入力し、一致度学習モデル92が出力した一致度を示す値(確率値)においても、最も高い値となる仮想内視鏡画像を、当該子内視鏡画像に対応する仮想内視鏡画像として出力するものであってもよい。
 又は、一致度判定部624は、一致度学習モデル92を含む場合に限定されず、例えば、子内視鏡画像の陰影画像と仮想内視鏡画像の陰影画像の相関を取るような指標で一致度を測定するものであってもよい。仮想内視鏡画像と子内視鏡画像の一致度を定量的に見るには、輝度情報から求める陰影画像情報の相関度を見て一致度の高さを判断しても良い。又は、一致度判定部624は、構成した複数の仮想内視鏡画像と子内視鏡画像との類似度を比較するものであってもよい。両画像の類似度比較は、公知の画像処理により行われ、画素データレベルのマッチング、又は、画像から抽出した特徴のレベルにおけるマッチングのいずれを用いても良い。一致度判定部624によって、子内視鏡画像と最も一致度が高いと特定した仮想内視鏡画及び、当該仮想内視鏡画を生成するために用いた視点方向(回転角)は、内視鏡画像DBに登録されるものであってもよい。一致度判定部624は、子内視鏡画像と最も一致度が高いと特定した仮想内視鏡画及び、当該仮想内視鏡画を生成するために用いた視点位置及び方向(回転角)を、距離画像情報導出部625に出力する。
 本実施形態おいて、一致度判定部624は、取得した子内視鏡画像と、最も一致する仮想内視鏡画像を特定するとしたが、これに限定されない。一致度判定部624は、一致度が所定値以上となる仮想内視鏡画像を、取得した子内視鏡画像と実質的に同一視できる仮想内視鏡画像として特定するものであってもよい。一致度が所定値以上となる仮想内視鏡画像を特定することにより、候補として生成された全ての仮想内視鏡画像との全件比較を行うことを不要とし、情報処理装置6の計算負荷及び処理時間の低減を図ることができる。又は、一致度判定部624は、取得した子内視鏡画像との差異(差分インデックス)が最も小さい仮想内視鏡画像を、取得した子内視鏡画像と実質的に同一視できる仮想内視鏡画像として特定するものであってもよい。子内視鏡画像と仮想内視鏡画像との差異(差分インデックス)は、当該内視鏡画像と仮想内視鏡画像との一致度の逆数に相当するものであるため、このような差異(差分インデックス)を導出する画像比較エンジン等を用いることにより、取得した子内視鏡画像と実質的に同一視できる仮想内視鏡画像を効率的に取得することができる。
 一致度判定部624は、一致度が所定値以上とならない場合、視点位置導出部622から取得した視点位置を微修正した視点位置により、再度、複数の仮想内視鏡画像を再生成し、再生成した複数の仮想内視鏡画像と、子内視鏡画像との一致度を導出し、最も一致度が高い仮想内視鏡画像を特定してもよい。
 距離画像情報導出部625は、一致度判定部624から取得した仮想内視鏡画像に基づき、距離画像情報を導出する。距離画像情報は、仮想内視鏡画像において、仮想内視鏡画像における各画素同士の距離に関する情報である。各画素同士の距離とは、3次元医用画像の座標系(体内座標系)における距離を意味するものであり、例えば、仮想内視鏡画像に含まれる2つの体内部位における奥行きを加味した距離である。仮想内視鏡画像は、3次元医用画像を射影変換して2次元化した画像であり、仮想内視鏡画像における任意の地点は、3次元医用画像における地点に対応するものであり、これら地点は、体内部位における同一の位置を示す。当該仮想内視鏡画像における任意の地点は、画像における最小単位となる画素番号(ピクセル座標)であってもよく、又は、例えば所定の体内部位を特定する局所領域(複数の画素により構成される領域)の中央部とするものであってもよい。このように任意の地点を2つ定めることより、3次元医用画像の座標系における当該2つの地点間の距離を導出することができる。すなわち、距離画像情報における距離とは、仮想内視鏡画像の2点に対応する3次元医用画像の座標系の2点の距離に相当する。
 3次元医用画像における2点は、仮想内視鏡画像における2点から特定される。特定された3次元医用画像における2点夫々の座標値に基づき、当該2点の距離及びベクトルを導出することができる。導出した3次元医用画像における2点の距離及びベクトルを、当該2点に対応する仮想内視鏡画像の2点の距離及びベクトルとして、仮想内視鏡画像に付与することにより、距離画像、すなわち仮想内視鏡画像において3次元医用画像の座標系における距離情報が付加された仮想内視鏡画像(距離画像)を生成することができる。距離画像情報導出部625は、各画素同士の距離に関する情報が付加された仮想内視鏡画像(距離画像)を、距離画像情報として出力するものであってもよい。また、距離画像情報導出部625は、仮想内視鏡画像を生成するにあたり用いた子内視鏡401の視点位置及び方向を付加して、出力するものであってもよい。
 子内視鏡画像は、当該子内視鏡画像を撮像した子内視鏡401の位置(視点位置)及び撮影方向(視点方向)に基づき、3次元医用画像から再構成(生成)される仮想内視鏡画像に対応している。従って、子内視鏡画像に対応する仮想内視鏡画像による距離画像情報は、当該子内視鏡画像に対しても適用することができる。すなわち、子内視鏡画像における2点間の距離は、当該子内視鏡画像に対応する仮想内視鏡画像の2点間の距離(距離画像における距離であり、3次元医用画像の座標系の距離)に相当する。従って、距離画像(仮想内視鏡画像)に含まれる距離画像情報を子内視鏡画像に適用することにより、当該子内視鏡画像に含まれる体内部位間の距離、体内部位の大きさ等の距離情報(子内視鏡画像における距離画像情報)を確定することができる。
 操作支援情報出力部626は、距離画像情報導出部625から出力された距離画像情報、及び子内視鏡401の視点位置及び方向(回転角)を取得する。操作支援情報出力部626は、取得部621からから出力された3次元医用画像を取得し、当該3次元医用画像に含まれる体腔情報を抽出する。上述のとおり、3次元医用画像に含まれる体腔情報とは、距離画像情報を導出した仮想内視鏡画像の撮像領域を含む3次元領域において、例えば、子内視鏡401が挿入されている体内器官等の形状(器官の内壁形状)を示す曲面データである。
 操作支援情報出力部626は、入力された距離画像情報、子内視鏡401の視点位置と方向及び、曲面データ等によって示される3次元医用画像に含まれる体腔情報に基づき、子内視鏡401の入方向等を含む操作支援情報を出力する操作情報学習モデル91を含む。操作支援情報出力部626は、取得した距離画像情報、子内視鏡401の視点位置と方向及び、曲面データ等によって示される3次元医用画像に含まれる体腔情報を操作情報学習モデル91に入力し、操作情報学習モデル91から出力された子内視鏡401の入方向等を含む操作支援情報を取得する。
 上述のとおり、操作情報学習モデル91から出力される操作支援情報は、例えば、現時点、すなわち子内視鏡画像の撮像時点における子内視鏡401の視点位置及び方向から、挿入先を示す目標地点までの子内視鏡401の挿入方向、挿入量又は挿入速度に関する情報を含む。当該操作支援情報は、子内視鏡401の視点位置から目標地点までにおいて、子内視鏡401の先端部443が順次に通過する3次元医用画像の座標系(体内座標系)における複数の座標値及び回転角をベクトル形式又は行列形式で示すものであってもよい。子内視鏡401が順次に通過する複数の座標値及び回転角を用いることにより、これら複数の座標値を経路点として接続することにより、子内視鏡401を挿入する経路を確定することができる。操作支援情報出力部626は、経路点となる座標値夫々を導出するにあたり、挿入部(可撓管)44の硬度に応じた補正を行い、当該座標値を導出するものであってもよい。
 操作支援情報出力部626は、取得部621から出力された子内視鏡画像を取得し、例えば、当該子内視鏡画像に操作支援情報を重畳した画像データを生成し、表示部7に出力する。表示部7は、操作支援情報出力部626から取得した画像データに基づき、子内視鏡画像に操作支援情報が重畳された子内視鏡画像を表示する。
 取得部621によって取得された被検者ID、検査日時、子内視鏡画像、S座標、3次元用医用画像及び、一致度判定部624が導出した仮想内視鏡画像、子内視鏡401の視点位置及び向きに関する情報は、関連付けられて内視鏡画像DBに保存される。すなわち、情報処理装置の制御部は、DB登録部として機能し、取得部621及び一致度判定部624が取得又は導出した各種画像、情報又はデータを内視鏡画像DBに登録して保存するものであってもよい。内視鏡画像DBに登録される情報又はデータは、子内視鏡画像に関するデータに限定されず、親内視鏡40によって撮像された親内視鏡画像に関するデータも含む。取得部621等の各機能部は、親内視鏡40によって撮像された親内視鏡画像についても、子内視鏡画像と同様の処理を行う。
 図10は、子内視鏡画像と3次元医用画像との関連に関する説明図である。本図においては、3次元医用画像、仮想内視鏡画像及び子内視鏡画像における関連性をオブジェクト指向的に表したものである。
 上述のとおり、内視鏡画像DB631に登録されている3次元医用画像、仮想内視鏡画像及び子内視鏡画像は、当該子内視鏡画像の撮影時点における子内視鏡401の視点位置、視点方向に基づき関連付けがされている。視点位置は、3次元医用画像の座標系(体内座標系)における座標(x,y,z)に相当する。視点方向は、3次元医用画像の座標系(体内座標系)におけるx軸、y軸及びz軸における回転角(Θx,Θy,Θz)に相当する。
 子内視鏡画像の画素夫々は、仮想内視鏡画(当該子内視鏡画像に最も一致する仮想内視鏡画)の画素夫々に対応している。仮想内視鏡画は、3次元医用画像を基に視点位置を起点とし、視点方向(回転角)により定義される視点ベクトルを用いたベクトル変換にて、射影(投影)して生成された画像であり、仮想内視鏡画の画素により、3次元医用画像の座標系(体内座標系)における座標が確定される。
 上述のとおり、仮想内視鏡画の画素夫々は、子内視鏡画像の画素夫々に対応しているため、仮想内視鏡画の画素に基づき、子内視鏡画像の画素、すなわち子内視鏡画像に含まれる体内部位の3次元医用画像の座標系(体内座標系)における座標を確定することができる。すなわち、仮想内視鏡画を中間媒体として、子内視鏡画像の画素(体内部位)と、3次元医用画像の座標系(体内座標系)における座標とを連関させることができる。
 3次元医用画像に、子内視鏡画像の画素のカラー情報、narrow band画素情報を付加させて、当該3次元医用画像を内視鏡画像DB631に登録するものであってもよい。この際、カラー情報等の子内視鏡画像の画素情報を3次元医用画像に付加させる場合、撮影用光源446による輝度補正を行うことが望ましい。上述のとおり、子内視鏡画像の画素と視点位置(撮影用光源446の地点)との距離は、3次元医用画像の座標系上にて導出される。従って、導出した当該距離を二乗した逆数に基づき、子内視鏡画像の画素情報に含まれる明度を補正するものであってもよい。3次元医用画像の座標系において同一の座標に位置する画素を含む子内視鏡画像が複数ある場合、最も距離の近い子内視鏡画像を優先し、当該距離に応じた重みをかけて荷重平均、又は単純平均するようにて3次元医用画像に付加させるものであってもよい。
 3次元医用画像の撮像において、X線CT装置又はコーンビームCT装置を用いた場合、例えばDual Energy 撮影を行い、実効質量数(effective-Z)により3次元医用画像の各画素の組成(体組成)が分かる画像とするものであってもよい。又、MRI装置を用いた場合、脂肪又は乳酸等の3次元医用画像の各画素の組成(体組成)に関する情報を付与した画像とするものであってもよい。このように3次元医用画像の各画素の組成に、実効質量数(effective-Z)、脂肪又は乳酸等の体組成に関する情報を付加することにより、これら付加された情報と、当該3次元医用画像の各画素により特定される座標に関連付けられた子内視鏡画像とを連関させた情報を、医師等に提供することができる。
 図11は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
 情報処理装置6の制御部62は、内視鏡用プロセッサ20から出力された検査日時、被検者ID、子内視鏡画像及び、挿入距離に関する情報を取得する(S101)。制御部62が内視鏡用プロセッサ20から取得する子内視鏡画像は、静止画又は動画であってもよい。制御部62は、子内視鏡画像の取得に併せて、子内視鏡401の挿入距離(S座標)に関する情報、検査日時(子内視鏡画像の撮像日時)及び被検者ID等の被検者の属性情報を取得する。
 情報処理装置6の制御部62は、CT装置又はMRI装置、超音波診断装置のように体内を3次元画像で撮影できる検査装置から出力される3次元用医用画像を取得する(S102)。3次元用医用画像の取得は、情報処理装置6がCT装置又はMRI装置、超音波診断装置のように体内を3次元画像で撮影できる検査装置と通信可能に接続することにより、取得するものであってもよい。又は、CT装置又はMRI装置、超音波診断装置のように体内を3次元画像で撮影できる検査装置から出力される3次元用医用画像が、例えば外部サーバ(図示せず)に既に保存されている場合、情報処理装置6は、当該外部サーバにアクセスし、内視鏡用プロセッサ20から出力された被検者IDに基づき、当該被検者の3次元用医用画像を取得するものであってもよい。又は、内視鏡用プロセッサ20が、CT装置又はMRI装置、超音波診断装置のように体内を3次元画像で撮影できる検査装置と通信可能に接続されており、情報処理装置6の制御部62は、内視鏡用プロセッサ20を介してCT装置又はMRI装置、超音波診断装置のように体内を3次元画像で撮影できる3次元用医用画像を取得するものであってもよい。
 情報処理装置6の制御部62は、挿入距離(S座標)に基づき、視点位置を導出する(S103)。制御部62は、内視鏡用プロセッサ20を介して取得した子内視鏡401の挿入距離(S座標)及び3次元用医用画像に基づき、子内視鏡401が挿入された消化器官等の内壁の内側に位置する子内視鏡401の先端の座標を導出する。当該子内視鏡401のS座標(挿入距離)は、親内視鏡40のS座標(SP)に、当該親内視鏡40の先端部443から突出している子内視鏡401の長さ(突出距離(SC))を加算(SP+SC)した値(距離)である。子内視鏡401の先端の座標は、所定の地点を原点として設定された3次元用医用画像の座標系(体内座標系)における座標である。
 情報処理装置6の制御部62は、視点位置に基づき候補となる複数の仮想内視鏡画像を生成する(S104)。制御部62は、子内視鏡401の先端の座標に相当する視点位置を起点に、視点方向、すなわち3次元用医用画像の座標系における回転角(Θx,Θy,Θz)を、所定単位量ずつ変更させて、候補となる複数の仮想内視鏡画像を順次に生成する。例えば、所定単位量を10°とした場合、制御部62は、各軸の回転角に対し36個の分解能を有し、すなわち36の3乗(46656)枚の候補となる仮想内視鏡画像を生成するものであってもよい。
 情報処理装置6の制御部62は、生成した複数の仮想内視鏡画像の内、子内視鏡画像との一致度が最も高い仮想内視鏡画像を特定する(S105)。制御部62は、例えば一致度学習モデル92を用いて、子内視鏡画像との一致度が最も高い仮想内視鏡画像を特定する。又は、子内視鏡画像の陰影画像と仮想内視鏡画像の陰影画像の相関を取るような指標で一致度を測定するものであってもよい。制御部62は、最も一致度が高い仮想内視鏡画像と、当該仮想内視鏡画像を生成する際の視点位置及び方向(回転角度)とを特定する。
 情報処理装置6の制御部62は、取得した仮想内視鏡画像等により距離画像情報を導出する(S106)。制御部62は、仮想内視鏡画像における各画素同士の距離に関する情報である距離画像情報を導出する。
 情報処理装置6の制御部62は、距離画像情報及び3次元用医用画像に含まれる体腔情報に基づき、操作支援情報を出力する(S107)。制御部62は、取得した3次元用医用画像に含まれる体腔情報を、距離画像情報を導出した仮想内視鏡画像の撮像領域を含む3次元領域において、子内視鏡401が挿入されている体内器官等の形状(器官の内壁形状)を示す曲面データと抽出する。制御部62は、抽出した曲面データ、距離画像情報及び、子内視鏡401の位置及び向きを示す情報を、操作情報学習モデル91に入力し、操作情報学習モデル91が出力した操作支援情報を出力する。
 制御部62は、操作支援情報を出力するにあたり、当該操作支援情報を子内視鏡画像、仮想内視鏡画像又は3次元用医用画像に重畳させた画像データを生成し、例えば表示部に当該画像データを出力するものであってもよい。表示部は、情報処理装置6の制御部62から出力された画像データに基づき、操作支援情報が重畳された子内視鏡画像、仮想内視鏡画像又は3次元用医用画像を表示する。
 子内視鏡画像、仮想内視鏡画像又は3次元用医用画像に重畳される操作支援情報は、子内視鏡401の挿入方向、挿入量、挿入速度及び、挿入先を示す目標点座標等に関する情報が含まれているため、医師等、子内視鏡401の操作者に対し有用な情報を提供することができ、医師等に対する診断支援に寄与することができる。
 本実施形態によれば、情報処理装置6の制御部62は、例えば、X線CT、X線コーンビームCT、MRI-CT及び超音波診断装置にて、被検者の体内を撮像した3次元医用画像を取得し、子内視鏡401の挿入距離に関する情報に基づき、3次元医用画像の座標系における位置情報を導出する。従って、親内視鏡40及び子内視鏡401を備える親子方式の内視鏡装置10においても、親内視鏡40によって撮像された親内視鏡40画像と同様に、子内視鏡401画像によって撮像された子内視鏡401画像と3次元医用画像とを関連付けることができる。情報処理装置6の制御部62は、被検者の体内における親内視鏡40の挿入距離に、親内視鏡40の先端部443から突出した子内視鏡401の突出距離を加算することにより、当該体内における子内視鏡401の挿入距離を導出するため、子内視鏡401の挿入距離を効率的に算出することができる。
 本実施形態によれば、情報処理装置6の制御部62は、子内視鏡401画像と関連付けられた3次元医用画像から生成した仮想内視鏡画像に含まれる距離画像情報に基づいて、子内視鏡401の操作に関する操作支援情報を出力するため、医師等の内視鏡装置10の操作者に対し、有益な情報を提供することができる。
(実施形態2)
 図12は、実施形態2(子内視鏡画像の補正)に係る診断支援学習モデルを用いて診断支援情報を出力する処理を説明する説明図である。情報処理装置6は、子内視鏡画像を問題データとし、病変の有無、病変の症状の種類、病変の症状のステージ及び病変の場所等の少なくとも1つを含む診断支援情報を回答データとする訓練データに基づき学習することで、子内視鏡画像を入力とし、病変の有無等を含む診断支援情報を出力とするニューラルネットワークを構築(生成)する子。子内視鏡画像には、例えば病変が疑われる体内部位が含まれる。病変の有無、症状の種類、症状のステージ及び、病変の場所は、子内視鏡画像に含まれる体内部位に関する病変の有無又は確率値、症状の種類、症状のステージ及び、病変の場所に関する情報である。
 診断支援学習モデル93に入力される子内視鏡画像は、当該子内視鏡画像に対応する仮想内視鏡画像(当該子内視鏡画像に最も一致する仮想内視鏡画像)から導出された距離画像情報に基づき、特徴パラメータが補正された子内視鏡画像であってもよい。当該距離画像情報に基づく特徴パラメータの補正については、後述する。
 訓練データを用いて学習されたニューラルネットワーク(診断支援学習モデル93)は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用が想定される。診断支援学習モデル93は、上述のごとく制御部62(CPU等)及び記憶部63を備える情報処理装置6にて用いられるものであり、このように演算処理能力を有する情報処理装置6にて実行されることにより、ニューラルネットワークシステムが構成される。すなわち、情報処理装置6の制御部62が、記憶部63に記憶された診断支援学習モデル93からの指令に従って、入力層に入力された子内視鏡画像の特徴量を抽出する演算を行い、出力層から病変の有無等を含む診断支援情報を出力するように動作する。
 入力層は、子内視鏡画像の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値及び距離情報を中間層に受け渡す。中間層は、子内視鏡画像の画像特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量を出力層に受け渡す。出力層は、病変の有無及び症状のステージに関する情報を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量に基づいて、病変の有無及び症状のステージに関する情報を出力する。例えば診断支援学習モデル93がCNN(Convolutional Neural Network)である場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピング(圧縮)するプーリング層とが交互に連結された構成を有し、子内視鏡画像の画素情報を圧縮しながら最終的に子内視鏡画像の特徴量を抽出する。出力層は、当該子内視鏡画像に含まれる体内部位における病変の有無等のに関する情報を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量等に基づいて、病変の有無等のに関する情報を出力する。出力された病変の有無等のに関する情報は、子内視鏡401を操作する医師等により診断支援情報として用いられる情報である。
 本実施形態では、診断支援学習モデル93に入力されるデータは、子内視鏡画像であるとして説明しているがこれに限定されない。診断支援学習モデル93に入力されるデータは、子内視鏡401が撮像した子撮影画像(生画像)であってもよい。すなわち、診断支援学習モデル93は、子撮影画像(生画像)が入力されることにより、病変の有無等のに関する情報を出力するものであってもよい。
 本実施形態では診断支援学習モデル93がCNN等のニューラルネットワーク(NN)であるとして説明するが、診断支援学習モデル93は、NNに限定されず、SVM(Support Vector Machine)、ベイジアンネットワーク、回帰木など、他の学習アルゴリズムで構築された診断支援学習モデル93であってもよい。又は、CNNの代わりに、RCNN(Regions with Convolutional Neural Network)、Fast RCNN、Faster RCNN又はSSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)等の、任意の物体検出アルゴリズムを使用しても良い。
 情報処理装置6は、出力層から出力された値を、問題データ(子内視鏡画像)に対し、ラベル付けされた情報(病変の有無、症状の種類及び症状のステージ)、すなわち正解値(回答データ)と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数などである。パラメータの最適化の方法は特に限定されないが、例えば情報処理装置6は、誤差逆伝播法を用いて各種パラメータの最適化を行う。情報処理装置6は、訓練データに含まれる子内視鏡画像について上記の処理を行い、診断支援学習モデル93を生成し、生成した診断支援学習モデル93を記憶部63に記憶する。
 訓練データとして用いられる子内視鏡画像(問題データ)と、これら情報に相関を有する病変の有無等に関する情報(回答データ)は、各医療機関において行われた子内視鏡401による検査の結果データとして大量に保存されており、これら結果データを用いることにより、診断支援学習モデル93を学習するための訓練データを大量に生成することができる。
 図13は、情報処理装置6の制御部62に含まれる機能部を例示する機能ブロック図である。情報処理装置6の制御部62は、記憶部63に記憶されているプログラムP(プログラム製品)を実行することにより、取得部621、距離画像情報導出部625、特長パラメータ導出部627、特徴パラメータ補正部628、出力部629として機能する。また、制御部62は、記憶部63に記憶されているプログラムPを実行することにより、又は診断支援学習モデル93を構成する実体ファイルを読み出すことにより、診断支援学習モデル93として機能する。
 取得部621は、内視鏡用プロセッサ20から、又は入力部8を介して入力される被検者ID等を受付け、被検者ID等を取得する。取得部621は、取得した被検者ID又は、被検者ID及び検査日時を検索キーとして内視鏡画像DB631を検索し、子内視鏡画像及び当該子内視鏡画像に最も一致する仮想内視鏡画像から成る複数のデータセットを取得する。
 取得部621は、仮想内視鏡画像を距離画像情報導出部625に出力する。距離画像情報導出部625は、実施形態1と同様に、取得した仮想内視鏡画像に基づき、距離画像情報を導出する。
 取得部621は、子内視鏡画像を特長パラメータ導出部627に出力する。特長パラメータ導出部627は、子内視鏡画像に含まれる所定の体内部位の領域を、特長パラメータとして導出する。例えば特長パラメータ導出部627は、パターン認識又はエッジ検出等を用い、子内視鏡画像に含まれる所定の体内部位の領域を、特長パラメータとして導出するものであってもよい。又は、特長パラメータ導出部627は、子内視鏡画像から体内部位の色合い又は襞の変化に基づき、A-KAZE(Accelerated KAZE)、SIFT(Scale Invariant Feature Transform)等の局所特徴パラメータ抽出方法を用いて、子内視鏡画像に含まれる所定の体内部位の領域を、特長パラメータとして導出するものであってもよい。
 特徴パラメータ補正部628は、距離画像情報導出部625から出力された距離画像情報、特長パラメータ導出部627から出力された特長パラメータ、取得部621から出力された子内視鏡画像を取得する。特徴パラメータ補正部628は、取得した距離画像情報、特長パラメータ及び子内視鏡画像に基づき、距離画像情報によって特長パラメータが補正された子内視鏡画像を生成し、診断支援学習モデル93に出力する。
 特徴パラメータ補正部628による補正は、例えば、特長パラメータとして特定された所定の体内部位の領域の面積を補正(面積補正処理)するものである。面積補正処理を行うにあたり、特徴パラメータ補正部628は、仮想内視鏡画像から得られた距離画像情報に基づき、対応する子内視鏡画像の各画像領域の距離R(例えば、r1またはr2等)を取得する。特徴パラメータ補正部628は、取得した各画像領域の距離と基準距離(例えば、20mm)とを比較する。制御部21は、比較した各領域の距離Rとの逆2乗比(R/20)^2「^:べき乗」で補正を行う。特徴パラメータ補正部628は、子内視鏡画像の画像領域の距離が基準距離以上であると判定した場合(画素が遠い)、該画像領域を構成する画素数(ピクセル数)を各領域の距離Rとの逆2乗比(R/20)^2で補正を行うことにより、該画像領域に対する拡大処理を行う。特徴パラメータ補正部628は、子内視鏡画像の画像領域の距離が基準距離未満であると判定した場合(画素が近い)、該画像領域を構成する画素数を各領域の距離Rとの逆2乗比(R/20)^2で補正を行い減らすことにより、該画像領域に対する縮小処理を行う。また各画像領域で各ピクセル間での距離が相違する場合、基準距離に置いたとして補正を行う。又は、特徴パラメータ補正部628は、最近傍補間法、バイリニア補間法、バイキュービック補間法、又はLanczos(ランツォシュ)補間法等を用いて、面積補正処理を行うものであってもよい。特徴パラメータ補正部628は、これら種々の方法を用いて、子内視鏡画像に対し面積補正処理を行い、補正された子内視鏡画像を診断支援学習モデル93に出力する。
 診断支援学習モデル93は、補正された子内視鏡画像を取得し、子内視鏡画像に含まれる体内部位における病変の有無等を含む診断支援情報を、出力部629に出力する。出力部629は、診断支援学習モデル93から病変の有無等を含む診断支援情報を取得する共に、特徴パラメータ補正部628又は取得部621から子内視鏡画像、被検者ID等を取得する。出力部629は、特徴パラメータ補正部628から特徴パラメータが補正された子内視鏡画像を取得するものであってもよい。出力部629は、子内視鏡画像に基づき内視鏡画像DB631を検索し、当該子内視鏡画像の視点位置等の関連する情報を取得するものであってもよい。
 出力部629は、診断支援学習モデル93から取得した病変の有無等を含む診断支援情報と、当該診断支援情報の対象となる子内視鏡画像とを関連付けて、表示部7に出力する。出力部629は、診断支援学習モデル93に入力した補正後の子内視鏡画像及び、補正前の子内視鏡画像の両画像を表示部7に出力するものであってもよい。出力部629は、診断支援情報と、当該診断支援情報の対象となる子内視鏡画像と関連付けられた3次元医用画像とを関連付けて、表示部7に出力するものであってもよい。診断支援情報と3次元医用画像とを関連付けて、表示部7に出力するあたり、出力部629は、3次元医用画像における病変の位置を例えばハイライトした状態で表示部7にて表示されるように出力するものであってもよい。
 出力部629は、診断支援学習モデル93から取得した病変の有無等を含む診断支援情報と、当該診断支援情報の対象となる子内視鏡画像とを関連付けて、内視鏡画像DB631に登録するものであってもよい。出力部629は、診断支援学習モデル93に入力した補正後の子内視鏡画像及び、補正前の子内視鏡画像の両画像を内視鏡画像DB631に登録するものであってもよい。出力部629は、距離画像情報導出部625から距離画像情報(距離画像)を取得し、子内視鏡画像と関連付けて、内視鏡画像DB631に登録するものであってもよい。
 本実施形態において、取得部621は、内視鏡画像DB631から子内視鏡画像及び仮想内視鏡画像を取得するとしたがこれに限定されない。取得部621は、実施形態1と同様に内視鏡用プロセッサ20から子内視鏡画像等を取得し、仮想内視鏡画像の生成及び距離画像情報の導出等は、実施形態1と同様の機能部によって行われるものであってもよい。
 図14は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。図15は、情報処理装置6の制御部62による診断支援情報の出力の処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
 情報処理装置6の制御部62は、内視鏡用プロセッサ20から出力された検査日時、被検者ID、子内視鏡画像及び、挿入距離に関する情報を取得する(S201)。情報処理装置6の制御部62は、CT装置又はMRI装置、超音波診断装置のように体内を3次元画像で撮影できる検査装置から出力される3次元用医用画像を取得する(S202)。情報処理装置6の制御部62は、挿入距離(S座標)に基づき、視点位置を導出する(S203)。情報処理装置6の制御部62は、視点位置に基づき候補となる複数の仮想内視鏡画像を生成する(S204)。情報処理装置6の制御部62は、生成した複数の仮想内視鏡画像の内、子内視鏡画像との一致度が最も高い仮想内視鏡画像を特定する(S205)。情報処理装置6の制御部62は、取得した仮想内視鏡画像等により距離画像情報を導出する(S206)。情報処理装置6の制御部62は、距離画像情報及び3次元用医用画像に含まれる体腔情報に基づき、操作支援情報を出力する(S207)。情報処理装置6の制御部62は、実施形態1のS101からS107の処理と同様に、S201からS207の処理を行う。
 情報処理装置6の制御部62は、診断支援情報を出力する(S208)。情報処理装置6の制御部62は、S206の処理の実行後、S207の処理と並行してS208の処理を実行するものであってもよい。S208の処理は、図15のフローチャートによって示される。
 情報処理装置6の制御部62は、子内視鏡画像から特徴パラメータを導出する(S2081)。情報処理装置6の制御部62は、例えば面積補正処理の対象となる子内視鏡画像の領域等の特徴パラメータを導出する。
 情報処理装置6の制御部62は、距離画像情報に基づき、特徴パラメータが補正された子内視鏡画像を生成する(S2082)。情報処理装置6の制御部62は、距離画像情報に基づき、例えば、特徴パラメータに対応する領域の面積を補正し、当該特徴パラメータが補正された子内視鏡画像を生成する。
 情報処理装置6の制御部62は、特徴パラメータが補正された子内視鏡画像を診断支援学習モデル93に入力する(S2083)。診断支援学習モデル93に入力する情報は、特徴パラメータが補正された子内視鏡画像に加えて、特徴パラメータに対応する3次元医用画像の画素に付随されている実効質量数(effective-Z)及び体組成を含むものであってもよい。特徴パラメータは、子内視鏡画像の領域、すなわち子内視鏡画像に含まれる体内部位又は画素に対応しており、当該体内部位又は画素は、仮想内視鏡画像から生成された距離画像情報によって、3次元医用画像の座標及び画素に対応している。上述のとおり、3次元医用画像の画素には、実効質量数(effective-Z)、体組成、又は双方の情報が付随されているため、制御部62は、特徴パラメータが補正された子内視鏡画像に基づき、3次元医用画像に付随している実効質量数(effective-Z)及び体組成を取得する。
 診断支援学習モデル93は、特徴パラメータが補正された子内視鏡画像が入力されることにより、当該子内視鏡画像に含まれる病変等のROIに関する診断支援情報を出力するように学習されている。診断支援学習モデル93は、特徴パラメータが補正された子内視鏡画像に加え、更に実効質量数(effective-Z)及び体組成が入力されることにより、当該子内視鏡画像に含まれる病変等のROIに関する診断支援情報を出力するように学習されているものであってもよい。このように学習されている診断支援学習モデル93に、特徴パラメータが補正された子内視鏡画像等を入力することにより、更に精度の高い診断支援情報を取得することができる。
 情報処理装置6の制御部62は、診断支援学習モデル93が出力した診断支援情報を取得する(S2084)。情報処理装置6の制御部62は、取得した診断支援情報と子内視鏡画像とを関連付けて出力する(S2085)。制御部62は、取得した診断支援情報と、子内視鏡画像、3次元用医用画像、仮想内視鏡画像及び視点位置等の子内視鏡画像に関連する情報を表示部7に出力し、表示させるものであってもよい。更に制御部62は、取得した診断支援情報と子内視鏡画像とを関連付けて、内視鏡画像DB631に登録するものであってもよい。
 本実施形態等において、診断支援学習モデル93を含む一連の処理における各機能部を、内視鏡用プロセッサ20の制御部21による機能部と、情報処理装置6の制御部62による機能部夫々とに分けて説明したが、これら機能部の分担は一例であり、これに限定されない。実施形態1と同様に、内視鏡用プロセッサ20の制御部21は、情報処理装置6の制御部62によって行われる全ての機能部として、機能するものであってもよい。又は、内視鏡用プロセッサ20の制御部21と、情報処理装置6の制御部62とは、例えばプロセス間通信を行うことにより、協働して一連の処理における各機能部として機能するものであってもよい。
 本実施形態によれば、情報処理装置6の制御部62は、子内視鏡401画像と関連付けられた3次元医用画像から生成した仮想内視鏡画像に含まれる距離画像情報に基づいて、子内視鏡401の操作に関する操作支援情報を出力するため、医師等の内視鏡装置10の操作者に対し、有益な情報を提供することができる。
(実施形態3)
 図16は、実施形態3(回転測定部)に係る子内視鏡401等を模式的に示す側断面図である。実施形態3の内視鏡装置10は、子内視鏡401に関する測定を行う部位として、子内視鏡測定部402及び検知部403に加え、更に子内視鏡曲げ測定部404、及び子内視鏡回転測定部405を備える。
 子内視鏡曲げ測定部404は、日本国特開2019-37643号公報に開示されている内視鏡挿入形状検出装置のように、例えば子内視鏡401(子内視鏡401用ユニバーサルコード)の長手方向に沿って所定の間隔で複数の磁気コイルが配置される装置であってもよい。屈曲履歴情報とは、屈曲角度、屈曲方向等、屈曲に関する物理的パラメータ又は情報を示す。子内視鏡回転測定部405は、例えば、マウスピース、アタッチメント、ジャイロスコープ又は加速度センサにより構成され、子内視鏡401の回転角度を出力する。
 情報処理装置6の制御部62(取得部)は、子内視鏡曲げ測定部404から取得した屈曲履歴情報及び子内視鏡回転測定部405から取得した回転角度に基づき、子内視鏡401のS座標を補正し、補正したS座標を用いて、実施形態1と同様に子内視鏡401画像と3次元医用画像と関連付け等の処理を行うものであってもよい。
 本実施形態によれば、情報処理装置6の制御部62は、屈曲履歴及び回転角度に関する情報によって、子内視鏡401の挿入距離(S座標)を補正することにより、挿入距離(S座標)の精度を向上させることができる。これにより、子内視鏡401画像が撮像された時点における3次元医用画像の座標系における子内視鏡401の視点位置(座標)及び視点方向(回転角)を精度良く特定し、好適な仮想内視鏡画像を効率的に生成でき、子内視鏡401画像と3次元医用画像との関連付けにおける精度を更に向上させることができる。
(実施形態4)
 図17は、実施形態4(親内視鏡用プロセッサ201、子内視鏡用プロセッサ202)に係る内視鏡システムの構成例を示すブロック図である。実施形態4の内視鏡用プロセッサ20は、親内視鏡40に接続される親内視鏡用プロセッサ201と、子内視鏡401に接続される子内視鏡用プロセッサ202とを含む。親内視鏡用プロセッサ201及び子内視鏡用プロセッサ202は、通信可能に接続され、親内視鏡40及び子内視鏡401それぞれのS座標等の種々の情報が交換可能なように構成されている。
 親内視鏡用プロセッサ201及び子内視鏡用プロセッサ202は、実施形態1と同様に制御部21(親制御部、子制御部)及び主記憶装置22等、撮影画像(親撮影画像及び子撮影画像)を内視鏡画像(親内視鏡画像、子内視鏡画像)に変換するためのハードウェア機能部を備える。
 子内視鏡用プロセッサ202は、子内視鏡用ユニバーサルコード491を介して子内視鏡401から伝送された子撮影画像を子内視鏡画像に変換し、当該子内視鏡画像を親内視鏡用プロセッサ201に出力する。
 親内視鏡用プロセッサ201は、親内視鏡用ユニバーサルコード49を介して親内視鏡40から伝送された親撮影画像を親内視鏡画像に変換する。親内視鏡用プロセッサ201は、親内視鏡画像及び子内視鏡画像を、例えば表示装置50に出力する。
 今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、請求の範囲内での全ての変更及び請求の範囲と均等の範囲が含まれることが意図される。
 S 内視鏡システム
 10 内視鏡装置
 15 キーボード
 16 収容棚
 20 内視鏡用プロセッサ
 201 親内視鏡用プロセッサ
 202 子内視鏡用プロセッサ
 21 制御部
 211 画像処理部
 22 主記憶装置
 23 補助記憶装置
 24 通信部
 25 タッチパネル
 26 表示装置I/F
 27 入力装置I/F
 28 読取部
 31 内視鏡用コネクタ
 311 電気コネクタ
 312 光コネクタ
 33 光源
 34 ポンプ
 35 送水タンク
 36 送気送水口金
 40 親内視鏡
 400 親内視鏡測定部
 401 子内視鏡
 402 子内視鏡測定部
 403 検知部
 404 子内視鏡曲げ測定部
 405 子内視鏡回転測定部
 406 エレベータ
 43 操作部
 431 制御ボタン
 433 湾曲ノブ
 434 自動操作機構
 435 鉗子口
 44 挿入部(可撓管)
 441 軟性部
 442 湾曲部
 443 先端部
 444 撮像部
 445 撮像素子
 446 撮影用光源
 45 折止部
 48 スコープコネクタ
 49 親内視鏡用ユニバーサルコード
 491 子内視鏡用ユニバーサルコード
 50 表示装置
 6 情報処理装置
 61 通信部
 62 制御部
 621 取得部
 622 視点位置導出部
 623 仮想内視鏡画像生成部
 624 一致度判定部
 625 距離画像情報導出部
 626 操作支援情報出力部
 627 特長パラメータ導出部
 628 特徴パラメータ補正部
 629 出力部
 63 記憶部
 631 内視鏡画像DB
 632 記録媒体
 P プログラム
 64 入出力I/F
 7 表示部
 8 入力部
 91 操作情報学習モデル
 92 一致度学習モデル
 93 診断支援学習モデル
 

Claims (8)

  1.  親内視鏡及び子内視鏡を備える内視鏡装置と通信可能に接続されるコンピュータに、
     前記子内視鏡から被検者の子内視鏡画像を取得し、
     前記子内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記子内視鏡の挿入距離に関する情報を取得し、
     前記被検者の体内を撮像した3次元医用画像を取得し、
     前記子内視鏡の挿入距離に関する情報に基づいて、前記子内視鏡画像と前記3次元医用画像とを関連付ける
     処理を実行させるプログラム。
  2.  前記子内視鏡の挿入距離に関する情報に基づき、前記3次元医用画像の座標系における位置情報を導出し、
     導出した前記位置情報を用いて、前記子内視鏡画像と前記3次元医用画像とを関連付ける
     請求項1に記載のプログラム。
  3.  前記被検者の体内に挿入された前記親内視鏡の挿入距離に関する情報を取得し、
     前記親内視鏡の先端部から突出した前記子内視鏡の突出距離に関する情報を取得し、
     前記親内視鏡の挿入距離に前記子内視鏡の突出距離を加算することにより、前記子内視鏡の挿入距離を導出する
     請求項1又は請求項2に記載のプログラム。
  4.  前記子内視鏡画像と関連付けられた前記3次元医用画像を射影した仮想内視鏡画像を生成し、
     前記仮想内視鏡画像から導出される距離画像情報に基づいて、前記子内視鏡の操作に関する操作支援情報を出力する
     請求項1から請求項3のいずれか1項に記載のプログラム。
  5.  前記子内視鏡画像と関連付けられた前記3次元医用画像を射影した仮想内視鏡画像を生成し、
     前記仮想内視鏡画像から導出される距離画像情報によって、前記子内視鏡画像を補正し、
     子内視鏡画像が入力された場合に該子内視鏡画像に含まれる関心領域に関する診断支援情報を出力するように学習された学習モデルに、前記補正した子内視鏡画像を入力し、
     前記学習モデルから取得した診断支援情報を出力する
     請求項1から請求項4のいずれか1項に記載のプログラム。
  6.  前記3次元医用画像は、X線CT、X線コーンビームCT、MRI-CT及び超音波診断装置の少なくとも1による撮像手段によって撮像される
     請求項1から請求項5のいずれか1項に記載のプログラム。
  7.  親内視鏡及び子内視鏡を備える内視鏡装置と通信可能に接続されるコンピュータに、
     前記子内視鏡から被検者の子内視鏡画像を取得し、
     前記子内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記子内視鏡の挿入距離に関する情報を取得し、
     前記被検者の体内を撮像した3次元医用画像を取得し、
     前記子内視鏡の挿入距離に関する情報に基づいて、前記子内視鏡画像と前記3次元医用画像とを関連付ける
     処理を実行させる情報処理方法。
  8.  内視鏡装置と、前記内視鏡装置から出力される内視鏡画像の処理を行う制御部とを含む内視鏡システムであって、
     前記内視鏡装置は、
     親内視鏡と、
     前記親内視鏡の先端部から突出する子内視鏡と
     前記親内視鏡の先端側に設けられ、前記子内視鏡を検知する検知部と、
     前記親内視鏡の基端側に設けられ、前記子内視鏡の突出距離を測定する子内視鏡測定部と、
     前記親内視鏡の挿入距離を測定する親内視鏡測定部とを備え、
     前記制御部は、
     前記親内視鏡測定部から出力される前記親内視鏡の挿入距離を取得し、
     前記検知部が前記子内視鏡を検知した際、前記子内視鏡測定部によって測定された前記子内視鏡の突出距離を取得し、
     前記親内視鏡の挿入距離及び前記子内視鏡の突出距離に基づき、被検者の体内に挿入された前記子内視鏡の挿入距離を導出し、
     前記子内視鏡から前記被検者の子内視鏡画像を取得し、
     前記被検者の体内を撮像した3次元医用画像を取得し、
     前記子内視鏡の挿入距離に関する情報に基づいて、前記子内視鏡画像と前記3次元医用画像とを関連付ける
     内視鏡システム。
     
PCT/JP2022/014208 2021-05-12 2022-03-25 プログラム、情報処理方法及び内視鏡システム WO2022239518A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-081151 2021-05-12
JP2021081151A JP2022175037A (ja) 2021-05-12 2021-05-12 プログラム、情報処理方法及び内視鏡システム

Publications (1)

Publication Number Publication Date
WO2022239518A1 true WO2022239518A1 (ja) 2022-11-17

Family

ID=84029543

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/014208 WO2022239518A1 (ja) 2021-05-12 2022-03-25 プログラム、情報処理方法及び内視鏡システム

Country Status (2)

Country Link
JP (1) JP2022175037A (ja)
WO (1) WO2022239518A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346757A (ja) * 2000-06-07 2001-12-18 Olympus Optical Co Ltd 内視鏡装置
JP2003144381A (ja) * 2001-11-19 2003-05-20 Pentax Corp 親子式内視鏡の子内視鏡
JP2011000173A (ja) * 2009-06-16 2011-01-06 Toshiba Corp 内視鏡検査支援システム
JP2012165838A (ja) * 2011-02-10 2012-09-06 Nagoya Univ 内視鏡挿入支援装置
WO2021054360A1 (ja) * 2019-09-20 2021-03-25 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346757A (ja) * 2000-06-07 2001-12-18 Olympus Optical Co Ltd 内視鏡装置
JP2003144381A (ja) * 2001-11-19 2003-05-20 Pentax Corp 親子式内視鏡の子内視鏡
JP2011000173A (ja) * 2009-06-16 2011-01-06 Toshiba Corp 内視鏡検査支援システム
JP2012165838A (ja) * 2011-02-10 2012-09-06 Nagoya Univ 内視鏡挿入支援装置
WO2021054360A1 (ja) * 2019-09-20 2021-03-25 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
JP2022175037A (ja) 2022-11-25

Similar Documents

Publication Publication Date Title
JP7313512B2 (ja) 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
JP7254742B2 (ja) プログラム、情報処理方法、情報処理装置及び診断支援システム
JP7377769B2 (ja) プログラム、情報処理方法及び情報処理装置
Ozyoruk et al. EndoSLAM dataset and an unsupervised monocular visual odometry and depth estimation approach for endoscopic videos
Bergen et al. Stitching and surface reconstruction from endoscopic image sequences: a review of applications and methods
US20130002842A1 (en) Systems and Methods for Motion and Distance Measurement in Gastrointestinal Endoscopy
WO2017027638A1 (en) 3d reconstruction and registration of endoscopic data
Szczypiński et al. A model of deformable rings for interpretation of wireless capsule endoscopic videos
JP2014230612A (ja) 内視鏡観察支援装置
US10970875B2 (en) Examination support device, examination support method, and examination support program
JP6704095B1 (ja) プログラム、情報処理方法及び情報処理装置
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
JP2008119259A (ja) 内視鏡挿入形状解析システム
Allain et al. Re-localisation of a biopsy site in endoscopic images and characterisation of its uncertainty
US20220084194A1 (en) Computer program, processor for endoscope, and information processing method
CN113570592A (zh) 肠胃病检测和模型训练方法、装置、设备及介质
WO2022239518A1 (ja) プログラム、情報処理方法及び内視鏡システム
JP7023195B2 (ja) 検査支援装置、方法およびプログラム
Liao et al. Data stream stabilization for optical coherence tomography volumetric scanning
WO2023275974A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2023067885A1 (ja) プログラム、情報処理方法、情報処理装置及び診断支援システム
Ozyoruk et al. Quantitative evaluation of endoscopic slam methods: Endoslam dataset
Gong et al. Real-Time Camera Localization during Robot-Assisted Telecystoscopy for Bladder Cancer Surveillance
Armin Automated visibility map from colonoscopy video to support clinical diagnosis and improve the quality of colonoscopy
Regef et al. Laryngeal surface reconstructions from monocular endoscopic videos: a structure from motion pipeline for periodic deformations

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22807223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22807223

Country of ref document: EP

Kind code of ref document: A1