WO2022070782A1 - プログラム、情報処理方法及び内視鏡システム - Google Patents

プログラム、情報処理方法及び内視鏡システム Download PDF

Info

Publication number
WO2022070782A1
WO2022070782A1 PCT/JP2021/032584 JP2021032584W WO2022070782A1 WO 2022070782 A1 WO2022070782 A1 WO 2022070782A1 JP 2021032584 W JP2021032584 W JP 2021032584W WO 2022070782 A1 WO2022070782 A1 WO 2022070782A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
image
unit
composite
endoscopic
Prior art date
Application number
PCT/JP2021/032584
Other languages
English (en)
French (fr)
Inventor
明彦 西出
淳子 管井
Original Assignee
Hoya株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya株式会社 filed Critical Hoya株式会社
Priority to US18/019,911 priority Critical patent/US20230353879A1/en
Priority to CN202180045725.0A priority patent/CN115720506A/zh
Priority to EP21875084.2A priority patent/EP4177664A1/en
Publication of WO2022070782A1 publication Critical patent/WO2022070782A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00181Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00097Sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00177Optical arrangements characterised by the viewing angles for 90 degrees side-viewing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00179Optical arrangements characterised by the viewing angles for off-axis viewing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0607Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for annular illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0615Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for radial illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0623Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for off-axis illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0625Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for multiple fixed illumination angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present technology relates to programs, information processing methods and endoscopic systems.
  • This application claims priority based on Japanese Application No. 2020-167752 filed on October 2, 2020, and incorporates all the contents described in these Japanese applications.
  • An endoscope is a medical device that enables observation and treatment of a desired location by being inserted into the body cavity of a subject, and is an imaging unit incorporated in the tip of an insertion tube inserted into the body cavity. And a lighting device that illuminates the imaging field of view of the imaging unit.
  • Patent Document 1 discloses an endoscope that includes an illuminating device that realizes illumination in a wide angle range of 180 ° or more and enables observation in a wide viewing angle.
  • the endoscope device described in Document 1 has a problem that the point of generating an image composed based on the captured images captured by a plurality of imaging units is not taken into consideration. There is also a problem that there is no method of displaying the captured images captured by a plurality of imaging units on a plurality of display devices. There is also a problem that a display method such as a developed view display of a virtual endoscope image of X-ray CT does not exist in the endoscope device.
  • One aspect is to provide a program or the like that can generate an image composed of images captured by a plurality of imaging units.
  • Another object of the present invention is to display the developed view of the virtual endoscopic image of the X-ray CT in the same developed view display method as to display the developed view, so that the correspondence with the virtual endoscopic image of the X-ray CT can be easily taken.
  • the program according to one aspect of the present disclosure is an endoscope image in which a subject is imaged by a plurality of imaging portions arranged on the end face and the peripheral surface of a tubular tip portion provided in an insertion portion of the endoscope in a computer. Is obtained, and based on the plurality of captured endoscopic images, a composite image synthesized so as to be in the entire circumferential direction including the anterior visual field and the posterior visual field with respect to the tip portion is generated, and the endoscopic image is generated. The insertion distance and rotation angle of the endoscope inserted into the body of the subject at the time of imaging is acquired, and the composite image is output in association with the acquired insertion distance and rotation angle of the endoscope. To execute the process to be performed.
  • an endoscope image obtained by imaging a subject by a plurality of imaging portions arranged on the end face and the peripheral surface of a tubular tip portion provided in the insertion portion of the endoscope is obtained.
  • a composite image synthesized so as to be in the entire circumferential direction including the anterior visual field and the posterior visual field with respect to the tip portion is generated, and the endoscopic image is obtained.
  • the insertion distance and rotation angle of the endoscope inserted into the body of the subject at the time of imaging are acquired, and the composite image is output in association with the acquired insertion distance and rotation angle of the endoscope. Let the computer perform the process.
  • a plurality of images taken by acquiring an endoscopic image of a subject by a plurality of image pickup units arranged at a tip portion provided at an insertion portion of the endoscope are acquired by a computer.
  • a composite image synthesized so as to be in the entire circumferential direction including the front view and the rear view with respect to the tip portion is generated, the generated composite image is output, and the composite image is obtained.
  • a reference image obtained by capturing a predetermined reference object is acquired by the plurality of imaging units, an image composition parameter is derived based on the acquired reference image, and the derived image composition parameter is used.
  • a process including a process for generating the composite image is executed.
  • the program generates an endoscope development view corresponding to the development view display of the endoscope image by the virtual endoscope image of the X-ray CT on the computer, and displays the development view of the X-ray CT and the endoscope development view. It may execute a process including a process capable of comparing the displays.
  • an endoscope image in which a subject is imaged by a plurality of image pickup units arranged at a tip portion provided in an insertion portion of the endoscope is acquired, and a plurality of images are captured.
  • a composite image synthesized so as to be in the entire circumferential direction including the front view and the rear view with respect to the tip portion is generated, the generated composite image is output, and the composite image is generated.
  • the plurality of image pickup units acquire a reference image obtained by capturing a predetermined reference object, derive an image composition parameter based on the acquired reference image, and use the derived image composition parameter to perform the above-mentioned processing.
  • the information processing method generates an endoscope development view corresponding to the development view display of the endoscope image by the virtual endoscope image of the X-ray CT on the computer, and displays the development view of the X-ray CT and the endoscope. It may execute a process including a process capable of comparing the development view display.
  • the endoscope system is an endoscope system including an endoscope and a control unit that processes an endoscope image captured by the endoscope.
  • An insertion portion to be inserted into the body of the subject and a plurality of imaging portions provided at a tubular tip portion located at the tip of the insertion portion are provided, and the plurality of imaging portions are provided at the tip portion.
  • a plurality of endoscopic images including an anterior visual field and a posterior visual field in the entire circumferential direction are imaged, and the control unit acquires an endoscopic image of the subject by the plurality of the imaging units, and a plurality of endoscope images.
  • a plurality of the endoscopic images captured at the time of The endoscope system generates an endoscope development view corresponding to the development view display of the endoscope image by the virtual endoscope image of the X-ray CT, and the development view display and the endoscope development view of the X-ray CT. It may output information that can be compared with each other.
  • FIG. 1 is a schematic diagram showing an outline of a diagnosis support system according to the first embodiment (expanded view of an endoscope).
  • the endoscope system S includes an endoscope device 10 and an information processing device 6 communicably connected to the endoscope device 10.
  • the endoscope device 10 transmits an image (photographed image) taken by the imaging unit 446 of the endoscope 40 to the endoscope processor 20, and the endoscope processor 20 performs gamma correction, white balance correction, and shading correction.
  • image processing such as, an endoscopic image is generated in a state that is easy for the operator to see.
  • the endoscope device 10 outputs (transmits) the generated endoscope image to the information processing device 6.
  • the information processing device 6 that has acquired the endoscope images transmitted from the endoscope device 10 performs various information processing based on these endoscope images and outputs information related to diagnostic support.
  • the endoscope device 10 includes an endoscope processor 20, an endoscope 40, and a display device 50.
  • the display device 50 is, for example, a liquid crystal display device or an organic EL (Electro Luminescence) display device.
  • the display device 50 is installed on the upper stage of the storage shelf 16 with casters.
  • the endoscope processor 20 is housed in the middle stage of the storage shelf 16.
  • the storage shelf 16 is arranged in the vicinity of the endoscopy bed (not shown).
  • the storage shelf 16 has a pull-out shelf on which the keyboard 15 connected to the endoscope processor 20 is mounted.
  • the endoscope processor 20 has a substantially rectangular parallelepiped shape and is provided with a touch panel 25 on one surface.
  • a reading unit 28 is arranged at the bottom of the touch panel 25.
  • the reading unit 28 is a connection interface for reading and writing a portable recording medium such as a USB connector, an SD (Secure Digital) card slot, or a CD-ROM (Compact Disc Read Only Memory) drive.
  • the endoscope 40 has an insertion unit 44, an operation unit 43, a universal cord 49, and a scope connector 48.
  • the operation unit 43 is provided with a control button 431.
  • the insertion portion 44 is long, and one end thereof is connected to the operation portion 43 via the folding portion 45.
  • the insertion portion 44 has a flexible portion 441, a curved portion 442, and a tip portion 443 in this order from the operation portion 43 side.
  • the bending portion 442 bends in response to the operation of the bending knob 433.
  • a physical detection device such as a 3-axis accelerometer, a gyro sensor, a geomagnetic sensor, a magnetic coil sensor, or an endoscope insertion shape observation device (Coro Navi) is mounted on the insertion unit 44, and the endoscope 40 is inside the subject's body. When it is inserted into, the detection result from these physical detection devices may be acquired.
  • the universal cord 49 is long, and the first end is connected to the operation unit 43 and the second end is connected to the scope connector 48.
  • the universal cord 49 is flexible.
  • the scope connector 48 has a substantially rectangular parallelepiped shape.
  • the scope connector 48 is provided with an air supply / water supply port 36 (see FIG. 2) for connecting an air supply / water supply tube.
  • FIG. 2 is a block diagram showing a configuration example of an endoscope device included in an endoscope system.
  • the control unit 21 is an arithmetic control device that executes the program (program product) of the present embodiment.
  • One or more CPUs Central Processing Units
  • GPUs Graphics Processing Units
  • multi-core CPUs and the like are used for the control unit 21.
  • the control unit 21 is connected to each hardware unit constituting the endoscope processor 20 via a bus.
  • the main storage device 22 is, for example, a storage device such as a SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), or a flash memory.
  • the main storage device 22 temporarily stores information necessary in the middle of processing performed by the control unit 21 and a program (program product) being executed by the control unit 21.
  • the auxiliary storage device 23 is, for example, a storage device such as a SRAM, a flash memory, or a hard disk, and is a storage device having a larger capacity than the main storage device 22. In the auxiliary storage device 23, for example, the acquired captured image and the generated endoscopic image may be stored as intermediate data.
  • the communication unit 24 is a communication module or communication interface for communicating with the information processing device 6 via a network by wire or wirelessly, and is, for example, a narrow-range wireless communication module such as wifi (registered trademark) or Bluetooth (registered trademark). Alternatively, it is a wide area wireless communication module such as 4G or LTE.
  • the touch panel 25 includes a display unit such as a liquid crystal display panel and an input unit laminated on the display unit.
  • the display device I / F 26 is an interface for connecting the endoscope processor 20 and the display device 50.
  • the input device I / F 27 is an interface for connecting an endoscope processor 20 and an input device such as a keyboard 15.
  • the light source 33 is a high-intensity white light source such as a white LED or a xenon lamp.
  • the light source 33 is connected to the bus via a driver (not shown).
  • the lighting, extinguishing, and changing of the brightness of the light source 33 are controlled by the control unit 21.
  • the illumination light emitted from the light source 33 is incident on the optical connector 312.
  • the optical connector 312 engages with the scope connector 48 to supply illumination light to the endoscope 40.
  • the pump 34 generates pressure for the air supply / water supply function of the endoscope 40.
  • the pump 34 is connected to the bus via a driver (not shown).
  • the on / off of the pump 34 and the change of the pressure are controlled by the control unit 21.
  • the pump 34 is connected to the air supply water supply port 36 provided in the scope connector 48 via the water supply tank 35.
  • a fiber bundle, a cable bundle, an air supply tube, a water supply tube, and the like are inserted inside the scope connector 48, the universal cord 49, the operation unit 43, and the insertion unit 44.
  • the illumination light emitted from the light source 33 is radiated from the illumination window provided at the tip portion 443 via the optical connector 312 and the fiber bundle.
  • the range illuminated by the illumination light is photographed by an image pickup unit provided at the tip portion 443.
  • the captured image is transmitted from the image pickup unit to the endoscope processor 20 via the cable bundle and the electric connector 311.
  • the control unit 21 of the endoscope processor 20 functions as an image processing unit 211 by executing a program stored in the main storage device 22.
  • the image processing unit 211 performs various image processing such as gamma correction, white balance correction, and shading correction on the image (photographed image) output from the endoscope 40, and outputs the image as an endoscope image.
  • FIG. 3 is a block diagram showing a configuration example of the information processing device 6 included in the endoscope system.
  • the information processing device 6 includes a control unit 62, a communication unit 61, a storage unit 63, and an input / output I / F 64.
  • the information processing device 6 is, for example, a server device, a personal computer, or the like.
  • the server device includes not only a single server device but also a cloud server device composed of a plurality of computers or a virtual server device.
  • the information processing device 6 may be provided as a cloud server located on an external network accessible from the endoscope processor 20.
  • the control unit 62 has an arithmetic processing unit having a timing function such as one or a plurality of CPUs (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit), and is stored in the storage unit 63. By reading and executing the program P (program product), various information processing, control processing, and the like related to the information processing unit 6 are performed.
  • the control unit 62 may be composed of a chip for a quantum computer, and the information processing device 6 may be a quantum computer.
  • the storage unit 63 includes a volatile storage area such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), and flash memory, and a non-volatile storage area such as EEPROM or hard disk.
  • the storage unit 63 stores in advance a program (program product) and data to be referred to at the time of processing.
  • the program (program product) stored in the storage unit 63 may be a program (program product) read from the recording medium 630 that can be read by the information processing apparatus 6. Further, a program (program product) may be downloaded from an external computer (not shown) connected to a communication network (not shown) and stored in the storage unit 63.
  • an entity file (instance file of a neural network (NN)) constituting a learning model (lesion learning model 631, interest region learning model 632) described later is stored.
  • entity files may be configured as a part of a program (program product).
  • the communication unit 61 is a communication module or communication interface for communicating with the endoscope device 10 by wire or wirelessly, for example, a narrow-range wireless communication module such as wifi (registered trademark), Bluetooth (registered trademark), or 4G. , LTE and other wide area wireless communication modules.
  • a narrow-range wireless communication module such as wifi (registered trademark), Bluetooth (registered trademark), or 4G. , LTE and other wide area wireless communication modules.
  • the input / output I / F64 conforms to a communication standard such as USB or DSUB, and is a communication interface for serial communication with an external device connected to the input / output I / F64.
  • a display unit 7 such as a display and an input unit 8 such as a keyboard are connected to the input / output I / F 64, and the control unit 62 performs information based on an execution command or event input from the input unit 8. The processing result is output to the display unit 7.
  • FIG. 4 is a perspective view schematically showing the tip end portion (peripheral surface 445) of the insertion portion.
  • FIG. 5 is a front view schematically showing the tip end portion (end surface 444) of the insertion portion.
  • a plurality of image pickup units 446 and a light source for photographing 447 are provided on the tip portion 443 of the endoscope 40.
  • the plurality of image pickup units 446 are formed on the image pickup unit 446 (four in the drawing) equally arranged along the circumferential direction on the peripheral surface 445 of the tubular body at the tip portion 443 and the end surface 444 of the tubular body at the tip end portion 443. It includes an image pickup unit 446 (one in the drawing) provided.
  • the image pickup unit 446 is composed of, for example, an image pickup element such as CMOS and a substrate on which the image pickup element is mounted.
  • the substrate (imaging unit 446) on which the image pickup element is mounted and the endoscope processor 20 are connected via, for example, a communication line and an electric connector 311.
  • the imaging unit 446 provided on the end surface 444 of the cylinder at the tip portion 443 images the front with respect to the insertion direction of the endoscope 40.
  • Each of the plurality of imaging units 446 provided on the peripheral surface 445 of the cylinder at the tip portion 443 images laterally with respect to the insertion direction of the endoscope 40. That is, the plurality of image pickup units 446 provided on the peripheral surface 445 of the cylinder at the tip portion 443 are the image pickup units 446 provided on the end surface 444 of the cylinder body at the tip portion 443 with respect to the insertion direction of the endoscope 40. It is possible to image an internal part located behind the internal part to be imaged by.
  • each image pickup unit 446 is arranged at equal intervals at an inscribed angle of 90 degrees.
  • the number of image pickup units 446 provided on the peripheral surface of the tubular tip portion 443 is, for example, three, and may be arranged at equal intervals at an inscribed angle of 120 degrees.
  • the plurality of photographing light sources 447 are the photographing light source 447 (four in the drawing) equally arranged along the circumferential direction on the peripheral surface 445 of the cylinder at the tip portion 443, and the end surface of the cylinder at the tip portion 443. Includes a photographing light source 447 (two in the drawing) provided in the 444.
  • the photographing light source 447 may be due to the illumination light emitted from the light source 33 guided by the fiber bundle through the illumination window provided at the tip portion 443, or may be white at the tip portion 443. It may be due to an LED or the like. When the white LED is provided on the tip portion 443, the light source 33 included in the endoscope device can be eliminated.
  • Each of the plurality of photographing light sources 447 corresponds to the imaging unit 446 provided on the end surface 444 of the cylinder at the tip portion 443 and the plurality of imaging units 446 provided on the peripheral surface 445 of the cylinder at the tip portion 443. Since it is provided, a sufficient amount of light can be supplied when these plurality of imaging units 446 image an internal part.
  • FIG. 6 is an explanatory diagram schematically showing the measuring unit 9 (mouthpiece, attachment).
  • the measuring unit 9 is configured as, for example, a mouthpiece attached to the oral cavity or an attachment attached to the anus, and is an annular member having a hole for inserting the insertion portion 44 of the endoscope 40. Is.
  • the ring-shaped measuring unit 9 is provided with a detecting unit 91 along the circumferential direction.
  • the detection unit 91 is composed of an optical sensor or a magnetic sensor.
  • the insertion unit 44 of the endoscope 40 is provided with a body to be detected 449 corresponding to the detection unit 91.
  • the detected body 449 is a long body provided along the axial direction of the insertion portion 44 of the endoscope 40, is composed of an optical reflective member or a magnetic body, and is composed of an optical sensor, a magnetic sensor, or the like. It is detected by the detection unit 91.
  • the measurement unit 9 detects (detects) the object to be detected 449 provided with the insertion unit 44.
  • the insertion distance of the insertion portion 44 of the endoscope 40 and the rotation angle of the insertion portion 44 are derived, and the derived insertion distance and rotation angle are output to the endoscope 40 processor. That is, the measuring unit 9 functions as an insertion distance measuring unit and a rotation angle measuring unit.
  • the mouthpiece (measurement portion 9) attached to the oral cavity in the case of upper endoscopy, and the anus in the case of lower endoscopy. It passes through the attached attachment (measurement unit 9) and is inserted into the body. Therefore, in any case, the insertion distance of the insertion portion 44 of the endoscope 40 and the rotation angle of the insertion portion 44 can be preferably derived.
  • the measurement of the rotation angle of the insertion unit 44 uses the measurement unit 9 composed of the mouthpiece or the attachment, but the measurement is not limited to this. Even if a gyroscope or an acceleration sensor is provided in the operation unit 43 of the endoscope 40, the rotation amount of the operation unit 43 is measured, and the rotation angle of the insertion unit 44 is derived based on the measured rotation amount. good.
  • FIG. 7 is a functional block diagram illustrating a functional unit included in the control unit 62 of the information processing apparatus 6.
  • the control unit 21 of the endoscope processor 20 (endoscope device 10) functions as an image processing unit 211 by executing a program stored in the main storage device 22.
  • the control unit 62 of the information processing apparatus 6 executes a program stored in the storage unit 63 to execute an acquisition unit 621, a synthetic image generation unit 622, a development map generation unit 623, and a lesion area identification unit 624 (lesion learning model). 631), and functions as an output unit 625.
  • the image processing unit 211 of the endoscope processor 20 has various types of images (multiple captured images) output from the endoscope 40 (captured by a plurality of image pickup units 446) such as gamma correction, white balance correction, and shading correction. Image processing is performed and output as a plurality of endoscopic images.
  • the image processing unit 211 outputs (transmits) the generated endoscope image and the inspection date and time based on the imaging time of the endoscope image to the information processing apparatus 6.
  • the image processing unit 211 may further output the subject ID input from the keyboard 15 to the information processing device 6.
  • the endoscope processor 20 (image processing unit 211) is provided with a measuring unit 9 (mouse) corresponding to the insertion unit 44 (flexible tube) of the endoscope 40 in order to measure the surrounding environment of the endoscope 40.
  • Information regarding the insertion distance (S coordinate) and rotation angle of the endoscope 40 output from sensors such as pieces and attachments is output to the information processing apparatus 6.
  • the image processing unit 211 may superimpose the information on the insertion distance and the rotation angle of the endoscope 40 acquired from the measurement unit 9 on the endoscope image and display it on the display device 50.
  • the acquisition unit 621 acquires a plurality of endoscope images, S coordinates (insertion distance), and rotation angles output by the endoscope processor 20.
  • FIG. 8 is an explanatory diagram showing the distance (value of S coordinate) into which the endoscope 40 is inserted.
  • the S coordinate which is the insertion distance of the endoscope 40 (insertion portion 44), is inside the insertion path (inside the inner wall of the digestive organ, etc.), and the path length of the inserted path is approximately the insertion distance. Since the locations are equal, the coordinates of the tip portion 443 of the endoscope 40 located inside the inner wall of the digestive organ or the like can be derived based on the S coordinates.
  • the Z axis indicates the vertical direction
  • the Y axis indicates the anteroposterior direction
  • the Z axis indicates the anteroposterior direction
  • the Z-axis indicates the left-right direction
  • the rotation angle is defined with these axes as rotation axes.
  • the rotation angle when the endoscopic image is taken by the upper endoscopy is an angle with the vertical direction (Z axis) parallel to the body axis of the subject as the rotation axis, and the lower endoscopy.
  • the rotation angle when performed by mirror photography is an angle with the rotation axis in the anteroposterior direction parallel to the longitudinal direction of the body cavity of the subject.
  • the acquisition unit 621 outputs the acquired plurality of endoscope images, S coordinates (insertion distance), and rotation angle to the composite image generation unit 622.
  • the acquisition unit 621 may output the S coordinates (insertion distance) and the rotation angle in association with each of the plurality of endoscope images.
  • These plurality of endoscopic images are endoscopic images taken at the same time of imaging by the imaging unit 446 provided at the tip portion 443 (end surface 444, peripheral surface 445), and the acquisition unit 621 is used for these.
  • the imaging time point (time information) may be associated with each of the plurality of endoscope images and output to the composite image generation unit 622.
  • the acquisition unit 621 is, for example, based on the subject ID output from the endoscope processor 20, a virtual endoscope image of the subject ID from a CT device or the like (X-ray CT) connected communicably. , And the developed view of the virtual endoscopic image may be acquired.
  • the virtual endoscopic image is generated (reconstructed) based on the three-dimensional medical image of X-ray CT, MRI, or X-ray cone beam CT, and the inside of the organ (inside the body cavity) by the three-dimensional medical image is virtually endoscopically viewed. It is an image represented by a mirror.
  • a developed view is generated by expanding the vertical axis as the rotation angle and the horizontal axis as the insertion distance.
  • the developed view (developed view of the virtual endoscope image) includes a region corresponding to a plurality of endoscope images acquired by the acquisition unit 621.
  • the acquisition unit 621 outputs a developed view of the virtual endoscope image acquired from the X-ray CT to the output unit 625.
  • the composite image generation unit 622 includes the front and rear in the field of view in the traveling direction of the insertion unit 44, and the composite image is the entire circumference (360 degrees) with respect to the tip portion 443 (360 degrees). 360 degree FOV image) is generated.
  • FIG. 9 is an explanatory diagram schematically showing an image taken by an image pickup unit 446 provided at the tip end portion 443 of the insertion portion 44. As shown in the present embodiment, each image pickup unit 446 provided on the tip portion 443 (end surface 444, peripheral surface 445) includes the front, side, and rear in the traveling direction of the insertion portion 44.
  • a 360-degree FOV image can be efficiently combined based on the acquired plurality of endoscopic images.
  • the imaging unit 446 provided on the peripheral surface 445 includes a visual field that is frontal (upper) with respect to the tumor, and can perform imaging including the frontal side (upper side) of the tumor, thereby improving observation efficiency and thus. It is possible to improve the accuracy of diagnostic support information by AI or the like based on the captured endoscopic image.
  • the composite image generation unit 622 may perform geometric correction on each endoscope image when synthesizing a plurality of endoscope images.
  • Geometric correction is, for example, spherical correction using curved surface projection (projection conversion) in which an acquired endoscopic image is projected onto a continuous curved surface.
  • the geometric correction may be performed based on an image processing algorithm such as an affine transformation, a pseudo affine transformation, a quadratic equiangular transformation, or a two-dimensional projective transformation.
  • the geometric correction corresponds to the position of the captured image by performing optical simulation for a wide variety of images to be imaged based on the specifications or optical characteristics of the lens included in the image pickup unit 446 and machine learning the result by artificial intelligence.
  • geometric correction it is possible to improve the extraction accuracy of overlapping regions (overlapping regions) in these plurality of endoscopic images, and to correct the images to be easy to synthesize (images in a coordinate system that are easy to join).
  • the composite image generation unit 622 generates a composite image by superimposing overlapping regions (regions that image the same observation object) in a plurality of geometrically corrected endoscope images.
  • the composite image generation unit 622 associates the generated composite image with the insertion distance and rotation angle of the endoscope 40 at the time when a plurality of endoscope images that are the source of the composite image are captured, and further associates the source of the composite image with the rotation angle. It may be associated with time information regarding a time point (imaging time point) when a plurality of endoscopic images are taken.
  • the composite image generation unit 622 outputs the generated composite image to the development view generation unit 623.
  • the vertical axis is the rotation angle (second axis) and the horizontal axis is the insertion distance (first axis) based on the acquired composite image and the insertion distance and rotation angle associated with the composite image.
  • FIG. 10 is an explanatory diagram regarding an endoscope development view. As shown in the illustration in the present embodiment, by converting the composite image into an endoscopic development view, it is possible to improve the visibility of the imaged observation point.
  • the development view generation unit 623 acquires a plurality of composite images at different imaging time points
  • the development view generation unit 623 aligns the plurality of endoscope development views developed based on the plurality of composite images based on the rotation angle, and the progress of the imaging time point.
  • the development view generation unit 623 outputs the generated endoscope development view to the lesion area identification unit 624 and the output unit 625.
  • the vertical axis is the rotation angle and the horizontal axis is the insertion distance, but the horizontal axis may be expressed (expanded) as the rotation angle and the vertical axis as the insertion distance. ..
  • the lesion area identification unit 624 includes a lesion learning model 631 that outputs a lesion area such as a tumor when an endoscopic image is input. By inputting the acquired endoscopic development map into the lesion learning model 631, the lesion region identification unit 624 determines whether or not the endoscopic development map contains a lesion such as a tumor. Since the endoscopic development map is an image synthesized by a plurality of endoscopic images, by inputting the endoscopic development map into the lesion learning model 631, the endoscope development map includes lesions such as tumors. It can be obtained whether or not it is.
  • the lesion region identification unit 624 identifies the tumor region (tumor region) in the endoscope development view by the insertion distance and rotation angle of the endoscope 40, and provides information on the tumor region. Is output to the output unit 625.
  • the lesion learning model 631 is a neural network trained using training data, and is expected to be used as a program module that is a part of artificial intelligence software. As described above, the lesion learning model 631 is used in the information processing device 6 including the control unit 62 (CPU or the like) and the storage unit 63, and is executed by the information processing device 6 having arithmetic processing capacity in this way. As a result, a neural network system is constructed. That is, the control unit 62 of the information processing apparatus 6 performs an operation to extract the feature amount of the endoscopic image input to the input layer according to the command from the lesion learning model 631 stored in the storage unit 63, and the output layer. It operates to output diagnostic support information including the presence or absence of lesions.
  • the input layer has a plurality of neurons that accept the input of the pixel value of the endoscopic image, and passes the input pixel value and the distance information to the intermediate layer.
  • the intermediate layer has a plurality of neurons for extracting the image features of the endoscopic image, and the extracted image features are passed to the output layer.
  • the output layer has one or more neurons that output information on the presence or absence of lesions and the stage of symptoms, and outputs information on the presence or absence of lesions and the stage of symptoms based on the image features output from the intermediate layer. ..
  • the intermediate layer maps the pixel values convolved by the convolutional layer with the convolutional layer that convolves the pixel values of each pixel input from the input layer ( It has a configuration in which the pooling layers to be compressed) are alternately connected, and the feature amount of the endoscopic image is finally extracted while compressing the pixel information of the endoscopic image.
  • the output layer has one or more neurons that output information regarding the presence or absence of lesions in internal parts included in the endoscopic image, and the presence or absence of lesions based on the amount of image features output from the intermediate layer. Etc. are output.
  • the output information regarding the presence or absence of a lesion is information used as diagnostic support information by a doctor or the like who operates the endoscope 40.
  • the data to be processed such as the data input to the lesion learning model 631 or the data to be synthesized is described as an endoscopic image, but the present invention is not limited to this.
  • the data to be processed may be a captured image (raw image) captured by the imaging unit 446 of the endoscope 40. That is, the lesion learning model 631 may output information regarding the presence or absence of a lesion or the like by inputting a captured image.
  • the lesion learning model 631 is described as a neural network (NN) such as CNN, but the lesion learning model 631 is not limited to the NN, and the SVM (Support Vector Machine), Bayesian network, regression tree, etc. It may be a lesion learning model 631 constructed by another learning algorithm.
  • any object detection algorithm such as RCNN (Regions with Convolutional Neural Network), Fast RCNN, Faster RCNN or SSD (Single Shot Multibook Detector), YOLO (You Only Look Once) may be used. good.
  • the output unit 625 is specified in the endoscopic development map based on the information (insertion distance and rotation angle) about the tumor region acquired from the lesion region identification unit 624 and the endoscope development map acquired from the development map generation unit 623.
  • the highlighted endoscope development view such as overlaying the red frame surrounding the tumor area, is output to the display unit 7.
  • the display unit 7 displays the highlighted endoscope development view on the display screen included in its own unit based on the data output from the output unit 625.
  • the output unit 625 further generates data for displaying the development of the endoscope acquired from the development drawing generation unit 623 and the development of the virtual endoscope image acquired from the X-ray CT via the acquisition unit side by side. , The data may be output to the display unit 7.
  • the output unit 625 may generate data for displaying the composite image (360-degree FOV image) and the virtual endoscope image side by side, and output the data to the display unit 7.
  • the developed view of the virtual endoscope image acquired from the X-ray CT includes a region corresponding to a plurality of endoscope images which are the original data of the endoscope developed view acquired from the developed view generation unit 623. Therefore, these developed views include the same observation area. Therefore, the developed view from the endoscopic image (endoscopic developed view) for the same observation point and the developed view of the virtual endoscopic image acquired from the X-ray CT are displayed side by side for comparison. It is possible to provide effective diagnostic support information to doctors and the like.
  • the display form in which the developed view of the endoscope and the developed view of the virtual endoscope image are compared and displayed is not limited to the form in which these developed views are displayed side by side, and the developed views are displayed in an overlapping manner. There may be.
  • the endoscope development view is superimposed and displayed on the development view of the virtual endoscope image
  • the endoscope development view is converted to be translucent, and the insertion distance (S coordinate) and rotation are performed. Alignment may be performed using an angle, and these developed views may be superimposed and displayed.
  • the composite image (360-degree FOV image) and the virtual endoscopic image may be superimposed and displayed.
  • each of the developed views in which the lesion area is specified by the lesion area specifying portion 624 is displayed in an superimposed manner. It may be something to do.
  • the lesion area is specified using the AI (learning model) composed of CNN etc. similar to the lesion area identification part 624 etc., and the red frame etc.
  • a composite image (360-degree FOV image) in which the lesion area is specified by the annotation display and a virtual endoscopic image may be superimposed and displayed.
  • each functional unit in a series of processes has been described separately as a functional unit by the control unit 21 of the endoscope processor 20 and a functional unit by the control unit 62 of the information processing apparatus 6.
  • the division of functional parts is an example, and is not limited to this.
  • the control unit 21 of the endoscope processor 20 may function as all the functional units performed by the control unit 62 of the information processing device 6. That is, the endoscope processor 20 may substantially include the information processing device 6.
  • the control unit 21 of the endoscope processor 20 only outputs the captured image captured by the image pickup unit 446, and the control unit 62 of the information processing device 6 functions as all the functional units that perform subsequent processing. It may be something to do.
  • the control unit 21 of the endoscope processor 20 and the control unit 62 of the information processing device 6 cooperate with each other to function as each functional unit in a series of processes by, for example, performing interprocess communication. There may be.
  • FIG. 11 is a flowchart showing an example of the processing procedure by the control unit 62.
  • the information processing apparatus 6 starts processing the flowchart based on the input contents from the input unit 8 connected to the own apparatus, for example.
  • the control unit 62 of the information processing device 6 acquires an endoscopic image captured by a plurality of image pickup units 446 (S101).
  • Each image pickup unit 446 provided on the tip portion 443 (end surface 444, peripheral surface 445) includes the front, side, and rear in the traveling direction of the insertion portion 44 in the field of view, and controls the information processing apparatus 6.
  • the unit 62 acquires a plurality of endoscopic images of observation points in the front, side, and rear visual field directions in the traveling direction of the insertion unit 44.
  • the control unit 62 of the information processing apparatus 6 acquires the insertion distance and the rotation angle of the endoscope 40 (S102).
  • the control unit 62 of the information processing apparatus 6 acquires the insertion distance and the rotation angle of the endoscope 40 output from the measurement unit 9 configured as, for example, a mouthpiece or an attachment.
  • the rotation angle when the endoscopic image is taken by the upper endoscopy, it is the angle with the vertical direction parallel to the body axis of the subject as the rotation axis, and it is performed by the lower endoscopy. In this case, it is an angle with the rotation axis in the anteroposterior direction perpendicular to the body axis of the subject.
  • the control unit 62 of the information processing apparatus 6 performs geometric correction on a plurality of endoscopic images (S103).
  • the control unit 62 of the information processing apparatus 6 improves the extraction accuracy of overlapping regions (overlapping regions) in the plurality of endoscope images by performing geometric correction on each of the acquired plurality of endoscope images. And correct it to an image that is easy to combine (an image of a coordinate system that is easy to join).
  • Geometric correction is, for example, spherical correction using curved surface projection (projection conversion) in which an acquired endoscopic image is projected onto a continuous curved surface.
  • the geometric correction may be performed based on an image processing algorithm such as an affine transformation, a pseudo affine transformation, a quadratic equiangular transformation, or a two-dimensional projective transformation.
  • the geometric correction is performed by performing optical simulations on a wide variety of images based on the specifications or optical characteristics of the lens included in the image pickup unit 446, and machine learning the results by artificial intelligence (AI) to obtain the captured images.
  • a dictionary (lookup table) corresponding to the position may be generated, and the dictionary may be used to restore and correct the aberration.
  • the control unit 62 of the information processing apparatus 6 generates a composite image based on the corrected plurality of endoscopic images (S104).
  • the control unit 62 of the information processing apparatus 6 generates a composite image by superimposing overlapping regions (regions that image the same observation object) on a plurality of geometrically corrected endoscope images. ..
  • the plurality of image pickup units 446 are provided on the end surface 444 and the peripheral surface 445 of the tip portion 443 of the insertion unit 44, and the image pickup units 446 provided on the peripheral surface 445 are arranged at equal intervals along the circumferential direction. ing.
  • the imaging unit 446 of the end surface 444 images the front in the traveling direction of the insertion unit 44
  • the imaging unit 446 of the peripheral surface 445 images the sides and the rear with respect to the traveling direction of the insertion unit 44. Therefore, by synthesizing the plurality of endoscopic images captured by these plurality of imaging units 446, the front and rear are included in the field of view in the traveling direction of the insertion unit 44, and the entire circumference (360 degrees) with respect to the tip portion 443. ), A composite image (360-degree FOV image) can be generated.
  • the control unit 62 of the information processing apparatus 6 associates the generated composite image with the insertion distance and the rotation angle of the endoscope 40 at the time when a plurality of endoscope images that are the source of the composite image are captured.
  • the control unit 62 of the information processing apparatus 6 may further associate the generated composite image with time information regarding a time point (imaging time point) when a plurality of endoscopic images that are the source of the composite image are captured. ..
  • the control unit 62 of the information processing apparatus 6 generates an endoscope development view from the composite image (S105).
  • the control unit 62 of the information processing apparatus 6 generates an endoscope development diagram in which the vertical axis is the rotation angle and the horizontal axis is the insertion distance, based on the composite image and the insertion distance and rotation angle associated with the composite image. do.
  • the control unit 62 of the information processing apparatus 6 aligns the endoscope development drawings generated from the individual composite images based on the rotation angle based on the plurality of composite images, and follows the order of insertion distances (elapsed order at the time of imaging). It may be displayed side by side.
  • the control unit 62 of the information processing apparatus 6 identifies the lesion area based on the endoscopic development view (S106).
  • the control unit 62 of the information processing apparatus 6 uses, for example, the tumor learning model 631 stored in the storage unit 63 of its own device, and inputs the endoscope development diagram into the tumor learning model 631 to input the endoscope. It is determined whether or not a lesion such as a tumor is included in the developed view, and if a tumor is included, the region of the tumor (tumor region) in the developed endoscope is determined by the insertion distance and rotation angle of the endoscope 40. Identify.
  • the control unit 62 of the information processing apparatus 6 outputs an endoscope development view in which the lesion area is emphasized (S107).
  • the control unit 62 of the information processing apparatus 6 highlights the endoscopic development view by superimposing the red frame surrounding the specified tumor area on the endoscopic development view. Is output to the display unit 7.
  • the display unit 7 displays the highlighted endoscope development view on the display screen included in the display unit 7 based on the output data.
  • the series of processes is performed by the control unit 62 of the information processing apparatus 6, but the present invention is not limited to this. These series of processes may be performed by the control unit 21 of the endoscope processor 20. Alternatively, even if these series of processes are performed in cooperation with the control unit 21 of the endoscope processor 20 and the control unit 62 of the information processing device 6, for example, by performing interprocess communication. good.
  • the tip portion 443 is provided.
  • a plurality of endoscopic images including a front field of view and a rear field of view can be acquired from each of the plurality of imaging units 446. Based on the acquired plurality of endoscopic images, it is possible to efficiently generate a composite image in the entire circumferential direction including the front visual field and the rear visual field with respect to the tip portion 443.
  • the composite image is a composite of a plurality of endoscopic images captured by the end surface 444 of the tip portion 443 and a plurality of imaging units 446 equally arranged on the peripheral surface 445 at a predetermined inscribed angle. It corresponds to a 360-degree FOV (Field of view) image including a field of view over the entire circumference in the circumferential direction of the tip portion 443 forming a tubular shape.
  • FOV Field of view
  • the imaging of the endoscopic image by the plurality of imaging units 446 is performed at a plurality of time points.
  • the position of the generated composite image in the body based on the insertion distance and rotation angle. (Coordinates) can be specified. That is, by assigning (associating) absolute coordinates to each of the captured endoscopic images, it is possible to compare these images by matching the rotation directions (endoscopic image comparison). Therefore, it is possible to efficiently compare the reproducibility of coordinates and the passage of time (comparison in the time direction) for each of the endoscopic images (360-degree FOV images) in the 360-degree field of view captured at a plurality of time points. can.
  • the endoscope 40 includes, for example, an endoscope 40 for upper gastrointestinal endoscopy such as a gastroscope and an endoscope for lower gastrointestinal endoscopy such as a colonoscope. Includes 40 and.
  • the insertion distance when the endoscopic image is captured by the upper endoscopic imaging is the insertion distance output from the measuring unit 9 (mouthpiece) provided in the oral cavity of the subject, and is the lower endoscopy.
  • the insertion distance when performed by endoscopy is the insertion distance output from the measurement unit 9 (attachment) provided in the anus portion of the subject.
  • the rotation angle when the endoscopic image is taken by the upper endoscopy is the angle with the vertical direction parallel to the subject's body axis as the rotation axis, and is performed by the lower endoscopy.
  • the rotation angle is an angle with the anteroposterior direction parallel to the longitudinal direction of the subject's body cavity as the rotation axis.
  • These measuring units 9 are, for example, a mouthpiece attached to the oral cavity of the subject or an attachment attached to the anus of the subject, and have an insertion distance measuring unit for measuring the insertion distance and a rotation angle. It functions as a rotation angle measuring unit to measure. Therefore, the insertion distance and the rotation angle can be appropriately detected (measured) regardless of whether the upper endoscopy or the lower endoscopy is performed.
  • the generated plurality of composite images are taken at different time points, and the insertion distance and the rotation angle of the endoscope 40 are different depending on the time points.
  • an endoscope development view having excellent visibility is generated by generating an endoscope development view having the insertion distance of the endoscope 40 as the horizontal axis and the rotation angle as the vertical axis.
  • the plurality of composite images are different at the time of imaging (imaging time), and the insertion distance and rotation angle of the endoscope 40 at the time of imaging are different, but the viewing angle of the imaging unit 446 is different.
  • an endoscopic development diagram is input to the lesion learning model 631 that outputs a lesion region such as a tumor, so that the endoscopic expansion diagram can be obtained.
  • the region (tumor region) of the tumor in the endoscope development view is specified by the insertion distance and rotation angle of the endoscope 40, and for example, a red frame surrounding the specified tumor region is superimposed and displayed. It is possible to provide effective diagnostic support information to the operator of the endoscope 40, such as a doctor, in order to output the endoscope development view by emphasizing it.
  • FIG. 12 is a front view schematically showing a tip portion 443 (end surface 444) of the insertion portion 44 according to the second embodiment (imaging unit 446 around the channel 448).
  • FIG. 13 is a side view schematically showing the tip portion 443 (peripheral surface 445) of the insertion portion 44.
  • the endoscope 40 of the second embodiment includes a plurality of image pickup units 446 provided on the end surface 444 and the peripheral surface 445 of the tubular tip portion 443.
  • a channel 448 (working channel) is provided at the center of the end surface 444 of the tip portion 443 of the endoscope 40 of the second embodiment.
  • the channel 448 (working channel) is a hole for inserting a treatment tool such as forceps, and extends from the end surface 444 of the tip portion 443 toward the operation portion 43 so as to penetrate the entire insertion portion 44. ing.
  • a plurality of image pickup units 446 are provided on the end face 444, centering on the channel 448 provided in the center of the end face 444.
  • the plurality of image pickup units 446 provided on the end face 444 are, for example, four, and are arranged at the same central angle (90 degrees in the present embodiment) so as to be evenly spaced.
  • the plurality of image pickup units 446 provided on the peripheral surface 445 of the tip portion 443 are tilted so that the angle of the optical axis of the image pickup unit 446 is larger than 90 degrees with respect to the insertion direction of the insertion unit 44 of the endoscope 40. It is provided.
  • the insertion direction of the insertion portion 44 of the endoscope 40 is a direction parallel to the axial direction of the insertion portion 44, and corresponds to the traveling direction (forward) when the insertion portion 44 is inserted into the body.
  • the angle between the insertion direction (axial direction) of the insertion unit 44 and the optical axis of the image pickup unit 446 of the peripheral surface 445 is greater than 90 degrees ( ⁇ °> 90 °).
  • the angle of the optical axis of the image pickup unit 446 is smaller than 180 degrees with respect to the insertion direction of the insertion unit 44 of the endoscope 40, that is, the angle range is (180 °> ⁇ °> 90 °). ..
  • a plurality of image pickup units 446 that image the front view with respect to the tip portion 443 are arranged at equal intervals, for example. Therefore, the diameter of the tip portion 443, that is, the insertion portion 44 of the endoscope 40 can be reduced. Since the angle of the optical axis of the image pickup unit 446 arranged on the peripheral surface 445 of the tip portion 443 with respect to the insertion direction when the insertion portion 44 of the endoscope 40 is inserted into the body is larger than 90 degrees, the peripheral surface The optical axis of the image pickup unit 446 of the 445 is oriented backward with respect to the insertion direction of the insertion unit 44. Therefore, the image pickup unit 446 of the peripheral surface 445 can capture a wider rear field of view.
  • FIG. 14 is a side view schematically showing a tip portion 443 (peripheral surface 445) of the insertion portion 44 according to the third embodiment (wireless communication unit 4481 / waveguide).
  • the tip portion 443 of the endoscope 40 is provided with a wireless communication unit 4481 which is connected to the image pickup unit 446 by a lead wire or the like and wirelessly transmits an image captured image output by the image pickup unit 446.
  • the wireless communication unit 4481 is arranged, for example, on the outer peripheral surface of the channel 448, and wirelessly transmits the captured image output by the image pickup unit 446 to the communication unit 24 of the endoscope 40 processor.
  • the communication unit 24 of the endoscope 40 processor functions as a reception unit for wireless communication.
  • the wireless communication unit 4481 uses the channel 448 as a waveguide, radiates radio waves into the space formed by the inner wall of the channel 448, and outputs the image captured image output by the image pickup unit 446 to the wireless communication unit 43. It may be transmitted to the receiving unit of.
  • the output of the endoscope image from the image pickup unit 446 provided in the endoscope 40 to the control unit 62 provided in the processor for the endoscope 40 is the endoscope 40 and the endoscope 40. It is performed by wireless communication between the processors. Therefore, it is not necessary to provide wiring for transmitting the image captured by the image pickup unit 446 inside the insertion portion 44 of the endoscope 40, and the diameter of the insertion portion 44 of the endoscope 40 can be reduced. .. Further, by using a channel 448 (working channel) composed of holes penetrating through the entire insertion portion 44 as a waveguide, radio waves for wireless communication can be suitably propagated.
  • FIG. 15 is a functional block diagram illustrating a functional unit included in the control unit 62 of the information processing apparatus 6 according to the fourth embodiment (stereoscopic image).
  • the control unit 21 of the endoscope processor 20 (endoscope device 10) functions as an image processing unit 211 by executing a program stored in the main storage device 22.
  • the control unit 62 of the information processing apparatus 6 functions as an acquisition unit 621, a composite image generation unit 622, and an output unit 625 by executing a program stored in the storage unit 63, and further. It functions as a stereoscopic image generation unit 626 and an interest region identification unit 627 (interest region learning model 632).
  • the acquisition unit 621 acquires a plurality of endoscope images, S coordinates (insertion distance), and rotation angles output by the endoscope processor 20 as in the first embodiment.
  • the composite image generation unit 622 includes the front and rear in the field of view of the insertion unit 44 in the traveling direction of the insertion unit 44, and the entire circumference (360) with respect to the tip portion 443 based on the acquired plurality of endoscopic images.
  • a composite image 360-degree FOV image
  • the generated composite image is output to the stereoscopic image generation unit 626.
  • the stereoscopic image generation unit 626 has a plurality of images taken in different visual field directions with respect to the same observation point in the subject's body based on the acquired composite image and the insertion distance and rotation angle associated with the composite image.
  • a stereoscopic image in which the endoscopes 40 of the above are arranged is generated.
  • the stereoscopic image generation unit 626 divides each of the plurality of composite images having different imaging time points at a predetermined viewing angle according to each viewing direction, and divides each of the divided composite images based on the rotation angle of the endoscope 40.
  • a stereoscopic image is generated (reconstructed) by performing alignment and joining according to the insertion distance of the endoscope 40.
  • FIG. 16 is an explanatory diagram schematically showing an image taken by an image pickup unit 446 provided at the tip end portion 443 of the insertion portion 44.
  • the insertion portion 44 of the endoscope 40 is inserted into the body at a predetermined speed (insertion speed), so that the same observation point such as a tumor can be seen at a plurality of consecutive imaging time points.
  • Endoscopic images can be taken in different visual field directions.
  • the imaging unit 446 of the peripheral surface 445 images the tumor (observation site) from the front at the time of imaging of t [x], and is earlier than t [x] t [x-1]. ]
  • the tumor (observation point) is imaged from the left side surface (anterior visual field), and the tumor (observation point) is imaged from the right side surface (rear visual field) at the time of imaging t [x + 1] after t [x].
  • Image from. it is possible to generate a composite image (360-degree FOV image) at each imaging time point based on the endoscopic images taken at a plurality of consecutive imaging time points for the same observation point (tumor).
  • FIG. 17 is an explanatory diagram relating to the relationship between the composite image in the all-around direction and the stereoscopic image.
  • the composite image 360-degree FOV image
  • the present implementation is carried out.
  • it can be shown by a curved surface coordinate system (cylindrical curved surface coordinate system) formed on the inner wall side of the tubular body.
  • the stereoscopic image generation unit 626 divides (slices) the composite image at a predetermined viewing angle in the tubular curved surface coordinate system, and observes the target of the divided composite images (divided composite images). A split composite image containing a site (tumor) is extracted. By performing such division and extraction processing on the composite images at a plurality of consecutive imaging time points, the split composite image including the target observation site (tumor) is specified. The stereoscopic image generation unit 626 aligns these specified divided composite images based on the rotation angle of the tip portion 443, and further arranges them in the order at the time of imaging and joins them (reconstruction) to generate a stereoscopic image. do. By generating the stereoscopic image, it is possible to observe the same observation site (tumor) from different angles.
  • the stereoscopic image generation unit 626 extracts a divided composite image having the same viewing angle from any of the divided composite images (divided composite image) in the composite image at a plurality of consecutive imaging time points, and these are the same.
  • a stereoscopic image may be generated by joining (reconstructing) the divided composite images having the viewing angle of.
  • the same viewing angle is set to 90 degrees with respect to the insertion direction (axial direction) of the insertion unit 44, for example, with the image pickup unit 446 on the peripheral surface 445 as the base point, the image is taken from the front (above) with respect to the observation point. It is possible to generate a stereoscopic image by joining the divided composite images.
  • the stereoscopic image generation unit 626 outputs the generated stereoscopic image to the region of interest specifying unit 627 and the output unit 625.
  • the lesion area identification unit 624 is an area of interest that outputs diagnostic support information including the presence or absence of an area of interest (ROI: Region Of Interest) such as an ulcer, a lesion candidate, a treatment tool, and a marker. Includes training model 632.
  • the region of interest specifying unit 627 inputs the acquired stereoscopic image into the region of interest learning model 632, determines whether or not the region of interest is included in the endoscopic development view, and determines whether or not the region of interest is included in the stereoscopic image. Diagnostic support information including whether or not an area of interest such as is included is output to the output unit 625.
  • the region of interest specifying unit 627 performs comparison display and comparison information output with the development view of the X-ray CT by a virtual endoscope. Since the stereoscopic image is an image synthesized by a plurality of endoscopic images, whether or not the stereoscopic image includes a region of interest such as a tumor by inputting the stereoscopic image into the region of interest learning model 632. It is possible to obtain diagnostic support information including.
  • the region of interest learning model 632 is configured by a neural network trained using training data such as CNN, as in the lesion learning model 631 of the first embodiment.
  • the output unit 625 produces, for example, a stereoscopic image on which diagnostic support information is superimposed, based on the diagnostic support information regarding the region of interest acquired from the region of interest specifying unit 627 and the stereoscopic image acquired from the stereoscopic image generation unit 626.
  • the display unit 7 displays a stereo visual image on which diagnostic support information is superimposed based on the data output from the output unit 625 on the display screen included in the display unit 7.
  • FIG. 18 is a flowchart showing an example of the processing procedure by the control unit 62.
  • the information processing apparatus 6 starts processing the flowchart based on the input contents from the input unit 8 connected to the own apparatus, for example.
  • the control unit 62 of the information processing device 6 acquires an endoscopic image captured by a plurality of image pickup units 446 (S401).
  • the control unit 62 of the information processing apparatus 6 acquires the insertion distance and the rotation angle of the endoscope 40 (S402).
  • the control unit 62 of the information processing apparatus 6 performs geometric correction on a plurality of endoscopic images (S403).
  • the control unit 62 of the information processing apparatus 6 generates a composite image based on the corrected plurality of endoscopic images (S404).
  • the control unit 62 of the information processing apparatus 6 performs the processes from S401 to S404 in the same manner as the processes S101 to S104 of the first embodiment.
  • the control unit 62 of the information processing apparatus 6 divides the composite image associated with the insertion distance and the rotation angle for each viewing direction (S405).
  • the composite image (360-degree FOV image) can be shown by a cylindrical curved coordinate system formed on the inner wall side of the cylinder as shown in the present embodiment.
  • the control unit 62 of the information processing apparatus 6 divides (slices) the composite image at a predetermined viewing angle in the tubular curved coordinate system, and among the divided composite images (divided composite image), the target is A divided composite image including the observation site (tumor) is extracted.
  • the control unit 62 of the information processing apparatus 6 may extract a divided composite image having the same viewing angle from any of the divided composite images (divided composite image).
  • the control unit 62 of the information processing apparatus 6 generates a stereoscopic image by connecting each of the plurality of divided composite images (S406). By performing such division and extraction processing on the composite images at a plurality of consecutive imaging time points, the split composite image including the target observation site (tumor) is specified.
  • the control unit 62 of the information processing apparatus 6 aligns these specified plurality of divided composite images based on the rotation angle of the tip portion 443, and further arranges them in the order at the time of imaging and joins them (reconstruction) to perform stereo. Generate a visual image.
  • the control unit 62 of the information processing apparatus 6 identifies the region of interest based on the stereoscopic image (S407).
  • the control unit 62 of the information processing apparatus 6 uses, for example, the region of interest learning model 632 stored in the storage unit 63 of its own device, and inputs the stereoscopic image to the region of interest learning model 632 to obtain the stereoscopic image. It is determined whether or not an area of interest such as an ulcer, a candidate lesion, a treatment tool, and a marker is included in the area of interest, and information about the area of interest (diagnosis support information including the presence or absence of the area of interest) is output.
  • an area of interest such as an ulcer, a candidate lesion, a treatment tool, and a marker
  • the control unit 62 of the information processing apparatus 6 outputs a stereoscopic image together with information about the region of interest (S408).
  • the control unit 62 of the information processing apparatus 6 outputs, for example, a stereo visual image on which the diagnostic support information is superimposed based on the information (diagnosis support information) regarding the region of interest and the stereo visual image to the display unit 7.
  • the display unit 7 displays, for example, a stereoscopic image on which diagnostic support information is superimposed on a display screen included in the display unit 7.
  • the generated plurality of composite images are taken at different time points, and the insertion distance and the rotation angle of the endoscope 40 are different depending on the time points.
  • the difference in the rotation angle of the endoscope 40 at the time of capturing the composite image is absorbed.
  • Divided composite images split composite images
  • each of the divided composite images is combined with the endoscope 40 based on the order at the time of imaging. It can be aligned and spliced together in the insertion direction of. Based on such a plurality of composite images, a stereoscopic image in which a plurality of endoscopes 40 imaged in different viewing directions are arranged for the same observation point in the subject's body is generated in three dimensions. Confirmation (confirmation in the height direction) and the like can be easily performed, and a stereoscopic image having excellent visibility can be efficiently generated.
  • a region of interest that outputs diagnostic support information including the presence or absence of a region of interest (ROI: Region Of Interest) such as a tumor, a lesion candidate, a treatment tool, and a marker.
  • ROI Region Of Interest
  • a stereoscopic image By inputting a stereoscopic image into the learning model 632, it is possible to acquire diagnostic support information including whether or not the stereoscopic image includes a region of interest such as a tumor.
  • FIG. 19 is a functional block diagram illustrating a functional unit included in the control unit 62 of the information processing apparatus 6 according to the fifth embodiment (image composition parameter).
  • the control unit 21 of the endoscope processor 20 (endoscope device 10) functions as an image processing unit 211 by executing a program stored in the main storage device 22.
  • the control unit 62 of the information processing apparatus 6 functions as an acquisition unit 621, a composite image generation unit 622, and an output unit 625 by executing a program stored in the storage unit 63, and further. It functions as a composite parameter derivation unit 628 and a geometric distortion correction unit 629.
  • the acquisition unit 621 acquires a plurality of endoscope images, S coordinates (insertion distance), and rotation angles output by the endoscope processor 20 as in the first embodiment.
  • the acquisition unit 621 further acquires a plurality of reference images output by the endoscope processor 20.
  • the operation unit 43 of the endoscope 40 passes through a mouthpiece or attachment that also functions as a measurement unit 9 when inserted into the body, that is, before outputting an endoscope image that captures an observation point in the body. do.
  • These mouthpieces and attachments are provided with a reference object having a predetermined pattern having regularity such as a grid pattern, and each image pickup unit 446 provided on the tip portion 443 (end surface 444, peripheral surface 445). Takes an image of the reference object when passing through a mouthpiece or the like.
  • Each of the captured images (reference images) in which the reference object is captured is output from the endoscope 40 processor to the acquisition unit 621 (control unit 62 of the information processing apparatus 6), and the acquisition unit 621 acquires the reference image. do.
  • the acquisition unit 621 outputs the acquired reference image to the synthesis parameter derivation unit 628.
  • the composite parameter derivation unit 628 derives the composite parameter based on the acquired reference image.
  • the storage unit 63 of the information processing apparatus 6 stores reference material information such as a shape, dimensional values, and colors of a reference material having a predetermined pattern having regularity.
  • the composite parameter derivation unit 628 compares the reference object included in each of the acquired reference images with the reference object information stored in the storage unit 63, and the image coordinate system (of the composite image) when these reference images are synthesized. In the coordinate system), the composition parameter is derived so that the reference object included in the composite image matches the reference object information.
  • the composite parameter derivation unit 628 outputs the derived composite parameter to the composite image generation unit 622.
  • the acquisition unit 621 outputs a plurality of acquired endoscopic images to the geometric distortion correction unit 629.
  • the geometric distortion correction unit 629 improves the extraction accuracy of overlapping regions (overlapping regions) in these plurality of endoscope images by performing geometric correction on each of the acquired plurality of endoscope images, and synthesizes the images. Correct to an image that is easy to connect (an image with a coordinate system that is easy to connect).
  • Geometric correction is, for example, spherical correction using curved surface projection (projection transformation) that projects the acquired endoscopic image onto a continuous curved surface, or affine transformation, pseudo-affine transformation, quadratic equiangular transformation, and two-dimensional. It may be performed based on an image processing algorithm such as projective transformation.
  • the geometric correction corresponds to the position of the captured image by performing optical simulation for a wide variety of images to be imaged based on the specifications or optical characteristics of the lens included in the image pickup unit 446 and machine learning the result by artificial intelligence. It may be the one that generates the above-mentioned dictionary, restores it to aberration-free using the dictionary, and corrects it.
  • the geometric distortion correction unit 629 outputs a plurality of endoscope images to which the geometric distortion correction has been performed to the composite image generation unit 622.
  • the composite image generation unit 622 generates a composite image based on a plurality of corrected endoscopic images acquired from the geometric distortion correction unit 629 and a composite parameter acquired from the composite parameter derivation unit 628.
  • the composite parameter By using the composite parameter, the accuracy of generating the composite image can be improved.
  • the synthesis parameter is a parameter derived based on the measured value using the reference object, it is possible to perform the synthesis processing according to the usage environment of the image pickup unit 446 provided at the tip portion 443 of the endoscope 40.
  • FIG. 20 is an explanatory diagram relating to geometric distortion correction using a curved surface projection method in which an endoscopic image is projected onto a continuous curved surface.
  • the composite image generation unit 622 generates a composite image by superimposing overlapping regions (regions that image the same observation object) on a plurality of geometrically corrected endoscope images.
  • the composite image generation unit 622 performs pattern matching between the regions divided by a predetermined pixel unit in the endoscope image to perform the overlapping region. May be extracted.
  • By performing the geometric correction it is possible to efficiently perform the spherical correction particularly on the peripheral portion of the endoscopic image.
  • the peripheral portion becomes an overlapping region (overlapping region) with other endoscopic images, and becomes an overlapping region when synthesizing. Therefore, geometric correction makes it easy to superimpose the endoscopic image. It can be corrected (converted).
  • the front and rear fields of view are viewed in the traveling direction of the insertion unit 44.
  • a composite image 360 degree FOV image
  • the composite image generation unit 622 associates the generated composite image with the insertion distance and the rotation angle of the endoscope 40 at the time when a plurality of endoscope images that are the source of the composite image are captured.
  • the composite image generation unit 622 may further associate the generated composite image with time information regarding a time point (imaging time point) when a plurality of endoscope images that are the source of the composite image are captured.
  • the composite image generation unit 622 outputs the generated composite image to the output unit 625 in the same manner as in the first embodiment.
  • the output unit 625 outputs the acquired composite image to the display unit 7 in the same manner as in the first embodiment.
  • FIG. 21 is an explanatory diagram relating to a display performed by reprojecting a composite image onto a curved surface (elliptical sphere display, cylindrical display).
  • the output unit 625 has a display form (elliptical sphere display, cylindrical display) that is projected and converted so as to have a coordinate ellipsoidal spherical surface or a field of view of a cylindrical surface as shown in the present embodiment. ) May be output to the display unit 7.
  • the display unit 7 includes a plurality of display screens having a plurality of windows in a separate display device or a single display device, and displays a composite image output in a display form of an ellipsoidal sphere display or a cylindrical display.
  • It may be divided and displayed on a plurality of display screens. In these multiple display screens, even if the display screen located in the center displays the central part (front image) of the composite image and the display screens located on the left and right display the left and right side parts of the composite image. good.
  • FIG. 22 is a flowchart showing an example of the processing procedure by the control unit 62.
  • the information processing apparatus 6 starts processing the flowchart based on the input contents from the input unit 8 connected to the own apparatus, for example.
  • the control unit 62 of the information processing apparatus 6 acquires a reference image captured by a plurality of image pickup units 446 (S501).
  • the operation unit 43 of the endoscope 40 When inserted into the body, the operation unit 43 of the endoscope 40 has a mouthpiece attached to the oral cavity in the case of upper endoscopy, and an attachment attached to the anus in the case of lower endoscopy. It passes through and is inserted into the body.
  • These mouthpieces and attachments are provided with a reference object having a predetermined pattern having regularity, and each of the imaging units 446 images the reference object when passing through the mouthpiece or the like.
  • the control unit 62 of the information processing apparatus 6 acquires each of the captured images (reference images) in which the reference object is captured from each of the imaging units 446.
  • the control unit 62 of the information processing apparatus 6 derives a synthesis parameter based on the acquired reference image (S502).
  • the storage unit 63 of the information processing apparatus 6 stores reference material information such as a shape, dimensional values, and colors of a reference material having a predetermined pattern having regularity.
  • the control unit 62 of the information processing apparatus 6 compares the reference object included in each of the acquired reference images with the reference object information stored in the storage unit 63, and the image coordinate system when these reference images are synthesized ( In the coordinate system of the composite image), the composite parameter is derived so that the reference object included in the reference image matches the reference object information.
  • the control unit 62 of the information processing device 6 acquires an endoscopic image captured by a plurality of image pickup units 446 (S503).
  • the control unit 62 of the information processing apparatus 6 acquires the insertion distance and the rotation angle of the endoscope 40 (S504).
  • the control unit 62 of the information processing apparatus 6 performs geometric correction on a plurality of endoscopic images (S505).
  • the control unit 62 of the information processing apparatus 6 performs the processes of S503 to S505 in the same manner as the processes S101 to S103 of the first embodiment.
  • the control unit 62 of the information processing apparatus 6 generates a composite image using the composite parameters based on the corrected plurality of endoscope images (S506).
  • the control unit 62 of the information processing apparatus 6 performs the same as the process S104 of the first embodiment, and further generates a composite image using the composite parameters derived based on the reference image.
  • the control unit 62 of the information processing apparatus 6 outputs the generated composite image (S507).
  • the control unit 62 of the information processing apparatus 6 displays the generated composite image in a display form (elliptical sphere display, cylindrical display) that is projected and converted so as to be a field of coordinate ellipsoidal sphere or cylindrical surface. It may be output to the unit 7.
  • the display unit 7 includes a plurality of display screens having a plurality of windows in a separate display device or a single display device, and displays a composite image output in a display form of an ellipsoidal sphere display or a cylindrical display. , These may be divided and displayed on a plurality of display screens. In these multiple display screens, even if the display screen located in the center displays the central part (front image) of the composite image and the display screens located on the left and right display the left and right side parts of the composite image. good.
  • a predetermined reference object is imaged by a plurality of imaging units 446 to acquire a reference image including the reference object. Since the composite image is generated using the image composite parameters derived based on the respective reference images captured by the plurality of image pickup units 446, the accuracy of the composite process can be improved. Since the reference image includes a predetermined pattern having regularity, the image composition parameter can be efficiently derived based on the pattern.
  • the geometric distortion correction included in the process of generating the composite image uses a curved surface projection method for projecting the acquired endoscopic image onto a continuous curved surface, and therefore, particularly for the peripheral portion of the endoscopic image.
  • a curved surface projection method for projecting the acquired endoscopic image onto a continuous curved surface, and therefore, particularly for the peripheral portion of the endoscopic image.
  • S Endoscope system 10 Endoscope device 15 Keyboard 16 Storage shelf 20 Endoscope processor 21 Control unit 211 Image processing unit 22 Main storage device 23 Auxiliary storage device 24 Communication unit 25 Touch panel 26 Display device I / F 27 Input device I / F 28 Reading unit 31 Endoscope connector 311 Electrical connector 312 Optical connector 33 Light source 34 Pump 35 Water supply tank 36 Air supply water supply port 40 Endoscope 43 Operation unit 431 Control button 433 Curved knob 44 Insertion part 441 Flexible part 442 Curved part 443 Tip 444 End face 445 Peripheral surface 446 Imaging unit 447 Photographing light source 448 Channel 4481 Wireless communication unit 449 Detected object 45 Folding unit 48 Scope connector 49 Universal cord 50 Display device 6 Information processing device 61 Communication unit 62 Control unit 621 Acquisition Part 622 Synthetic image generation part 623 Development view generation part 624 Disease area identification part 625 Output part 626 Stereoscopic image generation part 627 Interest area identification part 628 Synthetic parameter derivation part 629 Geometric distortion correction part 63 Storage part

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Geometry (AREA)

Abstract

プログラムは、コンピュータに、内視鏡の挿入部に設けられる筒状の先端部の端面及び周面に配置された複数の撮像部により被検者を撮像した内視鏡画像を取得し、撮像された複数の前記内視鏡画像に基づき、前記先端部に対し前方視野及び後方視野を含めた全周方向となるように合成した合成画像を生成し、前記内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記内視鏡の挿入距離及び回転角度を取得し、取得した前記内視鏡の挿入距離及び回転角度を関連付けて前記合成画像を出力する処理を実行させる。また内視鏡展開図表示を行い、X線CTの仮想内視鏡による展開図との比較表示、比較情報出力を行ことができる。

Description

プログラム、情報処理方法及び内視鏡システム
 本技術は、プログラム、情報処理方法及び内視鏡システムに関する。
 本出願は、2020年10月2日出願の日本出願第2020-167752号に基づく優先権を主張し、前記これらの日本出願に記載された全ての記載内容を援用するものである。
 内視鏡は、被検者の体腔内に挿入することで所望の箇所の観察、処置を可能とする医療用機器であり、体腔内に挿入される挿入管の先端部に組み込まれた撮像部と、該撮像部の撮像視野を照明する照明装置とを備えている。特許文献1には、180°以上の広い角度範囲での照明を実現する照明装置を備え、広視野角での観察を可能とした内視鏡が開示されている。
特開2015-16021号公報
 しかしながら、文献1に記載の内視鏡装置においては、複数の撮像部で撮像した撮像画像に基づき構成される画像を生成する点が考慮されていないという問題点がある。また複数の撮像部で撮像した撮像画像を複数表示装置で表示する方法が無いという問題もある。またX線CTの仮想内視鏡画像の展開図表示のような表示方法が内視鏡装置において存在しないという問題もある。
 一つの側面では、複数の撮像部で撮像した撮像画像に基づき構成される画像を生成することができるプログラム等を提供することを目的とする。またX線CTの仮想内視鏡画像の展開図表示と同じ展開図表示方法で表示しX線CTの仮想内視鏡画像との対応を取りやすくすることを目的とする。
 本開示の一態様におけるプログラムは、コンピュータに、内視鏡の挿入部に設けられる筒状の先端部の端面及び周面に配置された複数の撮像部により被検者を撮像した内視鏡画像を取得し、撮像された複数の前記内視鏡画像に基づき、前記先端部に対し前方視野及び後方視野を含めた全周方向となるように合成した合成画像を生成し、前記内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記内視鏡の挿入距離及び回転角度を取得し、取得した前記内視鏡の挿入距離及び回転角度を関連付けて前記合成画像を出力する処理を実行させる。
 本開示の一態様における情報処理方法は、内視鏡の挿入部に設けられる筒状の先端部の端面及び周面に配置された複数の撮像部により被検者を撮像した内視鏡画像を取得し、撮像された複数の前記内視鏡画像に基づき、前記先端部に対し前方視野及び後方視野を含めた全周方向となるように合成した合成画像を生成し、前記内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記内視鏡の挿入距離及び回転角度を取得し、取得した前記内視鏡の挿入距離及び回転角度を関連付けて前記合成画像を出力する処理をコンピュータに実行させる。
 本開示の一態様におけるプログラムは、コンピュータに、内視鏡の挿入部に設けられる先端部に配置された複数の撮像部により被検者を撮像した内視鏡画像を取得し、撮像された複数の前記内視鏡画像に基づき、前記先端部に対し前方視野及び後方視野を含めた全周方向となるように合成した合成画像を生成し、生成した前記合成画像を出力し、前記合成画像を生成する処理は、複数の前記撮像部により、予め定められた基準物を撮像した基準画像を取得し、取得した前記基準画像に基づき画像合成パラメータを導出し、導出した前記画像合成パラメータを用いて前記合成画像を生成する処理を含む処理を実行させる。当該プログラムは、コンピュータに、内視鏡画像をX線CTの仮想内視鏡画像による展開図表示に対応する内視鏡展開図を生成し、X線CTの展開図表示と内視鏡展開図表示を比較できる処理を含む処理を実行させるものであってもよい。
 本開示の一態様における情報処理方法は、内視鏡の挿入部に設けられる先端部に配置された複数の撮像部により被検者を撮像した内視鏡画像を取得し、撮像された複数の前記内視鏡画像に基づき、前記先端部に対し前方視野及び後方視野を含めた全周方向となるように合成した合成画像を生成し、生成した前記合成画像を出力し、前記合成画像を生成する処理は、複数の前記撮像部により、予め定められた基準物を撮像した基準画像を取得し、取得した前記基準画像に基づき画像合成パラメータを導出し、導出した前記画像合成パラメータを用いて前記合成画像を生成する処理を含む処理をコンピュータに実行させる。当該情報処理方法は、コンピュータに、内視鏡画像をX線CTの仮想内視鏡画像による展開図表示に対応する内視鏡展開図を生成し、X線CTの展開図表示と内視鏡展開図表示を比較できる処理を含む処理を実行させるものであってもよい。
 本開示の一態様における内視鏡システムは、内視鏡と、内視鏡によって撮像される内視鏡画像の処理を行う制御部とを含む内視鏡システムであって、内視鏡は、被検者の体内に挿入される挿入部と、前記挿入部の先端に位置する筒状の先端部に設けられている複数の撮像部とを備え、複数の前記撮像部は、前記先端部に対し全周方向となる前方視野及び後方視野を含む複数の内視鏡画像を撮像し、前記制御部は、複数の前記撮像部により前記被検者を撮像した内視鏡画像を取得し、複数の時点にて撮像された複数の前記内視鏡画像を合成し、前記先端部に対する後方視野を含めた合成画像を生成し、生成した前記合成画像を出力する。当該内視鏡システムは、内視鏡画像をX線CTの仮想内視鏡画像による展開図表示に対応する内視鏡展開図を生成し、X線CTの展開図表示と内視鏡展開図表示を比較できる情報を出力するものであってもよい。
 本開示によれば、複数の撮像部で撮像した撮像画像に基づき構成される画像を生成するプログラム等を提供することができる。
実施形態1(内視鏡展開図)に係る内視鏡システムの概要を示す模式図である。 内視鏡システムに含まれる内視鏡装置の構成例を示すブロック図である。 内視鏡システムに含まれる情報処理装置の構成例を示すブロック図である。 挿入部の先端部(周面)を模式的に示す斜視図である。 挿入部の先端部(端面)を模式的に示す正面図である。 測定部を模式的に示す説明図である。 情報処理装置の制御部に含まれる機能部を例示する機能ブロック図である。 内視鏡が挿入された距離(S座標の値)を示す説明図である。 挿入部の先端部に設けられた撮像部による撮像を模式的に示す説明図である。 内視鏡展開図に関する説明図である。 制御部による処理手順の一例を示すフローチャートである。 実施形態2(チャネルの周囲に撮像部)に係る挿入部の先端部(端面)を模式的に示す正面図である。 挿入部の先端部(周面)を模式的に示す側面図である。 実施形態3(無線通信部/導波管)に係る挿入部の先端部(周面)を模式的に示す側面図である。 実施形態4(ステレオ視画像)に係る情報処理装置の制御部に含まれる機能部を例示する機能ブロック図である。 挿入部の先端部に設けられた撮像部による撮像を模式的に示す説明図である。 全周方向となる合成画像と、ステレオ視画像との関連に関する説明図である。 制御部による処理手順の一例を示すフローチャートである。 実施形態5(画像合成パラメータ)に係る情報処理装置の制御部に含まれる機能部を例示する機能ブロック図である。 内視鏡画像を連続した曲面に投影する曲面投影法を用いた幾何歪補正に関する説明図である。 合成画像を曲面(楕円球表示、円筒表示)に再投影して行う表示に関する説明図である。 制御部による処理手順の一例を示すフローチャートである。
(実施形態1)
 以下、本発明をその実施の形態を示す図面に基づいて詳述する。図1は、実施形態1(内視鏡展開図)に係る診断支援システムの概要を示す模式図である。内視鏡システムSは、内視鏡装置10、及び内視鏡装置10と通信可能に接続される情報処理装置6を含む。
 内視鏡装置10は、内視鏡40の撮像部446によって撮影した画像(撮影画像)を内視鏡用プロセッサ20に伝送し、内視鏡用プロセッサ20によってガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行うことにより、操作者が目視し易い状態にした内視鏡画像を生成する。内視鏡装置10は、生成した内視鏡画像を情報処理装置6に出力(送信)する。内視鏡装置10から送信された内視鏡画像を取得した情報処理装置6は、これら内視鏡画像に基づき、種々の情報処理を行い、診断支援に関する情報を出力する。
 内視鏡装置10は、内視鏡用プロセッサ20と、内視鏡40と、表示装置50とを含む。表示装置50は、例えば液晶表示装置、又は、有機EL(Electro Luminescence)表示装置である。
 表示装置50はキャスター付きの収容棚16の上段に設置されている。内視鏡用プロセッサ20は、収容棚16の中段に収容されている。収容棚16は、図示を省略する内視鏡検査用ベッドの近傍に配置される。収容棚16は内視鏡用プロセッサ20に接続されたキーボード15を搭載する、引き出し式の棚を有する。
 内視鏡用プロセッサ20は、略直方体形状であり、一面にタッチパネル25を備える。タッチパネル25の下部に、読取部28が配置されている。読取部28は、例えばUSBコネクタ、SD(Secure Digital)カードスロット、又はCD-ROM(Compact Disc Read Only Memory)ドライブ等の、可搬型記録媒体の読み書きを行なう接続用インターフェイスである。
 内視鏡40は、挿入部44、操作部43、ユニバーサルコード49及びスコープコネクタ48を有する。操作部43には、制御ボタン431が設けられている。挿入部44は長尺であり、一端が折止部45を介して操作部43に接続されている。挿入部44は、操作部43側から順に軟性部441、湾曲部442及び先端部443を有する。湾曲部442は、湾曲ノブ433の操作に応じて湾曲する。挿入部44には、3軸加速度センサ、ジャイロセンサ、地磁気センサ、磁気コイルセンサ又は内視鏡挿入形状観測装置(コロナビ)等の物理検出装置が実装され、内視鏡40が被検者の体内に挿入された際、これら物理検出装置からの検出結果を取得するものであってもよい。
 ユニバーサルコード49は長尺であり、第一端が操作部43に、第二端がスコープコネクタ48にそれぞれ接続されている。ユニバーサルコード49は、軟性である。スコープコネクタ48は略直方体形状である。スコープコネクタ48には、送気送水用のチューブを接続する送気送水口金36(図2参照)が設けられている。
 図2は、内視鏡システムに含まれる内視鏡装置の構成例を示すブロック図である。制御部21は、本実施の形態のプログラム(プログラム製品)を実行する演算制御装置である。制御部21には、一又は複数のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)又はマルチコアCPU等が使用される。制御部21は、バスを介して内視鏡用プロセッサ20を構成するハードウェア各部と接続されている。
 主記憶装置22は、例えば、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、制御部21が行なう処理の途中で必要な情報及び制御部21で実行中のプログラム(プログラム製品)が一時的に保存される。補助記憶装置23は、例えば、SRAM、フラッシュメモリ又はハードディスク等の記憶装置であり、主記憶装置22よりも大容量の記憶装置である。補助記憶装置23には、例えば、取得した撮影画像、生成した内視鏡画像が、中間データとして保存されるものであってもよい。
 通信部24は、有線又は無線によりネットワークを介して情報処理装置6と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、LTE等の広域無線通信モジュールである。タッチパネル25は、液晶表示パネル等の表示部と、表示部に積層された入力部を含む。
 表示装置I/F26は、内視鏡用プロセッサ20と表示装置50とを接続するインターフェイスである。入力装置I/F27は、内視鏡用プロセッサ20とキーボード15等の入力装置とを接続するインターフェイスである。
 光源33は、例えば白色LED、キセノンランプ等の高輝度の白色光源である。光源33は、図示を省略するドライバを介してバスに接続されている。光源33の点灯、消灯及び明るさの変更は、制御部21により制御される。光源33から照射した照明光は、光コネクタ312に入射する。光コネクタ312は、スコープコネクタ48と係合し、内視鏡40に照明光を供給する。
 ポンプ34は、内視鏡40の送気・送水機能用の圧力を発生させる。ポンプ34は、図示を省略するドライバを介してバスに接続されている。ポンプ34のオン、オフ及び圧力の変更は、制御部21により制御される。ポンプ34は、送水タンク35を介して、スコープコネクタ48に設けられた送気送水口金36に接続される。
 内視鏡用プロセッサ20に接続された内視鏡40の機能の概略を説明する。スコープコネクタ48、ユニバーサルコード49、操作部43及び挿入部44の内部に、ファイバーバンドル、ケーブル束、送気チューブ及び送水チューブ等が挿通されている。光源33から出射した照明光は、光コネクタ312及びファイバーバンドルを介して、先端部443に設けられた照明窓から放射される。照明光により照らされた範囲を、先端部443に設けられた撮像部で撮影する。撮像部からケーブル束及び電気コネクタ311を介して内視鏡用プロセッサ20に撮影画像が伝送される。
 内視鏡用プロセッサ20の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。画像処理部211は、内視鏡40から出力された画像(撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、内視鏡画像として出力する。
 図3は、内視鏡システムに含まれる情報処理装置6の構成例を示すブロック図である。情報処理装置6は、制御部62、通信部61、記憶部63及び入出力I/F64を含む。情報処理装置6は、例えばサーバ装置、パーソナルコンピュータ等である。サーバ装置は、単体のサーバ装置のみならず、複数台のコンピュータによって構成されるクラウドサーバ装置、又は仮想サーバ装置を含む。情報処理装置6は、内視鏡用プロセッサ20からアクセス可能な外部ネットワーク上に位置するクラウドサーバとして設けられているものであってもよい。
 制御部62は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の計時機能を備えた演算処理装置を有し、記憶部63に記憶されたプログラムP(プログラム製品)を読み出して実行することにより、情報処理装置6に係る種々の情報処理、制御処理等を行う。又は、制御部62は量子コンピュータ用チップで構成されており、情報処理装置6は量子コンピュータであってもよい。
 記憶部63は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の揮発性記憶領域及び、EEPROM又はハードディスク等の不揮発性記憶領域を含む。記憶部63には、プログラム(プログラム製品)及び処理時に参照するデータが予め記憶してある。記憶部63に記憶されたプログラム(プログラム製品)は、情報処理装置6が読み取り可能な記録媒体630から読み出されたプログラム(プログラム製品)を記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラム(プログラム製品)をダウンロードし、記憶部63に記憶させたものであってもよい。記憶部63には、後述する学習モデル(病変学習モデル631、関心領域学習モデル632)を構成する実体ファイル(ニューラルネットワーク(NN)のインスタンスファイル)が保存されている。これら実体ファイルは、プログラム(プログラム製品)の一部位として構成されるものであってもよい。
 通信部61は、有線又は無線により、内視鏡装置10と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、LTE等の広域無線通信モジュールである。
 入出力I/F64は、例えば、USB又はDSUB等の通信規格に準拠したものであり、入出力I/F64に接続された外部機器とシリアル通信するための通信インターフェイスである。入出力I/F64には、例えばディプレイ等の表示部7、キーボード等の入力部8が接続されており、制御部62は、入力部8から入力された実行コマンド又はイベントに基づき行った情報処理の結果を表示部7に出力する。
 図4は、挿入部の先端部(周面445)を模式的に示す斜視図である。図5は、挿入部の先端部(端面444)を模式的に示す正面図である。内視鏡40の先端部443には、複数の撮像部446及び撮影用光源447が設けられている。
 複数の撮像部446は、先端部443における筒体の周面445において周方向に沿って等配されている撮像部446(図面上、4つ)と、先端部443における筒体の端面444に設けられた撮像部446(図面上、1つ)とを含む。撮像部446は、例えば、CMOS等の撮像素子、及び当該撮像素子を実装する基板により構成される。撮像素子を実装する基板(撮像部446)と、内視鏡用プロセッサ20とは、例えば通信線及び電気コネクタ311を介して接続されている。
 先端部443における筒体の端面444に設けられた撮像部446は、内視鏡40の挿入方向に対し、前方を撮像する。先端部443における筒体の周面445に設けられた複数の撮像部446夫々は、内視鏡40の挿入方向に対し、側方を撮像する。すなわち、先端部443における筒体の周面445に設けられた複数の撮像部446夫々は、内視鏡40の挿入方向に対し、先端部443における筒体の端面444に設けられた撮像部446が撮像する体内部位よりも、後方に位置する体内部位を撮像することができる。本実施形態では、筒状を成す先端部443の周面に設けられる撮像部446は、4つとしており、それぞれの撮像部446は、円周角90度ごとに等間隔で配置されるものとしているが、これに限定されない。筒状を成す先端部443の周面に設けられる撮像部446は、例えば3つであり、円周角120度ごとに等間隔で配置されるものであってもよい。
 複数の撮影用光源447は、先端部443における筒体の周面445に周方向に沿って等配されている撮影用光源447(図面上、4つ)と、先端部443における筒体の端面444に設けられた撮影用光源447(図面上、2つ)とを含む。撮影用光源447は、先端部443に設けられた照明窓を介して、ファイバーバンドルによって導光される光源33から出射した照明光によるものであってよく、又は、先端部443に設けられた白色LED等によるものであってもよい。先端部443に白色LEDを設けた場合、内視鏡装置に含まれる光源33を不要とすることができる。複数の撮影用光源447夫々は、先端部443における筒体の端面444に設けられた撮像部446及び、先端部443における筒体の周面445に設けられた複数の撮像部446に対応して設けられているため、これら複数の撮像部446が体内部位を撮像するにあたり、十分な光量を供給することができる。
 このように複数の撮像部446を、先端部443における筒体の周面445及び筒体の端面444に設けることにより、単一(同一)の視点位置において、複数の異なる視点方向からの複数の内視鏡画像を取得することができる。
 図6は、測定部9(マウスピース、アタッチメント)を模式的に示す説明図である。測定部9は、例えば、口腔部に取り付けられたマウスピース、又は肛門部に取り付けられたアタッチメントとして構成され、内視鏡40の挿入部44が挿通されるための孔部が形成された環状部材である。
 環状を成す測定部9には、周方向に沿って検知部91が設けられている。検知部91は、光学センサ、又は磁気センサによって構成される。内視鏡40の挿入部44には、当該検知部91に対応する被検知体449が設けられている。
 被検知体449は、内視鏡40の挿入部44の軸方向に沿って設けられる長尺体であり、光学的な反射部材又は磁性体等により構成され、光学センサ又は磁気センサ等によって構成される検知部91により検知される。
 内視鏡40の挿入部44が測定部9を通過して体内に挿通される際、測定部9は、当該挿入部44の設けられている被検知体449を検知(検出)することにより内視鏡40の挿入部44の挿入距離、及び当該挿入部44の回転角度を導出し、導出した挿入距離及び回転角度を内視鏡40用プロセッサに出力する。すなわち、測定部9は、挿入距離測定部及び回転角度測定部として機能する。
 内視鏡40の挿入部44は、体内に挿入される際、上部内視鏡撮影の場合は口腔部に取り付けられたマウスピース(測定部9)、下部内視鏡撮影の場合は肛門部に取り付けられたアタッチメント(測定部9)を通過して、体内に挿入される。従って、いずれの場合であっても、内視鏡40の挿入部44の挿入距離、及び当該挿入部44の回転角度を好適に導出することができる。
 本実施形態において、挿入部44の回転角度の測定は、マウスピース又はアタッチメントにより構成される測定部9を用いるものとしたが、これに限定されない。内視鏡40の操作部43にジャイロスコープ又は加速度センサを設けて、当該操作部43の回転量を測定し、測定した回転量に基づき、挿入部44の回転角度を導出するものであってもよい。
 図7は、情報処理装置6の制御部62に含まれる機能部を例示する機能ブロック図である。内視鏡用プロセッサ20(内視鏡装置10)の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。情報処理装置6の制御部62は、記憶部63に記憶されているプログラムを実行することにより、取得部621、合成画像生成部622、展開図生成部623、病変領域特定部624(病変学習モデル631)、及び出力部625として機能する。
 内視鏡用プロセッサ20の画像処理部211は、内視鏡40から出力(複数の撮像部446によって撮像)された画像(複数の撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、複数の内視鏡画像として出力する。画像処理部211は、生成した内視鏡画像及び内視鏡画像の撮像時点に基づく検査日時を情報処理装置6に出力(送信)する。画像処理部211は、更にキーボード15から入力された被検者IDを情報処理装置6に出力するものであってもよい。
 内視鏡用プロセッサ20(画像処理部211)は、内視鏡40の周辺環境を測定するため内視鏡40の挿入部44(可撓管)に対応して設けられた測定部9(マウスピース、アタッチメント)等のセンサから出力される内視鏡40の挿入距離(S座標)及び回転角度に関する情報を、情報処理装置6に出力する。画像処理部211は、測定部9から取得した内視鏡40の挿入距離及び回転角度に関する情報を、例えば、内視鏡画像に重畳して表示装置50に表示させるものであってもよい。
 取得部621は、内視鏡用プロセッサ20が出力した複数の内視鏡画像、S座標(挿入距離)、及び回転角度を取得する。図8は、内視鏡40が挿入された距離(S座標の値)を示す説明図である。図示されるように内視鏡40により撮影された消化器官等を3次元形状により表現した場合、当該消化器官等の内壁の内側には、空間が形成されており、当該空間は内視鏡40が挿入される挿入経路となる。内視鏡40(挿入部44)の挿入距離であるS座標は、当該挿入経路の内側(消化器官等の内壁の内側)であって、挿入されている経路の経路長が当該挿入距離に略等しくなる場所となるため、S座標に基づき、消化器官等の内壁の内側に位置する内視鏡40の先端部443の座標を導出することができる。
 内視鏡40(挿入部44)の回転角度においては、被検者の体軸と平行となるようにZ軸を定義した場合、Z軸が上下方向を示し、Y軸は前後方向を示し、Z軸が左右方向を示すものとなり、当該回転角度は、これら軸を回転軸として定義されるものとなる。内視鏡画像の撮像が上部内視鏡撮影によって行われる場合の回転角度は、被検者の体軸に対し平行となる上下方向(Z軸)を回転軸とした角度であり、下部内視鏡撮影によって行われる場合の回転角度は、被検者の体腔の長手方向に対し平行となる前後方向を回転軸とした角度である。
 取得部621は、取得した複数の内視鏡画像、S座標(挿入距離)、及び回転角度を、合成画像生成部622に出力する。取得部621は、これらを合成画像生成部622に出力するにあたり、複数の内視鏡画像それぞれに対し、S座標(挿入距離)及び回転角度を関連付けて出力するものであってもよい。これら複数の内視鏡画像は、先端部443(端面444、周面445)に設けられた撮像部446により、同じ撮像時点にて撮像された内視鏡画像であり、取得部621は、これら複数の内視鏡画像それぞれに撮像時点(時刻情報)を関連付けて、合成画像生成部622に出力するものであってもよい。取得部621は、例えば内視鏡用プロセッサ20から出力される被検者IDに基づき、通信可能に接続されたCT装置等(X線CT)から、当該被検者IDの仮想内視鏡画像、及び当該仮想内視鏡画像の展開図を取得するものであってもよい。仮想内視鏡画像は、X線CT又はMRI又はX線コーンビームCTの3次元医用画像に基づいて生成(再構成)し、3次元用医用画像による器官内(体腔内)を仮想的内視鏡によって表した画像である。仮想内視鏡画像に基づき、縦軸を回転角度、横軸を挿入距離として展開することにより、展開図が生成される。当該展開図(仮想内視鏡画像の展開図)には、取得部621が取得した複数の内視鏡画像に対応する領域が含まれている。取得部621は、X線CTから取得した仮想内視鏡画像の展開図を、出力部625に出力する。
 合成画像生成部622は、取得した複数の内視鏡画像に基づき、挿入部44の進行方向にて前方及び後方を視野に含め、先端部443に対し全周(360度)となる合成画像(360度FOV画像)を生成する。図9は、挿入部44の先端部443に設けられた撮像部446による撮像を模式的に示す説明図である。本実施形態において図示するとおり、先端部443(端面444、周面445)に設けられたそれぞれの撮像部446は、挿入部44の進行方向にて前方、側方及び後方を視野に含むため、取得した複数の内視鏡画像に基づき、360度FOV画像を効率的に合成することができる。特に周面445に設けられた撮像部446は、腫瘍に対し正面(上方)となる視野を含み、当該腫瘍の正面(上側)を含む撮像することができ、観察効率の向上、及びこのように撮像された内視鏡画像に基づくAI等による診断支援情報の精度の向上を図ることができる。
 合成画像生成部622は、複数の内視鏡画像を合成するにあたり、個々の内視鏡画像に対し、幾何学補正を行うものであってもよい。幾何学補正は、例えば、取得した内視鏡画像を、連続した曲面に投影する曲面投影(投影変換)を用いた球面補正である。又は、幾何学補正は、例えば、アフィン変換、擬似アフィン変換、2次等角変換、又は2次元射影変換等の画像処理アルゴリズムに基づき行うものであってってもよい。又は、幾何学補正は、撮像部446に含まれるレンズの仕様又は光学特性に基づき、多種多量な撮像物に対する光学シミュレーションを行い、その結果を人口知能により機械学習することにより撮像画像の位置に対応した辞書を生成し、当該辞書を用いて無収差に復元して補正するものであってもよい。幾何学補正を行うことにより、これら複数の内視鏡画像において重複する領域(重複領域)の抽出精度を向上させ、合成しやすい画像(繋ぎ合わせやすい座標系の画像)に補正することができる。
 合成画像生成部622は、幾何学補正した複数の内視鏡画像において、重複領域(同じ観察物を撮像している領域)を重ね合わせることにより位置合わせして、合成画像を生成する。合成画像生成部622は、生成した合成画像に、当該合成画像の元となる複数の内視鏡画像を撮像した時点における内視鏡40の挿入距離及び回転角度を関連付け、更に当該合成画像の元となる複数の内視鏡画像を撮像した時点(撮像時点)に関する時刻情報を関連付けるものであってもよい。合成画像生成部622は、生成した合成画像を展開図生成部623に出力する。
 展開図生成部623は、取得した合成画像、及び当該合成画像に関連付けられている挿入距離及び回転角度に基づき、縦軸が回転角度(第2軸)、横軸が挿入距離(第1軸)となる内視鏡展開図を生成する。図10は、内視鏡展開図に関する説明図である。本実施形態における図示のとおり、合成画像を内視鏡展開図に変換することにより、撮像された観察箇所に対する視認性を向上させることができる。展開図生成部623は、撮像時点が異なる複数の合成画像を取得した場合は、これら複数の合成画像に基づき展開した複数の内視鏡展開図を回転角度に基づき位置合わせし、撮像時点の経過順(挿入距離の順番)に従って並べて表示するものであってもよい。展開図生成部623は、生成した内視鏡展開図を病変領域特定部624及び出力部625に出力する。なお、内視鏡展開図は、縦軸が回転角度、横軸が挿入距離であるとしたが、横軸が回転角度、縦軸が挿入距離として表現(展開)されるものであってもよい。
 病変領域特定部624は、内視鏡画像を入力された場合、腫瘍等の病変の領域を出力する病変学習モデル631を含む。病変領域特定部624は、取得した内視鏡展開図を病変学習モデル631に入力することにより、当該内視鏡展開図に、腫瘍等の病変が含まれているか否かを判定する。内視鏡展開図は複数の内視鏡画像によって合成された画像であるため、病変学習モデル631に内視鏡展開図を入力することにより、当該内視鏡展開図に腫瘍等の病変が含まれているか否か取得することができる。腫瘍等が含まれている場合、病変領域特定部624は、内視鏡展開図における当該腫瘍の領域(腫瘍領域)を内視鏡40の挿入距離及び回転角度により特定し、当該腫瘍領域に関する情報を出力部625に出力する。
 病変学習モデル631は、訓練データを用いて学習されたニューラルネットワークであり、は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用が想定される。病変学習モデル631は、上述のごとく制御部62(CPU等)及び記憶部63を備える情報処理装置6にて用いられるものであり、このように演算処理能力を有する情報処理装置6にて実行されることにより、ニューラルネットワークシステムが構成される。すなわち、情報処理装置6の制御部62が、記憶部63に記憶された病変学習モデル631からの指令に従って、入力層に入力された内視鏡画像の特徴量を抽出する演算を行い、出力層から病変の有無等を含む診断支援情報を出力するように動作する。
 入力層は、内視鏡画像の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値及び距離情報を中間層に受け渡す。中間層は、内視鏡画像の画像特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量を出力層に受け渡す。出力層は、病変の有無及び症状のステージに関する情報を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量に基づいて、病変の有無及び症状のステージに関する情報を出力する。例えば病変学習モデル631がCNN(Convolutional Neural Network)である場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピング(圧縮)するプーリング層とが交互に連結された構成を有し、内視鏡画像の画素情報を圧縮しながら最終的に内視鏡画像の特徴量を抽出する。出力層は、当該内視鏡画像に含まれる体内部位における病変の有無等に関する情報を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量等に基づいて、病変の有無等に関する情報を出力する。出力された病変の有無等に関する情報は、内視鏡40を操作する医師等により診断支援情報として用いられる情報である。
 本実施形態では、病変学習モデル631に入力されるデータ又は合成されるデータ等の処理対象となるデータは、内視鏡画像であるとして説明しているがこれに限定されない。当該処理対象となるデータは、内視鏡40の撮像部446が撮像した撮影画像(生画像)であってもよい。すなわち、病変学習モデル631は、撮影画像が入力されることにより、病変の有無等に関する情報を出力するものであってもよい。本実施形態では病変学習モデル631がCNN等のニューラルネットワーク(NN)であるとして説明するが、病変学習モデル631は、NNに限定されず、SVM(Support Vector Machine)、ベイジアンネットワーク、回帰木など、他の学習アルゴリズムで構築された病変学習モデル631であってもよい。又は、CNNの代わりに、RCNN(Regions with Convolutional Neural Network)、Fast RCNN、Faster RCNN又はSSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)等の、任意の物体検出アルゴリズムを使用しても良い。
 出力部625は、病変領域特定部624から取得した腫瘍領域に関する情報(挿入距離及び回転角度)と、展開図生成部623から取得した内視鏡展開図に基づき、内視鏡展開図に特定した腫瘍領域を囲む赤枠を重畳表示する等、強調表示させた内視鏡展開図を、表示部7に出力する。表示部7は、出力部625から出力されたデータに基づき、強調表示させた内視鏡展開図を自部に含まれる表示画面にて表示する。出力部625は、更に、展開図生成部623から取得した内視鏡展開図と、取得部を介してX線CTから取得した仮想内視鏡画像の展開図とを並べて表示させるデータを生成し、当該データを表示部7に出力するものであってもよい。また、出力部625は、合成画像(360度FOV画像)と、仮想内視鏡画像とを並べて表示させるデータを生成し、当該データを表示部7に出力するものであってもよい。上述のとおり、X線CTから取得した仮想内視鏡画像の展開図は、展開図生成部623から取得した内視鏡展開図の元データである複数の内視鏡画像に対応する領域が含まれているため、これら展開図は、同一の観察領域を含むものとなる。従って、同一の観察箇所に対する内視鏡画像からの展開図(内視鏡展開図)と、X線CTから取得した仮想内視鏡画像の展開図とを、横並びにして比較表示することにより、医師等に有効な診断支援情報を提供することができる。
 内視鏡展開図と、仮想内視鏡画像の展開図とを、比較表示される表示形態は、これら展開図を並べて表示させる形態に限定されず、これら展開図を重ね合わせて表示する形態であってもよい。例えば、仮想内視鏡画像の展開図の上に、内視鏡展開図を重ね合わせて表示する場合、内視鏡展開図を半透明となるように変換し、挿入距離(S座標)及び回転角度を用いて位置合わせし、これら展開図を重ね合わせて表示するものであってもよい。同様に、合成画像(360度FOV画像)と、仮想内視鏡画像とを重ね合わせて表示するものであってもよい。また、これら展開図を重ね合わせて表示するにあたり、病変領域特定部624によって病変領域が特定された展開図それぞれ(内視鏡展開図、仮想内視鏡画像の展開図)を、重ね合わせて表示するものであってもよい。合成画像(360度FOV画像)及び仮想内視鏡画像についても、病変領域特定部624等と同様のCNN等により構成されるAI(学習モデル)を用いて病変領域を特定し、赤枠等のアノテーション表示によって当該病変領域が特定された合成画像(360度FOV画像)及び仮想内視鏡画像を重ね合わせて表示するものであってもよい。
 本実施形態において、一連の処理における各機能部を、内視鏡用プロセッサ20の制御部21による機能部と、情報処理装置6の制御部62による機能部夫々とに分けて説明したが、これら機能部の分担は一例であり、これに限定されない。内視鏡用プロセッサ20の制御部21は、情報処理装置6の制御部62によって行われる全ての機能部として、機能するものであってもよい。すなわち、内視鏡用プロセッサ20が、実質的に情報処理装置6を含むものであってもよい。又は、内視鏡用プロセッサ20の制御部21は、撮像部446が撮像した撮影画像を出力するのみであり、情報処理装置6の制御部62は、以降の処理を行う全ての機能部として機能するものであってもよい。又は、内視鏡用プロセッサ20の制御部21と、情報処理装置6の制御部62とは、例えばプロセス間通信を行うことにより、協働して一連の処理における各機能部として機能するものであってもよい。
 図11は、制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
 情報処理装置6の制御部62は、複数の撮像部446によって撮像された内視鏡画像を取得する(S101)。先端部443(端面444、周面445)に設けられたそれぞれの撮像部446は、挿入部44の進行方向にて前方、側方及び後方を視野に含むものであり、情報処理装置6の制御部62は、挿入部44の進行方向にて前方、側方及び後方の視野方向にある観察箇所を撮像した複数の内視鏡画像を取得する。
 情報処理装置6の制御部62は、内視鏡40の挿入距離及び回転角度を取得する(S102)。情報処理装置6の制御部62は、例えばマウスピース又はアタッチメント等として構成される測定部9から出力される内視鏡40の挿入距離及び回転角度を取得する。回転角度に関し、内視鏡画像の撮像が上部内視鏡撮影によって行われる場合は被検者の体軸に対し平行となる上下方向を回転軸とした角度であり、下部内視鏡撮影によって行われる場合は被検者の体軸に対し垂直となる前後方向を回転軸とした角度である。
 情報処理装置6の制御部62は、複数の内視鏡画像に対する幾何学補正を行う(S103)。情報処理装置6の制御部62は、取得した複数の内視鏡画像それぞれに対し、幾何学補正を行うことにより、これら複数の内視鏡画像において重複する領域(重複領域)の抽出精度を向上させ、合成しやすい画像(繋ぎ合わせやすい座標系の画像)に補正する。幾何学補正は、例えば、取得した内視鏡画像を、連続した曲面に投影する曲面投影(投影変換)を用いた球面補正である。又は、幾何学補正は、例えば、アフィン変換、擬似アフィン変換、2次等角変換、又は2次元射影変換等の画像処理アルゴリズムに基づき行うものであってってもよい。又は、幾何学補正は、撮像部446に含まれるレンズの仕様又は光学特性に基づき、多種多量な撮像物に対する光学シミュレーションを行い、その結果を人口知能(AI)により機械学習することにより撮像画像の位置に対応した辞書(ルックアップテーブル)を生成し、当該辞書を用いて無収差に復元して補正するものであってもよい。
 情報処理装置6の制御部62は、補正した複数の内視鏡画像に基づき、合成画像を生成する(S104)。情報処理装置6の制御部62は、幾何学補正した複数の内視鏡画像において、重複領域(同じ観察物を撮像している領域)を重ね合わせることにより位置合わせして、合成画像を生成する。複数の撮像部446は、挿入部44の先端部443における端面444及び周面445に設けられており、周面445に設けられている撮像部446は、周方向に沿って等間隔で配置されている。端面444の撮像部446は、挿入部44の進行方向にて前方を撮像し、周面445の撮像部446は、挿入部44の進行方向に対し側方及び後方を撮像する。従って、これら複数の撮像部446によって撮像された複数の内視鏡画像を合成することにより、挿入部44の進行方向にて前方及び後方を視野に含め、先端部443に対し全周(360度)となる合成画像(360度FOV画像)を生成することができる。
 情報処理装置6の制御部62は、生成した合成画像に、当該合成画像の元となる複数の内視鏡画像を撮像した時点における内視鏡40の挿入距離及び回転角度を関連付ける。情報処理装置6の制御部62は、更に、生成した合成画像に、当該合成画像の元となる複数の内視鏡画像を撮像した時点(撮像時点)に関する時刻情報を関連付けるものであってもよい。
 情報処理装置6の制御部62は、合成画像から、内視鏡展開図を生成する(S105)。情報処理装置6の制御部62は、合成画像及び、当該合成画像に関連付けられている挿入距離及び回転角度に基づき、縦軸が回転角度、横軸が挿入距離となる内視鏡展開図を生成する。情報処理装置6の制御部62は、複数の合成画像に基づき、個々の合成画像から生成した内視鏡展開図を回転角度に基づき位置合わせし、挿入距離の順番(撮像時点の経過順)に従って並べて表示するものであってもよい。
 情報処理装置6の制御部62は、内視鏡展開図に基づき、病変領域を特定する(S106)。情報処理装置6の制御部62は、例えば自装置の記憶部63に記憶されている病変学習モデル631を用い、当該病変学習モデル631に内視鏡展開図を入力することにより、当該内視鏡展開図に腫瘍等の病変が含まれているかを判定し、腫瘍が含まれている場合、内視鏡展開図における当該腫瘍の領域(腫瘍領域)を内視鏡40の挿入距離及び回転角度により特定する。
 情報処理装置6の制御部62は、病変領域が強調された内視鏡展開図を出力する(S107)。情報処理装置6の制御部62は、腫瘍等の病変が含まれている場合、特定した腫瘍領域を囲む赤枠を内視鏡展開図に重畳表示する等、強調表示させた内視鏡展開図を表示部7に出力する。表示部7は、出力されたデータに基づき、強調表示させた内視鏡展開図を、自部に含まれる表示画面にて表示する。
 本実施形態において、一連の処理は、情報処理装置6の制御部62によって行われるとしたが、これに限定されない。これら一連の処理は、内視鏡用プロセッサ20の制御部21によって行われるものであってもよい。又は、これら一連の処理は、内視鏡用プロセッサ20の制御部21と、情報処理装置6の制御部62とが、例えばプロセス間通信を行うことにより、協働して行うものであってもよい。
 本実施形態によれば、内視鏡40の挿入部44に設けられる筒状の先端部443の端面444及び周面445には、複数の撮像部446が設けられているため、先端部443に対する前方視野及び後方視野が含まれる複数の内視鏡画像を、当該複数の撮像部446それぞれから、取得することができる。取得した複数の内視鏡画像に基づき、先端部443に対し前方視野及び後方視野を含めた全周方向の合成画像を効率的に生成することができる。合成画像は、先端部443の端面444及び、周面445に所定の円周角にて等配された複数の撮像部446によって撮像された複数の内視鏡画像を合成したものであるため、筒状を成す先端部443の周方向にて、全周にわたる視野を含む360度FOV(Field of view)画像に相当する。
 複数の撮像部446による内視鏡画像の撮像は、複数の時点にて行われる。この際、内視鏡画像が撮像された時点における内視鏡40の挿入距離及び回転角度と、合成画像とを関連付けることにより、当該挿入距離及び回転角度に基づき、生成した合成画像の体内における位置(座標)を特定することができる。すなわち、撮像した内視鏡画像それぞれに対し、絶対座標を付与(関連付け)することにより、回転方向を合わせてこれら画像を比較(内視鏡画像比較)することができる。従って、複数の時点にて撮像された360度視野の内視鏡画像(360度FOV画像)それぞれに対し、座標の再現性及び時間経過における比較(時間方向の比較)を効率的に行うことができる。
 本実施形態によれば、内視鏡40は、例えば、胃カメラ等の上部消化管内視鏡検査のための内視鏡40と、大腸カメラ等の下部消化管内視鏡検査のための内視鏡40とを含む。内視鏡画像の撮像が上部内視鏡撮影によって行われる場合の挿入距離は、被検者の口腔部に設けられた測定部9(マウスピース)から出力される挿入距離であり、下部内視鏡撮影によって行われる場合の挿入距離は、被検者の肛門部に設けられた測定部9(アタッチメント)から出力される挿入距離である。内視鏡画像の撮像が上部内視鏡撮影によって行われる場合の回転角度は、被検者の体軸に対し平行となる上下方向を回転軸とした角度であり、下部内視鏡撮影によって行われる場合の回転角度は、被検者の体腔の長手方向に対し平行となる前後方向を回転軸とした角度である。これら測定部9は、例えば、被検者の口腔部に取り付けられたマウスピース又は、被検者の肛門部に取り付けられたアタッチメントであり、挿入距離を測定する挿入距離測定部、及び回転角度を測定する回転角度測定部として機能する。従って、上部内視鏡撮影又は下部内視鏡撮影のいずれの場合であっても、挿入距離及び回転角度を適切に検出(測定)することができる。
 本実施形態によれば、複数の時点にて撮像された内視鏡画像に基づき、複数の合成画像を生成することができる。生成した複数の合成画像は、異なる時点にて撮像されたものであり、当該時点に応じて、内視鏡40の挿入距離及び回転角度は、異なるものとなる。このような複数の合成画像に基づき、内視鏡40の挿入距離を横軸とし、回転角度を縦軸とした内視鏡展開図を生成することにより、視認性に優れた内視鏡展開図を効率的に生成することができる。複数の合成画像は、それぞれが撮像された時点(撮像時点)が異なるものであり、当該撮像時点における内視鏡40の挿入距離及び回転角度は異なるものとなるが、撮像部446の視野角に応じて、これら複数の合成画像において、同一の観察箇所が重複して撮像される重複領域が存在する。そこで、当該重複領域を抽出し、抽出した重複領域を重ね合わせることにより、切れ目及び重複が軽減された内視鏡展開図を効率的に生成することができる。内視鏡展開図を用いることにより、合成された360度の内視鏡画像(360度FOV画像)に対し、例えば腫瘍を上方から観察し、腫瘍等のヒダによる影について全て視認することができ、医師等の内視鏡40の操作者に対し有効な診断支援情報を提供することができる。
 本実施形態によれば、内視鏡画像を入力された場合、腫瘍等の病変の領域を出力する病変学習モデル631に、内視鏡展開図を入力することにより、当該内視鏡展開図に、腫瘍等の病変が含まれているか否かを判定する。腫瘍が含まれている場合、内視鏡展開図における当該腫瘍の領域(腫瘍領域)を内視鏡40の挿入距離及び回転角度により特定し、例えば、特定した腫瘍領域を囲む赤枠を重畳表示する等、強調させて内視鏡展開図を出力するため、医師等の内視鏡40の操作者に対し、有効な診断支援情報を提供することができる。
(実施形態2)
 実施形態2の内視鏡40は、先端部443の端面444に複数の撮像部446が設けられる点で実施形態1と異なる。図12は、実施形態2(チャネル448の周囲に撮像部446)に係る挿入部44の先端部443(端面444)を模式的に示す正面図である。図13は、挿入部44の先端部443(周面445)を模式的に示す側面図である。
 実施形態2の内視鏡40は、実施形態1の内視鏡40と同様に、筒状を成す先端部443の端面444及び周面445に設けられる複数の撮像部446を備える。実施形態2の内視鏡40の先端部443の端面444の中央部には、チャネル448(working channel)が設けられている。
 チャネル448(working channel)は、鉗子等の処置具を挿入するための孔部であり、先端部443の端面444から操作部43に向かって、挿入部44の全体を貫通するように延設されている。端面444の中央部に設けられたチャネル448を中心として、当該端面444には、複数の撮像部446が設けられている。端面444に設けられた複数の撮像部446は、例えば4つであり、等間隔となるように同じ中心角(本実施形態においては90度)にて配置されている。
 先端部443の周面445に設けられる複数の撮像部446は、内視鏡40の挿入部44の挿入方向に対し、撮像部446の光軸の角度が90度よりも大きくなるように傾けられて設けられている。内視鏡40の挿入部44の挿入方向は、当該挿入部44の軸方向と平行な方向であり、挿入部44が体内に挿入される際の進行方向(前方)に相当するものである。本実施形態における図示のとおり、周面445の撮像部446を後方に向けて傾けることにより、挿入部44の挿入方向(軸方向)と、周面445の撮像部446の光軸とによる角度(α)は、90度よりも大きく(α°>90°)なる。撮像部446の光軸の角度は、内視鏡40の挿入部44の挿入方向に対し、180度よりも小さいものとなり、すなわち角度範囲としては、(180°>α°>90°)となる。
 本実施形態によれば、先端部443の端面444の中央部に設けられたチャネル448の周囲には、先端部443に対し前方視野を撮像する複数の撮像部446が、例えば等間隔となるように設けられているため、先端部443、すなわち内視鏡40の挿入部44を細径化することができる。内視鏡40の挿入部44を体内に挿入する際の挿入方向に対し、先端部443の周面445に配置された撮像部446の光軸の角度は、90度よりも大きいため、周面445の撮像部446の光軸は、挿入部44の挿入方向に対し後方を向くものとなる。従って、周面445の撮像部446によって、より広い範囲となる後方視野を撮像することができる。
(実施形態3)
 実施形態3の内視鏡40は、無線通信を用いて、撮像部446から出力される撮像画像を伝送する点で実施形態1と異なる。図14は、実施形態3(無線通信部4481/導波管)に係る挿入部44の先端部443(周面445)を模式的に示す側面図である。
 内視鏡40の先端部443には、撮像部446とリード線等により接続され、撮像部446が出力する撮像画像を無線にて送信する無線通信部4481が設けられている。無線通信部4481は、例えばチャネル448の外周面に配置されており、撮像部446が出力した撮像画像を無線にて、内視鏡40用プロセッサの通信部24に送信する。この場合、内視鏡40用プロセッサの通信部24は、無線通信の受信部として機能する。
 無線通信部4481は、チャネル448を導波管として用いて、チャネル448の内壁によって形成される空間に電波を放射して、撮像部446が出力する撮像画像を、操作部43に設けられる無線通信の受信部に送信するものであってもよい。
 本実施形態によれば、内視鏡40に設けられる撮像部446から、内視鏡40用プロセッサに設けられる制御部62への内視鏡画像の出力は、内視鏡40及び内視鏡40用プロセッサ間の無線通信によって行われる。従って、内視鏡40の挿入部44の内部にて、撮像部446による撮像画像を送信するための配線を設けることを不要とし、内視鏡40の挿入部44を細径化することができる。更に、挿入部44の全体において貫通する孔部により構成されるチャネル448(working channel)を、導波管として用いることにより、無線通信の電波を好適に伝搬させることができる。
(実施形態4)
 実施形態4の内視鏡システムSは、合成画像に基づきステレオ視画像を生成する点で実施形態1と異なる。図15は、実施形態4(ステレオ視画像)に係る情報処理装置6の制御部62に含まれる機能部を例示する機能ブロック図である。内視鏡用プロセッサ20(内視鏡装置10)の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。情報処理装置6の制御部62は、実施形態1と同様に、記憶部63に記憶されているプログラムを実行することにより、取得部621、合成画像生成部622、出力部625として機能し、更にステレオ視画像生成部626及び関心領域特定部627(関心領域学習モデル632)として機能する。
 取得部621は、実施形態1と同様に、内視鏡用プロセッサ20が出力した複数の内視鏡画像、S座標(挿入距離)、及び回転角度を取得する。合成画像生成部622は、実施形態1と同様に、取得した複数の内視鏡画像に基づき、挿入部44の進行方向にて前方及び後方を視野に含め、先端部443に対し全周(360度)となる合成画像(360度FOV画像)を生成し、生成した合成画像をステレオ視画像生成部626に出力する。
 ステレオ視画像生成部626は、取得した合成画像、及び当該合成画像に関連付けられている挿入距離及び回転角度に基づき、被検者の体内における同一の観察箇所に対し、異なる視野方向で撮像した複数の内視鏡40を並べたステレオ視画像を生成する。ステレオ視画像生成部626は、撮像時点が異なる複数の合成画像それぞれを、各視野方向に応じた所定の視野角度にて分割し、分割した合成画像それぞれを、内視鏡40の回転角度に基づき位置合わせを行い、内視鏡40の挿入距離に応じて繋ぎ合わせる処理を行うことによりステレオ視画像を生成(再構成)する。
 図16は、挿入部44の先端部443に設けられた撮像部446による撮像を模式的に示す説明図である。本実施形態における図示のとおり、内視鏡40の挿入部44が体内に所定の速度(挿入速度)で挿入されることにより、連続する複数の撮像時点において、腫瘍等の同一の観察箇所に対し、異なる視野方向にて、内視鏡画像を撮像することができる。
 本実施形態における図示においては、周面445の撮像部446は、t[x]の撮像時点において腫瘍(観察箇所)を正面から撮像し、t[x]よりも以前となるt[x-1]の撮像時点において腫瘍(観察箇所)を左側面(前方視野)から撮像し、t[x]よりも以降となるt[x+1]の撮像時点において腫瘍(観察箇所)を右側面(後方視野)から撮像する。このように同一の観察箇所(腫瘍)に対し、連続する複数の撮像時点において撮像した内視鏡画像に基づき、それぞれの撮像時点における合成画像(360度FOV画像)を生成することができる。
 図17は、全周方向となる合成画像と、ステレオ視画像との関連に関する説明図である。合成画像(360度FOV画像)は、筒状を成す先端部443の端面444及び周面445に設けられる複数の撮像部446により撮像された内視鏡画像を合成したものであるため、本実施形態における図示のとおり、筒体の内壁側にて形成される曲面座標系(筒状曲面座標系)にて示すことができる。
 ステレオ視画像生成部626は、当該筒状曲面座標系において、合成画像を所定の視野角度で分割(輪切り)し、分割されたいずれかの合成画像(分割合成画像)のうち、対象となる観察箇所(腫瘍)が含まれる分割合成画像を抽出する。連続する複数の撮像時点における合成画像に対し、このような分割及び抽出処理を行うことにより、対象となる観察箇所(腫瘍)が含まれる分割合成画像が特定される。ステレオ視画像生成部626は、これら特定された分割合成画像を、先端部443の回転角度に基づき位置合わせし、更に撮像時点の順位に並べて繋ぎ合わせる(再構成)ことにより、ステレオ視画像を生成する。当該ステレオ視画像を生成することにより、同一の観察箇所(腫瘍)に対し異なる角度から観察することができる。
 ステレオ視画像生成部626は、連続する複数の撮像時点における合成画像において、分割されたいずれかの合成画像(分割合成画像)のうち、同一の視野角度となる分割合成画像を抽出し、これら同一の視野角度となる分割合成画像を繋ぎ合わせる(再構成)ことにより、ステレオ視画像を生成するものであってもよい。当該同一とする視野角度を、例えば、周面445の撮像部446を基点にし、挿入部44の挿入方向(軸方向)に対し90度とした場合、観察箇所に対し正面(上方)から撮像した分割合成画像を繋ぎ合わせたステレオ視画像を生成することができる。ステレオ視画像生成部626は、生成したステレオ視画像を関心領域特定部627及び出力部625に出力する。
 病変領域特定部624は、内視鏡画像を入力された場合、瘍、病変候補、処置具及びマーカー等の関心領域(ROI:Region Of Interest)の有無等を含む診断支援情報を出力する関心領域学習モデル632を含む。関心領域特定部627は、取得したステレオ視画像を関心領域学習モデル632に入力することにより、当該内視鏡展開図に、関心領域が含まれているか否かを判定し、ステレオ視画像に腫瘍等の関心領域が含まれているか否か等を含む診断支援情報を出力部625に出力する。更に関心領域特定部627は、X線CTの仮想内視鏡による展開図との比較表示、比較情報出力を行う。ステレオ視画像は複数の内視鏡画像によって合成された画像であるため、関心領域学習モデル632にステレオ視画像を入力することにより、当該ステレオ視画像に腫瘍等の関心領域が含まれているか否かを含む診断支援情報を取得することができる。関心領域学習モデル632は、実施形態1の病変学習モデル631と同様に例えばCNN等、訓練データを用いて学習されたニューラルネットワークにより構成される。
 出力部625は、関心領域特定部627から取得した関心領域に関する診断支援情報と、ステレオ視画像生成部626から取得したステレオ視画像とに基づき、例えば、診断支援情報が重畳されたステレオ視画像を表示部7に出力する。表示部7は、出力部625から出力されたデータに基づき、診断支援情報が重畳されたステレオ視画像を、自部に含まれる表示画面にて表示する。
 図18は、制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
 情報処理装置6の制御部62は、複数の撮像部446によって撮像された内視鏡画像を取得する(S401)。情報処理装置6の制御部62は、内視鏡40の挿入距離及び回転角度を取得する(S402)。情報処理装置6の制御部62は、複数の内視鏡画像に対する幾何学補正を行う(S403)。情報処理装置6の制御部62は、補正した複数の内視鏡画像に基づき、合成画像を生成する(S404)。情報処理装置6の制御部62は、実施形態1の処理S101からS104の処理を同様に、S401からS404までの処理を行う。
 情報処理装置6の制御部62は、挿入距離及び回転角度が関連付けられた合成画像を視野方向毎に分割する(S405)。合成画像(360度FOV画像)は、本実施形態における図示のとおり、筒体の内壁側にて形成される筒状の曲面座標系にて示すことができる。情報処理装置6の制御部62は、当該筒状の曲面座標系において、合成画像を所定の視野角度で分割(輪切り)し、分割されたいずれかの合成画像(分割合成画像)のうち、対象となる観察箇所(腫瘍)が含まれる分割合成画像を抽出する。又は、情報処理装置6の制御部62は、分割されたいずれかの合成画像(分割合成画像)のうち、同一の視野角度となる分割合成画像を抽出するものであってもよい。
 情報処理装置6の制御部62は、複数の分割した合成画像それぞれを繋げることにより、ステレオ視画像を生成する(S406)。連続する複数の撮像時点における合成画像に対し、このような分割及び抽出処理を行うことにより、対象となる観察箇所(腫瘍)が含まれる分割合成画像が特定される。情報処理装置6の制御部62は、これら特定された複数の分割合成画像を、先端部443の回転角度に基づき位置合わせし、更に撮像時点の順位に並べて繋ぎ合わせる(再構成)ことにより、ステレオ視画像を生成する。
 情報処理装置6の制御部62は、ステレオ視画像に基づき、関心領域を特定する(S407)。情報処理装置6の制御部62は、例えば自装置の記憶部63に記憶されている関心領域学習モデル632を用い、当該関心領域学習モデル632にステレオ視画像を入力することにより、当該ステレオ視画像に瘍、病変候補、処置具及びマーカー等の関心領域が含まれているかを判定し、関心領域に関する情報(関心領域の有無等を含む診断支援情報)を出力する。
 情報処理装置6の制御部62は、関心領域に関する情報と共にステレオ視画像を出力する(S408)。情報処理装置6の制御部62は、関心領域に関する情報(診断支援情報)と、ステレオ視画像とに基づき、例えば診断支援情報が重畳されたステレオ視画像を表示部7に出力する。表示部7は、出力されたデータに基づき、例えば診断支援情報が重畳されたステレオ視画像を自部に含まれる表示画面にて表示する。
 本実施形態によれば、複数の時点にて撮像された内視鏡画像に基づき、複数の合成画像を生成することができる。生成した複数の合成画像は、異なる時点にて撮像されたものであり、当該時点に応じて、内視鏡40の挿入距離及び回転角度は、異なるものとなる。これに対し、各視野方向によって分割した合成画像それぞれに対し、内視鏡40の回転角度に基づき位置合わせすることにより、合成画像の撮像時点における内視鏡40の回転角度の差異を吸収して、分割した合成画像(分割合成画像)それぞれを繋ぎ合わせることができる。更に、分割した合成画像(分割合成画像)それぞれを内視鏡40の挿入距離(S座標)に応じて繋ぎ合わせることにより、これら分割した合成画像それぞれを、撮像時点の順番に基づき内視鏡40の挿入方向に整合させて、繋ぎ合わせることができる。このような複数の合成画像に基づき、被検者の体内における同一の観察箇所に対し、異なる視野方向で撮像した複数の内視鏡40を並べたステレオ視画像を生成することにより、立体的な確認(高さ方向の確認)等を容易に行え、視認性に優れたステレオ視画像を効率的に生成することができる。
 本実施形態によれば、内視鏡画像を入力された場合、腫瘍、病変候補、処置具及びマーカー等の関心領域(ROI:Region Of Interest)の有無等を含む診断支援情報を出力する関心領域学習モデル632に、ステレオ視画像を入力することにより、当該ステレオ視画像に腫瘍等の関心領域が含まれているか否かを含む診断支援情報を取得することができる。本実施形態によれば、内視鏡展開図表示又はステレオ視画像表示を行い、X線CTの仮想内視鏡による展開図との比較表示、比較情報出力を行ことができる。
(実施形態5)
 実施形態5の内視鏡システムSは、基準画像に基づき導出した合成パラメータ(画像合成パラメータ)を用いて、合成画像を生成する点で実施形態1と異なる。図19は、実施形態5(画像合成パラメータ)に係る情報処理装置6の制御部62に含まれる機能部を例示する機能ブロック図である。内視鏡用プロセッサ20(内視鏡装置10)の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。情報処理装置6の制御部62は、実施形態1と同様に、記憶部63に記憶されているプログラムを実行することにより、取得部621、合成画像生成部622、出力部625として機能し、更に合成パラメータ導出部628及び幾何歪補正部629として機能する。
 取得部621は、実施形態1と同様に、内視鏡用プロセッサ20が出力した複数の内視鏡画像、S座標(挿入距離)、及び回転角度を取得する。取得部621は、更に内視鏡用プロセッサ20が出力した複数の基準画像を取得する。
 内視鏡40の操作部43は、体内に挿入される際、すなわち体内における観察箇所を撮像した内視鏡画像を出力するよりも前に、測定部9としても機能するマウスピース又はアタッチメントを通過する。これらマウスピース及びアタッチメントには、格子状等の規則性を有する所定のパターン模様から成る基準物が設けられており、先端部443(端面444、周面445)に設けられたそれぞれの撮像部446は、マウスピース等を通過する際、当該基準物を撮像する。当該基準物が撮像された撮像画像(基準画像)それぞれは、内視鏡40用プロセッサから、取得部621(情報処理装置6の制御部62)に出力され、取得部621は当該基準画像を取得する。取得部621は、取得した基準画像を合成パラメータ導出部628に出力する。
 合成パラメータ導出部628は、取得した基準画像に基づき、合成パラメータを導出する。情報処理装置6の記憶部63には、規則性を有する所定のパターン模様から成る基準物の形状、寸法値、及び色彩等の基準物情報が記憶されている。合成パラメータ導出部628は、取得した基準画像それぞれに含まれる基準物と、記憶部63に記憶されている基準物情報とを比較し、これら基準画像を合成した際の画像座標系(合成画像の座標系)において、当該合成画像に含まれる基準物が基準物情報と整合するように、合成パラメータを導出する。合成パラメータ導出部628は、導出した合成パラメータを合成画像生成部622に出力する。
 取得部621は、取得した複数の内視鏡画像を、幾何歪補正部629に出力する。幾何歪補正部629は、取得した複数の内視鏡画像それぞれに対し、幾何学補正を行うことにより、これら複数の内視鏡画像において重複する領域(重複領域)の抽出精度を向上させ、合成しやすい画像(繋ぎ合わせやすい座標系の画像)に補正する。幾何学補正は、例えば、取得した内視鏡画像を、連続した曲面に投影する曲面投影(投影変換)を用いた球面補正、又はアフィン変換、擬似アフィン変換、2次等角変換、及び2次元射影変換等の画像処理アルゴリズムに基づき行うものであってもよい。又は、幾何学補正は、撮像部446に含まれるレンズの仕様又は光学特性に基づき、多種多量な撮像物に対する光学シミュレーションを行い、その結果を人口知能により機械学習することにより撮像画像の位置に対応した辞書を生成し、当該辞書を用いて無収差に復元して補正するものであってもよい。幾何歪補正部629は、幾何歪補正を施した複数の内視鏡画像を、合成画像生成部622に出力する。
 合成画像生成部622は、幾何歪補正部629から取得した補正後の複数の内視鏡画像、及び合成パラメータ導出部628から取得した合成パラメータに基づき、合成画像を生成する。合成パラメータを用いることにより、合成画像の生成精度を向上させることができる。当該合成パラメータは、基準物を用いた実測値に基づき導出したパラメータであるため、内視鏡40の先端部443に設けられた撮像部446の使用環境に即した合成処理を行うことができる。
 図20は、内視鏡画像を連続した曲面に投影する曲面投影法を用いた幾何歪補正に関する説明図である。合成画像生成部622は、幾何学補正した複数の内視鏡画像において、重複領域(同じ観察物を撮像している領域)を重ね合わせることにより位置合わせして、合成画像を生成する。合成画像生成部622は、複数の内視鏡画像において重複領域を抽出するにあたり、内視鏡画像における所定の画素単位にて区分化された領域同士にて、パターンマッチングを行うことにより当該重複領域を抽出するものであってもよい。幾何学補正を行うことにより、特に内視鏡画像の周縁部に対する球面補正を効率的におこなうことができる。当該周縁部は、他の内視鏡画像との間にて重複する領域(重複領域)となり、合成する際に重ね合わせる領域になるため、幾何学補正により、重ね合わせしやすい内視鏡画像に補正(変換)することができる。
 挿入部44(端面444及び周面445)に設けられた複数の撮像部446によって撮像された複数の内視鏡画像を合成することにより、挿入部44の進行方向にて前方及び後方を視野に含め、先端部443に対し全周(360度)となる合成画像(360度FOV画像)を生成することができる。合成画像生成部622は、生成した合成画像に、当該合成画像の元となる複数の内視鏡画像を撮像した時点における内視鏡40の挿入距離及び回転角度を関連付ける。合成画像生成部622は、更に、生成した合成画像に、当該合成画像の元となる複数の内視鏡画像を撮像した時点(撮像時点)に関する時刻情報を関連付けるものであってもよい。合成画像生成部622は、生成した合成画像を実施形態1と同様に出力部625に出力する。出力部625は、取得した合成画像を、実施形態1と同様に表示部7に出力する。
 図21は、合成画像を曲面(楕円球表示、円筒表示)に再投影して行う表示に関する説明図である。出力部625は、合成画像を表示部7に出力する際、本実施形態における図示のように座標楕円球面、又は円筒形面の視野となるように投影変換した表示形態(楕円球表示、円筒表示)にて、表示部7に出力するものであってもよい。この場合、表示部7は、別個のディスプレイ装置又は、単一のディスプレイ装置における複数のウィンドウによる複数の表示画面を含み、楕円球表示又は円筒表示による表示形態にて出力された合成画像を、これら複数の表示画面にて分割して表示するものであってもよい。これら複数の表示画面において、中央に位置する表示画面には合成画像の中央部(前面画像)を表示し、左右に位置する表示画面には合成画像の左右側部を表示するものであってもよい。
 図22は、制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
 情報処理装置6の制御部62は、複数の撮像部446によって撮像された基準画像を取得する(S501)。内視鏡40の操作部43は、体内に挿入される際、上部内視鏡撮影の場合は口腔部に取り付けられたマウスピース、下部内視鏡撮影の場合は肛門部に取り付けられたアタッチメントを通過して、体内に挿入される。これらマウスピース及びアタッチメントには、規則性を有する所定のパターン模様から成る基準物が設けられており、撮像部446それぞれは、マウスピース等を通過する際、当該基準物を撮像する。情報処理装置6の制御部62は、基準物が撮像された撮像画像(基準画像)それぞれを、撮像部446それぞれから取得する。
 情報処理装置6の制御部62は、取得した基準画像に基づき、合成パラメータを導出する(S502)。情報処理装置6の記憶部63には、規則性を有する所定のパターン模様から成る基準物の形状、寸法値、及び色彩等の基準物情報が記憶されている。情報処理装置6の制御部62は、取得した基準画像それぞれに含まれる基準物と、記憶部63に記憶されている基準物情報とを比較し、これら基準画像を合成した際の画像座標系(合成画像の座標系)において、基準画像に含まれる基準物が基準物情報と整合するように、合成パラメータを導出する。
 情報処理装置6の制御部62は、複数の撮像部446によって撮像された内視鏡画像を取得する(S503)。情報処理装置6の制御部62は、内視鏡40の挿入距離及び回転角度を取得する(S504)。情報処理装置6の制御部62は、複数の内視鏡画像に対する幾何学補正を行う(S505)。情報処理装置6の制御部62は、実施形態1の処理S101からS103と同様に、S503からS505の処理を行う。
 情報処理装置6の制御部62は、補正した複数の内視鏡画像に基づき、合成パラメータを用いて合成画像を生成する(S506)。情報処理装置6の制御部62は、実施形態1の処理S104と同様に行うと共に、更に基準画像に基づき導出した合成パラメータを用いて合成画像を生成する。
 情報処理装置6の制御部62は、生成した合成画像を出力する(S507)。情報処理装置6の制御部62は、生成した合成画像を出力するにあたり、座標楕円球面、又は円筒形面の視野となるように投影変換した表示形態(楕円球表示、円筒表示)にて、表示部7に出力するものであってもよい。この場合、表示部7は、別個のディスプレイ装置又は、単一のディスプレイ装置における複数のウィンドウによる複数の複数の表示画面を含み、楕円球表示又は円筒表示による表示形態にて出力された合成画像を、これら複数の表示画面にて、分割して表示するものであってもよい。これら複数の表示画面において、中央に位置する表示画面には合成画像の中央部(前面画像)を表示し、左右に位置する表示画面には合成画像の左右側部を表示するものであってもよい。
 本実施形態によれば、合成画像を生成するにあたり、予め定められた基準物を複数の撮像部446によって撮像することにより、当該基準物を含む基準画像を取得する。これら複数の撮像部446によって撮像されたそれぞれの基準画像に基づき導出した画像合成パラメータを用いて、合成画像を生成するため、合成処理の精度を向上させることができる。基準画像は規則性を有する所定のパターン模様を含むため、当該パターン模様に基づき、効率的に画像合成パラメータを導出することができる。
 本実施形態によれば、合成画像を生成する処理に含まれる幾何歪補正は、取得した内視鏡画像を連続した曲面に投影する曲面投影法を用いるため、特に内視鏡画像の周縁部に対する球面補正を行い、複数の内視鏡画像を合成する際に、これら内視鏡画像にて重複する領域の重ね合わせ(重複領域の位置合わせ)を、効率的におこなうことができる。
 今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、請求の範囲内での全ての変更及び請求の範囲と均等の範囲が含まれることが意図される。
 S 内視鏡システム
 10 内視鏡装置
 15 キーボード
 16 収容棚
 20 内視鏡用プロセッサ
 21 制御部
 211 画像処理部
 22 主記憶装置
 23 補助記憶装置
 24 通信部
 25 タッチパネル
 26 表示装置I/F
 27 入力装置I/F
 28 読取部
 31 内視鏡用コネクタ
 311 電気コネクタ
 312 光コネクタ
 33 光源
 34 ポンプ
 35 送水タンク
 36 送気送水口金
 40 内視鏡
 43 操作部
 431 制御ボタン
 433 湾曲ノブ
 44 挿入部
 441 軟性部
 442 湾曲部
 443 先端部
 444 端面
 445 周面
 446 撮像部
 447 撮影用光源
 448 チャネル
 4481 無線通信部
 449 被検知体
 45 折止部
 48 スコープコネクタ
 49 ユニバーサルコード
 50 表示装置
 6 情報処理装置
 61 通信部
 62 制御部
 621 取得部
 622 合成画像生成部
 623 展開図生成部
 624 病変領域特定部
 625 出力部
 626 ステレオ視画像生成部
 627 関心領域特定部
 628 合成パラメータ導出部
 629 幾何歪補正部
 63 記憶部
 630 記録媒体
 631 病変学習モデル
 632 関心領域学習モデル
 64 入出力I/F
 7 表示部
 8 入力部
 9 測定部
 91 検知部
 

Claims (22)

  1.  コンピュータに、
     内視鏡の挿入部に設けられる筒状の先端部の端面及び周面に配置された複数の撮像部により被検者を撮像した内視鏡画像を取得し、
     撮像された複数の前記内視鏡画像に基づき、前記先端部に対し前方視野及び後方視野を含めた全周方向となるように合成した合成画像を生成し、
     前記内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記内視鏡の挿入距離及び回転角度を取得し、
     取得した前記内視鏡の挿入距離及び回転角度を関連付けて前記合成画像を出力する
     処理を実行させるプログラム。
  2.  前記内視鏡の前記挿入部の挿入方向に対する、前記先端部の周面に配置された撮像部の光軸の角度は、90度よりも大きい
     請求項1に記載のプログラム。
  3.  前記被検者に対する内視鏡画像の撮像が上部内視鏡撮影によって行われる場合、前記内視鏡の挿入距離は、前記被検者の口腔部に設けられた測定部から出力される挿入距離であり、
     前記被検者に対する内視鏡画像の撮像が下部内視鏡撮影によって行われる場合、前記内視鏡の挿入距離は、前記被検者の肛門部に設けられた測定部から出力される挿入距離である
     請求項1又は請求項2に記載のプログラム。
  4.  前記被検者に対する内視鏡画像の撮像が上部内視鏡撮影によって行われる場合、前記被検者の体内に挿入された前記内視鏡の回転角度は、前記被検者の体軸に対し平行となる上下方向を回転軸とした角度であり、
     前記被検者に対する内視鏡画像の撮像が下部内視鏡撮影によって行われる場合、前記被検者の体内に挿入された前記内視鏡の回転角度は、前記被検者の体腔の長手方向に対し平行となる前後方向を回転軸とした角度である
     請求項1から請求項3のいずれか1項に記載のプログラム。
  5.  複数の時点にて撮像された前記内視鏡画像に基づき、複数の前記合成画像を生成し、
     複数の前記合成画像に基づき、前記内視鏡の挿入距離を第1軸とし、前記内視鏡の回転角度を第2軸とした内視鏡展開図を生成し、
     生成した前記内視鏡展開図を出力する
     請求項1から請求項4のいずれか1項に記載のプログラム。
  6.  複数の前記合成画像から前記内視鏡展開図を生成する処理は、
     複数の前記合成画像において重複する重複領域を抽出し、
     前記重複領域を重ね合わせて前記内視鏡展開図を生成する処理を含む
     請求項5に記載のプログラム。
  7.  前記内視鏡展開図において腫瘍と判定される腫瘍領域を、前記内視鏡の挿入距離及び回転角度により特定し、
     特定した前記腫瘍領域を強調させて前記内視鏡展開図を出力する、又は対応する領域のX線CTによる仮想内視鏡画像の展開図と比較表示する
     請求項5又は請求項6に記載のプログラム。
  8.  複数の時点にて撮像された前記内視鏡画像に基づき、複数の前記合成画像を生成し、
     複数の前記合成画像に基づき、前記被検者の体内における同一の観察箇所に対し、異なる視野方向で撮像した複数の前記内視鏡画像を並べたステレオ視画像を生成し、
     生成した前記ステレオ視画像を出力する
     請求項1から請求項7のいずれか1項に記載のプログラム。
  9.  複数の前記内視鏡画像を合成して前記ステレオ視画像を生成する処理は、
     複数の前記合成画像それぞれを各視野方向によって分割し、
     分割した前記合成画像それぞれを、前記内視鏡の回転角度に基づき位置合わせして、前記内視鏡の挿入距離に応じて繋ぎ合わせる処理を含む
     請求項8に記載のプログラム。
  10.  前記ステレオ視画像に含まれる関心領域を抽出し、
     抽出した前記関心領域に基づき、診断支援情報を出力する
     請求項8又は請求項9に記載のプログラム。
  11.  内視鏡の挿入部に設けられる筒状の先端部の端面及び周面に配置された複数の撮像部により被検者を撮像した内視鏡画像を取得し、
     撮像された複数の前記内視鏡画像に基づき、前記先端部に対し前方視野及び後方視野を含めた全周方向となるように合成した合成画像を生成し、
     前記内視鏡画像を撮像した時点における、前記被検者の体内に挿入された前記内視鏡の挿入距離及び回転角度を取得し、
     取得した前記内視鏡の挿入距離及び回転角度を関連付けて前記合成画像を出力する
     処理をコンピュータに実行させる情報処理方法。
  12.  コンピュータに、
     内視鏡の挿入部に設けられる先端部に配置された複数の撮像部により被検者を撮像した内視鏡画像を取得し、
     撮像された複数の前記内視鏡画像に基づき、前記先端部に対し前方視野及び後方視野を含めた全周方向となるように合成した合成画像を生成し、
     生成した前記合成画像を出力し、
     前記合成画像を生成する処理は、
     複数の前記撮像部により、予め定められた基準物を撮像した基準画像を取得し、
     取得した前記基準画像に基づき画像合成パラメータを導出し、
     導出した前記画像合成パラメータを用いて前記合成画像を生成する処理を含む
     処理を実行させるプログラム。
  13.  前記基準画像は規則性を有する所定のパターン模様を含む
     請求項12に記載のプログラム。
  14.  前記合成画像を生成する処理は、
     取得した前記内視鏡画像を幾何歪補正し、
     前記幾何歪補正した複数の内視鏡画像を合成する処理を含む
     請求項12又は請求項13に記載のプログラム。
  15.  前記幾何歪補正は、取得した前記内視鏡画像を連続した曲面に投影する曲面投影法を用いて行われる
     請求項14に記載のプログラム。
  16.  内視鏡の挿入部に設けられる先端部に配置された複数の撮像部により被検者を撮像した内視鏡画像を取得し、
     撮像された複数の前記内視鏡画像に基づき、前記先端部に対し前方視野及び後方視野を含めた全周方向となるように合成した合成画像を生成し、
     生成した前記合成画像を出力し、
     前記合成画像を生成する処理は、
     複数の前記撮像部により、予め定められた基準物を撮像した基準画像を取得し、
     取得した前記基準画像に基づき画像合成パラメータを導出し、
     導出した前記画像合成パラメータを用いて前記合成画像を生成する処理を含む
     処理をコンピュータに実行させる情報処理方法。
  17.  内視鏡と、内視鏡によって撮像される内視鏡画像の処理を行う制御部とを含む内視鏡システムであって、
     内視鏡は、
     被検者の体内に挿入される挿入部と、
     前記挿入部の先端に位置する筒状の先端部に設けられている複数の撮像部とを備え、
     複数の前記撮像部は、前記先端部に対し全周方向となる前方視野及び後方視野を含む複数の内視鏡画像を撮像し、
     前記制御部は、
     複数の前記撮像部により前記被検者を撮像した内視鏡画像を取得し、
     複数の時点にて撮像された複数の前記内視鏡画像を合成し、前記先端部に対する後方視野を含めた合成画像を生成し、
     生成した前記合成画像を出力する
     内視鏡システム。
  18.  前記先端部の端面の中央部には、チャネルが設けられており、
     前記端面において、前記チャネルの周囲には、前記撮像部が設けられている
     請求項17に記載の内視鏡システム。
  19.  前記内視鏡は、無線通信部を含み、
     前記制御部は、前記無線通信部を介して、前記撮像部から出力される内視鏡画像を取得する
     請求項17又は請求項18に記載の内視鏡システム。
  20.  前記制御部により行われる前記合成画像を生成する処理は、取得した前記内視鏡画像を連続した曲面に投影する曲面投影法を用いて行われる幾何歪補正を含み、
     前記制御部により行われる前記合成画像を出力する処理は、前記幾何歪補正して合成した合成画像を、曲面又は平面に再投影して表示する表示部に出力する処理を含む
     請求項17から請求項19のいずれか1項に記載の内視鏡システム。
  21.  前記制御部により行われる前記合成画像を出力する処理は、前記先端部に対し全周方向となる前方視野及び後方視野を含めた合成画像を、複数の表示画面を含む前記表示部に出力する処理を含む
     請求項20に記載の内視鏡システム。
  22.  前記制御部により行われる前記合成画像を出力する処理は、複数の前記表示画面において中央に位置する表示画面に、合成画像の中央部を表示させる処理を含む
     請求項21に記載の内視鏡システム。
     
PCT/JP2021/032584 2020-10-02 2021-09-06 プログラム、情報処理方法及び内視鏡システム WO2022070782A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/019,911 US20230353879A1 (en) 2020-10-02 2021-09-06 Program, information processing method, and endoscope system
CN202180045725.0A CN115720506A (zh) 2020-10-02 2021-09-06 程序、信息处理方法及内窥镜系统
EP21875084.2A EP4177664A1 (en) 2020-10-02 2021-09-06 Program, information processing method, and endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020167752A JP7440392B2 (ja) 2020-10-02 2020-10-02 プログラム、情報処理方法及び内視鏡システム
JP2020-167752 2020-10-02

Publications (1)

Publication Number Publication Date
WO2022070782A1 true WO2022070782A1 (ja) 2022-04-07

Family

ID=80950165

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/032584 WO2022070782A1 (ja) 2020-10-02 2021-09-06 プログラム、情報処理方法及び内視鏡システム

Country Status (5)

Country Link
US (1) US20230353879A1 (ja)
EP (1) EP4177664A1 (ja)
JP (2) JP7440392B2 (ja)
CN (1) CN115720506A (ja)
WO (1) WO2022070782A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230342912A1 (en) * 2022-04-25 2023-10-26 Hong Kong Applied Science and Technology Research Institute Company Limited Multi-functional computer-aided gastroscopy system optimized with integrated ai solutions and method
WO2024095864A1 (ja) * 2022-10-31 2024-05-10 富士フイルム株式会社 処理装置、内視鏡装置、及び処理方法
CN116327103B (zh) * 2023-05-30 2023-07-21 北京大学第三医院(北京大学第三临床医学院) 一种基于深度学习的大视角喉镜

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0980319A (ja) * 1995-09-18 1997-03-28 Hitachi Ltd 内視鏡装置
JP2010279539A (ja) * 2009-06-04 2010-12-16 Fujifilm Corp 診断支援装置および方法並びにプログラム。
WO2016043063A1 (ja) * 2014-09-18 2016-03-24 ソニー株式会社 画像処理装置および画像処理方法
JP2018151540A (ja) * 2017-03-14 2018-09-27 公益財団法人鉄道総合技術研究所 筒状部材の検査装置
JP2018535739A (ja) * 2015-11-16 2018-12-06 アパマ・メディカル・インコーポレーテッド エネルギー送達デバイス
JP2019138755A (ja) * 2018-02-09 2019-08-22 オリンパス株式会社 管内走行装置
JP2020167752A (ja) 2019-03-28 2020-10-08 キヤノンプレシジョン株式会社 インナーロータ型モータ、およびその製造方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0980319A (ja) * 1995-09-18 1997-03-28 Hitachi Ltd 内視鏡装置
JP2010279539A (ja) * 2009-06-04 2010-12-16 Fujifilm Corp 診断支援装置および方法並びにプログラム。
WO2016043063A1 (ja) * 2014-09-18 2016-03-24 ソニー株式会社 画像処理装置および画像処理方法
JP2018535739A (ja) * 2015-11-16 2018-12-06 アパマ・メディカル・インコーポレーテッド エネルギー送達デバイス
JP2018151540A (ja) * 2017-03-14 2018-09-27 公益財団法人鉄道総合技術研究所 筒状部材の検査装置
JP2019138755A (ja) * 2018-02-09 2019-08-22 オリンパス株式会社 管内走行装置
JP2020167752A (ja) 2019-03-28 2020-10-08 キヤノンプレシジョン株式会社 インナーロータ型モータ、およびその製造方法

Also Published As

Publication number Publication date
JP2024028512A (ja) 2024-03-04
EP4177664A1 (en) 2023-05-10
CN115720506A (zh) 2023-02-28
JP2022059877A (ja) 2022-04-14
US20230353879A1 (en) 2023-11-02
JP7440392B2 (ja) 2024-02-28

Similar Documents

Publication Publication Date Title
WO2022070782A1 (ja) プログラム、情報処理方法及び内視鏡システム
US8939892B2 (en) Endoscopic image processing device, method and program
US8482606B2 (en) System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
JP4676021B2 (ja) 診断支援装置、診断支援プログラムおよび診断支援方法
US20110245660A1 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
CN103025227B (zh) 图像处理设备、方法
JP6510301B2 (ja) 医療支援システム、医療支援方法、画像処理装置およびその制御方法と制御プログラム
WO2015059932A1 (ja) 画像処理装置、方法、及びプログラム
JP2009006144A (ja) 画像の作成方法および装置
JP2014230612A (ja) 内視鏡観察支援装置
WO2021250951A1 (ja) プログラム、情報処理方法及び情報処理装置
CN113034700A (zh) 基于移动终端的前交叉韧带重建手术导航方法及系统
US20230316639A1 (en) Systems and methods for enhancing medical images
JP2011206297A (ja) 仮想内視鏡画像処理装置、方法、及びプログラム
JP5354494B2 (ja) 3次元画像生成装置、3次元画像生成方法、及びプログラム
JP2006061274A (ja) プログラム、及び内視鏡システム
US9345394B2 (en) Medical apparatus
US10631948B2 (en) Image alignment device, method, and program
CN111374784B (zh) 一种增强现实ar定位系统及方法
CN114830638A (zh) 用于具有空间记忆的远程图解的系统和方法
US11601732B2 (en) Display system for capsule endoscopic image and method for generating 3D panoramic view

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21875084

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021875084

Country of ref document: EP

Effective date: 20230206

NENP Non-entry into the national phase

Ref country code: DE