WO2021095446A1 - 情報表示システムおよび情報表示方法 - Google Patents

情報表示システムおよび情報表示方法 Download PDF

Info

Publication number
WO2021095446A1
WO2021095446A1 PCT/JP2020/039231 JP2020039231W WO2021095446A1 WO 2021095446 A1 WO2021095446 A1 WO 2021095446A1 JP 2020039231 W JP2020039231 W JP 2020039231W WO 2021095446 A1 WO2021095446 A1 WO 2021095446A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
image
information
displayed
control unit
Prior art date
Application number
PCT/JP2020/039231
Other languages
English (en)
French (fr)
Inventor
渡邉 幹緒
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021555959A priority Critical patent/JP7257544B2/ja
Publication of WO2021095446A1 publication Critical patent/WO2021095446A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons

Definitions

  • the present invention relates to an information display system and an information display method for aggregating and displaying medical images and diagnostic information of a subject according to various modality.
  • medical images of a subject are imaged using various modalities such as an endoscopic diagnostic device and an ultrasonic diagnostic device, and a doctor makes a diagnosis based on the medical images captured by the various modalities. It has been.
  • an observation target in the body cavity of a subject is irradiated with illumination light from the endoscope, and the observation target irradiated with the illumination light is imaged by an imaging element of the endoscope to be observed.
  • An endoscopic image is generated and displayed on the monitor.
  • the doctor observes the endoscopic image displayed on the monitor picks up the area of interest that may be an abnormal part, distinguishes whether or not this area of interest is an abnormal part, and distinguishes it from the abnormal part. Treat the differentiated area and create a diagnostic report.
  • Patent documents 1 to 4 are prior art documents related to the present invention.
  • Patent Document 1 in an endoscopic surgical operation apparatus, a monitor screen, a main screen for displaying an observation image of an endoscope, and an image showing the hardness of a living tissue input from a hardness detection unit are provided. It is described that the first sub-screen to be displayed and the second sub-screen to display an image showing the impedance of the living tissue input from the impedance detection unit are divided into three parts.
  • Patent Document 2 describes photographed image data taken from a camera attached to the tip of a flexible endoscope in an endoscopic surgery support system, and a fault around a site to be treated by a subject obtained by the flexible endoscope. It is described that the image data is superimposed and displayed on the display.
  • Patent Document 3 describes that an ultrasonic image as a real-time image and an endoscopic image are divided and displayed in an ultrasonic / endoscopic composite system.
  • Patent Document 4 in a system having a medical image recording device, an electronic endoscope device, and the like, endoscopic observation image data, a report of inspection results, and the like are stored and connected in the medical image recording device 1. It is stated to share the data possessed by other medical devices.
  • the endoscopic image can be displayed on the monitor of the endoscopic diagnostic device, but the medical image and diagnostic information of the subject by other modalities can be displayed on the monitor of the endoscopic diagnostic device.
  • the medical image and diagnostic information of the subject by other modalities can be displayed on the monitor of the endoscopic diagnostic device.
  • a doctor when observing an endoscopic image, a doctor observes the endoscopic image using the monitor of the endoscopic diagnostic device, and when observing the ultrasonic image, uses the monitor of the ultrasonic diagnostic device. I am observing an ultrasound image.
  • the diagnostic report is browsed by using the monitor of the external system in the external system that stores and manages the diagnostic information of the subject. Is being created.
  • doctors could not aggregate and observe medical images and diagnostic information of subjects with various modality, for example, on the monitor of an endoscopic diagnostic device.
  • the doctor confirms the diagnostic information of the subject in advance on the monitor, and depending on the progress of the examination of the subject, the endoscopic diagnostic apparatus. It was not possible to change the content displayed on the monitor during the inspection by.
  • a first object of the present invention is to aggregate and display medical images and diagnostic information of a subject by various modality in one place, and to change the displayed contents according to the progress of the examination of the subject.
  • the purpose is to provide an information display system and an information display method that can be used.
  • the second object of the present invention is, in addition to the above-mentioned first object, it is possible to display important information so that the user can easily recognize it even when a large amount of information is aggregated and displayed.
  • the purpose is to provide an information display system and an information display method.
  • the present invention includes a medical image acquisition unit that acquires a medical image of a subject from one or more modality, and a medical image acquisition unit.
  • a monitor A display control unit for displaying a medical image of a subject in at least one of two or more divided regions in which a display screen of a monitor is divided is provided.
  • the display control unit provides an information display system that changes the content of the medical image of the subject to be displayed on the monitor according to the progress of the examination of the subject.
  • the display control unit displays the diagnostic information of the subject on the monitor, or displays at least one of the medical image of the subject and the diagnostic information of the subject in at least one of two or more divided regions, and the subject is displayed. It is preferable to change the contents of the medical image of the subject and the diagnostic information of the subject to be displayed on the monitor according to the progress of the examination.
  • the medical image of the subject includes the current endoscopic image of the subject.
  • the examination of the subject preferably includes a preparation stage, an endoscope insertion stage, a focus area pick-up stage, a focus area discrimination / treatment stage, and a diagnostic report preparation stage.
  • the display control unit displays at least one of the patient information of the subject and the past diagnostic report of the subject on the monitor in the preparation stage.
  • the display control unit displays the current endoscopic image of the subject in one of the two or more divided regions at the stage of inserting the endoscope, and the past endoscopic image of the subject. , At least one of the biological information of the subject, the insertion shape of the endoscope in the body cavity of the subject, and the support information for moving the endoscope in the body cavity of the subject among two or more divided regions. It is preferable to display it in at least one of the other divided regions.
  • the display control unit displays the biological information of the subject including the heart rate value and the blood pressure value in one of the other divided regions, and at least one of the heart rate value and the blood pressure value sets the upper limit value during the examination of the subject.
  • an arrow pointing to the biological information of the subject is indicated by a division region other than one of the other division regions in which the biological information of the subject is displayed. It is preferable to display on.
  • a region of interest estimation unit that estimates the presence or absence of the region of interest and the position of the region of interest from the current endoscopic image of the subject.
  • the display control unit displays the current endoscopic image of the subject in one of the two or more divided regions at the stage of picking up the region of interest, and among the current endoscopic images of the subject.
  • the blue narrow-band light image in which the vascular structure of the mucosal surface layer in the current endoscopic image of the subject, which is imaged by irradiating the subject with white light and blue narrow-band light is used as a region of interest. It is equipped with an abnormal part discrimination part that distinguishes whether or not the estimated part is presumed to be an abnormal part, the position of the part presumed to be an abnormal part, and the probability of being presumed to be an abnormal part.
  • the display control unit displays the current endoscopic image of the subject in one of two or more divided regions at the stage of discrimination / treatment of the region of interest, and is presumed to be an abnormal region.
  • At least the image showing the position of the part, the probability that the part identified as the abnormal part is estimated as the abnormal part, and the length measurement result showing the length of the part identified as the abnormal part It is preferable to display one in at least one of the other divided regions of the two or more divided regions.
  • the display control unit switches from the current endoscopic image of the subject to the image showing the oxygen saturation in the current endoscopic image of the subject in response to an instruction from the user, and divides the area into one. It is preferable to display it.
  • the display control unit displays an image showing the position of the part that has been identified as an abnormal part when it is identified as an abnormal part or in response to an instruction from the user. It is preferable to overlay the current endoscopic image for display.
  • the display control unit stops overlaying the image showing the position of the part identified as the abnormal part after a certain period of time or in response to the instruction from the user to present the subject. It is preferable to display the endoscopic image of.
  • the display control unit displays an image showing the position of the portion identified as an abnormal portion by surrounding it with a frame line.
  • the display control unit blinks the frame line at regular time intervals.
  • the display control unit indicates the position of the part identified as the abnormal part in the two or more divided regions with the arrow pointing to the image indicating the position of the part identified as the abnormal part. It is preferable to display the image to be displayed in a divided area other than one of the other divided areas in which the image to be represented is displayed.
  • the display control unit blinks the arrow at regular time intervals.
  • the display control unit receives an instruction from the user to start an examination, or an endoscope that outputs an image signal obtained by imaging the subject using illumination light processes the image signal and presents the subject.
  • an endoscope that outputs an image signal obtained by imaging the subject using illumination light processes the image signal and presents the subject.
  • the content displayed in the preparation stage is automatically changed to the content displayed in the insertion stage of the endoscope. It is preferable to switch to.
  • test information feedback unit that feeds back the diagnosis result of the subject, the test time, and test information including the equipment used to the external system.
  • the display control unit divides the display screen of the monitor into a first division area and one or more second division areas having a smaller area than the first division area, and acquires from one of the one or more modality.
  • the medical image of the subject is displayed in the first divided area, and at least one of the medical image of the subject acquired from one or more modality and the diagnostic information of the subject acquired from an external system is displayed as one or more. It is preferable to display it in at least one of the second division regions of the above.
  • the display control unit divides the display screen of the monitor into the first divided area and the two second divided areas, displays the medical image of the subject acquired from one modality in the first divided area, and 1 It is preferable to display at least one of the medical image of the subject acquired from the above modality and the diagnostic information of the subject acquired from the external system in at least one of the two second division regions.
  • the aspect ratio of the display screen of the monitor is 16: 9, and the aspect ratio of the first divided area and the two second divided areas is 5: 4. It is preferable that the first divided area is arranged from the left part to the center part of the display screen of the monitor, and the two second divided areas are arranged in the upper right part and the lower right part of the display screen of the monitor, respectively.
  • the present invention includes a step in which the medical image acquisition unit acquires a medical image of a subject from one or more modality.
  • the display control unit includes a step of displaying the medical image of the subject in at least one of two or more divided regions in which the display screen of the monitor is divided.
  • an information display method that changes the content of a medical image of a subject to be displayed on a monitor according to the progress of an examination of the subject.
  • the diagnostic information acquisition unit includes a step of acquiring diagnostic information of the subject from an external system.
  • the diagnostic information of the subject is displayed on the monitor, or at least one of the medical image of the subject and the diagnostic information of the subject is displayed in at least one of two or more divided regions, and the progress of the examination of the subject is displayed. It is preferable to change the contents of the medical image of the subject and the diagnostic information of the subject to be displayed on the monitor accordingly.
  • the medical image acquisition unit, the diagnostic information acquisition unit, the attention area estimation unit, the abnormality part discrimination unit, the display control unit, and the examination information feedback unit are preferably hardware or a processor that executes a program.
  • the present invention on a monitor having one modality, medical images and diagnostic information of subjects by various modality can be aggregated and observed. Further, according to the present invention, before observing the medical image of the subject, the diagnostic information of the subject can be confirmed in advance on the monitor, or at the time of the inspection by the modality according to the progress of the inspection of the subject. , You can change the content displayed on the monitor. Further, according to the present invention, even when a large amount of information is aggregated and displayed, it is possible to display important information so that the user can easily recognize it.
  • Embodiment shows the structure of the endoscopic diagnostic apparatus to which the information display system of this invention is applied. It is a block diagram of one Embodiment which shows the internal structure of the endoscope, the light source device and the processor device which the endoscope diagnostic apparatus has. 6 is a graph of an embodiment showing emission spectra of purple light V, blue light B, green light G, and red light R emitted from four-color LEDs. It is a conceptual diagram of one Embodiment which shows the display screen of a monitor. It is a conceptual diagram of one Embodiment which shows the procedure of examination of a subject by an endoscopic diagnostic apparatus.
  • Embodiment shows the display screen of a monitor in a preparatory stage. It is a conceptual diagram of one Embodiment which shows the display screen of a monitor in the insertion stage of an endoscope. It is a conceptual diagram of one Embodiment which shows the display screen of a monitor at the stage of picking up a region of interest. It is a conceptual diagram of one Embodiment which shows the display screen of the monitor at the stage of identification / treatment of a region of interest. It is a conceptual diagram of another embodiment which shows the display screen of the monitor in the stage of identification / treatment of a region of interest. It is a conceptual diagram of one Embodiment which shows the display screen of a monitor at the stage of creating a diagnostic report.
  • FIG. 5 is a conceptual diagram of another embodiment showing a display screen of a monitor for calling attention to a doctor.
  • FIG. 5 is a conceptual diagram of another embodiment showing a display screen of a monitor for calling attention to a doctor.
  • FIG. 1 is a conceptual diagram of an embodiment showing the configuration of an endoscopic diagnostic apparatus to which the information display system of the present invention is applied.
  • the endoscope diagnostic device 10 shown in FIG. 1 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a console 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 outputs an image signal obtained by imaging a subject using illumination light, and is provided at an insertion portion 12a inserted into the body cavity of the subject and a proximal end portion of the insertion portion 12a. It has an operation portion 12b, a curved portion 12c and a tip portion 12d provided on the tip end side of the insertion portion 12a.
  • the angle knob 12e of the operation unit 12b By operating the angle knob 12e of the operation unit 12b, the bending unit 12c bends. Along with this bending motion, the tip portion 12d is directed in a desired direction.
  • the operation unit 12b is provided with a mode switching SW (switch) 13a in addition to the angle knob 12e.
  • the mode switching SW13a is used for a switching operation between four types of modes: a normal observation mode, a first special observation mode, a second special observation mode, and a third special observation mode.
  • the normal observation mode is a mode for observing a normal image captured by irradiating the subject with white light as the current endoscopic image of the subject.
  • the first special observation mode as the current endoscopic image of the subject, the surface layer of the mucous membrane in the current endoscopic image of the subject is imaged by irradiating the subject with white light and blue narrow band light.
  • This mode is for observing a first special image (blue narrow band light image) in which the vascular structure is emphasized.
  • the blue narrow-band light is not limited to the narrow-band light in the blue wavelength range, and may be narrow-band light in the blue to purple wavelength range.
  • the second special observation mode is a normal part and an abnormal part in the current endoscopic image of the subject, which is generated as the current endoscopic image of the subject, for example, by performing color enhancement processing on the first special image.
  • This is a mode for observing a second special image (color-enhanced image) in which the color difference between the image and the image is emphasized.
  • the third special observation mode is a mode for observing a third special image (oxygen saturation image) showing the oxygen saturation of blood hemoglobin in a normal image as the current endoscopic image of the subject.
  • one or more special observation modes other than the first to third special observation modes may be further included.
  • FIG. 2 is a block diagram of an embodiment showing the internal configurations of the endoscope, the light source device, and the processor device included in the endoscope diagnostic device.
  • the light source device 14 outputs illumination light, and as shown in FIG. 2, V-LED (Violet Light Emitting Diode) 20a, B-LED (Blue Light Emitting Diode) 20b, and G-LED (Green Light Emitting). It is configured by using a four-color LED (light source) including Diode) 20c and R-LED (Red Light Emitting Diode) 20d, a light source control unit 21 that controls the drive of these four-color LEDs 20a to 20d, a dichroic mirror, and the like. It also has an optical path coupling portion 23 that combines the optical paths of the four colors of light emitted from the four color LEDs 20a to 20d.
  • FIG. 3 is a graph of an embodiment showing emission spectra of purple light V, blue light B, green light G, and red light R emitted from four-color LEDs.
  • the V-LED 20a generates purple light V having a center wavelength of 405 ⁇ 10 nm and a wavelength range of 380 to 420 nm.
  • the B-LED 20b generates blue light B having a center wavelength of 460 ⁇ 10 nm and a wavelength range of 420 to 500 nm.
  • the G-LED 20c generates green light G having a wavelength range of 480 to 600 nm.
  • the R-LED 20d generates red light R having a center wavelength of 620 to 630 nm and a wavelength range of 600 to 650 nm.
  • the light source control unit 21 lights all of, for example, V-LED20a, B-LED20b, G-LED20c, and R-LED20d. At that time, it is set so that the amount of emitted purple light V, which has a high absorption rate in the surface blood vessels, is relatively high, and the amount of emitted green light G, which has a high absorption rate in the middle layer blood vessels, is relatively low. , Purple light V, blue light B, green light G, and red light R are irradiated so that the light amount ratio of the four colors is a predetermined ratio.
  • the light source control unit 21 lights, for example, the B-LED20b, the G-LED20c, and the R-LED20d.
  • the light guide (LG) 41 is built in the endoscope 12 and the universal cord (the cord connecting the endoscope 12, the light source device 14, and the processor device 16).
  • the light guide 41 a multimode fiber can be used.
  • An illumination optical system 30a and an imaging optical system 30b are provided at the tip end portion 12d of the endoscope 12.
  • the illumination optical system 30a has an illumination lens 45, and the light coupled by the optical path coupling portion 23 is propagated to the tip portion 12d of the endoscope 12 via the light guide 41 and the illumination lens 45 to observe the inside of the subject.
  • the subject is irradiated.
  • the image pickup optical system 30b has an objective lens 46 and an image pickup sensor 48. The reflected light from the observation target enters the image sensor 48 via the objective lens 46, and the reflected image of the observation target is imaged on the image sensor 48.
  • the image pickup sensor 48 is a color image pickup sensor, which captures a reflected image of a subject and outputs an image signal.
  • a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like can be used as the image sensor 48.
  • the image sensor 48 is provided with a color image sensor for obtaining RGB image signals of three colors of R (red), G (green), and B (blue), that is, R pixels provided with an R filter and a G filter. It is an RGB imaging sensor having a G pixel and a B pixel provided with a B filter.
  • a CDS (Correlated Double Sampling) / AGC (Auto Gain Control) circuit 50 and an A / D (Analog / Digital) converter 52 are provided inside the endoscope 12.
  • the image signal output from the image sensor 48 is input to the CDS / AGC circuit 50.
  • the CDS / AGC circuit 50 performs correlated double sampling (CDS), automatic gain control (AGC), and the like on an image signal which is an analog signal.
  • the image signal that has passed through the CDS / AGC circuit 50 is converted from an analog image signal to a digital image signal by the A / D converter 52.
  • the A / D converted digital image signal is input to the processor device 16.
  • the processor device 16 is electrically connected to various modality 80s, an external system 82, and the like, as shown in FIG. 2, in addition to the monitor 18 and the console 19.
  • the processor device 16 processes an image signal to generate a current endoscopic image of the subject, and outputs medical images by various modalities 80 including the current endoscopic image of the subject.
  • a receiving unit 53 a DSP (Digital Signal Processor) 56, a noise removing unit 58, an image processing switching unit 60, a normal image processing unit 62, a special image processing unit 64, a video signal generation unit 66, and a medical image. It has an acquisition unit 68, a diagnostic information acquisition unit 70, a region of interest estimation unit 72, an abnormality unit discrimination unit 74, a display control unit 76, and an inspection information feedback unit 78.
  • DSP Digital Signal Processor
  • the medical image acquisition unit 68, the diagnostic information acquisition unit 70, the attention area estimation unit 72, the abnormality unit identification unit 74, the display control unit 76, the inspection information feedback unit 78, and the monitor 18 are embodiments of the information display system of the present invention.
  • the information display system acquires medical images of each subject (patient) from various modalities 80, and further acquires diagnostic information (medical information) of each subject from various external systems 82, and each of them acquires medical images. Display at least one of medical images and diagnostic information for the subject.
  • the receiving unit 53 receives an RGB image signal which is a digital signal from the endoscope 12.
  • the DSP 56 performs various signal processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, and demosaic processing on the received image signal.
  • defect correction process the signal of the defective pixel of the image sensor 48 is corrected.
  • offset processing the dark current component is removed from the RGB image signal subjected to the defect correction processing, and an accurate zero level is set.
  • gain correction process the signal level is adjusted by multiplying the RGB image signal after the offset process by a specific gain.
  • the RGB image signal after the gain correction processing is subjected to linear matrix processing for improving color reproducibility. After that, the brightness and saturation are adjusted by the gamma conversion process.
  • the RGB image signal after the linear matrix processing is subjected to demosaic processing (also referred to as isotropic processing or simultaneous processing), and a signal of a color lacking in each pixel is generated by interpolation.
  • demosaic processing also referred to as isotropic processing or simultaneous processing
  • all the pixels have RGB signals of each color.
  • the noise removing unit 58 removes noise from the RGB image signal by performing noise removing processing such as a moving average method and a median filter method on the RGB image signal that has been gamma-corrected by the DSP 56.
  • the RGB image signal from which noise has been removed is input to the image processing switching unit 60.
  • the RGB image signal is input to the normal image processing unit 62, and the first special observation mode, the second special observation mode, or the normal observation mode, or When the third special observation mode is set, the RGB image signal is switched to be input to the special image processing unit 64.
  • the normal image processing unit 62 performs color conversion processing, color enhancement processing, structure enhancement processing, and the like on the RGB image signal.
  • the digital RGB image signal is converted into an RGB image signal that has undergone color conversion processing by performing 3 ⁇ 3 matrix processing, gradation conversion processing, three-dimensional LUT processing, and the like.
  • various color enhancement processes are performed on the RGB image signal that has undergone the color conversion process.
  • Structural enhancement processing such as spatial frequency enhancement is performed on the RGB image signal that has undergone color enhancement processing.
  • the RGB image signal subjected to the structure enhancement processing is input from the normal image processing unit 62 to the video signal generation unit 66 as an RGB image signal of a normal image.
  • the special image processing unit 64 operates when the first special observation mode, the second special observation mode, or the third special observation mode is set.
  • the special image processing unit 64 is for the first special image processing unit 64a that performs image processing for the first special image on the RGB image signal to generate the first special image, and for the second special image. It has a second special image processing unit 64b that performs image processing to generate a second special image, and a third special image processing unit 64c that performs image processing for the third special image to generate a third special image. ..
  • the first special image processing unit 64a colors the RGB image signal of the first special image captured by irradiating the subject with white light and blue narrow band light, for example, in the same manner as the normal image processing unit 62.
  • a conversion process, a color enhancement process, a structure enhancement process, and the like are performed to generate a blue narrow band optical image (first special image) in which the vascular structure of the mucosal surface layer of the subject is emphasized.
  • the second special image processing unit 64b calculates, for example, the signal ratio B / G ratio between the G image signal and the B image signal of the RGB image signal of the first special image, and the signal ratio G between the R image signal and the G image signal. Calculate the / R ratio so that the saturation and hue of the first range where the normal mucous membrane is distributed are the same with respect to the signal ratio B / G and the signal ratio G / R, and the first range and the abnormal part So that at least one of the difference in saturation from the second range in which is distributed and the difference in hue between the first range and the third range in which deep blood vessels existing under the abnormal part are distributed becomes large, for example.
  • the third special image processing unit 64c images by alternately irradiating the first blue light B1, the green light G1 and the red light R1 and the second blue light B2, the green light G2 and the red light R2.
  • From the RGB image signals of the two types of endoscopic images for example, the signal ratio B1 / G2 of the B1 image signal and the G2 image signal, the signal ratio R2 / G2 of the R2 image signal and the G2 image signal, and the G2 image signal and B2.
  • the signal ratio G2 / B2 of the image signal is calculated, and the LUT (Look Up Table) that stores the correlation between these signal ratios and oxygen saturation is referred to, and the blood of the subject is used from the signal ratio.
  • the oxygen saturation of hemoglobin is calculated, and an oxygen saturation image (third special image) that images the oxygen saturation is generated.
  • the RGB image signals of the first special image, the second special image, and the third special image generated by the special image processing unit 64 are input to the video signal generation unit 66.
  • the video signal generation unit 66 converts the RGB image signal input from the normal image processing unit 62 or the special image processing unit 64 into a video signal for displaying as an image that can be displayed on the monitor 18.
  • the video signal is input to the medical image acquisition unit 68 as an endoscopic image (medical image).
  • the medical image acquisition unit 68 acquires a medical image (still image or moving image) of the subject including the current endoscopic image of the subject from one or more modality 80 including the endoscopic diagnostic apparatus 10.
  • the medical image acquisition unit 68 may acquire the medical image of the subject from only one modality, or may acquire the medical image of the subject from two or more modality.
  • the medical image of the subject output from the medical image acquisition unit 68 is input to the attention area estimation unit 72, the abnormal part discrimination unit 74, the display control unit 76, and the examination information feedback unit 78.
  • the modality 80 is various medical devices that capture medical images of a subject, for example, an endoscopic diagnostic device, an ultrasonic diagnostic device, an ultrasonic endoscopic diagnostic device, an X-ray imaging device, and a computed tomography apparatus (CT). ) And magnetic resonance imaging (MRI) and the like. Further, the modality 80 includes a device for acquiring biological information of the subject, a device for acquiring the insertion shape of the endoscope 12 in the body cavity of the subject, and moving the endoscope 12 in the body cavity of the subject. A device or the like for acquiring support information for the purpose may be included.
  • the device for acquiring the biological information of the subject is, for example, a heart rate monitor for acquiring the heart rate value of the subject, a sphygmomanometer for acquiring the blood pressure value of the subject, and the like.
  • the device for acquiring the insertion shape of the endoscope 12 is, for example, an endoscope insertion shape observation device for acquiring the three-dimensional insertion shape of the endoscope 12 in the body cavity of the subject in real time by using magnetism or the like.
  • the device for acquiring the support information is, for example, a learning endoscope image, the name of the organ displayed in the learning endoscope image, the range of the organ (also referred to as an area or a boundary), and the tip of the endoscope 12.
  • the diagnostic endoscopic image of the subject is displayed on the diagnostic endoscopic image. It is a device that estimates the name of an organ, the range of the organ, the position and orientation of the tip portion 12d of the endoscope 12, and acquires such information as the above-mentioned support information.
  • the modality 80 includes, for example, a medical image management system (PACS: Picture Archiving and Communication Systems) that stores and manages medical images of subjects imaged by various modality 80s, and an insertion unit 12a of the endoscope 12.
  • a medical image management system (PACS: Picture Archiving and Communication Systems) that stores and manages medical images of subjects imaged by various modality 80s, and an insertion unit 12a of the endoscope 12.
  • Modality other than the above may be included, such as a device for acquiring the state of expansion and contraction of a double balloon used by being attached to the system.
  • the learning method is not particularly limited as long as it can learn the above relationship from a plurality of learning endoscopic images and generate a trained model.
  • a learning method for example, deep learning (deep learning) using a hierarchical neural network as an example of machine learning (machine learning), which is one of the technologies of artificial intelligence (AI), is used. be able to.
  • machine learning other than deep learning may be used, artificial intelligence technology other than machine learning may be used, or learning methods other than artificial intelligence technology may be used. The same applies to the training methods of other trained models described below.
  • the diagnostic information acquisition unit 70 acquires diagnostic information of the subject from the external system 82.
  • the diagnostic information of the subject output from the diagnostic information acquisition unit 70 is input to the display control unit 76.
  • the external system 82 provides diagnostic information of a subject to an information display system and is used by a doctor to create a diagnostic report.
  • IT Information
  • Technology Information technology
  • the diagnostic information of the subject includes the patient information of the subject (information such as name, address, contact information, etc.), the diagnostic report (information such as medical condition, contraindication information, doctor's findings, progress information, etc.).
  • the attention area estimation unit 72 estimates the presence / absence of the attention area, the position of the attention area, and the like from the current medical image of the subject, for example, a normal image (endoscopic image).
  • the estimation result of the region of interest estimation unit 72 is input to the abnormality portion discrimination unit 74 and the display control unit 76.
  • the area of interest is the part of the subject that may not be the normal part, that is, the part of the subject that may be the abnormal part.
  • the attention area estimation unit 72 describes, for example, the relationship between the learning endoscope image and the presence / absence of the attention area and the position of the attention area displayed in the learning endoscope image in a plurality of learning endoscope images. From the diagnostic endoscopic image of the subject, the presence or absence of the region of interest and the position of the region of interest displayed in this diagnostic endoscopic image can be estimated based on the trained model learned about.
  • the method by which the attention region estimation unit 72 estimates the presence / absence of the attention region, the position of the attention region, and the like from the current medical image of the subject is not particularly limited.
  • the abnormal part discrimination unit 74 determines whether or not the part presumed to be the region of interest is presumed to be the abnormal part from the current medical image of the subject, for example, the first special image, the position of the part presumed to be the abnormal part, and Distinguish the probability of being an abnormal part.
  • the discrimination result of the abnormal part discrimination unit 74 is input to the display control unit 76.
  • the abnormal part discrimination unit 74 determines, for example, whether or not the learning endoscopic image and the portion presumed to be the region of interest displayed in the learning endoscopic image are presumed to be an abnormal part, or presumed to be an abnormal part. For this diagnosis from the diagnostic endoscopic image of the subject based on the learned model in which the relationship between the position of the site and the estimated probability of the abnormal part was learned for multiple learning endoscopic images. It is possible to distinguish whether or not the part estimated to be the region of interest displayed in the endoscopic image is an abnormal part, the position of the part estimated to be an abnormal part, and the probability of being estimated to be an abnormal part. ..
  • the abnormal part discrimination unit 74 determines whether or not the part presumed to be the region of interest is presumed to be the abnormal part from the medical image such as the endoscopic image, and the position and the abnormal part of the part presumed to be the abnormal part.
  • the method of discriminating the estimated probability and the like is not particularly limited.
  • the display control unit 76 controls the monitor 18 to display the medical image of the subject, the diagnostic information of the subject, the estimation information of the region of interest, the identification information of the abnormal portion, and the like.
  • the medical image of the subject, the diagnostic information of the subject, the estimation information of the region of interest, the identification information of the abnormal portion, and the like output from the display control unit 76 are input to the monitor 18.
  • the display control unit 76 displays the medical image of the subject on the monitor 18 without dividing the display screen of the monitor 18, or divides the medical image of the subject into two or more divided display screens of the monitor 18. It can be displayed in at least one of the areas. In this case, the display control unit 76 can sequentially change the content of the medical image of the subject to be displayed on the display screen of the monitor 18 or the divided area according to the progress of the examination of the subject.
  • the number, area, aspect ratio, arrangement, etc. of the divided regions are not particularly limited.
  • the display control unit 76 displays the medical image or diagnostic information of the subject on the monitor 18 without dividing the display screen of the monitor 18, for example, or displays at least one of the medical image and the diagnostic information of the subject on the monitor 18. It can be displayed in at least one of two or more divided areas. In this case, the display control unit 76 can sequentially change the contents of the medical image and the diagnostic information of the subject to be displayed on the display screen of the monitor 18 or the divided area according to the progress of the examination of the subject.
  • the test information feedback unit 78 feeds back the test information including the diagnosis result of the subject by the doctor, the test time, the equipment used, etc. to the external system 82 at the stage of creating the diagnosis report.
  • the test information is not particularly limited as long as it is information related to the test of the subject, and may include various information other than the above, for example, a medical image of the subject.
  • the diagnostic report is a medical examination record of a subject created by a doctor (user) based on examination information and medical images by various modalities 80, and is a medical condition, contraindication information, doctor's findings on the medical condition, and a subject. The treatment for the patient, the progress information of the subject, etc. are recorded.
  • the monitor 18 is, for example, a display device such as a liquid crystal display, and under the control of the display control unit 76, displays medical images of the subject, diagnostic information of the subject, estimation information of the region of interest, identification information of the abnormal portion, and the like.
  • the console 19 is an input device for inputting instructions from a doctor, such as a keyboard and a mouse, and functions as a UI (User Interface) that accepts input operations such as function settings.
  • a doctor such as a keyboard and a mouse
  • UI User Interface
  • the mode switching SW13a sets the normal observation mode, and the insertion portion 12a of the endoscope 12 is inserted into the sample.
  • the V-LED20a, B-LED20b, G-LED20c, and R-LED20d are all lit by the light source control unit 21.
  • the four colors of light emitted from the LEDs 20a to 20d are combined by the optical path coupling portion 23, and the four colors of purple light V, blue light B, green light G, and red light R are mixed to be almost white. It becomes light and is irradiated to the observation target in the subject through the light guide 41 and the illumination lens 45.
  • the reflected light from the observation target is incident on the image sensor 48 via the objective lens 46, and the reflected image of the observation target is imaged on the image sensor 48.
  • the image signal output from the image sensor 48 is converted into a digital image signal by the A / D converter 52 via the CDS / AGC circuit 50.
  • the A / D converted digital image signal is input to the processor device 16 and received by the receiving unit 53.
  • the digital image signal received by the receiving unit 53 is subjected to various signal processing by the DSP 56 to be an RGB image signal of a normal image, and is subjected to noise removal processing by the noise removing unit 58 to be an RGB image signal of the normal image. Noise is removed from.
  • the RGB image signal of the normal image from which noise has been removed is input to the normal image processing unit 62 by the image processing switching unit 60, and image processing for the normal image is performed by the normal image processing unit 62.
  • the RGB image signal of the normal image that has undergone image processing is converted into a video signal for display as a normal image by the video signal generation unit 66.
  • the light source control unit 21 lights all of, for example, the V-LED20a, B-LED20b, G-LED20c, and R-LED20d. At that time, the amount of light emitted from purple light V, which has a high absorption rate in the surface blood vessels, is set to be relatively high, and the amount of light emitted from green light G, which has a high absorption rate into middle layer blood vessels, is set to be relatively low. , Purple light V, blue light B, green light G, and red light R are irradiated so that the light amount ratio of the four colors is a predetermined ratio.
  • the noise removal unit 58 After that, the operation until the noise removal processing is performed by the noise removal unit 58 is the same as in the normal observation mode, and the noise removal unit 58 outputs the RGB image signal of the first special image from which the noise has been removed. It is output.
  • the RGB image signal of the first special image from which noise has been removed is input to the first special image processing unit 64a by the image processing switching unit 60, and the image processing for the first special image is performed by the first special image processing unit 64a. Is given.
  • the RGB image signal of the first special image that has undergone image processing is converted into a video signal for display as the first special image by the video signal generation unit 66.
  • the operation until the image processing for the first special image is performed by the first special image processing unit 64a is the same as in the case of the first special observation mode.
  • the first special image processing unit 64a outputs an RGB image signal of the first special image that has undergone image processing.
  • the RGB image signal of the first special image that has undergone image processing is subjected to image processing for the second special image by the second special image processing unit 64b, and is used as the RGB image signal of the second special image.
  • the RGB image signal of the second special image is converted into a video signal to be displayed as the second special image by the video signal generation unit 66.
  • the light source control unit 21 lights, for example, the B-LED20b, the G-LED20c, and the R-LED20d. At that time, the irradiation of the first blue light B1, the green light G1 and the red light R1 and the irradiation of the second blue light B2, the green light G2 and the red light R2 are alternately repeated at regular intervals. After that, the operation until the noise removal processing is performed by the noise removal unit 58 is the same as in the case of the normal observation mode, and the noise removal unit 58 shows RGB of the two types of endoscopic images from which noise has been removed. An image signal is output.
  • the RGB image signals of the two types of endoscopic images from which noise has been removed are input to the third special image processing unit 64c by the image processing switching unit 60, and for the third special image by the third special image processing unit 64c. Image processing is applied.
  • the RGB image signal of the third special image that has undergone image processing is converted into a video signal for display as the third special image by the video signal generation unit 66.
  • the display control unit 76 can divide the display screen of the monitor 18 into a first division area and one or more second division areas having an area smaller than the first division area.
  • the display control unit 76 displays, for example, a medical image of the subject acquired from one modality of one or more modality 80s in the first division region, and the display control unit 76 displays the medical image of the subject acquired from one or more modality 80s.
  • At least one of the medical image of the subject and the diagnostic information of the subject acquired from the external system 82 can be displayed in at least one of the one or more second division regions.
  • FIG. 4 is a conceptual diagram of an embodiment showing a display screen of a monitor.
  • the display control unit 76 displays, for example, the display screen of the monitor 18 in a first divided area (Area 1) and two second divided areas (Area 2, Area 3) having an area smaller than that of the first divided area. ) Can be divided into three areas.
  • the display control unit 76 displays the medical image of the subject acquired from one of the one or more modality 80s in the first division region, and displays the medical image of the subject acquired from one or more modality 80s.
  • At least one of the medical image and the diagnostic information of the subject acquired from the external system 82 can be displayed in at least one of the two second division regions.
  • the display control unit 76 displays, among the diagnostic information of the subject, information that can be displayed as text information, for example, patient information of the subject, at the lower part of the display screen of the monitor 18. It can be displayed in the third divided area (Area 4) consisting of one or more lines extending in the horizontal direction.
  • the display screen of the monitor 18 is divided into four areas including a first divided area, two second divided areas, and a third divided area.
  • the display control unit 76 is, for example, the current normal state of the subject obtained from the endoscopic diagnostic apparatus 10. It is desirable to display the image in the first division area. As a result, the doctor observes the current normal image of the subject in a relatively large size on the monitor 18 of the endoscopic diagnostic apparatus 10 being used for the examination of the subject, and at the same time, the various modalities 80 are used. Medical images and diagnostic information of subjects can be viewed.
  • each divided area there is no particular limitation on what is displayed in each divided area.
  • medical images or diagnostic information of a subject by various modality 80 other than the endoscopic image may be displayed in the first divided region or may be displayed in the second divided region.
  • at least one of an endoscopic image other than the normal image for example, a first special image, a second special image, and a third special image may be displayed in the first divided area, or may be displayed in the second divided area. You may.
  • the aspect ratio of the display screen of the monitor 18 is 16 (horizontal): 9 (vertical)
  • the aspect ratio of the first divided area and the two second divided areas is 5 (horizontal): 4 (vertical).
  • the first divided area is arranged from the left part to the center part of the display screen of the monitor 18, and the two second divided areas are respectively arranged in the upper right part of the display screen of the monitor 18. And can be placed in the lower right corner.
  • the first divided area may be arranged from the central part to the right part of the display screen of the monitor 18, and the two second divided areas may be arranged in the upper left part and the lower left part of the display screen of the monitor 18, respectively. ..
  • the aspect ratio of the display screen of the monitor 18 is mainly 16: 9.
  • the aspect ratio of the light receiving surface of the imaging sensor of the modality 80 that captures the medical image in other words, the aspect ratio of the medical image is often 5: 4. Therefore, as described above, by using the monitor 18 having an aspect ratio of 16: 9, the aspect ratio of the monitor 18 having an aspect ratio of 16: 9 is 5: 4 without trimming or the like on the display screen of the monitor 18.
  • the medical image and the like can be suitably displayed in each of the three divided regions shown in FIG.
  • the current endoscopic images of the subject are sequentially imaged.
  • the examination of the subject by the endoscopic diagnostic apparatus 10 includes the preparation stage, the insertion stage of the endoscope, the pick-up stage of the region of interest, the discrimination / treatment stage of the region of interest, and the diagnostic report. Including the creation stage.
  • the preparatory stage is a stage in which the doctor prepares before observing the endoscopic image of the subject by the endoscopic diagnostic apparatus 10.
  • the display control unit 76 causes the monitor 18 to display at least one of the diagnostic information of the subject, for example, the patient information of the subject and the past diagnostic report of the subject, as shown in FIG.
  • the display control unit 76 can display a past medical image of the subject, a similar case of the medical condition of the subject, and the like on the monitor 18.
  • the past medical image of the subject is displayed on the display screen of the monitor 18 shown in FIG.
  • the doctor can grasp the medical condition of the subject and confirm the part of the subject to be observed in advance before actually observing the endoscopic image of the subject. ..
  • the insertion stage of the endoscope is a stage in which the doctor inserts the endoscope 12 into the body cavity of the subject and observes the endoscopic image of the subject.
  • the display control unit 76 displays, for example, the current endoscope image of the subject in one of the two or more divided regions, and displays the subject in one of the divided regions. At least one of the past endoscopic images, the biological information of the subject, the insertion shape of the endoscope 12 in the body cavity of the subject, and the support information for moving the endoscope 12 in the body cavity of the subject. Display one in at least one of the other divided areas of the two or more divided areas. In the display screen of the monitor 18 shown in FIG. 7, a normal image is displayed as the current endoscopic image of the subject in the first divided region.
  • the display control unit 76 receives an instruction from the doctor to start the examination, or the endoscope 12 that outputs an image signal obtained by imaging the subject using illumination light processes the image signal to image the subject. Contents to be displayed in the preparation stage to the contents to be displayed in the insertion stage of the endoscope when connected to at least one of the processor device 16 for outputting the current endoscope image and the light source device 14 for outputting the illumination light. Switch to.
  • the attention region pick-up stage is a stage in which the attention region estimation unit 72 picks up a portion presumed to be the attention region in the current endoscopic image of the subject. For example, in response to an instruction from a doctor, the stage shifts from the insertion stage of the endoscope to the pick-up stage of the region of interest.
  • the display control unit 76 displays, for example, the current endoscopic image of the subject in one of the two or more divided regions in the stage of picking up the region of interest, and the subject is displayed. At least one of the image showing the position of the region of interest in the current endoscopic image and the color-enhanced image, and at least one of the other divided regions of the two or more divided regions. Display it. In the display screen of the monitor 18 shown in FIG. 8, a normal image is displayed as the current endoscopic image of the subject in the first divided region.
  • an image showing the position of the region estimated to be the region of interest in the current endoscopic image of the subject is displayed, and the position of the region estimated to be the region of interest is bordered. It is displayed in a state surrounded by, and a color-enhanced image including the position of a portion presumed to be a region of interest is displayed in the second divided region at the lower right.
  • the doctor observes the current endoscopic image of the subject, and at the same time, an image showing the position of the region estimated to be the region of interest in the current endoscopic image of the subject, and color enhancement. At least one of the images can be seen.
  • the abnormal region discrimination unit 74 discriminates whether or not the region presumed to be the region of interest is presumed to be an abnormal region, and the doctor determines the abnormal region according to the discrimination result. It is a stage of diagnosing whether or not the site identified as being a lesion is a lesion and treating the site diagnosed as a lesion.
  • the display control unit 76 displays, for example, the current endoscopic image of the subject in one of the two or more divided regions in the differentiated / treated stage of the region of interest, resulting in an abnormality.
  • An image showing the position of the part identified as an abnormal part, the probability that the part identified as an abnormal part is estimated as an abnormal part, and the part identified as an abnormal part At least one of the length measurement results representing the length is displayed in at least one of the other divided regions among the two or more divided regions.
  • a normal image is displayed as the current endoscopic image of the subject in the first divided region.
  • an image showing the position of the part identified as an abnormal part is displayed in a predetermined color, for example, green, and the second divided area in the lower right part. Is displayed that the probability that the part identified as the abnormal part is presumed to be the abnormal part is 90%.
  • the doctor observes the current endoscopic image of the subject, and at the same time, the image showing the position of the part identified as the abnormal part and the part identified as the abnormal part are displayed. While checking at least one of the length measurement results indicating the probability of being presumed to be an abnormal part and the length of the part identified as an abnormal part, the part identified as an abnormal part is It is possible to diagnose whether or not it is a lesion.
  • the display control unit 76 receives the current endoscopic image of the subject from the current endoscopic image of the subject according to the instruction from the doctor, as shown in FIG. It is possible to switch to an image showing the oxygen saturation in the mirror image and display it in one divided region, for example, the first divided region. Alternatively, the display control unit 76 may display the current endoscopic image of the subject in one divided region and display the oxygen saturation image in at least one of the other divided regions. In the display screen of the monitor 18 shown in FIG. 10, an image showing the oxygen saturation is displayed as the current endoscopic image of the subject in the first divided region.
  • the region estimation unit 72 picks up the region presumed to be the region of interest in the current endoscopic image of the subject, and in the stage of differentiating and treating the region of interest.
  • the process of discriminating whether or not the portion presumed to be the region of interest is presumed to be the abnormal portion by the abnormal portion discriminating unit 74 can be automatically performed. Therefore, the content of the medical image of the subject to be displayed on the monitor 18 can be automatically changed according to the progress of the examination of the subject. In addition, these processes are repeated in each of the plurality of areas of interest.
  • the diagnostic report creation stage is a stage in which the doctor creates a diagnostic report of the subject in the external system 82 based on the test information and the like fed back from the test information feedback unit 78.
  • the test information feedback unit 78 feeds back the test information including the diagnosis result of the subject, the test time, and the equipment used to the external system 82 at the stage of creating the diagnosis report.
  • the doctor can easily create a diagnostic report of the subject as shown in FIG. 11 based on the test information and the like fed back from the test information feedback unit 78.
  • the test information feedback unit 78 may feed back the test information to the external system 82 including the medical image of the subject.
  • the doctor can create a diagnostic report based on the medical image of the subject and the examination information, and for example, the medical image of the subject can be attached to the diagnostic report of the subject.
  • the endoscopic diagnostic apparatus 10 on the monitor 18 included in the endoscopic diagnostic apparatus 10, medical images and diagnostic information of the subject by various modality 80 can be aggregated and observed. Further, before observing the endoscopic image of the subject, the diagnostic information of the subject is confirmed in advance on the monitor 18, and the endoscopic diagnostic apparatus 10 is used depending on the progress of the examination of the subject. At the time of inspection, the content displayed on the monitor 18 can be changed.
  • the display control unit 76 displays the biological information of the subject including the heart rate value and the blood pressure value in one of the other divided regions, for example, the second divided region in the upper right part, and the subject is displayed. If at least one of the heart rate and blood pressure values exceeds the upper limit value or falls below the lower limit value during the examination, an arrow pointing to the biological information of the subject is indicated by two or more in a predetermined color, for example, red.
  • the divided region other than one of the other divided regions in which the biological information of the subject is displayed for example, as shown in FIG. 12, may be displayed in the first divided region, or may be displayed in the lower right. It may be displayed in the second division area of. In this case, the display control unit 76 may blink the arrow at regular time intervals. This allows the physician to immediately recognize that at least one of the subject's heart rate and blood pressure values is abnormal.
  • the display control unit 76 is a portion of the portion that is identified as an abnormal portion when it is identified as an abnormal portion or according to an instruction from the user.
  • An image showing the position is overlaid on the current endoscopic image of the subject and displayed, and after a certain period of time or according to the instruction from the user, the part identified as an abnormal part is identified.
  • the overlay of the image representing the position may be stopped to display the current endoscopic image of the subject.
  • the display control unit 76 displays an image showing the position of the portion identified as the abnormal portion in a predetermined color, for example, a red frame. It may be displayed surrounded by a line. In this case, the display control unit 76 may blink the frame line at regular time intervals. Further, the display control unit 76 estimates that the arrow pointing to the image indicating the position of the portion identified as the abnormal portion is the abnormal portion in the two or more divided regions in a predetermined color, for example, red. When this is done, it may be displayed in a division area other than one of the other division areas in which an image showing the position of the identified portion is displayed. In this case, the display control unit 76 may blink the arrow at regular time intervals.
  • a predetermined color for example, a red frame.
  • the endoscopic diagnostic apparatus 10 can display important information so that the doctor can easily recognize it even when a large amount of information is aggregated and displayed.
  • the information display system of the present invention has been described with an example of incorporating it into the endoscopic diagnostic apparatus 10, the information display system of the present invention is similarly incorporated into various modalities 80 other than the endoscopic diagnostic apparatus. It is possible. Alternatively, the information display system of the present invention may not be incorporated into the modality 80, but may be provided separately from the modality 80, and various modality 80s, an external system 82, and the like may be connected to the information display system of the present invention.
  • a light source control unit 21 for example, a light source control unit 21, a receiving unit 53, a DSP 56, a noise removing unit 58, an image processing switching unit 60, a normal image processing unit 62, and a special image processing unit 64 (first special image processing unit 64a, first 2 Special image processing unit 64b, 3rd special image processing unit 64c), video signal generation unit 66, medical image acquisition unit 68, diagnostic information acquisition unit 70, attention area estimation unit 72, abnormal part identification unit 74, display control unit 76
  • the hardware configuration of the processing unit (Processing Unit) that executes various processes such as the inspection information feedback unit 78 may be dedicated hardware, or various processors or computers that execute programs. You may.
  • the circuit configuration can be changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units.
  • Programmable Logic Device (PLD), ASIC (Application Specific Integrated Circuit), etc. which is a processor, includes a dedicated electric circuit, which is a processor having a circuit configuration designed exclusively for performing specific processing. ..
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types, for example, a combination of a plurality of FPGAs, or a combination of an FPGA and a CPU. And so on. Further, a plurality of processing units may be configured by one of various processors, or two or more of the plurality of processing units may be collectively configured by using one processor.
  • SoC system on chip
  • circuitry that combines circuit elements such as semiconductor elements.
  • the method of the present invention can be carried out, for example, by a program for causing a computer to execute each of the steps. It is also possible to provide a computer-readable recording medium on which this program is recorded.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Endoscopes (AREA)

Abstract

情報表示システムおよび情報表示方法においては、医療画像取得部が、1以上のモダリティから、被検体の医療画像を取得し、診断情報取得部が、外部システムから、被検体の診断情報を取得する。表示制御部が、被検体の診断情報をモニタに表示させる、もしくは、被検体の医療画像および診断情報の少なくとも1つを、モニタの表示画面を分割した2以上の分割領域の少なくとも1つに表示させ、被検体の検査の進行状況に応じて、モニタに表示させる被検体の医療画像および診断情報の内容を変える。

Description

情報表示システムおよび情報表示方法
 本発明は、様々なモダリティによる被検体の医療画像および診断情報等を集約して表示する情報表示システムおよび情報表示方法に関する。
 医療分野においては、内視鏡診断装置および超音波診断装置等の各種のモダリティを用いて被検体の医療画像を撮像し、各種のモダリティにより撮像された医療画像等に基づいて医師による診断が行われている。
 例えば、内視鏡診断装置においては、内視鏡から被検体の体腔内の観察対象に照明光が照射され、照明光が照射された観察対象が内視鏡の撮像素子により撮像されて観察対象の内視鏡画像が生成され、モニタに表示される。医師は、モニタに表示された内視鏡画像を観察して、異常部の可能性がある部位である注目領域を拾い上げ、この注目領域が異常部なのか否かを鑑別して、異常部と鑑別された部位を治療し、診断レポートを作成する。
 本発明に関連性のある先行技術文献として、特許文献1~4がある。
 特許文献1には、内視鏡下外科手術装置において、モニタの画面を、内視鏡の観察画像を表示する主画面と、硬さ検出ユニットから入力された生体組織の硬さを示す画像を表示する第1の副画面と、インピーダンス検出ユニットから入力された生体組織のインピーダンスを示す画像を表示する第2の副画面とに3分割することが記載されている。
 特許文献2には、内視鏡手術支援システムにおいて、軟性内視鏡先端に取り付けられたカメラから取り入れた撮影画像データと、軟性内視鏡によって得られる被術者の処置を施す部位周辺の断層画像データとを重畳してディスプレイ上に表示することが記載されている。
 特許文献3には、超音波・内視鏡複合システムにおいて、リアルタイム画像としての超音波画像及び内視鏡画像が分割表示されることが記載されている。
 特許文献4には、医療用画像記録装置および電子内視鏡装置等を有するシステムにおいて、内視鏡観察画像データ及び検査結果のレポート等が医療用画像記録装置1内に格納され、接続されている他の医療機器が有するデータを共有することが記載されている。
特開平11-347043号公報 特開2006-320427号公報 特開平08-010263号公報 特開2004-350734号公報
 内視鏡診断装置の場合、内視鏡画像を内視鏡診断装置が有するモニタに表示させることはできるが、他のモダリティによる被検体の医療画像および診断情報等を内視鏡診断装置のモニタに同時に表示させることはできなかった。他のモダリティの場合も同様である。
 そのため、医師は、内視鏡画像を観察する時には、内視鏡診断装置のモニタを使用して内視鏡画像を観察し、超音波画像を観察する時には、超音波診断装置のモニタを使用して超音波画像を観察している。また、被検体の診断情報、例えば被検体の患者情報および診断レポート等を閲覧する時には、被検体の診断情報を保管・管理する外部システムにおいて、外部システムのモニタを使用して閲覧し、診断レポートを作成している。
 このように、医師は、例えば内視鏡診断装置のモニタにおいて、様々なモダリティによる被検体の医療画像および診断情報等を集約して観察することはできなかった。また、医師は、被検体の内視鏡画像を観察する前に、被検体の診断情報等をモニタ上で事前に確認したり、被検体の検査の進行状況に応じて、内視鏡診断装置による検査時に、モニタに表示させる内容を変えたりすることはできなかった。
 本発明の第1の目的は、様々なモダリティによる被検体の医療画像および診断情報等を1箇所で集約して表示させ、被検体の検査の進行状況に応じて、表示させる内容を変えることができる情報表示システムおよび情報表示方法を提供することにある。
 また、本発明の第2の目的は、上記第1の目的に加えて、多くの情報が集約して表示された場合においても、ユーザが重要な情報を認識しやすいように表示させることができる情報表示システムおよび情報表示方法を提供することにある。
 上記目的を達成するために、本発明は、1以上のモダリティから、被検体の医療画像を取得する医療画像取得部と、
 モニタと、
 被検体の医療画像を、モニタの表示画面を分割した2以上の分割領域の少なくとも1つに表示させる表示制御部と、を備え、
 表示制御部は、被検体の検査の進行状況に応じて、モニタに表示させる被検体の医療画像の内容を変える、情報表示システムを提供する。
 さらに、外部システムから、被検体の診断情報を取得する診断情報取得部を備え、
 表示制御部は、被検体の診断情報をモニタに表示させる、もしくは、被検体の医療画像および被検体の診断情報の少なくとも1つを、2以上の分割領域の少なくとも1つに表示させ、被検体の検査の進行状況に応じて、モニタに表示させる被検体の医療画像および被検体の診断情報の内容を変えることが好ましい。
 また、被検体の医療画像は、被検体の現在の内視鏡画像を含み、
 被検体の検査は、準備段階、内視鏡の挿入段階、注目領域の拾上段階、注目領域の鑑別・治療段階、および、診断レポートの作成段階を含むことが好ましい。
 また、表示制御部は、準備段階において、被検体の患者情報、および、被検体の過去の診断レポートの少なくとも1つをモニタに表示させることが好ましい。
 また、表示制御部は、内視鏡の挿入段階において、被検体の現在の内視鏡画像を2以上の分割領域のうちの1の分割領域に表示させ、被検体の過去の内視鏡画像、被検体の生体情報、被検体の体腔内における内視鏡の挿入形状、および、被検体の体腔内において内視鏡を移動させるための支援情報の少なくとも1つを2以上の分割領域のうちの他の分割領域の少なくとも1つに表示させることが好ましい。
 また、表示制御部は、心拍値および血圧値を含む被検体の生体情報を他の分割領域の1つに表示させ、被検体の検査中において、心拍値および血圧値の少なくとも1つが上限値を上回ったまたは下限値を下回った場合に、被検体の生体情報を指し示す矢印を、2以上の分割領域のうちの被検体の生体情報が表示されている他の分割領域の1つ以外の分割領域に表示させることが好ましい。
 さらに、被検体の現在の内視鏡画像から、注目領域の有無および注目領域の位置を推定する注目領域推定部を備え、
 表示制御部は、注目領域の拾上段階において、被検体の現在の内視鏡画像を2以上の分割領域のうちの1の分割領域に表示させ、被検体の現在の内視鏡画像のうちの注目領域と推定された部位の位置を表す画像、および、被検体の現在の内視鏡画像に色強調処理を施すことにより生成される、被検体の現在の内視鏡画像における正常部と異常部との色の違いが強調された色強調画像の少なくとも1つを2以上の分割領域のうちの他の分割領域の少なくとも1つに表示させることが好ましい。
 さらに、白色光および青色狭帯域光を被検体に照射することにより撮像される、被検体の現在の内視鏡画像における粘膜表層の血管構造が強調された青色狭帯域光画像から、注目領域と推定された部位が異常部と推定されるか否か、異常部と推定された部位の位置および異常部と推定される確率を鑑別する異常部鑑別部を備え、
 表示制御部は、注目領域の鑑別・治療段階において、被検体の現在の内視鏡画像を2以上の分割領域のうちの1の分割領域に表示させ、異常部と推定されると鑑別された部位の位置を表す画像、異常部と推定されると鑑別された部位が異常部と推定される確率、および、異常部と推定されると鑑別された部位の長さを表す測長結果の少なくとも1つを2以上の分割領域のうちの他の分割領域の少なくとも1つに表示させることが好ましい。
 また、表示制御部は、ユーザからの指示に応じて、被検体の現在の内視鏡画像から、被検体の現在の内視鏡画像における酸素飽和度を表す画像に切り替えて1の分割領域に表示させることが好ましい。
 また、表示制御部は、異常部と推定されると鑑別された場合に、もしくは、ユーザからの指示に応じて、異常部と推定されると鑑別された部位の位置を表す画像を被検体の現在の内視鏡画像にオーバレイして表示させることが好ましい。
 また、表示制御部は、一定時間が経過した後に、もしくは、ユーザからの指示に応じて、異常部と推定されると鑑別された部位の位置を表す画像のオーバレイを停止して被検体の現在の内視鏡画像を表示させることが好ましい。
 また、表示制御部は、異常部と推定されると鑑別された部位の位置を表す画像を枠線で囲んで表示させることが好ましい。
 また、表示制御部は、枠線を一定時間間隔で点滅させることが好ましい。
 また、表示制御部は、異常部と推定されると鑑別された部位の位置を表す画像を指し示す矢印を、2以上の分割領域のうちの異常部と推定されると鑑別された部位の位置を表す画像が表示されている他の分割領域の1つ以外の分割領域に表示させることが好ましい。
 また、表示制御部は、矢印を一定時間間隔で点滅させることが好ましい。
 また、表示制御部は、ユーザからの検査開始の指示に応じて、または、照明光を用いて被検体を撮像した画像信号を出力する内視鏡が画像信号を画像処理して被検体の現在の内視鏡画像を出力するプロセッサ装置および照明光を出力する光源装置の少なくとも1つに接続された場合に、準備段階において表示させる内容から、内視鏡の挿入段階において表示させる内容に自動的に切り替えることが好ましい。
 さらに、診断レポートの作成段階において、被検体の診断結果、検査時間、および、使用機材を含む検査情報を外部システムにフィードバックする検査情報フィードバック部を備えることが好ましい。
 また、表示制御部は、モニタの表示画面を第1分割領域および第1分割領域よりも面積が小さい1以上の第2分割領域に分割して、1以上のモダリティのうちの1のモダリティから取得された被検体の医療画像を第1分割領域に表示させ、1以上のモダリティから取得された被検体の医療画像、および、外部システムから取得された被検体の診断情報の少なくとも1つを1以上の第2分割領域の少なくとも1つに表示させることが好ましい。
 また、表示制御部は、モニタの表示画面を第1分割領域および2つの第2分割領域に分割して、1のモダリティから取得された被検体の医療画像を第1分割領域に表示させ、1以上のモダリティから取得された被検体の医療画像、および、外部システムから取得された被検体の診断情報の少なくとも1つを2つの第2分割領域の少なくとも1つに表示させることが好ましい。
 また、モニタの表示画面のアスペクト比は、16:9、第1分割領域および2つの第2分割領域のアスペクト比は、5:4であり、
 第1分割領域は、モニタの表示画面の左部から中央部にわたって配置され、2つの第2分割領域は、それぞれ、モニタの表示画面の右上部および右下部に配置されることが好ましい。
 また、本発明は、医療画像取得部が、1以上のモダリティから、被検体の医療画像を取得するステップと、
 表示制御部が、被検体の医療画像を、モニタの表示画面を分割した2以上の分割領域の少なくとも1つに表示させるステップと、を含み、
 被検体の検査の進行状況に応じて、モニタに表示させる被検体の医療画像の内容を変える、情報表示方法を提供する。
 さらに、診断情報取得部が、外部システムから、被検体の診断情報を取得するステップを含み、
 被検体の診断情報をモニタに表示させる、もしくは、被検体の医療画像および被検体の診断情報の少なくとも1つを、2以上の分割領域の少なくとも1つに表示させ、被検体の検査の進行状況に応じて、モニタに表示させる被検体の医療画像および被検体の診断情報の内容を変えることが好ましい。
 また、医療画像取得部、診断情報取得部、注目領域推定部、異常部鑑別部、表示制御部および検査情報フィードバック部は、ハードウェア、または、プログラムを実行するプロセッサであることが好ましい。
 本発明によれば、1のモダリティが有するモニタにおいて、様々なモダリティによる被検体の医療画像および診断情報等を集約して観察することができる。また、本発明によれば、被検体の医療画像を観察する前に、被検体の診断情報等をモニタ上で事前に確認したり、被検体の検査の進行状況に応じて、モダリティによる検査時に、モニタに表示させる内容を変えたりすることができる。さらに、本発明によれば、多くの情報が集約して表示された場合においても、ユーザが重要な情報を認識しやすいように表示させることができる。
本発明の情報表示システムを適用する内視鏡診断装置の構成を表す一実施形態の概念図である。 内視鏡診断装置が有する内視鏡、光源装置およびプロセッサ装置の内部構成を表す一実施形態のブロック図である。 4色のLEDから発せられる、紫色光V、青色光B、緑色光G、及び赤色光Rの発光スペクトルを示す一実施形態のグラフである。 モニタの表示画面を表す一実施形態の概念図である。 内視鏡診断装置による被検体の検査の手順を表す一実施形態の概念図である。 準備段階におけるモニタの表示画面を表す一実施形態の概念図である。 内視鏡の挿入段階におけるモニタの表示画面を表す一実施形態の概念図である。 注目領域の拾上段階におけるモニタの表示画面を表す一実施形態の概念図である。 注目領域の鑑別・治療段階におけるモニタの表示画面を表す一実施形態の概念図である。 注目領域の鑑別・治療段階におけるモニタの表示画面を表す別の実施形態の概念図である。 診断レポートの作成段階におけるモニタの表示画面を表す一実施形態の概念図である。 医師に注意を喚起するためのモニタの表示画面を表す一実施形態の概念図である。 医師に注意を喚起するためのモニタの表示画面を表す別の実施形態の概念図である。 医師に注意を喚起するためのモニタの表示画面を表す別の実施形態の概念図である。
 以下に、添付の図面に示す好適実施形態に基づいて、本発明の情報表示システムおよび情報表示方法を詳細に説明する。
 図1は、本発明の情報表示システムを適用する内視鏡診断装置の構成を表す一実施形態の概念図である。図1に示す内視鏡診断装置10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、コンソール19とを有する。
 内視鏡12は光源装置14と光学的に接続され、プロセッサ装置16と電気的に接続される。内視鏡12は、照明光を用いて被検体を撮像した画像信号を出力するものであり、被検体の体腔内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられる湾曲部12c及び先端部12dと、を有する。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作に伴って、先端部12dが所望の方向に向けられる。
 また、操作部12bには、アングルノブ12eの他、モード切替SW(スイッチ)13aが設けられている。モード切替SW13aは、通常観察モードと、第1特殊観察モードと、第2特殊観察モードと、第3特殊観察モードとの4種類のモード間の切り替え操作に用いられる。
 通常観察モードは、被検体の現在の内視鏡画像として、白色光を被検体に照射することにより撮像される通常画像を観察するモードである。
 第1特殊観察モードは、被検体の現在の内視鏡画像として、白色光および青色狭帯域光を被検体に照射することにより撮像される、被検体の現在の内視鏡画像における粘膜表層の血管構造が強調された第1特殊画像(青色狭帯域光画像)を観察するモードである。
 なお、青色狭帯域光とは、青色の波長範囲の狭帯域光のみに限らず、青色から紫色の波長範囲の狭帯域光であってもよい。
 第2特殊観察モードは、被検体の現在の内視鏡画像として、例えば第1特殊画像に色強調処理を施すことにより生成される、被検体の現在の内視鏡画像における正常部と異常部との色の違いが強調された第2特殊画像(色強調画像)を観察するモードである。
 第3特殊観察モードは、被検体の現在の内視鏡画像として、通常画像における血中ヘモグロビンの酸素飽和度を表す第3特殊画像(酸素飽和度画像)を観察するモードである。
 なお、第1~第3特殊観察モード以外の1以上の特殊観察モードをさらに含んでいてもよい。
 図2は、内視鏡診断装置が有する内視鏡、光源装置およびプロセッサ装置の内部構成を表す一実施形態のブロック図である。光源装置14は、照明光を出力するものであり、図2に示すように、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20cおよびR-LED(Red Light Emitting Diode)20dを含む4色のLED(光源)と、これら4色のLED20a~20dの駆動を制御する光源制御部21と、ダイクロイックミラー等を用いて構成され、4色のLED20a~20dから発せられる4色の光の光路を結合する光路結合部23と、を有する。
 図3は、4色のLEDから発せられる、紫色光V、青色光B、緑色光G、及び赤色光Rの発光スペクトルを示す一実施形態のグラフである。図3に示すように、V-LED20aは、中心波長405±10nm、波長範囲380~420nmの紫色光Vを発生する。B-LED20bは、中心波長460±10nm、波長範囲420~500nmの青色光Bを発生する。G-LED20cは、波長範囲が480~600nmに及ぶ緑色光Gを発生する。R-LED20dは、中心波長620~630nmで、波長範囲が600~650nmに及ぶ赤色光Rを発生する。
 光源制御部21は、第1特殊観察モードおよび第2特殊観察モードの場合、例えばV-LED20a、B-LED20b、G-LED20c、及びR-LED20dの全てを点灯する。その際、表層血管での吸収率が高い紫色光Vの発光量が比較的高くなるように、かつ、中層血管への吸収率が高い緑色光Gの発光量が比較的低くなるように設定し、紫色光V、青色光B、緑色光G、及び赤色光Rの4色の光の光量比が定められた比率となるように照射する。
 光源制御部21は、第3特殊観察モードの場合、例えばB-LED20b、G-LED20c、及びR-LED20dを点灯する。その際、第1光学フィルタを用いて青色光Bの波長帯域を制限することにより生成される中心波長473±10nmの第1青色光B1、緑色光G1及び赤色光R1の照射と、第2光学フィルタを用いて青色光Bの波長帯域を制限することにより生成される中心波長445±10nmの第2青色光B2、緑色光G2及び赤色光R2の照射と、を一定の間隔で交互に繰り返し行う。
 図2に示すように、ライトガイド(LG)41は、内視鏡12及びユニバーサルコード(内視鏡12と光源装置14及びプロセッサ装置16とを接続するコード)内に内蔵されている。ライトガイド41としては、マルチモードファイバを使用することができる。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。
 照明光学系30aは照明レンズ45を有し、光路結合部23で結合された光は、ライトガイド41及び照明レンズ45を介して内視鏡12の先端部12dまで伝搬され、被検体内の観察対象に照射される。
 撮像光学系30bは、対物レンズ46および撮像センサ48を有する。観察対象からの反射光は、対物レンズ46を介して撮像センサ48に入射し、撮像センサ48に観察対象の反射像が結像される。
 撮像センサ48はカラーの撮像センサであり、被検体の反射像を撮像して画像信号を出力する。撮像センサ48としては、CCD(Charge Coupled Device)撮像センサおよびCMOS(Complementary Metal-Oxide Semiconductor)撮像センサ等を用いることができる。撮像センサ48は、R(赤)、G(緑)及びB(青)の3色のRGB画像信号を得るためのカラーの撮像センサ、即ち、Rフィルタが設けられたR画素、Gフィルタが設けられたG画素、Bフィルタが設けられたB画素を有するRGB撮像センサである。
 また、内視鏡12の内部には、CDS(Correlated Double Sampling)・AGC(Auto Gain Control)回路50及びA/D(Analog/Digital)変換器52が設けられている。撮像センサ48から出力される画像信号は、CDS・AGC回路50に入力される。CDS・AGC回路50は、アナログ信号である画像信号に相関二重サンプリング(CDS)及び自動利得制御(AGC)等を行う。
 CDS・AGC回路50を経た画像信号は、A/D変換器52により、アナログ画像信号からデジタル画像信号に変換される。A/D変換されたデジタル画像信号は、プロセッサ装置16に入力される。
 プロセッサ装置16は、モニタ18およびコンソール19の他、図2に示すように、各種のモダリティ80および外部システム82等と電気的に接続される。プロセッサ装置16は、画像信号を画像処理して被検体の現在の内視鏡画像を生成し、被検体の現在の内視鏡画像を含む各種のモダリティ80による医療画像を出力するものであり、受信部53と、DSP(Digital Signal Processor)56と、ノイズ除去部58と、画像処理切替部60と、通常画像処理部62と、特殊画像処理部64と、映像信号生成部66と、医療画像取得部68と、診断情報取得部70と、注目領域推定部72と、異常部鑑別部74と、表示制御部76と、検査情報フィードバック部78と、を有する。
 医療画像取得部68、診断情報取得部70、注目領域推定部72、異常部鑑別部74、表示制御部76、検査情報フィードバック部78およびモニタ18は、本発明の情報表示システムの一実施形態を構成する。
 情報表示システムは、各種のモダリティ80から、各々の被検体(患者)の医療画像を取得し、さらに、各種の外部システム82から、各々の被検体の診断情報(医療情報)を取得し、各々の被検体について、医療画像および診断情報の少なくとも1つを表示する。
 受信部53は、内視鏡12からデジタル信号であるRGB画像信号を受信する。
 DSP56は、受信した画像信号に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理およびデモザイク処理等の各種信号処理を施す。欠陥補正処理では、撮像センサ48の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理が施されたRGB画像信号から暗電流成分が除かれ、正確な零レベルが設定される。ゲイン補正処理では、オフセット処理後のRGB画像信号に特定のゲインを乗じることにより信号レベルが整えられる。ゲイン補正処理後のRGB画像信号には、色再現性を高めるためのリニアマトリクス処理が施される。その後、ガンマ変換処理によって明るさおよび彩度が整えられる。リニアマトリクス処理後のRGB画像信号には、デモザイク処理(等方化処理あるいは同時化処理とも言う)が施され、各画素で不足した色の信号が補間によって生成される。このデモザイク処理によって、全画素がRGB各色の信号を有するようになる。
 ノイズ除去部58は、DSP56でガンマ補正等が施されたRGB画像信号に対して移動平均法およびメディアンフィルタ法等のノイズ除去処理を施すことによって、RGB画像信号からノイズを除去する。ノイズが除去されたRGB画像信号は、画像処理切替部60に入力される。
 画像処理切替部60は、モード切替SW13aにより、通常観察モードにセットされている場合には、RGB画像信号を通常画像処理部62に入力し、第1特殊観察モード、第2特殊観察モード、又は第3特殊観察モードにセットされている場合には、RGB画像信号を特殊画像処理部64に入力するように切り替える。
 通常画像処理部62は、RGB画像信号に対して、色変換処理、色彩強調処理、及び構造強調処理等を行う。色変換処理では、デジタルのRGB画像信号に対して、3×3のマトリックス処理、階調変換処理、及び3次元LUT処理などを行い、色変換処理済みのRGB画像信号に変換する。次に、色変換処理済みのRGB画像信号に対して、各種色彩強調処理を施す。この色彩強調処理済みのRGB画像信号に対して、空間周波数強調等の構造強調処理を行う。構造強調処理が施されたRGB画像信号は、通常画像のRGB画像信号として、通常画像処理部62から映像信号生成部66に入力される。
 特殊画像処理部64は、第1特殊観察モード、第2特殊観察モードまたは第3特殊観察モードに設定されている場合に作動する。この特殊画像処理部64は、RGB画像信号に対して、第1特殊画像のための画像処理を施して第1特殊画像を生成する第1特殊画像処理部64aと、第2特殊画像のための画像処理を施して第2特殊画像を生成する第2特殊画像処理部64bと、第3特殊画像のための画像処理を施して第3特殊画像を生成する第3特殊画像処理部64cとを有する。
 第1特殊画像処理部64aは、白色光および青色狭帯域光を被検体に照射することにより撮像される第1特殊画像のRGB画像信号に対して、例えば通常画像処理部62と同様に、色変換処理、色彩強調処理、及び構造強調処理等を施し、被検体の粘膜表層の血管構造が強調された青色狭帯域光画像(第1特殊画像)を生成する。
 第2特殊画像処理部64bは、例えば第1特殊画像のRGB画像信号のG画像信号とB画像信号との信号比B/G比を算出し、R画像信号とG画像信号との信号比G/R比を算出し、信号比B/Gおよび信号比G/Rに対して、正常粘膜が分布する第1範囲の彩度と色相が同じになるように、かつ、第1範囲と異常部が分布する第2範囲との彩度の差、および、第1範囲と異常部の下に存在する深層血管が分布する第3範囲との色相の差の少なくともいずれかが大きくなるように、例えば赤味を帯びている色がより赤く、白っぽい色がより白くなるように色強調処理を施すことにより、被検体の現在の内視鏡画像における正常部と異常部との色の違いが強調された色強調画像(第2特殊画像)を生成する。
 第3特殊画像処理部64cは、第1青色光B1、緑色光G1及び赤色光R1の照射と、第2青色光B2、緑色光G2及び赤色光R2の照射と、を交互に行うことによって撮像される2種類の内視鏡画像のRGB画像信号から、例えばB1画像信号とG2画像信号の信号比B1/G2、R2画像信号とG2画像信号の信号比R2/G2、及びG2画像信号とB2画像信号の信号比G2/B2を算出し、これらの信号比と酸素飽和度との相関関係を記憶したLUT(Look Up Table:ルックアップテーブル)を参照して、信号比から被検体の血中ヘモグロビンの酸素飽和度を算出し、酸素飽和度を画像化した酸素飽和度画像(第3特殊画像)を生成する。
 特殊画像処理部64で生成された第1特殊画像、第2特殊画像及び第3特殊画像のRGB画像信号は、映像信号生成部66に入力される。
 映像信号生成部66は、通常画像処理部62又は特殊画像処理部64から入力されたRGB画像信号を、モニタ18で表示可能な画像として表示するための映像信号に変換する。映像信号は、内視鏡画像(医療画像)として、医療画像取得部68に入力される。
 医療画像取得部68は、内視鏡診断装置10を含む1以上のモダリティ80から、被検体の現在の内視鏡画像を含む被検体の医療画像(静止画像あるいは動画像)を取得する。医療画像取得部68は、1のモダリティのみから、被検体の医療画像を取得してもよいし、2以上のモダリティから、被検体の医療画像を取得してもよい。医療画像取得部68から出力される被検体の医療画像は、注目領域推定部72、異常部鑑別部74、表示制御部76および検査情報フィードバック部78に入力される。
 モダリティ80は、被検体の医療画像を撮像する各種の医療装置であり、例えば内視鏡診断装置、超音波診断装置、超音波内視鏡診断装置、X線撮影装置、コンピュータ断層撮影装置(CT)および磁気共鳴診断装置(MRI)等が含まれる。また、モダリティ80には、被検体の生体情報を取得する装置、被検体の体腔内における内視鏡12の挿入形状を取得する装置、および、被検体の体腔内において内視鏡12を移動させるための支援情報を取得する装置等が含まれていてもよい。
 被検体の生体情報を取得する装置は、例えば被検体の心拍値を取得する心拍計および被検体の血圧値を取得する血圧計等である。
 内視鏡12の挿入形状を取得する装置は、例えば磁気等を利用して、被検体の体腔内における内視鏡12の3次元の挿入形状をリアルタイムに取得する内視鏡挿入形状観測装置等である。
 支援情報を取得する装置は、例えば学習用内視鏡画像と、この学習用内視鏡画像に表示されている臓器の名称、臓器の範囲(領域あるいは境界とも言う)、内視鏡12の先端部12dの位置および向きと、の関係を複数の学習用超音波画像について学習した学習済みモデルに基づいて、被検体の診断用内視鏡画像から、この診断用内視鏡画像に表示されている臓器の名称、臓器の範囲、内視鏡12の先端部12dの位置および向き等を推定し、これらの情報を前述の支援情報として取得する装置である。
 なお、モダリティ80には、例えば各種のモダリティ80により撮像された被検体の医療画像を保管・管理する医療画像管理システム(PACS:Picture Archiving and Communication Systems)、および、内視鏡12の挿入部12aに装着して使用されるダブルバルーンの膨張および収縮の状態を取得する装置等のように、上記以外のモダリティが含まれていてもよい。
 学習方法は、複数の学習用内視鏡画像から上記の関係を学習し、学習済みモデルを生成することができるものであれば特に限定されない。
 学習方法としては、例えば人工知能(AI:Artificial Intelligence)の技術の1つである機械学習(マシンラーニング)の一例としての、階層構造型のニューラルネットワークを用いるディープラーニング(深層学習)等を利用することができる。
 なお、ディープラーニング以外の機械学習を利用してもよいし、機械学習以外の人工知能の技術を利用してもよいし、人工知能の技術以外の学習方法を利用してもよい。これ以降に説明する他の学習済みモデルの学習方法についても同様である。
 診断情報取得部70は、外部システム82から、被検体の診断情報を取得する。診断情報取得部70から出力される被検体の診断情報は、表示制御部76に入力される。
 外部システム82は、被検体の診断情報等を情報表示システムに提供し、かつ、医師が診断レポートを作成するために使用するものであり、例えば被検体の診断情報を保管・管理するIT(Information Technology:情報技術)システム等を利用することができる。
 被検体の診断情報は、被検体の患者情報(氏名、住所、連絡先等の情報)、および、診断レポート(病状、禁忌情報、医師の所見、経過情報等の情報)等を含む。
 注目領域推定部72は、被検体の現在の医療画像、例えば通常画像(内視鏡画像)から、注目領域の有無および注目領域の位置等を推定する。注目領域推定部72の推定結果は、異常部鑑別部74および表示制御部76に入力される。
 注目領域は、正常部ではない可能性がある被検体の部位、つまり、異常部の可能性がある被検体の部位である。
 注目領域推定部72は、例えば学習用内視鏡画像と、この学習用内視鏡画像に表示されている注目領域の有無および注目領域の位置と、の関係を複数の学習用内視鏡画像について学習した学習済みモデルに基づいて、被検体の診断用内視鏡画像から、この診断用内視鏡画像に表示されている注目領域の有無および注目領域の位置を推定することができる。
 なお、注目領域推定部72が、被検体の現在の医療画像から、注目領域の有無および注目領域の位置等を推定する方法は特に限定されない。
 異常部鑑別部74は、被検体の現在の医療画像、例えば第1特殊画像から、注目領域と推定された部位が異常部と推定されるか否か、異常部と推定された部位の位置および異常部と推定される確率等を鑑別する。異常部鑑別部74の鑑別結果は表示制御部76に入力される。
 異常部鑑別部74は、例えば学習用内視鏡画像と、この学習用内視鏡画像に表示されている注目領域と推定された部位が異常部と推定されるか否か、異常部と推定された部位の位置および異常部と推定される確率と、の関係を複数の学習用内視鏡画像について学習した学習済みモデルに基づいて、被検体の診断用内視鏡画像から、この診断用内視鏡画像に表示されている注目領域と推定される部位が異常部と推定されるか否か、異常部と推定された部位の位置および異常部と推定される確率を鑑別することができる。
 なお、異常部鑑別部74が、内視鏡画像等の医療画像から、注目領域と推定された部位が異常部と推定されるか否か、異常部と推定された部位の位置および異常部と推定される確率等を鑑別する方法は特に限定されない。
 表示制御部76は、被検体の医療画像、被検体の診断情報、注目領域の推定情報および異常部の鑑別情報等をモニタ18に表示させる制御を行う。表示制御部76から出力される被検体の医療画像、被検体の診断情報、注目領域の推定情報および異常部の鑑別情報等はモニタ18に入力される。
 表示制御部76は、例えばモニタ18の表示画面を分割することなく、被検体の医療画像をモニタ18に表示させたり、被検体の医療画像を、モニタ18の表示画面を分割した2以上の分割領域の少なくとも1つに表示させたりすることができる。この場合、表示制御部76は、被検体の検査の進行状況に応じて、モニタ18の表示画面または分割領域に表示させる被検体の医療画像の内容を順次変えることができる。
 なお、分割領域の数、面積、アスペクト比および配置等は特に限定されない。
 また、表示制御部76は、例えばモニタ18の表示画面を分割することなく、被検体の医療画像または診断情報をモニタ18に表示させる、もしくは、被検体の医療画像および診断情報の少なくとも1つを、2以上の分割領域の少なくとも1つに表示させることができる。この場合、表示制御部76は、被検体の検査の進行状況に応じて、モニタ18の表示画面または分割領域に表示させる被検体の医療画像および診断情報の内容を順次変えることができる。
 検査情報フィードバック部78は、診断レポートの作成段階において、医師による被検体の診断結果、検査時間、および、使用機材等を含む検査情報を外部システム82にフィードバックする。
 検査情報は、被検体の検査に関する情報であれば特に限定されず、上記以外の各種の情報、例えば被検体の医療画像等を含んでいてもよい。
 診断レポートは、検査情報および各種のモダリティ80による医療画像等に基づいて、医師(ユーザ)が作成する被検体の診察記録であり、被検体の病状、禁忌情報、病状に対する医師の所見、被検体に対する処置、被検体の経過情報等が記録される。
 モニタ18は、例えば液晶ディスプレイ等の表示装置であり、表示制御部76の制御により、被検体の医療画像、被検体の診断情報、注目領域の推定情報および異常部の鑑別情報等を表示する。
 コンソール19は、キーボードおよびマウス等のように、医師からの指示を入力する入力装置であり、機能設定等の入力操作を受け付けるUI(User Interface:ユーザーインターフェース)として機能する。
 次に、内視鏡診断装置10の動作を説明する。
 まず、モード切替SW13aにより通常観察モードにセットされ、内視鏡12の挿入部12aが検体内に挿入される。
 通常観察モード時には、光源制御部21により、例えばV-LED20a、B-LED20b、G-LED20c、及びR-LED20dの全てが点灯される。LED20a~20dから発せられた4色の光は、光路結合部23により結合され、紫色光V、青色光B、緑色光G、及び赤色光Rの4色の光が混色されて、ほぼ白色の光となり、ライトガイド41及び照明レンズ45を介して、被検体内の観察対象に照射される。
 観察対象からの反射光は、対物レンズ46を介して撮像センサ48に入射され、撮像センサ48に観察対象の反射像が結像される。撮像センサ48から出力される画像信号は、CDS・AGC回路50を経て、A/D変換器52によりデジタル画像信号に変換される。A/D変換されたデジタル画像信号は、プロセッサ装置16に入力され、受信部53により受信される。
 受信部53により受信されたデジタル画像信号は、DSP56により各種信号処理が施されて、通常画像のRGB画像信号とされ、ノイズ除去部58によりノイズ除去処理が施されて、通常画像のRGB画像信号からノイズが除去される。ノイズが除去された通常画像のRGB画像信号は、画像処理切替部60により通常画像処理部62に入力され、通常画像処理部62により、通常画像のための画像処理が施される。
 画像処理が施された通常画像のRGB画像信号は、映像信号生成部66により、通常画像として表示するための映像信号に変換される。
 モード切替SW13aにより第1特殊観察モードに切り替えられると、光源制御部21により、例えばV-LED20a、B-LED20b、G-LED20c、及びR-LED20dの全てが点灯される。その際、表層血管での吸収率が高い紫色光Vの発光量が比較的高くなるように、かつ、中層血管への吸収率が高い緑色光Gの発光量が比較的低くなるように設定され、紫色光V、青色光B、緑色光G、及び赤色光Rの4色の光の光量比が定められた比率となるように照射される。
 これ以後、ノイズ除去部58によりノイズ除去処理が施されるまでの動作は通常観察モードの場合と同様であり、ノイズ除去部58からは、ノイズが除去された第1特殊画像のRGB画像信号が出力される。ノイズが除去された第1特殊画像のRGB画像信号は、画像処理切替部60により第1特殊画像処理部64aに入力され、第1特殊画像処理部64aにより、第1特殊画像のための画像処理が施される。
 画像処理が施された第1特殊画像のRGB画像信号は、映像信号生成部66により、第1特殊画像として表示するための映像信号に変換される。
 モード切替SW13aにより第2特殊観察モードに切り替えられた場合、第1特殊画像処理部64aにより第1特殊画像のための画像処理が施されるまでの動作は第1特殊観察モードの場合と同様であり、第1特殊画像処理部64aからは、画像処理が施された第1特殊画像のRGB画像信号が出力される。
 画像処理が施された第1特殊画像のRGB画像信号は、第2特殊画像処理部64bにより、第2特殊画像のための画像処理が施され、第2特殊画像のRGB画像信号とされる。
 第2特殊画像のRGB画像信号は、映像信号生成部66により、第2特殊画像として表示するための映像信号に変換される。
 モード切替SW13aにより第3特殊観察モードに切り替えられると、光源制御部21により、例えばB-LED20b、G-LED20c、及びR-LED20dが点灯される。その際、第1青色光B1、緑色光G1及び赤色光R1の照射と、第2青色光B2、緑色光G2及び赤色光R2の照射と、が一定の間隔で交互に繰り返し行われる。
 これ以後、ノイズ除去部58によりノイズ除去処理が施されるまでの動作は通常観察モードの場合と同様であり、ノイズ除去部58からは、ノイズが除去された2種類の内視鏡画像のRGB画像信号が出力される。ノイズが除去された2種類の内視鏡画像のRGB画像信号は、画像処理切替部60により第3特殊画像処理部64cに入力され、第3特殊画像処理部64cにより、第3特殊画像のための画像処理が施される。
 画像処理が施された第3特殊画像のRGB画像信号は、映像信号生成部66により、第3特殊画像として表示するための映像信号に変換される。
 次に、表示制御部76の制御によるモニタ18の表示画面について説明する。
 表示制御部76は、例えばモニタ18の表示画面を第1分割領域およびこの第1分割領域よりも面積が小さい1以上の第2分割領域に分割することができる。この場合、表示制御部76は、例えば1以上のモダリティ80のうちの1のモダリティから取得された被検体の医療画像を第1分割領域に表示させ、1以上のモダリティ80から取得された被検体の医療画像、および、外部システム82から取得された被検体の診断情報の少なくとも1つを1以上の第2分割領域の少なくとも1つに表示させることができる。
 図4は、モニタの表示画面を表す一実施形態の概念図である。表示制御部76は、図4に示すように、例えばモニタ18の表示画面を第1分割領域(Area 1)および第1分割領域よりも面積が小さい2つの第2分割領域(Area 2, Area 3)からなる3つの領域に分割することができる。この場合、表示制御部76は、1以上のモダリティ80のうちの1のモダリティから取得された被検体の医療画像を第1分割領域に表示させ、1以上のモダリティ80から取得された被検体の医療画像、および、外部システム82から取得された被検体の診断情報の少なくとも1つを2つの第2分割領域の少なくとも1つに表示させることができる。
 また、表示制御部76は、図4に示すように、被検体の診断情報のうち、テキスト情報として表示させることができる情報、例えば被検体の患者情報等を、モニタ18の表示画面の下部において横方向に延びる1行ないし複数行からなる第3分割領域(Area 4)に表示させることができる。この場合、モニタ18の表示画面は、第1分割領域、2つの第2分割領域および第3分割領域からなる4つの領域に分割される。
 本実施形態のように、本発明の情報表示システムが内視鏡診断装置10に組み込まれている場合、表示制御部76は、例えば内視鏡診断装置10から取得された被検体の現在の通常画像を第1分割領域に表示させるのが望ましい。これにより、医師は、被検体の検査のために使用中の内視鏡診断装置10のモニタ18において、被検体の現在の通常画像を比較的大きなサイズで観察しながら、同時に各種のモダリティ80による医療画像および被検体の診断情報等を閲覧することができる。
 なお、各々の分割領域に何を表示させるかは特に限定されない。例えば、内視鏡画像以外の様々なモダリティ80による医療画像または被検体の診断情報を第1分割領域に表示させてもよいし、第2分割領域に表示させてもよい。また、通常画像以外の内視鏡画像、例えば第1特殊画像、第2特殊画像および第3特殊画像の少なくとも1つを第1分割領域に表示させてもよいし、第2分割領域に表示させてもよい。
 また、モニタ18の表示画面のアスペクト比が、16(横):9(縦)である場合、第1分割領域および2つの第2分割領域のアスペクト比が、5(横):4(縦)であるのが望ましい。この場合、図4に示すように、例えば第1分割領域を、モニタ18の表示画面の左部から中央部にわたって配置し、2つの第2分割領域を、それぞれ、モニタ18の表示画面の右上部および右下部に配置することができる。あるいは、第1分割領域を、モニタ18の表示画面の中央部から右部にわたって配置し、2つの第2分割領域を、それぞれ、モニタ18の表示画面の左上部および左下部に配置してもよい。
 近年、モニタ18の表示画面のアスペクト比は、16:9のものが主流である。これに対し、医療画像を撮像するモダリティ80が有する撮像センサの受光面のアスペクト比、言い換えると、医療画像のアスペクト比は、5:4のものが多い。従って、上記のように、アスペクト比が、16:9のモニタ18を使用することにより、アスペクト比が16:9のモニタ18の表示画面において、トリミング等することなく、アスペクト比が、5:4の医療画像等を、図4に示す3つの分割領域の各々に好適に表示させることができる。
 次に、内視鏡診断装置10による被検体の検査の手順について説明する。
 内視鏡診断装置10においては、被検体の現在の内視鏡画像が順次撮像される。内視鏡診断装置10による被検体の検査は、図5に示すように、準備段階、内視鏡の挿入段階、注目領域の拾上段階、注目領域の鑑別・治療段階、および、診断レポートの作成段階を含む。
 準備段階は、医師が、内視鏡診断装置10によって被検体の内視鏡画像を観察する前の準備を行う段階である。
 表示制御部76は、準備段階において、図6に示すように、被検体の診断情報、例えば被検体の患者情報、および、被検体の過去の診断レポートの少なくとも1つをモニタ18に表示させる。また、表示制御部76は、被検体の過去の医療画像、および、被検体の病状の類似事例等をモニタ18に表示させることもできる。
 図6に示すモニタ18の表示画面には、被検体の過去の医療画像が表示されている。
 これにより、医師は、実際に被検体の内視鏡画像の観察を行う前に、被検体の病状等を把握したり、観察すべき被検体の部位等を事前に確認したりすることができる。
 内視鏡の挿入段階は、医師が、被検体の体腔内に内視鏡12を挿入し、被検体の内視鏡画像を観察する段階である。
 表示制御部76は、内視鏡の挿入段階において、図7に示すように、例えば被検体の現在の内視鏡画像を2以上の分割領域のうちの1の分割領域に表示させ、被検体の過去の内視鏡画像、被検体の生体情報、被検体の体腔内における内視鏡12の挿入形状、および、被検体の体腔内において内視鏡12を移動させるための支援情報の少なくとも1つを2以上の分割領域のうちの他の分割領域の少なくとも1つに表示させる。
 図7に示すモニタ18の表示画面において、第1分割領域には、被検体の現在の内視鏡画像として、通常画像が表示されている。また、右上部の第2分割領域には、被検体の過去の内視鏡画像(サムネイル画像)が4枚表示され、右下部の第2分割領域には、被検体の体腔内における内視鏡12の挿入形状を表す画像が表示されている。
 これにより、医師は、被検体の現在の内視鏡画像を観察しながら、同時に被検体の過去の内視鏡画像、被検体の生体情報、被検体の体腔内における内視鏡12の挿入形状、および、被検体の体腔内において内視鏡12を移動させるための支援情報等の少なくとも1つを確認しながら、被検体の体腔内において内視鏡12を安全かつ確実に移動させて、観察対象を観察することができる。
 表示制御部76は、医師からの検査開始の指示に応じて、または、照明光を用いて被検体を撮像した画像信号を出力する内視鏡12が、画像信号を画像処理して被検体の現在の内視鏡画像を出力するプロセッサ装置16および照明光を出力する光源装置14の少なくとも1つに接続された場合に、準備段階において表示させる内容から、内視鏡の挿入段階において表示させる内容に切り替える。
 注目領域の拾上段階は、注目領域推定部72が、被検体の現在の内視鏡画像において、注目領域と推定される部位を拾い上げていく段階である。例えば、医師からの指示に応じて、内視鏡の挿入段階から注目領域の拾上段階に移行される。
 表示制御部76は、注目領域の拾上段階において、図8に示すように、例えば被検体の現在の内視鏡画像を2以上の分割領域のうちの1の分割領域に表示させ、被検体の現在の内視鏡画像のうちの注目領域と推定された部位の位置を表す画像、および、色強調画像の少なくとも1つを2以上の分割領域のうちの他の分割領域の少なくとも1つに表示させる。
 図8に示すモニタ18の表示画面において、第1分割領域には、被検体の現在の内視鏡画像として、通常画像が表示されている。また、右上部の第2分割領域には、被検体の現在の内視鏡画像のうちの注目領域と推定された部位の位置を表す画像が、注目領域と推定された部位の位置が枠線で囲まれた状態で表示され、右下部の第2分割領域には、注目領域と推定された部位の位置を含む色強調画像が表示されている。
 これにより、医師は、被検体の現在の内視鏡画像を観察しながら、同時に被検体の現在の内視鏡画像のうちの注目領域と推定された部位の位置を表す画像、および、色強調画像の少なくとも1つを確認することができる。
 注目領域の鑑別・治療段階は、異常部鑑別部74が、注目領域と推定された部位が異常部と推定されるか否か等を鑑別し、医師が、その鑑別結果に応じて、異常部と推定されると鑑別された部位が病変部なのか否かを診断し、病変部と診断された部位を治療する段階である。
 表示制御部76は、注目領域の鑑別・治療段階において、図9に示すように、例えば被検体の現在の内視鏡画像を2以上の分割領域のうちの1の分割領域に表示させ、異常部と推定されると鑑別された部位の位置を表す画像、異常部と推定されると鑑別された部位が異常部と推定される確率、および、異常部と推定されると鑑別された部位の長さを表す測長結果の少なくとも1つを2以上の分割領域のうちの他の分割領域の少なくとも1つに表示させる。
 図9に示すモニタ18の表示画面において、第1分割領域には、被検体の現在の内視鏡画像として、通常画像が表示されている。また、右上部の第2分割領域には、異常部と推定されると鑑別された部位の位置を表す画像が定められた色、例えば緑色に着色して表示され、右下部の第2分割領域には、異常部と推定されると鑑別された部位が異常部と推定される確率が90%であることが表示されている。
 これにより、医師は、被検体の現在の内視鏡画像を観察しながら、同時に異常部と推定されると鑑別された部位の位置を表す画像、異常部と推定されると鑑別された部位が異常部と推定される確率、および、異常部と推定されると鑑別された部位の長さを表す測長結果の少なくとも1つを確認しながら、異常部と推定されると鑑別された部位が病変部なのか否か等を診断することができる。
 また、表示制御部76は、注目領域の鑑別・治療段階において、医師からの指示に応じて、被検体の現在の内視鏡画像から、図10に示すように、被検体の現在の内視鏡画像における酸素飽和度を表す画像に切り替えて、1の分割領域、例えば第1分割領域に表示させることができる。あるいは、表示制御部76は、被検体の現在の内視鏡画像を1の分割領域に表示させ、酸素飽和度画像を他の分割領域の少なくとも1つに表示させてもよい。
 図10に示すモニタ18の表示画面において、第1分割領域には、被検体の現在の内視鏡画像として、酸素飽和度を表す画像が表示されている。また、右上部の第2分割領域には、被検体の過去の内視鏡画像(サムネイル画像)が4枚表示され、右下部の第2分割領域には、色強調画像が表示されている。
 これにより、医師は、酸素飽和度を表す画像を観察しながら、異常部と推定されると鑑別された部位が病変部なのか否か等をより正確に診断することができる。
 注目領域の拾上段階において、注目領域推定部72が、被検体の現在の内視鏡画像において、注目領域と推定される部位を拾い上げていく処理、および、注目領域の鑑別・治療段階において、異常部鑑別部74が、注目領域と推定された部位が異常部と推定されるか否か等を鑑別する処理は、いずれも自動で行わせることができる。従って、被検体の検査の進行状況に応じて、モニタ18に表示させる被検体の医療画像の内容を自動で変えることができる。また、これらの処理は、複数の注目領域のそれぞれにおいて、繰り返し行われる。
 診断レポートの作成段階は、医師が、外部システム82において、検査情報フィードバック部78からフィードバックされる検査情報等に基づいて、被検体の診断レポートを作成する段階である。
 検査情報フィードバック部78は、診断レポートの作成段階において、被検体の診断結果、検査時間、および、使用機材を含む検査情報を外部システム82にフィードバックする。
 医師は、外部システム82において、検査情報フィードバック部78からフィードバックされる検査情報等に基づいて、図11に示すように、被検体の診断レポートを簡単に作成することができる。
 検査情報フィードバック部78は、検査情報として、被検体の医療画像等を含めて外部システム82にフィードバックしてもよい。この場合、医師は、被検体の医療画像および検査情報に基づいて、診断レポートを作成することができ、例えば被検体の医療画像等を被検体の診断レポートに添付することもできる。
 上記のように、内視鏡診断装置10においては、内視鏡診断装置10が有するモニタ18において、様々なモダリティ80による被検体の医療画像および診断情報等を集約して観察することができる。また、被検体の内視鏡画像を観察する前に、被検体の診断情報等をモニタ18上で事前に確認したり、被検体の検査の進行状況に応じて、内視鏡診断装置10による検査時に、モニタ18に表示させる内容を変えたりすることができる。
 ところで、内視鏡の挿入段階、注目領域の拾上段階および注目領域の鑑別・治療段階において、被検体の現在の内視鏡画像として、例えば通常画像が第1分割領域に表示されている場合、医師は、内視鏡12を操作するために、通常画像を観察することに集中し、第2分割領域に表示されている被検体の医療画像および診断情報等をほとんど見ないという傾向がある。従って、医師に通知すべき特異的な状況が発生した場合に、そのような状況を医師に自動的に通知して医師の注意を喚起することが望ましい。
 例えば、表示制御部76は、図12に示すように、心拍値および血圧値を含む被検体の生体情報を他の分割領域の1つ、例えば右上部の第2分割領域に表示させ、被検体の検査中において、心拍値および血圧値の少なくとも1つが上限値を上回ったまたは下限値を下回った場合に、被検体の生体情報を指し示す矢印を、定められた色、例えば赤色で、2以上の分割領域のうちの被検体の生体情報が表示されている他の分割領域の1つ以外の分割領域、例えば図12に示すように、第1分割領域に表示させてもよいし、あるいは右下部の第2分割領域に表示させてもよい。この場合、表示制御部76は、矢印を一定時間間隔で点滅させてもよい。
 これにより、医師は、被検体の心拍値および血圧値の少なくとも1つが異常であることを即座に認識することができる。
 また、表示制御部76は、図13に示すように、異常部と推定されると鑑別された場合に、もしくは、ユーザからの指示に応じて、異常部と推定されると鑑別された部位の位置を表す画像を被検体の現在の内視鏡画像にオーバレイして表示させ、一定時間が経過した後に、もしくは、ユーザからの指示に応じて、異常部と推定されると鑑別された部位の位置を表す画像のオーバレイを停止して被検体の現在の内視鏡画像を表示させてもよい。
 これにより、医師は、異常部と推定されると鑑別された部位があることを即座に認識することができ、かつ、その位置を容易に確認することができる。
 あるいは、表示制御部76は、図14の右上部の第2分割領域に示すように、異常部と推定されると鑑別された部位の位置を表す画像を、定められた色、例えば赤色の枠線で囲んで表示させてもよい。この場合、表示制御部76は、枠線を一定時間間隔で点滅させてもよい。また、表示制御部76は、異常部と推定されると鑑別された部位の位置を表す画像を指し示す矢印を、定められた色、例えば赤色で、2以上の分割領域のうちの異常部と推定されると鑑別された部位の位置を表す画像が表示されている他の分割領域の1つ以外の分割領域に表示させてもよい。この場合、表示制御部76は、矢印を一定時間間隔で点滅させてもよい。
 上記の各例のように、内視鏡診断装置10においては、多くの情報が集約して表示された場合においても、医師が重要な情報を認識しやすいように表示させることができる。
 本発明の情報表示システムを内視鏡診断装置10に組み込んだ場合の例を挙げて説明したが、本発明の情報表示システムは、内視鏡診断装置以外の各種のモダリティ80においても同様に組み込むことが可能である。あるいは、本発明の情報表示システムをモダリティ80に組み込むことなく、モダリティ80とは別に設け、各種のモダリティ80および外部システム82等を本発明の情報表示システムに接続してもよい。
 本発明の装置において、例えば光源制御部21、受信部53、DSP56、ノイズ除去部58、画像処理切替部60、通常画像処理部62、特殊画像処理部64(第1特殊画像処理部64a、第2特殊画像処理部64b、第3特殊画像処理部64c)、映像信号生成部66、医療画像取得部68、診断情報取得部70、注目領域推定部72、異常部鑑別部74、表示制御部76および検査情報フィードバック部78等の各種の処理を実行する処理部(Processing Unit)のハードウェア的な構成は、専用のハードウェアであってもよいし、プログラムを実行する各種のプロセッサまたはコンピュータであってもよい。
 各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理をさせるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部を、これら各種のプロセッサのうちの1つで構成してもよいし、同種または異種の2つ以上のプロセッサの組み合わせ、例えば、複数のFPGAの組み合わせ、または、FPGAおよびCPUの組み合わせ等によって構成してもよい。また、複数の処理部を、各種のプロセッサのうちの1つで構成してもよいし、複数の処理部のうちの2以上をまとめて1つのプロセッサを用いて構成してもよい。
 例えば、サーバおよびクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。また、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。
 さらに、これらの各種のプロセッサのハードウェア的な構成は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(Circuitry)である。
 また、本発明の方法は、例えば、その各々のステップをコンピュータに実行させるためのプログラムにより実施することができる。また、このプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供することもできる。
 以上、本発明について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良および変更をしてもよいのはもちろんである。
 10 内視鏡診断装置
 12 内視鏡
 12a 挿入部
 12b 操作部
 12c 湾曲部
 12d 先端部
 12e アングルノブ
 13a モード切替SW
 14 光源装置
 16 プロセッサ装置
 18 モニタ
 19 コンソール
 20a V-LED
 20b B-LED
 20c G-LED
 20d R-LED
 21 光源制御部
 23 光路結合部
 30a 照明光学系
 30b 撮像光学系
 41 ライトガイド
 45 照明レンズ
 46 対物レンズ
 48 撮像センサ
 50 CDS・AGC回路
 52 A/D変換器
 53 受信部
 56 DSP
 58 ノイズ除去部
 60 画像処理切替部
 62 通常画像処理部
 64 特殊画像処理部
 64a 第1特殊画像処理部
 64b 第2特殊画像処理部
 64c 第3特殊画像処理部
 66 映像信号生成部
 68 医療画像取得部
 70 診断情報取得部
 72 注目領域推定部
 74 異常部鑑別部
 76 表示制御部
 78 検査情報フィードバック部
 80 モダリティ
 82 外部システム

Claims (22)

  1.  1以上のモダリティから、被検体の医療画像を取得する医療画像取得部と、
     モニタと、
     前記被検体の医療画像を、前記モニタの表示画面を分割した2以上の分割領域の少なくとも1つに表示させる表示制御部と、を備え、
     前記表示制御部は、前記被検体の検査の進行状況に応じて、前記モニタに表示させる前記被検体の医療画像の内容を変える、情報表示システム。
  2.  さらに、外部システムから、前記被検体の診断情報を取得する診断情報取得部を備え、
     前記表示制御部は、前記被検体の診断情報を前記モニタに表示させる、もしくは、前記被検体の医療画像および前記被検体の診断情報の少なくとも1つを、前記2以上の分割領域の少なくとも1つに表示させ、前記被検体の検査の進行状況に応じて、前記モニタに表示させる前記被検体の医療画像および前記被検体の診断情報の内容を変える、請求項1に記載の情報表示システム。
  3.  前記被検体の医療画像は、前記被検体の現在の内視鏡画像を含み、
     前記被検体の検査は、準備段階、内視鏡の挿入段階、注目領域の拾上段階、前記注目領域の鑑別・治療段階、および、診断レポートの作成段階を含む、請求項2に記載の情報表示システム。
  4.  前記表示制御部は、前記準備段階において、前記被検体の患者情報、および、前記被検体の過去の診断レポートの少なくとも1つを前記モニタに表示させる、請求項3に記載の情報表示システム。
  5.  前記表示制御部は、前記内視鏡の挿入段階において、前記被検体の現在の内視鏡画像を前記2以上の分割領域のうちの1の分割領域に表示させ、前記被検体の過去の内視鏡画像、前記被検体の生体情報、前記被検体の体腔内における前記内視鏡の挿入形状、および、前記被検体の体腔内において前記内視鏡を移動させるための支援情報の少なくとも1つを前記2以上の分割領域のうちの他の分割領域の少なくとも1つに表示させる、請求項3または4に記載の情報表示システム。
  6.  前記表示制御部は、心拍値および血圧値を含む前記被検体の生体情報を前記他の分割領域の1つに表示させ、前記被検体の検査中において、前記心拍値および前記血圧値の少なくとも1つが上限値を上回ったまたは下限値を下回った場合に、前記被検体の生体情報を指し示す矢印を、前記2以上の分割領域のうちの前記被検体の生体情報が表示されている前記他の分割領域の1つ以外の分割領域に表示させる、請求項5に記載の情報表示システム。
  7.  さらに、前記被検体の現在の内視鏡画像から、前記注目領域の有無および前記注目領域の位置を推定する注目領域推定部を備え、
     前記表示制御部は、前記注目領域の拾上段階において、前記被検体の現在の内視鏡画像を前記2以上の分割領域のうちの1の分割領域に表示させ、前記被検体の現在の内視鏡画像のうちの前記注目領域と推定された部位の位置を表す画像、および、前記被検体の現在の内視鏡画像に色強調処理を施すことにより生成される、前記被検体の現在の内視鏡画像における正常部と異常部との色の違いが強調された色強調画像の少なくとも1つを前記2以上の分割領域のうちの他の分割領域の少なくとも1つに表示させる、請求項3ないし6のいずれか一項に記載の情報表示システム。
  8.  さらに、白色光および青色狭帯域光を前記被検体に照射することにより撮像される、前記被検体の現在の内視鏡画像における粘膜表層の血管構造が強調された青色狭帯域光画像から、前記注目領域と推定された部位が異常部と推定されるか否か、前記異常部と推定された部位の位置および前記異常部と推定される確率を鑑別する異常部鑑別部を備え、
     前記表示制御部は、前記注目領域の鑑別・治療段階において、前記被検体の現在の内視鏡画像を前記2以上の分割領域のうちの1の分割領域に表示させ、前記異常部と推定されると鑑別された部位の位置を表す画像、前記異常部と推定されると鑑別された部位が前記異常部と推定される確率、および、前記異常部と推定されると鑑別された部位の長さを表す測長結果の少なくとも1つを前記2以上の分割領域のうちの他の分割領域の少なくとも1つに表示させる、請求項3ないし7のいずれか一項に記載の情報表示システム。
  9.  前記表示制御部は、ユーザからの指示に応じて、前記被検体の現在の内視鏡画像から、前記被検体の現在の内視鏡画像における酸素飽和度を表す画像に切り替えて前記1の分割領域に表示させる、請求項8に記載の情報表示システム。
  10.  前記表示制御部は、前記異常部と推定されると鑑別された場合に、もしくは、ユーザからの指示に応じて、前記異常部と推定されると鑑別された部位の位置を表す画像を前記被検体の現在の内視鏡画像にオーバレイして表示させる、請求項8または9に記載の情報表示システム。
  11.  前記表示制御部は、一定時間が経過した後に、もしくは、ユーザからの指示に応じて、前記異常部と推定されると鑑別された部位の位置を表す画像のオーバレイを停止して前記被検体の現在の内視鏡画像を表示させる、請求項10に記載の情報表示システム。
  12.  前記表示制御部は、前記異常部と推定されると鑑別された部位の位置を表す画像を枠線で囲んで表示させる、請求項8ないし11のいずれか一項に記載の情報表示システム。
  13.  前記表示制御部は、前記枠線を一定時間間隔で点滅させる、請求項12に記載の情報表示システム。
  14.  前記表示制御部は、前記異常部と推定されると鑑別された部位の位置を表す画像を指し示す矢印を、前記2以上の分割領域のうちの前記異常部と推定されると鑑別された部位の位置を表す画像が表示されている前記他の分割領域の1つ以外の分割領域に表示させる、請求項8ないし13のいずれか一項に記載の情報表示システム。
  15.  前記表示制御部は、前記矢印を一定時間間隔で点滅させる、請求項6または14に記載の情報表示システム。
  16.  前記表示制御部は、ユーザからの検査開始の指示に応じて、または、照明光を用いて前記被検体を撮像した画像信号を出力する内視鏡が前記画像信号を画像処理して前記被検体の現在の内視鏡画像を出力するプロセッサ装置および前記照明光を出力する光源装置の少なくとも1つに接続された場合に、前記準備段階において表示させる内容から、前記内視鏡の挿入段階において表示させる内容に自動的に切り替える、請求項3ないし15のいずれか一項に記載の情報表示システム。
  17.  さらに、前記診断レポートの作成段階において、前記被検体の診断結果、検査時間、および、使用機材を含む検査情報を前記外部システムにフィードバックする検査情報フィードバック部を備える、請求項3ないし16のいずれか一項に記載の情報表示システム。
  18.  前記表示制御部は、前記モニタの表示画面を第1分割領域および前記第1分割領域よりも面積が小さい1以上の第2分割領域に分割して、前記1以上のモダリティのうちの1のモダリティから取得された前記被検体の医療画像を前記第1分割領域に表示させ、前記1以上のモダリティから取得された前記被検体の医療画像、および、前記外部システムから取得された前記被検体の診断情報の少なくとも1つを1以上の前記第2分割領域の少なくとも1つに表示させる、請求項2ないし17のいずれか一項に記載の情報表示システム。
  19.  前記表示制御部は、前記モニタの表示画面を前記第1分割領域および2つの前記第2分割領域に分割して、前記1のモダリティから取得された前記被検体の医療画像を前記第1分割領域に表示させ、前記1以上のモダリティから取得された前記被検体の医療画像、および、前記外部システムから取得された前記被検体の診断情報の少なくとも1つを2つの前記第2分割領域の少なくとも1つに表示させる、請求項18に記載の情報表示システム。
  20.  前記モニタの表示画面のアスペクト比は、16:9、前記第1分割領域および2つの前記第2分割領域のアスペクト比は、5:4であり、
     前記第1分割領域は、前記モニタの表示画面の左部から中央部にわたって配置され、2つの前記第2分割領域は、それぞれ、前記モニタの表示画面の右上部および右下部に配置される、請求項19に記載の情報表示システム。
  21.  医療画像取得部が、1以上のモダリティから、被検体の医療画像を取得するステップと、
     表示制御部が、前記被検体の医療画像を、モニタの表示画面を分割した2以上の分割領域の少なくとも1つに表示させるステップと、を含み、
     前記被検体の検査の進行状況に応じて、前記モニタに表示させる前記被検体の医療画像の内容を変える、情報表示方法。
  22.  さらに、診断情報取得部が、外部システムから、前記被検体の診断情報を取得するステップを含み、
     前記被検体の診断情報を前記モニタに表示させる、もしくは、前記被検体の医療画像および前記被検体の診断情報の少なくとも1つを、前記2以上の分割領域の少なくとも1つに表示させ、前記被検体の検査の進行状況に応じて、前記モニタに表示させる前記被検体の医療画像および前記被検体の診断情報の内容を変える、請求項21に記載の情報表示方法。
PCT/JP2020/039231 2019-11-11 2020-10-19 情報表示システムおよび情報表示方法 WO2021095446A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021555959A JP7257544B2 (ja) 2019-11-11 2020-10-19 情報表示システムおよび情報表示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-203795 2019-11-11
JP2019203795 2019-11-11

Publications (1)

Publication Number Publication Date
WO2021095446A1 true WO2021095446A1 (ja) 2021-05-20

Family

ID=75912008

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/039231 WO2021095446A1 (ja) 2019-11-11 2020-10-19 情報表示システムおよび情報表示方法

Country Status (2)

Country Link
JP (1) JP7257544B2 (ja)
WO (1) WO2021095446A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1080396A (ja) * 1996-09-09 1998-03-31 Nippon Colin Co Ltd 内視鏡装置
JP2009226170A (ja) * 2008-03-25 2009-10-08 Olympus Medical Systems Corp 医療用画像処理装置
JP2014018333A (ja) * 2012-07-17 2014-02-03 Hoya Corp 画像処理装置及び内視鏡装置
WO2018198327A1 (ja) * 2017-04-28 2018-11-01 オリンパス株式会社 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法
WO2019088121A1 (ja) * 2017-10-30 2019-05-09 公益財団法人がん研究会 画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073337A1 (ja) 2015-10-27 2017-05-04 オリンパス株式会社 内視鏡装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1080396A (ja) * 1996-09-09 1998-03-31 Nippon Colin Co Ltd 内視鏡装置
JP2009226170A (ja) * 2008-03-25 2009-10-08 Olympus Medical Systems Corp 医療用画像処理装置
JP2014018333A (ja) * 2012-07-17 2014-02-03 Hoya Corp 画像処理装置及び内視鏡装置
WO2018198327A1 (ja) * 2017-04-28 2018-11-01 オリンパス株式会社 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法
WO2019088121A1 (ja) * 2017-10-30 2019-05-09 公益財団法人がん研究会 画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラム

Also Published As

Publication number Publication date
JPWO2021095446A1 (ja) 2021-05-20
JP7257544B2 (ja) 2023-04-13

Similar Documents

Publication Publication Date Title
JP7346285B2 (ja) 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム
JP7383105B2 (ja) 医療画像処理装置及び内視鏡システム
US11950760B2 (en) Endoscope apparatus, endoscope operation method, and program
JP7289373B2 (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
JP7335399B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP2024023832A (ja) 画像処理装置及び内視鏡システム並びに画像処理プログラム
WO2019220801A1 (ja) 内視鏡画像処理装置、内視鏡画像処理方法、及びプログラム
CN113613543A (zh) 诊断辅助装置、诊断辅助方法以及程序
WO2020184257A1 (ja) 医用画像処理装置及び方法
US20230237659A1 (en) Image processing apparatus, endoscope system, operation method of image processing apparatus, and non-transitory computer readable medium
US20230141302A1 (en) Image analysis processing apparatus, endoscope system, operation method of image analysis processing apparatus, and non-transitory computer readable medium
JP7387859B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
US20230101620A1 (en) Medical image processing apparatus, endoscope system, method of operating medical image processing apparatus, and non-transitory computer readable medium
US20230029239A1 (en) Medical image processing system and method for operating medical image processing system
WO2021095446A1 (ja) 情報表示システムおよび情報表示方法
WO2018079217A1 (ja) 内視鏡システム及びその作動方法
CN115315210A (zh) 图像处理装置、图像处理方法、导航方法以及内窥镜系统
US11998165B2 (en) Image processing device and method of operating same
US12020350B2 (en) Image processing apparatus
US20220076458A1 (en) Image processing apparatus
WO2022009478A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
WO2019202982A1 (ja) 内視鏡装置、内視鏡操作方法、及びプログラム
CN114627045A (zh) 医用图像处理系统、医用图像处理系统的工作方法
JP2023178526A (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20887238

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021555959

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20887238

Country of ref document: EP

Kind code of ref document: A1