WO2014084134A1 - 観察装置 - Google Patents

観察装置 Download PDF

Info

Publication number
WO2014084134A1
WO2014084134A1 PCT/JP2013/081496 JP2013081496W WO2014084134A1 WO 2014084134 A1 WO2014084134 A1 WO 2014084134A1 JP 2013081496 W JP2013081496 W JP 2013081496W WO 2014084134 A1 WO2014084134 A1 WO 2014084134A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
unit
image
light image
observation
Prior art date
Application number
PCT/JP2013/081496
Other languages
English (en)
French (fr)
Inventor
圭 久保
康成 石原
裕美 志田
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2014550160A priority Critical patent/JP6234375B2/ja
Priority to EP13859294.4A priority patent/EP2926713A4/en
Priority to CN201380051009.9A priority patent/CN104736036B/zh
Publication of WO2014084134A1 publication Critical patent/WO2014084134A1/ja
Priority to US14/725,667 priority patent/US20150257635A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to an observation apparatus.
  • a region of interest such as a lesioned part of a subject is selectively imaged using light of a specific wavelength, the position of the region of interest is identified using the obtained special light image, and is identified in a white light image.
  • an observation device that labels a position with a marker (for example, see Patent Document 1). With the marker displayed in the white light image, the user can easily recognize the attention area existing in the observation visual field.
  • An object of the present invention is to provide an observation apparatus capable of performing
  • the present invention provides a light source that irradiates a subject with illumination light and special light having a wavelength band different from the illumination light that acts on a specific region of the subject, and the illumination light is emitted from the light source.
  • a return light image generating unit that captures the return light emitted from the subject to generate a return light image, and the signal light emitted from the subject by irradiating the special light from the light source.
  • a special light image generation unit that generates a special light image, an extraction unit that extracts the specific region from the special light image generated by the special light image generation unit, and the return light image generation unit that generates the special light image.
  • an observation device including an enhancement processing unit that performs enhancement processing based on return light image information on a return light image in a region corresponding to the specific region extracted by the extraction unit.
  • the return light image obtained by photographing the form of the subject is acquired by the return light image generation unit by irradiating the subject with the illumination light from the light source.
  • a special light image obtained by photographing a specific region such as a lesioned portion existing in the subject is acquired by the special light image generation unit.
  • a specific area in the special light image is extracted by the extraction unit, and a specific area of the return light image is enhanced by the enhancement processing unit.
  • the form of the attention area can be observed in detail while the attention area existing in the observation field can be easily recognized by the white light image in which the specific area noticed by the user is emphasized.
  • the enhancement processing unit may enhance the contrast of at least one of the structure and the color.
  • the peripheral region such as the normal part of the subject does not change from the structure and / or color of the unprocessed white light image, and only the region of interest such as the lesion part of the subject has the structure and / or color.
  • An image having a feature in which the contrast is enhanced and the lesion is conspicuous is obtained.
  • the attention area of the image has a more enhanced structure and / or color contrast than the unprocessed white light image, the form of the attention area can be observed in detail, and the attention area can be effectively observed. Can be emphasized.
  • the light source irradiates excitation light that excites a fluorescent substance included in the specific region as the special light
  • the special light image generation unit captures fluorescence from the fluorescent substance to capture fluorescence.
  • An image may be generated as the special light image.
  • the extraction unit may extract a region having a gradation value or a predetermined hue equal to or greater than a predetermined threshold as the specific region. In this way, a specific area can be extracted with a simple process.
  • the above invention further includes an enhancement level setting unit that sets the degree of enhancement of the specific region by the enhancement processing unit based on the gradation value or hue of the specific region extracted by the extraction unit. May be. By doing in this way, a specific area can be emphasized appropriately according to the degree of the difference in the color and structure of the specific area with respect to the surrounding area.
  • the light source irradiates narrow band light as the special light
  • the special light image generation unit photographs light returning from the subject by the irradiation of the narrow band light and narrow band light (NBI).
  • NBI narrow band light and narrow band light
  • An image may be generated as the special light image. In this way, the region of interest can be specified based on the difference in blood vessel density in the subject.
  • the light source irradiates excitation light that excites autofluorescence of a substance contained in the subject as the special light
  • the special light image generation unit photographs autofluorescence from the substance.
  • An autofluorescence image may be generated as the special light image. In this way, the region of interest can be identified based on the intensity distribution of autofluorescence emitted from the subject.
  • a combining unit that combines the return light image generated by the return light image generation unit with a marker indicating the specific area extracted by the extraction unit, a display unit that displays an image, A determination unit that determines an observation distance to the subject; a return light image in which the specific region is emphasized by the enhancement processing unit based on the observation distance determined by the determination unit;
  • the display may be configured to include a display switching unit that selectively displays the combined return light image on the display unit.
  • the determination unit may determine the observation distance using a gradation value of the return light image generated by the return light image generation unit, and the specific part extracted by the extraction unit The observation distance may be determined using the area of the special light image in the region. By doing in this way, observation distance can be appropriately judged only by arithmetic processing.
  • the present invention it is possible to easily recognize a region of interest such as a lesioned part existing in the observation visual field, and to perform detailed observation based on the white light image as well as the form of the region of interest.
  • FIG. 1 is an overall configuration diagram of an observation apparatus according to a first embodiment of the present invention. It is a flowchart which shows the image processing by the observation apparatus of FIG. It is a figure which shows the structure of the image processing unit with which the observation apparatus which concerns on the 2nd modification of 1st Embodiment is provided. It is a figure which shows the structure of the image processing unit with which the observation apparatus which concerns on the 3rd modification of 1st Embodiment is provided. 5 is a graph showing a function of an average of gradation values and a degree of enhancement processing used in the enhancement level setting unit of FIG. 4. 5 is a flowchart for explaining image processing by the image processing unit of FIG. 4.
  • An observation apparatus 100 is an endoscope apparatus, and as illustrated in FIG. 1, an elongated insertion portion 2 to be inserted into a body, a light source 3, and excitation light (specialized) from the light source 3.
  • An imaging unit 5 that acquires tissue image information S1 and S2, an image processing unit 6 that is disposed on the proximal end side of the insertion unit 2 and processes the image information S1 and S2 acquired by the imaging unit 5, and the image processing And a monitor (display unit) 7 for displaying an image G1 ′ processed by the unit 6.
  • the light source 3 includes a xenon lamp 31, a filter 32 that extracts excitation light and white light from the light emitted from the xenon lamp 31, and a coupling lens 33 that collects the excitation light and white light extracted by the filter 32. And.
  • the filter 32 selectively transmits light having a wavelength band of 400 nm to 740 nm corresponding to excitation light and white light. That is, in this embodiment, near infrared light (wavelength band 700 nm to 740 nm) is used as excitation light.
  • the illumination unit 4 includes a light guide fiber 41 disposed over almost the entire length of the insertion portion 2 in the longitudinal direction, and an illumination optical system 42 provided at the distal end 2a of the insertion portion 2.
  • the light guide fiber 41 guides the excitation light and white light collected by the coupling lens 33.
  • the illumination optical system 42 diffuses the excitation light and white light guided by the light guide fiber 41 and irradiates the observation target X facing the tip 2 a of the insertion portion 2.
  • the imaging unit 5 reflects the excitation light and fluorescence (signal light) out of the light collected by the objective lens 51 and the objective lens 51 that collects the light from the observation target X, and is shorter than the excitation light.
  • a dichroic mirror 52 that transmits white light having a wavelength (wavelength band of 400 nm to 700 nm, return light), and two condensings that respectively collect fluorescence reflected by the dichroic mirror 52 and white light transmitted through the dichroic mirror 52.
  • Lenses 53 and 54, an image sensor 55 such as a color CCD that captures white light collected by the condenser lens 53, and a high-sensitivity monochrome CCD that photographs fluorescence condensed by the condenser lens 54.
  • An image sensor 56 is provided.
  • reference numeral 57 denotes an excitation light cut filter that selectively transmits fluorescence (wavelength band from 760 nm to 850 nm) out of the light reflected by the dichroic mirror 52 and blocks excitation
  • the image processing unit 6 includes a white light image generation unit (return light image generation unit) 61 that generates a white light image (return light image) G 1 from the white light image information S 1 acquired by the image sensor 55, and an image sensor 56.
  • a fluorescence image generation unit (special light image generation unit) 62 that generates a fluorescence image (special light image) G2 from the acquired fluorescence image information S2, and a lesion Y from the fluorescence image G2 generated by the fluorescence image generation unit 62
  • an enhancement processing unit 64 that enhances a region in the white light image G1 corresponding to the attention region extracted by the extraction unit 63.
  • the extraction unit 63 compares the gradation value of each pixel of the fluorescent image G2 input from the fluorescent image generation unit 62 with a predetermined threshold value, and extracts a pixel having a gradation value equal to or higher than the predetermined threshold value as a region of interest. Then, the extracted pixel position P is output to the enhancement processing unit 64.
  • the enhancement processing unit 64 selects a pixel at a position corresponding to the pixel position P input from the extraction unit 63 from the white light image G1, emphasizes the color of the attention area composed of the selected pixels, and enhances the attention area.
  • the white light image G1 ′ thus obtained is output to the monitor 7.
  • the enhancement processing unit 64 performs a hemoglobin index (IHb) color enhancement process on the white light image G1.
  • the IHb color enhancement is a process for making the color of the hemoglobin index of the mucous membrane covering the surface of the living tissue that is the observation target X more red, and whiter the color at a position lower than the average.
  • the extinction coefficients of hemoglobin in the green (G) and red (R) wavelength regions are different from each other.
  • the hemoglobin index at each position of the white light image G1 is measured by calculating the ratio of the luminance level of the G signal and the R signal from the white light image information S1.
  • the lesion Y is reddish compared to the surrounding normal part. This is because, in the lesion Y, the cell activity is activated and the blood flow volume is increased.
  • the color of the lesioned part Y can be enhanced by the IHb color enhancement, and the user can observe the lesioned part Y in more detail.
  • observation apparatus 100 configured as described above.
  • a fluorescent substance that accumulates in the lesion Y is previously administered to the observation target X.
  • the insertion portion 2 is inserted into the body, and the distal end 2a of the insertion portion 2 is disposed opposite to the observation target X.
  • the observation light source X is irradiated with the excitation light and the white light from the distal end 2 a of the insertion portion 2 by operating the light source 3.
  • the fluorescent substance contained in the lesion Y is excited by excitation light, and fluorescence is emitted, and white light is reflected on the surface of the observation target X. Part of the fluorescence emitted from the observation target X and the reflected white light returns to the distal end 2 a of the insertion portion 2 and is collected by the objective lens 51.
  • FIG. 2 shows a flowchart for explaining image processing by the image processing unit 6.
  • the white light image information S1 is input to the white light image generation unit 61 to generate the white light image G1
  • the fluorescence image information S2 is input to the fluorescence image generation unit 62 to generate the fluorescence image G2. (Step S1).
  • the fluorescent image G2 is sent to the extraction unit 63, and a region of interest having a gradation value equal to or greater than a predetermined threshold is extracted (step S2).
  • the extracted position P of the attention area is sent from the extraction section 63 to the enhancement processing section 64, where the attention area in the white light image G1 is subjected to color enhancement processing (step S3).
  • the white light image G1 'in which the attention area is enhanced is displayed on the monitor 7 (step S4). If no attention area is extracted in step S2, an unprocessed white light image G1 is displayed on the monitor 7 in step S4.
  • the extraction unit 63 of the present embodiment calculates the area of the attention area from the number of pixels constituting the attention area, and determines the position P of the extracted pixel for the attention area having an area equal to or larger than a preset threshold. You may output to the emphasis process part 64. FIG. By doing in this way, the attention area of a minute area can be excluded as noise.
  • the region of interest when a region of interest such as the lesion Y exists in the visual field of the white light image G1, the region of interest is highlighted and displayed. Therefore, the user can easily visually recognize the attention area in the white light image G1 ′ displayed on the monitor 7, and can confirm the form of the attention area in detail by the white light image G1 ′.
  • the observation apparatus is a modification of the processing content of the enhancement processing unit 64 of the observation apparatus 100.
  • the enhancement processing unit 64 enhances the structure of the attention area by extracting the outline of the tissue in the attention area from the white light image G1 and enhancing the outline of the tissue in the attention area.
  • edge extraction processing such as a differential filter is used to extract the contour.
  • the enhancement processing unit 64 may perform both structure enhancement processing and color enhancement processing.
  • the enhancement processing unit 64 can execute both the structure enhancement process and the color enhancement process, an input unit (not shown) that allows the user to select an enhancement process to be applied to the white light image G1 and specify the enhancement process unit 64. It may be provided.
  • the observation apparatus is a modification of the image processing unit 6 of the observation apparatus 100, and a division unit 65 is further provided in the image processing unit 6 as shown in FIG. 3.
  • the division unit 65 receives the white light image G1 from the white light image generation unit 61 and receives the fluorescence image G2 from the fluorescence image generation unit 62. Then, the dividing unit 65 generates a divided image G2 ′ obtained by dividing the fluorescent image G2 by the white light image G1, and outputs the generated divided image G2 ′ to the extracting unit 63.
  • the extraction unit 63 uses the divided image G2 'instead of the fluorescent image G2, and extracts a region of interest from the divided image G2'.
  • the gradation value of the fluorescent image G2 depends on the observation distance between the distal end 2a of the insertion portion 2 and the observation target X. That is, even if the actual intensity of the fluorescence emitted from the observation target X is the same, the gradation value of the fluorescence image G2 becomes smaller as the observation distance is longer. The relationship between the observation distance and the gradation value is also established for the white light image G1. Therefore, the divided image in which the gradation value depending on the observation distance is removed from the fluorescent image G2 by dividing the gradation value of each pixel of the fluorescent image G2 by the gradation value of each pixel of the white light image G1. G2 ′ is obtained. In this way, there is an advantage that the attention area can be extracted more accurately by using the divided image G2 'that accurately reflects the actual fluorescence intensity rather than the fluorescence image G2.
  • the observation apparatus according to this modification is a modification of the image processing unit 6 of the observation apparatus 100, and as shown in FIG. 4, the average gradation value calculation unit 66 and the enhancement level setting unit 67 include the image processing unit 6. Is further equipped.
  • the extraction unit 63 outputs the position P of the pixel constituting the region of interest to the enhancement processing unit 64, and outputs the gradation value I of the pixel to the average gradation value calculation unit 66.
  • the average gradation value calculation unit 66 calculates the average m of the gradation values I of the pixels constituting the attention area extracted by the extraction unit 63, and uses the calculated average m of the gradation values I as the enhancement level setting unit 67. Output to.
  • the enhancement level setting unit 67 sets the degree ⁇ of enhancement processing in the enhancement processing unit 64 based on the average m of the gradation values I input from the average gradation value calculation unit 66. Specifically, the enhancement level setting unit 67 holds a function that associates the average m of the gradation values I with the enhancement processing degree ⁇ . For example, as shown in FIG. 5, this function is set such that the degree ⁇ of the enhancement process decreases as the average m of the gradation values I increases. The enhancement level setting unit 67 derives the enhancement processing degree ⁇ corresponding to the average m of the gradation values I from the function, and outputs the derived degree ⁇ to the enhancement processing unit 64.
  • the enhancement processing unit 64 enhances the region in the white light image G1 corresponding to the position P of the attention region input from the extraction unit 63 with the degree ⁇ input from the enhancement level setting unit 67. That is, even if the hemoglobin index is about the same as the average, the enhancement processing unit 64 performs the IHb color enhancement processing on the white light image G1 so that the corresponding position is further red when the degree ⁇ is high. Apply.
  • the average m of the gradation values I of the attention area is the average floor. It is calculated by the tone value calculation unit 66 (step S5). Then, the degree ⁇ of the enhancement process based on the calculated average m of the gradation values I is determined by the enhancement level setting unit 67 (step S6), and the attention of the white light image G1 is determined by the enhancement processing unit 64 with the determined degree ⁇ . The area is emphasized (step S3).
  • the attention area is more strongly emphasized when the fluorescence of the attention area is weak.
  • an attention area such as a lesion Y in the initial stage where the difference in the shape of the tissue with respect to the surrounding area is small is displayed with a sufficient emphasis on the surrounding area and is surely recognized by the user.
  • a function that associates the average m of the gradation values I with the degree ⁇ of the enhancement process may be set so that the degree ⁇ of the enhancement process increases as the average m of the gradation values I increases. .
  • This function emphasizes the region of interest more strongly when the region of interest is highly fluorescent. Thereby, there exists an advantage that a user can be made to recognize reliably the attention area
  • the observation apparatus is a modification of the image processing unit 6 of the observation apparatus 100, and a determination unit (display switching unit) 68 and a combining unit 69 are added to the image processing unit 6 as shown in FIG. 7. Furthermore, it is provided.
  • the determination unit 68 determines the observation distance between the distal end 2a of the insertion unit 2 where the objective lens 51 is disposed and the observation target X using the area of the region of interest in the fluorescent image G2. Specifically, the determination unit 68 receives the position P of the pixel constituting the attention area from the extraction unit 63, and calculates the area of the attention area in the fluorescent image G2. Here, the shorter the observation distance, the larger the area of the attention area in the fluorescent image G2. Therefore, the determination unit 68 can determine the observation distance from the area of the attention area.
  • the determining unit 68 outputs the white light image G1 input from the white light image generating unit 61 to the synthesizing unit 69 when the calculated area of the attention area is smaller than a predetermined threshold.
  • the determination unit 68 outputs the white light image G ⁇ b> 1 input from the white light image generation unit 61 to the enhancement processing unit 64 when the area of the attention area is equal to or greater than a predetermined threshold.
  • the combining section 69 creates a marker at the position of the attention area, superimposes the marker on the white light image G1, and the marker is superimposed.
  • the white light image G1 ′′ is output to the monitor 7.
  • the marker is not particularly limited, but the marker may be a filled region of interest, such as a line indicating the outline of the region of interest or an arrow indicating the location of the region of interest, Or what replaced only the attention area with the special light image etc. may be sufficient.
  • the determination unit 68 determines the area of the attention area.
  • the white light image G1 ′′ step S8 in which the marker is combined with the attention area by the combining unit 69 is displayed on the monitor 7.
  • the white light image G1 ′ in which the attention area is enhanced by the enhancement processing unit 64 is displayed on the monitor 7.
  • the white light image G1 ′′ in which the attention area is labeled with the marker is displayed on the monitor 7. This allows the user to view the field of view. Even if the attention area is small, it can be easily recognized, and after the attention area is recognized, the user brings the tip 2a of the insertion portion 2 close to the attention area so that the observation distance is sufficiently large.
  • the white light image G1 ′′ displayed on the monitor 7 is switched to the white light image G1 ′. That is, in the white light image being observed, the attention area is emphasized instead of the marker disappearing. Therefore, the user can observe the attention area in detail. That is, according to the present modification, by switching the images G1 ′ and G1 ′′ displayed on the monitor 7 according to the observation distance, it is possible to present a more useful image corresponding to the scene to the user. There is.
  • the determination unit 68 may determine the observation distance using the gradation value of the white light image G1 instead of the area of the region of interest in the fluorescent image G2. As the observation distance is shorter, the brightness of the entire white light image G1 increases. Accordingly, the determination unit 68 determines the observation distance using the gradation value of the white light image G1, and monitors the images G1 ′ and G1 ′′ that are more useful to the user as in the case where the area of the attention area is used. Can be displayed.
  • the determination unit 68 calculates the average of the gradation values of the white light image G1. Then, the determination unit 68 outputs the white light image G1 to the enhancement processing unit 64 when the average of the calculated gradation values is larger than a predetermined threshold value. On the other hand, the determination unit 68 outputs the white light image G1 to the synthesis unit 69 when the average of the gradation values is equal to or less than the predetermined threshold value.
  • combination part 69 may change the display mode of a marker according to an observation distance.
  • the combining unit 69 may increase the transparency of the marker so as to be inversely proportional to the observation distance, that is, proportional to the area of the attention area in the fluorescent image G2 or the average of the gradation values of the white light image G1. Good.
  • the marker superimposed on the white light image G1 becomes gradually transparent and disappears soon. After the marker disappears, the attention area highlighted is displayed at that position. Accordingly, there is an advantage that the two images G1 ′ and G1 ′′ can be switched without giving a sense of incongruity to the user observing the monitor 7.
  • an observation apparatus 200 according to the second embodiment of the present invention will be described with reference to FIGS. 9 and 10.
  • a configuration that is different from the observation device 100 according to the first aspect described above will be mainly described, and the configuration that is the same as that of the observation device 100 will be denoted by the same reference numerals and description thereof will be omitted.
  • the observation apparatus 200 according to the present embodiment acquires an NBI image G3 instead of the fluorescent image G2, and extracts an attention area from the NBI image G3 based on the hue H.
  • the observation apparatus 100 according to the first embodiment And is mainly different.
  • the light source 3 includes a turret 34 having three filters. These three filters cut out light of a predetermined wavelength band from the light emitted from the xenon lamp 31. Specifically, the three filters respectively select white light having a wavelength band of 400 nm to 700 nm, green narrow band light having a peak wavelength of 540 nm, and narrow blue light having a peak wavelength of 415 nm. Transparent. As the turret 34 rotates, white light, green narrow-band light, and blue narrow-band light are sequentially input to the illumination unit 4.
  • the imaging unit 5 includes a single imaging element 55 such as a color CCD that captures the light collected by the objective lens 51.
  • the imaging element 55 is irradiated with white light, green narrow-band light, and blue narrow-band light in order from the illumination optical system 42 of the illumination unit 4 to the observation target X, and thereby three types of image information, that is, white color.
  • the light image information S1, the green light image information S3, and the blue light image information S4 are acquired in order. Then, the imaging unit 5 sequentially outputs the acquired image information S1, S3, S4 to the image processing unit 6.
  • the image processing unit 6 includes a control unit 70 that stores three types of image information S1, S3, and S4 input from the image sensor 55, and green light image information S3 and blue light image information S4 stored in the control unit 70. And an NBI image generation unit 71 for generating an NBI image G3 from the image data.
  • the control unit 70 controls the motor 34a of the turret 34, and the white light image information S1 is transferred to the white light image generation unit 61 in synchronization with the light irradiated to the observation target X being switched by the rotation of the turret 34.
  • the light image information S3 and the blue light image information S4 are distributed to the NBI image generation unit 71.
  • the NBI image generation unit 71 generates a red light image from the green light image information S3, generates a green light image and a blue light image from the blue light image information S4, and generates the red light image, the green light image, and the blue light image.
  • the NBI image G3 is generated by combining the images.
  • Green narrow band light and blue narrow band light have the property of being easily absorbed by hemoglobin. Further, the blue narrow band light is reflected near the surface of the living tissue, and the green narrow band light is reflected at a relatively deep position in the living tissue. Therefore, in the green light image and the blue light image obtained by photographing the reflected light (signal light) of the blue narrow band light from the living tissue, the capillaries existing on the surface layer of the living tissue are clearly photographed. On the other hand, in a red light image obtained by photographing reflected light (signal light) of green narrow-band light from a living tissue, a thick blood vessel existing at a relatively deep position in the living tissue is clearly photographed. In the NBI image G3 in which such two-color images are superimposed, the lesioned part Y such as squamous cell carcinoma is brown.
  • the extraction unit 63 extracts a region of interest based on the hue H of the NBI image G3.
  • the hue H is one of color attributes (hue, saturation, lightness), and a color appearance (for example, red) represented by a numerical value in a range from 0 to 360 using a so-called Munsell hue ring. , Blue, yellow).
  • the extraction unit 63 calculates the hue H of each pixel of the NBI image G3, and extracts a pixel having a brown color (for example, the hue H is 5 to 35) as the attention area.
  • the insertion unit 2 is inserted into the body and the light source 3 is operated, as in the first embodiment. From the light source 3, white light, green narrow-band light, and blue narrow-band light are sequentially applied to the observation target X via the coupling lens 33, the light guide fiber 41, and the illumination optical system 42.
  • white light, green narrow-band light, and blue narrow-band light are sequentially reflected and collected by the objective lens 51.
  • White light, green narrowband light, and blue narrowband light collected by the objective lens 51 are acquired by the imaging device 55 as white light image information S1, green light image information S3, and blue light image information S4, respectively.
  • Image information S 1, S 3, S 4 acquired by the image sensor 55 is sent to the image processing unit 6.
  • the image information S1, S3, S4 is stored in the control unit 70.
  • the white light image information S1 is input to the white light image generation unit 61, and a white light image G1 is generated.
  • the green light image information S3 and the blue light image information S4 are input to the NBI image generation unit 71, and the NBI image G3 is generated.
  • the generated NBI image G3 is sent to the extraction unit 63, and a region of interest having a brown color is extracted. Thereafter, the white light image G1 'in which the region of interest is enhanced is displayed on the monitor 7 in the same manner as in steps S3 and S4 in the first embodiment.
  • the NBI image G3 is used as the special light image, and the attention area is extracted based on the hue H.
  • the user can be presented with the white light image G1 ′ in which the attention area can be easily identified and the form of the attention area can be confirmed in detail.
  • each modification described in the first embodiment can be applied as appropriate.
  • the observation apparatus 200 is a modification of the image processing unit 6 of the observation apparatus 200, and an average hue calculation unit 72 and an enhancement level setting unit 73 are further added to the image processing unit 6 as shown in FIG. Is provided.
  • the extraction unit 63 outputs the position P of the pixel constituting the attention area to the enhancement processing unit 64 and outputs the hue H of the pixel to the average hue calculation unit 72.
  • the average hue calculation unit 72 calculates the average n of the hues H of the pixels constituting the attention area extracted by the extraction unit 63. Then, the average hue calculation unit 72 outputs the calculated average n of the hues H to the enhancement level setting unit 73.
  • the enhancement level setting unit 73 sets the degree of enhancement processing ⁇ in the enhancement processing unit 64 based on the average n of hues H input from the average hue calculation unit 72. Specifically, the enhancement level setting unit 73 holds a table in which the average n of hues H and the degree of enhancement processing ⁇ are associated with each other. This table is set so that, for example, the degree of enhancement processing ⁇ increases as the average n of hues H approaches red or yellow located on both sides of the brown color in the hue circle. The enhancement level setting unit 73 derives the degree of enhancement processing ⁇ corresponding to the average n of hues H from the table, and outputs the derived degree ⁇ to the enhancement processing unit 64.
  • the enhancement processing unit 64 enhances the region in the white light image G1 corresponding to the position P of the attention region input from the extraction unit 63 with the degree ⁇ input from the enhancement level setting unit 73.
  • the average n of hues H of the attention area is calculated by the average hue calculation unit 72.
  • the enhancement level setting unit 73 determines the degree of enhancement processing ⁇ based on the calculated average n of the hue H, and the enhancement processing unit 64 enhances the attention area of the white light image G1 with the determined degree ⁇ . .
  • the enhancement processing degree ⁇ in consideration of the overall hue H of the attention area, when the hue H of the attention area is close to red or yellow, the attention area is more strongly emphasized. .
  • the peripheral region is sufficiently emphasized and displayed, and the user is surely recognized. There is an advantage that you can.
  • the table in which the average n of hue H is associated with the level of enhancement processing may be set so that the degree of enhancement processing ⁇ increases as the average n of hue H approaches brown in the hue circle.
  • This function emphasizes the attention area more strongly when the hue H of the attention area is close to brown.
  • an observation apparatus 300 according to the third embodiment of the present invention will be described with reference to FIG.
  • the configuration that is different from the observation device 100 according to the first embodiment described above will be mainly described, and the configuration that is common to the observation device 100 will be denoted by the same reference numerals and the description thereof will be omitted.
  • the observation apparatus 300 according to the present embodiment is mainly different from the observation apparatus 100 in that it acquires an autofluorescence image G4 instead of the fluorescence image G2 and extracts a region of interest from the autofluorescence image G4 based on the hue H. ing.
  • the light source 3 includes a turret 34 having three filters. These three filters cut out light of a predetermined wavelength band from the light emitted from the xenon lamp 31. Specifically, the three filters selectively transmit white light having a wavelength band of 400 nm to 700 nm, green reference light having a peak wavelength of 550 nm, and blue excitation light having a peak wavelength of 400 nm. As the turret 34 rotates, white light, reference light, and excitation light are sequentially input to the illumination unit 4.
  • the imaging unit 5 is a two-lens type that acquires the white light image information S1 and the autofluorescence image information S5 and S6 by separate optical systems. That is, the imaging unit 5 is focused by the objective lens 51 that collects the light from the observation target X, the condenser lens 53 that collects the light emitted from the objective lens 51, and the condenser lens 53. Two optical systems having an image pickup element 55 or 56 for photographing the light are provided. These two sets of optical systems are provided in parallel at the distal end of the insertion portion 2.
  • the first optical system acquires the white light image information S1 by the image sensor 55 such as a color CCD.
  • the second optical system further includes an excitation light cut filter 57 between the objective lens 51 and the condensing lens 53, and the self-fluorescence and green return light emitted from the observation target X is transmitted like a high-sensitivity monochrome CCD.
  • the self-fluorescent image information S5 and S6 are acquired by photographing with the image sensor 56.
  • the excitation light cut filter 57 selectively transmits light having a wavelength band of 500 nm to 630 nm corresponding to the autofluorescence of the observation target X and the green return light, and blocks the excitation light.
  • the imaging elements 55 and 56 are irradiated with white light, reference light, and excitation light in order from the illumination optical system 42 of the illumination unit 4 to the observation target X, so that three types of image information, that is, white light image information S1, The first autofluorescence image information S5 and the second autofluorescence image information S6 are acquired in order.
  • the image sensors 55 and 56 sequentially output the acquired image information S1, S5, and S6 to the image processing unit 6.
  • the image processing unit 6 includes a control unit 70 that stores three types of image information S1, S5, and S6 acquired by the image sensors 55 and 56, first autofluorescence image information S5 stored in the control unit 70, and And an autofluorescence image generation unit 74 that generates an autofluorescence image G4 from the second autofluorescence image information S6.
  • the control unit 70 controls the motor 34a of the turret 34, and the white light image information S1 is sent to the white light image generation unit 61 in synchronization with the light irradiated to the observation target X being switched by the rotation of the turret 34.
  • the first autofluorescence image information S5 and the second autofluorescence image information S6 are distributed to the autofluorescence image generator 74.
  • the autofluorescence image generation unit 74 generates a first autofluorescence image from the first autofluorescence image information S5, and generates a second autofluorescence image from the second autofluorescence image information S6. At this time, the autofluorescence image generation unit 74 gives pseudo red and blue colors to the first autofluorescence image, and pseudo green colors to the second autofluorescence image. Then, the autofluorescence image generation unit 74 generates a color autofluorescence image G4 by synthesizing the first autofluorescence image and the second autofluorescence image with the pseudo color. In the autofluorescence image G4, the lesion Y is displayed as a red-purple region (for example, the hue H is 300 to 350).
  • the extraction unit 63 extracts a region of interest based on the hue H of the autofluorescence image G4. Specifically, the extraction unit 63 calculates the hue H of each pixel of the autofluorescence image G4, and extracts a pixel having reddish purple (for example, the hue H is 300 to 350) as the attention area.
  • observation apparatus 300 configured as described above.
  • white light, reference light, and excitation light are sequentially applied to the observation target X as in the second embodiment. Irradiate.
  • White light is reflected on the surface of the observation target X.
  • the excitation light excites a substance contained in the observation target X, and thereby autofluorescence is emitted from the observation target X.
  • the white light condensed by the first objective lens 51 is acquired as white light image information S1 by the imaging element 55.
  • the reference light and autofluorescence collected by the second objective lens 51 are acquired by the image sensor 56 as first autofluorescence image information S5 and second autofluorescence image information S6, respectively.
  • Image information S 1, S 5, S 6 acquired by the imaging elements 55, 56 is sent to the image processing unit 6.
  • the image information S 1, S 5, S 6 is stored in the control unit 70. Then, the white light image information S1 is input to the white light image generation unit 61, and the white light image G1 is generated.
  • the first autofluorescence image information S5 and the second autofluorescence image information S6 are input to the autofluorescence image generation unit 74 to generate the autofluorescence image G4.
  • the generated autofluorescence image G4 is sent to the extraction unit 63, and a region of interest having a reddish purple color is extracted. Thereafter, the white light image G1 'in which the region of interest is enhanced is displayed on the monitor 7 in the same manner as in steps S3 and S4 in the first embodiment.
  • the attention area is extracted based on the hue H using the autofluorescence image G4 as the special light image.
  • the user can be presented with the white light image G1 ′ in which the attention area can be easily identified and the form of the attention area can be confirmed in detail.
  • the modifications described in the first embodiment and the second embodiment may be applied as appropriate.
  • observation apparatus 400 according to the fourth embodiment of the present invention will be described with reference to FIG.
  • the observation apparatus 400 according to this embodiment is a combination of the first embodiment and the second embodiment. Therefore, in the description of the present embodiment, the same reference numerals are given to the configurations common to the first embodiment and the second embodiment, and the description thereof is omitted.
  • the light source 3 includes a turret 34 having three filters as shown in FIG. These three filters cut out light of a predetermined wavelength band from the light emitted from the xenon lamp 31.
  • one of the three filters is the same as the filter 32 in the first embodiment, and selectively transmits excitation light and white light.
  • the other two filters are the same as the two filters in the second embodiment, and selectively transmit green narrow band light and blue narrow band light, respectively.
  • excitation light and white light, green narrow-band light, and blue narrow-band light are sequentially input to the illumination unit 4 in a time-sharing manner.
  • the image processing unit 6 includes both a fluorescence image generation unit 62 and an NBI image generation unit 71. Furthermore, the image processing unit 6 includes two extraction units 63 that extract a region of interest from each of the fluorescence image G2 and the NBI image G3. Similar to the extraction unit 63 in the first embodiment, the first extraction unit 63 extracts a region of interest from the fluorescent image G2 input from the fluorescent image generation unit 62 based on the gradation value. Similar to the extraction unit 63 in the second embodiment, the second extraction unit 63 extracts a region of interest based on the hue H from the NBI image G3 input from the NBI image generation unit 71.
  • the enhancement processing unit 64 compares the positions P of the two regions of interest received from each extraction unit 63, and performs an enhancement process on the regions common to these two regions of interest.
  • the fluorescent image G2 and the NBI image G3 are used as the special light image, and an area common to the two attention areas extracted from the two special light images is obtained.
  • the final focus area thereby, since the attention area like the lesioned part Y is extracted more accurately from the observation target X, the user can recognize the position of the attention area more accurately.
  • the modifications described in the first embodiment and the second embodiment may be applied as appropriate.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Endoscopes (AREA)

Abstract

被検体(X)に対して照明光と被検体(X)の特定の領域に作用する特殊光とを照射する光源(3)と、照明光の照射による被検体(X)からの戻り光を撮影して戻り光画像(G1)を生成する戻り光画像生成部(61)と、特殊光の照射による被検体(X)からの信号光を撮影して特殊光画像(G2)を生成する特殊光画像生成部(62)と、特殊光画像(G2)から特定の領域を抽出する抽出部(63)と、戻り光画像(G1)に対して、抽出された特定の領域に対応する領域において、戻り光画像情報に基づいた強調処理を施す強調処理部(64)とを備える観察装置(100)を提供する。

Description

観察装置
 本発明は、観察装置に関するものである。
 従来、特定の波長の光を用いて被検体の病変部などの注目領域を選択的に撮影し、得られた特殊光画像を用いて注目領域の位置を特定し、白色光画像内の特定された位置をマーカによって標識する観察装置が知られている(例えば、特許文献1参照。)。白色光画像に表示されたマーカによって、ユーザは、観察視野に存在する注目領域を容易に認識することができる。
特開2011-104011号公報
 ユーザが注目領域を正確に診断するためには、白色光画像によって注目領域の形態を詳細に観察する必要がある。しかしながら、特許文献1のように、注目領域に干渉する位置にマーカが表示されると、このマーカによって注目領域の詳細な観察が妨げられてしまうという問題がある。
 本発明は、上述した事情に鑑みてなされたものであって、観察視野に存在する病変部のような注目領域を容易に認識可能としつつ注目領域の形態も白色光画像に基づいた詳細な観察をすることができる観察装置を提供することを目的とする。
 上記目的を達成するため、本発明は以下の手段を提供する。
 本発明は、被検体に対して照明光および前記被検体の特定の領域に作用する前記照明光とは異なる波長帯域の特殊光を照射する光源と、該光源から前記照明光が照射されることによって前記被検体から発せられる戻り光を撮影して戻り光画像を生成する戻り光画像生成部と、前記光源から前記特殊光が照射されることによって前記被検体から発せられる信号光を撮影して特殊光画像を生成する特殊光画像生成部と、前記特殊光画像生成部によって生成された前記特殊光画像から前記特定の領域を抽出する抽出部と、前記戻り光画像生成部によって生成された前記戻り光画像に対して、前記抽出部によって抽出された前記特定の領域に対応する領域において、戻り光画像情報に基づいた強調処理を施す強調処理部とを備える観察装置を提供する。
 本発明によれば、光源から被検体に照明光が照射されることによって、被検体の形態を撮影した戻り光画像が戻り光画像生成部によって取得される。一方、光源から被検体に特殊光が照射されることによって、被検体に存在する病変部のような特定の領域を撮影した特殊光画像が特殊光画像生成部によって取得される。そして、特殊光画像内の特定の領域が抽出部によって抽出され、戻り光画像の特定の領域が強調処理部によって強調処理される。このようにユーザが注目する特定の領域が強調処理された白色光画像によって、観察視野に存在する注目領域を容易に認識可能としつつ注目領域の形態も詳細に観察することができる。
 上記発明においては、前記強調処理部が、構造および色彩のうち少なくとも一方のコントラストを強調してもよい。
 このようにすることで、被検体の正常部などの周辺領域は未処理の白色光画像の構造および/または色彩から変化せず、被検体の病変部などの注目領域のみ構造および/または色彩のコントラストが強調され、病変部が目立つような特徴を備えた画像が得られる。さらに、当該画像の注目領域は、未処理の白色光画像よりも構造および/または色彩のコントラストが強調されているため、注目領域の形態を詳細に観察することもでき、注目領域を効果的に強調することができる。
 上記発明においては、前記光源が、前記特定の領域に含まれる蛍光物質を励起する励起光を前記特殊光として照射し、前記特殊光画像生成部が、前記蛍光物質からの蛍光を撮影して蛍光画像を前記特殊光画像として生成してもよい。
 このようにすることで、蛍光物質の分布に基づいて注目領域を特定することができる。
 また、上記発明においては、前記抽出部が、所定の閾値以上の階調値または所定の色相を有する領域を前記特定の領域として抽出してもよい。
 このようにすることで、簡単な処理で特定の領域を抽出することができる。
 また、上記発明においては、前記抽出部により抽出された前記特定の領域の階調値または色相に基づいて、前記強調処理部による前記特定の領域の強調の度合いを設定する強調レベル設定部を備えてもよい。
 このようにすることで、周辺領域に対する特定の領域の色彩や構造の差異の程度に応じて特定の領域を適切に強調することができる。
 上記発明においては、前記光源が、狭帯域光を前記特殊光として照射し、前記特殊光画像生成部が、前記狭帯域光の照射によって前記被検体から戻る光を撮影して狭帯域光(NBI)画像を前記特殊光画像として生成してもよい。
 このようにすることで、被検体における血管の密度の差異に基づいて注目領域を特定することができる。
 上記発明においては、前記光源が、前記被検体に含まれる物質の自家蛍光を励起する励起光を前記特殊光として照射し、前記特殊光画像生成部が、前記物質からの自家蛍光を撮影して自家蛍光画像を前記特殊光画像として生成してもよい。
 このようにすることで、被検体から発せられる自家蛍光の強度分布に基づいて注目領域を特定することができる。
 上記発明においては、前記戻り光画像生成部によって生成された前記戻り光画像に前記抽出部によって抽出された前記特定の領域を示すマーカを合成する合成部と、画像を表示する表示部と、前記被検体までの観察距離を判断する判断部と、該判断部によって判断された観察距離に基づいて、前記強調処理部によって前記特定の領域が強調された戻り光画像および前記合成部によって前記マーカが合成された戻り光画像を択一的に前記表示部に表示させる表示切替部とを備える構成であってもよい。
 このようにすることで、被検体を離れた位置から観察しているときは、特定の領域にマーカが合成された戻り光画像が表示部に表示される。これにより、戻り光画像における特定の領域の寸法が小さくても、特定の領域の存在を確実に認識することができる。一方、被検体を近い位置から観察しているときは、特定の領域が強調処理された戻り光画像が表示部に表示される。これにより、特定の領域の形態を詳細に観察することができる。
 上記構成においては、前記判断部が、前記戻り光画像生成部によって生成された前記戻り光画像の階調値を用いて前記観察距離を判断してもよく、前記抽出部によって抽出された前記特定の領域の前記特殊光画像における面積を用いて前記観察距離を判断してもよい。
 このようにすることで、演算処理のみで観察距離を適切に判断することができる。
 本発明によれば、観察視野に存在する病変部のような注目領域を容易に認識可能としつつ注目領域の形態も白色光画像に基づいた詳細な観察をすることができるという効果を奏する。
本発明の第1の実施形態に係る観察装置の全体構成図である。 図1の観察装置による画像処理を示すフローチャートである。 第1の実施形態の第2の変形例に係る観察装置が備える画像処理ユニットの構成を示す図である。 第1の実施形態の第3の変形例に係る観察装置が備える画像処理ユニットの構成を示す図である。 図4の強調レベル設定部において用いられる、階調値の平均と強調処理の度合いとの関数を示すグラフである。 図4の画像処理ユニットによる画像処理を説明するフローチャートである。 第1の実施形態の第4の変形例に係る観察装置が備える画像処理ユニットの構成を示す図である。 図7の画像処理ユニットによる画像処理を説明するフローチャートである。 本発明の第2の実施形態に係る観察装置の全体構成図である。 第2の実施形態の変形例に係る観察装置が備える画像処理ユニットの構成を示す図である。 本発明の第3の実施形態に係る観察装置の全体構成図である。 本発明の第4の実施形態に係る観察装置の全体構成図である。
〔第1の実施形態〕
 以下に、本発明の第1の実施形態に係る観察装置100について図1から図8を参照して説明する。
 本実施形態に係る観察装置100は、内視鏡装置であって、図1に示されるように、体内に挿入される細長い挿入部2と、光源3と、該光源3からの励起光(特殊光)および白色光(照明光)を挿入部2の先端2aから観察対象(被検体)Xに向けて照射する照明ユニット4と、挿入部2の先端2aに設けられ、観察対象Xである生体組織の画像情報S1,S2を取得する撮像ユニット5と、挿入部2の基端側に配置され、撮像ユニット5によって取得された画像情報S1,S2を処理する画像処理ユニット6と、該画像処理ユニット6によって処理された画像G1’を表示するモニタ(表示部)7とを備えている。
 光源3は、キセノンランプ31と、該キセノンランプ31から発せられた光から、励起光および白色光を切り出すフィルタ32と、フィルタ32によって切り出された励起光および白色光を集光するカップリングレンズ33とを備えている。フィルタ32は、励起光および白色光に対応する400nmから740nmの波長帯域の光を選択的に透過する。すなわち、本実施形態において、近赤外光(波長帯域700nmから740nm)が励起光として用いられる。
 照明ユニット4は、挿入部2の長手方向のほぼ全長にわたって配置されたライトガイドファイバ41と、挿入部2の先端2aに設けられた照明光学系42とを備えている。ライトガイドファイバ41は、カップリングレンズ33によって集光された励起光および白色光を導光する。照明光学系42は、ライトガイドファイバ41によって導光されてきた励起光および白色光を拡散させて、挿入部2の先端2aに対向する観察対象Xに照射する。
 撮像ユニット5は、観察対象Xからの光を集光する対物レンズ51と、該対物レンズ51によって集光された光のうち、励起光および蛍光(信号光)を反射し、励起光よりも短い波長を有する白色光(波長帯域400nmから700nm、戻り光)を透過するダイクロイックミラー52と、該ダイクロイックミラー52によって反射された蛍光およびダイクロイックミラー52を透過した白色光をそれぞれ集光する2つの集光レンズ53,54と、集光レンズ53によって集光された白色光を撮影するカラーCCDのような撮像素子55と、集光レンズ54によって集光された蛍光を撮影する高感度モノクロCCDのような撮像素子56とを備えている。図中、符号57は、ダイクロイックミラー52によって反射された光のうち蛍光(波長帯域760nmから850nm)を選択的に透過し、励起光を遮断する励起光カットフィルタである。
 画像処理ユニット6は、撮像素子55によって取得された白色光画像情報S1から白色光画像(戻り光画像)G1を生成する白色光画像生成部(戻り光画像生成部)61と、撮像素子56によって取得された蛍光画像情報S2から蛍光画像(特殊光画像)G2を生成する蛍光画像生成部(特殊光画像生成部)62と、該蛍光画像生成部62によって生成された蛍光画像G2から病変部Yのような注目領域(特定領域)を抽出する抽出部63と、該抽出部63によって抽出された注目領域と対応する白色光画像G1内の領域を強調処理する強調処理部64とを備えている。
 抽出部63は、蛍光画像生成部62から入力されてくる蛍光画像G2の各画素の階調値を所定の閾値と比較し、該所定の閾値以上の階調値を有する画素を注目領域として抽出し、抽出した画素の位置Pを強調処理部64に出力する。
 強調処理部64は、抽出部63から入力された画素の位置Pと対応する位置の画素を白色光画像G1から選択し、選択した画素からなる注目領域の色彩を強調し、注目領域を強調処理した白色光画像G1’をモニタ7に出力する。
 具体的には、強調処理部64は、ヘモグロビン指数(IHb)色彩強調処理を白色光画像G1に施す。IHb色彩強調とは、観察対象Xである生体組織の表面を覆う粘膜のヘモグロビン指数が、平均よりも高い位置の色彩をより赤くし、平均よりも低い位置の色彩をより白くする処理である。ヘモグロビンの、緑(G)と赤(R)の波長領域における吸光係数は、互いに異なる。これを利用し、白色光画像G1の各位置のヘモグロビン指数は、白色光画像情報S1からG信号とR信号の輝度レベルの比を算出することによって測定される。
 病変部Yは、周囲の正常部に比べて赤味を帯びる。これは、病変部Yにおいて、細胞の活動が活発化して血流量が増大することに因る。IHb色彩強調によって、この病変部Yの色彩を強調することができ、ユーザは病変部Yをより詳細に観察することができる。
 次に、このように構成された観察装置100の作用について説明する。
 本実施形態に係る観察装置100を用いて観察対象Xである体内の生体組織を観察するには、予め、病変部Yに集積する蛍光物質を観察対象Xに投与しておく。そして、体内に挿入部2を挿入し、挿入部2の先端2aを観察対象Xに対向配置する。次に、光源3を作動させることによって、励起光および白色光を挿入部2の先端2aから観察対象Xに照射する。
 観察対象Xにおいては、病変部Yに含まれる蛍光物質が励起光によって励起されることにより蛍光が発せられるとともに、観察対象Xの表面において白色光が反射される。観察対象Xから発せられた蛍光および反射された白色光の一部は、挿入部2の先端2aに戻り、対物レンズ51によって集光される。
 対物レンズ51によって集光された光のうち、白色光はダイクロイックミラー52を透過し、集光レンズ53によって集光され、撮像素子55によって白色光画像情報S1として取得される。一方、対物レンズ51によって集光された蛍光は、ダイクロイックミラー52によって反射され、励起光カットフィルタ57によって励起光が除去された後に、集光レンズ54によって集光され、撮像素子56によって蛍光画像情報S2として取得される。各撮像素子55,56によって取得された画像情報S1,S2は、画像処理ユニット6に送られる。
 図2に、画像処理ユニット6による画像処理を説明するフローチャートを示す。
 画像処理ユニット6において、白色光画像情報S1が白色光画像生成部61に入力されて白色光画像G1が生成され、蛍光画像情報S2が蛍光画像生成部62に入力されて蛍光画像G2が生成される(ステップS1)。
 蛍光画像G2は、抽出部63に送られ、所定の閾値以上の階調値を有する注目領域が抽出される(ステップS2)。抽出された注目領域の位置Pは抽出部63から強調処理部64に送られ、該強調処理部64において白色光画像G1内の注目領域が色彩強調処理される(ステップS3)。そして、注目領域が強調処理された白色光画像G1’がモニタ7に表示される(ステップS4)。ステップS2において注目領域が抽出されなかった場合は、ステップS4において未処理の白色光画像G1がモニタ7に表示される。
 ここで、本実施形態の抽出部63は、注目領域を構成する画素の数から注目領域の面積を算出し、予め設定された閾値以上の面積を有する注目領域について、抽出した画素の位置Pを強調処理部64に出力してもよい。このようにすることで、微小な面積の注目領域をノイズとして排除することができる。
 このように、本実施形態によれば、白色光画像G1の視野に病変部Yのような注目領域が存在する場合、その注目領域が強調して表示される。したがって、ユーザは、モニタ7に表示される白色光画像G1’において、注目領域を容易に視認することができ、かつ、白色光画像G1’によって注目領域の形態を詳細に確認することができるという利点がある。
(第1の変形例)
 次に、第1の実施形態に係る観察装置100の第1の変形例について説明する。
 本変形例に係る観察装置は、観察装置100の強調処理部64の処理内容を変形したものである。
 本変形例において、強調処理部64は、白色光画像G1から注目領域の組織の輪郭を抽出し、注目領域における組織の輪郭を強調することによって、注目領域の構造を強調する。輪郭の抽出には、例えば、微分フィルタ等のエッジ抽出処理が用いられる。このように、上述した色彩強調処理に代えて構造強調処理を用いても、白色光画像G1’において、注目領域を容易に認識することができ、かつ、注目領域の形態を詳細に観察することができる。
 本変形例において、強調処理部64は、構造強調処理と色彩強調処理の両方を行ってもよい。強調処理部64が構造強調処理と色彩強調処理の両方を実行可能な場合は、白色光画像G1に適用する強調処理をユーザが選択して強調処理部64に対して指定する図示しない入力部が備えられていてもよい。
(第2の変形例)
 次に、第1の実施形態に係る観察装置100の第2の変形例について説明する。
 本変形例に係る観察装置は、観察装置100の画像処理ユニット6を変形したものであり、図3に示されるように、除算部65が画像処理ユニット6にさらに備えられている。
 除算部65は、白色光画像生成部61から白色光画像G1を受け取り、蛍光画像生成部62から蛍光画像G2を受け取る。そして、除算部65は、蛍光画像G2を白色光画像G1によって除算した除算画像G2’を生成し、生成された除算画像G2’を抽出部63に出力する。抽出部63は、蛍光画像G2に代えて除算画像G2’を用い、除算画像G2’から注目領域を抽出する。
 蛍光画像G2の階調値は、挿入部2の先端2aと観察対象Xとの間の観察距離に依存する。すなわち、観察対象Xから発せられる蛍光の実際の強度が同一であったとしても、観察距離が長いほど蛍光画像G2の階調値は小さくなる。この観察距離と階調値との関係は、白色光画像G1についても成立する。そこで、蛍光画像G2の各画素の階調値を白色光画像G1の各画素の階調値で除算することによって、蛍光画像G2から観察距離に依存した階調値の変化が除去された除算画像G2’が得られる。このようにして蛍光画像G2よりも実際の蛍光の強度を正確に反映した除算画像G2’を用いることによって、注目領域をより正確に抽出することができるという利点がある。
(第3の変形例)
 次に、第1の実施形態に係る観察装置100の第3の変形例について説明する。
 本変形例に係る観察装置は、観察装置100の画像処理ユニット6を変形したものであり、図4に示されるように、平均階調値算出部66および強調レベル設定部67が画像処理ユニット6にさらに備えられている。
 本変形例において、抽出部63は、注目領域を構成する画素の位置Pを強調処理部64に出力し、当該画素の階調値Iを平均階調値算出部66に出力する。
 平均階調値算出部66は、抽出部63によって抽出された、注目領域を構成する画素の階調値Iの平均mを算出し、算出した階調値Iの平均mを強調レベル設定部67に出力する。
 強調レベル設定部67は、平均階調値算出部66から入力された階調値Iの平均mに基づいて、強調処理部64における強調処理の度合いαを設定する。具体的には、強調レベル設定部67は、階調値Iの平均mと強調処理の度合いαとを対応付けた関数を保持している。この関数は、例えば、図5に示されるように、階調値Iの平均mが増加するにつれて強調処理の度合いαが低下するように設定されている。強調レベル設定部67は、階調値Iの平均mと対応する強調処理の度合いαを関数から導出し、導出された度合いαを強調処理部64に出力する。
 強調処理部64は、抽出部63から入力された注目領域の位置Pと対応する白色光画像G1内の領域を、強調レベル設定部67から入力された度合いαで強調処理する。すなわち、強調処理部64は、ヘモグロビン指数が平均に対して同程度であっても、度合いαが高い場合には、該当する位置をさらに赤くするように、IHb色彩強調処理を白色光画像G1に施す。
 このように構成された本変形例に係る観察装置によれば、図6に示されるように、ステップS2において注目領域が抽出されると、当該注目領域の階調値Iの平均mが平均階調値算出部66において算出される(ステップS5)。そして、算出された階調値Iの平均mに基づく強調処理の度合いαが強調レベル設定部67において決定され(ステップS6)、決定された度合いαで強調処理部64において白色光画像G1の注目領域が強調処理される(ステップS3)。
 このように、注目領域の全体的な蛍光の強度を加味して強調処理の度合いαを決定することによって、注目領域の蛍光が微弱である場合には、注目領域がより強く強調される。これにより、例えば、初期段階の病変部Yのような、周辺領域に対する組織の形態の差異が小さい注目領域であっても、周辺領域に対して十分に強調して表示し、ユーザに確実に認識させることができるという利点がある。
 また、階調値Iの平均mと強調処理の度合いαとを対応付けた関数が、階調値Iの平均mが増加するにつれて強調処理の度合いαが増加するように設定されていてもよい。この関数は、注目領域の蛍光が大きい場合には、注目領域がより強く強調される。これにより、蛍光の強度が大きい注目領域をユーザに確実に認識させることができるという利点がある。
(第4の変形例)
 次に、第1の実施形態に係る観察装置100の第4の変形例について説明する。
 本変形例に係る観察装置は、観察装置100の画像処理ユニット6を変形したものであり、図7に示されるように、判断部(表示切替部)68および合成部69が画像処理ユニット6にさらに備えられている。
 判断部68は、蛍光画像G2における注目領域の面積を用いて、対物レンズ51が配置されている挿入部2の先端2aと観察対象Xとの間の観察距離を判断する。具体的には、判断部68は、注目領域を構成する画素の位置Pを抽出部63から受け取り、蛍光画像G2における注目領域の面積を計算する。ここで、観察距離が短い程、蛍光画像G2における注目領域の面積は大きくなる。したがって、判断部68は、注目領域の面積から観察距離を判断することができる。
 判断部68は、算出された注目領域の面積が所定の閾値よりも小さいときは、白色光画像生成部61から入力された白色光画像G1を合成部69に出力する。一方、判断部68は、注目領域の面積が所定の閾値以上であるときは、白色光画像生成部61から入力された白色光画像G1を強調処理部64に出力する。
 合成部69は、判断部68から白色光画像G1および注目領域の位置Pが入力されると、注目領域の位置にマーカを作成し、該マーカを白色光画像G1に重畳し、マーカが重畳された白色光画像G1”をモニタ7に出力する。マーカは、特に限定されるものではないが、注目領域を塗りつぶしたものでもよく、注目領域の輪郭を示す線や注目領域の場所を指し示す矢印、または、注目領域のみを特殊光画像で置き換えたものなどであってもよい。
 このように構成された本変形例に係る観察装置によれば、図8に示されるように、ステップS2において注目領域が抽出されると、判断部68によって注目領域の面積が判断される。そして、注目領域の面積が所定の閾値よりも小さい場合(ステップS7のNO)、合成部69によって注目領域にマーカが合成された白色光画像G1”(ステップS8)が、モニタ7に表示される(ステップS9)。一方、注目領域の面積が所定の閾値以上である場合(ステップS7のYES)、強調処理部64によって注目領域が強調処理された白色光画像G1’が、モニタ7に表示される(ステップS4)。
 このように、注目領域を十分に離れた位置から観察しているときには、当該注目領域がマーカによって標識された白色光画像G1”が、モニタ7に表示される。これにより、ユーザは、視野に存在している注目領域を、たとえ小さくても容易に認識することができる。そして、注目領域を認識した後、ユーザが挿入部2の先端2aを注目領域に近接させることによって観察距離が十分に短くなると、モニタ7に表示されていた白色光画像G1”が白色光画像G1’に切り替わる。つまり、観察している白色光画像において、マーカが消える代わりに注目領域が強調処理される。したがって、ユーザは、注目領域を詳細に観察することができる。すなわち、本変形例によれば、観察距離に応じてモニタ7に表示される画像G1’,G1”を切り替えることによって、場面に応じたより有用な画像をユーザに対して提示することができるという利点がある。
 なお、本変形例においては、判断部68が、蛍光画像G2における注目領域の面積に代えて、白色光画像G1の階調値を用いて観察距離を判断してもよい。観察距離が短い程、白色光画像G1全体の明るさは増す。したがって、判断部68は、白色光画像G1の階調値を用いて観察距離を判断し、注目領域の面積を用いた場合と同様に、ユーザにとってより有用な画像G1’,G1”をモニタ7に表示させることができる。
 具体的には、判断部68は、白色光画像G1の階調値の平均を算出する。そして、判断部68は、算出された階調値の平均が所定の閾値よりも大きいときは、白色光画像G1を強調処理部64に出力する。一方、判断部68は、階調値の平均が所定の閾値以下のときには、白色光画像G1を合成部69に出力する。
 また、本変形例においては、合成部69が、観察距離に応じてマーカの表示態様を変化させてもよい。例えば、合成部69は、観察距離に反比例するように、すなわち、蛍光画像G2における注目領域の面積または白色光画像G1の階調値の平均に比例するように、マーカの透明度を増加させてもよい。
 このようにすることで、挿入部2の先端2aを注目領域に接近させる過程において、白色光画像G1に重畳されているマーカが次第に透明になり、やがて消失する。マーカが消失した後は、その位置に強調処理された注目領域が表示される。これにより、モニタ7を観察しているユーザに違和感を与えることなく、2つの画像G1’,G1”を切り替えることができるという利点がある。
〔第2の実施形態〕
 次に、本発明の第2の実施形態に係る観察装置200について図9および図10を参照して説明する。本実施形態の説明において、上述した第1に係る観察装置100と異なる構成について主に説明し、観察装置100と共通する構成については同一の符号を付してその説明を省略する。
 本実施形態に係る観察装置200は、蛍光画像G2に代えてNBI画像G3を取得し、NBI画像G3から色相Hに基づいて注目領域を抽出する点において、第1の実施形態に係る観察装置100と主に相違している。
 具体的には、図9に示されるように、光源3が、3つのフィルタを有するターレット34を備えている。これら3つのフィルタは、キセノンランプ31から発せられた光から所定の波長帯域の光を切り出す。具体的には、3つのフィルタは、波長帯域400nmから700nmの白色光と、ピーク波長540nmを有する波長幅の狭い緑の狭帯域光と、ピーク波長415nmを有する青の狭帯域光とをそれぞれ選択的に透過する。ターレット34が回転することによって、照明ユニット4には白色光、緑の狭帯域光および青の狭帯域光が順番に入力されるようになっている。
 撮像ユニット5は、対物レンズ51によって集光された光を撮影するカラーCCDのような単一の撮像素子55を備えている。撮像素子55は、照明ユニット4の照明光学系42から観察対象Xに白色光、緑の狭帯域光および青の狭帯域光が順番に照射されることによって、3種類の画像情報、すなわち、白色光画像情報S1、緑色光画像情報S3および青色光画像情報S4を順番に取得する。そして、撮像ユニット5は、取得された画像情報S1,S3,S4を逐次画像処理ユニット6へ出力する。
 画像処理ユニット6は、撮像素子55から入力された3種類の画像情報S1,S3,S4を記憶する制御部70と、該制御部70に記憶された緑色光画像情報S3および青色光画像情報S4からNBI画像G3を生成するNBI画像生成部71とを備えている。
 制御部70は、ターレット34のモータ34aを制御し、ターレット34の回転によって観察対象Xに照射される光が切り替わるのに同期して、白色光画像情報S1を白色光画像生成部61へ、緑色光画像情報S3および青色光画像情報S4をNBI画像生成部71へ振り分ける。
 NBI画像生成部71は、緑色光画像情報S3から赤色光画像を生成し、青色光画像情報S4から緑色光画像および青色光画像を生成し、これら赤色光画像、緑色光画像および青色光画像を合成することによってNBI画像G3を生成する。
 緑の狭帯域光および青の狭帯域光は、ヘモグロビンに吸収されやすい性質を有する。また、青の狭帯域光は生体組織の表面近傍において反射され、緑の狭帯域光は生体組織の比較的深い位置において反射される。したがって、生体組織からの青の狭帯域光の反射光(信号光)を撮影した緑色光画像および青色光画像においては、生体組織の表層に存在する毛細血管が鮮明に撮影される。一方、生体組織からの緑の狭帯域光の反射光(信号光)を撮影した赤色光画像においては、生体組織の比較的深い位置に存在する太い血管が鮮明に撮影される。このような2色の画像を重畳したNBI画像G3において、扁平上皮癌等の病変部Yが茶褐色を呈する。
 抽出部63は、NBI画像G3の色相Hに基づいて注目領域を抽出する。ここで、色相Hとは、色の属性(色相、彩度、明度)のひとつであり、いわゆるマンセルの色相環を用いて0から360までの範囲の数値によって表記される色の様相(例えば赤、青、黄)のことである。具体的には、抽出部63は、NBI画像G3の各画素の色相Hを算出し、茶褐色(例えば、色相Hが5から35)を有する画素を注目領域として抽出する。
 次に、このように構成された観察装置200の作用について説明する。
 本実施形態に係る観察装置200を用いて観察対象Xである体内の生体組織を観察するには、第1の実施形態と同様に、体内に挿入部2を挿入し、光源3を作動させる。光源3からは、白色光、緑の狭帯域光および青の狭帯域光が順番にカップリングレンズ33、ライトガイドファイバ41および照明光学系42を介して観察対象Xに照射される。
 観察対象Xにおいては、白色光、緑の狭帯域光および青の狭帯域光が順番に反射されて対物レンズ51によって集光される。対物レンズ51によって集光された白色光、緑の狭帯域光および青の狭帯域光は撮像素子55によって白色光画像情報S1、緑色光画像情報S3および青色光画像情報S4としてそれぞれ取得される。撮像素子55によって取得された画像情報S1,S3,S4は、画像処理ユニット6に送られる。
 画像処理ユニット6において、画像情報S1,S3,S4は制御部70に記憶される。次いで、白色光画像情報S1が白色光画像生成部61に入力されて、白色光画像G1が生成される。また、緑色光画像情報S3および青色光画像情報S4がNBI画像生成部71に入力されて、NBI画像G3が生成される。生成されたNBI画像G3は、抽出部63に送られて、茶褐色を有する注目領域が抽出される。以下、第1の実施形態におけるステップS3,S4と同様にして注目領域が強調処理された白色光画像G1’がモニタ7に表示される。
 このように、本実施形態に係る観察装置200によれば、特殊光画像としてNBI画像G3を用い、色相Hに基づいて注目領域を抽出している。このようにしても、第1の実施形態と同様に、注目領域を容易に識別でき、かつ、注目領域の形態を詳細に確認することができる白色光画像G1’をユーザに提示することができるという利点がある。
 なお、本実施形態においては、第1の実施形態において説明した各変形例を適宜適用することができる。
(変形例)
 次に、第2の実施形態に係る観察装置200の変形例について説明する。
 本変形例に係る観察装置は、観察装置200の画像処理ユニット6を変形したものであり、図10に示されるように、平均色相算出部72および強調レベル設定部73が画像処理ユニット6にさらに備えられている。
 本変形例において、抽出部63は、注目領域を構成する画素の位置Pを強調処理部64に出力し、当該画素の色相Hを平均色相算出部72に出力する。
 平均色相算出部72は、抽出部63によって抽出された注目領域を構成する画素の色相Hの平均nを算出する。そして、平均色相算出部72は、算出した色相Hの平均nを強調レベル設定部73に出力する。
 強調レベル設定部73は、平均色相算出部72から入力された色相Hの平均nに基づいて、強調処理部64における強調処理の度合いβを設定する。具体的には、強調レベル設定部73は、色相Hの平均nと強調処理の度合いβとを対応付けたテーブルを保持している。このテーブルは、例えば、色相Hの平均nが、色相環において茶褐色の両隣りに位置する赤色または黄色に近づくにつれて強調処理の度合いβが増加するように設定されている。強調レベル設定部73は、色相Hの平均nと対応する強調処理の度合いβをテーブルから導出し、導出された度合いβを強調処理部64に出力する。
 強調処理部64は、抽出部63から入力された注目領域の位置Pと対応する白色光画像G1内の領域を、強調レベル設定部73から入力された度合いβで強調処理する。
 このように構成された本変形例に係る観察装置によれば、抽出部63において注目領域が抽出されると、その注目領域の色相Hの平均nが平均色相算出部72において算出される。そして、算出された色相Hの平均nに基づく強調処理の度合いβが強調レベル設定部73において決定され、決定された度合いβで強調処理部64において白色光画像G1の注目領域が強調処理される。
 このように、注目領域の全体的な色相Hを加味して強調処理の度合いβを決定することによって、注目領域の色相Hが赤色または黄色に近い場合には、注目領域がより強く強調される。これにより、例えば、初期段階の病変部Yのような周辺領域に対する組織の形態の差異が小さい注目領域であっても、周辺領域に対して十分に強調して表示し、ユーザに確実に認識させることができるという利点がある。
 色相Hの平均nと強調処理のレベルとを対応付けたテーブルは、色相Hの平均nが、色相環において茶褐色に近づくにつれて強調処理の度合いβが増加するように設定されていてもよい。この関数は、注目領域の色相Hが茶褐色に近い場合には、注目領域がより強く強調される。これにより、血管の密度の高い注目領域をユーザに確実に認識させることができるという利点がある。
〔第3の実施形態〕
 次に、本発明の第3の実施形態に係る観察装置300について図11を参照して説明する。
 本実施形態の説明において、上述した第1の実施形態に係る観察装置100と異なる構成について主に説明し、観察装置100と共通する構成については同一の符号を付してその説明を省略する。
 本実施形態に係る観察装置300は、蛍光画像G2に代えて自家蛍光画像G4を取得し、自家蛍光画像G4から色相Hに基づいて注目領域を抽出する点において、観察装置100と主に相違している。
 具体的には、図11に示されるように、光源3が、3つのフィルタを有するターレット34を備えている。これら3つのフィルタは、キセノンランプ31から発せられた光から所定の波長帯域の光を切り出す。具体的には、3つのフィルタは、波長帯域400nmから700nmの白色光と、ピーク波長550nmを有する緑色の参照光と、ピーク波長400nmを有する青色の励起光とをそれぞれ選択的に透過する。ターレット34が回転することによって、照明ユニット4には白色光、参照光および励起光が順番に入力されるようになっている。
 撮像ユニット5は、白色光画像情報S1と自家蛍光画像情報S5,S6とを別々の光学系によって取得する2眼式である。すなわち、撮像ユニット5は、観察対象Xからの光を集光する対物レンズ51と、該対物レンズ51から出射された光を集光する集光レンズ53と、該集光レンズ53によって集光された光を撮影する撮像素子55または56とを有する光学系を2組備えている。これら2組の光学系は、挿入部2の先端部に並列に設けられている。
 第1の光学系は、カラーCCDのような撮像素子55によって白色光画像情報S1を取得する。
 第2の光学系は、対物レンズ51と集光レンズ53との間に励起光カットフィルタ57をさらに備え、観察対象Xから発せられた自家蛍光および緑色の戻り光を高感度モノクロCCDのような撮像素子56によって撮影して自家蛍光画像情報S5,S6を取得する。本実施形態において、励起光カットフィルタ57は、観察対象Xの自家蛍光と緑色の戻り光とに対応する波長帯域500nmから630nmの光を選択的に透過し、励起光を遮断する。
 撮像素子55,56は、照明ユニット4の照明光学系42から観察対象Xに白色光、参照光および励起光が順番に照射されることによって3種類の画像情報、すなわち、白色光画像情報S1、第1の自家蛍光画像情報S5および第2の自家蛍光画像情報S6を順番に取得する。そして、各撮像素子55,56は、取得された画像情報S1,S5,S6を逐次画像処理ユニット6へ出力する。
 画像処理ユニット6は、撮像素子55,56によって取得された3種類の画像情報S1,S5,S6を記憶する制御部70と、該制御部70に記憶された第1の自家蛍光画像情報S5および第2の自家蛍光画像情報S6から自家蛍光画像G4を生成する自家蛍光画像生成部74とを備えている。
 制御部70は、ターレット34のモータ34aを制御し、ターレット34の回転によって観察対象Xに照射される光が切り替わるのに同期して、白色光画像情報S1を白色光画像生成部61へ、第1の自家蛍光画像情報S5および第2の自家蛍光画像情報S6を自家蛍光画像生成部74へ振り分ける。
 自家蛍光画像生成部74は、第1の自家蛍光画像情報S5から第1の自家蛍光画像を生成し、第2の自家蛍光画像情報S6から第2の自家蛍光画像を生成する。このときに、自家蛍光画像生成部74は、第1の自家蛍光画像には擬似的に赤色および青色を付し、第2の自家蛍光画像には擬似的に緑色を付する。そして、自家蛍光画像生成部74は、擬似色が付された第1の自家蛍光画像および第2の自家蛍光画像を合成することによってカラーの自家蛍光画像G4を生成する。自家蛍光画像G4において、病変部Yは赤紫色(例えば、色相Hが300から350)の領域として表示される。
 抽出部63は、自家蛍光画像G4の色相Hに基づいて注目領域を抽出する。具体的には、抽出部63は、自家蛍光画像G4の各画素の色相Hを算出し、赤紫色(例えば、色相Hが300から350)を有する画素を注目領域として抽出する。
 次に、このように構成された観察装置300の作用について説明する。
 本実施形態に係る観察装置300を用いて観察対象Xである体内の生体組織を観察するには、第2の実施形態と同様にして白色光、参照光および励起光を順番に観察対象Xに照射する。
 白色光は、観察対象Xの表面において反射される。一方、励起光は、観察対象Xに含まれている物質を励起し、これによって観察対象Xから自家蛍光が発せられる。第1の対物レンズ51によって集光された白色光は、撮像素子55によって白色光画像情報S1として取得される。第2の対物レンズ51によって集光された参照光および自家蛍光は、撮像素子56によって第1の自家蛍光画像情報S5および第2の自家蛍光画像情報S6としてそれぞれ取得される。撮像素子55,56によって取得された画像情報S1,S5,S6は、画像処理ユニット6に送られる。
 画像処理ユニット6において、画像情報S1,S5,S6は制御部70に記憶される。そして、白色光画像情報S1が白色光画像生成部61に入力されて白色光画像G1が生成される。一方、第1の自家蛍光画像情報S5および第2の自家蛍光画像情報S6が自家蛍光画像生成部74に入力されて自家蛍光画像G4が生成される。生成された自家蛍光画像G4は、抽出部63に送られて、赤紫色を有する注目領域が抽出される。以下、第1の実施形態におけるステップS3,S4と同様にして注目領域が強調処理された白色光画像G1’がモニタ7に表示される。
 このように、本実施形態に係る観察装置300によれば、特殊光画像として自家蛍光画像G4を用い、色相Hに基づいて注目領域を抽出している。このようにしても、第1の実施形態と同様に、注目領域を容易に識別でき、かつ、注目領域の形態を詳細に確認することができる白色光画像G1’をユーザに提示することができるという利点がある。
 なお、本実施形態においては、第1の実施形態および第2の実施形態において説明した各変形例が適宜適用されてもよい。
〔第4の実施形態〕
 次に、本発明の第4の実施形態に係る観察装置400について図12を参照して説明する。
 本実施形態に係る観察装置400は、第1の実施形態および第2の実施形態を組み合わせたものである。したがって、本実施形態の説明において、第1の実施形態および第2の実施形態と共通する構成については、同一の符号を付して説明を省略する。
 光源3は、図12に示されるように、3つのフィルタを有するターレット34を備えている。これら3つのフィルタは、キセノンランプ31から発せられた光から所定の波長帯域の光を切り出す。本実施形態において3つのフィルタのうちの1つは、第1の実施形態におけるフィルタ32と同一であり、励起光および白色光を選択的に透過する。他の2つのフィルタは、第2の実施形態における2つのフィルタと同一であり、緑の狭帯域光および青の狭帯域光をそれぞれ選択的に透過する。ターレット34が回転することによって、照明ユニット4には励起光および白色光と、緑の狭帯域光と、青の狭帯域光とが順番に時分割で入力されるようになっている。
 画像処理ユニット6は、蛍光画像生成部62とNBI画像生成部71の両方を備えている。さらに、画像処理ユニット6は、蛍光画像G2およびNBI画像G3からそれぞれ注目領域を抽出する2つの抽出部63を備えている。第1の抽出部63は、第1の実施形態における抽出部63と同様に、蛍光画像生成部62から入力された蛍光画像G2から階調値に基づいて注目領域を抽出する。第2の抽出部63は、第2の実施形態における抽出部63と同様に、NBI画像生成部71から入力されたNBI画像G3から色相Hに基づいて注目領域を抽出する。
 強調処理部64は、各抽出部63から受け取った2つの注目領域の位置P同士を比較し、これら2つの注目領域に共通する領域を強調処理する。
 このように構成された本実施形態に係る観察装置400によれば、特殊光画像として蛍光画像G2およびNBI画像G3を用い、2つの特殊光画像から抽出された2つの注目領域に共通する領域を最終的な注目領域としている。これにより、観察対象Xのうち病変部Yのような注目領域がより正確に抽出されるので、ユーザに注目領域の位置をより正確に認識させることができる。
 なお、本実施形態においては、第1の実施形態および第2の実施形態において説明した各変形例が適宜適用されてもよい。
100,200,300,400 観察装置
2 挿入部
2a 先端
3 光源
31 キセノンランプ
32 フィルタ
33 カップリングレンズ
34 ターレット
4 照明ユニット
41 ライトガイドファイバ
42 照明光学系
5 撮像ユニット
51 対物レンズ
52 ダイクロイックミラー
53,54 集光レンズ
55,56 撮像素子
57 励起光カットフィルタ
6 画像処理ユニット
61 白色光画像生成部(戻り光画像生成部)
62 蛍光画像生成部(特殊光画像生成部)
63 抽出部
64 強調処理部
65 除算部
66 平均階調値算出部
67 強調レベル設定部
68 判断部(表示切替部)
69 合成部
70 制御部
71 NBI画像生成部(特殊光画像生成部)
72 平均色相算出部
73 強調レベル設定部
74 自家蛍光画像生成部(特殊光画像生成部)
G1 白色光画像(戻り光画像)
G2 蛍光画像(特殊光画像)
G2’ 除算画像
G3 NBI画像(特殊光画像)
G4 自家蛍光画像(特殊光画像)
X 観察対象
Y 病変部

Claims (12)

  1.  被検体に対して照明光および前記被検体の特定の領域に作用する前記照明光とは異なる波長帯域の特殊光を照射する光源と、
     該光源から前記照明光が照射されることによって前記被検体から発せられる戻り光を撮影して戻り光画像を生成する戻り光画像生成部と、
     前記光源から前記特殊光が照射されることによって前記被検体から発せられる信号光を撮影して特殊光画像を生成する特殊光画像生成部と、
     前記特殊光画像生成部によって生成された前記特殊光画像から前記特定の領域を抽出する抽出部と、
     前記戻り光画像生成部によって生成された前記戻り光画像に対して、前記抽出部によって抽出された前記特定の領域に対応する領域において、戻り光画像情報に基づいた強調処理を施す強調処理部とを備える観察装置。
  2.  前記強調処理部が、構造および色彩のうち少なくとも一方のコントラストを強調する請求項1に記載の観察装置。
  3.  前記光源が、前記特定の領域に含まれる蛍光物質を励起する励起光を前記特殊光として照射し、
     前記特殊光画像生成部が、前記蛍光物質からの蛍光を撮影して蛍光画像を前記特殊光画像として生成する請求項1または請求項2に記載の観察装置。
  4.  前記抽出部が、所定の閾値以上の階調値を有する領域を前記特定の領域として抽出する請求項1から請求項3のいずれかに記載の観察装置。
  5.  前記抽出部により抽出された前記特定の領域の階調値に基づいて、前記強調処理部による前記特定の領域の強調の度合いを設定する強調レベル設定部を備える請求項4に記載の観察装置。
  6.  前記光源が、狭帯域光を前記特殊光として照射し、
     前記特殊光画像生成部が、前記狭帯域光の照射によって前記被検体から戻る光を撮影して狭帯域光画像を前記特殊光画像として生成する請求項1または請求項2に記載の観察装置。
  7.  前記光源が、前記被検体に含まれる物質の自家蛍光を励起する励起光を前記特殊光として照射し、
     前記特殊光画像生成部が、前記物質からの自家蛍光を撮影して自家蛍光画像を前記特殊光画像として生成する請求項1または請求項2に記載の観察装置。
  8.  前記抽出部が、所定の色相を有する領域を前記特定の領域として抽出する請求項1、請求項2、請求項6および請求項7のいずれかに記載の観察装置。
  9.  前記抽出部によって抽出された前記特定の領域の色相に基づいて、前記強調処理部による前記領域の強調の度合いを設定する強調レベル設定部を備える請求項8に記載の観察装置。
  10.  前記戻り光画像生成部によって生成された前記戻り光画像に前記抽出部によって抽出された前記特定の領域を示すマーカを合成する合成部と、
     画像を表示する表示部と、
     前記被検体までの観察距離を判断する判断部と、
     該判断部によって判断された観察距離に基づいて、前記強調処理部によって前記特定の領域が強調された戻り光画像および前記合成部によって前記マーカが合成された戻り光画像を択一的に前記表示部に表示させる表示切替部とを備える請求項1から請求項9のいずれかに記載の観察装置。
  11.  前記判断部が、前記戻り光画像生成部によって生成された前記戻り光画像の階調値を用いて前記観察距離を判断する請求項10に記載の観察装置。
  12.  前記判断部が、前記抽出部によって抽出された前記特定の領域の前記特殊光画像における面積を用いて前記観察距離を判断する請求項10に記載の観察装置。
PCT/JP2013/081496 2012-11-30 2013-11-22 観察装置 WO2014084134A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014550160A JP6234375B2 (ja) 2012-11-30 2013-11-22 観察装置
EP13859294.4A EP2926713A4 (en) 2012-11-30 2013-11-22 OBSERVATION DEVICE
CN201380051009.9A CN104736036B (zh) 2012-11-30 2013-11-22 观察装置
US14/725,667 US20150257635A1 (en) 2012-11-30 2015-05-29 Observation apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-262498 2012-11-30
JP2012262498 2012-11-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/725,667 Continuation US20150257635A1 (en) 2012-11-30 2015-05-29 Observation apparatus

Publications (1)

Publication Number Publication Date
WO2014084134A1 true WO2014084134A1 (ja) 2014-06-05

Family

ID=50827772

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/081496 WO2014084134A1 (ja) 2012-11-30 2013-11-22 観察装置

Country Status (5)

Country Link
US (1) US20150257635A1 (ja)
EP (1) EP2926713A4 (ja)
JP (1) JP6234375B2 (ja)
CN (1) CN104736036B (ja)
WO (1) WO2014084134A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016022325A (ja) * 2014-07-24 2016-02-08 オリンパス株式会社 観察装置
WO2016080187A1 (ja) * 2014-11-18 2016-05-26 コニカミノルタ株式会社 画像処理方法、画像処理装置及びプログラム
JP2016154588A (ja) * 2015-02-23 2016-09-01 Hoya株式会社 画像処理装置
US20190110671A1 (en) * 2016-07-05 2019-04-18 Olympus Corporation Illuminating device including narrow band light sources
WO2019244248A1 (ja) * 2018-06-19 2019-12-26 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
WO2019244255A1 (ja) * 2018-06-19 2019-12-26 オリンパス株式会社 内視鏡画像処理装置および内視鏡画像処理方法
WO2020040087A1 (ja) * 2018-08-20 2020-02-27 富士フイルム株式会社 医療画像処理システム
JP2022103441A (ja) * 2018-08-20 2022-07-07 富士フイルム株式会社 医療画像処理システム、内視鏡システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6042808B2 (ja) * 2011-06-03 2016-12-14 オリンパス株式会社 蛍光観察装置および蛍光観察装置の作動方法
CN110337259B (zh) * 2017-02-24 2023-01-06 富士胶片株式会社 内窥镜系统、处理器装置及内窥镜系统的工作方法
WO2020036109A1 (ja) * 2018-08-17 2020-02-20 富士フイルム株式会社 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
WO2020037315A1 (en) * 2018-08-17 2020-02-20 Chemimage Corporation Discrimination of calculi and tissues with molecular chemical imaging
DE102019217541A1 (de) * 2019-11-13 2021-05-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Medizinische Bildgebungseinrichtung, Verfahren und Verwendung

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003260027A (ja) * 2003-02-06 2003-09-16 Olympus Optical Co Ltd 内視鏡用画像処理装置
JP2004024656A (ja) * 2002-06-27 2004-01-29 Fuji Photo Film Co Ltd 蛍光内視鏡装置
JP2006192065A (ja) * 2005-01-13 2006-07-27 Pentax Corp 画像処理装置
JP2006198106A (ja) * 2005-01-19 2006-08-03 Olympus Corp 電子内視鏡装置
JP2011104016A (ja) * 2009-11-13 2011-06-02 Olympus Corp 画像処理装置、電子機器、内視鏡システム及びプログラム
JP2011104011A (ja) 2009-11-13 2011-06-02 Olympus Corp 画像処理装置、電子機器、内視鏡システム及びプログラム
JP2011135983A (ja) * 2009-12-28 2011-07-14 Olympus Corp 画像処理装置、電子機器、プログラム及び画像処理方法
JP2011255006A (ja) * 2010-06-09 2011-12-22 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5019866B2 (ja) * 2006-12-25 2012-09-05 オリンパス株式会社 蛍光内視鏡及び蛍光内視鏡の作動方法
JP5160343B2 (ja) * 2008-08-22 2013-03-13 オリンパスメディカルシステムズ株式会社 撮像システム及び内視鏡システム
US8668636B2 (en) * 2009-09-30 2014-03-11 Fujifilm Corporation Electronic endoscope system, processor for electronic endoscope, and method of displaying vascular information
JP5435746B2 (ja) * 2011-01-24 2014-03-05 富士フイルム株式会社 内視鏡装置
CN103491850B (zh) * 2011-04-28 2016-08-17 奥林巴斯株式会社 荧光观察装置及其图像显示方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004024656A (ja) * 2002-06-27 2004-01-29 Fuji Photo Film Co Ltd 蛍光内視鏡装置
JP2003260027A (ja) * 2003-02-06 2003-09-16 Olympus Optical Co Ltd 内視鏡用画像処理装置
JP2006192065A (ja) * 2005-01-13 2006-07-27 Pentax Corp 画像処理装置
JP2006198106A (ja) * 2005-01-19 2006-08-03 Olympus Corp 電子内視鏡装置
JP2011104016A (ja) * 2009-11-13 2011-06-02 Olympus Corp 画像処理装置、電子機器、内視鏡システム及びプログラム
JP2011104011A (ja) 2009-11-13 2011-06-02 Olympus Corp 画像処理装置、電子機器、内視鏡システム及びプログラム
JP2011135983A (ja) * 2009-12-28 2011-07-14 Olympus Corp 画像処理装置、電子機器、プログラム及び画像処理方法
JP2011255006A (ja) * 2010-06-09 2011-12-22 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2926713A4

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016022325A (ja) * 2014-07-24 2016-02-08 オリンパス株式会社 観察装置
WO2016080187A1 (ja) * 2014-11-18 2016-05-26 コニカミノルタ株式会社 画像処理方法、画像処理装置及びプログラム
JPWO2016080187A1 (ja) * 2014-11-18 2017-08-24 コニカミノルタ株式会社 画像処理方法、画像処理装置及びプログラム
JP2019153341A (ja) * 2014-11-18 2019-09-12 コニカミノルタ株式会社 画像処理方法、画像生成方法、画像処理装置及びプログラム
JP2016154588A (ja) * 2015-02-23 2016-09-01 Hoya株式会社 画像処理装置
WO2016136442A1 (ja) * 2015-02-23 2016-09-01 Hoya株式会社 画像処理装置
CN106068092A (zh) * 2015-02-23 2016-11-02 Hoya株式会社 图像处理装置
EP3263006A4 (en) * 2015-02-23 2018-11-14 Hoya Corporation Image processing device
US10231600B2 (en) 2015-02-23 2019-03-19 Hoya Corporation Image processing apparatus
US20190110671A1 (en) * 2016-07-05 2019-04-18 Olympus Corporation Illuminating device including narrow band light sources
WO2019244248A1 (ja) * 2018-06-19 2019-12-26 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
WO2019244255A1 (ja) * 2018-06-19 2019-12-26 オリンパス株式会社 内視鏡画像処理装置および内視鏡画像処理方法
JPWO2019244255A1 (ja) * 2018-06-19 2021-02-18 オリンパス株式会社 内視鏡画像処理装置、内視鏡画像処理方法およびプログラム
JPWO2019244248A1 (ja) * 2018-06-19 2021-05-13 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP7045453B2 (ja) 2018-06-19 2022-03-31 オリンパス株式会社 内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラム
JP7163386B2 (ja) 2018-06-19 2022-10-31 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及び内視鏡装置の作動プログラム
US11871903B2 (en) 2018-06-19 2024-01-16 Olympus Corporation Endoscopic image processing apparatus, endoscopic image processing method, and non-transitory computer readable recording medium
WO2020040087A1 (ja) * 2018-08-20 2020-02-27 富士フイルム株式会社 医療画像処理システム
JPWO2020040087A1 (ja) * 2018-08-20 2021-08-12 富士フイルム株式会社 医療画像処理システム
JP2022103441A (ja) * 2018-08-20 2022-07-07 富士フイルム株式会社 医療画像処理システム、内視鏡システム
US11436726B2 (en) 2018-08-20 2022-09-06 Fujifilm Corporation Medical image processing system
JP7235912B2 (ja) 2018-08-20 2023-03-08 富士フイルム株式会社 医療画像処理システム、内視鏡システム

Also Published As

Publication number Publication date
CN104736036A (zh) 2015-06-24
US20150257635A1 (en) 2015-09-17
JPWO2014084134A1 (ja) 2017-01-05
EP2926713A4 (en) 2016-07-20
CN104736036B (zh) 2017-05-24
JP6234375B2 (ja) 2017-11-22
EP2926713A1 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
JP6234375B2 (ja) 観察装置
JP5911496B2 (ja) 内視鏡システム及びそのプロセッサ装置並びに内視鏡システムの作動方法
CN110325100B (zh) 内窥镜系统及其操作方法
JP5496075B2 (ja) 内視鏡診断装置
JP6005303B2 (ja) 蛍光観察内視鏡システム
JP5611892B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP5501210B2 (ja) 画像処理装置
JP5887350B2 (ja) 内視鏡システム及びその作動方法
WO2013111623A1 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP5872916B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP2019081044A (ja) 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP5222934B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
WO2010122884A1 (ja) 蛍光画像装置及び蛍光画像取得方法
JPH10201707A (ja) 内視鏡装置
JP2009039510A (ja) 撮像装置
JP2006175052A (ja) 蛍光画像撮像装置
WO2018159083A1 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
JP4202671B2 (ja) 規格化画像生成方法および装置
CN103857322B (zh) 内窥镜系统
WO2018155560A1 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
JP5611891B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP5948203B2 (ja) 内視鏡システム及びその作動方法
JP2021035549A (ja) 内視鏡システム
JP5334952B2 (ja) 画像処理装置
JP2015231576A (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13859294

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014550160

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013859294

Country of ref document: EP