WO2012070323A1 - 蛍光内視鏡装置 - Google Patents

蛍光内視鏡装置 Download PDF

Info

Publication number
WO2012070323A1
WO2012070323A1 PCT/JP2011/073476 JP2011073476W WO2012070323A1 WO 2012070323 A1 WO2012070323 A1 WO 2012070323A1 JP 2011073476 W JP2011073476 W JP 2011073476W WO 2012070323 A1 WO2012070323 A1 WO 2012070323A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
fluorescence
unit
image information
subject
Prior art date
Application number
PCT/JP2011/073476
Other languages
English (en)
French (fr)
Inventor
中村 一成
元裕 三田村
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201180055745.2A priority Critical patent/CN103220960B/zh
Publication of WO2012070323A1 publication Critical patent/WO2012070323A1/ja
Priority to US13/897,516 priority patent/US9052286B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope

Definitions

  • the present invention relates to a fluorescence endoscope apparatus.
  • a fluorescence endoscope apparatus that observes with high brightness is known (for example, see Patent Document 1).
  • This fluorescence endoscope apparatus changes the aperture and exposure time of the liquid crystal depending on whether or not the fluorescence observation is performed, and multiplies a predetermined coefficient to the image data picked up by the CCD and converted into a signal, and this is applied to the frame memory.
  • the accumulated image data up to one frame before being stored is added, stored in the frame memory, and output.
  • the fluorescence endoscope apparatus of Patent Document 1 has a disadvantage that image blur cannot be sufficiently prevented because the acquired image data is always added to the past accumulated image data.
  • image blur cannot be sufficiently prevented because the acquired image data is always added to the past accumulated image data.
  • the present invention has been made in view of such circumstances, and provides a fluorescence endoscope apparatus that can prevent image blurring in a fluorescence image while reducing the amount of noise in the fluorescence image. It is aimed.
  • One embodiment of the present invention is an illumination unit that irradiates a subject with excitation light and illumination light, and a fluorescence imaging unit that captures fluorescence generated in the subject by irradiation of excitation light from the illumination unit and acquires a fluorescence image
  • a storage unit that stores the fluorescence image acquired by the fluorescence imaging unit, a return light imaging unit that captures a return light that is returned from the subject by irradiation of illumination light from the illumination unit, and acquires a return light image;
  • An integrated image number setting unit that sets the integrated image number as the intensity of the illumination light increases, and an average image is generated by averaging the fluorescent images stored in the storage unit by the integrated image number set by the integrated image number setting unit
  • the fluorescence imaging unit when excitation light emitted from the illumination unit is irradiated onto a subject, fluorescence generated by exciting a fluorescent substance contained in the subject is captured by the fluorescence imaging unit, and a fluorescence image is obtained. To be acquired. And the acquired fluorescence image is memorize
  • the intensity of the illumination light irradiated on the subject corresponds to the intensity of the excitation light. That is, when the intensity of illumination light applied to the subject is high, the intensity of excitation light is high, and when the intensity of illumination light is low, the intensity of excitation light is low. Therefore, by extracting image information indicating the intensity of the illumination light irradiated to the subject from the return light image by the image information extraction unit, the excitation light irradiated to the subject when the fluorescent image is acquired by the fluorescence imaging unit. The strength can be estimated.
  • An average image is generated by integrating and averaging the fluorescent images stored in the storage unit by the integrated number set by the integrated number setting unit in accordance with the extracted image information.
  • the higher the intensity of the illumination light the less the accumulated number of fluorescent images when calculating the average image. Therefore, a bright fluorescent image with less noise is accumulated with a smaller number of accumulated images, and the accumulated number is larger. Image blur can be reduced.
  • the number of accumulated images is increased when the intensity of illumination light is low, dark fluorescence images that are less noticeable even when accumulated many times are accumulated with a large number of accumulated images. It can be sufficiently reduced.
  • the image extraction unit may extract an average gradation value of a plurality of pixels in the return light image as the image information.
  • the average gradation value of a plurality of pixels in the return light image is low, the distance between the illumination unit and the subject is long, so that the intensity of the excitation light applied to the subject is also low.
  • the fluorescent image acquired in this case becomes a dark fluorescent image containing a lot of noise even if a fluorescent substance is present in the subject. Therefore, the noise reduction effect is improved by setting a large number of integrated images, and a clear image is obtained. Can be obtained.
  • the distance between the illumination unit and the subject is short, so the intensity of the excitation light irradiated on the subject is also strong.
  • the fluorescent image acquired in this case is a bright fluorescent image with little noise if there is a fluorescent substance in the subject. The processing and time required can be saved.
  • the image extraction unit extracts, as the image information, an extension of a feature line that represents a portion where a gradation value of an adjacent pixel in the return light image has changed beyond a predetermined threshold value. Also good.
  • a feature line representing a portion in which the gradation value of the adjacent pixel has changed beyond a predetermined threshold in the return light image indicates a change in the shape of the subject, in particular, an undulation.
  • the illumination unit is directed in a direction in which more undulations of the subject can be seen (for example, a direction along the surface of the body cavity when the subject is a body cavity).
  • the illumination unit is directed in a direction in which the undulation of the subject can be seen less (for example, a direction toward the body cavity wall surface when the subject is a body cavity). Accordingly, there is no region within the visual field range that is far from the illumination unit, and the intensity of the excitation light that is irradiated onto the subject also increases. For this reason, if a fluorescent substance is present, a bright fluorescent image with little noise can be obtained. Therefore, image blur can be reduced by setting the cumulative number to be small. Further, by reducing the cumulative number, it is possible to save processing and time required for calculation.
  • the image information extraction unit may extract a gradation value distribution along a straight line crossing the return light image as the image information.
  • the image information extraction unit may average and extract gradation value distributions along a plurality of straight lines that cross the return light image as the image information.
  • the gradation value near the center of the return light image is the highest. Therefore, when the gradation value distribution is such that the gradation value near the center of the return light image is low, the illumination is performed in a direction along the surface of the body cavity when the subject is a body cavity, for example, when the subject is a body cavity. Since the return light image becomes dark because it is far from the illumination unit to the subject, the intensity of the excitation light applied to the subject is also reduced. In this case, by setting a large number of integrated images, the noise reduction effect is improved and a clear image can be obtained.
  • the gradation value distribution is such that the gradation value near the center of the return light image is high, for example, when the subject is a body cavity, the illumination unit is directed toward the body cavity wall, Since the return light image becomes bright because it is close to the subject from the illumination unit, the intensity of the excitation light applied to the subject also increases.
  • image blur can be reduced by setting a small number of integrated sheets.
  • by reducing the cumulative number it is possible to save processing and time required for calculation.
  • by averaging the gradation value distributions along a plurality of straight lines it is possible to more accurately determine the direction of the illuminating unit based on a wider average gradation value distribution on the return light image. it can.
  • the apparatus includes a change amount calculation unit that calculates a change amount between one fluorescence image acquired by the fluorescence imaging unit and another fluorescence image acquired before the one fluorescence image
  • the storage unit may store the fluorescence image by multiplying the one fluorescence image by a larger weighting coefficient as the amount of change calculated by the change amount calculation unit is smaller.
  • the amount of change with respect to the past fluorescent image is small, the contribution ratio in the average image can be increased by multiplying the acquired fluorescent image by a large weighting factor, and the noise reduction effect can be improved. it can.
  • the amount of change is large, it is possible to reduce the contribution rate in the average image by multiplying by a small weighting coefficient, and to reduce image blur.
  • change_quantity calculation part may calculate the sum total of the gradation value of the difference image of said one fluorescence image and said other fluorescence image as a variation
  • the total difference in gradation values for the same pixel between the two fluorescent images is small, the distance between the illumination unit and the subject is not significantly changed. Therefore, by increasing the weighting factor, the contribution ratio in the average image can be increased, a clear image can be obtained, and the noise reduction effect can be improved.
  • the sum of the differences between the gradation values for each pixel at the same position between the two fluorescent images is large, the distance between the illumination unit and the subject is greatly changed. Therefore, by reducing the weighting factor, it is possible to reduce the contribution rate in the average image and reduce the image blur.
  • change_quantity calculation part may calculate the difference between the extension of the characteristic line of the said one fluorescent image, and the extension of the characteristic line between said other fluorescent images as a variation
  • change_quantity When the difference in the extension of the characteristic line between the two fluorescent images is small, the subject is not moving greatly, and the state change between the fluorescent images is small. Therefore, by increasing the weighting factor, the contribution ratio in the average image can be increased and the noise reduction effect can be improved.
  • the difference in feature line extension between the two fluorescent images is large, the subject has moved greatly and the state change between the fluorescent images is large. Therefore, by reducing the weighting factor, it is possible to reduce the contribution rate in the average image and reduce the image blur.
  • the change amount calculation unit is characterized in that a difference between the one fluorescent image is obtained when a sum of gradation values of a difference image between the one fluorescent image and the other fluorescent image is equal to or less than a threshold value.
  • the difference between the line and the characteristic line of the other fluorescent image may be calculated as the amount of change.
  • the subject is not moved greatly between the two fluorescent images.
  • the weighting factor from the amount of movement between the feature lines in the two difference images in this state, it is possible to accurately determine the state between the images and calculate a more appropriate weighting factor.
  • the present invention it is possible to prevent the occurrence of image blur in the fluorescent image while reducing the amount of noise in the fluorescent image.
  • FIG. 1 is an overall configuration diagram showing a fluorescence endoscope apparatus according to a first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of a monotonically increasing function for setting the cumulative number in the fluorescence endoscope apparatus of FIG. 1 in which the cumulative number decreases as the average gradation value increases. It is a figure which shows the spectral transmission characteristic of the filter turret with which the fluorescence endoscope apparatus of FIG. 1 is equipped. It is a figure which shows the image process part of the fluorescence endoscope apparatus of FIG. It is a figure which shows the image process part of the fluorescence endoscope apparatus which concerns on the 2nd Embodiment of this invention.
  • the fluorescence endoscope apparatus 1 has an elongated insertion portion 2 to be inserted into the body, a light source (illumination portion) 3, excitation light and illumination light from the light source 3.
  • An illumination unit (illumination unit) 4 that irradiates the subject A from the distal end of the insertion unit 2, an imaging unit 5 that is provided at the distal end of the insertion unit 2 and acquires image information of a living tissue that is the subject A, and an insertion unit 2, a processor 6 that processes image information acquired by the imaging unit 5, and a monitor 24 that displays an image G processed by the processor 6.
  • the light source 3 includes a xenon lamp 7 that emits light in a wavelength band (400 to 740 nm) including excitation light and illumination light, and a plurality of filters 8a to 8d that are provided on the illumination optical path of the xenon lamp 7 and limit transmission wavelengths. And a coupling lens 9 that collects the excitation light and the illumination light cut out by the filters 8a to 8d.
  • the filter turret 8 is rotationally driven by a motor 10, and the motor 10 is controlled at a constant rotational speed by a timing control unit 11 described later.
  • the filter turret 8 includes four filters 8a to 8d, which are an R filter 8a, a G filter 8b, a B filter 8c, and an IR filter 8d, arranged in the circumferential direction.
  • the filter turret 8 is rotated about the central rotation axis, so that an R filter 8a, a G filter 8b, or a B filter 8c is disposed on the optical path when returning light is observed, and an IR filter 8d is disposed on the optical path when observing fluorescence. Is supposed to be placed.
  • the transmission characteristics of these R filter 8a, G filter 8b, B filter 8c and IR filter 8d are shown in FIG.
  • the R filter 8a, the G filter 8b, and the B filter 8c each transmit red, green, and blue wavelength components, and the IR filter 8d has a characteristic that transmits the excitation light component.
  • the illumination unit 4 is disposed over substantially the entire length in the longitudinal direction of the insertion portion 2, and is provided at the distal end of the insertion portion 2 and a light guide fiber 12 that guides excitation light and illumination light collected by the coupling lens 9. And an illumination optical system 13 that diffuses the excitation light and illumination light guided by the light guide fiber 12 and irradiates the subject A facing the distal end surface 2a of the insertion portion 2.
  • the imaging unit 5 includes an objective lens 14 that collects light returning from a predetermined observation range of the subject A, a liquid crystal diaphragm 15 as a diaphragm unit that restricts the amount of return light collected by the objective lens 14, A condensing lens 16 that condenses the return light limited by the liquid crystal diaphragm 15, and blocks light that is longer than the excitation wavelength out of the light collected by the condensing lens 16 so that the fluorescence component and the return light component And an imaging element 18 such as a CCD that captures fluorescence and return light transmitted through the excitation light cut filter 17.
  • the liquid crystal diaphragm 15 has a property of not transmitting light when a voltage is applied, and transmitting light when no voltage is applied.
  • the processor 6 includes a preamplifier 19 and an A / D converter 21 that amplify the image signal photoelectrically converted by the image sensor 18.
  • the image signal A / D converted by the A / D conversion unit 21 is input to the image processing unit 22 as return light image information S1 and fluorescent image information S2, and is subjected to image processing in the image processing unit 22. Yes.
  • the return light image information S1 and the average fluorescence image information S3 subjected to image processing in the image processing unit 22 are D / A converted in the D / A conversion unit 23 and output to the monitor 24.
  • the processor 6 includes a timing control unit 11 that controls the filter turret 8, the data buffer 25, and the liquid crystal diaphragm unit 15.
  • the timing control unit 11 controls the rotation of the filter turret 8, the distribution of data to the data buffer, and the degree of aperture by the liquid crystal aperture unit in synchronization.
  • the liquid crystal diaphragm is closed and dimmed when observing return light with a large amount of light, and the liquid crystal diaphragm is opened when observing fluorescence with a small amount of light, so that as much fluorescence as possible can be received.
  • the image processing unit 22 includes a data buffer 25 (hereinafter referred to as an R buffer 25a, a G buffer 25b, and a B buffer) that temporarily stores A / D converted image information S1 and S2. 25c, FL buffer 25d), an image information extraction unit 26 for extracting the average gradation value S5 of the return light image information S1 output from the R buffer 25a, the G buffer 25b, and the B buffer 25c; Based on the average gradation value S5 extracted by the image information extracting unit 26, an integrated number setting unit 27 that sets the integrated number S6 of fluorescent images, and a storage unit 28 that sequentially stores the fluorescent image information S2 output from the FL buffer. And an average image generation unit 29 that generates the average fluorescence image information S3 by averaging the fluorescence image information S4 of the cumulative number S6 stored in the storage unit 28.
  • a data buffer 25 hereinafter referred to as an R buffer 25a, a G buffer 25b, and a B buffer
  • an image information extraction unit 26 for extracting the average
  • the image information extraction unit 26 selects the return light image information S1 output from any one of the R buffer 25a, the G buffer 25b, and the B buffer 25c, and extracts the average gradation value S5. It has become.
  • the image information extraction unit 26 calculates the average gradation value S5 using, for example, the return light image information S1 ′ output from the R data buffer 25a.
  • the cumulative number setting unit 27 sets the cumulative number S6 as the average gradation value S5 calculated by the image information extraction unit 26 increases.
  • This function is obtained in advance from the relationship between the average gradation value S5 of the return light image obtained by photographing a standard sample or the like and the integrated number S6 when the average fluorescence image is obtained with high accuracy.
  • the return light image is brighter, the intensity of the excitation light is higher. Therefore, in order to reduce image blurring due to the larger number of integrated sheets S6, as shown in FIG. 2, the higher the average gradation value S5, the smaller the number of integrated sheets S6. It is a monotonically decreasing function.
  • the storage unit 28 is a ring buffer that stores the fluorescence image information S2 input from the FL buffer in time series. Then, in response to a request from the average image generation unit 29, the storage unit 28 stores the fluorescence image information S 4 for the integration number S 6 based on the integration number S 6 generated by the integration number setting unit 27. To output.
  • the average image generation unit 29 sends the integrated number S6 set by the integrated number setting unit 27 to the storage unit 28, and the accumulated number S6 minutes retroactively from the latest fluorescence image information stored in the storage unit 28.
  • the output of the fluorescence image information S4 is requested.
  • the fluorescence image information S4 for the cumulative number S6 taken out from the storage unit 28 in response to the request is accumulated, and then divided by the cumulative number S6, whereby the average fluorescent image S3 is obtained. It is to be generated.
  • the fluorescence endoscope apparatus 1 configured as described above will be described below.
  • the insertion portion 2 is inserted into the body, and the distal end surface 2a of the insertion portion 2 is set to the subject A. Make them face each other. Then, the light source 3 is activated.
  • each of the filters 8a to 8d has the transmittance characteristics shown in FIG. 3, so that the red, green, and blue illumination lights are transmitted through the R filter 8a, the G filter 8b, and the B filter 8c. Thus, it is transmitted through the IR filter 8d, and becomes excitation light in the infrared region.
  • the light that has become illumination light or excitation light is then incident on the light guide fiber 12 by the coupling lens 9. Excitation light and illumination light guided through the light guide fiber 12 and reaching the distal end of the insertion portion 2 are diffused by the illumination optical system 13 at the distal end of the insertion portion 2a and applied to the subject A.
  • the fluorescent substance contained in the subject A is excited to emit fluorescence.
  • the illumination light is irradiated onto the subject A, the illuminated illumination light is reflected on the surface of the subject A.
  • the return light of the fluorescence and illumination light returns from the subject A to the distal end surface 2 a of the insertion portion 2 and is collected by the objective lens 14.
  • the fluorescence and visible light collected by the objective lens 14 are limited by the liquid crystal diaphragm 15, then collected by the condenser lens 16, and photographed by the image sensor 18 through the excitation light cut filter 17. Therefore, either red, green, blue visible light, or infrared fluorescence is received by the image sensor 18 according to the position of the filter turret 8.
  • the image sensor 18 is driven in synchronization with the rotation of the filter turret 8 by an image sensor drive circuit (not shown), and acquires electrical signals representing the return light image and the fluorescence image, respectively.
  • the electrical signal representing the return light image and the fluorescence image acquired by the image sensor 18 is input to the preamplifier 19 of the processor 6 and amplified, and then the image signal is input to the A / D conversion unit 21, and is converted from an analog signal to a digital signal. Converted to a signal.
  • the digitized image signal is input to the R buffer 25a, the G buffer 25b, the B buffer 25c, or the FL buffer 25d in the image processing unit 22 according to the type.
  • the data buffer 25 is based on a control signal from the timing control unit 11 and is inserted into the R buffer 25a when the R filter 8a of the filter turret 8 is inserted, into the G buffer 25b when the G filter 8b is inserted, and to the B buffer when the B filter 8c is inserted.
  • the IR filter 8d is inserted into 25c, the signal is switched and input to the FL buffer 25d.
  • the return light image information S1 input to the R buffer 25a, the G buffer 25b, or the B buffer 25c is sent to the D / A converter 23 and the image information extractor 26.
  • the image information extraction unit 26 using the return light image information S1 ′ output from the R buffer 25a, the gradation values in all the pixels of the return light image are added and averaged to calculate an average gradation value S5. And output to the integrated number setting unit 27.
  • the average gradation value S5 input from the image information extracting unit 26 is applied to a function stored in advance, and the integrated number S6 is set and output to the storage unit 28.
  • the fluorescence image signal S2 input to the FL buffer 25d is stored in time series. Then, the fluorescence image information S4 stored in the storage unit 28 is output to the average image generation unit 29 by the integration number S6 input from the integration number setting unit 27.
  • the fluorescence image information S4 corresponding to the cumulative number S6 is input from the storage unit 28, and the average fluorescence image information S3 obtained by averaging the fluorescence image information S4 is input to the D / A conversion unit 23. Is output.
  • the D / A converter 23 the generated average fluorescence image information S3 and the return light image information S1 output from the R buffer 25a, the G buffer 25b, and the B buffer 25c are input. / A conversion is performed, and the return light image G1 and the average fluorescence image G2 are output to the monitor 24.
  • the return light image G1 and the average fluorescence image G2 may be arranged in parallel or may be overlapped.
  • the return light image G1 may be return light image information of the G buffer 25b or the B buffer 25c.
  • the cumulative number S6 of fluorescent images is set using the average gradation value S5 obtained by averaging the gradation values in all pixels of the return light image.
  • the illumination unit 4 and the subject A are close to each other or face each other, and the intensity of the excitation light applied to the subject A is also high. It has become. Accordingly, when the average gradation value S5 of the return light image is high, the fluorescent image information S2 having a high gradation value and a good S / N ratio is integrated over a large number of sheets by setting the cumulative number S6 small. It is possible to prevent image blurring from occurring in the average fluorescent image S3.
  • the average gradation value S5 of the return light image is low, the distance between the illumination unit 4 and the subject A is long, and the intensity of the excitation light applied to the subject A is low. Therefore, by setting a large number of integrated sheets S6, it is possible to integrate a large amount of fluorescent image information S2 having a low gradation value and a low S / N ratio, thereby reducing noise. In this case, even if a large amount of fluorescence image information S2 is accumulated, the gradation value of each fluorescence image information S2 is low, so that the possibility that image blurring remains in the average fluorescence image S3 is low.
  • the fluorescence endoscope apparatus 1 according to the present embodiment, it is possible to obtain a clear average fluorescent image S3 with less noise and less image blur, regardless of whether the average gradation value S5 of the return light image is low or high. There is an advantage that can be.
  • the image information extraction unit 26 extracts the average gradation value S5 obtained by averaging the gradation values of all the pixels of the return light image. It is also possible to extract an extension of a feature line in which the gradation value of an adjacent pixel of the light image changes beyond a predetermined threshold value.
  • the feature line can be extracted by, for example, calculating the magnitude of the change in the pixel value and estimating the gradient in the biaxial direction. In this way, the uneven boundary on the surface of the subject A can be obtained as a continuous curve, and the structural attributes of the image can be extracted.
  • the illumination unit 4 when the portion where the brightness of the image has changed beyond a predetermined threshold due to the shape change of the subject A or the irradiation angle of the subject A and the illumination unit 4 is extracted as a feature line, and the feature line has a long extension Is when the subject A has many undulations, and when the subject A is a body cavity, the illumination unit 4 is directed in a direction along the surface of the body cavity.
  • the extension of the feature line is short, the subject A has little undulation, and when the subject A is a body cavity, the illumination unit 4 is directed toward the body cavity wall surface.
  • the cumulative number S6 may be set using a function that increases the cumulative number S6. By doing in this way, the effect similar to the case where average gradation value S5 is used can be acquired by the integrated number S6 determined using the extension of the characteristic line.
  • the image information extraction unit 26 extracts the average gradation value S5 obtained by averaging the gradation values of all the pixels of the return light image.
  • a gradation value distribution (profile) along a straight line that crosses the optical image may be extracted.
  • the gradation value distribution along the straight line crossing the return light image is, for example, when the gradation value of all pixels is represented by the gradation value intensity on the vertical axis and the position information on the horizontal axis. Can be determined.
  • the gradation value near the center of the return light image is generally the highest. Therefore, when the gradation value near the center of the return light image is low, the illumination unit 4 is directed in the direction along the surface of the body cavity when the subject A is a body cavity. Since the distance from the subject to the subject A becomes far, the return light image becomes dark. On the other hand, when the gradation value near the center of the return light image is high, the illumination unit 4 is directed in the direction toward the body cavity wall surface when the subject A is a body cavity. Since it is close to the subject A, the return light image becomes brighter.
  • the integrated number setting unit 27 sets the integrated number S6 using a function in which the integrated number S6 increases as the gradation value distribution near the center of the return light image extracted by the image information extraction unit 26 decreases. It may be. Here, as a straight line crossing the return light image, a single straight line or a plurality of different straight lines may be used. By extracting an average value of gradation value distributions along a plurality of straight lines, the cumulative number S6 can be set by an average gradation value distribution in a wider range on the image. Further, the gradation value distribution for each pixel column may be averaged for all the pixel columns.
  • the image information extraction unit 26 when setting the cumulative number S6, extracts the average gradation value S5 obtained by averaging the gradation values of all the pixels of the return light image. After extracting the average gradation value S5, an extension of a feature line in which the gradation value of the return light image changes discontinuously or a gradation value distribution along a straight line crossing the return light image is extracted, and an integrated number setting unit 27, the integrated number S6 may be set according to whether the illumination unit 4 is directed in the direction along the body cavity surface or the illumination unit 4 is directed in the direction toward the body cavity wall surface.
  • the function as shown in FIG. 2 is exemplified when calculating the cumulative number S6 of fluorescent images. Instead, any other function is adopted as long as it is a monotonically decreasing function. May be. Further, a calculation formula may be stored as a function, or a map showing the correspondence between the integrated number S6 and the average gradation value S5 may be stored, and the integrated number S6 may be set. .
  • the image information extraction unit 26 when the image information extraction unit 26 extracts the image information of the return light image, the image information may be extracted using pixels whose gradation value is equal to or less than a threshold value. By doing so, it is not necessary to consider saturated pixels, and it is possible to prevent the average gradation value S5 from becoming high.
  • the integrated number setting unit 27 uses the function to determine the integrated number S6 of fluorescent images, the slope of the function is multiplied by n (n is a natural number) and the integrated number S6 is adjusted. You may decide.
  • fluorescence endoscope apparatus according to the second embodiment of the present invention will be described below.
  • portions having the same configuration as those of the fluorescence endoscope apparatus 1 according to the first embodiment described above are denoted by the same reference numerals and description thereof is omitted.
  • the fluorescence observation apparatus according to the present embodiment is different from the fluorescence observation apparatus 1 according to the first embodiment in an image processing unit 31, as shown in FIG.
  • a change amount calculation unit 32 and an image storage unit 33 are provided between the FL buffer 25 d and the storage unit 28.
  • the change amount calculation unit 32 outputs the latest fluorescence image information S2 input from the FL buffer 25d to the image storage unit 33, extracts the fluorescence image information S7 stored in the past from the image storage unit 33, and updates the latest fluorescence image information S7.
  • a difference in gradation value from the fluorescence image information S2 is calculated, a weighting coefficient is extracted from a previously stored table, and the latest fluorescence image information S2 is multiplied by the weighting coefficient.
  • the change amount calculation unit 32 is set so that the weighting factor decreases as the sum of the differences in the gradation values between the fluorescence image information S7 stored in the past and the latest fluorescence image information S2 increases. That is, when the difference between the gradation values of the difference images is large, the subject A has moved greatly, and thus image blurring occurs when integrating. Therefore, by reducing the weighting factor, it is possible to reduce the contribution rate in the average fluorescence image and reduce the image blur. On the other hand, when the difference between the gradation values of the difference images is small, the subject A does not move greatly, so increasing the weighting factor increases the contribution ratio in the average fluorescence image, and makes the image clearer and reduces noise. The effect can be improved.
  • the storage unit 28 extracts the fluorescence image information S8 multiplied by the stored weighting coefficient by the accumulated number S6 output by the accumulated number setting unit 27, and generates the average image generation of the fluorescence image information S4 for the accumulated number S6.
  • the data is output to the unit 29.
  • the table stored in advance in the image storage unit 33 is obtained in advance from the relationship between the gradation value difference of the difference image and the weighting coefficient. Since the subject A moves more greatly as the difference between the difference images is larger, the weight coefficient becomes smaller as the difference between the difference images is larger in order to reduce image blurring due to the larger contribution ratio of the average fluorescence image. ing.
  • the fluorescence image information S7 stored in the past is extracted from the image storage unit 33 and the sum of the gradation value differences from the latest fluorescence image information S2 is calculated.
  • the difference between the extension of the feature line of the image information S7 and the extension of the feature line of the latest fluorescence image information S2 may be calculated.
  • the change amount calculation unit 32 is such that when the change amount calculation unit 32 has a total of gradation values of difference images between the past fluorescence image information S7 and the latest fluorescence image information S2 equal to or less than a threshold value, The amount of movement of the feature line between the fluorescent images may be calculated, a weighting factor may be extracted from a prestored table, and the latest fluorescent image information may be multiplied by the weighting factor. By doing in this way, an image with much noise can be excluded from integration targets, and an accurate average fluorescence image can be calculated.
  • the fluorescence image when the weighting factor is 0, the fluorescence image may be output to the D / A converter without being multiplied. By doing so, it is possible to prevent image blurring that occurs when the average fluorescence image is integrated, for example, when the subject moves greatly.
  • the generated average fluorescence image G2 is generated.
  • the average fluorescence image information S3 may be adjusted by the average image generation unit 29 so that the gradation value of m becomes m (m is a natural number). By doing so, the brightness of the generated average fluorescent image G2 is unified, and high-accuracy observation can be performed.
  • the return light image information S1 ′ from the R buffer 25a has been described as an example in the image information extraction unit 26.
  • the present invention is not limited to this and returns from other buffers.
  • Optical image information may be applied.
  • a Subject S5 Image information (average gradation value) 1 Fluorescence observation device 3 Light source (illumination unit) 4 Lighting unit (lighting unit) 18 Image sensor (return light imaging unit, fluorescence imaging unit) 26 Image information extraction unit 27 Integrated number setting unit 28 Storage unit 29 Average image generation unit 32 Change amount calculation unit

Abstract

蛍光画像におけるノイズ量を低減しながら蛍光画像における像ブレの発生を防止する。被写体(A)に対し、励起光および照明光を照射する照明部(3)と、照明部(3)からの励起光の照射により被写体(A)において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部(18)と、取得された蛍光画像を記憶する記憶部と、照明部(3)からの照明光の照射により被写体(A)から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部(18)と、取得された戻り光画像から、被写体(A)に照射された照明光の強度を表す画像情報を抽出する画像情報抽出部と、抽出された画像情報に基づいて照明光の強度が高いほど少なく積算枚数を設定する積算枚数設定部と、設定された積算枚数分だけ記憶部に記憶されている蛍光画像を平均して平均画像を生成する平均画像生成部とを備える蛍光内視鏡装置(1)を提供する。

Description

蛍光内視鏡装置
 本発明は、蛍光内視鏡装置に関するものである。
 従来、蛍光物質励起用の波長帯域と通常観察用の波長帯域の光が回転フィルタによって切り替えられながら照射されることにより、観察対象の蛍光画像と反射光画像とを取得し、双方の画像を適当な明るさで観察する蛍光内視鏡装置が知られている(例えば、特許文献1参照。)。この蛍光内視鏡装置は、蛍光観察か否かに応じて液晶の絞りおよび露光時間を変更し、CCDにより撮像され信号変換された画像データに予め設定された係数をかけ、これをフレームメモリに格納されている1フレーム前までの累積画像データに加算し、フレームメモリに格納するとともに出力する。
特開2005-261974号公報
 しかしながら、特許文献1の蛍光内視鏡装置は、取得された画像データを過去の積算画像データに常に足し合わせるため、像ブレを十分に防止することができないという不都合がある。すなわち、明るい蛍光画像が得られた場合には、それが加算されて取得された画像データに明るい蛍光画像の影響が大きく残るので、被写体が移動していると像ブレが生じ、鮮明な蛍光画像を得ることができなかった。
 本発明は、このような事情に鑑みてなされたものであって、蛍光画像におけるノイズ量を低減しながら蛍光画像における像ブレの発生を防止することができる蛍光内視鏡装置を提供することを目的としている。
 上記目的を達成するために、本発明は以下の手段を提供する。
 本発明の一態様は、被写体に対し、励起光および照明光を照射する照明部と、該照明部からの励起光の照射により前記被写体において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部と、該蛍光撮像部により取得された蛍光画像を記憶する記憶部と、前記照明部からの照明光の照射により前記被写体から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部と、該戻り光撮像部により取得された戻り光画像から、被写体に照射された照明光の強度を表す画像情報を抽出する画像情報抽出部と、該画像情報抽出部により抽出された画像情報に基づいて照明光の強度が高いほど少なく積算枚数を設定する積算枚数設定部と、該積算枚数設定部により設定された積算枚数分だけ前記記憶部に記憶されている蛍光画像を平均して平均画像を生成する平均画像生成部とを備える蛍光内視鏡装置である。
 本発明の一態様によれば、照明部から発せられた励起光が被写体に照射されると、被写体内に含まれる蛍光物質が励起されて発生した蛍光が蛍光撮像部によって撮影され、蛍光画像が取得される。そして、取得された蛍光画像は順次記憶部により記憶される。
 また、照明部から発せられた照明光が被写体に照射されると、被写体から戻る戻り光が戻り光撮像部によって撮影され、戻り光画像が取得される。そして、取得された戻り光画像から被写体に照射された照明光の強度を表す画像情報が画像情報抽出部により抽出される。
 同一の照明部から励起光および照明光を同一の被写体に照射するので、被写体に照射される照明光の強度と励起光の強度とは対応している。つまり、被写体に照射される照明光の強度が高いと励起光の強度も強く、照明光の強度が低いと励起光の強度も弱い。そこで、画像情報抽出部により戻り光画像から被写体に照射された照明光の強度を表す画像情報を抽出することにより、蛍光撮像部により蛍光画像が取得された際に被写体に照射された励起光の強度を推測することができる。
 そして、抽出された画像情報に応じて積算枚数設定部により設定された積算枚数分だけ記憶部に記憶された蛍光画像が積算されて平均されることにより、平均画像が生成される。
 この場合において、照明光の強度が高いほど平均画像を算出する際の蛍光画像の積算枚数が低減させられるので、ノイズの少ない明るい蛍光画像は少ない積算枚数で積算され、積算枚数が多いために起こる像ブレを低減することができる。一方、照明光の強度が低いときに積算枚数が増加させられるので、多く積算されても像ブレが目立ちにくい暗い蛍光画像は多くの積算枚数で積算され、取得される平均画像に含まれるノイズを十分に低減することができる。
 上記態様においては、前記画像抽出部が前記戻り光画像内の複数の画素の平均階調値を前記画像情報として抽出してもよい。
 戻り光画像内の複数の画素の平均階調値が低いときは、照明部と被写体との距離が遠い場合であるので、被写体に照射される励起光の強度も低い。この場合に取得される蛍光画像は、被写体内に蛍光物質が存在していてもノイズを多く含む暗い蛍光画像となるため、積算枚数を多く設定することでノイズ低減効果を向上し、鮮明な画像を得ることができる。
 一方、戻り光画像内の複数の画素の平均階調値が高いときは、照明部と被写体との距離が近い場合であるので、被写体に照射される励起光の強度も強い。この場合に取得される蛍光画像は、被写体内に蛍光物質が存在していればノイズの少ない明るい蛍光画像となるため、積算枚数を少なく設定することで像ブレを低減することができ、演算に要する処理や時間を節約することができる。
 また、上記態様においては、前記画像抽出部が前記戻り光画像中の隣接画素の階調値が所定の閾値を超えて変化している箇所を表す特徴線の延長を前記画像情報として抽出してもよい。
 戻り光画像において隣接画素の階調値が所定の閾値を超えて変化している箇所を表す特徴線は、被写体の形状変化、特に、起伏を示している。特徴線の延長が長いときは、照明部を被写体の起伏がより多く見える方向(例えば、被写体が体腔である場合に体腔表面に沿う方向)に向けている状態である。したがって、視野範囲内に照明部からの距離が遠い領域が多く存在し、被写体に照射される励起光の強度も低くなる。このため、蛍光物質が存在していても暗い蛍光画像となるので、積算枚数を多く設定することでノイズ低減効果が上がり、鮮明な画像を得ることができる。
 一方、特徴線の延長が短いときは、照明部を被写体の起伏のより少なく見える方向(例えば、被写体が体腔である場合に体腔壁面に向かう方向)に向けている状態である。したがって、視野範囲内に照明部からの距離が遠い領域が存在せず、被写体に照射される励起光の強度も高くなる。このため、蛍光物質が存在していればノイズの少ない明るい蛍光画像が得られるので、積算枚数を少なく設定することで像ブレを低減することができる。また、積算枚数を少なくすることで、演算に要する処理や時間を節約することができる。
 また、上記態様においては、前記画像情報抽出部が前記戻り光画像を横切る直線に沿う階調値分布を前記画像情報として抽出してもよい。
 また、上記態様においては、前記画像情報抽出部が、前記戻り光画像を横切る複数の直線に沿う階調値分布を平均して前記画像情報として抽出してもよい。
 照明部を平坦な被写体に対向させているときには戻り光画像の中心付近の階調値が最も高くなるのが一般的である。したがって、戻り光画像の中心付近の階調値が低くなるような階調値分布となるときは、中央部分が遠くなる被写体、例えば、被写体が体腔である場合には体腔表面に沿う方向に照明部を向けた状態であり、照明部から被写体まで遠いため戻り光画像が暗くなるので、被写体に照射される励起光の強度も低くなる。この場合には積算枚数を多く設定することでノイズ低減効果が上がり、鮮明な画像を得ることができる。
 一方、戻り光画像の中心付近の階調値が高くなるような階調値分布となるときは、例えば、被写体が体腔である場合に体腔壁面に向かう方向に照明部を向けた状態であり、照明部から被写体まで近いため戻り光画像が明るくなるので、被写体に照射される励起光の強度も高くなる。この場合には、積算枚数を少なく設定することで像ブレを低減することができる。また、積算枚数を少なくすることで、演算に要する処理や時間を節約することができる。
 この場合に、複数の直線に沿う階調値分布を平均することにより、戻り光画像上における、より広い範囲の平均的な階調値分布によって、より正確に照明部の方向を判定することができる。
 また、上記態様においては、前記蛍光撮像部により取得された一の蛍光画像と該一の蛍光画像より以前に取得された他の蛍光画像との変化量を算出する変化量算出部を備え、前記記憶部が前記変化量算出部により算出された変化量が少ないほど、大きな重み係数を前記一の蛍光画像に乗算して前記蛍光画像を記憶してもよい。
 このようにすることで、過去の蛍光画像に対する変化量が小さいときは、取得された蛍光画像に大きな重み係数を乗算することで平均画像内における寄与率を高め、ノイズ低減効果を向上することができる。
 一方、変化量が大きいときは、小さな重み係数を乗算することで平均画像内における寄与率を低くし、像ブレを低減することができる。
 また、上記態様においては、前記変化量算出部が、前記一の蛍光画像と前記他の蛍光画像との差分画像の階調値の合計を変化量として算出してもよい。
 2枚の蛍光画像間の同一画素毎の階調値の差の合計が小さいときは、照明部と被写体との距離が大きく変化していない状態である。したがって、重み係数を大きくすることで平均画像内における寄与率を高め、鮮明な画像が得られるとともに、ノイズ低減効果を向上することができる。
 一方、2枚の蛍光画像間の同一位置における画素毎の階調値の差の合計が大きいときは、照明部と被写体との距離が大きく変化した状態である。したがって、重み係数を小さくすることで平均画像内における寄与率を少なくし、像ブレを低減させることができる。
 また、上記態様においては、前記変化量算出部が、前記一の蛍光画像の特徴線の延長と前記他の蛍光画像間の特徴線の延長との差を変化量として算出してもよい。
 2枚の蛍光画像間の特徴線の延長の差が小さいときは、被写体が大きく移動していない状態であり、蛍光画像間の状態変化が小さい。したがって、重み係数を大きくすることで平均画像内における寄与率を高め、ノイズ低減効果を向上することができる。
 一方、2枚の蛍光画像間の特徴線の延長の差が大きいときは、被写体が大きく移動した状態であり、蛍光画像間の状態変化が大きい。したがって、重み係数を小さくすることで平均画像内における寄与率を少なくし、像ブレを低減させることができる。
 また、上記態様においては、前記変化量算出部が、前記一の蛍光画像と前記他の蛍光画像間との差分画像の階調値の合計が閾値以下のとき、前記一の蛍光画像間の特徴線と前記他の蛍光画像の特徴線との差を変化量として算出してもよい。
 前記一の蛍光画像と前記他の蛍光画像間の差分画像の階調値の合計が閾値以下のときは、前記2枚の蛍光画像間において被写体が大きく移動していない状態である。さらに、この状態での2枚の差分画像における特徴線間の移動量から重み係数を算出することで、画像間の状態を精度良く判断し、より適切な重み係数を算出することができる。 
 本発明によれば、蛍光画像におけるノイズ量を低減しながら蛍光画像における像ブレの発生を防止することができるという効果を奏する。
本発明の第1の実施形態に係る蛍光内視鏡装置を示す全体構成図である。 図1の蛍光内視鏡装置において積算枚数を設定するための、平均階調値が大きいほど積算枚数が少なくなる単調増加関数の一例を示す図である。 図1の蛍光内視鏡装置に備えられるフィルタターレットの分光透過特性を示す図である。 図1の蛍光内視鏡装置の画像処理部を示す図である。 本発明の第2の実施形態に係る蛍光内視鏡装置の画像処理部を示す図である。
 本発明の第1の実施形態に係る蛍光内視鏡装置1について、図面を参照して以下に説明する。
 本実施形態に係る蛍光内視鏡装置は、図1に示されるように、体内に挿入される細長い挿入部2と、光源(照明部)3と、該光源3からの励起光および照明光を挿入部2の先端から被写体Aに向けて照射する照明ユニット(照明部)4と、挿入部2の先端に設けられ、被写体Aである生体組織の画像情報を取得する撮像ユニット5と、挿入部2の基端側に配置され、撮像ユニット5により取得された画像情報を処理するプロセッサ6と、該プロセッサ6により処理された画像Gを表示するモニタ24とを備えている。
 光源3は、励起光および照明光を含む波長帯域(400~740nm)の光を放射するキセノンランプ7と、該キセノンランプ7の照明光路上に設けられ透過波長を制限する複数のフィルタ8a~8dを備えるフィルタターレット8と、各フィルタ8a~8dにより切り出された励起光および照明光を集光するカップリングレンズ9とを備えている。フィルタターレット8は、モータ10により回転駆動され、該モータ10は後述するタイミング制御部11により一定の回転速度に制御されるようになっている。
 フィルタターレット8は、Rフィルタ8a,Gフィルタ8b,Bフィルタ8cおよびIRフィルタ8dの4つのフィルタ8a~8dを周方向に配列して備えている。このフィルタターレット8は中心の回転軸回りに回転させられることで、戻り光観察時には光路上に、Rフィルタ8a、Gフィルタ8bまたはBフィルタ8cを配置し、蛍光観察時には、光路上にIRフィルタ8dを配置するようになっている。
 これらRフィルタ8a、Gフィルタ8b、Bフィルタ8cおよびIRフィルタ8dの透過特性を図3に示す。Rフィルタ8a、Gフィルタ8b、Bフィルタ8cは、それぞれ赤、緑、青の波長成分を透過し、IRフィルタ8dは、励起光成分を透過する特性を有する。
 照明ユニット4は、挿入部2の長手方向のほぼ全長にわたって配置され、カップリングレンズ9によって集光された励起光および照明光を導光するライトガイドファイバ12と、挿入部2の先端に設けられ、ライトガイドファイバ12によって導光されてきた励起光および照明光を拡散させて、挿入部2の先端面2aに対向する被写体Aに照射する照明光学系13とを備えている。
 撮像ユニット5は、被写体Aの所定の観察範囲から戻る光を集光する対物レンズ14と、該対物レンズ14により集光された戻り光の光量を制限する絞り手段としての液晶絞り部15と、該液晶絞り部15によって制限された戻り光を集光する集光レンズ16と、該集光レンズ16によって集光された光のうち、励起波長以上の光を遮断し、蛍光成分と戻り光成分を透過する励起光カットフィルタ17と、該励起光カットフィルタ17を透過した蛍光および戻り光を撮影するCCDのような撮像素子18とを備えている。液晶絞り部15は、電圧を印加した状態では光を通さず、電圧を印加しない状態では光を透過するという性質を有する。
 プロセッサ6は、撮像素子18で光電変換された画像信号を増幅するプリアンプ19およびA/D変換部21を有している。A/D変換部21によりA/D変換された画像信号は、戻り光画像情報S1および蛍光画像情報S2として画像処理部22に入力され、該画像処理部22において画像処理されるようになっている。画像処理部22において画像処理された戻り光画像情報S1および平均蛍光画像情報S3は、D/A変換部23においてD/A変換され、モニタ24に出力されるようになっている。
 また、このプロセッサ6は、フィルタターレット8、データバッファ25および液晶絞り部15を制御するタイミング制御部11を備えている。タイミング制御部11はフィルタターレット8の回転とデータバッファへのデータの振り分けおよび液晶絞り部による絞りの度合を同期して制御するようになっている。すなわち、光量の大きな戻り光観察時には液晶絞り部を閉じて減光し、光量の小さな蛍光観察時には液晶絞り部を開いて、できるだけ多くの蛍光を受光できるように制御される。
 図4に示されるように、画像処理部22は、A/D変換された画像情報S1,S2を一時的に記憶するデータバッファ25(以下、R用バッファ25a、G用バッファ25b、B用バッファ25c、FL用バッファ25dという。)と、R用バッファ25a、G用バッファ25b、B用バッファ25cから出力された戻り光画像情報S1の平均階調値S5を抽出する画像情報抽出部26と、画像情報抽出部26により抽出した平均階調値S5に基づいて蛍光画像の積算枚数S6を設定する積算枚数設定部27と、FL用バッファから出力された蛍光画像情報S2を順次記憶する記憶部28と、記憶部28に記憶された積算枚数S6分の蛍光画像情報S4を平均して平均蛍光画像情報S3を生成する平均画像生成部29とを備えている。
 また、画像情報抽出部26は、R用バッファ25a、G用バッファ25b、B用バッファ25cの内のいずれかから出力された戻り光画像情報S1を選択して平均階調値S5を抽出するようになっている。本実施形態においては、画像情報抽出部26は、例えば、R用データバッファ25aから出力された戻り光画像情報S1’を用いて平均階調値S5を算出するようになっている。
 ここで、本実施形態においては、積算枚数設定部27は、図2に示されるように、画像情報抽出部26において算出された平均階調値S5が高いほど少なく積算枚数S6を設定するような関数を記憶している。
 この関数は、標準試料等を撮影して得られた戻り光画像の平均階調値S5と、平均蛍光画像が精度よく得られるときの積算枚数S6との関係から予め得られたものである。戻り光画像が明るいほど励起光の強度が高いので、積算枚数S6が多いことによる像ブレを軽減するために、図2に示されるように、平均階調値S5が高いほど積算枚数S6が少なくなる単調減少関数となっている。
 また、記憶部28は、FL用バッファから入力されてきた蛍光画像情報S2を時系列に記憶するリングバッファである。そして、記憶部28は、平均画像生成部29からの要求に応じて、積算枚数設定部27により生成された積算枚数S6に基づいて、積算枚数S6分の蛍光画像情報S4を平均画像生成部29に出力するようになっている。
 平均画像生成部29は、積算枚数設定部27により設定された積算枚数S6を記憶部28に送り、記憶部28に記憶されている蛍光画像情報の内、最新のものから遡って積算枚数S6分の蛍光画像情報S4の出力を要求するようになっている。そして、平均画像生成部29においては、要求に応じて記憶部28から取り出された積算枚数S6分の蛍光画像情報S4が積算された後、積算枚数S6によって除算されることにより平均蛍光画像S3が生成されるようになっている。
 このように構成された本実施形態に係る蛍光内視鏡装置1の作用について以下に説明する。
 本実施形態に係る蛍光内視鏡装置1を用いて被写体Aである体内の生体組織の観察を行うには、体内に挿入部2を挿入して、挿入部2の先端面2aを被写体Aに対向させる。そして、光源3を作動させる。
 光源3から発せられた光は、フィルタターレット8の各フィルタ8a~8dを透過することにより、励起光または照明光となる。すなわち、各フィルタ8a~8dは、図3に示される透過率特性を有しているので、Rフィルタ8a、Gフィルタ8b、Bフィルタ8cを透過させられることにより、赤、緑、青色の照明光となり、IRフィルタ8dを透過させられることにより、赤外領域の励起光となる。照明光または励起光となった光は、その後、カップリングレンズ9によってライトガイドファイバ12に入射させられる。ライトガイドファイバ12内を導光されて挿入部2の先端に達した励起光および照明光は、挿入部先端2aの照明光学系13によって拡散されて被写体Aに照射される。
 励起光が被写体Aに照射されたときには、被写体A内部に含まれている蛍光物質が励起されることにより蛍光が発せられる。一方、照明光が被写体Aに照射されたときには、照射された照明光は被写体Aの表面において反射させられる。蛍光および照明光の戻り光は、被写体Aから挿入部2の先端面2aに戻り、対物レンズ14によって集光される。
 対物レンズ14によって集光された蛍光および可視光は、液晶絞り部15によって制限された後に集光レンズ16によって集光され、励起光カットフィルタ17を経て撮像素子18により撮影される。
 したがって、撮像素子18には、フィルタターレット8の位置に応じて、赤、緑、青色の可視光、あるいは赤外の蛍光のいずれかが受光される。撮像素子18は、図示しない撮像素子駆動回路によってフィルタターレット8の回転に同期して駆動され、それぞれ戻り光画像および蛍光画像を表す電気信号を取得する。
 撮像素子18により取得された戻り光画像および蛍光画像を表す電気信号は、プロセッサ6のプリアンプ19に入力されて増幅された後、画像信号はA/D変換部21に入力され、アナログ信号からデジタル信号に変換される。
 デジタル化された画像信号は、その種類に応じて画像処理部22内のR用バッファ25a、G用バッファ25b、B用バッファ25cまたはFL用バッファ25dに入力される。データバッファ25は、タイミング制御部11からの制御信号に基づき、フィルタターレット8のRフィルタ8a挿入時にはR用バッファ25aに、Gフィルタ8b挿入時にはG用バッファ25bに、Bフィルタ8c挿入時にはB用バッファ25cに、IRフィルタ8d挿入時にはFL用バッファ25dに信号を切り替えて入力する。
 R用バッファ25a、G用バッファ25bまたはB用バッファ25cに入力された戻り光画像情報S1は、D/A変換部23および画像情報抽出部26に送られる。画像情報抽出部26においては、R用バッファ25aから出力された戻り光画像情報S1’を用いて、戻り光画像の全画素における階調値が加算平均されて、平均階調値S5が算出され、積算枚数設定部27に出力される。
 積算枚数設定部27では、画像情報抽出部26から入力された平均階調値S5を、予め記憶されている関数に当てはめて、積算枚数S6が設定され、記憶部28に出力される。
 記憶部28には、FL用バッファ25dに入力された蛍光画像信号S2が時系列に記憶される。そして、積算枚数設定部27から入力されてきた積算枚数S6分だけ、記憶部28に記憶されていた蛍光画像情報S4が平均画像生成部29に出力される。
 平均画像生成部29では、記憶部28から積算枚数S6分の蛍光画像情報S4が入力され、これらの蛍光画像情報S4を平均して得られた平均蛍光画像情報S3がD/A変換部23に出力される。
 そして、D/A変換部23においては、生成された平均蛍光画像情報S3と、R用バッファ25a、G用バッファ25b、B用バッファ25cから出力された戻り光画像情報S1とが入力され、D/A変換されて、戻り光画像G1と平均蛍光画像G2がモニタ24に出力される。
 モニタ24に表示させる際は、図1に示されるように、戻り光画像G1と平均蛍光画像G2とを並列にしてもよいし、重ねてもよい。また、戻り光画像G1は、G用バッファ25bまたはB用バッファ25cの戻り光画像情報であってもよい。
 この場合において、本実施形態に係る蛍光内視鏡装置1によれば、戻り光画像の全画素における階調値を加算平均した平均階調値S5を用いて蛍光画像の積算枚数S6が設定される。平均階調値S5は、高いほど積算枚数S6が少なく設定されているので、平均画像生成部29により生成される平均蛍光画像S3における像ブレを低減することができる。
 すなわち、戻り光画像の平均階調値S5が高いときは、照明部4と被写体Aとを近接させたり、対向させたりしているときであり、被写体Aに照射される励起光の強度も高くなっている。
 したがって、戻り光画像の平均階調値S5が高いときは、積算枚数S6を少なく設定することにより、階調値が高くS/N比の良好な蛍光画像情報S2が多数枚にわたって積算されることを防止して、平均蛍光画像S3に像ブレが発生することを防止することができる。
 一方、戻り光画像の平均階調値S5が低いときは、照明部4と被写体Aとの距離が遠いときであり、被写体Aに照射される励起光の強度も低くなっている。そのため、積算枚数S6を多く設定することにより、階調値が低くS/N比の低い蛍光画像情報S2を多く積算して、ノイズを低減することができる。この場合には、多くの蛍光画像情報S2を積算しても、各蛍光画像情報S2の階調値が低いため、平均蛍光画像S3内に像ブレが残る可能性が低い。
 すなわち、本実施形態に係る蛍光内視鏡装置1によれば、戻り光画像の平均階調値S5が低いときも高いときも、ノイズが少なく像ブレの少ない鮮明な平均蛍光画像S3を得ることができるという利点がある。
 なお、本実施形態においては、積算枚数S6を設定する際、画像情報抽出部26において戻り光画像の全画素における階調値を加算平均した平均階調値S5を抽出することとしたが、戻り光画像の隣接画素の階調値が所定の閾値を超えて変化している特徴線の延長を抽出することにしてもよい。特徴線は、例えば、画素値の変化の大きさを計算し2軸方向の勾配を見積もるなどして抽出することができる。このようにすることで、被写体Aの表面の凹凸の境界を連続する曲線として得られ、画像の構造的属性を抽出することができる。
 つまり、被写体Aの形状変化や被写体Aと照明部4の照射角度等により、画像の明るさが所定の閾値を超えて変化している箇所を特徴線として抽出し、特徴線の延長が長いときは、被写体Aの起伏が多く存在するときであり、被写体Aが体腔である場合などに体腔表面に沿う方向に照明部4を向けている状態である。一方、特徴線の延長が短いときは、被写体Aの起伏が少ないときであり、被写体Aが体腔である場合などに体腔壁面に向かう方向に照明部4を向けている状態である。
 そして、積算枚数設定部27において平均階調値S5が高いほど積算枚数S6が少なくなるようになっている関数を用いることに代えて、画像情報抽出部26により抽出した特徴線の延長が長いほど積算枚数S6が多くなる関数を用いて積算枚数S6を設定することにしてもよい。
 このようにすることで、特徴線の延長を用いて定めた積算枚数S6により、平均階調値S5を用いる場合と同様の効果を得ることができる。
 また、本実施形態においては、積算枚数S6を設定する際、画像情報抽出部26において戻り光画像の全画素における階調値を加算平均した平均階調値S5を抽出することとしたが、戻り光画像を横切る直線に沿う階調値分布(プロファイル)を抽出することにしてもよい。戻り光画像を横切る直線に沿う階調値分布は、例えば、全画素の階調値を縦軸に階調値強度、横軸に位置情報を表すと、分布形状により照明部4と被写体Aとの状態を求めることができる。
 照明部4を平坦な被写体Aに対向させているときは、戻り光画像の中心付近の階調値が最も高くなるのが一般的である。したがって、戻り光画像の中心付近の階調値が低くなるときは、被写体Aが体腔である場合などに体腔表面に沿う方向に照明部4を向けている状態であり、中央部分は照明部4から被写体Aまでが遠くなるために、戻り光画像が暗くなる。
 一方、戻り光画像の中心付近の階調値が高いときは、被写体Aが体腔である場合などに体腔壁面に向かう方向に照明部4を向けている状態であり、中心部分は照明部4から被写体Aまで近いため、戻り光画像が明るくなる。
 そして、積算枚数設定部27においては、画像情報抽出部26により抽出した戻り光画像の中心付近の階調値分布が低いときほど積算枚数S6が多くなる関数を用いて積算枚数S6を設定することにしてもよい。
 ここで、戻り光画像を横切る直線としては、1本の直線を用いてもよいし、複数本の異なる直線を用いてもよい。複数本の直線に沿う階調値分布の平均値を抽出することにより、画像上のより広い範囲における平均的な階調値分布によって、積算枚数S6を設定することができる。また、各画素列毎の階調値分布を全ての画素列について平均することにしてもよい。
 また、本実施形態においては、積算枚数S6を設定する際、画像情報抽出部26において戻り光画像の全画素における階調値を加算平均した平均階調値S5を抽出することとしたが、さらに平均階調値S5を抽出した後に、戻り光画像の階調値が不連続に変化している特徴線の延長または戻り光画像を横切る直線に沿う階調値分布を抽出し、積算枚数設定部27において体腔表面に沿う方向に照明部4を向けている状態か、体腔壁面に向かう方向に照明部4を向けている状態かに応じて積算枚数S6を設定することにしてもよい。
 また、本実施形態においては、蛍光画像の積算枚数S6を算出する際、図2に示すような関数を例示したが、これに代えて、単調減少関数であれば、他の任意の関数を採用してもよい。また、関数として計算式を記憶しておいてもよいし、積算枚数S6と平均階調値S5との対応関係を示すマップを記憶しておいて、積算枚数S6を設定することにしてもよい。
 また、本実施形態においては、画像情報抽出部26で戻り光画像の画像情報を抽出する際に、階調値が閾値以下である画素を用いて、画像情報を抽出してもよい。このようにすることで、飽和している画素を考慮しないで済み、平均階調値S5が高くなることを防ぐことができる。
 また、本実施形態においては、積算枚数設定部27で関数を用いて蛍光画像の積算枚数S6を求める際に、関数の傾きをn倍(nは自然数とする)して積算枚数S6を調整することにしてもよい。
 次に、本発明の第2の実施形態に係る蛍光内視鏡装置について以下に説明する。
 本実施形態の説明において、上述した第1の実施形態に係る蛍光内視鏡装置1と構成を共通とする箇所には同一符号を付して説明を省略する。なお、本実施形態に係る蛍光観察装置は、図5に示されるように、画像処理部31において第1の実施形態に係る蛍光観察装置1と相違している。
 図5に示されるように、FL用バッファ25dと記憶部28との間に変化量算出部32と画像保存部33とを備えている。
 変化量算出部32は、FL用バッファ25dから入力されてくる最新の蛍光画像情報S2を画像保存部33に出力するとともに、画像保存部33から過去に保存した蛍光画像情報S7を取り出し、最新の蛍光画像情報S2との階調値の差分を算出し、予め記憶されているテーブルから重み係数を抽出して最新の蛍光画像情報S2に重み係数を乗算するようになっている。
 また変化量算出部32は、過去に保存した蛍光画像情報S7と最新の蛍光画像情報S2との階調値の差の合計が大きいほど重み係数が小さくなるように設定している。
 すなわち、差分画像の階調値の差が大きいときは、被写体Aが大きく移動しているので、積算するときに像ブレが発生する。そのため、重み係数を小さくすることで、平均蛍光画像内における寄与率を少なくし、像ブレを低減することができる。
 一方、差分画像の階調値の差が小さいときは、被写体Aが大きく移動していないので、重み係数を大きくすることで平均蛍光画像内における寄与率を高め、画像を鮮明にするとともにノイズ低減効果を向上することができる。
 記憶部28は、積算枚数設定部27により出力された積算枚数S6分だけ、記憶していた重み係数が乗算された蛍光画像情報S8を取り出し、積算枚数S6分の蛍光画像情報S4を平均画像生成部29に出力するようになっている。
 画像保存部33に予め記憶されているテーブルは、差分画像の階調値の差と重み係数との関係から予め得られたものである。差分画像の差が大きいときほど被写体Aが大きく移動しているので、平均蛍光画像の寄与率が大きいことによる像ブレを軽減するため、差分画像の差が大きいほど重み係数が小さくなるようになっている。
 このように構成された本実施形態に係る蛍光内視鏡装置によれば、被写体Aが大きく移動したときも大きく移動していないときも、ノイズが少なく像ブレが少ない鮮明な平均蛍光画像が得られるという利点がある。
 なお、本実施形態においては、画像保存部33から過去に保存した蛍光画像情報S7を取り出し、最新の蛍光画像情報S2との階調値の差分の合計を算出することとしたが、過去の蛍光画像情報S7の特徴線の延長と最新の蛍光画像情報S2の特徴線の延長との差を算出することにしてもよい。
 すなわち、差分画像の特徴線間の移動量が少ないときは、被写体Aが大きく移動していないので、重み係数を大きくすることで平均蛍光画像内における寄与率を高め、ノイズを低減することができる。一方、差分画像の特徴線間の移動量が多いときは、被写体Aが大きく移動しているので、重み係数を小さくすることで平均蛍光画像内における寄与率を少なくし、像ブレを低減することができる。
 また、本実施形態においては、変化量算出部32は、変化量算出部32が過去の蛍光画像情報S7と最新の蛍光画像情報S2との差分画像の階調値の合計が閾値以下のとき、蛍光画像間の特徴線の移動量を算出し、予め記憶されているテーブルから重み係数を抽出して最新の蛍光画像情報に重み係数を乗算することにしてもよい。このようにすることで、ノイズの多い画像を積算対象から外し、精度の良い平均蛍光画像を算出することができる。
 また、本実施形態においては、重み係数が0のときは蛍光画像に乗算せずに、D/A変換部に出力することにしてもよい。
 このようにすることで、被写体が大きく移動した場合などに、平均蛍光画像を積算する際に起こる像ブレを防ぐことができる。
 また、本実施形態においては、平均画像生成部29で出力される平均蛍光画像情報S3を用いてD/A変換部23を経て平均蛍光画像G2が生成される際、生成される平均蛍光画像G2の階調値がm(mは自然数とする)となるように、平均画像生成部29で平均蛍光画像情報S3を調整してもよい。このようにすることで、生成される平均蛍光画像G2の明るさが統一され、精度の高い観察を行うことができる。
 また、上記各実施形態においては、画像情報抽出部26においてR用バッファ25aからの戻り光画像情報S1’を例示して説明したが、これに限定されるものではなく、他のバッファからの戻り光画像情報を適用することにしてもよい。
 A 被写体
 S5 画像情報(平均階調値)
 1 蛍光観察装置
 3 光源(照明部)
 4 照明ユニット(照明部)
 18 撮像素子(戻り光撮像部,蛍光撮像部)
 26 画像情報抽出部
 27 積算枚数設定部
 28 記憶部
 29 平均画像生成部
 32 変化量算出部

Claims (9)

  1.  被写体に対し、励起光および照明光を照射する照明部と、
     該照明部からの励起光の照射により前記被写体において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部と、
     該蛍光撮像部により取得された蛍光画像を記憶する記憶部と、
     前記照明部からの照明光の照射により前記被写体から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部と、
     該戻り光撮像部により取得された戻り光画像から、被写体に照射された照明光の強度を表す画像情報を抽出する画像情報抽出部と、
     該画像情報抽出部により抽出された画像情報に基づいて照明光の強度が高いほど少なく積算枚数を設定する積算枚数設定部と、
     該積算枚数設定部により設定された積算枚数分だけ前記記憶部に記憶されている蛍光画像を平均して平均画像を生成する平均画像生成部とを備える蛍光内視鏡装置。
  2.  前記画像情報抽出部が、前記戻り光画像内の複数の画素の平均階調値を前記画像情報として抽出する請求項1に記載の蛍光内視鏡装置。
  3.  前記画像情報抽出部が、前記戻り光画像の隣接画素の階調値が所定の閾値を超えて変化している箇所を表す特徴線の延長を前記画像情報として抽出する請求項1に記載の蛍光内視鏡装置。
  4.  前記画像情報抽出部が、前記戻り光画像を横切る直線に沿う階調値分布を前記画像情報として抽出する請求項1に記載の蛍光内視鏡装置。
  5.  前記画像情報抽出部が、前記戻り光画像を横切る複数の直線に沿う階調値分布を平均して前記画像情報として抽出する請求項1に記載の蛍光内視鏡装置。
  6.  前記蛍光撮像部により取得された一の蛍光画像と該一の蛍光画像より以前に取得された他の蛍光画像との変化量を算出する変化量算出部を備え、
     前記記憶部が、前記変化量算出部により算出された変化量が少ないほど大きな重み係数を前記一の蛍光画像に乗算して記憶する請求項1から請求項5のいずれかに記載の蛍光内視鏡装置。
  7.  前記変化量算出部が、前記一の蛍光画像と前記他の蛍光画像との差分画像の階調値の合計を変化量として算出する請求項6に記載の蛍光内視鏡装置。
  8.  前記変化量算出部が、前記一の蛍光画像の特徴線の延長と前記他の蛍光画像間の特徴線の延長との差を変化量として算出する請求項6に記載の蛍光内視鏡装置。
  9.  前記変化量算出部が、前記一の蛍光画像と前記他の蛍光画像間との差分画像の階調値の合計が閾値以下のとき、前記一の蛍光画像の特徴線と前記他の蛍光画像の特徴線との差を変化量として算出する請求項6に記載の蛍光内視鏡装置。
PCT/JP2011/073476 2010-11-26 2011-10-13 蛍光内視鏡装置 WO2012070323A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201180055745.2A CN103220960B (zh) 2010-11-26 2011-10-13 荧光内窥镜装置
US13/897,516 US9052286B2 (en) 2010-11-26 2013-05-20 Fluorescence endoscope apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-263990 2010-11-26
JP2010263990A JP5714875B2 (ja) 2010-11-26 2010-11-26 蛍光内視鏡装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/897,516 Continuation US9052286B2 (en) 2010-11-26 2013-05-20 Fluorescence endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2012070323A1 true WO2012070323A1 (ja) 2012-05-31

Family

ID=46145681

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/073476 WO2012070323A1 (ja) 2010-11-26 2011-10-13 蛍光内視鏡装置

Country Status (4)

Country Link
US (1) US9052286B2 (ja)
JP (1) JP5714875B2 (ja)
CN (1) CN103220960B (ja)
WO (1) WO2012070323A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5592715B2 (ja) * 2010-07-02 2014-09-17 オリンパス株式会社 画像処理装置および画像処理方法
EP2613687B1 (en) 2010-09-08 2016-11-02 Covidien LP Catheter with imaging assembly
US9517184B2 (en) 2012-09-07 2016-12-13 Covidien Lp Feeding tube with insufflation device and related methods therefor
USD716841S1 (en) 2012-09-07 2014-11-04 Covidien Lp Display screen with annotate file icon
US9198835B2 (en) 2012-09-07 2015-12-01 Covidien Lp Catheter with imaging assembly with placement aid and related methods therefor
USD735343S1 (en) 2012-09-07 2015-07-28 Covidien Lp Console
USD717340S1 (en) 2012-09-07 2014-11-11 Covidien Lp Display screen with enteral feeding icon
WO2014156723A1 (ja) * 2013-03-27 2014-10-02 株式会社ニコン 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム
JP6564166B2 (ja) * 2014-07-18 2019-08-21 オリンパス株式会社 測定装置および蛍光測定方法
WO2016111178A1 (ja) * 2015-01-05 2016-07-14 オリンパス株式会社 内視鏡システム
WO2019087557A1 (ja) * 2017-11-06 2019-05-09 オリンパス株式会社 内視鏡システム
JP7134759B2 (ja) * 2018-07-13 2022-09-12 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003164416A (ja) * 2001-12-04 2003-06-10 Fuji Photo Film Co Ltd 蛍光スペクトル取得方法および装置
JP2005261974A (ja) * 2005-05-30 2005-09-29 Olympus Corp 蛍光内視鏡装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10123453A (ja) 1996-10-15 1998-05-15 Sony Corp ディスプレイ装置
JP3962122B2 (ja) 1996-11-20 2007-08-22 オリンパス株式会社 内視鏡装置
JP3713347B2 (ja) * 1996-11-25 2005-11-09 オリンパス株式会社 蛍光内視鏡装置
JP2003159210A (ja) * 2001-11-29 2003-06-03 Fuji Photo Film Co Ltd 蛍光診断画像表示方法および表示装置
JP4343594B2 (ja) * 2003-06-23 2009-10-14 オリンパス株式会社 内視鏡装置
JP4611687B2 (ja) * 2004-08-27 2011-01-12 Hoya株式会社 電子内視鏡装置
JP5173120B2 (ja) * 2005-05-23 2013-03-27 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2008310130A (ja) 2007-06-15 2008-12-25 Konica Minolta Holdings Inc 制御ユニットおよびヘッドマウントディスプレイ
JP2009095539A (ja) * 2007-10-18 2009-05-07 Hoya Corp 内視鏡装置の電子内視鏡
JP5081720B2 (ja) * 2008-05-22 2012-11-28 富士フイルム株式会社 蛍光内視鏡装置および励起光ユニット
JP5572326B2 (ja) * 2009-03-26 2014-08-13 オリンパス株式会社 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003164416A (ja) * 2001-12-04 2003-06-10 Fuji Photo Film Co Ltd 蛍光スペクトル取得方法および装置
JP2005261974A (ja) * 2005-05-30 2005-09-29 Olympus Corp 蛍光内視鏡装置

Also Published As

Publication number Publication date
US20130250079A1 (en) 2013-09-26
JP5714875B2 (ja) 2015-05-07
CN103220960B (zh) 2015-07-01
US9052286B2 (en) 2015-06-09
CN103220960A (zh) 2013-07-24
JP2012110585A (ja) 2012-06-14

Similar Documents

Publication Publication Date Title
JP5714875B2 (ja) 蛍光内視鏡装置
JP6461797B2 (ja) 蛍光観察装置
US8553075B2 (en) Endoscope apparatus and control method therefor
JP5984681B2 (ja) 蛍光観察装置
JP5993184B2 (ja) 蛍光観察装置および蛍光観察装置の作動方法
JP5677864B2 (ja) 顕微鏡用撮像装置および顕微鏡観察方法
JP6072374B2 (ja) 観察装置
JP2011200410A (ja) キャリブレーション手段を備えた内視鏡システムおよびそのキャリブレーション方法
WO2010021160A1 (ja) 撮像システム及び内視鏡システム
WO2019087557A1 (ja) 内視鏡システム
WO2012056970A1 (ja) 蛍光観察装置
JP6203452B1 (ja) 撮像システム
JP5930474B2 (ja) 内視鏡システム及びその作動方法
JP5346635B2 (ja) 蛍光観察装置
JP5948203B2 (ja) 内視鏡システム及びその作動方法
JP4245787B2 (ja) 蛍光画像取得方法および装置
WO2014156604A1 (ja) 内視鏡システム及びその作動方法並びにプロセッサ装置
JP2010279579A (ja) 画像取得方法および内視鏡装置
JP2009142586A (ja) 内視鏡システムの自動焦点調整方法および内視鏡システム
JP2005204958A (ja) 自家蛍光観察可能な電子内視鏡装置およびシステム
JP5592715B2 (ja) 画像処理装置および画像処理方法
JP2002102147A (ja) 蛍光画像取得装置
JP6396717B2 (ja) 感度調整方法および撮像装置
JP2012143464A (ja) ホワイトバランス調整システムおよび内視鏡プロセッサ
JP6113033B2 (ja) 内視鏡装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11842685

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11842685

Country of ref document: EP

Kind code of ref document: A1