WO2012165505A1 - 蛍光観察装置 - Google Patents

蛍光観察装置 Download PDF

Info

Publication number
WO2012165505A1
WO2012165505A1 PCT/JP2012/063993 JP2012063993W WO2012165505A1 WO 2012165505 A1 WO2012165505 A1 WO 2012165505A1 JP 2012063993 W JP2012063993 W JP 2012063993W WO 2012165505 A1 WO2012165505 A1 WO 2012165505A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
gradation value
threshold
region
input
Prior art date
Application number
PCT/JP2012/063993
Other languages
English (en)
French (fr)
Inventor
康成 石原
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP12792635.0A priority Critical patent/EP2716202B1/en
Priority to CN201280024503.1A priority patent/CN103547207B/zh
Publication of WO2012165505A1 publication Critical patent/WO2012165505A1/ja
Priority to US14/093,806 priority patent/US20140085686A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • H04N1/02815Means for illuminating the original, not specific to a particular type of pick-up head

Definitions

  • the present invention relates to a fluorescence observation apparatus.
  • a fluorescence endoscope apparatus that acquires a reflected light image and a fluorescent image to be observed, and outputs a warning signal when the signal intensity of the fluorescent image exceeds a predetermined setting level to prevent oversight of a lesion or the like It has been known.
  • the present invention has been made in view of such circumstances, and fluorescence observation that can extract a necessary region of interest more reliably regardless of the type of fluorescent reagent, individual differences, or differences in lesion sites.
  • the object is to provide a device.
  • One embodiment of the present invention is an illumination unit that irradiates a subject with excitation light and illumination light, and a fluorescence imaging unit that captures fluorescence generated in the subject by irradiation of excitation light from the illumination unit and acquires a fluorescence image
  • a return light imaging unit that captures the return light that is returned from the subject by irradiation of illumination light from the illumination unit and obtains a return light image, and a region that has a gradation value that exceeds a gradation value threshold value from the fluorescent image.
  • An extraction unit that determines and extracts the region of interest, a display unit that displays the region of interest extracted by the extraction unit in association with the return light image, and the region for the region of interest displayed on the display unit
  • the fluorescence observation apparatus includes a correct / incorrect input unit that allows an observer to input whether the determination is correct and a threshold value update unit that updates the gradation value threshold value to reflect the input result input by the correct / incorrect input unit.
  • the fluorescence generated by the excitation of the fluorescent substance contained in the subject is photographed by the fluorescence imaging unit, and the fluorescence image is acquired.
  • illumination light emitted from the illumination unit is irradiated onto the subject
  • return light returning from the subject is captured by the return light imaging unit, and a return light image is acquired.
  • an area having a gradation value exceeding the gradation value threshold is determined as an attention area by the extraction unit, extracted, and displayed in association with the return light image by the display unit.
  • the observer can observe the shape of the subject in association with the strong fluorescent region.
  • the correct / incorrect input unit prompts the observer who has viewed the displayed image to input whether or not the region of interest is correctly determined by the extraction unit.
  • the threshold value update unit updates the gradation value threshold so that the input result is reflected.
  • the gradation value threshold for extracting the attention area is corrected using the determination result of the observer, and the necessary attention area is determined regardless of the type of the fluorescent reagent, individual differences, or differences in lesion sites. Extraction can be made more reliably.
  • the threshold update unit may update the gradation value threshold to be lowered when the correct / incorrect input unit inputs that the determination is correct.
  • the observer inputs that the determination of the attention area is a correct determination by the observer, attention will be paid in subsequent extraction even for an area having a gradation value lower than the gradation value threshold from which the attention area was extracted. There is a possibility that it should be extracted as a region. Therefore, in this case, by updating so as to decrease the gradation value threshold value, an area having a gradation value lower than the current gradation value threshold value can be extracted as the attention area at the time of the next extraction. The necessary attention area can be prevented from being overlooked.
  • the threshold updating unit may update the gradation value threshold to be increased when the correctness input unit inputs that the determination is incorrect.
  • an area having a gradation value that is equal to or lower than the gradation value threshold from which the attention area is extracted is also extracted in the subsequent extraction. The possibility that it should be extracted as a region of interest is low. In this case, by updating so as to increase the gradation value threshold, it is possible to suppress erroneous extraction of a region that does not need to be observed as a region of interest.
  • the input result of the observer can be reflected and updated to an appropriate gradation value threshold according to the observation situation. It is possible to efficiently extract a correct attention area.
  • the threshold update unit when the correctness input unit inputs that the determination by the extraction unit is correct, the threshold update unit outputs a lower gradation value lower than the gradation value of the attention area by a predetermined margin.
  • the lower tone value When the value is below the tone value threshold, the lower tone value may be updated to be a new tone value threshold. In this way, a region having a gradation value that is lower than the gradation value of the region determined as the region of interest by a predetermined margin is also extracted as the region of interest next time.
  • a gradation that stores the gradation value of the region of interest and the determination result in association with each other A threshold value storage unit, and the threshold value update unit stores the gradation value corresponding to the input determination result when the correct / incorrect input unit inputs that the determination is correct for a new attention area.
  • the threshold value may be updated to be a new gradation value threshold value. In this way, the threshold value can be updated to reflect not only the latest determination result but also the determination result in the past, and a region suspected of having a lesion can be extracted with higher accuracy.
  • the threshold update unit may calculate a standard deviation of past gradation values from which the average value has been calculated, and set the margin based on the calculated standard deviation. In this way, the threshold value S0 can be updated in consideration of variations in determination input by the observer.
  • the threshold updating unit may update the gradation value threshold to be increased when the correctness input unit inputs that the determination is incorrect.
  • the area having a gradation value equal to or lower than the gradation value threshold from which the attention area is extracted Is less likely to be extracted as a region of interest in subsequent extractions.
  • by updating so as to increase the gradation value threshold it is possible to suppress erroneous extraction of a region that does not need to be observed as a region of interest.
  • the threshold value updating unit is an average value of the gradation value threshold value and the gradation value of the region of interest when the correctness input unit inputs that the determination by the extraction unit is incorrect May be updated to be a new tone value threshold.
  • the new gradation value threshold is raised to the average value of the gradation value threshold and the gradation value of the region of interest, and it is not necessary to observe It is possible to efficiently extract the attention area by preventing waste that the area is extracted as the attention area.
  • the threshold update unit stores the gradation value storage unit in accordance with the input determination result.
  • An average value of past stored gradation values may be calculated, and the calculated average value may be updated as a new gradation value threshold value.
  • a new gradation value threshold is updated to the average value of the gradation values that were determined to be erroneous in the past, and it is necessary to observe It is possible to efficiently extract a region of interest while preventing waste that a region without a pixel is extracted as a region of interest.
  • the display unit may display the attention area and the return light image so as to overlap each other. In this way, the correspondence between the return light image and the attention area can be confirmed at a glance. Accordingly, not only the attention area but also the periphery thereof can be observed, and more detailed information can be obtained when the observer determines the correctness of the determination result by the extraction unit. As a result, the observer can make an accurate determination.
  • the extraction unit may extract, as the attention area, a range in which the number of pixels in the area exceeds the pixel number threshold among areas having a gradation value exceeding the gradation value threshold. By doing so, it is possible to prevent a region having a high gradation value but a small area from being extracted as the attention region, and to extract the attention region efficiently while suppressing erroneous extraction due to noise.
  • the image processing apparatus includes a storage unit that stores the gradation value of the attention area and information related to the past determination result in association with each other, and the display section includes a past corresponding to the gradation value for each attention area.
  • Information regarding the determination result may be read from the storage unit and displayed. By doing in this way, when the attention area is extracted, information on the past determination result is displayed on the display unit. Therefore, the past displayed when the observer determines whether the determination result by the extraction unit is correct or not. This judgment result can be used as a reference. As a result, the observer can make an accurate determination.
  • One embodiment of the present invention is an illumination unit that irradiates a subject with excitation light and illumination light, and a fluorescence imaging unit that captures fluorescence generated in the subject by irradiation of excitation light from the illumination unit and acquires a fluorescence image
  • a return light imaging unit that captures a return light that is returned from the subject by irradiation of illumination light from the illumination unit and obtains a return light image, and a region that has a gradation value that exceeds a gradation value threshold value from the fluorescent image.
  • An extraction unit that determines and extracts an area in which an index value obtained by multiplying the gradation value by another feature amount different from the gradation value of the area exceeds a predetermined index threshold value as the attention area;
  • a display unit that displays the attention area extracted by the extraction unit and the return light image in association with each other, and a correct / incorrect input unit that allows the observer to input whether the determination is correct for the attention area displayed on the display unit Is a fluorescence observation apparatus and a threshold update unit that updates the tone value threshold to reflect the input results input from the correctness input unit.
  • the region where the index value exceeds the index threshold value is extracted as the attention region. Accordingly, a region of interest necessary for observation can be extracted with higher accuracy.
  • the feature amount for example, the color of the region can be cited.
  • the threshold update unit may update the gradation value threshold to be lowered when the correct / incorrect input unit inputs that the determination is correct. In the above aspect, the threshold update unit may be updated to increase the gradation value threshold when the correctness input unit inputs that the determination is incorrect.
  • the detachable component storing the identification information, which is attached and detached to change the observation condition
  • the identification information reading unit that reads the identification information stored in the detachable component
  • the identification information and the gradation A storage unit that stores the threshold value in association with each other
  • the extraction unit uses the gradation value threshold stored in the storage unit in correspondence with the identification information of the attached / detached component. Extraction may be started.
  • the identification information stored in the detachable component is read by the identification information reading unit and stored in association with the identification information by the storage unit.
  • the tone value threshold is used to extract the attention area in the extraction unit.
  • examples of the detachable part include an insertion part in an endoscope apparatus, and the observation conditions that are changed in that case include the wavelength and intensity of the observable fluorescence and the site to be observed (stomach, And the like).
  • the amount of illumination light changes relatively depending on the size of the observation target part. Therefore, it is possible to observe efficiently by changing the setting of the threshold value for each insertion portion to which the threshold is set.
  • the apparatus includes an individual information input unit that inputs individual information for each subject, and a storage unit that stores the individual information and the gradation value threshold in association with each other, and the extraction unit includes the individual information
  • the region of interest may be extracted using the gradation value threshold value stored in the storage unit corresponding to the individual information input by the input unit. In this way, even if the subject changes, it is possible to accurately extract the attention area using an appropriate gradation value threshold set individually for each subject.
  • 1 is an overall configuration diagram showing a fluorescence observation apparatus according to a first embodiment of the present invention. It is a whole block diagram which shows the 1st modification of the fluorescence observation apparatus of FIG. It is a figure which shows the data memorize
  • a fluorescence observation apparatus 1 according to a first embodiment of the present invention will be described below with reference to the drawings.
  • the fluorescence observation apparatus 1 inserts an elongated insertion portion 2 to be inserted into the body, a light source (illumination portion) 3, and excitation light and illumination light from the light source 3.
  • An illumination unit (illumination unit) 4 that irradiates the subject F from the distal end of the unit 2, an imaging unit 5 that is provided at the distal end of the insertion unit 2 and acquires image information of a living tissue that is the subject F, and the insertion unit 2
  • An image processing unit 6 that processes image information acquired by the imaging unit 5, a monitor (display unit) 7 that displays an image processed by the image processing unit 6, and an observer And an input unit 8 for inputting.
  • the light source 3 includes a xenon lamp 9, a filter 10 that extracts excitation light and illumination light (for example, a wavelength band of 400 to 740 nm) from the light emitted from the xenon lamp 9, and the excitation light and illumination extracted by the filter 10.
  • a coupling lens 11 that collects light is provided.
  • the illumination unit 4 is disposed over substantially the entire length in the longitudinal direction of the insertion portion 2, and is provided at the distal end of the insertion portion 2 and a light guide fiber 12 that guides the excitation light and the illumination light collected by the coupling lens 11.
  • an illumination optical system 13 that diffuses the excitation light and the illumination light guided by the light guide fiber 12 and irradiates the subject F facing the distal end surface of the insertion portion 2.
  • the imaging unit 5 reflects an objective lens 14 that collects light returning from a predetermined observation range of the subject F, and reflects light (excitation light and fluorescence) having an excitation wavelength or more out of the light collected by the objective lens 14.
  • the dichroic mirror 15 that transmits white light (return light) having a wavelength shorter than the excitation wavelength, and the two condensing lenses that condense the fluorescence reflected by the dichroic mirror 15 and the white light transmitted through the dichroic mirror 15, respectively.
  • 16 and 17 and two image sensors 18 and 19 such as a CCD for photographing white light and fluorescence condensed by the condenser lenses 16 and 17.
  • reference numeral 20 denotes an excitation light cut filter that blocks excitation light (for example, transmits only light in the wavelength band of 760 to 850 nm) out of the light reflected by the dichroic mirror 15.
  • the image processor 6 generates a white light image G1 from the white light image information acquired by the image sensor 18 and generates a fluorescent image G2 from the fluorescent image information acquired by the image sensor 19.
  • a gradation value calculation unit 24 that calculates an average gradation value that is an average value of the two gradation values, and a superimposed image that generates a superimposed image G in which the attention area extracted by the extraction unit 23 and the white light image G1 are superimposed.
  • a generation unit 25 and a threshold update unit 26 that updates the threshold are provided.
  • the extraction unit 23 extracts a region having a gradation value equal to or higher than a preset threshold from the fluorescence image generated by the fluorescence image generation unit 22 as a region of interest.
  • the superimposed image generation unit 25 is configured to superimpose the fluorescence image G2 generated by the fluorescence image generation unit from which the background other than the region of interest extracted by the extraction unit 23 is removed is superimposed on the white light image G1. Yes.
  • the monitor 7 displays the superimposed image G generated by the superimposed image generation unit 25, and whether or not the attention area extracted by the extraction unit 23 in the displayed superimposed image G is correct as a suspicious area.
  • a display that prompts an observer such as a doctor to input the determination is performed.
  • the display for prompting input includes, for example, “Is the extracted region suspected of being a lesion (Y / N)?” Or the like.
  • the observer visually confirms the superimposed image G displayed on the monitor 7, and from the morphological features such as the shape and color of the observed portion displayed in the white light image G1, or the size and brightness of the attention area, It is determined whether or not the region of interest is a region suspected of having a lesion, and a determination result is input by the input unit 8.
  • the input unit 8 is an arbitrary input device such as a keyboard or a mouse.
  • the determination result by the observer input by the input unit 8 is input to the threshold update unit 26.
  • the threshold update unit 26 updates the threshold based on the determination result input by the input unit 8 by using the average gradation value S1 of the fluorescence in the attention area calculated by the gradation value calculation unit 24. Yes.
  • the calculation is performed. A value obtained by subtracting a predetermined margin A from the average gradation value S1 is compared with the current threshold value S0, and the smaller value is updated as a new threshold value S0 by the following equation. Yes.
  • the observer determines that “the attention area is not a suspicious area”, that is, “the threshold value S0 for extracting the attention area by the extraction unit 23 is incorrect”, the calculation is performed.
  • the average gradation value S1 is updated as a new threshold value S0.
  • the threshold value S0 updated by the threshold value update unit 26 is input to the extraction unit 23 and is set in the extraction unit 23 as a new threshold value S0. Thereby, when a new fluorescent image is acquired, the attention area is extracted by the new threshold value S0, and the threshold value S0 is updated by repeating the same procedure.
  • the fluorescence observation apparatus 1 configured as described above will be described below.
  • the insertion portion 2 is inserted into the body, and the distal end surface of the insertion portion 2 faces the subject F. Let me. Then, the light source 3 is operated to generate excitation light and illumination light, which are incident on the light guide fiber 12 by the coupling lens 11. Excitation light and illumination light guided through the light guide fiber 12 and reaching the distal end of the insertion portion 2 are diffused by the illumination optical system 13 at the distal end of the insertion portion 2 and irradiated onto the subject F.
  • the fluorescent substance contained therein is excited by the excitation light to emit fluorescence, and white light is reflected on the surface of the subject F.
  • the reflected light of fluorescent light and illumination light returns from the subject F to the distal end surface 2 a of the insertion portion 2, and a part thereof is collected by the objective lens 14.
  • the fluorescent light and white light collected by the objective lens 14 are branched for each wavelength by the dichroic mirror 15, and light transmitted through the dichroic mirror 15, for example, white light in a wavelength band of 400 to 700 nm, is collected by the condensing lens 16. And is acquired by the image sensor 18 as white light image information.
  • Image information acquired by the image sensors 18 and 19 is sent to the image processing unit 6.
  • white light image information is input to the white light image generation unit 21 to generate a white light image G1.
  • fluorescence image information is input to the fluorescence image generation unit 22 to generate the fluorescence image G2.
  • the generated fluorescent image G2 is input to the extraction unit 23, and the extraction unit 23 extracts a region having a gradation value equal to or higher than a preset threshold value S0 as a region of interest. Then, the gradation value calculation unit 24 calculates the average gradation value S1 of the fluorescence in the region of interest. Next, the superimposed image generation unit 25 generates a superimposed image G by superimposing only the fluorescent image of the portion corresponding to the region of interest with the white light image G 1, and displays it on the monitor 7. On the monitor 7, a display for prompting an input by an observer is also displayed.
  • the observer determines whether or not the displayed attention area is suspected to be a lesion while observing the superimposed image G displayed on the monitor 7, and inputs the determination result to the input unit 8. That is, whether or not the attention area extracted by the extraction unit 23 is correct is confirmed by an input by the observer. Then, the determination result input by the input unit 8 is input to the threshold update unit 26.
  • the threshold update unit 26 updates the threshold S0 based on the average gradation value S1 of the attention area and the determination result by the observer.
  • the threshold update unit 26 The value obtained by subtracting the predetermined margin A from the average gradation value S1 of the region is compared with the threshold value S0, and the smaller value is updated as the new threshold value S0. Therefore, the updated threshold value is lowered.
  • the threshold update unit 26 updates the average tone value S1 of the attention area as a new threshold.
  • the updated threshold is raised.
  • the threshold value of the determination by the extraction unit 23 is fed back to the determination result by the observer and the threshold value is updated, so that the difference between individuals and the difference in the lesion site can be obtained. Accordingly, there is an advantage that a region suspected of having a lesion can be accurately extracted.
  • the average gradation value S1 of the attention area is updated as a new threshold, but the threshold S0 And the average value of the average gradation value S1 of the attention area may be updated as a new threshold value S0.
  • the new threshold value S0 By raising the new threshold value S0 to an intermediate point between the previous threshold value S0 and the average gradation value S1, the average gradation value slightly lower than the previous average gradation value in the extraction after the subtle determination result is input. It is possible to prevent a region of interest having a leak without being extracted.
  • MIN (S1-A, S0) has been exemplified as an expression for calculating a new threshold value in the threshold update unit 26.
  • the threshold value may be lower than the pre-update threshold value in the case of Y determination. Any other rule that updates the threshold value so that the threshold value is updated to be higher than the threshold value before the update may be adopted.
  • the attention area is an area having a gradation value greater than or equal to a preset threshold value in the fluorescent image G2, but among the areas having gradation values exceeding the threshold value, the number of pixels is equal to the pixel number threshold value. You may extract the exceeding range as an attention area. By doing so, it is possible to prevent a region (such as noise) having a high gradation value but a small area from being extracted as the attention region, and the attention region can be efficiently extracted. Extracting a region of interest that has a gradation value greater than or equal to the threshold and whose number of pixels exceeds the threshold for the number of pixels may be performed by extracting an area with a large number of pixels from the areas initially extracted by the gradation value. Alternatively, a region having a high gradation value may be extracted from the regions initially extracted according to the number of pixels.
  • the fluorescence image G2 extracted as the attention area by the superimposed image generation unit 25 and the white light image G1 are superimposed and displayed on the monitor 7, but the fluorescence image G2 and the white light image G1 are displayed. May be displayed on the monitor 7 in parallel.
  • the attention area of the fluorescent image G2 is displayed on the fluorescent image G2 by, for example, displaying an outline.
  • the extraction unit 23 may extract two or more different areas that are equal to or more than two different threshold values, and display them on the monitor 7 with different display methods. For example, the extraction unit 23 may extract a region where the average gradation value S1 exceeds the threshold value S0 and a region where, for example, the value exceeds 80% of the threshold value S0.
  • the gradation value calculation unit 24 calculates the average gradation value S1 of the region of interest, but other values may be obtained. For example, the lowest gradation value having the lowest gradation value in the region of interest may be used.
  • the threshold update unit 26 compares the threshold SO with a value obtained by subtracting the margin A from the lowest gradation value of the region of interest. The new threshold value SO is updated. By doing so, it is possible to improve the effect of preventing oversight of a region suspected of having a lesion as compared with the case where the average gradation value S1 is used.
  • the gradation value calculation unit 24 may determine the highest maximum gradation value in the attention area.
  • the threshold update unit 26 updates the highest gradation value of the attention area as a new threshold SO. In this way, it is possible to extract a region suspected of having a lesion more efficiently than when the average gradation value is used.
  • the attention area once inputted with the determination may be displayed by displaying that the determination has been completed, for example, by changing the color, in order to prevent duplicate determination input.
  • the threshold value when a region of interest is extracted by the extraction unit 23, the threshold value is updated using only the average gradation value S1 of fluorescence in the region of interest in accordance with the determination input of the observer.
  • the threshold value may be updated in accordance with the average gradation value S1 of a plurality of past attention areas and the determination input result at that time.
  • the average gradation value S1 in the attention area corresponds to the determination input result.
  • a gradation value storage unit 27 for storing the information is provided. In this case, for example, data may be stored in the gradation value storage unit 27 as shown in FIG. 3A.
  • the threshold update unit 26 when a determination by the observer for a new attention area is input, the past average gradation value stored in the gradation value storage unit 27 corresponding to the input determination result. It is also possible to read all S1 and update the threshold value as follows. For example, when Y determination is input by the observer, the margin A determined in advance from the average value of the average gradation values S1 at the time of all past Y determinations read from the gradation value storage unit 27 is set. The subtracted value is compared with the current threshold value S0, and the smaller value may be updated as a new threshold value S0 by the following equation.
  • MIN (AVE (S1) -A, S0) here, AVE (S1): Average value of average gradation value S1 at the time of past Y determination A: Margin.
  • the average value of the average gradation values S1 at the time of all past N determinations read from the gradation value storage unit 27 is updated as a new threshold value S0. Good.
  • the threshold value S0 changes as shown in FIG. 3B. In this way, the threshold value S0 can be updated to reflect not only the latest determination result but also the determination result in the past, and a region suspected of having a lesion can be extracted with higher accuracy.
  • the margin A used for updating the threshold value S0 at the time of Y determination is stored instead of a fixed value. It can also be set according to the standard deviation SD (S1) of the average gradation value S1 at the time of determination. By doing in this way, margin A can be set in consideration of variation between subjects, variation in elapsed time in the same subject, and variation in determination input by an observer, and updating threshold value S0 more appropriately. There is an advantage that can be.
  • a new threshold S1 for Y determination When emphasizing sensitivity (do not overlook lesions), set a new threshold S1 for Y determination as MIN (AVE (S1) -3SD (S1), S0), and extract specificity (parts other than lesions) In the case where importance is not given), a new threshold value S1 at the time of Y determination may be set as MIN (AVE (S1) -SD (S1), S0). By doing in this way, there exists an advantage that the suitable threshold value S0 according to the objective of a test
  • the fluorescence observation apparatus 30 further includes a storage unit 31 and a probability calculation unit 32 in the image processing unit 6 of the fluorescence observation apparatus 1.
  • the storage unit 31 receives the average gradation value S1 of the attention area calculated by the gradation value calculation unit 24 and the determination result of the observer input from the input unit 8 from the threshold value update unit 26, and is shown in FIG. As shown, for each of the divided gradation value ranges A1 to A2, A2 to A3, A3 to A4,..., The number of correctness determination times B1, B2, B3. C3... Are stored in association with each other.
  • the probability calculation unit 32 When the probability calculation unit 32 receives the average gradation value S1 of the attention area calculated by the gradation value calculation unit 24, the probability calculation unit 32 searches the storage unit 31 using the received average gradation value S1, and the average gradation value
  • the probability of Y determination is calculated by reading the number of correctness determinations and the number of Y determinations stored for the gradation value range to which the value S1 belongs, and dividing the number of Y determinations by the number of correctness determinations. It is supposed to be.
  • the probability calculated by the probability calculation unit 32 is output to the superimposed image generation unit 25.
  • the superimposed image generation unit 25 generates the superimposed image G so that the contours and the numerical values of the probabilities that are color-coded according to the probability are displayed. For example, if the past Y determination probability in the tone value of the attention area is 90% or more, the outline of the attention area is red, if it is 75% or more and less than 90%, blue, if it is 50% or more and less than 75%. In addition to the yellow color, a superimposed image G in which the probability is numerically indicated in the vicinity of the attention area is generated.
  • the average gradation value S1 of the attention area calculated by the gradation value calculation unit 24 is output to the probability calculation unit 32 and is stored in the storage unit 31.
  • the number of times of Y determination and the number of correct / incorrect determinations corresponding to the stored gradation value range are read, the probability of Y determination in the gradation value range to which the average gradation value S1 belongs is calculated, and the superimposed image generation unit 25 Is output.
  • the superimposed image generation unit 25 the probability that the Y determination has been made in the past with respect to the input attention area is color-coded and contour-displayed, and a superimposed image G in which the probability is displayed is generated. Is output.
  • the past Y determination probability is displayed in the vicinity of the outline of the attention area, so that the determination of the attention area in accordance with the past determination result is correct. There is an advantage that determination accuracy can be improved.
  • the fluorescence observation apparatus 40 includes a feature amount extraction unit 41 and an index calculation unit 42 between the white light image generation unit 21 and the superimposed image generation unit 25 of the image processing unit 6. And an area selection unit 43, and an index threshold update unit 44 instead of the threshold update unit 26.
  • the image sensor 19 for acquiring a white light image an image sensor 19 capable of capturing a color image is used.
  • the feature amount extraction unit 41 extracts a red tone value acquired by the image sensor 19 from the region of the white light image G1 corresponding to the attention region extracted by the extraction unit 23.
  • the index calculation unit 42 calculates the index by multiplying the red gradation value extracted by the feature amount extraction unit 41 by the average gradation value S1 of the attention area calculated by the gradation value calculation unit 24. It has become.
  • the region selection unit 43 selects and outputs a region whose index is equal to or greater than a predetermined index threshold value from the attention regions extracted by the extraction unit 23.
  • the superimposed image generation unit 25 superimposes the attention region selected by the region selection unit 43 in the attention region extracted from the fluorescence image G2 on the white light image G1 by removing the background outside the attention region. It has become.
  • the observer determines whether there is a suspicion of a lesion in the region exceeding the displayed index threshold while observing the superimposed image G displayed on the monitor 7, and inputs the determination result to the input unit 8. That is, it is possible to confirm whether or not the determination of the region exceeding the index threshold value selected as having high suspicion of the lesion by the region selection unit 43 is correct according to the determination of the observer. Then, the determination result input by the input unit 8 is output to the index threshold value update unit 44.
  • the index threshold value update unit 44 updates the index threshold value based on the determination result input to the input unit 8.
  • the updated index threshold value is output to the region selection unit 43 and set as a new index threshold value.
  • the red color in the white light image G1 reflects the blood vessel density of the subject F.
  • the density of blood vessels is often increased due to angiogenesis, and is therefore often reflected in the red intensity of the white light image G1.
  • a more accurate determination can be made by observing the superimposed image G by combining the blood vessel density information and the fluorescence image G2. Therefore, there is an advantage that whether or not there is a suspicion of a lesion can be accurately extracted by updating the index threshold value to reflect the determination of the observer in the determination by the region selection unit 43.
  • an index may be set according to the fluorescent agent to be used.
  • the tone value of the region of interest is multiplied by the drug coefficient S1 in order to weaken the influence of fluorescence intensity, while when using a drug with low fluorescence intensity, fluorescence is emitted.
  • the drug coefficient Sh is multiplied for emphasis, and an index that is not influenced by the drug performance can be set.
  • the insertion unit 2 (detachable component) that can be attached to and detached from the light source 3 and the image processing unit 6 so that it can be exchanged according to the site to be observed. ).
  • the insertion unit 2 is provided with an IC chip 51 that stores identification information of the insertion unit 2.
  • the fluorescence observation apparatus 50 according to the present embodiment includes a reading device 52 that reads identification information in the IC chip 51 on the light source side to which the insertion unit 2 is attached, and a storage unit 53 that stores the identification information and a threshold in association with each other. I have.
  • the reading device 52 When the insertion unit 2 is attached, the reading device 52 reads identification information in the IC chip 51 provided in the insertion unit 2, acquires the read identification information from the storage unit 53, and sends it to the threshold update unit 26. It is designed to output.
  • the threshold update unit 26 changes the threshold setting method based on the upper identification stored in the storage unit 53.
  • the amount of illumination light changes relatively depending on the size of the observation target part, it is possible to efficiently observe by changing the threshold value setting for each insertion unit 2. Specifically, in the insertion portion 2 with a small diameter, the amount of illumination light becomes relatively weak, so the initial value of the threshold needs to be set low. In the case of Y determination that there is a suspicion of a lesion, the margin A is set to a large value, or in the case of N determination that there is no suspicion of a lesion, (2 ⁇ S0 + S1) / 3 is set as a new threshold value S0.
  • the threshold value may always be set lower, such as by updating.
  • the initial value of the threshold value S0 needs to be set higher. If it is a Y determination that there is a suspicion of a lesion, the margin A is set to a small value, or if it is an N determination that there is no suspicion of a lesion, (2 ⁇ S0 + 3 ⁇ S1) / 5 is set as a new threshold value.
  • the threshold value may always be set higher, such as updating with S0.
  • an ID input unit 61 that inputs a patient ID and an individual information storage unit 62 that stores the ID and individual information in association with each other are provided. It may be.
  • the individual information include a threshold for extracting the patient's attention area, the number of correctness determinations and the number of Y determinations for each gradation value range in the past observation of the patient.
  • the individual information storage unit 62 stores a threshold value updated in the past observation of the patient as individual information.
  • the threshold update unit 26 reads out the individual information stored in the individual information storage unit 62 in association with the ID input from the ID input unit 61 and uses it for updating the threshold. There is an advantage that observation can be performed efficiently.
  • the endoscope has been described as an example of the fluorescence observation apparatuses 1, 30, 40, and 50.
  • the present invention is not limited to this and is applied to any other fluorescence observation apparatus. May be.
  • Fluorescence observation device 1 Insertion part (detachable part) 3 Light source (illumination part) 4 Lighting unit (lighting unit) 7 Monitor (display section) 8 Input section (correct / incorrect input section) 18 Imaging device (fluorescence imaging unit) 19 Image sensor (Return light imaging unit) 23 extraction unit 26 threshold update unit 31 storage unit 43 area selection unit (extraction unit) 44 Index threshold update unit (threshold update unit) 52 Reading device (identification information reading unit) 53 Storage Unit 61 ID Input Unit (Individual Information Input Unit) 62 Individual information storage unit (storage unit)

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 蛍光試薬の種類や、個体差、病変部位の違いに応じて、蛍光物質が多く存在する領域を抽出する確率を上げる。被写体(F)に対し、励起光および照明光を照射する照明部(3)と、励起光の照射により前記被写体(F)において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部(18)と、照明光の照射により前記被写体(F)から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部(19)と、蛍光画像から階調値閾値を超える階調値を有する領域を注目領域と判定して抽出する抽出部(23)と、該抽出部(23)により抽出された注目領域と戻り光画像とを対応づけて表示する表示部(7)と、表示部(7)に表示された注目領域に対する判定の正否について観察者に入力させる正否入力部(8)と、該正否入力部(8)により入力された入力結果を反映させるように前記階調値閾値を更新する閾値更新部(26)とを備える蛍光観察装置(1)を提供する。

Description

蛍光観察装置
 本発明は、蛍光観察装置に関するものである。
 従来、観察対象の反射光画像と蛍光画像とを取得し、蛍光画像の信号強度が所定の設定レベルを超えている場合に、警告信号を出し、病変等の見落としを防止する蛍光内視鏡装置が知られている。
特開2006-191989号公報
 しかしながら、特許文献1の蛍光内視鏡装置は、固定の閾値によって病変部を抽出するので、蛍光試薬の種類や、個体差、病変部位の違いにより、病変部を抽出しきれないという不都合がある。
 本発明は、このような事情に鑑みてなされたものであって、蛍光試薬の種類や、個体差、病変部位の違いに関わらず、必要な注目領域をより確実に抽出することができる蛍光観察装置を提供することを目的としている。
 上記目的を達成するために、本発明は以下の手段を提供する。
 本発明の一態様は、被写体に対し、励起光および照明光を照射する照明部と、該照明部からの励起光の照射により前記被写体において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部と、前記照明部からの照明光の照射により前記被写体から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部と、前記蛍光画像から階調値閾値を超える階調値を有する領域を注目領域と判定して抽出する抽出部と、該抽出部により抽出された前記注目領域と前記戻り光画像とを対応づけて表示する表示部と、該表示部に表示された前記注目領域に対する前記判定の正否について観察者に入力させる正否入力部と、該正否入力部により入力された入力結果を反映させるように前記階調値閾値を更新する閾値更新部とを備える蛍光観察装置である。
 上記態様によれば、照明部から発せられた励起光が被写体に照射されると、被写体内に含まれる蛍光物質が励起されて発生した蛍光が蛍光撮像部によって撮影され、蛍光画像が取得される。照明部から発せられた照明光が被写体に照射されると、被写体から戻る戻り光が戻り光撮像部によって撮影され、戻り光画像が取得される。
 そして、取得された蛍光画像の内、階調値閾値を超える階調値を有する領域が抽出部により注目領域と判定されて抽出され、表示部により戻り光画像と対応づけて表示される。これにより、観察者は、蛍光の強い領域と対応づけて被写体の形状を観察することができる。
 この状態で、正否入力部により、表示された画像を見た観察者に、抽出部による注目領域の判定が正しいか否かの入力が促される。
 観察者が正否入力部により判定の正否を入力すると、その入力結果が反映されるように閾値更新部により階調値閾値が更新される。
 これにより、観察者の判定結果を利用して、注目領域を抽出するための階調値閾値が修正され、蛍光試薬の種類や、個体差、病変部位の違いに関わらず、必要な注目領域をより確実に抽出することができる。
 上記態様においては、前記閾値更新部が、前記正否入力部により、記判定が正しいと入力されたときは前記階調値閾値を低下させるよう更新してもよい。
 抽出部による注目領域の判定が、観察者により正しい判定であると入力されたときは、その注目領域を抽出した階調値閾値より低い階調値を有する領域についても、以降の抽出においては注目領域として抽出されるべきであるとする可能性がある。したがって、この場合には、階調値閾値を低下させるように更新することで、次の抽出時には、現在の階調値閾値より低い階調値を有する領域についても注目領域として抽出することができ、必要な注目領域が見落されてしまうのを防止できる。
 上記態様においては、前記閾値更新部が、前記正否入力部により、前記判定が誤りであると入力されたときは前記階調値閾値を増大させるよう更新してもよい。
 抽出部による注目領域の判定が、観察者により間違った判定であると入力されたときは、その注目領域を抽出した階調値閾値以下の階調値を有する領域については、以降の抽出においても注目領域として抽出されるべきであるとする可能性は低い。この場合には、階調値閾値を増大させるように更新することで、観察する必要のない領域が、注目領域として誤って抽出されてしまうのを抑制することができる。
 したがって、蛍光試薬の種類や、個体差、病変部位の違いがあっても、観察者の入力結果を反映させて、観察状況に合わせて適正な階調値閾値に更新していくことができ、正しい注目領域を効率よく抽出することができる。
 上記態様においては、前記閾値更新部は、前記正否入力部により前記抽出部による前記判定が正しいと入力されたときには、前記注目領域の階調値より所定のマージンだけ低い下位階調値が前記階調値閾値を下回っている場合に、前記下位階調値を新たな階調値閾値とするよう更新してもよい。
 このようにすることで、注目領域として判定された領域の階調値よりも所定のマージンだけ低い階調値を有する領域も、次回注目領域として抽出されることとなり、マージンを適当に選ぶことで、観察することが必要な注目領域の見落としを防止しつつ効率的に注目領域を抽出することができる。
 上記態様においては、前記抽出部により前記注目領域が抽出され、該注目領域に対する観察者による判定が入力されたときに、該注目領域の階調値と判定結果とを対応づけて記憶する階調値記憶部を備え、前記閾値更新部は、新たな注目領域に対して前記正否入力部により前記判定が正しいと入力されたときに、その入力された判定結果に対応して前記階調値記憶部に記憶されている過去の階調値の平均値を算出するとともに、算出された平均値より設定されたマージンだけ低い下位階調値が前記階調値閾値を下回っている場合に、前記下位階調値を新たな階調値閾値とするよう更新してもよい。
 このようにすることで、最新の判定結果のみならず、過去における判定結果をも反映して閾値を更新することができ、病変の疑いがある領域をより精度よく抽出することができる。
 上記態様においは、前記閾値更新部が、前記平均値を算出した過去の階調値の標準偏差を算出し、算出された標準偏差に基づいて前記マージンを設定してもよい。
 このようにすることで、観察者による判定入力のバラツキを加味して閾値S0を更新することができる。
 上記態様においては、前記閾値更新部が、前記正否入力部により、前記判定が誤りであると入力されたときは前記階調値閾値を増大させるよう更新してもよい。
 このようにすることで、抽出部による注目領域の判定が、観察者により間違った判定であると入力されたときは、その注目領域を抽出した階調値閾値以下の階調値を有する領域については、以降の抽出においても注目領域として抽出されるべきであるとする可能性は低い。この場合には、階調値閾値を増大させるように更新することで、観察する必要のない領域が、注目領域として誤って抽出されてしまうのを抑制することができる。
 これにより、蛍光試薬の種類や、個体差、病変部位の違いがあっても、観察者の入力結果を反映させて、観察状況に合わせて適正な階調値閾値に更新していくことができ、正しい注目領域を効率よく抽出することができる。
 上記態様おいては、前記閾値更新部は、前記正否入力部により前記抽出部による前記判定が誤りであると入力されたときには、前記階調値閾値と前記注目領域の階調値との平均値を新たな階調値閾値とするよう更新してもよい。
 このようにすることで、抽出部による判定が誤りであったときは、階調値閾値と注目領域の階調値との平均値まで新たな階調値閾値が引き上げられ、観察する必要のない領域が注目領域として抽出されてしまう無駄を防止して効率的に注目領域を抽出することができる。
 上記態様おいては、前記閾値更新部は、前記正否入力部により前記抽出部による前記判定が誤りであると入力されたときには、その入力された判定結果に対応して前記階調値記憶部に記憶されている過去の階調値の平均値を算出するとともに、算出された平均値をあらたな階調値閾値とするよう更新してもよい。
 このようにすることで、抽出部による判定が誤りであったときは、過去に誤りであると判定された際の階調値の平均値に新たな階調値閾値が更新され、観察する必要のない領域が注目領域として抽出されてしまう無駄を防止して効率的に注目領域を抽出することができる。
 上記態様においては、前記表示部が、前記注目領域と前記戻り光画像とを重畳させて表示してもよい。
 このようにすることで、戻り光画像と注目領域との対応関係を一目で確認することができる。これにより、注目領域のみならず、その周辺も観察することができ、観察者が抽出部による判定結果の正否を判定するときに、より詳細な情報を得ることができる。その結果、観察者により正確な判定を行わせることができる。
 上記態様においては、前記抽出部が、階調値閾値を越える階調値を有する領域のうち、該領域の画素数が画素数閾値を超える範囲を前記注目領域として抽出してもよい。
 このようにすることで、階調値は高いが面積が小さい領域が注目領域として抽出されてしまうことを防止し、ノイズによる誤抽出を抑制して効率よく注目領域を抽出することができる。
 上記態様においては、前記注目領域の階調値と過去の判定結果に関する情報とを対応づけて保存する保存部を備え、前記表示部が、前記注目領域毎に、その階調値に対応する過去の判定結果に関する情報を前記保存部から読み出して表示してもよい。
 このようにすることで、注目領域が抽出されたときには、過去の判定結果に関する情報が表示部に表示されるので、観察者が抽出部による判定結果の正否を判定するときに、表示された過去の判定結果を参考にすることができる。その結果、観察者により正確な判定を行わせることができる。
 本発明の一態様は、被写体に対し、励起光および照明光を照射する照明部と、該照明部からの励起光の照射により前記被写体において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部と、前記照明部からの照明光の照射により前記被写体から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部と、前記蛍光画像から階調値閾値を超える階調値を有する領域であって、当該領域の前記階調値とは異なる他の特徴量と前記階調値とを乗算したインデックス値が所定のインデックス閾値を越える領域を注目領域と判定して抽出する抽出部と、前記抽出部により抽出された前記注目領域と前記戻り光画像とを対応づけて表示する表示部と、該表示部に表示された前記注目領域に対する前記判定の正否について観察者に入力させる正否入力部と、前記正否入力部より入力された入力結果を反映させるように前記階調値閾値を更新する閾値更新部とを備える蛍光観察装置である。
 上記態様によれば、インデックス値がインデックス閾値を越える領域を注目領域として抽出することにより、注目領域を抽出するための基準として階調値以外の特徴量をも加味することができ、観察目的に応じて、より観察に必要な注目領域を精度よく抽出することができる。特徴量としては、例えば、領域の色などを挙げることができる。
 上記態様においては、前記閾値更新部が、前記正否入力部により、記判定が正しいと入力されたときは前記階調値閾値を低下させるよう更新してもよい。
 上記態様おいては、前記閾値更新部が、前記正否入力部により、前記判定が誤りであると入力されたときは前記階調値閾値を増大させるよう更新してもよい。
 上記態様おいては、観察条件を変更するために着脱される、識別情報を記憶した着脱部品と、該着脱部品に記憶された識別情報を読み取る識別情報読取部と、前記識別情報と前記階調値閾値とを対応づけて記憶する記憶部とを備え、前記抽出部が、取り付けた着脱部品の識別情報に対応して前記記憶部に記憶されている前記階調値閾値を用いて前記注目領域の抽出を開始してもよい。
 このようにすることで、着脱部品を着脱して観察条件を変更すると、着脱部品に記憶されている識別情報が、識別情報読取部によって読み取られ、記憶部により識別情報と対応づけて記憶されている階調値閾値が、抽出部において注目領域を抽出するために使用される。これにより、観察条件に適した階調値閾値を用いて、観察に必要な注目領域を効率よく抽出することができる。
 ここで、着脱部品としては、例えば、内視鏡装置における挿入部等を挙げることができ、その場合に変更される観察条件としては、観察可能な蛍光の波長や強度および観察対象部位(胃、大腸など)等を挙げることができる。細径の内視鏡では、観察対象部位の大きさにより照明光量が相対的に変わるため、閾値の設定を取り付ける挿入部毎に変えることで、効率良く観察することができる。
 上記態様においては、前記被写体毎の個別情報を入力する個別情報入力部と、前記個別情報と前記階調値閾値とを対応づけて記憶する記憶部とを備え、前記抽出部が、前記個別情報入力部により入力された前記個別情報に対応して前記記憶部に記憶されている前記階調値閾値を用いて前記注目領域を抽出してもよい。
 このようにすることで、被写体が変わっても、被写体毎に個別に設定されている適正な階調値閾値を用いて、精度よく注目領域を抽出することができる。
 本発明によれば、蛍光試薬の種類や、個体差、病変部位の違いに関わらず、必要な注目領域をより確実に抽出することができるという効果を奏する。
本発明の第1の実施形態に係る蛍光観察装置を示す全体構成図である。 図1の蛍光観察装置の第1の変形例を示す全体構成図である。 図2の蛍光観察装置の階調値記憶部に記憶されるデータを示す図である。 図2の蛍光観察装置の閾値の変化を示す図である。 本発明の第2の実施形態に係る蛍光観察装置を示す全体構成図である。 図4の蛍光観察装置の保存部に記憶されるデータを説明する図である。 図4の蛍光観察装置の表示部に表示される重畳画像の一例を示す図である。 本発明の第3の実施形態に係る蛍光観察装置を示す全体構成図である。 本発明の第4の実施形態に係る蛍光観察装置を示す全体構成図である。 図1の蛍光観察装置の第2の変形例を示す全体構成図である。
〔第1実施形態〕
 本発明の第1の実施形態に係る蛍光観察装置1について、図面を参照して以下に説明する。
 本実施形態に係る蛍光観察装置1は、図1に示されるように、体内に挿入される細長い挿入部2と、光源(照明部)3と、該光源3からの励起光および照明光を挿入部2の先端から被写体Fに向けて照射する照明ユニット(照明部)4と、挿入部2の先端に設けられ、被写体Fである生体組織の画像情報を取得する撮像ユニット5と、挿入部2の基端側に配置され、撮像ユニット5により取得された画像情報を処理する画像処理部6と、該画像処理部6により処理された画像を表示するモニタ(表示部)7と、観察者が入力を行う入力部8とを備えている。
 光源3は、キセノンランプ9と、該キセノンランプ9から発せられた光から、励起光および照明光(例えば、波長帯域400~740nm)を切り出すフィルタ10と、フィルタ10により切り出された励起光および照明光を集光するカップリングレンズ11を備えている。
 照明ユニット4は、挿入部2の長手方向のほぼ全長にわたって配置され、カップリングレンズ11によって集光された励起光および照明光を導光するライトガイドファイバ12と、挿入部2の先端に設けられ、ライトガイドファイバ12によって導光されてきた励起光および照明光を拡散させて、挿入部2の先端面に対向する被写体Fに照射する照明光学系13とを備えている。
 撮像ユニット5は、被写体Fの所定の観察範囲から戻る光を集光する対物レンズ14と、該対物レンズ14によって集光された光のうち、励起波長以上の光(励起光および蛍光)を反射し、励起波長より短い波長の白色光(戻り光)を透過するダイクロイックミラー15と、該ダイクロイックミラー15により反射された蛍光およびダイクロイックミラー15を透過した白色光をそれぞれ集光する2つの集光レンズ16,17と、集光レンズ16,17によって集光された白色光および蛍光を撮影するCCDのような2個の撮像素子18,19とを備えている。図中、符号20は、ダイクロイックミラー15によって反射された光のうち励起光を遮断する(例えば、波長帯域760~850nmの光だけを透過する)励起光カットフィルタである。
 画像処理部6は、撮像素子18により取得された白色光画像情報から白色光画像G1を生成する白色光画像生成部21と、撮像素子19により取得された蛍光画像情報から蛍光画像G2を生成する蛍光画像生成部22と、蛍光画像G2から所定の閾値(階調値閾値)以上の階調値を有する注目領域を抽出する抽出部23と、抽出部23により抽出された注目領域内の各画素の階調値の平均値である平均階調値を算出する階調値算出部24と、抽出部23により抽出された注目領域と白色光画像G1を重畳させた重畳画像Gを生成する重畳画像生成部25と、閾値を更新する閾値更新部26とを備えている。
 抽出部23は、蛍光画像生成部22により生成された蛍光画像のうち、あらかじめ設定された閾値以上の階調値を有する領域を注目領域として抽出するようになっている。
 重畳画像生成部25は、蛍光画像生成部により生成された蛍光画像G2の内、抽出部23により抽出された注目領域以外のバックグラウンドを除去したものを白色光画像G1と重畳するようになっている。
 モニタ7は、重畳画像生成部25により生成された重畳画像Gを表示するとともに、表示された重畳画像G内の抽出部23が抽出した注目領域が病変の疑いのある領域として正しいか否かの判定の入力を医師等の観察者に促す表示を行うようになっている。入力を促す表示としては、例えば、「抽出された領域は病変の疑いがあるか(Y/N)?」等が挙げられる。
 観察者は、モニタ7に表示された重畳画像Gを目視確認して、白色光画像G1に表示された観察部位の形状や色等の形態的特徴、あるいは注目領域の大きさや明るさ等から、注目領域が病変の疑いのある領域であるか否かを判定し、入力部8によって判定結果を入力するようになっている。
 入力部8は、キーボードやマウス等の任意の入力装置である。
 入力部8により入力された観察者による判定結果は、閾値更新部26に入力されるようになっている。
 閾値更新部26は、階調値算出部24により算出された注目領域における蛍光の平均階調値S1を用いて、入力部8により入力された判定結果に基づいて閾値を更新するようになっている。
 具体的には、観察者により、「注目領域は病変の疑いのある領域である」、すなわち、「抽出部23による注目領域を抽出するための閾値は正しい」と判定された場合には、算出された平均階調値S1から予め決めておいたマージンAを減算した値と現在の閾値S0とを比較し、以下の式により、小さい方の値を新たな閾値S0として更新するようになっている。
 MIN(S1-A,S0)
ここで、
 S1:平均階調値
 A:マージン
である。
 一方、観察者により、「注目領域は病変の疑いのある領域ではない」、すなわち、「抽出部23による注目領域を抽出するための閾値S0は誤りである」と判定された場合には、算出された平均階調値S1を新たな閾値S0として更新するようになっている。
 閾値更新部26により更新された閾値S0は、抽出部23に入力され、抽出部23に新たな閾値S0として設定されるようになっている。これにより、新たな蛍光画像が取得されると、新たな閾値S0によって注目領域が抽出され、同様の手順を繰り返して閾値S0が更新されるようになっている。
 このように構成された本実施形態に係る蛍光観察装置1の作用について以下に説明する。
 本実施形態に係る蛍光観察装置1を用いて被写体Fである患者の体内の生体組織の観察を行うには、体内に挿入部2を挿入して、挿入部2の先端面を被写体Fに対向させる。そして、光源3を作動させて、励起光および照明光を発生させ、カップリングレンズ11によってライトガイドファイバ12に入射させる。ライトガイドファイバ12内を導光されて挿入部2の先端に達した励起光および照明光は、挿入部2の先端の照明光学系13によって拡散されて被写体Fに照射される。
 被写体Fにおいては、内部に含まれている蛍光物質が励起光によって励起されることにより蛍光が発せられるとともに、被写体Fの表面において白色光が反射させられる。蛍光および照明光の反射光(白色光)は、被写体Fから挿入部2の先端面2aに戻り、その一部が対物レンズ14によって集光される。
 対物レンズ14によって集光された蛍光および白色光はダイクロイックミラー15によって波長毎に分岐され、ダイクロイックミラー15を透過した光、例えば、400~700nmの波長帯域の白色光は、集光レンズ16によって集光され、撮像素子18により白色光画像情報として取得される。
 対物レンズ14によって集光された蛍光および白色光の内、ダイクロイックミラー15において反射された光、例えば、700~850nmの波長帯域の励起光および蛍光を含む光からは、励起光カットフィルタ20によって励起光(例えば740nm以下の光)が除去された後に、蛍光のみが集光レンズ17によって集光されて撮像素子19によって蛍光画像情報として取得される。
 各撮像素子18,19によって取得された画像情報は、画像処理部6に送られる。画像処理部6においては、白色光画像情報が白色光画像生成部21に入力されて白色光画像G1が生成される。一方、蛍光画像情報が蛍光画像生成部22に入力されて蛍光画像G2が生成される。
 生成された蛍光画像G2は、抽出部23に入力され、抽出部23において、予め設定された閾値S0以上の階調値を持つ領域が注目領域として抽出される。そして、階調値算出部24により該注目領域における蛍光の平均階調値S1が算出される。
 次いで、重畳画像生成部25により、注目領域に対応する部分の蛍光画像のみが白色光画像G1と重畳されることにより重畳画像Gが生成され、モニタ7に表示される。モニタ7には、観察者による入力を促す表示も同時に表示される。
 観察者は、モニタ7に表示された重畳画像Gを観察しながら、表示された注目領域が病変の疑いがあるか否かを判定し、判定結果を入力部8に入力する。つまり、抽出部23により抽出された注目領域の判定が正しかったのか否かが、観察者による入力によって確認される。そして、入力部8により入力された判定結果は閾値更新部26に入力される。
 観察者による判定結果が入力されると、閾値更新部26は、注目領域の平均階調値S1と観察者による判定結果とに基づいて閾値S0を更新する。
 この場合において、本実施形態に係る蛍光観察装置1によれば、入力部8により入力された判定結果が、病変の疑いが有るというY判定であった場合には、閾値更新部26は、注目領域の平均階調値S1から予め決めておいたマージンAを引いた値と閾値S0を比較し、小さい方の値を新たな閾値S0として更新するので、更新された閾値は下がる。
 つまり、更新前の高い閾値で抽出された注目領域に病変の疑いが有るため、閾値を下げることで、抽出部23による次回の抽出において、さらに低い階調値の病変の疑いのある領域を抽出することができ、見落しを防止して、診断の精度を向上することができる。
 例えば、A=100、S0=1800、S1=1850のとき、MIN(S1-A,S0)=MIN(1850-100,1800)=MIN(1750,1800)より、新しい閾値S0は1750に更新される。
 一方、入力部8により入力された判定結果が、病変の疑いが無いというN判定であった場合には、閾値更新部26は、注目領域の平均階調値S1を新たな閾値として更新するので、更新された閾値は上がる。つまり、更新前の低い閾値で抽出された領域は病変の疑いが無いため、閾値を上げることで、抽出部23による次回の抽出において、病変の疑いのない領域が注目領域として誤って抽出されてしまう無駄を省いて、効率的に診断することができる。
 このように、本実施形態に係る蛍光観察装置1によれば、抽出部23による判定の閾値に、観察者による判定結果をフィードバックして閾値を更新することにより、個体差や病変部位の違いに応じて、病変の疑いが有る領域を精度よく抽出することができるという利点がある。
 本実施形態においては、入力部8により入力された判定結果が、病変の疑いが無いというN判定であった場合、注目領域の平均階調値S1を新たな閾値として更新するとしたが、閾値S0と注目領域の平均階調値S1との平均値を新たな閾値S0として更新してもよい。前回の閾値S0と平均階調値S1との中間地点まで新たな閾値S0を引き上げることで、微妙な判定結果が入力された後の抽出において、前回の平均階調値より若干低い平均階調値を有する注目領域が抽出されずに漏れてしまうことを防止できる。
 本実施形態においては、閾値更新部26における新たな閾値を算出する式として、MIN(S1-A,S0)を例示したが、これに代えて、Y判定のときは更新前の閾値より下がるように閾値を更新し、N判定のときは更新前の閾値より上がるように閾値を更新する他の任意のルールを採用してもよい。
 本実施形態においては、注目領域は蛍光画像G2のうち予め設定された閾値以上の階調値を有する領域としたが、閾値を超える階調値を有する領域のうち、画素数が画素数閾値を超える範囲を注目領域として抽出してもよい。このようにすることで、階調値は高いが面積が小さい領域(ノイズ等)が注目領域として抽出されてしまうのを防止することができ、効率良く注目領域を抽出することができる。
 閾値以上の階調値を有し、かつ、その画素数が画素数閾値を越える注目領域の抽出は、最初に階調値によって抽出された領域の中から画素数の多い領域を抽出してもよいし、最初に画素数によって抽出された領域の中から階調値の高い領域を抽出してもよい。
 本実施形態においては、重畳画像生成部25によって注目領域として抽出された蛍光画像G2と白色光画像G1とを重畳してモニタ7に表示させることとしたが、蛍光画像G2と白色光画像G1とを並列にモニタ7に表示させてもよい。このとき、蛍光画像G2の注目領域を輪郭表示するなどして蛍光画像G2上に表示する。このようにすることで、閾値によって切り取られた注目領域のみを表示することに比べ、より詳細な情報を観察者に提供することができ、より正確に判定させることができる。
 本実施形態においては、抽出部23が、異なる2以上の閾値以上となる領域をそれぞれ抽出し、表示方法を異ならせてモニタ7に表示してもよい。例えば、抽出部23は、平均階調値S1が閾値S0を超える領域と、例えば、閾値S0の80%の値を超える領域とを抽出してもよい。
 本実施形態においては、階調値算出部24において注目領域の平均階調値S1を算出することとしたが、他の値を求めることにしてもよい。
 例えば、注目領域内で最も階調値が低い最低階調値を用いてもよい。この場合には、閾値更新部26は、入力部8により入力された判定がY判定であった場合に、注目領域の最低階調値からマージンAを引いた値と閾値SOを比較し、小さい方の新たな閾値SOとして更新する。このようにすることで、平均階調値S1を用いたときよりも、病変の疑いのある領域の見落とし防止効果を向上することができる。
 例えば、階調値算出部24は、注目領域内で最も高い最高階調値を求めることにしてもよい。この場合には、閾値更新部26は、入力部8により入力された判定がN判定であった場合に、注目領域の最高階調値を新たな閾値SOとして更新する。このようにすることで、平均階調値を用いたときよりも、より効率的に病変の疑いが有る領域を抽出することがきる。
 抽出部23により抽出された注目領域が同一画面上に複数存在する場合には、どの注目領域に対して正否判定を入力させるのかが観察者にわかるように、判定させようとする注目領域の表示のみを他の注目領域とは異ならせるように重畳画像Gを生成すればよい。他の注目領域と区別するためには、判定させようとする注目領域の表示のみを点滅させ、他の注目領域を点灯させるような重畳画像Gを生成すればよい。
 この場合に、複数の注目領域について、その判定の順序を決定して、決定された順序に従って、判定させようとする注目領域の表示のみを点滅させていけばよい。一旦判定が入力された注目領域については、重複した判定入力を防止するために、判定済みであることがわかるような表示、例えば、色を変えることなどにより表示すればよい。
 本実施形態においては、抽出部23において注目領域が抽出されたときに、観察者の判定入力に応じて、その注目領域における蛍光の平均階調値S1のみを用いて閾値を更新することとしたが、これに代えて、過去の複数の注目領域の平均階調値S1とそのときの判定入力結果とに応じて閾値を更新することにしてもよい。
 具体的には、図2に示されるように、抽出部23により注目領域が抽出され、観察者の判定入力が行われたときには、その注目領域における平均階調値S1と判定入力結果とを対応付けて記憶する階調値記憶部27を設けておく。この場合、階調値記憶部27には、例えば、図3Aに示されるようにデータが記憶されることにすればよい。
 そして、閾値更新部26は、新たな注目領域に対する観察者による判定が入力されたときには、その入力された判定結果に対応して階調値記憶部27に記憶されている過去の平均階調値S1を全て読み出して、以下のように閾値を更新することにしてもよい。
 例えば、観察者により、Y判定が入力された場合には、階調値記憶部27から読み出した過去の全てのY判定時における平均階調値S1の平均値から予め決めておいたマージンAを減算した値と現在の閾値S0とを比較し、以下の式により、小さい方の値を新たな閾値S0として更新すればよい。
 MIN(AVE(S1)-A,S0)
ここで、
 AVE(S1):過去のY判定時の平均階調値S1の平均値
 A:マージン
である。
 一方、観察者により、N判定が入力された場合には、階調値記憶部27から読み出した過去の全てのN判定時における平均階調値S1の平均値を新たな閾値S0として更新すればよい。これにより、閾値S0は図3Bに示されるように変化する。
 このようにすることで、最新の判定結果のみならず、過去における判定結果をも反映して閾値S0を更新することができ、病変の疑いがある領域をより精度よく抽出することができる。
 このように、過去の平均階調値S1と判定結果とを対応づけて記憶しておくことにより、Y判定時の閾値S0の更新に用いるマージンAとして、固定値ではなく、記憶されているY判定時における平均階調値S1の標準偏差SD(S1)に応じて設定することもできる。このようにすることで、被験者間のバラツキ、同一被験者における経過時間的なバラツキ、観察者による判定入力のバラツキを加味してマージンAを設定することができ、より適切に閾値S0を更新することができるという利点がある。
 感度(病変を見落とさないこと)を重視する場合には、Y判定時の新しい閾値S1をMIN(AVE(S1)-3SD(S1),S0)として設定し、特異度(病変以外の部分を抽出しないこと)を重視する場合には、Y判定時の新しい閾値S1をMIN(AVE(S1)-SD(S1),S0)として設定してもよい。このようにすることで、検査の目的に応じた適切な閾値S0を更新することができるという利点がある。
〔第2実施形態〕
 次に、本発明の第2の実施形態に係る蛍光観察装置30について、図面を参照して以下に説明する。
 本実施形態の説明において、上述した第1の実施形態に係る蛍光観察装置1と構成を共通とする箇所には同一符号を付して説明を省略する。
 本実施形態に係る蛍光観察装置30は、図4に示されるように、蛍光観察装置1の画像処理部6に、さらに保存部31および確率算出部32を備えている。
 保存部31は、閾値更新部26から、階調値算出部24により算出された注目領域の平均階調値S1と、入力部8から入力された観察者の判定結果とを受け取り、図5に示されるように、区分けされた階調値範囲A1~A2,A2~A3,A3~A4…毎に、正否判定の回数B1,B2,B3…と、Y判定が入力された回数C1,C2,C3…とを対応づけて保存するようになっている。
 すなわち、保存部31は、階調値算出部24により算出された平均階調値S1の注目領域に対して、入力部8からY判定が閾値更新部26に入力されたときには、当該平均階調値S1が属する階調値範囲の正否判定の回数およびY判定の回数の両方を1つインクリメントするようになっている。一方、入力部8からN判定が閾値更新部26に入力されたときには、正否判定の回数のみを1つインクリメントするようになっている。
 確率算出部32は、階調値算出部24により算出された注目領域の平均階調値S1を受け取ると、受け取った平均階調値S1を用いて保存部31内を検索し、該平均階調値S1が属する階調値範囲に対して保存されている正否判定の回数とY判定の回数とを読み出して、Y判定の回数を正否判定の回数で除算することにより、Y判定の確率を算出するようになっている。
 そして、確率算出部32により算出された確率は、重畳画像生成部25に出力されるようになっている。
 重畳画像生成部25は、図6に示されるように、確率に応じて注目領域に色分けされた輪郭および確率の数値が表示されるように重畳画像Gを生成するようになっている。例えば、注目領域の階調値における過去のY判定の確率が90%以上であれば注目領域の輪郭を赤色とし、75%以上90%未満であれば青色、50%以上75%未満であれば黄色とするとともに、注目領域近傍に確率を数値で示した重畳画像Gを生成するようになっている。
 このように構成された本実施形態に係る蛍光観察装置30によれば、階調値算出部24により算出された注目領域の平均階調値S1が確率算出部32に出力され、保存部31に保存されている階調値範囲に対応するY判定回数と正否判定回数とが読み出され、該平均階調値S1が属する階調値範囲におけるY判定の確率が算出され、重畳画像生成部25に出力される。重畳画像生成部25においては、入力された注目領域に対して過去にY判定がなされた確率を、色分けして輪郭表示するとともに、確率が文字表示された重畳画像Gが生成され、モニタ7に出力される。
 このように、本実施形態に係る蛍光観察装置30によれば、過去のY判定の確率が注目領域の輪郭近傍に表示されることにより、過去の判定結果に照らし合わせて注目領域の判定の正否を判定することができ、判定精度を向上することができるという利点がある。
〔第3実施形態〕
 次に、本発明の第3の実施形態に係る蛍光観察装置40について以下に説明する。
 本実施形態の説明において、上述した第1の実施形態に係る蛍光観察装置1と構成を共通とする箇所には同一符号を付して説明を省略する。
 本実施形態に係る蛍光観察装置40は、図7に示されるように、画像処理部6の白色光画像生成部21と重畳画像生成部25の間に、特徴量抽出部41、インデックス算出部42および領域選択部43を備え、閾値更新部26の代わりにインデックス閾値更新部44を備えている。白色光画像取得用の撮像素子19としては、カラー画像を撮影可能な撮像素子19を用いている。
 特徴量抽出部41は、抽出部23により抽出された注目領域に対応する白色光画像G1の領域から、撮像素子19により取得した赤色の階調値を抽出するようになっている。インデックス算出部42は、特徴量抽出部41により抽出された赤色の階調値と階調値算出部24により算出された注目領域の平均階調値S1とを乗算してインデックスを算出するようになっている。
 領域選択部43は、抽出部23により抽出された注目領域の中から、インデックスが所定のインデックス閾値以上となる領域を選択して出力するようになっている。
 重畳画像生成部25は、蛍光画像G2から抽出された注目領域の内、領域選択部43により選択された注目領域を、当該注目領域外のバックグラウンドを除去して白色光画像G1と重畳するようになっている。
 観察者は、モニタ7に表示された重畳画像Gを観察しながら、表示されたインデックス閾値を超える領域が病変の疑いがあるか否かを判定し、判定結果を入力部8に入力する。つまり、領域選択部43により病変の疑いが高いとして選択されたインデックス閾値を超える領域の判定が、観察者の判定に照らして正しいか否かを確認することができる。そして、入力部8により入力された判定結果はインデックス閾値更新部44に出力される。
 インデックス閾値更新部44は、入力部8に入力された判定結果に基づいてインデックス閾値を更新するようになっている。更新されたインデックス閾値は、領域選択部43に出力され、新たなインデックス閾値として設定されるようになっている。これにより、新たな蛍光画像G2が取得され注目領域が抽出されると、インデックスが新たなインデックス閾値を超える領域がモニタ7に表示され、同様の手順を繰り返して閾値が更新されるようになっている。
 この場合において、白色光画像G1中の赤色は被写体Fの血管密度を反映している。癌等の病変部においては、血管新生により血管の密度が高くなっていることが多いため、白色光画像G1の赤色の強度に反映されることが多い。これにより、血管密度の情報と蛍光画像G2の2つを組み合わせ重畳画像Gで観察することにより、さらに正確な判定を行うことができる。
 したがって、領域選択部43による判定に、観察者の判定を反映させてインデックス閾値を更新することにより、病変の疑いが有るか否かを精度よく抽出することができるという利点がある。
 本実施形態においては、使用する蛍光薬剤に応じてインデックスを設定してもよい。この場合、蛍光強度が強い薬剤を用いるときは、蛍光強度の影響を弱くするために、注目領域の階調値に薬剤係数Slを乗算し、一方蛍光強度が弱い薬剤を用いるときは、蛍光を強調するために薬剤係数Shを乗算し、薬剤の性能に左右されないインデックスを設定することができる。(Sl<Sh)
〔第4実施形態〕
 次に、本発明の第4の実施形態に係る蛍光観察装置50について以下に説明する。
 本実施形態の説明において、上述した第1の実施形態に係る蛍光観察装置1と構成を共通とする箇所には同一符号を付して説明を省略する。
 本実施形態に係る蛍光観察装置50においては、図8に示されるように、観察対象部位に応じて交換できるように、光源3および画像処理部6に対して着脱可能な挿入部2(着脱部品)を備えている。挿入部2には、該挿入部2の識別情報を記憶するICチップ51が設けられている。
 本実施形態に係る蛍光観察装置50は、挿入部2が取り付けられる光源側にICチップ51内の識別情報を読み取る読取装置52と、識別情報と閾値とを対応づけて記憶する記憶部53とを備えている。
 読取装置52は、挿入部2が取り付けられると、該挿入部2に設けられているICチップ51内の識別情報を読み取り、読み取った識別情報を記憶部53から取得して、閾値更新部26に出力するようになっている。閾値更新部26は、記憶部53により記憶されている識別上方に基づき、閾値の設定方法を変更する。
 したがって、本実施形態によれば、観察対象部位の大きさにより照明光量が相対的に変わるため、閾値の設定を挿入部2毎に変えることで、効率良く観察することができる。
 具体的には、細径の挿入部2では、照明光量が相対的に弱くなるため、閾値の初期値を低めに設定する必要がある。病変の疑いが有るというY判定であった場合は、マージンAを大きな値に設定したり、病変の疑いが無いというN判定であった場合は、(2×S0+S1)/3を新しい閾値S0と更新するなど、常に閾値が低めに設定されるようにしてもよい。
 病変部が相対的に大きい部位、例えば大腸病変(ポリープ)は食道の病変(扁平上皮癌)などと比べ大きいため、閾値S0の初期値を高めに設定する必要がある。病変の疑いが有るというY判定であった場合は、マージンAを小さな値に設定したり、病変の疑いが無いというN判定であった場合は、(2×S0+3×S1)/5を新しい閾値S0と更新したりするなど、常に閾値が高めに設定されるようにしてもよい。
 このようにすることで、挿入部2の種類による照明光量や、病変部位による蛍光強度の変動に影響されずに観察することができる。
 上記各実施形態に係る蛍光観察装置1,30,40,50においては、患者のIDを入力するID入力部61と、IDと個別情報とを対応づけて記憶する個別情報記憶部62とを備えていてもよい。
 個別情報としては、当該患者の注目領域を抽出するための閾値、当該患者の過去の観察における階調値範囲毎の正否判定回数およびY判定回数等を挙げることができる。
 図9に示す例では、個別情報記憶部62は、個別情報として、患者の過去の観察において更新された閾値を記憶している。
 このようにすることで、閾値更新部26が、ID入力部61から入力されたIDに対応づけて個別情報記憶部62に記憶されている個別情報を読み出して閾値の更新に利用することにより、効率良く観察を行うことができるという利点がある。
 また、上記各実施形態のいずれを組み合わせていてもよい。
 上記各実施形態においては、蛍光観察装置1,30,40,50として内視鏡を例示して説明したが、これに限定されるものではなく、他の任意の蛍光観察装置に適用することにしてもよい。
F 被写体
1,30,40,50 蛍光観察装置
2 挿入部(着脱部品)
3 光源(照明部)
4 照明ユニット(照明部)
7 モニタ(表示部)
8 入力部(正否入力部)
18 撮像素子(蛍光撮像部)
19 撮像素子(戻り光撮像部)
23 抽出部
26 閾値更新部
31 保存部
43 領域選択部(抽出部)
44 インデックス閾値更新部(閾値更新部)
52 読取装置(識別情報読取部)
53 記憶部
61 ID入力部(個別情報入力部)
62 個別情報記憶部(記憶部)

Claims (17)

  1.  被写体に対し、励起光および照明光を照射する照明部と、
     該照明部からの励起光の照射により前記被写体において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部と、
     前記照明部からの照明光の照射により前記被写体から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部と、
     前記蛍光画像から階調値閾値を超える階調値を有する領域を注目領域と判定して抽出する抽出部と、
     該抽出部により抽出された前記注目領域と前記戻り光画像とを対応づけて表示する表示部と、
     該表示部に表示された前記注目領域に対する前記判定の正否について観察者に入力させる正否入力部と、
     該正否入力部により入力された入力結果を反映させるように前記階調値閾値を更新する閾値更新部とを備える蛍光観察装置。
  2.  前記閾値更新部が、前記正否入力部により、前記判定が正しいと入力されたときには、前記階調値閾値を低下させるよう更新する請求項1に記載の蛍光観察装置。
  3.  前記閾値更新部が、前記正否入力部により、前記判定が誤りであると入力されたときは前記階調値閾値を増大させるよう更新する請求項1または請求項2に記載の蛍光観察装置。
  4.  前記閾値更新部は、前記正否入力部により前記抽出部による前記判定が正しいと入力されたときには、前記注目領域の階調値より所定のマージンだけ低い下位階調値が前記階調値閾値を下回っている場合に、前記下位階調値を新たな階調値閾値とするよう更新する請求項1に記載の蛍光観察装置。
  5.  前記抽出部により前記注目領域が抽出され、該注目領域に対する観察者による判定が入力されたときに、該注目領域の階調値と判定結果とを対応づけて記憶する階調値記憶部を備え、
     前記閾値更新部は、新たな注目領域に対して前記正否入力部により前記判定が正しいと入力されたときに、その入力された判定結果に対応して前記階調値記憶部に記憶されている過去の階調値の平均値を算出するとともに、算出された平均値より設定されたマージンだけ低い下位階調値が前記階調値閾値を下回っている場合に、前記下位階調値を新たな階調値閾値とするよう更新する請求項1に記載の蛍光観察装置。
  6.  前記閾値更新部が、前記平均値を算出した過去の階調値の標準偏差を算出し、算出された標準偏差に基づいて前記マージンを設定する請求項5に記載の蛍光観察装置。
  7.  前記閾値更新部が、前記正否入力部により、前記判定が誤りであると入力されたときには、前記階調値閾値を増大させるよう更新する請求項1から請求項6のいずれかに記載の蛍光観察装置。
  8.  前記閾値更新部は、前記正否入力部により前記抽出部による前記判定が誤りであると入力されたときには、前記階調値閾値と前記注目領域の階調値との平均値を新たな階調値閾値とするよう更新する請求項1から請求項4のいずれかに記載の蛍光観察装置。
  9.  前記閾値更新部は、前記正否入力部により前記抽出部による前記判定が誤りであると入力されたときには、その入力された判定結果に対応して前記階調値記憶部に記憶されている過去の階調値の平均値を算出するとともに、算出された平均値をあらたな階調値閾値とするよう更新する請求項5または請求項6に記載の蛍光観察装置。
  10.  前記表示部が、前記注目領域と前記戻り光画像とを重畳させて表示する請求項1から請求項9のいずれかに記載の蛍光観察装置。
  11.  前記抽出部が、前記階調値閾値を越える階調値を有し、かつ、面積閾値を越える面積を有する領域を前記注目領域として抽出する請求項1から請求項10のいずれかに記載の蛍光観察装置。
  12.  前記注目領域の階調値と過去の判定結果に関する情報とを対応づけて保存する保存部を備え、
     前記表示部が、前記注目領域毎に、その階調値に対応する過去の判定結果に関する情報を前記保存部から呼び出して表示する請求項1から請求項11のいずれかに記載の蛍光観察装置。
  13.  被写体に対し、励起光および照明光を照射する照明部と、
     該照明部からの励起光の照射により前記被写体において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部と、
     前記照明部からの照明光の照射により前記被写体から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部と、
     前記蛍光画像から階調値閾値を超える階調値を有する領域であって、当該領域の前記階調値とは異なる他の特徴量と前記階調値とを乗算したインデックス値が所定のインデックス閾値を越える領域を注目領域と判定して抽出する抽出部と、
     前記抽出部により抽出された前記注目領域と前記戻り光画像とを対応づけて表示する表示部と、
     該表示部に表示された前記注目領域に対する前記判定の正否について観察者に入力させる正否入力部と、
     前記正否入力部より入力された入力結果を反映させるように前記階調値閾値を更新する閾値更新部とを備える蛍光観察装置。
  14.  前記閾値更新部が、前記正否入力部により、前記判定が正しいと入力されたときは前記階調値閾値を低下させるよう更新する請求項13に記載の蛍光観察装置。
  15.  前記閾値更新部が、前記正否入力部により、前記判定が誤りであると入力されたときは前記階調値閾値を増大させるよう更新する請求項13または請求項14に記載の蛍光観察装置。
  16.  観察条件を変更するために着脱される、識別情報を記憶した着脱部品と、
     該着脱部品に記憶された識別情報を読み取る識別情報読取部と、
     前記識別情報と前記階調値閾値とを対応づけて記憶する記憶部とを備え、
     前記抽出部が、取り付けた着脱部品の識別情報に対応して前記記憶部に記憶されている前記階調値閾値を用いて前記注目領域の抽出を開始する請求項1から請求項15のいずれかに記載の蛍光観察装置。
  17.  前記被写体毎の個別情報を入力する個別情報入力部と、
     前記個別情報と前記階調値閾値とを対応づけて記憶する記憶部とを備え、
     前記抽出部が、前記個別情報入力部により入力された前記個別情報に対応して前記記憶部に記憶されている前記階調値閾値を用いて前記注目領域を抽出する請求項1から請求項15のいずれかに記載の蛍光観察装置。
PCT/JP2012/063993 2011-06-02 2012-05-30 蛍光観察装置 WO2012165505A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12792635.0A EP2716202B1 (en) 2011-06-02 2012-05-30 Fluorescence observation device
CN201280024503.1A CN103547207B (zh) 2011-06-02 2012-05-30 荧光观察装置
US14/093,806 US20140085686A1 (en) 2011-06-02 2013-12-02 Fluorescence observation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-124469 2011-06-02
JP2011124469A JP5802440B2 (ja) 2011-06-02 2011-06-02 蛍光観察装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/093,806 Continuation US20140085686A1 (en) 2011-06-02 2013-12-02 Fluorescence observation device

Publications (1)

Publication Number Publication Date
WO2012165505A1 true WO2012165505A1 (ja) 2012-12-06

Family

ID=47259357

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/063993 WO2012165505A1 (ja) 2011-06-02 2012-05-30 蛍光観察装置

Country Status (5)

Country Link
US (1) US20140085686A1 (ja)
EP (1) EP2716202B1 (ja)
JP (1) JP5802440B2 (ja)
CN (1) CN103547207B (ja)
WO (1) WO2012165505A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170340273A1 (en) * 2015-03-04 2017-11-30 Olympus Corporation Image processing device, living-body observation device, and image processing method
WO2019087557A1 (ja) * 2017-11-06 2019-05-09 オリンパス株式会社 内視鏡システム
WO2019088121A1 (ja) * 2017-10-30 2019-05-09 公益財団法人がん研究会 画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラム
WO2020012872A1 (ja) * 2018-07-09 2020-01-16 富士フイルム株式会社 医用画像処理装置、医用画像処理システム、医用画像処理方法、及びプログラム
WO2020194693A1 (ja) * 2019-03-28 2020-10-01 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
WO2024034253A1 (ja) * 2022-08-12 2024-02-15 富士フイルム株式会社 内視鏡システム及びその作動方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6110887B2 (ja) * 2015-03-17 2017-04-05 浜松ホトニクス株式会社 重畳画像生成装置及び重畳画像生成装置の作動方法
JP6266559B2 (ja) * 2015-03-31 2018-01-24 富士フイルム株式会社 内視鏡診断装置、画像処理方法、プログラムおよび記録媒体
JP6484336B2 (ja) * 2015-06-17 2019-03-13 オリンパス株式会社 撮像装置
WO2018155560A1 (ja) * 2017-02-24 2018-08-30 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
WO2018158817A1 (ja) 2017-02-28 2018-09-07 日本電気株式会社 画像診断装置、画像診断方法、及びプログラム
WO2019082993A1 (ja) * 2017-10-26 2019-05-02 富士フイルム株式会社 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置
CN113196130A (zh) * 2018-12-12 2021-07-30 富士胶片株式会社 内窥镜系统
JP2021097648A (ja) * 2019-12-23 2021-07-01 横河電機株式会社 核酸配列計測装置及び核酸配列計測方法
CN114903408A (zh) * 2022-04-22 2022-08-16 华伦医疗用品(深圳)有限公司 一种具有诊断成像的内窥镜成像系统
WO2023244661A1 (en) * 2022-06-16 2023-12-21 Intuitive Surgical Operations, Inc. Non-visible-spectrum light image-based operations for visible-spectrum images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002078670A (ja) * 2000-06-26 2002-03-19 Fuji Photo Film Co Ltd 蛍光撮像装置
JP2006191989A (ja) 2005-01-11 2006-07-27 Olympus Corp 蛍光観察内視鏡装置
JP2009061175A (ja) * 2007-09-07 2009-03-26 Konica Minolta Medical & Graphic Inc 医用画像処理装置及びプログラム
JP2009082441A (ja) * 2007-09-28 2009-04-23 Canon Inc 医用診断支援システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0811205B1 (en) * 1994-11-25 2003-09-10 Sophisview Technologies, Ltd System and method for diagnosis of living tissue diseases
JP2001137172A (ja) * 1999-11-11 2001-05-22 Fuji Photo Film Co Ltd 蛍光検出装置
EP1167951B1 (en) * 2000-06-26 2005-04-13 Fuji Photo Film Co., Ltd. Fluorescent image obtaining apparatus
JP2003164414A (ja) * 2001-11-29 2003-06-10 Fuji Photo Film Co Ltd 蛍光診断画像表示方法および表示装置
JP4142326B2 (ja) * 2002-04-05 2008-09-03 Hoya株式会社 自家蛍光を利用した診断システム
JP2006043196A (ja) * 2004-08-05 2006-02-16 Pentax Corp 電子内視鏡システム及び電子内視鏡用プロセッサ
JP5019866B2 (ja) * 2006-12-25 2012-09-05 オリンパス株式会社 蛍光内視鏡及び蛍光内視鏡の作動方法
JP5074044B2 (ja) * 2007-01-18 2012-11-14 オリンパス株式会社 蛍光観察装置および蛍光観察装置の作動方法
JP5081720B2 (ja) * 2008-05-22 2012-11-28 富士フイルム株式会社 蛍光内視鏡装置および励起光ユニット
JP5243865B2 (ja) * 2008-07-07 2013-07-24 浜松ホトニクス株式会社 脳疾患診断システム
JP5393216B2 (ja) * 2009-03-24 2014-01-22 オリンパス株式会社 蛍光観察システムおよび蛍光観察システムの作動方法
JP5658873B2 (ja) * 2009-11-13 2015-01-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002078670A (ja) * 2000-06-26 2002-03-19 Fuji Photo Film Co Ltd 蛍光撮像装置
JP2006191989A (ja) 2005-01-11 2006-07-27 Olympus Corp 蛍光観察内視鏡装置
JP2009061175A (ja) * 2007-09-07 2009-03-26 Konica Minolta Medical & Graphic Inc 医用画像処理装置及びプログラム
JP2009082441A (ja) * 2007-09-28 2009-04-23 Canon Inc 医用診断支援システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2716202A4

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10856805B2 (en) * 2015-03-04 2020-12-08 Olympus Corporation Image processing device, living-body observation device, and image processing method
US20170340273A1 (en) * 2015-03-04 2017-11-30 Olympus Corporation Image processing device, living-body observation device, and image processing method
US11633084B2 (en) 2017-10-30 2023-04-25 Japanese Foundation For Cancer Research Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program
JP2020073081A (ja) * 2017-10-30 2020-05-14 公益財団法人がん研究会 画像診断支援装置、学習済みモデル、画像診断支援方法および画像診断支援プログラム
JPWO2019088121A1 (ja) * 2017-10-30 2019-11-14 公益財団法人がん研究会 画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラム
WO2019088121A1 (ja) * 2017-10-30 2019-05-09 公益財団法人がん研究会 画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラム
JP7335552B2 (ja) 2017-10-30 2023-08-30 公益財団法人がん研究会 画像診断支援装置、学習済みモデル、画像診断支援装置の作動方法および画像診断支援プログラム
WO2019087557A1 (ja) * 2017-11-06 2019-05-09 オリンパス株式会社 内視鏡システム
WO2020012872A1 (ja) * 2018-07-09 2020-01-16 富士フイルム株式会社 医用画像処理装置、医用画像処理システム、医用画像処理方法、及びプログラム
US11991478B2 (en) 2018-07-09 2024-05-21 Fujifilm Corporation Medical image processing apparatus, medical image processing system, medical image processing method, and program
JPWO2020012872A1 (ja) * 2018-07-09 2021-08-02 富士フイルム株式会社 医用画像処理装置、医用画像処理システム、医用画像処理方法、及びプログラム
JP7270626B2 (ja) 2018-07-09 2023-05-10 富士フイルム株式会社 医用画像処理装置、医用画像処理システム、医用画像処理装置の作動方法、プログラム、及び記憶媒体
WO2020194693A1 (ja) * 2019-03-28 2020-10-01 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
JPWO2020194785A1 (ja) * 2019-03-28 2021-09-13 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
CN112788978A (zh) * 2019-03-28 2021-05-11 Hoya株式会社 内窥镜用处理器、信息处理装置、内窥镜系统、程序以及信息处理方法
US11869183B2 (en) 2019-03-28 2024-01-09 Hoya Corporation Endoscope processor, information processing device, and endoscope system
WO2020194785A1 (ja) * 2019-03-28 2020-10-01 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
WO2024034253A1 (ja) * 2022-08-12 2024-02-15 富士フイルム株式会社 内視鏡システム及びその作動方法

Also Published As

Publication number Publication date
EP2716202B1 (en) 2015-10-28
CN103547207B (zh) 2015-10-14
EP2716202A4 (en) 2014-10-29
US20140085686A1 (en) 2014-03-27
JP5802440B2 (ja) 2015-10-28
CN103547207A (zh) 2014-01-29
EP2716202A1 (en) 2014-04-09
JP2012249804A (ja) 2012-12-20

Similar Documents

Publication Publication Date Title
JP5802440B2 (ja) 蛍光観察装置
US9417188B2 (en) Fluorescence observation device
JP6053673B2 (ja) 蛍光観察装置とその画像表示方法
CN110325100B (zh) 内窥镜系统及其操作方法
JP6017219B2 (ja) 蛍光観察装置および蛍光観察システム
JP5993237B2 (ja) 蛍光観察装置
JP6006199B2 (ja) 蛍光観察装置
JP4311607B2 (ja) 蛍光診断情報生成方法および装置
JP5669416B2 (ja) 蛍光観察装置
JP6234375B2 (ja) 観察装置
EP2478826A1 (en) Endoscope system
JP2010227253A (ja) 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法
JPWO2013015120A1 (ja) 蛍光内視鏡装置
JP7190597B2 (ja) 内視鏡システム
JP5555002B2 (ja) 蛍光内視鏡装置
JP2012170641A (ja) 蛍光観察装置
US20150002813A1 (en) Image processing apparatus and image processing method
JP2006340796A (ja) センチネルリンパ節検出システム
JP2002102146A (ja) 蛍光画像表示方法および装置
JP2003339622A (ja) 蛍光判定方法および装置
JP2001198080A (ja) 蛍光画像表示方法および装置
WO2011092617A1 (en) Lymph node detection system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12792635

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012792635

Country of ref document: EP