WO2016147315A1 - 蛍光画像生成装置及び蛍光画像生成方法 - Google Patents

蛍光画像生成装置及び蛍光画像生成方法 Download PDF

Info

Publication number
WO2016147315A1
WO2016147315A1 PCT/JP2015/057891 JP2015057891W WO2016147315A1 WO 2016147315 A1 WO2016147315 A1 WO 2016147315A1 JP 2015057891 W JP2015057891 W JP 2015057891W WO 2016147315 A1 WO2016147315 A1 WO 2016147315A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
image
period
unit
fluorescence
Prior art date
Application number
PCT/JP2015/057891
Other languages
English (en)
French (fr)
Inventor
和勝 平譯
光春 三輪
Original Assignee
浜松ホトニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浜松ホトニクス株式会社 filed Critical 浜松ホトニクス株式会社
Priority to PCT/JP2015/057891 priority Critical patent/WO2016147315A1/ja
Priority to EP15885411.7A priority patent/EP3273223A4/en
Priority to JP2017505922A priority patent/JP6450832B2/ja
Priority to US15/558,490 priority patent/US20180080877A1/en
Publication of WO2016147315A1 publication Critical patent/WO2016147315A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6408Fluorescence; Phosphorescence with measurement of decay time, time resolved fluorescence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/069Supply of sources
    • G01N2201/0691Modulated (not pulsed supply)
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/069Supply of sources
    • G01N2201/0692Regulated sources; stabilised supply

Definitions

  • the present invention relates to a fluorescence image generation apparatus and a fluorescence image generation method for generating a fluorescence image by imaging fluorescence of a measurement target.
  • an observation apparatus for observing a fluorescent image generated in response to irradiation of excitation light from a living body or the like has been used.
  • image data is generated by imaging fluorescence generated by illumination light with an imaging apparatus.
  • excitation is emitted from a light source by inserting a filter that blocks a near-infrared wavelength component of the light source with a switch when capturing a fluorescent image in an operating room. The spectral characteristics of the light are switched to a state that does not affect the fluorescence image capturing.
  • the present invention has been made in view of the above problems, and provides a fluorescence image generation apparatus and a fluorescence image generation method capable of obtaining an appropriate fluorescence image in which the influence of the use environment is reduced by a simple operation.
  • the purpose is to provide.
  • a fluorescence image generation device is a device that generates a fluorescence image by imaging fluorescence emitted from an object, and has a light source that outputs excitation light. And a light irradiation unit that irradiates the object with excitation light in the first period, stops irradiation of excitation light in a second period different from the first period, and repeats irradiation and stop of excitation light.
  • An imaging unit that outputs first image data and second image data corresponding to the second period, and an image processing unit that generates fluorescence image data based on the first image data and the second image data
  • variable exposure time Includes a setting unit that, a.
  • a fluorescence image generation method is a method of generating a fluorescence image by imaging fluorescence emitted from an object, and irradiates the object with excitation light. Using the unit, the step of irradiating the excitation light in the first period and stopping the irradiation of the excitation light in the second period different from the first period (irradiation step) and the irradiation and stop of the excitation light are repeated.
  • An object is imaged using an imaging unit having a step (repetitive step), a light receiving unit including a plurality of pixels arranged two-dimensionally, and a control unit that controls exposure of the light receiving unit based on a drive clock.
  • the irradiation of the excitation light to the object is repeatedly turned on / off in the first period and the second period, and a plurality of pixels are detected in each period.
  • the first image data and the second image data are output by imaging an object using an imaging unit including a light receiving unit, and fluorescence image data is generated based on the image data.
  • the exposure time of the light receiving unit is made variable, by setting an appropriate exposure time according to the use environment at the time of imaging, an appropriate fluorescent image in which the influence of the use environment is reduced with a simple operation Can be obtained.
  • the setting unit variably sets the drive clock count corresponding to the exposure time, and the control unit controls the exposure time of the light receiving unit.
  • the drive clock may be counted based on the set count number.
  • the count number of the driving clock corresponding to the exposure time is variably set, and in the imaging step, in order to control the exposure time of the light receiving unit, The drive clock may be counted based on the set count number.
  • the exposure time of the light receiving unit can be appropriately controlled based on the exposure time variably set by the setting unit.
  • the analysis unit further includes an analysis unit that analyzes pixel values corresponding to a plurality of pixels based on at least one of the first image data, the second image data, and the fluorescence image data. It is also possible to specify a pixel whose pixel value is saturated among a plurality of pixels.
  • the method further includes a step (analysis step) of analyzing pixel values corresponding to a plurality of pixels based on at least one of the first image data, the second image data, and the fluorescence image data. In the step, a pixel having a saturated pixel value among a plurality of pixels may be specified.
  • the exposure time of the light receiving unit can be set to an appropriate value according to the saturation state of the pixel value in the image data. As a result, it is possible to obtain an appropriate fluorescent image in which the influence of the use environment is reduced.
  • the analysis unit and the analysis step may calculate the number of saturated pixels, and the setting unit and the setting step may set the exposure time based on the number of saturated pixels.
  • the exposure time of the light receiving unit can be automatically set to an appropriate value according to the saturation state of the pixel value in the image data. As a result, it is possible to obtain an appropriate fluorescent image in which the influence of the use environment is reduced by a simpler operation.
  • an analysis unit that analyzes pixel values corresponding to a plurality of pixels based on at least one of the first image data, the second image data, and the fluorescence image data
  • the analysis unit includes: A difference value that is a difference between a saturated pixel value indicating that the pixel is saturated and a maximum value of pixel values corresponding to a plurality of pixels may be calculated.
  • the method further includes a step (analysis step) of analyzing pixel values corresponding to a plurality of pixels based on at least one of the first image data, the second image data, and the fluorescence image data.
  • a difference value that is a difference between a saturated pixel value indicating that the pixel is saturated and a maximum value of pixel values corresponding to a plurality of pixels may be calculated.
  • the exposure time of the light receiving unit can be set to an appropriate value according to the difference between the maximum pixel value and the saturated pixel value in the image data. As a result, it is possible to obtain an appropriate fluorescent image in which the influence of the use environment is reduced.
  • the setting unit and the setting step may set the exposure time based on the difference value.
  • the exposure time of the light receiving unit can be automatically set to an appropriate value in accordance with the difference between the maximum pixel value and the saturated pixel value in the image data. As a result, it is possible to obtain an appropriate fluorescent image in which the influence of the use environment is reduced by a simpler operation.
  • the light irradiation unit may be configured to be able to variably set the lengths of the first period and the second period. If such a light irradiation unit is provided, the irradiation time of the excitation light can be set corresponding to the exposure time of the imaging unit.
  • the first period and the second period may be set according to the exposure time. In this way, the fluorescence image can be efficiently captured by setting the irradiation time of the excitation light corresponding to the exposure time of the imaging unit.
  • the first period and the second period may be set to the same time.
  • the processing can be simplified when obtaining fluorescent image data from the first image data and the second image data.
  • the setting unit and the setting step may variably set the exposure time in a range of at least 1 msec and less than 30 msec.
  • the image processing unit and the generation step add each of the plurality of first image data and the plurality of second image data obtained by repetition of the first period and the second period. Differences between the plurality of first image data and the plurality of second image data after addition may be calculated to generate fluorescence image data.
  • the fluorescence image data is generated from the difference between the added plurality of first image data and the added plurality of second image data, so that it is clear even if each exposure time is short. A fluorescent image can be obtained.
  • the image processing unit and the generation step calculate the difference between the first image data and the second image data, repeatedly generate the difference image data, add the plurality of repeatedly generated difference image data, and add fluorescence image data May be generated.
  • the difference image data between the first image data and the second image data is repeatedly generated, and the difference image data is added to generate the fluorescence image data.
  • a clear fluorescent image can be obtained even if the exposure time is short.
  • the image processing unit and the generation step may generate at least one fluorescent image data during 30 msec.
  • a display unit for displaying the result analyzed by the image analysis unit may be further provided. Moreover, you may further provide the step (display step) which displays the result analyzed by the analysis step on a display part. If such a display unit and a display step are provided, an analysis result as a judgment material when adjusting the exposure time of the imaging unit can be visualized, and the exposure time can be easily set.
  • FIG. 1 is a block diagram showing a schematic configuration of a fluorescence image acquisition system 1 according to a preferred embodiment of the present invention. It is a timing chart which shows the timing of the various operations controlled by the camera controller 15 of FIG. It is a timing chart which shows the timing of the various operations controlled by the camera controller 15 of FIG. It is a figure which shows the image of the fluorescence image data produced
  • FIG. 1 is a block diagram showing a schematic configuration of a fluorescence image acquisition system 1 according to a preferred embodiment of the present invention.
  • the fluorescence image acquisition system 1 shown in FIG. 1 is configured so that a user can observe the observation object P as a moving image by acquiring an observation image of the observation object P in time series at a predetermined frame rate.
  • the observation object P is, for example, a living tissue, and a fluorescent dye such as indocyanine green is introduced in advance.
  • a fluorescent dye such as indocyanine green
  • a fluorescence image acquisition system 1 that is one form of a fluorescence image generation device includes a camera unit 7 that includes an imaging device (imaging unit) 3 and a light irradiation device (light irradiation unit) 5, and is electrically coupled to the camera unit 7.
  • a camera controller (setting unit) 15 having a control unit 9 that controls the camera unit 7, an image processing unit 11 that processes image data output from the camera unit 7, and an image analysis unit (analysis unit) 13, and a camera
  • a display device (display unit) 17, an input device 19, and a storage device 21 that are electrically coupled to the controller 15 are provided.
  • the light irradiation device 5 turns on / off the output of the excitation light L 1 of the light source 5 a and the light source 5 a that outputs the excitation light L 1 for exciting the fluorescent dye for the fluorescence observation with respect to the observation object P.
  • a light source controller 5b to be controlled is incorporated.
  • the light source 5a is a light emitting element such as an LED (light emitting diode), LD (laser diode), or SLD (super luminescent diode), and outputs light having a wavelength that excites the fluorescent dye.
  • the light source control unit 5b alternately and repeatedly switches ON (output state) and OFF (output stop state) of the excitation light output of the light source 5a under the control of the camera controller 15 electrically coupled to the camera unit 7. It is a control circuit. Further, by including the light source control unit 5b, the light irradiation device 5 can independently change the length of the excitation light output ON period and the length of the excitation light output OFF period under the control of the camera controller 15. Can be set to Note that the wavelength of light output from the light source 5a preferably does not include the wavelength of fluorescence. However, when the wavelength of light output from the light source 5a includes the wavelength of fluorescence, the light irradiation device 5 outputs from the light source 5a. You may provide the optical filter (not shown) which light-shields the light of the wavelength same as the wavelength of fluorescence among the light to be performed.
  • the imaging device 3 is a device that captures a light image from the observation object P under the control of the camera controller 15.
  • the imaging device 3 transmits light having a wavelength of the fluorescence L 2 emitted by the fluorescent dye, an optical filter 3a for blocking light of a wavelength of the excitation light L 1, the fluorescence L 2 and the observation object is transmitted through the optical filter 3a
  • the image sensor 3b that receives background light, which is light from the background of the fluorescent image of P, and outputs image data by photoelectrically converting the light, and the exposure timing and exposure of the image sensor 3b under the control of the camera controller 15 And an imaging control unit (setting unit) 3c for adjusting time.
  • the imaging element 3b is an area image sensor such as a CCD image sensor or a CMOS image sensor, and controls the light receiving unit 4a having a plurality of pixels (photoelectric conversion elements) arranged two-dimensionally and the exposure of the light receiving unit 4a.
  • An exposure control unit 4b is provided.
  • the exposure control unit 4b receives the count number corresponding to the exposure time set by the camera controller 15 (or the imaging control unit 3c), and counts the drive clock by the count number corresponding to the set exposure time.
  • the exposure of the light receiving unit 4a is controlled. Since the camera controller 15 (or the imaging control unit 3c) can variably set the number of counts corresponding to the exposure time, the fluorescence image acquisition system 1 can variably set the exposure time of the light receiving unit 4a.
  • the control of the exposure time of the light receiving unit 4a is not limited to this, and the camera controller 15 (or the imaging control unit 3c) sets the frequency of the drive clock variably, and the exposure control unit 4b of the imaging element 3b is set.
  • the exposure of the light receiving unit 4a may be controlled based on a driving clock having a different frequency. In this case, even if the count corresponding to the exposure time is the same, the fluorescence image acquisition system 1 can variably set the exposure time of the light receiving unit 4a by changing the frequency of the drive clock. Further, the camera controller 15 (or the imaging control unit 3c) may stop the drive clock for the stop time.
  • the fluorescence image acquisition system 1 variably sets the exposure time of the light receiving unit 4a by changing the length of the stop time. can do.
  • the optical filter 3a in addition to light of the wavelength of the fluorescence L 2, which is configured to transmit also light of the wavelength of the reflected light generated in the observed object P by the illumination light emitted from an external lighting device
  • the image sensor 3b receives reflected light from the observation object P as background light. That is, since there may be illumination devices other than the light irradiation device 5 such as a surgical lamp and a fluorescent lamp in the operating environment such as an operating room, the reflected light on the observation object P by the light from these illumination devices is fluorescent. Light in the vicinity of the same wavelength band as L 2 is also included, and the light is received by the light receiving unit 4a of the image sensor 3b as background light.
  • the imaging element 3b receives fluorescence and background light from the observation object P during the ON period of the excitation light output of the light source 5a (hereinafter simply referred to as “on period”) ( On the other hand, the image sensor 3b outputs the on-image data as image data in response thereto, while the image sensor 3b observes the object to be observed during the OFF period (hereinafter simply referred to as “off period”) of the excitation light output of the light source 5a.
  • the background light from P is received (imaged), and off-image data is output as image data accordingly.
  • the imaging control unit 3c outputs a drive clock to the exposure control unit 4b of the imaging device 3b.
  • the exposure control unit 4b of the image sensor 3b counts drive clocks by the number of clocks corresponding to the exposure time.
  • the exposure control unit 4b uses a clock corresponding to the exposure time set so that the exposure time becomes 30 msec, for example.
  • the drive clock is counted based on the number, and when the frame rate is adjusted in the range of 15 frames / sec to 1000 frames / sec by changing the setting of the camera unit 7, the exposure time ranges from 60 msec to 1 msec accordingly.
  • the driving clock is counted based on the number of clocks corresponding to the exposure time set so as to be variable.
  • the range in which the exposure time can be adjusted is not limited to the above range, but in order to obtain an optimal fluorescent image under various usage environments, the imaging device 3 has at least an exposure time in the range of 1 msec to 30 msec. It is configured to be variable. Note that a drive clock may be output from the camera controller 15 to the exposure control unit 4b of the imaging device 3b.
  • the camera controller 15 is a data processing device including an arithmetic processing circuit such as a CPU, a memory, and the like, and a control unit 9, an image processing unit 11, and an image analysis unit 13 are functionally mounted in the data processing device.
  • the control unit 9, the image processing unit 11, and the image analysis unit 13 are not limited to being configured in the same device, and may be configured to be distributed among a plurality of devices.
  • the control unit 9 of the camera controller 15 controls the operations of the imaging device 3 and the light irradiation device 5. That is, the control unit 9 controls the excitation light output ON / OFF by the light irradiation device 5 and the exposure timing of the image sensor 3b to be synchronized with each other. Further, the control unit 9 controls the exposure time of the image pickup device 3b of the image pickup apparatus 3 to be adjusted via the image pickup control unit 3c based on the analysis result of the image analysis unit 13 described later. For example, the control unit 9 of the camera controller 15 sets a count number corresponding to the exposure period of the light receiving unit 4a of the image sensor 3b based on the analysis result of the image analysis unit 13.
  • the image processing unit 11 of the camera controller 15 performs image processing on the on-image data and the off-image data output from the image sensor 3b, and thereby a fluorescent image that is an image formed by linking the fluorescence of the light image from the observation target P. And the background image data reflecting the background image that is the image connecting the background light of the light image from the observation object P is created. Specifically, the image processing unit 11 creates fluorescent image data by calculating a difference at the same pixel position of each image data between the on-image data and the off-image data. Further, the image processing unit 11 creates background image data using the off-image data as it is.
  • the image processing unit 11 uses the fluorescence image data and the background image data to superimpose image data in which an image in which a background image from the observation object P and a fluorescence image from the observation object P are superimposed is reflected. And the created superimposed image data is sent to the display device 17 and the storage device 21 as output image data.
  • the image analysis unit (analyzer) 13 of the camera controller 15 targets at least one of the on-image data output from the imaging device 3, the off-image data, and the fluorescence image data created by the image processing unit 11. Then, the pixel value indicating the light receiving sensitivity corresponding to the pixel in the image data is analyzed. That is, the image analysis unit 13 identifies a pixel whose pixel value is saturated among a plurality of pixels in the image data to be analyzed, calculates the number of pixels of the identified pixel, and controls the number of pixels as an analysis result Notify unit 9.
  • the image analysis unit 13 specifies the maximum value of the pixel values of a plurality of pixels in the image data to be analyzed, and calculates a difference value between the maximum value and a saturated pixel value indicating that the pixel is saturated. The difference value is also notified to the control unit 9 as an analysis result.
  • the display device 17 is an image output device such as a display device coupled to the camera controller 15, and displays the display image data sent from the image processing unit 11 and the analysis result analyzed by the image analysis unit 13.
  • the input device 19 is a data input device such as a keyboard, a mouse, or a touch panel display coupled to the camera controller 15, parameters for designating imaging conditions in the camera unit 7, and image processing in the image processing unit 11. Enter the parameters that indicate the conditions for For example, the input device 19 accepts input of setting values such as the exposure time of the imaging device 3, the irradiation intensity of the light irradiation device 5, and the creation conditions at the time of creation of the superimposed image in the image processing unit 11, and these parameters are set in the camera. Set in controller 15.
  • control unit 9 of the camera controller 15 performs control so as to adjust the exposure time of the imaging device 3 and the irradiation intensity of the light irradiation device 5, and the image processing unit 11 of the camera controller 15 controls the superimposed image. Adjust the creation conditions. For example, the control unit 9 of the camera controller 15 sets a count number corresponding to the exposure time of the light receiving unit 4a of the image sensor 3b based on the information related to the exposure time input to the input device 19. And the information regarding a count number is output to the exposure control part 4b of the image pick-up element 3b.
  • the storage device 21 is a data storage device coupled to the camera controller 15, and is set by display image data and analysis result data, various image data processed by the camera controller 15, and the input device 19. Stores various parameters.
  • FIGS. 2 and 3 the temporal relationship between the ON / OFF timing of the excitation light output of the light source 5a, the exposure timing of the image sensor 3b, and the generation timing of the fluorescence image data by the image processing unit 11 will be described. While explaining. 2A and 2B are timing charts showing timings of various operations controlled by the camera controller 15.
  • FIG. 2A is an ON / OFF timing of the excitation light output of the light source 5a
  • FIG. 2B is an exposure timing of the image sensor 3b
  • c) shows the storage timing of the image data of the image processing section 11
  • (d) shows the creation timing of the fluorescence image data of the image processing section 11.
  • the control unit 9 excites the excitation light of the light source 5a so that the on period and the off period are alternately repeated in synchronization with the exposure period of one frame of the image sensor 3b.
  • ON / OFF timing is controlled.
  • the length of the on period, the length of the off period, and the length of the exposure period (exposure time) are substantially the same, and the off period is set to be the same length as the on period and different periods. For example, 30 msec is set as the length of the on period and the off period.
  • the image processing unit 11 acquires, as the on-image data A, the image data output based on the charge accumulated according to the exposure of the image sensor 3b in the on-period. Thereafter, the image processing unit 11 acquires, as off-image data B, image data output based on the charge accumulated according to the exposure of the image sensor 3b in the subsequent off-period.
  • the first on-image data A is stored in the memory in the image processing unit 11 at the time of acquisition, and the off-image data B acquired thereafter is input to the difference circuit in the image processing unit 11 and stored in the memory. Saved.
  • the on-image data A in the memory is also input to the difference circuit at the timing when the off-image data B is input to the difference circuit, whereby the difference between the two image data is calculated and the fluorescence image data AB is created. . Subsequently, the subsequent on-image data A 'is input to the difference circuit and stored in the memory.
  • the off-image data B in the memory is also input to the difference circuit, whereby the difference between the two image data is calculated and the fluorescence image data A′-B is created. Is done. By repeating such processing, the image processing unit 11 can acquire time-series fluorescence image data for each exposure period (frame) of the image sensor 3b.
  • FIG. 3 shows a temporal relationship between the exposure timing of the image sensor 3 b and the creation timing of fluorescent image data by the image processing unit 11 when the exposure time of the imaging device 3 is adjusted by the control unit 9. .
  • FIG. 3 is a timing chart showing timings of various operations controlled by the camera controller 15 when the exposure time is adjusted to be shorter than that in FIG. 2, and (a) shows ON / OFF of the excitation light output of the light source 5a.
  • (B) shows the exposure timing of the image sensor 3b
  • (c) shows the image data storage timing of the image processing unit 11, and
  • (d) shows the generation timing of the fluorescence image data of the image processing unit 11, respectively.
  • the on period and the off period related to the excitation light of the light source 5a are also shortened in synchronization with the exposure period. To be controlled. For example, 15 msec is set as the length of the on period and the off period.
  • Figure 4 is a view showing an image G F fluorescence image data generated based on the on the image data G ON and OFF the image data G OFF by the image processing unit 11.
  • the fluorescence image IM F and the background image IM B and is on the image G ON which is reflected, by the difference between the off image G OFF the background image IM B is reflected is taken, reflecting the fluorescence image IM F Fluorescence image data obtained can be obtained.
  • the image processing unit 11 adds each of a plurality of the same number of pieces of on-image data and a plurality of the same number of pieces of off-image data obtained by repeating the on period and the off period, and the on-image data after the addition And the difference image data between the off-image data after the addition and fluorescence image data. For example, according to the example of FIG.
  • the fluorescence image data ⁇ (A + A ′ + A ′′) ⁇ (B + B ′ + B ′′) ⁇ is generated.
  • the number of image data to be added is specified by a parameter set by the input device 19. However, from the viewpoint of acquiring the fluorescence image data as a moving image with high time resolution, it is preferable that the exposure time and the number of additions are set so that at least one piece of fluorescence image data is obtained in 30 msec.
  • FIG. 5 is a graph showing a histogram of luminance values of image data calculated by the image analysis unit 13
  • FIG. 6 is a flowchart showing a procedure of image analysis processing by the image analysis unit 13 and exposure time adjustment processing by the control unit 9. It is.
  • the exposure time of the imaging device 3 is set based on the initial value of the exposure time stored in the storage device 21 by the control unit 9 (step S01).
  • the image analysis unit 13 acquires image data to be analyzed.
  • the image data to be analyzed includes off-image data acquired by the image processing unit 11 in a state where the excitation light output of the light source 5a is turned off. Image processing is performed in a state where the excitation light output of the light source 5a is turned on.
  • the image data may be on-image data acquired by the unit 11, may be fluorescence image data generated by the image processing unit 11, or may be superimposition image data obtained by selecting and superimposing any one of them. There may be.
  • the image analysis unit 13 calculates the histogram data indicating the frequency distribution of the luminance values by summing up the luminance values of the pixels in the image data for the processing target image data (step S03).
  • FIG. 5 shows an example of histogram data calculated by the image analysis unit 13.
  • the frequency distribution in the range from 0, which is the minimum value of the luminance value, to the maximum value (saturated luminance value) V S of the luminance value indicating saturated luminance is calculated.
  • the image analysis unit 13 specifies the number N of pixels having the saturated luminance value V S among the pixels in the image data to be processed based on the calculated histogram data (step S04). Thereafter, the image analysis unit 13 determines whether or not the specified number of pixels N is equal to or greater than a predetermined threshold (step S05). As a result of the determination, if it is determined that the number of pixels N is equal to or greater than the threshold value (step S05; YES), the control unit 9 causes the exposure time of the imaging device 3 to be shorter than the current set value by a predetermined time. It is reset (step S06), and the process returns to step S02.
  • step S05 when the image analysis unit 13 determines that the number of pixels N is less than the threshold (step S05; NO), based on the histogram data, out of the luminance values of the pixels in the image data to be processed. maximum brightness value V M is specified is the maximum value (step S07). Further, the image analysis unit 13 calculates a difference luminance value V S ⁇ V M that is a difference value between the saturation luminance value V S and the maximum luminance value V M (step S08). Thereafter, the image analysis unit 13, whether or not the difference luminance values V S -V M is the threshold value or more which is defined in advance is determined (step S09).
  • Step S10 a predetermined time than the current set value exposure time of the image pickup device 3 by the control unit 9 (Step S10), and the process returns to step S02.
  • the difference luminance value V S -V M is determined to be less than the threshold value by the image analysis unit 13; a (step S09 NO)
  • the exposure time set in the time the final exposure time is terminated. Thereafter, the control unit 9 sets, for example, at least one of the count number corresponding to the exposure time, the frequency of the drive clock, and the stop time based on the adjusted exposure time.
  • the exposure time adjustment process described above is a process that can cope with the length of the initial value of the exposure time. That is, in the adjustment process from step S04 to S06, when the initial value of the exposure time is set to an exposure time of 30 msec corresponding to a general frame rate of 30 fps, the exposure time is shortened to an optimum value. It is possible to adjust. On the other hand, in the adjustment processing from step S07 to S10, when the initial value of the exposure time is set to a sufficiently small time (for example, 1 msec), the exposure time is adjusted to an optimum value for adjustment. Is possible.
  • the processing from steps S04 to S06 and the processing from steps S07 to S10 are not necessarily both performed, and any processing is performed when the initial value of the exposure time is fixed in advance. May be omitted.
  • FIG. 7 shows an example of changes in histogram data calculated along with the exposure time adjustment process when the initial value of the exposure time is set to a relatively large value.
  • the number of pixels N corresponding to the saturated luminance value V S exceeds the threshold value N Th as shown in the histogram H 1 in FIG.
  • the number N of pixels is decreased to be less than the threshold value N Th and the histograms H 2 and H 3 in which the frequency distribution of luminance values between 0 and the saturated luminance value V S is increased are obtained. Is done.
  • FIG. 8 shows an example of changes in histogram data calculated along with the exposure time adjustment process when the initial value of the exposure time is set to a relatively small value.
  • FIG. 9 is a flowchart showing the procedure of the fluorescence image data generation process by the fluorescence image acquisition system 1.
  • the fluorescence image acquisition system 1 is configured to acquire a fluorescence image of the observation object P in time series by repeating the process shown in FIG.
  • step S21 when a fluorescent image acquisition process is started by an instruction input by a user, an exposure time adjustment process of the imaging device 3 is executed (step S21). Then, under the control of the control unit 9, ONN / OFF switching of the excitation light from the light source 5a is started at a timing (on period, off period) synchronized with the exposure period of the image sensor 3b (step S22). In synchronization with this on-period, on-image data is acquired from the imaging device 3 by the image processing unit 11 (step S23). Subsequently, off image data is acquired from the imaging device 3 by the image processing unit 11 in synchronization with the off period (step S24).
  • the image processing unit 11 calculates the difference between the on-image data and the off-image data, thereby creating fluorescent image data (step S25). Further, the image processing unit 11 creates superimposed image data by superimposing the off image data and the fluorescence image data (step S26). This superimposed image data is displayed on the display device 17.
  • the irradiation of the excitation light to the observation target P is repeatedly turned on / off in the on period and the off period, and the imaging element 3b having a plurality of pixels in each period is used.
  • the imaging element 3b having a plurality of pixels in each period is used.
  • fluorescence image data is generated based on the image data.
  • the exposure times of the plurality of pixels of the image pickup device 3b are made variable, setting the appropriate exposure time according to the use environment at the time of image pickup reduces the influence of the use environment with a simple operation. A suitable fluorescent image can be obtained.
  • the exposure time of the image sensor 3b can be set to an appropriate value according to the saturation state of the pixel value in the image data.
  • an appropriate fluorescent image in which the influence of the use environment is reduced. That is, it is possible to prevent the pixel from being saturated when the exposure time is too long, and to prevent a situation in which noise becomes dominant in the fluorescent image data due to the exposure time being too short.
  • a lighting fixture such as a surgical light
  • There are various types of surgical lamps having various output wavelengths and illuminances such as LED type, fluorescent lamp type, and lamp type. Since the exposure time is configured to be variably set under the control of the camera controller 15, the optimum exposure time is automatically set regardless of the type of the surgical light.
  • the on period and the off period are set according to the exposure time, and are set to the same time.
  • the irradiation time of the excitation light is set corresponding to the exposure time of the image sensor 3b, so that the fluorescent image can be efficiently captured and the exposure conditions for the on-image data and the off-image data are aligned. Therefore, processing can be simplified when obtaining fluorescent image data from these.
  • the image processing unit 11 generates fluorescence image data by calculating a difference between the added on-image data and the added off-image data. Thereby, a clear fluorescent image can be obtained even if the individual exposure times of the on-image data and the off-image data are short.
  • the adjustment process of the exposure time by the camera controller 15 is not limited to being automatically controlled according to the analysis result of the image analysis unit 13, but according to the instruction input input to the input device 19 by the user, The exposure time may be adjusted.
  • FIG. 10 is a flowchart showing the flow of exposure time adjustment processing in the fluorescence image acquisition system 1A according to the modification of the present invention.
  • the exposure time of the imaging device 3 is set based on the initial value of the exposure time stored in the storage device 21 by the control unit 9 (step S31).
  • the image analysis unit 13 acquires image data to be analyzed.
  • the image analysis unit 13 calculates the histogram data indicating the frequency distribution of the luminance values by counting the luminance values of the pixels in the image data for the image data to be processed, and the number of pixels. N, analysis of such difference luminance value V S -V M is calculated (step S33).
  • FIG. 11 shows an example of the layout of information output to the display device 17 at this time. As shown in FIG.
  • the area A 6 is displayed superimposed image based on the superimposed image data
  • the region A 7 histogram calculated on the basis of the off-image data is displayed in graphical form
  • area the a 8 histogram calculated on the basis of the fluorescence image data is displayed in graphical format
  • the region a 9 the number of pixels N
  • the various parameters including the analysis result of such difference luminance value V S -V M is displayed.
  • the necessity of exposure time adjustment is determined based on the display information output on the display device 17 by the user, and the user inputs an instruction to change the exposure time to the input device 19.
  • the controller 9 of the camera controller 15 determines whether or not the user has input an instruction to change the exposure time (step S35). As a result of the determination, if it is determined that an instruction to change the exposure time has been issued (step S35; YES), the exposure time of the imaging device 3 is reset by the control unit 9 (step S36), and the process proceeds to step S32. Returned.
  • step S35 when it is determined that there is no instruction to change the exposure time (step S35; NO), the exposure time set at that time is determined as the final exposure time (step S37), and the adjustment of the exposure time is performed. The process ends. Thereafter, the control unit 9 sets, for example, at least one of the count number corresponding to the exposure time, the frequency of the drive clock, and the stop time based on the adjusted exposure time.
  • the fluorescence image data when the luminance value of the fluorescence image data created from one piece of on-image data and one piece of off-image data is small, the fluorescence image data is generated as follows. Also good. That is, the image processing unit 11 repeatedly generates difference image data by calculating the difference between on-image data and off-image data obtained alternately with repetition of the on-period and off-period, The fluorescence image data may be calculated by adding the difference image data. For example, according to the example of FIG. 3, the difference image data A ⁇ B is calculated by calculating the difference between the on-image data A and the off-image data B, and then the same processing is repeated to thereby calculate the difference image data A ′.
  • the present invention uses a fluorescence image generation apparatus and a fluorescence image generation method for generating a fluorescence image by imaging fluorescence of a measurement target, and obtains an appropriate fluorescence image with reduced influence by the use environment with a simple operation. It makes it possible.
  • SYMBOLS 1 Fluorescence image acquisition system, 3 ... Imaging device (imaging part), 3b ... Imaging element, 4a ... Light receiving part, 4b ... Exposure control part, 3c ... Imaging control part (setting part), 5 ... Light irradiation apparatus (light irradiation) parts), 5a ... light source, 11 ... image processing unit, 13 ... image analysis unit, 15 ... camera controller (setting unit), 17 ... display, 19 ... input apparatus, 21 ... storage device, H 1, H 2, H 3 , H 4 , H 5 ... histogram, L 1 ... excitation light, L 2 ... fluorescence, P ... observation object.

Landscapes

  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

 本発明の一形態に係る蛍光画像取得システム1は、観察対象物Pから発せられた蛍光を撮像することによって蛍光画像を生成するシステムであって、オン期間において観察対象物Pに対して励起光を出力し、オフ期間において励起光の出力を停止することにより、励起光の出力と停止とを繰り返す光照射装置5と、2次元的に配列された複数の画素を含む受光部4aと、受光部4aの露光を制御する露光制御部4bとを有し、オン期間及びオフ期間のそれぞれにおいて観察対象物Pを撮像することによってオン画像データ及びオフ画像データを出力する撮像装置3と、オン画像データ及びオフ画像データに基づいて、蛍光画像データを生成するとともに受光部4aの露光時間を設定するカメラコントローラ15とを備える。

Description

蛍光画像生成装置及び蛍光画像生成方法
 本発明は、測定対象の蛍光を撮像することにより蛍光画像を生成する蛍光画像生成装置及び蛍光画像生成方法に関する。
 従来から、生体等から励起光の照射に応じて生じる蛍光像を観察する観察装置が用いられている。このような観察装置では、照明光によって生じた蛍光を撮像装置で撮像することにより画像データを生成する。このような観察装置を使用する際には、蛍光以外の光の画像データへの影響を極力取り除くことが望ましい。例えば、下記特許文献1に記載された画像診断装置では、手術室での蛍光像の撮像時に、スイッチによって光源の近赤外波長成分を遮断するフィルタを挿入することにより、光源から照射される励起光のスペクトル特性を蛍光像撮像に影響の無い状態に切り換えている。
特開平9-000540号公報 特開平7-155292号公報 特表2003-510121号公報
 しかしながら、上述した特許文献1に記載の装置においては、スイッチによりフィルタの出し入れを行う必要があるため、操作が煩雑であった。また、手術室等の使用環境には無影灯のほか、蛍光灯等の他の照明器具も存在していることが多いため、それらの影響を取り除くことは困難であった。
 そこで、本発明は、かかる課題に鑑みて為されたものであり、簡易な操作で使用環境による影響が低減された適切な蛍光画像を得ることが可能な蛍光画像生成装置及び蛍光画像生成方法を提供することを目的とする。
 上記課題を解決するため、本発明の一形態に係る蛍光画像生成装置は、対象物から発せられた蛍光を撮像することによって蛍光画像を生成する装置であって、励起光を出力する光源を有し、第1の期間において対象物に対して励起光を照射し、第1の期間と異なる第2の期間において励起光の照射を停止し、励起光の照射と停止とを繰り返す光照射部と、2次元的に配列された複数の画素を含む受光部と、駆動クロックに基づいて受光部の露光を制御する制御部とを有し、対象物を撮像することによって、第1の期間に対応する第1の画像データ及び第2の期間に対応する第2の画像データを出力する撮像部と、第1の画像データ及び第2の画像データに基づいて、蛍光画像データを生成する画像処理部と、受光部の露光時間を可変に設定する設定部と、を備える。
 或いは、本発明の他の形態に係る蛍光画像生成方法は、対象物から発せられた蛍光を撮像することによって蛍光画像を生成する方法であって、対象物に対して励起光を照射する光照射部を用いて、第1の期間において励起光を照射し、第1の期間と異なる第2の期間において励起光の照射を停止するステップ(照射ステップ)と、励起光の照射と停止とを繰り返すステップ(繰返しステップ)と、2次元的に配列された複数の画素を含む受光部と、駆動クロックに基づいて受光部の露光を制御する制御部とを有する撮像部を用いて対象物を撮像することによって、第1の期間に対応する第1の画像データ及び第2の期間に対応する第2の画像データを出力するステップ(撮像ステップ)と、画像処理部を用いて、第1の画像データ及び第2の画像データに基づいて、蛍光画像データを生成するステップ(生成ステップ)と、受光部の露光時間を可変に設定するステップ(設定ステップ)と、を備える。
 このような蛍光画像生成装置、或いは蛍光画像生成方法によれば、対象物への励起光の照射が第1の期間及び第2の期間で繰り返しオン/オフされ、それぞれの期間で複数の画素を含む受光部を有する撮像部を用いて対象物を撮像することにより、第1の画像データ及び第2の画像データが出力され、それらの画像データを基に蛍光画像データが生成される。この際、受光部の露光時間が可変にされているので、撮像時の使用環境に応じて適切な露光時間を設定することにより、簡易な操作で使用環境による影響が低減された適切な蛍光画像を得ることができる。
 ここで、上記一形態に係る蛍光画像生成装置においては、設定部は、露光時間に相当する駆動クロックのカウント数を可変に設定し、制御部は、受光部の露光時間を制御するために、設定されたカウント数に基づいて駆動クロックをカウントする、ことでもよい。また、上記他の形態に係る蛍光画像生成方法においては、設定ステップでは、露光時間に相当する駆動クロックのカウント数を可変に設定し、撮像ステップでは、受光部の露光時間を制御するために、設定されたカウント数に基づいて駆動クロックをカウントする、ことでもよい。この場合、設定部で可変に設定された露光時間に基づいて受光部の露光時間を適切に制御することができる。
 また、第1の画像データ、第2の画像データ、及び蛍光画像データのうち少なくとも1つの画像データに基づいて、複数の画素に対応する画素値を解析する解析部をさらに備え、解析部は、複数の画素のうち画素値が飽和した画素を特定する、ことでもよい。また、第1の画像データ、第2の画像データ、及び蛍光画像データのうち少なくとも1つの画像データに基づいて、複数の画素に対応する画素値を解析するステップ(解析ステップ)をさらに備え、解析ステップでは、複数の画素のうち画素値が飽和した画素を特定する、ことでもよい。この場合、画像データにおける画素値の飽和状態に応じて受光部の露光時間を適切な値に設定することができる。その結果、使用環境による影響が低減された適切な蛍光画像を得ることができる。
 また、解析部及び解析ステップは、飽和した画素の数を算出し、設定部及び設定ステップでは、飽和した画素の数に基づいて露光時間を設定する、ことでもよい。かかる構成を採れば、画像データにおける画素値の飽和状態に応じて受光部の露光時間を自動で適値に設定することができる。その結果、より簡易な操作で使用環境による影響が低減された適切な蛍光画像を得ることができる。
 さらに、第1の画像データ、第2の画像データ、及び蛍光画像データのうち少なくとも1つの画像データに基づいて、複数の画素に対応する画素値を解析する解析部をさらに備え、解析部は、画素が飽和したことを示す飽和画素値と、複数の画素に対応する画素値の最大値との差である差分値を算出する、ことでもよい。また、第1の画像データ、第2の画像データ、及び蛍光画像データのうち少なくとも1つの画像データに基づいて、複数の画素に対応する画素値を解析するステップ(解析ステップ)をさらに備え、解析ステップでは、画素が飽和したことを示す飽和画素値と、複数の画素に対応する画素値の最大値との差である差分値を算出する、ことでもよい。こうすれば、画像データにおける画素値の最大値と飽和画素値との差に応じて受光部の露光時間を適切な値に設定することができる。その結果、使用環境による影響が低減された適切な蛍光画像を得ることができる。
 またさらに、設定部及び設定ステップは、差分値に基づいて露光時間を設定する、ことでもよい。この場合、画像データにおける画素値の最大値と飽和画素値との差に応じて受光部の露光時間を自動で適値に設定することができる。その結果、より簡易な操作で使用環境による影響が低減された適切な蛍光画像を得ることができる。
 さらにまた、光照射部は、第1の期間及び第2の期間の長さを可変に設定可能に構成されていてもよい。かかる光照射部を備えれば、励起光の照射時間を撮像部の露光時間に対応して設定することができる。
 第1の期間及び第2の期間は、露光時間に応じて設定されていてもよい。こうすれば、励起光の照射時間を撮像部の露光時間に対応して設定されることで、蛍光像を効率的に撮像することができる。
 また、第1の期間と第2の期間とは、同一の時間に設定されていてもよい。この場合、第1の画像データと第2の画像データから蛍光画像データを得る際に処理を簡略化できる。
 またさらに、設定部及び設定ステップは、露光時間を、少なくとも1msec以上30msec未満の範囲で可変に設定してもよい。
 さらにまた、画像処理部及び生成ステップは、第1の期間及び第2の期間の繰り返しによって得られた複数の第1の画像データ及び複数の第2の画像データのそれぞれを加算し、加算後の複数の第1の画像データと加算後の複数の第2の画像データとの差分を算出し、蛍光画像データを生成する、ことでもよい。かかる構成を備えれば、加算された複数の第1の画像データと加算された複数の第2の画像データとの差分から蛍光画像データが生成されるので、個々の露光時間が短くても明瞭な蛍光画像を得ることができる。
 画像処理部及び生成ステップは、第1の画像データと第2の画像データとの差分を算出して差分画像データを繰り返し生成し、繰り返し生成された複数の差分画像データを加算し、蛍光画像データを生成する、ことでもよい。かかる構成を備えれば、第1の画像データと第2の画像データとの差分画像データが繰り返し生成されてそれらの差分画像データが加算されることにより蛍光画像データが生成されるので、個々の露光時間が短くても明瞭な蛍光画像を得ることができる。
 また、画像処理部及び生成ステップは、30msecの間に少なくとも1つの蛍光画像データを生成するものであってもよい。
 さらに、画像解析部によって解析された結果を表示する表示部をさらに備えてもよい。また、解析ステップによって解析された結果を表示部に表示するステップ(表示ステップ)をさらに備えてもよい。かかる表示部及び表示ステップを備えれば、撮像部の露光時間を調整する際の判断材料としての解析結果を可視化することができ、露光時間の設定が容易となる。
 本発明によれば、簡易な操作で使用環境による影響が低減された適切な蛍光画像を得ることができる。
本発明の好適な一実施形態に係る蛍光画像取得システム1の概略構成を示すブロック図である。 図1のカメラコントローラ15によって制御される各種動作のタイミングを示すタイミングチャートである。 図1のカメラコントローラ15によって制御される各種動作のタイミングを示すタイミングチャートである。 図1の画像処理部11によってオン画像データ及びオフ画像データを基に生成された蛍光画像データのイメージを示す図である。 図1の画像解析部13によって算出された画像データの輝度値のヒストグラムを示すグラフである。 図1の画像解析部13による画像解析処理及び制御部9による露光時間の調整処理の手順を示すフローチャートである。 図1の画像解析部13によって算出された画像データの輝度値のヒストグラムを示すグラフである。 図1の画像解析部13によって算出された画像データの輝度値のヒストグラムを示すグラフである。 図1の蛍光画像取得システム1による蛍光画像データの生成処理の手順を示すフローチャートである。 本発明の変形例にかかる蛍光画像取得システムにおける露光時間調整処理の手順を示すフローチャートである。 図10の処理時の蛍光画像取得システムの表示装置における表示例を示す図である。
 以下、図面を参照しつつ本発明に係る蛍光画像生成装置及び蛍光画像生成方法の好適な実施形態について詳細に説明する。なお、図面の説明においては同一又は相当部分には同一符号を付し、重複する説明を省略する。
 図1は、本発明の好適な一実施形態に係る蛍光画像取得システム1の概略構成を示すブロック図である。図1に示す蛍光画像取得システム1は、所定のフレームレートで時系列に観察対象物Pについての観察画像を取得することで、ユーザが観察対象物Pを動画で観察できるように構成されている。観察対象物Pは、例えば生体組織であり、予めインドシアニングリーンなどの蛍光色素が導入されている。蛍光画像取得システム1を用いれば、蛍光色素が生体の血管やリンパ管などを流れる様子や生体内の臓器やリンパ節などに蛍光色素が蓄積される様子を観察することができる。蛍光画像生成装置の一形態である蛍光画像取得システム1は、撮像装置(撮像部)3と光照射装置(光照射部)5とを内蔵するカメラユニット7と、カメラユニット7に電気的に結合され、カメラユニット7を制御する制御部9とカメラユニット7から出力された画像データを処理する画像処理部11及び画像解析部(解析部)13とを有するカメラコントローラ(設定部)15と、カメラコントローラ15に電気的に結合された、表示装置(表示部)17、入力装置19、及び記憶装置21とを備えている。
 光照射装置5は、観察対象物Pに対して蛍光観察のために蛍光色素を励起するための励起光Lを出力する光源5aと、光源5aの励起光Lの出力をON/OFFを制御する光源制御部5bとを内蔵する。光源5aは、LED(発光ダイオード)、LD(レーザダイオード)、あるいはSLD(スーパールミネッセントダイオード)等の発光素子などであり、蛍光色素を励起する波長の光を出力する。光源制御部5bは、カメラユニット7と電気的に結合されたカメラコントローラ15による制御により、光源5aの励起光出力のON(出力の状態)とOFF(出力停止の状態)とを交互に繰り返し切り換える制御回路である。また、この光源制御部5bを含むことにより、光照射装置5は、カメラコントローラ15の制御により、励起光出力のONの期間の長さと、励起光出力のOFFの期間の長さとを独立に可変に設定可能にされる。なお、光源5aから出力される光の波長は蛍光の波長を含まないことが好ましいが、光源5aから出力される光の波長が蛍光の波長を含む場合、光照射装置5は、光源5aから出力される光のうち蛍光の波長と同じ波長の光を遮光する光学フィルタ(不図示)を備えてもよい。
 撮像装置3は、カメラコントローラ15の制御によって観察対象物Pからの光像を撮像する装置である。この撮像装置3は、蛍光色素が発する蛍光Lの波長の光を透過させ、励起光Lの波長の光を遮断する光学フィルタ3aと、光学フィルタ3aを透過した蛍光Lおよび観察対象物Pの蛍光像の背景からの光である背景光を受光し、それらの光を光電変換することにより画像データを出力する撮像素子3bと、カメラコントローラ15の制御により撮像素子3bの露光タイミングおよび露光時間を調整する撮像制御部(設定部)3cとを含んで構成される。撮像素子3bは、CCDイメージセンサ又はCMOSイメージセンサ等のエリアイメージセンサであり、2次元的に配列された複数の画素(光電変換素子)を有する受光部4aと、受光部4aの露光を制御する露光制御部4bを有する。露光制御部4bは、カメラコントローラ15(または、撮像制御部3c)が設定した露光時間に相当するカウント数を受けて、設定された露光時間に相当するカウント数だけ駆動クロックをカウントすることにより、受光部4aの露光を制御する。カメラコントローラ15(または、撮像制御部3c)は、露光時間に相当するカウント数を可変に設定できるため、蛍光画像取得システム1は、受光部4aの露光時間を可変に設定することができる。なお、受光部4aの露光時間の制御は、これに限らず、カメラコントローラ15(または、撮像制御部3c)が駆動クロックの周波数を可変に設定し、撮像素子3bの露光制御部4bは設定された周波数の駆動クロックに基づいて受光部4aの露光を制御してもよい。この場合、露光時間に相当するカウント数が同じであっても、駆動クロックの周波数を変更することで、蛍光画像取得システム1は、受光部4aの露光時間を可変に設定することができる。また、カメラコントローラ15(または、撮像制御部3c)は、駆動クロックを停止時間だけ停止させてもよい。この場合、露光時間に相当するカウント数や駆動クロックの周波数が同じであっても、停止時間の長さを変更することで、蛍光画像取得システム1は、受光部4aの露光時間を可変に設定することができる。なお、光学フィルタ3aは、蛍光Lの波長の光のほか、外部の照明装置から出力される照明光によって観察対象物Pにおいて生じる反射光の波長の光も透過するように構成されているので、撮像素子3bは観察対象物Pからの反射光を背景光として受光する。すなわち、手術室等の使用環境には無影灯、蛍光灯等の光照射装置5以外の照明装置も存在しうるので、それらの照明装置からの光による観察対象物Pにおける反射光には蛍光Lと同じ波長帯付近の光も含まれ、その光が背景光として撮像素子3bの受光部4aによって受光される。
 上記構成のカメラユニット7では、光源5aの励起光出力のONの期間(以下、単に「オン期間」と言う。)においては、撮像素子3bは観察対象物Pからの蛍光および背景光を受光(撮像)し、それに応じて画像データとしてオン画像データを出力する一方、光源5aの励起光出力のOFFの期間(以下、単に「オフ期間」と言う。)においては、撮像素子3bは観察対象物Pからの背景光を受光(撮像)し、それに応じて画像データとしてオフ画像データを出力する。撮像制御部3cは、撮像素子3bの露光制御部4bに対し駆動クロックを出力する。撮像素子3bの露光制御部4bは、露光時間に相当するクロック数だけ駆動クロックをカウントする。カメラユニット7の出力する画像データのフレームレートが例えば30フレーム/secに設定されている場合には、露光制御部4bは、露光時間が例えば30msecになるように設定された露光時間に相当するクロック数に基づいて駆動クロックをカウントし、カメラユニット7の設定変更によりフレームレートが15フレーム/sec~1000フレーム/secの範囲で調整された場合には、それに応じて露光時間が60msec~1msecの範囲で可変となるように設定された露光時間に相当するクロック数に基づいて駆動クロックをカウントする。露光時間の調整可能な範囲は、上記範囲に限定されるものではないが、様々な使用環境下で最適な蛍光画像を得るためには、撮像装置3が少なくとも露光時間を1msec~30msecの範囲で可変に設定可能に構成される。なお、カメラコントローラ15から撮像素子3bの露光制御部4bに駆動クロックが出力されてもよい。
 カメラコントローラ15は、CPU等の演算処理回路、メモリ等を含むデータ処理装置であり、このデータ処理装置内に制御部9、画像処理部11、及び画像解析部13が機能的に実装されている。ただし、制御部9、画像処理部11、及び画像解析部13は、同一装置内に構成される場合には限定されず、複数の装置に分散されて構成されていてもよい。
 カメラコントローラ15の制御部9は、撮像装置3及び光照射装置5の動作を制御する。すなわち、制御部9は、光照射装置5による励起光出力のON/OFFと、撮像素子3bの露光タイミングとを互いに同期するように制御する。さらに、制御部9は、後述する画像解析部13の解析結果に基づいて、撮像装置3の撮像素子3bの露光時間を撮像制御部3cを介して調整するように制御する。例えば、カメラコントローラ15の制御部9は、画像解析部13の解析結果に基づいて、撮像素子3bの受光部4aの露光期間に相当するカウント数を設定する。
 カメラコントローラ15の画像処理部11は、撮像素子3bから出力されたオン画像データとオフ画像データを画像処理することにより、観察対象物Pからの光像のうちの蛍光が結ぶ像である蛍光像が反映された蛍光画像データと観察対象物Pからの光像のうちの背景光が結ぶ像である背景像が反映された背景画像データとを作成する。具体的には、画像処理部11は、オン画像データとオフ画像データとの間で各画像データの同一の画素位置での差分を算出することにより、蛍光画像データを作成する。また、画像処理部11は、オフ画像データをそのまま用いて背景画像データを作成する。さらに、画像処理部11は、蛍光画像データと背景画像データとを用いて、観察対象物Pからの背景像と観察対象物Pからの蛍光像とが重畳された像が反映された重畳画像データを作成し、作成した重畳画像データを出力用の画像データとして表示装置17および記憶装置21に送出する。
 カメラコントローラ15の画像解析部(アナライザー)13は、撮像装置3から出力されたオン画像データ、オフ画像データ、及び画像処理部11によって作成された蛍光画像データのうちの少なくとも1つの画像データを対象に、その画像データ中の画素に対応する受光感度を示す画素値を解析する。すなわち、画像解析部13は、解析対象の画像データ中の複数の画素のうち画素値が飽和している画素を特定し、特定した画素の画素数を算出し、その画素数を解析結果として制御部9に通知する。それとともに、画像解析部13は、解析対象の画像データ中の複数の画素の画素値の最大値を特定し、その最大値と画素が飽和したことを示す飽和画素値との差分値を算出し、その差分値も解析結果として制御部9に通知する。
 表示装置17は、カメラコントローラ15に結合されたディスプレイ装置等の画像出力装置であり、画像処理部11から送出された表示用の画像データと、画像解析部13によって解析された解析結果とを表示する。また、入力装置19は、カメラコントローラ15に結合されたキーボート、マウス、あるいはタッチパネルディスプレイ等のデータ入力装置であり、カメラユニット7における撮像条件を指定するためのパラメータ、及び画像処理部11における画像処理の条件を示すパラメータを入力する。例えば、入力装置19は、撮像装置3の露光時間、光照射装置5の照射強度、及び画像処理部11における重畳画像の作成時の作成条件等の設定値の入力を受け付け、これらのパラメータをカメラコントローラ15に設定する。これに対応して、カメラコントローラ15の制御部9は、撮像装置3の露光時間、及び光照射装置5の照射強度を調整するように制御し、カメラコントローラ15の画像処理部11は、重畳画像の作成条件を調整する。例えば、カメラコントローラ15の制御部9は、入力装置19に入力された露光時間に関する情報に基づき、撮像素子3bの受光部4aの露光時間に相当するカウント数を設定する。そして、カウント数に関する情報を撮像素子3bの露光制御部4bに出力する。また、記憶装置21は、カメラコントローラ15に結合されたデータ記憶装置であり、表示用の画像データ及び解析結果のデータ、カメラコントローラ15で処理される各種画像データ、及び入力装置19によって設定される各種パラメータを記憶する。
 ここで、光源5aの励起光出力のON/OFFタイミングと、撮像素子3bの露光タイミングと、画像処理部11による蛍光画像データの作成タイミングとの時間的関係について、図2及び図3を参照しながら説明する。図2は、カメラコントローラ15によって制御される各種動作のタイミングを示すタイミングチャートであり、(a)は光源5aの励起光出力のON/OFFタイミング、(b)は撮像素子3bの露光タイミング、(c)は画像処理部11の画像データの保存タイミング、(d)は画像処理部11の蛍光画像データの作成タイミングをそれぞれ示している。
 図2(a),(b)に示すように、制御部9は、撮像素子3bの1フレームの露光期間に同期して交互にオン期間およびオフ期間が繰り返されるように、光源5aの励起光のON/OFFタイミングを制御する。つまり、オン期間の長さ及びオフ期間の長さと露光期間の長さ(露光時間)はほぼ同一とされ、オン期間と同じ長さで異なる期間となるようにオフ期間が設定される。例えば、オン期間、オフ期間の長さとして30msecが設定される。そして、画像処理部11は、オン期間において撮像素子3bの露光に応じて蓄積された電荷に基づいて出力された画像データをオン画像データAとして取得する。その後、画像処理部11は、後続するオフ期間において撮像素子3bの露光に応じて蓄積された電荷に基づいて出力された画像データをオフ画像データBとして取得する。このとき、最初のオン画像データAは取得された時点で画像処理部11内のメモリに記憶され、その後取得されるオフ画像データBは画像処理部11内の差分回路に入力されるとともにメモリに保存される。オフ画像データBが差分回路に入力されるタイミングでメモリ内のオン画像データAも差分回路に入力されることにより、2つの画像データの差分が算出されて蛍光画像データA-Bが作成される。続いて、後続して得られたオン画像データA’が差分回路に入力されるとともにメモリに保存さる。オン画像データA’が差分回路に入力されるタイミングでメモリ内のオフ画像データBも差分回路に入力されることにより、2つの画像データの差分が算出されて蛍光画像データA’-Bが作成される。このような処理が繰り返されることで、画像処理部11において撮像素子3bの露光期間(フレーム)毎に時系列の蛍光画像データを取得することができる。
 また、図3には、制御部9により撮像装置3の露光時間が調整された場合の撮像素子3bの露光タイミングと画像処理部11による蛍光画像データの作成タイミングとの時間的関係を示している。図3は、図2に比較して露光時間が短く調整された際にカメラコントローラ15によって制御される各種動作のタイミングを示すタイミングチャートであり、(a)は光源5aの励起光出力のON/OFFタイミング、(b)は撮像素子3bの露光タイミング、(c)は画像処理部11の画像データの保存タイミング、(d)は画像処理部11の蛍光画像データの作成タイミングをそれぞれ示している。このように、オン画像データA及びオフ画像データBを取得する際の露光時間が短く調整されるに伴って、光源5aの励起光に関するオン期間及びオフ期間も露光期間に同期して短くなるように制御される。例えば、オン期間、オフ期間の長さとして15msecが設定される。
 図4は、画像処理部11によってオン画像データGON及びオフ画像データGOFFを基に生成された蛍光画像データのイメージGを示す図である。このように、蛍光像IMと背景像IMとが反映されたオン画像GONと、背景像IMが反映されたオフ画像GOFFの差分が取られることにより、蛍光像IMが反映された蛍光画像データを得ることができる。
 なお、画像処理部11により1枚のオン画像データ及び1枚のオフ画像データから作成される蛍光画像データの輝度値(画素値)が小さい場合には、次のようにして加算した画像データを基に蛍光画像データを生成することも可能とされる。すなわち、画像処理部11は、オン期間及びオフ期間の繰り返しに伴って得られた複数の同数枚のオン画像データ及び複数の同数枚のオフ画像データのそれぞれを加算し、加算後のオン画像データと加算後のオフ画像データとの差分画像データを蛍光画像データとして算出する。例えば、図3の例によれば、3枚のオン画像データA,A’,A’’を加算することにより加算後のオン画像データA+A’+A’’が生成されるとともに、3枚のオフ画像データB,B’,B’’を加算することにより加算後のオフ画像データB+B’+B’’が生成され、それらの差分を計算することで蛍光画像データ{(A+A’+A’’)-(B+B’+B’’)}が生成される。加算する画像データの枚数は、入力装置19によって設定されるパラメータで指定される。ただし、蛍光画像データを時間分解能の高い動画像として取得する観点から、30msecの間に少なくとも1枚の蛍光画像データが得られるように露光時間及び加算枚数が設定されることが好適である。
 続いて、カメラコントローラ15の画像解析部13による画像解析処理及び制御部9による露光時間の調整処理の詳細について説明する。図5は、画像解析部13によって算出された画像データの輝度値のヒストグラムを示すグラフ、図6は、画像解析部13による画像解析処理及び制御部9による露光時間の調整処理の手順を示すフローチャートである。
 まず、露光時間の調整処理が開始されると、制御部9によって記憶装置21に記憶された露光時間の初期値を基に撮像装置3の露光時間が設定される(ステップS01)。この状態で画像解析部13により解析対象の画像データが取得される。この解析対象の画像データは、光源5aの励起光出力がOFFされた状態で画像処理部11によって取得されるオフ画像データが挙げられるが、光源5aの励起光出力がONされた状態で画像処理部11によって取得されるオン画像データであってもよいし、画像処理部11で生成される蛍光画像データであってもよいし、これらのうちからいずれかを選択して重畳した重畳画像データであってもよい。
 次に、画像解析部13により、処理対象の画像データを対象に、画像データ中の画素の輝度値が集計されることにより、輝度値の度数分布を示すヒストグラムデータが算出される(ステップS03)。図5には、画像解析部13によって算出されたヒストグラムデータの一例を示している。このように、輝度値の最小値である0から飽和した輝度を示す輝度値の最大値(飽和輝度値)Vまでの範囲での度数分布が計算される。
 さらに、画像解析部13により、算出したヒストグラムデータを基に、処理対象の画像データ中の画素のうちで飽和輝度値Vを有する画素の画素数Nが特定される(ステップS04)。その後、画像解析部13により、特定した画素数Nが予め規定されている閾値以上であるか否かが判定される(ステップS05)。判定の結果、画素数Nが閾値以上であると判定された場合には(ステップS05;YES)、制御部9により撮像装置3の露光時間を現在の設定値よりも所定時間だけ短くするように再設定され(ステップS06)、処理がステップS02に戻される。
 一方、画像解析部13により、画素数Nが閾値未満であると判定された場合には(ステップS05;NO)、ヒストグラムデータを基に、処理対象の画像データ中の画素の輝度値のうちで最大値である最大輝度値Vが特定される(ステップS07)。さらに、画像解析部13により、飽和輝度値Vと最大輝度値Vとの差分値である差分輝度値V-Vが計算される(ステップS08)。その後、画像解析部13により、差分輝度値V-Vが予め規定されている閾値以上であるか否かが判定される(ステップS09)。判定の結果、差分輝度値V-Vが閾値以上であると判定された場合には(ステップS09;YES)、制御部9により撮像装置3の露光時間を現在の設定値よりも所定時間だけ長くするように再設定され(ステップS10)、処理がステップS02に戻される。一方、画像解析部13により差分輝度値V-Vが閾値未満であると判定された場合には(ステップS09;NO)、その時点で設定されている露光時間が最終的な露光時間として決定され(ステップS11)、露光時間の調整処理を終了する。その後、制御部9は、調整された露光時間に基づいて、例えば、露光時間に相当するカウント数または駆動クロックの周波数、停止時間のうち少なくとも1つを設定する。
 上記の露光時間の調整処理は、露光時間の初期値の長短に対応できるような処理とされている。すなわち、ステップS04~S06までの調整処理では、露光時間の初期値が一般的なフレームレートである30fpsに対応した露光時間30msecに設定された場合に、露光時間を最適な値にまで短くして調整することを可能にしている。これに対して、ステップS07~S10までの調整処理では、露光時間の初期値が十分小さい時間(例えば、1msec)に設定された場合に、露光時間を最適な値にまで長くして調整することを可能にしている。ここで、ステップS04~S06までの処理と、ステップS07~S10までの処理は必ずしも両方実行される場合には限られず、露光時間の初期値が予め固定されている場合には、いずれかの処理が省略されていてもよい。
 図7には、露光時間の初期値が比較的大きな値に設定されていた場合に露光時間の調整処理に伴って算出されたヒストグラムデータの変化の例を示している。露光時間が初期値に設定された時点では、図7のヒストグラムHに示すように飽和輝度値Vに対応する画素数Nが閾値NThを超えているが、その後の調整処理により露光時間が調整される結果、画素数Nが減少して閾値NTh未満となり、0と飽和輝度値Vとの間の輝度値の度数分布が上昇したヒストグラムH,Hが得られるように調整される。また、図8には、露光時間の初期値が比較的小さな値に設定されていた場合に露光時間の調整処理に伴って算出されたヒストグラムデータの変化の例を示している。露光時間が初期値に設定された時点では、図8のヒストグラムHに示すように差分輝度値V-Vが閾値を超えているが、その後の調整処理により露光時間が調整される結果、差分輝度値V-Vが小さくなって閾値未満となり、輝度値の度数分布が飽和輝度値V側によったヒストグラムHが得られるように調整される。
 以下、上述した蛍光画像取得システム1による蛍光画像データの生成処理の手順を説明するとともに、本実施形態の蛍光画像生成方法について詳述する。図9は、蛍光画像取得システム1による蛍光画像データの生成処理の手順を示すフローチャートである。蛍光画像取得システム1では、図9に示す処理が繰り返されることで、時系列に観察対象物Pの蛍光画像が取得できるように構成されている。
 まず、ユーザの指示入力により蛍光画像の取得処理が開始されると、撮像装置3の露光時間の調整処理が実行される(ステップS21)。そして、制御部9の制御により、撮像素子3bの露光期間に同期したタイミング(オン期間、オフ期間)において光源5aからの励起光のONN/OFFの切り換えが開始される(ステップS22)。このオン期間に同期して、画像処理部11により撮像装置3からオン画像データが取得される(ステップS23)。続いて、オフ期間に同期して、画像処理部11により撮像装置3からオフ画像データが取得される(ステップS24)。その後、画像処理部11により、オン画像データとオフ画像データとの差分が計算されることにより、蛍光画像データが作成される(ステップS25)。さらに、画像処理部11により、オフ画像データと蛍光画像データとを重畳することにより重畳画像データが作成される(ステップS26)。この重畳画像データは表示装置17に表示される。
 以上説明した蛍光画像取得システム1によれば、観察対象物Pへの励起光の照射がオン期間及びオフ期間で繰り返しオン/オフされ、それぞれの期間で複数の画素を有する撮像素子3bを用いて観察対象物Pを撮像することにより、オン画像データ及びオフ画像データが出力され、それらの画像データを基に蛍光画像データが生成される。この際、撮像素子3bの複数の画素の露光時間が可変にされているので、撮像時の使用環境に応じて適切な露光時間を設定することにより、簡易な操作で使用環境による影響が低減された適切な蛍光画像を得ることができる。
 また、本実施形態では、画像データにおける画素値の飽和状態に応じて撮像素子3bの露光時間を適切な値に設定することができる。その結果、使用環境による影響が低減された適切な蛍光画像を得ることができる。すなわち、露光時間が長すぎた場合に画素が飽和してしまうことが防止されるとともに、露光時間が短すぎることによって蛍光画像データにおいてノイズが支配的になるといった事態も防止できる。例えば、手術室等の使用環境で無影灯等の照明器具が存在する場合であっても、画素の飽和及びノイズ発生を防止して明瞭な蛍光像を観察することができる。無影灯はLEDタイプ、蛍光灯タイプ、ランプタイプなどの様々な出力波長及び照度を有するものが存在する。露光時間がカメラコントローラ15の制御により可変に設定可能に構成されることにより、無影灯の種類に関係なく最適な露光時間が自動で設定される。
 ここで、本実施形態では、オン期間及びオフ期間は、露光時間に応じて設定され、同一の時間に設定されている。こうすれば、励起光の照射時間を撮像素子3bの露光時間に対応して設定されることで蛍光像を効率的に撮像することができるとともに、オン画像データとオフ画像データの露光条件が揃うのでこれらから蛍光画像データを得る際に処理を簡略化できる。
さらに、画像処理部11は、加算したオン画像データと加算したオフ画像データとの差分を算出することにより、蛍光画像データを生成する。これにより、オン画像データ及びオフ画像データの個々の露光時間が短くても明瞭な蛍光画像を得ることができる。
 なお、本発明は、前述した実施形態に限定されるものではない。
 例えば、カメラコントローラ15による露光時間の調整処理は、画像解析部13の解析結果に応じて自動で制御されることには限定されず、ユーザによって入力装置19に入力された指示入力に応じて、露光時間が調整されるように実行されてもよい。
 図10は、本発明の変形例にかかる蛍光画像取得システム1Aにおける露光時間の調整処理の流れを示すフローチャートである。まず、露光時間の調整処理が開始されると、制御部9によって記憶装置21に記憶された露光時間の初期値を基に撮像装置3の露光時間が設定される(ステップS31)。この状態で画像解析部13により解析対象の画像データが取得される。次に、画像解析部13により、処理対象の画像データを対象に、画像データ中の画素の輝度値が集計されることにより、輝度値の度数分布を示すヒストグラムデータが算出されるとともに、画素数N、差分輝度値V-V等の解析結果が算出される(ステップS33)。
 その後、画像解析部13により算出されたヒストグラムデータ、及び画像解析部13により作成された解析結果のデータが表示装置17に表示される(ステップS34)。図11には、このときに表示装置17に出力される情報のレイアウトの一例を示している。図11(a)に示されるように、表示装置17の画面上において、領域Aにはオフ画像データを基に外観画像が表示され、領域Aには蛍光画像データを基に蛍光画像が表示され、領域Aにはオフ画像データを基に算出されたヒストグラムがグラフ形式で表示され、領域Aには蛍光画像データを基に算出されたヒストグラムがグラフ形式で表示され、領域Aには、画素数N、差分輝度値V-V等の解析結果を含む各種パラメータが表示される。また、表示装置17には、図11(b)に示すようなレイアウトで情報が表示されてもよい。すなわち、表示装置17の画面上において、領域Aには重畳画像データを基に重畳画像が表示され、領域Aにはオフ画像データを基に算出されたヒストグラムがグラフ形式で表示され、領域Aには蛍光画像データを基に算出されたヒストグラムがグラフ形式で表示され、領域Aには、画素数N、差分輝度値V-V等の解析結果を含む各種パラメータが表示される。
 これに対して、ユーザによって表示装置17上に出力された表示情報を基に露光時間調整の要否が判断され、入力装置19にユーザから露光時間の変更の指示入力が為される。カメラコントローラ15の制御部9は、ユーザによって露光時間の変更の指示入力が為されたか否かを判定する(ステップS35)。判定の結果、露光時間の変更指示が為されたと判定された場合には(ステップS35;YES)、制御部9により撮像装置3の露光時間が再設定され(ステップS36)、処理がステップS32に戻される。一方、露光時間の変更指示が無かったと判定された場合には(ステップS35;NO)、その時点で設定されている露光時間が最終的な露光時間として決定され(ステップS37)、露光時間の調整処理を終了する。その後、制御部9は、調整された露光時間に基づいて、例えば、露光時間に相当するカウント数または駆動クロックの周波数、停止時間のうち少なくとも1つを設定する。
 このような変形例によれば、撮像素子3bの露光時間を調整する際の判断材料としての解析結果を可視化することができ、ユーザによる露光時間の設定が容易となる。これにより、簡易な操作で使用環境による影響が低減された適切な蛍光画像を得ることができる。
 また、上述した実施形態においては、1枚のオン画像データ及び1枚のオフ画像データから作成される蛍光画像データの輝度値が小さい場合には、次のようにして蛍光画像データが生成されてもよい。すなわち、画像処理部11は、オン期間及びオフ期間の繰り返しに伴って交互に得られるオン画像データ及びオフ画像データを基に、それらの差分を算出することにより差分画像データを繰り返し生成し、それらの差分画像データを加算することにより蛍光画像データを算出してもよい。例えば、図3の例によれば、オン画像データA、及びオフ画像データBの差分を算出することにより差分画像データA-Bを算出し、その後同様な処理を繰り返すことにより差分画像データA’-B、及び差分画像データA’-B’を算出し、それらの差分画像データを加算することにより蛍光画像データ{(A-B)+(A’-B)+(A’-B’)}を生成する。このような処理によっても、露光時間が比較的短い場合でも明瞭な蛍光画像が得られる。
 本発明は、測定対象の蛍光を撮像することにより蛍光画像を生成する蛍光画像生成装置及び蛍光画像生成方法を使用用途とし、簡易な操作で使用環境による影響が低減された適切な蛍光画像を得ることを可能にするものである。
 1…蛍光画像取得システム、3…撮像装置(撮像部)、3b…撮像素子、4a…受光部、4b…露光制御部、3c…撮像制御部(設定部)、5…光照射装置(光照射部)、5a…光源、11…画像処理部、13…画像解析部、15…カメラコントローラ(設定部)、17…表示装置、19…入力装置、21…記憶装置、H,H,H,H,H…ヒストグラム、L…励起光、L…蛍光、P…観察対象物。

Claims (15)

  1.  対象物から発せられた蛍光を撮像することによって蛍光画像を生成する蛍光画像生成装置であって、
     励起光を出力する光源を有し、第1の期間において前記対象物に対して励起光を照射し、前記第1の期間と異なる第2の期間において前記励起光の照射を停止し、前記励起光の照射と停止とを繰り返す光照射部と、
     2次元的に配列された複数の画素を含む受光部と、駆動クロックに基づいて前記受光部の露光を制御する制御部とを有し、前記対象物を撮像することによって、前記第1の期間に対応する第1の画像データ及び前記第2の期間に対応する第2の画像データを出力する撮像部と、
     前記第1の画像データ及び前記第2の画像データに基づいて、蛍光画像データを生成する画像処理部と、
     前記受光部の露光時間を可変に設定する設定部と、
    を備える蛍光画像生成装置。
  2.  前記設定部は、前記露光時間に相当する前記駆動クロックのカウント数を可変に設定し、
     前記制御部は、前記受光部の前記露光時間を制御するために、設定された前記カウント数に基づいて前記駆動クロックをカウントする、
    請求項1記載の蛍光画像生成装置。
  3.  前記第1の画像データ、前記第2の画像データ、及び前記蛍光画像データのうち少なくとも1つの画像データに基づいて、前記複数の画素に対応する画素値を解析する解析部をさらに備え、
     前記解析部は、前記複数の画素のうち画素値が飽和した画素を特定する、
    請求項1又は2記載の蛍光画像生成装置。
  4.  前記解析部は前記飽和した画素の数を算出し、
     前記設定部は、前記飽和した画素の数に基づいて前記露光時間を設定する、
    請求項3記載の蛍光画像生成装置。
  5.  前記第1の画像データ、前記第2の画像データ、及び前記蛍光画像データのうち少なくとも1つの画像データに基づいて、前記複数の画素に対応する画素値を解析する解析部をさらに備え、
     前記解析部は、画素が飽和したことを示す飽和画素値と、前記複数の画素に対応する画素値の最大値との差である差分値を算出する、
    請求項1又は2記載の蛍光画像生成装置。
  6.  前記設定部は、前記差分値に基づいて前記露光時間を設定する、
    請求項5記載の蛍光画像生成装置。
  7.  前記光照射部は、前記第1の期間及び前記第2の期間の長さを可変に設定可能に構成されている、
    請求項1~6のいずれか1項に記載の蛍光画像生成装置。
  8.  前記第1の期間及び前記第2の期間は、前記露光時間に応じて設定されている、
    請求項1~7のいずれか1項に記載の蛍光画像生成装置。
  9.  前記第1の期間と前記第2の期間とは、同一の時間に設定されている、
    請求項1~8のいずれか1項に記載の蛍光画像生成装置。
  10.  前記設定部は、前記露光時間を、少なくとも1msec以上30msec未満の範囲で可変に設定する、
    請求項1~9のいずれか1項に記載の蛍光画像生成装置。
  11.  前記画像処理部は、前記第1の期間及び前記第2の期間の繰り返しによって得られた複数の前記第1の画像データ及び複数の前記第2の画像データのそれぞれを加算し、加算後の複数の前記第1の画像データと加算後の複数の前記第2の画像データとの差分を算出し、前記蛍光画像データを生成する、
    請求項1~10のいずれか1項に記載の蛍光画像生成装置。
  12.  前記画像処理部は、前記第1の画像データと前記第2の画像データとの差分を算出して差分画像データを繰り返し生成し、繰り返し生成された複数の前記差分画像データを加算し、前記蛍光画像データを生成する、
    請求項1~10のいずれか1項に記載の蛍光画像生成装置。
  13.  前記画像処理部は、30msecの間に少なくとも1つの前記蛍光画像データを生成する、
    請求項1~12のいずれか1項に記載の蛍光画像生成装置。
  14.  前記解析部によって解析された結果を表示する表示部をさらに備える、
    請求項3又は5に記載の蛍光画像生成装置。
  15.  対象物から発せられた蛍光を撮像することによって蛍光画像を生成する蛍光画像生成方法であって、
     前記対象物に対して励起光を照射する光照射部を用いて、第1の期間において前記励起光を照射し、前記第1の期間と異なる第2の期間において前記励起光の照射を停止するステップと、
     前記励起光の照射と停止とを繰り返すステップと、
     2次元的に配列された複数の画素を含む受光部と、駆動クロックに基づいて前記受光部の露光を制御する制御部とを有する撮像部を用いて前記対象物を撮像することによって、前記第1の期間に対応する第1の画像データ及び前記第2の期間に対応する第2の画像データを出力するステップと、
     画像処理部を用いて、前記第1の画像データ及び前記第2の画像データに基づいて、蛍光画像データを生成するステップと、
     前記受光部の露光時間を可変に設定するステップと、
    を備える蛍光画像生成方法。
PCT/JP2015/057891 2015-03-17 2015-03-17 蛍光画像生成装置及び蛍光画像生成方法 WO2016147315A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2015/057891 WO2016147315A1 (ja) 2015-03-17 2015-03-17 蛍光画像生成装置及び蛍光画像生成方法
EP15885411.7A EP3273223A4 (en) 2015-03-17 2015-03-17 Device for generating fluorescence image and method for generating fluorescence image
JP2017505922A JP6450832B2 (ja) 2015-03-17 2015-03-17 蛍光画像生成装置及び蛍光画像生成方法
US15/558,490 US20180080877A1 (en) 2015-03-17 2015-03-17 Device for generating fluorescence image and method for generating fluorescence image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/057891 WO2016147315A1 (ja) 2015-03-17 2015-03-17 蛍光画像生成装置及び蛍光画像生成方法

Publications (1)

Publication Number Publication Date
WO2016147315A1 true WO2016147315A1 (ja) 2016-09-22

Family

ID=56919884

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057891 WO2016147315A1 (ja) 2015-03-17 2015-03-17 蛍光画像生成装置及び蛍光画像生成方法

Country Status (4)

Country Link
US (1) US20180080877A1 (ja)
EP (1) EP3273223A4 (ja)
JP (1) JP6450832B2 (ja)
WO (1) WO2016147315A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024176626A1 (ja) * 2023-02-24 2024-08-29 浜松ホトニクス株式会社 画像取得装置及び画像取得方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017118296A (ja) * 2015-12-24 2017-06-29 キヤノン株式会社 撮像装置、画像処理装置、画像処理方法、画像処理プログラム、および、記憶媒体
US10523874B2 (en) * 2016-02-16 2019-12-31 Sony Corporation Image processing apparatus, image processing method, and program
US10645302B2 (en) * 2017-03-30 2020-05-05 Egis Technology Inc. Image sensing device having adjustable exposure periods and sensing method using the same
US11528466B2 (en) * 2018-03-08 2022-12-13 Emza Visual Sense Ltd. Method and system to calibrate a camera clock using flicker
US20190281193A1 (en) * 2018-03-08 2019-09-12 Emza Visual Sense Ltd Method and system to calibrate a camera clock using flicker
US10565678B2 (en) * 2018-03-23 2020-02-18 Microsoft Technology Licensing, Llc Asynchronous camera frame allocation
US11796679B2 (en) * 2018-05-29 2023-10-24 Sony Semiconductor Solutions Corporation Time of flight sensor and method
JPWO2020045014A1 (ja) * 2018-08-28 2021-08-12 ソニーグループ株式会社 医療システム、情報処理装置及び情報処理方法
EP3920463B1 (en) * 2019-01-30 2024-09-11 Sony Group Corporation Encryption device, encryption method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012105445A1 (ja) * 2011-01-31 2012-08-09 オリンパス株式会社 蛍光観察装置
JP2013042998A (ja) * 2011-08-25 2013-03-04 Olympus Corp 自動露光制御装置、制御装置、内視鏡装置及び自動露光制御方法
JP2013056001A (ja) * 2011-09-07 2013-03-28 Olympus Corp 蛍光観察装置
JP2013079841A (ja) * 2011-10-03 2013-05-02 Hamamatsu Photonics Kk 蛍光観測装置及び蛍光観測方法
JP2014150412A (ja) * 2013-02-01 2014-08-21 Hamamatsu Photonics Kk 画像取得装置及び撮像装置
JP2014196953A (ja) * 2013-03-29 2014-10-16 浜松ホトニクス株式会社 蛍光観察装置及び蛍光観察方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004054439A2 (en) * 2002-12-13 2004-07-01 Ietmed Ltd. Optical examination method and apparatus particularly useful for real-time discrimination of tumors from normal tissues during surgery
US20060018013A1 (en) * 2004-07-07 2006-01-26 Yoshimasa Suzuki Microscope imaging apparatus and biological-specimen examination system
DE102005045961B4 (de) * 2005-09-26 2018-11-15 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Darstellung eines einen Fluoreszenzfarbstoff enthaltenden Gewebes
US8055034B2 (en) * 2006-09-13 2011-11-08 Fluidigm Corporation Methods and systems for image processing of microfluidic devices
JP2008082922A (ja) * 2006-09-28 2008-04-10 Sanyo Electric Co Ltd 撮影装置及び細胞観察装置
US20080224067A1 (en) * 2007-03-13 2008-09-18 David Clark Laser forensic detection method and apparatus
WO2009079481A2 (en) * 2007-12-14 2009-06-25 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Methods to diagnose and immunize against the virus causing human merkel cell carcinoma
JP2009150829A (ja) * 2007-12-21 2009-07-09 Olympus Corp 生体試料の観察方法
JP4996491B2 (ja) * 2008-01-29 2012-08-08 パナソニック株式会社 撮像装置
US9240043B2 (en) * 2008-09-16 2016-01-19 Novartis Ag Reproducible quantification of biomarker expression
KR101669470B1 (ko) * 2009-10-14 2016-10-26 삼성전자주식회사 금속 실리사이드층을 포함하는 반도체 소자
CN103124515B (zh) * 2010-09-30 2015-11-25 奥林巴斯株式会社 摄像装置
US9058648B2 (en) * 2012-03-15 2015-06-16 Bio-Rad Laboratories, Inc. Image acquisition for chemiluminescent samples
US8717095B2 (en) * 2012-07-09 2014-05-06 Siemens Energy, Inc. Chopper circuitry operable in a high temperature environment of a turbine engine
JP6361327B2 (ja) * 2014-07-02 2018-07-25 セイコーエプソン株式会社 電気光学装置、及び電子機器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012105445A1 (ja) * 2011-01-31 2012-08-09 オリンパス株式会社 蛍光観察装置
JP2013042998A (ja) * 2011-08-25 2013-03-04 Olympus Corp 自動露光制御装置、制御装置、内視鏡装置及び自動露光制御方法
JP2013056001A (ja) * 2011-09-07 2013-03-28 Olympus Corp 蛍光観察装置
JP2013079841A (ja) * 2011-10-03 2013-05-02 Hamamatsu Photonics Kk 蛍光観測装置及び蛍光観測方法
JP2014150412A (ja) * 2013-02-01 2014-08-21 Hamamatsu Photonics Kk 画像取得装置及び撮像装置
JP2014196953A (ja) * 2013-03-29 2014-10-16 浜松ホトニクス株式会社 蛍光観察装置及び蛍光観察方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3273223A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024176626A1 (ja) * 2023-02-24 2024-08-29 浜松ホトニクス株式会社 画像取得装置及び画像取得方法

Also Published As

Publication number Publication date
JPWO2016147315A1 (ja) 2017-12-28
JP6450832B2 (ja) 2019-01-09
EP3273223A1 (en) 2018-01-24
EP3273223A4 (en) 2018-09-26
US20180080877A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6450832B2 (ja) 蛍光画像生成装置及び蛍光画像生成方法
JP7070412B2 (ja) 制御装置、制御システム、および制御方法
JP6907389B2 (ja) 電子内視鏡用プロセッサ及び電子内視鏡システム
JP6383370B2 (ja) 蛍光観察装置
WO2019087557A1 (ja) 内視鏡システム
JP2005198794A (ja) 内視鏡装置
JP5265055B2 (ja) 医療装置
JP7399151B2 (ja) 光源装置、医療用観察システム、調整装置、照明方法、調整方法およびプログラム
WO2016147822A1 (ja) 重畳画像生成装置及び重畳画像生成方法
JP6203452B1 (ja) 撮像システム
US20190125174A1 (en) Electronic endoscope system
JP2006223446A (ja) 画像処理装置
JP6180612B2 (ja) 内視鏡装置
JP2016193107A (ja) 画像処理装置
JP2010279579A (ja) 画像取得方法および内視鏡装置
JP2016123576A (ja) 蛍光観察装置
JP5694492B2 (ja) 内視鏡装置
JP6535701B2 (ja) 撮像装置
JP2016005804A (ja) 内視鏡装置
JP6046854B2 (ja) 内視鏡装置
JP6508900B2 (ja) 撮影システム及びその制御方法
JP6113033B2 (ja) 内視鏡装置
JP2005168828A (ja) 自家蛍光電子内視鏡装置
JP2017192799A (ja) 内視鏡装置
JP6630777B2 (ja) 内視鏡装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15885411

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017505922

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15558490

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015885411

Country of ref document: EP