WO2013187215A1 - 撮像装置、顕微鏡装置及び内視鏡装置 - Google Patents

撮像装置、顕微鏡装置及び内視鏡装置 Download PDF

Info

Publication number
WO2013187215A1
WO2013187215A1 PCT/JP2013/064576 JP2013064576W WO2013187215A1 WO 2013187215 A1 WO2013187215 A1 WO 2013187215A1 JP 2013064576 W JP2013064576 W JP 2013064576W WO 2013187215 A1 WO2013187215 A1 WO 2013187215A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
light
illumination
imaging
Prior art date
Application number
PCT/JP2013/064576
Other languages
English (en)
French (fr)
Inventor
山本 英二
初男 清水
伊藤 毅
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201380026131.0A priority Critical patent/CN104379050B/zh
Priority to EP13804945.7A priority patent/EP2859837A4/en
Publication of WO2013187215A1 publication Critical patent/WO2013187215A1/ja
Priority to US14/565,750 priority patent/US20150092035A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/304Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using chemi-luminescent materials
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to an imaging apparatus, a microscope apparatus, and an endoscope apparatus that can capture images having different characteristics by irradiating a subject with light having different spectral distributions.
  • JP 2005-13611 A provides holding means for holding circuit data used by a programmable logic element circuit so that image processing corresponding to each characteristic image can be performed by a small-scale circuit. It is disclosed that the circuit data held in the holding means can be selected according to the characteristics of the image.
  • Japanese Patent Laid-Open No. 2005-13611 images having different characteristics are acquired by switching the spectrum of illumination light that illuminates a subject.
  • processing such as color conversion for obtaining an image having an image characteristic to be actually acquired is performed by a logic circuit at the subsequent stage of the image sensor.
  • the image processing at the later stage Can be made unnecessary or simplified.
  • the image processing circuit in the image pickup apparatus can be reduced in size, and further, the image pickup apparatus itself can be reduced in size, cost, and power consumption.
  • the present invention has been made in view of the above circumstances, and by illuminating a subject with optimal illumination characteristics according to image characteristics to be acquired, an image having image characteristics to be acquired without requiring complex image processing is obtained. It is an object to provide an imaging device that can be obtained, and a microscope device and an endoscope device including the imaging device.
  • an imaging device of one embodiment of the present invention includes an imaging unit that captures an image of a subject and acquires an image related to the subject, and a plurality of types of illumination light having different optical characteristics to the subject.
  • An illumination unit having a single or a plurality of light sources that emit light and image characteristics of the image acquired in the imaging unit are set, and the image having the set image characteristics is effectively acquired by the imaging unit
  • the light source characteristic information including at least one of the information on the light amount control characteristic, the information on the light distribution pattern characteristic, the information on the spectral distribution characteristic, and the information on the polarization characteristic is referred to.
  • an image characteristic setting unit that sets at least one type of illumination light quantity, light distribution pattern, spectral distribution, or polarization characteristic for the illumination unit. .
  • FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus according to each embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a detailed configuration of the imaging apparatus according to the first embodiment of the present invention.
  • FIG. 3A is a first diagram for explaining the operation of the imaging apparatus according to the first embodiment of the present invention.
  • FIG. 3B is a second diagram for explaining the operation of the imaging apparatus according to the first embodiment of the present invention.
  • FIG. 3C is a third diagram for explaining the operation of the imaging apparatus according to the first embodiment of the present invention.
  • FIG. 4 is a diagram showing a detailed configuration of the imaging apparatus according to the second embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a light distribution pattern and a spectrum distribution of light sources that constitute a light source module.
  • FIG. 6 is a diagram for explaining the operation of the imaging apparatus according to the second embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a detailed configuration of an imaging apparatus according to the third embodiment of the present invention.
  • FIG. 8A is a first diagram for explaining the operation of the imaging apparatus according to the third embodiment of the present invention.
  • FIG. 8B is a second diagram for explaining the operation of the imaging apparatus according to the third embodiment of the present invention.
  • FIG. 9 is a diagram illustrating a configuration of an imaging apparatus according to the fourth embodiment of the present invention.
  • FIG. 10A is a first diagram for explaining the operation of the imaging apparatus according to the fourth embodiment of the present invention.
  • FIG. 10A is a first diagram for explaining the operation of the imaging apparatus according to the fourth embodiment of the present invention.
  • 10B is a second diagram for explaining the operation of the imaging apparatus according to the fourth embodiment of the present invention. It is a figure shown about the structure of the imaging device which concerns on the 5th Embodiment of this invention. It is a figure which shows the specific structural example of a light source module. It is a figure which shows the specific structural example of the light source module using a variable focus optical system.
  • FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus according to each embodiment of the present invention.
  • the imaging apparatus 100 generally includes an imaging unit 102, an illumination unit 104, an image characteristic setting unit 106, an image processing unit 108, a display unit 110, and a control unit 112. Have.
  • the imaging unit 102 captures the subject 200 and generates digital image data related to the subject 200.
  • the illumination unit 104 is a light source that illuminates the subject 200.
  • the illumination unit 104 has a light source capable of emitting a plurality of types of illumination light having different light source characteristics.
  • the light source characteristic here means at least one of a light distribution pattern, a spectral distribution, and a polarization state.
  • the light distribution pattern is a characteristic indicating at what angle and with which intensity the illumination light is irradiated.
  • the spectral distribution is a characteristic indicating which wavelength band the illumination light includes.
  • the illumination unit 104 is programmed according to the illumination characteristic setting signal from the image characteristic setting unit 106 so that the setting of the spectrum, light distribution pattern, polarization characteristic, light quantity, number of times of light emission, and light emission timing of the illumination light emitted from the light source is programmed. It is configured.
  • the image characteristic setting unit 106 programs the settings of the illumination unit 104 and the image processing unit 108 so that image data having desired image characteristics is effectively acquired by the imaging unit 102.
  • the image characteristics are information indicating the characteristics of the image data. For example, information indicating the wavelength band (color tone or spectral band) to be emphasized or extracted in the image data, information indicating the illumination range of the illumination light in the image data, image Includes information indicating the dynamic range of data.
  • the term “effective” means that a desired image characteristic can be obtained by a simple process in the subsequent stage of the imaging unit 102.
  • the image processing unit 108 performs image processing on the image data obtained via the imaging unit 102, for example, in a reproducible format. This image processing is, for example, gamma correction processing. Further, the image processing unit 108 also performs a process of combining the image data acquired by the imaging unit 102 as necessary.
  • the display unit 110 displays an image based on the image data processed by the image processing unit 108.
  • the display unit 110 also displays various types of information such as image characteristic information set by the image characteristic setting unit 106.
  • the control unit 112 inputs a synchronization signal for synchronously controlling each block of the imaging apparatus 100 to the imaging unit 102, the illumination unit 104, the image processing unit 108, and the display unit 110.
  • FIG. 2 is a diagram illustrating a detailed configuration of the imaging apparatus according to the first embodiment of the present invention.
  • the imaging of the subject 200 by the imaging unit 102 and the illumination of the subject 200 by the illumination unit 104 are as follows: “External light applied to the subject 200 is illuminated on the subject 200. It is desirable to be performed in an “environment that can be effectively ignored” with respect to the illumination light emitted from 104. Therefore, it is desirable that the imaging of the subject 200 by the imaging unit 102 and the illumination of the subject 200 by the illumination unit 104 be performed in the outside light suppressing member 300, for example.
  • the external light suppressing member 300 is a member for realizing an environment in which the external light applied to the subject 200 can be effectively ignored with respect to the illumination light from the illumination unit that irradiates the subject. As illustrated in FIG. 2, the box-shaped member is configured to cover the imaging unit 102, the lighting unit 104, and the subject 200. Moreover, the external light suppression member 300 may be comprised with the material which reflects or absorbs external light as needed.
  • external light cancellation processing may be performed.
  • the external light canceling process is, for example, image data acquired by the imaging unit 102 in a situation where external light or light from the illumination unit 104 is irradiated on the subject 200 with a predetermined spectrum, a predetermined period, or a predetermined timing. Processing to subtract external light spectral component, external light irradiation cycle or irradiation timing component so as to cancel external light component, or illumination light spectral component, illumination light irradiation cycle to extract illumination light component Alternatively, a process of extracting the irradiation timing component electrically or software can be applied.
  • the image pickup unit 102 has an image pickup optical system 1021 and an image pickup element 1022.
  • the imaging optical system 1021 has a single lens or a plurality of lenses, and focuses the light reflected, scattered, or diffracted from the subject 200 on the imaging element 1022.
  • the imaging element 1022 has a light receiving surface on which a photoelectric conversion element is disposed, and converts light from the subject 200 imaged via the imaging optical system 1021 into an analog electrical signal (image signal) by photoelectric conversion.
  • the image sensor 1022 converts an image signal that is an analog electrical signal into image data that is a digital signal by an A / D conversion circuit (not shown).
  • the illumination unit 104 includes a light source module 1041 and a light source module control unit 1042.
  • the light source module 1041 includes a single light source or a plurality of light sources that emit a plurality of types of light having different light distribution patterns or spectral distributions.
  • FIG. 2 shows an example in which the light source module 1041 has four light sources s1 to s4.
  • the light sources s1 to s4 are light sources having different spectral distributions.
  • the light sources s1 to s3 are connected to a light guide path f1 made of an optical fiber or the like.
  • the light source s4 is connected to the light guide path f2.
  • the light guide path f1 is connected to the illumination optical system l1.
  • the light guide path f2 is connected to the illumination optical system l2.
  • FIG. 1 shows an example in which the light source module 1041 has four light sources s1 to s4.
  • the light sources s1 to s4 are light sources having different spectral distributions.
  • the light sources s1 to s3 are connected to a light guide path f1 made
  • the illumination optical system 11 has a characteristic of distributing illumination light over a wide angle range
  • the illumination optical system 12 has a characteristic of distributing illumination light over a narrow angle range.
  • FIG. 2 shows an example in which four types of light sources are provided in the light source module 1041, but the number of light sources is not particularly limited.
  • the light source connected to the light guide path f1 may be switchable.
  • any one of the light sources s1 to s3 may be connected, or any two may be connected.
  • an optical fiber is used as the light guide.
  • the optical fiber may not be used as long as the medium can transmit light.
  • an optical waveguide may be used instead of the optical fiber.
  • the number of illumination optical systems is not limited. For example, if it is an optical system capable of zooming, the number of illumination optical systems may be one.
  • the light source module control unit 1042 multiplexes the light of the light sources s1 to s4 in the light guide path or modulates the light by a light modulation element (not shown), whereby the amount of illumination light emitted from the illumination unit 104, the light distribution pattern In addition, at least one of the spectral distribution and the polarization characteristic is controlled to a desired characteristic.
  • the image characteristic setting unit 106 includes a light source characteristic information database 1061, an image characteristic setting unit 1062, and a programmable unit characteristic setting unit 1063.
  • the light source characteristic information database 1061 includes spectral distribution characteristic information of a plurality of light sources s1 to s4 constituting the light source module 1041, characteristic information of illumination light distribution patterns based on characteristics of the illumination optical systems l1 and l2, and light amount control characteristics. Information on the light source characteristics of the light source module 1041, such as information, is held as a database.
  • the image characteristic setting unit 1062 sets an image characteristic to be acquired in the imaging unit 102 by irradiating the subject 200 with light from the illumination unit 104.
  • the setting for the image characteristic setting unit 1062 is performed by a user, for example.
  • the programmable unit characteristic setting unit 1063 refers to the light source characteristic information database 1061 in accordance with the image characteristic set by the image characteristic setting unit 1062, and an illumination characteristic setting signal for obtaining image data having desired image characteristics in the imaging unit 102. And the generated illumination characteristic setting signal is input to the illumination unit 104. Details of the operation of the programmable unit characteristic setting unit 1063 will be described later.
  • the image processing unit 108 includes a frame memory 1081 and a display characteristic adjustment unit 1083.
  • the frame memory 1081 temporarily stores image data acquired by the imaging unit.
  • the display characteristic adjustment unit 1083 performs image processing corresponding to the characteristics of the display unit 110 such as gamma correction processing on the image data read from the frame memory 1081.
  • the display unit 110 includes a display device such as a liquid crystal display, and displays an image corresponding to the image data processed by the display characteristic adjustment unit 1083.
  • a separate information window is provided to display various information such as information indicating the image characteristics set by the image characteristic setting unit 106, information indicating the settings of the light source module 1041, and information stored in the light source characteristic information database 1061. You may let them.
  • FIG. 3A shows an example of the spectral distribution of light emitted from the light sources s1 to s3.
  • the light source s1 is a light source that emits light having a continuous white spectrum in the visible broadband
  • the light source s2 is a light source that emits light having a spectrum peak in the red wavelength band
  • the light source s4 is a light source that emits light having a spectrum peak in a specific narrow wavelength band (hereinafter, such light is referred to as special light). Details of the light source s4 will be described in the second embodiment.
  • the image characteristic setting unit 1062 information on a spectral band to be emphasized is set. For example, as shown in FIG. 3B, it is assumed that a band (red wavelength band) near the wavelength ⁇ 1 is set as a spectral band to be emphasized.
  • the programmable unit characteristic setting unit 1063 refers to the light source characteristic information database 1061 and sets the ratio of the light source to emit light in the illumination unit 104 and the intensity of the light emitted from the light source. A corresponding image characteristic setting signal is generated.
  • a programmable unit characteristic setting unit is used to emphasize the redness of the image data.
  • Reference numeral 1063 inputs to the light source module control unit 1042 an illumination characteristic setting signal that instructs to increase the intensity of the light source s2 that is a light source in the red wavelength band as compared with the light sources s1 and s3.
  • the light source module control unit 1042 Upon receiving the illumination characteristic setting signal, the light source module control unit 1042 generates a light source control signal so that the light sources s1 and s2 emit light at the set intensities respectively set, and the generated light source control signal is transmitted to the light sources s1 and s2. Output. On the other hand, the light sources s3 and s4 do not emit light.
  • the light source module 1041 causes the light sources s1 and s2 to emit light with the intensity indicated by the light source control signal in synchronization with the synchronization signal from the control unit 112.
  • the light emitted from the light sources s1 and s2 is combined in the light guide path f1, and is irradiated on the subject 200 as illumination light L1 through the illumination optical system l1. Since the intensity of the light source s2 is increased, the illumination light L1 is applied to the subject 200 as light having a spectral distribution in which the red wavelength band is emphasized as shown in FIG. 3C.
  • the light sources s1 and s2 may be sequentially emitted at a time interval shorter than the imaging time of the imaging unit 102.
  • the light sources s1 and s2 may be sequentially emitted at a time interval shorter than the imaging time of the imaging unit 102.
  • the imaging unit 102 acquires the image data by performing imaging at a timing synchronized with the illumination light emission of the illumination unit 104 according to the synchronization signal from the control unit 112. Since the subject 200 is illuminated with the illumination light L1 at the imaging timing, the image data acquired by the imaging unit has a low color temperature (redness is emphasized).
  • the image data obtained by the imaging unit 102 is temporarily stored in the frame memory 1081 and then read out by the display characteristic adjustment unit 1083.
  • the display characteristic adjustment unit 1083 performs image processing such as gamma correction on the image data read from the frame memory 1081, and inputs the processed image data to the display unit 110.
  • the display unit 110 displays the input image data on the display screen. At this time, the display unit 110 displays image characteristic information and the like as necessary. In this way, a series of processing from imaging of the subject 200 to image display is completed.
  • 3A to 3C show an example in which an image in which the red component is emphasized is displayed on the display unit 110.
  • the intensity of the light source s3 is increased, the blue component is enhanced (the color temperature is high).
  • the subject 200 is illuminated under the condition that the imaging unit 102 obtains image characteristics having a desired color tone by referring to the light source characteristic information stored in the light source characteristic information database.
  • the settings of the illumination unit 104 (combination of light sources, intensity (light quantity), etc.).
  • the number of image processing steps required for the image processing unit 108 can be reduced. Therefore, the configuration of the image processing unit 108 can be simplified.
  • the illumination unit 104 may be configured to be replaceable. By configuring so that the illumination unit 104 can be replaced, image data having more various image characteristics can be acquired in the imaging unit 102. However, in this case, it is necessary that the programmable unit characteristic setting unit 1063 can acquire the light source characteristic information of the illumination unit 104 after replacement.
  • FIG. 4 is a diagram illustrating a detailed configuration of the imaging apparatus 100 according to the second embodiment of the present invention.
  • the description will focus on the configuration of parts different from FIG.
  • the programmable unit characteristic setting unit 1063 generates an illumination characteristic setting signal and an image characteristic setting signal according to the image characteristic set in the image characteristic setting unit 1062, and uses the illumination characteristic setting signal of the lighting unit 104.
  • the light source module control unit 1042 is configured to input an image characteristic setting signal to the image composition unit 1082 of the image processing unit 108.
  • the image processing unit 108 in the second embodiment has an image composition unit 1082 in addition to the frame memory 1081 and the display characteristic adjustment unit 1083.
  • the image synthesis unit 1082 synthesizes the image data stored in the frame memory 1081 in accordance with the image illumination characteristic setting signal input from the programmable unit characteristic setting unit 1063.
  • image data having various image characteristics as compared with the first embodiment is obtained by using a process of combining image data of a plurality of frames having different illumination states. Therefore, the frame memory 1081 in the second embodiment has a capacity that can store a plurality of frames of image data simultaneously.
  • FIG. 5 shows an example of the light distribution pattern and the spectral distribution of the light emitted from the light sources s1 to s4.
  • the light distribution pattern shown in FIG. 5 is illustrated by setting the directions orthogonal to each other in the plane perpendicular to the main axis of the illumination light emitted from the illumination optical system 11 or 12 as X and Y, respectively.
  • the light source s1 is a light source that emits light having a continuous white spectrum in the visible broadband
  • the light source s2 is a light source that emits light having a spectrum peak in the red wavelength band
  • the light source s3 is blue. It is a light source that emits light having a spectral peak in the wavelength band.
  • the light source s4 is a light source that emits special light.
  • the special light is used, for example, in fluorescence analysis in fields such as biochemical analysis and medical diagnosis, or is acquired as medical diagnostic information by acquiring an image of a specific narrow spectrum band.
  • the illumination optical system 11 has a characteristic of distributing illumination light in a wide angle range
  • the illumination optical system 12 has a characteristic of distributing illumination light in a narrow angle range.
  • the programmable unit characteristic setting unit 1063 With reference to the light source characteristic information database, the ratio of the intensity of the light source emitted from the light source and the intensity of the light emitted from the light source is set in the illumination unit 104 as described above, and an illumination characteristic setting signal corresponding to this setting is generated.
  • the programmable unit characteristic setting unit 1063 reduces the intensity at the timing t1, as shown in FIG.
  • An illumination characteristic setting signal instructing the light source s1 to emit light (for example, halved) is input to the light source module control unit 1042.
  • the programmable unit characteristic setting unit 1063 generates an illumination characteristic setting signal that instructs the light source s ⁇ b> 1 to emit light by increasing the intensity (for example, doubling) at the timing t ⁇ b> 2. Input to the control unit 1042. Further, as shown in FIG.
  • the programmable unit characteristic setting unit 1063 controls an illumination characteristic setting signal that instructs the light source s1 and the light source s2 to emit light at the time of t3 with an intensity of 1 ⁇ . Input to the unit 1042. Further, as shown in FIG. 6, the programmable unit characteristic setting unit 1063 controls the light source module control with the illumination characteristic setting signal that instructs the light source s1 and the light source s3 to emit light at the time of t4 with the intensity increased by one. Input to the unit 1042. Further, as shown in FIG. 6, the programmable unit characteristic setting unit 1063 sends an illumination characteristic setting signal for instructing the light source s4 to emit light with the intensity increased by 1 at the timing of t5, to the light source module control unit 1042. input.
  • the programmable unit characteristic setting unit 1063 outputs an image characteristic setting signal that instructs to synthesize the image data_1 acquired at the timing t1 and the image data_2 acquired at the timing t2. Input to 1082.
  • the imaging unit 102 performs imaging for five frames in synchronization with the illumination pattern switching timings t1, t2, t3, t4, and t5 of the illumination unit 104 in accordance with the synchronization signal from the control unit 112, and five types of image data. _1, image data_2, image data_3, image data_4, and image data_5 are acquired.
  • the image data for 5 frames obtained by the imaging unit 102 is temporarily stored in the frame memory 1081 and then input to the image composition unit 1082.
  • an instruction is given to the image composition unit 1082 by an image characteristic setting signal so as to synthesize the image data_1 and the image data_2. Therefore, the image composition unit 1082 synthesizes the image data_1 and the image data_2 among the image data input from the frame memory 1081, and then outputs them to the display characteristic adjustment unit 1083.
  • the image composition unit 1082 outputs the image data_3, image data_4, and image data_5 input from the frame memory 1081 to the display characteristic adjustment unit 1083 as they are.
  • the brightness of the portion of the image data_1 having a predetermined value and the brightness of the image data_2 are predetermined. Are combined with the value of. By such composition, the dynamic range for brightness can be widened.
  • the display characteristic adjustment unit 1083 performs image processing such as gamma correction on the image data input from the image composition unit 1082, and inputs the processed image data to the display unit 110.
  • the display unit 110 displays the input image data on the display screen. At this time, the display unit 110 displays image characteristic information and the like as necessary. In this way, a series of processing from imaging of the subject 200 to image display is completed. In the display, four images may be displayed simultaneously or individually.
  • An image with enhanced blueness (high color temperature) corresponding to image data_4 reflection, scattering, diffraction, and fluorescence when special light is irradiated to a narrow irradiation area corresponding to image data_5
  • Each image can be displayed on the display unit 110.
  • image composition unit 1082 the case where the obtained image data is added and synthesized has been described as an example, but various synthesis operations can be applied. For example, if image data obtained by subtracting image data_5 (special light image) from image data_2 (white image) by a certain ratio is synthesized, image data excluding only a special spectral band can be extracted. .
  • the image composition unit 1082 by providing the image composition unit 1082, it is possible to acquire image data having various image characteristics as compared with the first embodiment. Further, in the present embodiment, by generating an illumination characteristic setting signal and an image characteristic setting signal according to a temporal change in image characteristics to be acquired, image data having a plurality of image characteristics is acquired by a series of imaging operations. Can do.
  • the method of acquiring image data having a desired image characteristic by switching the illumination pattern in the present embodiment can take various methods including those other than those described above depending on the type of the image characteristic to be set.
  • the following shows an example of a specific method for the typical case.
  • the dynamic range of brightness is set in the image characteristic setting unit 1062 of the image characteristic setting unit 106.
  • the subject 200 is illuminated multiple times by changing the intensity (light quantity) of illumination light from a light source, and the subject 200 irradiated with each illumination light is imaged by the imaging unit 102. To do.
  • a composite image having a desired dynamic range can be acquired.
  • a wavelength band that is emphasized or suppressed is set in the image characteristic setting unit 1062 of the image characteristic setting unit 106.
  • the first method is the above-described method, and when the light from a plurality of light sources having different spectra is combined to irradiate the subject 200 with illumination light, the subject 200 is irradiated with light having a specific wavelength band enhanced. It is a technique.
  • illumination light from a light source having a broad spectrum distribution for example, the light source s1
  • illumination light from a light source having a spectrum peak in a specific wavelength band for example, the light source s2 or s3
  • the subject 200 is switched and irradiated to the subject 200, and the subject 200 irradiated with each illumination light is imaged by the imaging unit 102.
  • an image in which a specific wavelength band is emphasized can be obtained.
  • an image with a specific wavelength band suppressed can be obtained.
  • the range of the subject area in which the brightness is emphasized is set in the image characteristic setting unit 1062 of the image characteristic setting unit 106. Further, a plurality of light sources having different light distribution patterns are prepared or the illumination range of the illumination optical system is made variable, and the light source or the illumination optical system is selected so that illumination light is irradiated to a desired area. Further, image data in which a specific area is brightened can also be acquired by combining light from a plurality of light sources having different light distribution patterns.
  • Such a setting for emphasizing the brightness of a specific subject area is, for example, when it is necessary to concentrate light of a specific wavelength on the specific area as in fluorescence analysis, or the brightness of a subject far from the illumination unit 104 is insufficient. Is effective for suppressing excessive brightness (white highlights) of a subject that is too close.
  • FIG. 7 is a diagram illustrating a detailed configuration of the imaging apparatus 100 according to the third embodiment of the present invention. In the following, FIG. 7 will be described with a focus on the configuration of parts different from FIG. 4, and description of the configuration of common parts will be omitted.
  • the image characteristic setting unit 106 shown in FIG. 7 includes an image characteristic extraction unit 1064, an image characteristic comparison unit 1065, a light source characteristic information database 1061, an image characteristic setting unit 1062, and a programmable unit characteristic setting unit 1063. And an illumination characteristic correction unit 1066.
  • the image characteristic extraction unit 1064 extracts the image characteristic set by the image characteristic setting unit 1062 from the image data processed by the image synthesis unit 1082. For example, when the image characteristic is set to emphasize a specific spectral band, the image characteristic extraction unit 1064 extracts a spectrum distribution or a color temperature as the image characteristic. Note that in the third embodiment, the image composition unit 1082 is not necessarily provided. When the image composition unit 1082 is not provided, the image characteristic extraction unit 1064 extracts image characteristics from the image data stored in the frame memory 1081.
  • the image characteristic comparison unit 1065 compares the image characteristic extracted by the image characteristic extraction unit 1064 with the image characteristic set by the image characteristic setting unit 1062. More specifically, the difference between the image characteristic extracted by the image characteristic extraction unit 1064 and the image characteristic set by the image characteristic setting unit 1062 is calculated.
  • the illumination characteristic correction unit 1066 eliminates the difference between the image characteristic extracted by the image characteristic extraction unit 1064 and the image characteristic set by the image characteristic setting unit 1062.
  • the correction signal is input to the light source module control unit 1042.
  • the programmable unit characteristic setting unit 1063 sets the light source module control unit 1042 and the image composition unit 1082 with respect to the setting of the image characteristic setting unit 1062.
  • the light source module control unit 1042 receives the setting from the programmable unit characteristic setting unit 1063 and controls the light source module 1041 to illuminate the subject 200 with illumination light.
  • the imaging unit 102 images the subject 200 in synchronization with the illumination of the subject 200.
  • the image data acquired by the imaging unit 102 is temporarily stored in the frame memory 1081 and then read out by the image composition unit 1082.
  • the image synthesizing unit 1082 synthesizes image data in response to the setting from the programmable unit characteristic setting unit 1063.
  • the image characteristic extraction unit 1064 extracts the image characteristic set by the image characteristic setting unit 1062 from the image data output from the image synthesis unit 1082.
  • the image characteristic comparison unit 1065 compares the image characteristic extracted by the image characteristic extraction unit 1064 with the image characteristic set by the image characteristic setting unit 1062.
  • the illumination characteristic correction unit 1066 reduces the difference between the image characteristic extracted by the image characteristic extraction unit 1064 and the image characteristic set by the image characteristic setting unit 1062.
  • the characteristic correction signal is input to the light source module control unit 1042. In response to this, the light source module control unit 1042 changes the intensity of illumination light and the like.
  • the illumination characteristic correction unit 1066 to the light source module control unit 1042 eliminate the difference between the image characteristic set by the image characteristic setting unit 1062 and the image characteristic extracted by the image characteristic extraction unit 1064.
  • a light source correction signal is input to the.
  • the light source module control unit 1042 changes the characteristics of the illumination light according to the light source correction signal. For example, when the intensity of the light source s3 is increased with respect to the light source s1 having a broad spectrum distribution, the color temperature can be increased (blue is emphasized) as shown by the spectrum distribution s1 ′ in FIG.
  • the color temperature can be lowered (red is emphasized) as shown in the spectral distribution s2 ′′ in FIG. 8B.
  • the illumination unit 104 can be feedback-controlled so that image data having desired image characteristics can be obtained.
  • the case of feedback control of the color temperature has been described in the present embodiment.
  • the size of the illumination area using a plurality of illumination optical systems having different light distribution patterns. Can be feedback-controlled.
  • FIG. 10A An example of the spectral distribution of the light source is shown in FIG. 10A, and an example of the light emission timing of the light source is shown in FIG. 10B. Since the microscope apparatus illuminates a minute subject area with high density, even if the external light suppressing member 300 is not used, “the external light emitted to the subject is irradiated from the illumination unit that irradiates the subject. This is one of the representative examples in which an “environment that can be effectively ignored with respect to illumination light” is realized.
  • the illumination light emitted from the illumination unit 104 enters the collimating optical system 116 through the light guide 114, and this collimating optical
  • the light is converted into parallel light by the system 116, and is irradiated to the subject 200, which is the observation target, as transmitted illumination light through the rising mirror 120 and the illumination optical system 122.
  • the illumination light emitted from the illumination unit 104 is reflected by the insertion / removal mirror 118 and passes through the folding mirror 126 and the illumination optical system 128 and is reflected as illumination light.
  • a certain subject 200 is irradiated.
  • the illumination light applied to the subject 200 has its reflected light, transmitted light, scattered light, diffracted light, fluorescence, etc. entered into the objective optical system 130 and emitted from the eyepiece optical system or imaging optical system 134 via the lens barrel 132.
  • the image is observed by the eye E or picked up by the image pickup unit 102.
  • the fourth embodiment for example, seven types of light sources having different spectral distributions as shown in FIG. 10A are prepared, and these are emitted at the timing and intensity as shown in FIG. According to the technique, it is possible to acquire a white image or a microscope device image of a specific wavelength band, or to acquire various desired microscope device images by synthesizing the acquired microscope device images.
  • the image pickup apparatus illustrated in FIG. 9 is an example in which the configuration described in the second embodiment is applied, but the configuration illustrated in the first embodiment or the third embodiment may be applied. Needless to say.
  • FIG. 11 shows a basic overall configuration of the endoscope apparatus.
  • the endoscope apparatus observes the subject by applying dedicated illumination in an environment where external light such as in vivo or piping can be almost ignored.
  • This is another typical example in which an “environment in which external light to be irradiated is effectively negligible with respect to illumination light from an illumination unit that irradiates a subject” is realized.
  • the endoscope apparatus shown in FIG. 11 is configured by connecting a display device 406 having a display unit 110 and an insertion unit 402 to a main body control device 404 equipped with an image processing function and a light source function.
  • the insertion unit 402 is divided into a distal end side flexible part 4021, a scope operation part 4022, and a scope rear stage side flexible part 4023.
  • the main body control apparatus 400 includes the image processing unit 108 described in the above embodiment, the image characteristic setting unit 106, the control unit 112, and the light source s that is a part of the illumination unit.
  • the light emitting end of the light source s is connected to a light guide path f composed of an optical fiber or the like, and the light emitted from the light source s is guided toward the distal end side flexible portion 4021 of the insertion unit 402 and necessary. Accordingly, the subject is irradiated through the illumination optical system l.
  • the configuration of the light source s, the light guide path f, and the illumination optical system l can be applied, for example, as shown in FIG. 2.
  • light from the plurality of light sources s1, s2, and s3 is combined in a common light guide path by a combiner.
  • the subject is irradiated through a common illumination optical system.
  • the light source s4 is guided by another light guide and is irradiated to the subject via another illumination optical system.
  • Reflected light, scattered light, diffracted light, fluorescence or the like from the illuminated subject is imaged by the imaging unit 102 provided in the distal end side flexible portion 4021.
  • the image data obtained by the imaging unit 102 is transmitted to the image processing unit 108 by a signal transmission unit (not shown) disposed in the insertion unit 402 and configured in the image processing unit 108 in the main body control apparatus 400. It is stored in the frame memory 1081. Then, similarly to the above-described embodiment, processing is performed in the image composition unit 1082 and the display characteristic adjustment unit 1083, and an image is displayed on the display unit 110.
  • the endoscope has a unique configuration in which the insertion unit 402 has a flexible tube shape, and most of the electronic circuits are arranged in the main body control device 404.
  • a specific configuration example of a variable light source module that can be mounted on such a configuration will be described below.
  • the variable light source module shown in FIG. 12 includes (a) a combination of a light source and a convex lens, (b) a combination of a light source, an optical fiber, a fluorescent member, and a concave lens, (c) a light source, and light.
  • a fiber, a light diffusing member, and a concave lens are combined.
  • a light source 501 In the light source module shown in FIG. 12A, a light source 501, a phosphor 502, and a convex lens 503 are arranged in the distal end side flexible portion 4021.
  • the light source 501 for example, an LED chip or a laser chip can be used.
  • Driving electrodes 504 a and 504 b formed on the light source 501 are connected to an electric wiring 505, and the electric wiring 505 is connected to the light source module control unit 1042.
  • the drive current generated by the light source module control unit 1042 is supplied to the light source 501 via the drive electrodes 504a and 504b by the electric wiring 505.
  • the light emitted from the light source 501 is converted to a desired wavelength by the phosphor 502 and is irradiated to the subject through the convex lens 503.
  • the fluorescent unit 511 and the concave lens 512 are arranged in the distal end side flexible portion 4021.
  • the fluorescent unit 511 includes a laser beam spreading control member made of a transparent columnar member and a fluorescent member. Further, the light emitting portion of the optical fiber 513 is connected to the diffusing member of the fluorescent unit 511, and the coupling lens 514 and the light source 515 are disposed in the light incident portion of the optical fiber 513.
  • the light source 515 is a light source module. It is connected to the control unit 1042. For example, a laser chip is used as the light source 515.
  • Excitation light emitted from the light source 515 under the control of the light source module control unit 1042 enters the optical fiber 513 through the coupling lens 504. Then, this light is guided by the optical fiber 513 and applied to the fluorescent unit 511.
  • the fluorescent unit 511 after the irradiation range of the excitation light is expanded by the laser beam expansion control member, the fluorescent member is irradiated, converted to a desired wavelength by the fluorescent member, and emitted. The light emitted from the fluorescent unit 511 is irradiated to the subject through the concave lens 512.
  • the wavelength of the excitation light from the laser chip is a wavelength corresponding to purple, and the emission color of the fluorescent member is red or blue
  • the light irradiated to the subject is red light or blue light indicated by the spectra s2 and s4 in FIG. 10A. It becomes.
  • the diffusion unit 521 and the concave lens 522 are disposed in the distal end side flexible portion 4021.
  • the diffusion unit 521 has a laser beam spread control member made of a transparent columnar member and a diffusion member. Further, the light emitting part of the optical fiber 523 is connected to the diffusion unit 521, the coupling lens 524 and the light source 525 are arranged in the light incident part of the optical fiber 523, and the light source 525 is the light source module control part 1024. It is connected to the.
  • a laser chip is used as the light source 525.
  • Excitation light emitted from the light source 525 under the control of the light source module control unit 1042 enters the optical fiber 523 through the coupling lens 524. Then, this light is guided by the optical fiber 523 and irradiated to the diffusion unit 521.
  • the diffusion unit 521 after the irradiation range of the excitation light is expanded by the laser beam expansion control member, it is irradiated to the diffusion member, converted into diffused light by the diffusion member, and irradiated to the subject through the concave lens 522. Since the laser beam has a very narrow spectrum width, the light emitted to the subject is, for example, the spectrum s5, s6, or s7 in FIG. 10A.
  • the light source module shown in FIG. 13 is configured such that the irradiation area can be changed by combining a variable focus lens. Specifically, in the configuration shown in FIG. 12B, the concave lens 522 is replaced with a variable focus lens 522a.
  • the lighting unit 104 and the image processing unit 108 are set by the image characteristic setting unit 106 so that image data having desired image characteristics can be obtained in the imaging unit 102. Thereby, it is not necessary to perform complicated image processing on the image data acquired by the imaging unit 102.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Microscoopes, Condenser (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 撮像装置(100)は、撮像ユニット(102)と、照明ユニット(104)と、画像特性設定ユニット(106)とを含む。撮像ユニット(102)は、被写体を撮像して該被写体に係る画像を取得する。照明ユニット(104)は、光学特性の異なる複数種類の照明光を前記被写体に対して照射するように構成された単一又は複数の光源を有する。画像特性設定ユニット(106)は、撮像ユニット(102)において取得される画像の画像特性が設定され、該設定された画像特性を有する画像が実効的に撮像ユニット(102)で取得されるように、光源毎の、光量制御特性の情報と、配光パターン特性の情報と、スペクトル分布特性の情報と、偏光特性の情報との少なくとも1つを含む光源特性情報を参照して、少なくとも1種類の前記照明光の光量、配光パターン、スペクトル分布、又は偏光特性を照明ユニット(104)に対して設定する。

Description

撮像装置、顕微鏡装置及び内視鏡装置
 本発明は、スペクトル分布の異なる光を被写体に照射することで、異なる特性の画像を撮像することが可能な撮像装置、顕微鏡装置及び内視鏡装置に関する。
 スペクトル分布の異なる光を被写体に照射することで、異なる特性の画像を取得する撮像装置が知られている。例えば、特開2005-13611号公報には、通常観察、蛍光観察、狭帯域光観察、赤外観察といった各種の観察に応じた画像特性の画像を撮像できるよう、被写体を照明する照明光を切り替え可能にすることが開示されている。さらに、特開2005-13611号公報には、各々の特性の画像に対応した画像処理を小規模の回路で行えるよう、プログラム可能な論理素子回路によって使用される回路データを保持する保持手段を設けておき、保持手段に保持されている回路データを画像の特性に応じて選択できるようにすることが開示されている。
 特開2005-13611号公報では、被写体に照明する照明光のスペクトルを切り替えることによって異なる特性の画像が取得される。ここで、特開2005-13611号公報では、実際に取得したい画像特性の画像を得るための色変換等の処理は、撮像素子の後段の論理回路で行われる。一方、最適な照明特性(強度、配光パターン、スペクトル分布等)の設定で被写体を照明することにより、実際に取得したい特性の画像が撮像素子を介して得られていれば、後段の画像処理を不要とする又は簡略化することが可能である。この場合、撮像装置内の画像処理回路を小規模化でき、さらには撮像装置自体の小型化、低コスト化、低消費電力化をも実現することができる。
 本発明は、前記の事情に鑑みてなされたもので、取得したい画像特性に応じた最適な照明特性で被写体を照明することにより、複雑な画像処理を必要とせずに取得したい画像特性の画像を得ることが可能な撮像装置、並びにそれを備える顕微鏡装置及び内視鏡装置を提供することを課題とする。
 前記の課題を解決するために、本発明の一態様の撮像装置は、被写体を撮像して該被写体に係る画像を取得する撮像ユニットと、光学特性の異なる複数種類の照明光を前記被写体に対して発光する単一又は複数の光源を有する照明ユニットと、前記撮像ユニットにおいて取得される前記画像の画像特性が設定され、該設定された画像特性を有する前記画像が実効的に前記撮像ユニットで取得されるように、前記光源毎の、光量制御特性の情報と、配光パターン特性の情報と、スペクトル分布特性の情報と、偏光特性の情報とのうち少なくとも1つを含む光源特性情報を参照して、少なくとも1種類の前記照明光の光量、配光パターン、スペクトル分布、又は偏光特性を前記照明ユニットに対して設定する画像特性設定ユニットと、を具備する。
図1は、本発明の各実施形態に係る撮像装置の概略の構成を示すブロック図である。 図2は、本発明の第1の実施形態に係る撮像装置の詳細な構成について示す図である。 図3Aは、本発明の第1の実施形態に係る撮像装置の動作について説明するための第1の図である。 図3Bは、本発明の第1の実施形態に係る撮像装置の動作について説明するための第2の図である。 図3Cは、本発明の第1の実施形態に係る撮像装置の動作について説明するための第3の図である。 図4は、本発明の第2の実施形態に係る撮像装置の詳細な構成について示す図である。 図5は、光源モジュールを構成する光源の配光パターンとスペクトル分布の一例を示す図である。 図6は、本発明の第2の実施形態に係る撮像装置の動作について説明するための図である。 図7は、本発明の第3の実施形態に係る撮像装置の詳細な構成について示す図である。 図8Aは、本発明の第3の実施形態に係る撮像装置の動作について説明するための第1の図である。 図8Bは、本発明の第3の実施形態に係る撮像装置の動作について説明するための第2の図である。 図9は、本発明の第4の実施形態に係る撮像装置の構成について示す図である。 図10Aは、本発明の第4の実施形態に係る撮像装置の動作について説明するための第1の図である。 図10Bは、本発明の第4の実施形態に係る撮像装置の動作について説明するための第2の図である。 本発明の第5の実施形態に係る撮像装置の構成について示す図である。 光源モジュールの具体的な構成例を示す図である。 可変焦点光学系を用いた光源モジュールの具体的な構成例を示す図である。
 以下、図面を参照して本発明の実施形態を説明する。 
 図1は、本発明の各実施形態に係る撮像装置の概略の構成を示すブロック図である。図1に示すように、撮像装置100は、概略的には、撮像ユニット102と、照明ユニット104と、画像特性設定ユニット106と、画像処理ユニット108と、表示ユニット110と、制御ユニット112とを有している。
 撮像ユニット102は、被写体200を撮像して被写体200に係るデジタル画像データを生成する。
 照明ユニット104は、被写体200を照明する光源である。照明ユニット104は、光源特性の異なる複数種類の照明光を発光可能な光源を有している。ここでの光源特性とは、配光パターンと、スペクトル分布と、偏光状態のうち少なくとも一つを言う。ここで、配光パターンは、どの角度にどの程度の強度で照明光を照射するかを示す特性である。また、スペクトル分布は、照明光がどの波長帯の光を含んでいるかを示す特性である。照明ユニット104は、画像特性設定ユニット106からの照明特性設定信号に従って、光源から照射される照明光のスペクトル、配光パターン、偏光特性、光量、発光回数、発光タイミングの設定がプログラミングされるように構成されている。
 画像特性設定ユニット106は、所望の画像特性を有する画像データが実効的に撮像ユニット102で取得されるように照明ユニット104と画像処理ユニット108の設定をプログラミングする。画像特性とは、画像データの特性を示す情報であり、例えば画像データにおいて強調又は抽出されるべき波長帯(色調又はスペクトル帯域)を示す情報、画像データにおける照明光の照明範囲を示す情報、画像データのダイナミックレンジを示す情報等を含む。また、実効的とは、撮像ユニット102の後段における簡易な処理で所望の画像特性が得られる場合も含むことを意味している。
 画像処理ユニット108は、撮像ユニット102を介して得られた画像データを、例えば再生可能な形式に画像処理する。この画像処理は、例えばガンマ補正処理である。また、画像処理ユニット108は、必要に応じて撮像ユニット102で取得された画像データを合成する処理も行う。
 表示ユニット110は、画像処理ユニット108で処理された画像データに基づく画像を表示する。表示ユニット110は、画像特性設定ユニット106で設定された画像特性の情報等の各種の情報も表示する。
 制御ユニット112は、撮像装置100の各ブロックを同期制御するための同期信号を、撮像ユニット102、照明ユニット104、画像処理ユニット108、表示ユニット110に入力する。
 以下、本発明の実施形態についてさらに説明する。 
 [第1の実施形態]
 図2は、本発明の第1の実施形態に係る撮像装置の詳細な構成について示す図である。ここで、本実施形態においては、撮像ユニット102による被写体200の撮像と、照明ユニット104による被写体200の照明とは、「被写体200に対して照射される外光が、被写体200に対して照明ユニット104から照射される照明光に対して実効的に無視できる環境」で行われることが望ましい。したがって、撮像ユニット102による被写体200の撮像と、照明ユニット104による被写体200の照明とは、例えば外光抑制部材300の中で行われることが望ましい。
 外光抑制部材300は、被写体200に対して照射される外光が、被写体に対して照射する照明手段からの照明光に対して実効的に無視できる環境を実現するための部材であり、例えば図2のように、撮像ユニット102、照明ユニット104、及び被写体200を覆うように構成された箱型部材である。また、外光抑制部材300は、必要に応じて、外光を反射又は吸収する材料によって構成されても良い。
 また、外光抑制部材300の代わりに外光キャンセル処理を行うようにしても良い。外光キャンセル処理は、例えば、外光又は照明ユニット104からの光が、所定スペクトル、所定周期又は所定タイミングで被写体200に照射される状況下において、撮像ユニット102で取得される画像データのうちの外光の成分をキャンセルするように、外光のスペクトル成分、外光の照射周期又は照射タイミング成分を差し引く処理、或いは照明光の成分を抽出するように照明光のスペクトル成分、照明光の照射周期又は照射タイミング成分を電気的又はソフト的に抽出する処理が適用できる。
 撮像ユニット102は、撮像光学系1021と、撮像素子1022とを有している。
 撮像光学系1021は、単一又は複数のレンズを有し、被写体200から反射、散乱、又は回折された光を撮像素子1022に結像させる。撮像素子1022は、光電変換素子が配置された受光面を有し、撮像光学系1021を介して結像された被写体200からの光を、光電変換によってアナログ電気信号(画像信号)に変換する。また、撮像素子1022は、アナログ電気信号である画像信号を図示しないA/D変換回路によってデジタル信号である画像データに変換する。
 照明ユニット104は、光源モジュール1041と、光源モジュール制御部1042とを有している。
 光源モジュール1041は、配光パターン又はスペクトル分布の異なる複数種類の光を出射する単一又は複数の光源を備えている。図2は、光源モジュール1041が4つの光源s1~s4を有している例を示している。光源s1~s4は、スペクトル分布が異なる光源である。また、光源s1~s3は、光ファイバ等で構成される導光路f1に接続されている。光源s4は、導光路f2に接続されている。さらに、導光路f1は、照明光学系l1に接続されている。また、導光路f2は、照明光学系l2に接続されている。図2の例では、照明光学系l1は、広い角度範囲に照明光を配光する特性を有し、照明光学系l2は狭い角度範囲に照明光を配光する特性を有している。このような特性の異なる複数の照明光学系を設けることにより、光源s1~s3と、光源s4とで配光パターンを異ならせることが可能である。
 ここで、図2は、光源モジュール1041内に4種類の光源を設けた例を示しているが、光源の数は特に限定されるものではない。また、導光路f1に接続される光源を切り替え可能としても良い。例えば、光源s1~s3の何れか1つを接続したり、何れか2つを接続したりできるようにしても良い。また、本例では、導光路として光ファイバを用いているが、光を伝送できる媒体であれば光ファイバでなくとも良い。例えば、光ファイバの代わりに光導波路を用いても良い。さらに、図2では、2種の照明光学系を設けているが、照明光学系の数も限定されるものではない。例えば、変倍可能な光学系であれば、照明光学系が1つであっても良い。
 光源モジュール制御部1042は、光源s1~s4の光を導光路において合波したり、図示しない光変調素子によって変調したりすることにより、照明ユニット104から出射される照明光の光量、配光パターン、スペクトル分布、偏光特性のうち少なくともひとつ以上を所望の特性に制御する。
 画像特性設定ユニット106は、光源特性情報データベース1061と、画像特性設定部1062と、プログラマブルユニット特性設定部1063とを有している。
 光源特性情報データベース1061は、光源モジュール1041を構成する複数の光源s1~s4のスペクトル分布の特性情報、照明光学系l1、l2の特性に基づく照明光の配光パターンの特性情報、光量制御の特性情報といった、光源モジュール1041の光源特性情報をデータベースとして保有している。
 画像特性設定部1062は、被写体200への照明ユニット104からの光照射によって撮像ユニット102において取得されるべき画像特性を設定する。この画像特性設定部1062に対する設定は、例えばユーザによって行われる。
 プログラマブルユニット特性設定部1063は、画像特性設定部1062で設定された画像特性に従って光源特性情報データベース1061を参照し、撮像ユニット102において所望の画像特性を有する画像データが得られるような照明特性設定信号を生成し、生成した照明特性設定信号を、照明ユニット104に入力する。このプログラマブルユニット特性設定部1063の動作の詳細については後で詳しく説明する。
 画像処理ユニット108は、フレームメモリ1081と、表示特性調整部1083とを有している。
 フレームメモリ1081は、撮像ユニットで取得された画像データを一時的に記憶する。表示特性調整部1083は、フレームメモリ1081から読み出した画像データに対し、ガンマ補正処理等の表示ユニット110の特性に応じた画像処理を施す。
 表示ユニット110は、液晶ディスプレイ等の表示装置を備え、表示特性調整部1083で処理された画像データに対応した画像を表示する。なお、別途、情報ウインドウを設け、画像特性設定ユニット106で設定された画像特性を示す情報、光源モジュール1041の設定を示す情報、光源特性情報データベース1061に保有されている情報等の各種情報を表示させても良い。
 以下、図2で示した撮像装置100の動作について説明する。本実施形態では、例として、特定のスペクトル帯域が強調された画像特性を有する画像データを撮像ユニット102において取得する例を説明する。この例においては、光源s1~s3を使用し、光源s4を使用しない。ここで、光源s1~s3が射出する光のスペクトル分布の例を、図3Aに示す。図3Aに示すように、光源s1は、可視広帯域で連続的な白色スペクトルを有する光を発する光源であり、光源s2は、赤色波長帯にスペクトルのピークを有する光を発する光源であり、光源s3は、青色波長帯にスペクトルのピークを有する光を発する光源である。光源s4は、例えば特定の狭い波長帯にスペクトルのピークを有する光(以後、このような光を特殊光と呼ぶ)を発する光源である。光源s4の詳細については第2の実施形態で説明する。
 画像特性設定部1062には、強調したいスペクトル帯域の情報が設定される。例えば、図3Bに示すように、強調したいスペクトル帯域として、波長λ1の近傍の帯域(赤色波長帯)が設定されたとする。この設定を受けて、プログラマブルユニット特性設定部1063は、光源特性情報データベース1061を参照して、照明ユニット104の中で発光させる光源及び光源から出射させる光の強度の比率を設定し、この設定に応じた画像特性設定信号を生成する。
 例えば、光源s1~s3が図3Aで示したようなスペクトル分布を有していることが光源特性情報データベース1061から取得された場合には、画像データの赤みを強調すべく、プログラマブルユニット特性設定部1063は、赤色波長帯の光源である光源s2の強度を光源s1、s3に比べて高くするように指示する照明特性設定信号を、光源モジュール制御部1042に対して入力する。
 照明特性設定信号を受けて光源モジュール制御部1042は、光源s1、s2がそれぞれ設定された設定された強度で発光するように光源制御信号を生成し、生成した光源制御信号を光源s1、s2に出力する。一方、光源s3、s4は、発光させない。
 光源モジュール1041は、制御ユニット112からの同期信号に同期して、光源制御信号によって指示された強度で光源s1、s2を発光させる。光源s1、s2から出射された光は、導光路f1で合波され、照明光学系l1を経て照明光L1として被写体200に照射される。光源s2の強度を強くしているので、照明光L1は、図3Cに示すような赤色波長帯が強調されたスペクトル分布を有する光として被写体200に照射される。
 ここでは、光源s1、s2を同時に発光させる例を示しているが、撮像ユニット102の撮像時間よりも短い時間間隔で光源s1、s2を順次発光させるようにしても良い。この場合も時間平均で見ると、強調されたスペクトル分布を有する光が被写体200に対して照射されたと考えることができる。
 撮像ユニット102は、制御ユニット112からの同期信号に従って、照明ユニット104の照明光の発光と同期するタイミングで撮像を行って画像データを取得する。撮像のタイミングにおいて照明光L1で被写体200が照明されているので、撮像ユニットで取得される画像データは、色温度が低くなっている(赤みが強調されている)。
 撮像ユニット102で得られた画像データは、フレームメモリ1081に一時記憶された後、表示特性調整部1083によって読み出される。表示特性調整部1083は、フレームメモリ1081から読み出した画像データに対してガンマ補正等の画像処理を行い、処理後の画像データを表示ユニット110に入力する。表示ユニット110は、入力された画像データを表示画面に表示させる。このとき、表示ユニット110は、必要に応じて画像特性の情報等も表示させる。このようにして被写体200の撮像から画像表示までの一連の処理が終了する。
 このような一連の処理では、画像の特定波長帯域を強調するための画像処理を画像処理ユニット108において行う必要がない。なお、図3A~図3Cの例では、赤色成分を強調した画像を表示ユニット110に表示させる例を示しているが、光源s3の強度を強くすれば、青色成分を強調した(色温度の高い)画像を表示ユニット110に表示させることが可能である。また、光源s1と光源s3の強度の比を変化させることにより、画像データの色バランスを調節することも可能である。
 以上説明したように、本実施形態においては、光源特性情報データベースに記憶されている光源特性情報を参照することにより、撮像ユニット102において所望の色調を有する画像特性が得られる条件で被写体200が照明されるように照明ユニット104の設定(光源の組み合わせ、強度(光量)等)をプログラミングすることが可能である。これにより、画像処理ユニット108に必要な画像処理の工数を削減することが可能である。したがって、画像処理ユニット108の構成を簡略化することが可能である。
 ここで、第1の実施形態において、照明ユニット104は交換できるように構成しても良い。照明ユニット104を交換できるように構成しておくことにより、より多様な画像特性を有する画像データを撮像ユニット102において取得することが可能である。ただし、この場合には、交換後の照明ユニット104の光源特性情報をプログラマブルユニット特性設定部1063が取得できるようにしておく必要がある。
 [第2の実施形態]
 次に、本発明の第2の実施形態について説明する。図4は、本発明の第2の実施形態に係る撮像装置100の詳細な構成について示す図である。以下、図4に対しては、図2と異なる部分の構成を中心に説明し、共通する部分の構成は説明を省略する。
 第2の実施形態におけるプログラマブルユニット特性設定部1063は、画像特性設定部1062に設定された画像特性に応じて照明特性設定信号と画像特性設定信号を生成し、照明特性設定信号を照明ユニット104の光源モジュール制御部1042に、画像特性設定信号を画像処理ユニット108の画像合成部1082に入力するように構成されている。
 また、第2の実施形態における画像処理ユニット108は、フレームメモリ1081と、表示特性調整部1083とに加えて画像合成部1082を有している。画像合成部1082は、プログラマブルユニット特性設定部1063から入力された画像照明特性設定信号に応じて、フレームメモリ1081に記憶された画像データを合成する。詳細は後述するが、本実施形態は、照明状態の異なる複数フレームの画像データを合成する処理を併用することにより、第1の実施形態よりも多様な画像特性の画像データを得るものである。したがって、第2の実施形態におけるフレームメモリ1081は、複数フレームの画像データを同時に記憶できるだけの容量を有している。
 以下、図4で示した撮像装置100の動作について説明する。本実施形態では、例として、照明パターンを切り替えて複数の画像データを得て、この複数の画像データを合成することによって所望の画像特性の画像データを得る例を説明する。ここで、光源s1~s4が射出する光の配光パターンとスペクトル分布との例を図5に示す。図5に示す配光パターンは、照明光学系l1又はl2から照射される照明光の主軸に対して垂直な面内において互いに直交する方向をそれぞれX、Yと設定して図示している。
 前述と同様、光源s1は、可視広帯域で連続的な白色スペクトルを有する光を発する光源であり、光源s2は、赤色波長帯にスペクトルのピークを有する光を発する光源であり、光源s3は、青色波長帯にスペクトルのピークを有する光を発する光源である。さらに、光源s4は、特殊光を発する光源である。ここで、特殊光は、例えば、生化学分析や医療診断等の分野で蛍光分析に用いられたり、特定の狭いスペクトル帯域の画像を取得して医学的な診断情報として利用されたりする。
 また、前述したように、照明光学系l1は、広い角度範囲に照明光を配光する特性を有し、照明光学系l2は、狭い角度範囲に照明光を配光する特性を有している。
 本例では、複数フレームの撮像を行って以下の4種類の画像特性を有する画像データを取得する場合を説明する。 
 明るさに対するダイナミックレンジの大きな画像データ 
 色温度の低い(赤みを強調した)画像データ 
 色温度の高い(青みを強調した)画像データ 
 特殊な狭帯域波長を狭いエリアに照射したときの画像データ
 これらの4種類の画像特性を有する画像データを取得するように画像特性設定部1062が設定されたとき、プログラマブルユニット特性設定部1063は、光源特性情報データベースを参照して、前述と同様、照明ユニット104の中で発光させる光源及び光源から出射させる光の強度の比率を設定し、この設定に応じた照明特性設定信号を生成する。
 例えば、光源s1~s4が図5で示したような配光パターン及びスペクトル分布を有している場合、プログラマブルユニット特性設定部1063は、図6に示すように、t1のタイミングでは、強度を小さく(例えば1/2倍に)して光源s1を発光させるように指示する照明特性設定信号を、光源モジュール制御部1042に対して入力する。また、プログラマブルユニット特性設定部1063は、図6に示すように、t2のタイミングでは、強度を大きく(例えば2倍に)して光源s1を発光させるように指示する照明特性設定信号を、光源モジュール制御部1042に対して入力する。また、プログラマブルユニット特性設定部1063は、図6に示すように、t3のタイミングでは、強度を1倍として光源s1と光源s2とを同時に発光させるように指示する照明特性設定信号を、光源モジュール制御部1042に対して入力する。また、プログラマブルユニット特性設定部1063は、図6に示すように、t4のタイミングでは、強度を1倍として光源s1と光源s3とを同時に発光させるように指示する照明特性設定信号を、光源モジュール制御部1042に対して入力する。さらに、プログラマブルユニット特性設定部1063は、図6に示すように、t5のタイミングでは、強度を1倍として光源s4を発光させるように指示する照明特性設定信号を、光源モジュール制御部1042に対して入力する。
 また、プログラマブルユニット特性設定部1063は、t1のタイミングで取得された画像データ_1とt2のタイミングで取得された画像データ_2とを合成する旨を指示する画像特性設定信号を、画像合成部1082に対して入力する。
 撮像ユニット102は、制御ユニット112からの同期信号に従って、照明ユニット104の照明パターンの切り替えタイミングt1、t2、t3、t4、t5に同期するように5フレーム分の撮像を行い、5種類の画像データ_1、画像データ_2、画像データ_3、画像データ_4、画像データ_5を取得する。
 撮像ユニット102で得られた5フレーム分の画像データは、フレームメモリ1081に一時記憶された後、画像合成部1082に入力される。ここで、画像合成部1082には、画像データ_1と画像データ_2とを合成するように画像特性設定信号によって指示が与えられている。したがって、画像合成部1082は、フレームメモリ1081から入力された画像データのうちの画像データ_1と画像データ_2とを合成してから表示特性調整部1083に出力する。一方、画像合成部1082は、フレームメモリ1081から入力された画像データ_3、画像データ_4、画像データ_5についてはそのまま表示特性調整部1083に出力する。
 ここで、ダイナミックレンジを拡大する際の画像合成部1082における合成処理においては、画像データ_1の中で明るさが所定の値となっている部分と画像データ_2の中で明るさが所定の値となっている部分とを合成する。このような合成により、明るさについてのダイナミックレンジを広くすることができる。
 表示特性調整部1083は、画像合成部1082から入力された画像データに対してガンマ補正等の画像処理を行い、処理後の画像データを表示ユニット110に入力する。表示ユニット110は、入力された画像データを表示画面に表示させる。このとき、表示ユニット110は、必要に応じて画像特性の情報等も表示させる。このようにして被写体200の撮像から画像表示までの一連の処理が終了する。なお、表示の際には、4枚の画像を同時に表示させるようにしても良いし、個別に表示させるようにしても良い。
 このような一連の処理では、画像データ_1と画像データ_2とを合成することにより得られるダイナミックレンジを拡大した画像、画像データ_3に対応した赤みを強調した(色温度の低い)画像、画像データ_4に対応した青みを強調した(色温度の高い)画像、画像データ_5に対応した、狭い照射エリアに特殊光を照射したときの反射、散乱、回折、さらには蛍光を含む画像をそれぞれ表示ユニット110に表示させることが可能である。
 なお、画像合成部1082に関する上述の説明では、取得した画像データを加算合成する場合を例として説明したが、多様な合成演算が適用できる。例えば、画像データ_2(白色画像)から画像データ_5(特殊光画像)を一定比率掛けて減算処理した画像データを合成すれば、特殊なスペクトル帯域だけを除いた画像データを抽出することができる。
 以上説明したように、本実施形態においては、画像合成部1082を設けることにより、第1の実施形態よりも多様な画像特性を有する画像データを取得することが可能である。また、本実施形態では、取得したい画像特性の時間的な変化に応じて照明特性設定信号及び画像特性設定信号を生成することにより、一連の撮像動作で複数の画像特性の画像データを取得することができる。
 ここで、本実施形態における照明パターンを切り替えて所望の画像特性を有する画像データを取得する方法は、設定される画像特性の種類により、前述した手法以外を含む多様な手法をとることができる。以下は、その典型的な場合について、具体的な手法の例を示す。
 (1)所望の画像特性としてダイナミックレンジを拡大した画像データを得る場合 
 ダイナミックレンジを拡大した画像データを得る場合は、画像特性設定ユニット106の画像特性設定部1062に、明るさのダイナミックレンジを設定する。ダイナミックレンジを拡大するための具体的な手法としては、光源から照明光の強度(光量)を変えて被写体200を複数回照明し、それぞれの照明光が照射された被写体200を撮像ユニット102によって撮像する。撮像ユニット102で得られた明るさの異なる複数の画像データを、画像処理ユニット108の画像合成部1082において合成することにより、所望のダイナミックレンジを有する合成画像を取得できる。
 (2)所望の画像特性として特定の波長帯域を強調した又は抑制した画像データを得る場合 
 特定の波長帯域を強調した又は抑制した画像データを得るには、画像特性設定ユニット106の画像特性設定部1062に、強調又は抑制する波長帯域を設定する。特定の波長帯域を強調した又は抽出した画像データを得る(或いは、色温度や色調を調整した画像データを得る)ための具体的な手法は、いくつかの手法が考えられる。 
 第1の手法は、前述した手法であり、スペクトルの異なる複数の光源からの光を合成して照明光を被写体200に照射する際に、特定の波長帯域を強めた光を被写体200に照射する手法である。 
 第2の手法は、ブロードなスペクトル分布を有する光源(例えば光源s1)からの照明光と、特定波長帯域にスペクトルのピークを有する光源(例えば光源s2又はs3)からの照明光とを時間的に切り替えて被写体200に照射し、それぞれの照明光が照射された被写体200を撮像ユニット102によって撮像する。そして、撮像ユニット102で得られた複数の画像データを加算合成することにより、特定の波長帯域を強調した画像が得られる。逆に、複数の画像データを減算合成すれば、特定の波長帯域を抑制した画像が得られる。 
 なお、第1の手法と第2の手法ともに複数の光源を用いるものとして説明しているが、例えば光変調素子によって光源からの照明光を変調するようにしても良い。
 (3)所望の画像特性として特定の被写体エリアの明るさを強調した画像データを得る場合 
 特定の被写体エリアの明るさを強調した画像データを得るには、画像特性設定ユニット106の画像特性設定部1062に、明るさを強調する被写体エリアの範囲を設定する。さらに、配光パターンの異なる複数の光源を用意するか又は照明光学系の照明範囲を可変にしておき、所望のエリアに照明光が照射されるように光源又は照明光学系を選択する。また、配光パターンの異なる複数の光源からの光を合成することによっても特定エリアを明るくした画像データを取得できる。このような特定の被写体エリアの明るさを強調する設定は、例えば蛍光分析のように特定エリアに特定波長の光を集中して当てる必要がある時、又は照明ユニット104から遠い被写体の明るさ不足を補う場合、近すぎる被写体の明るさ過剰(白トビ)を抑制する場合等に有効である。
 [第3の実施形態]
 図7は、本発明の第3の実施形態に係る撮像装置100の詳細な構成について示す図である。以下、図7に対しては、図4と異なる部分の構成を中心に説明し、共通する部分の構成は説明を省略する。
 図7に示す画像特性設定ユニット106は、光源特性情報データベース1061と、画像特性設定部1062と、プログラマブルユニット特性設定部1063とに加えて、画像特性抽出部1064と、画像特性比較部1065と、照明特性補正部1066とを有している。
 画像特性抽出部1064は、画像合成部1082で処理された画像データから、画像特性設定部1062において設定された画像特性を抽出する。例えば、画像特性として特定のスペクトル帯域を強調するように設定された場合、画像特性抽出部1064は、画像特性としてスペクトル分布又は色温度を抽出する。なお、第3の実施形態においては、画像合成部1082は、必ずしも設けられていなくとも良い。画像合成部1082が設けられていない場合、画像特性抽出部1064は、フレームメモリ1081に記憶されている画像データから画像特性を抽出する。
 画像特性比較部1065は、画像特性抽出部1064で抽出された画像特性と画像特性設定部1062で設定された画像特性とを比較する。より詳しくは、画像特性抽出部1064で抽出された画像特性と画像特性設定部1062で設定された画像特性との差を演算する。
 照明特性補正部1066は、画像特性比較部1065の比較結果に従って、画像特性抽出部1064で抽出された画像特性と画像特性設定部1062で設定された画像特性との差がなくなるように、照明特性補正信号を光源モジュール制御部1042に入力する。
 以下、図7で示した撮像装置100の動作について説明する。画像特性設定部1062の設定に対し、プログラマブルユニット特性設定部1063は、光源モジュール制御部1042と画像合成部1082とを設定する。
 光源モジュール制御部1042は、プログラマブルユニット特性設定部1063からの設定を受けて光源モジュール1041を制御して、被写体200を照明光によって照明する。
 被写体200の照明と同期して撮像ユニット102は、被写体200を撮像する。撮像ユニット102で取得された画像データは、フレームメモリ1081に一時記憶された後、画像合成部1082によって読み出される。画像合成部1082は、プログラマブルユニット特性設定部1063からの設定を受けて画像データを合成する。
 画像特性抽出部1064は、画像合成部1082から出力された画像データから、画像特性設定部1062で設定された画像特性を抽出する。画像特性比較部1065は、画像特性抽出部1064で抽出された画像特性と画像特性設定部1062で設定された画像特性とを比較する。照明特性補正部1066は、画像特性比較部1065の比較結果に従って、画像特性抽出部1064で抽出された画像特性と画像特性設定部1062で設定された画像特性との差が小さくなるように、照明特性補正信号を光源モジュール制御部1042に入力する。これを受けて、光源モジュール制御部1042は、照明光の強度等を変更する。
 例えば、第1の実施形態と同様に、図8Aに示すようなスペクトル分布を有する光源s1、s2、s3を用いて特定の波長帯域を強調する場合を想定する。第3の実施形態においては、画像特性設定部1062で設定された画像特性と画像特性抽出部1064で抽出される画像特性との差異がなくなるように、照明特性補正部1066から光源モジュール制御部1042に光源補正信号が入力される。この光源補正信号に従って光源モジュール制御部1042は、照明光の特性を変更する。例えば、ブロードなスペクトル分布を有する光源s1に対し、光源s3の強度を強くすると、図8Bのスペクトル分布s1’に示すようにして色温度を高くする(青色を強調する)ことができ、光源s2の強度を強くすると、図8Bのスペクトル分布s2’’に示すようにして色温度を低く(赤色を強調)することができる。このような照明特性の補正を繰り返すことによって所望の画像特性の画像データを取得することが可能である。
 以上説明したように、本実施形態では、照明特性補正部1066を設けることにより、所望の画像特性の画像データが得られるように照明ユニット104をフィードバック制御することが可能である。
 ここで、本実施形態では色温度をフィードバック制御するケースを説明したが、例えば、照明エリアの大きさを制御する場合は、配光パターンの異なる複数の照明光学系を用いて照明エリアの大きさをフィードバック制御すれば良い。
 [第4の実施形態]
 本発明の第4の実施形態を説明する。第4の実施形態は、前述した実施形態の撮像装置100を顕微鏡装置に応用した場合の例である。撮像装置の全体構成を図9に示す。また、光源のスペクトル分布の例を図10Aに、光源の発光タイミングの例を図10Bに示す。顕微鏡装置は、微小な被写体エリアに高い密度で照明を当てるため、外光抑制部材300を用いなくても、「被写体に対して照射される外光が、被写体に対して照射する照明手段からの照明光に対して実効的に無視できる環境」が実現される代表例のひとつである。
 図9に示す撮像装置において、挿抜ミラー118を照明光の光路から抜いた状態では、照明ユニット104から出射された照明光は、ライトガイド114を介してコリメート光学系116に入射し、このコリメート光学系116にて平行光に変換され、立上ミラー120、照明光学系122を経て透過照明光として観察対象である被写体200に照射される。
 一方、挿抜ミラー118を照明光の光路に入れた状態では、照明ユニット104から出射された照明光は挿抜ミラー118で反射され、折返ミラー126、照明光学系128を経て反射照明光として観察対象である被写体200に照射される。
 被写体200に照射された照明光は、その反射光、透過光、散乱光、回折光、蛍光等が対物光学系130に入り、鏡筒132を介して接眼光学系又は撮像光学系134から出射されて目Eで観察されるか、撮像ユニット102によって撮像される。
 第4の実施形態では、例えば、図10Aのようにスペクトル分布の異なる光源を7種類用意し、これらを図10Bのようなタイミングと強度で発光させることにより、これまでの実施形態で説明してきた手法により、白色画像や特定波長帯域の顕微鏡装置画像を取得したり、又は取得した顕微鏡装置画像を合成して多様な所望の顕微鏡装置画像を取得したりすることが可能となる。
 ここで、図9に示す撮像装置は、第2の実施形態で説明した構成を適用した例であるが、第1の実施形態又は第3の実施形態で示した構成を適用しても良いことは言うまでもない。
 [第5の実施形態]
 本発明の第5の実施形態を説明する。第5の実施形態は、前述した実施形態の撮像装置100を内視鏡装置に応用した場合の例である。内視鏡装置の基本的な全体構成を図11に示す。内視鏡装置は、生体内や配管などの外光が殆ど無視できる環境下で、専用の照明を当てて被写体を観察するため、外光抑制部材300を用いなくても、「被写体に対して照射される外光が、被写体に対して照射する照明手段からの照明光に対して実効的に無視できる環境」が実現されるもうひとつの典型的な例である。
 図11に示す内視鏡装置は、画像処理機能や光源機能を搭載した本体制御装置404に、表示ユニット110を備えた表示装置406と、挿入ユニット402とが接続されて構成されている。挿入ユニット402は、先端側可撓部4021と、スコープ操作部4022と、スコープ後段側可撓部4023とに分けられている。本体制御装置400内には、前述した実施形態で説明した画像処理ユニット108と、画像特性設定ユニット106よ、制御ユニット112と、照明ユニットの一部である光源sとを備えている。光源sの光出射端は、光ファイバ等で構成される導光路fに接続され、光源sから出射された光が、挿入ユニット402の先端側可撓部4021に向かって導光され、必要に応じて照明光学系lを経て被写体に照射される。
 光源s、導光路f、及び照明光学系lの構成は、例えば図2の構成を適用でき、この場合、複数の光源s1、s2、s3からの光は、コンバイナにより共通の導光路において合波され、さらに、共通の照明光学系を介して被写体に照射される。一方、光源s4は、別の導光路で導光され、別の照明光学系を介して被写体に照射される。
 照明された被写体からの反射光、散乱光、回折光、又は蛍光等は、先端側可撓部4021に設けられた撮像ユニット102において撮像される。撮像ユニット102で得られた画像データは、挿入ユニット402内に配設された信号伝送手段(図示しない)によって画像処理ユニット108に伝送され、本体制御装置400内の画像処理ユニット108に構成されたフレームメモリ1081に格納される。そして、前述した実施形態と同様に、画像合成部1082、表示特性調整部1083において処理がなされ、表示ユニット110において画像が表示される。
 内視鏡は挿入ユニット402が可撓性を有する管状をしており、本体制御装置404に大半の電子回路が配置された特異な構成である。このような構成に対して搭載可能な可変光源モジュールの具体的な構成例を以下に説明する。
 図12に示す可変光源モジュールは、(a)光源と凸レンズを組み合わせたものと、(b)光源と、光ファイバと、蛍光部材と、凹レンズとを組み合わせたものと、(c)光源と、光ファイバと、光拡散部材と、凹レンズとを組み合わせたものとを有している。
 図12の(a)に示す光源モジュールでは、光源501と、蛍光体502と、凸レンズ503とが先端側可撓部4021に配置されている。光源501としては、例えばLEDチップ又はレーザチップを用いることができる。光源501に形成された駆動用の電極504a、504bは、電気配線505に接続され、この電気配線505は光源モジュール制御部1042に接続されている。
 光源モジュール制御部1042で発生した駆動電流は、電気配線505により駆動電極504a、504bを介して、光源501に供給される。光源501から発せられた光は蛍光体502により所望の波長に変換され、凸レンズ503通して被写体に照射される。
 図12の(b)に示す光源モジュールでは、蛍光ユニット511と、凹レンズ512とが先端側可撓部4021に配置されている。蛍光ユニット511は、透明な柱状部材からなるレーザ光拡がり制御部材と、蛍光部材とを有している。また、蛍光ユニット511の拡散部材には、光ファイバ513の光出射部が接続され、光ファイバ513の光入射部には、結合レンズ514と、光源515とが配置され、光源515は、光源モジュール制御部1042に接続されている。光源515としては例えばレーザチップが用いられる。
 光源モジュール制御部1042の制御によって光源515より出射された励起光は、結合レンズ504を介して光ファイバ513に入射する。そして、この光は、光ファイバ513で導光されて蛍光ユニット511に照射される。蛍光ユニット511においては、励起光の照射範囲がレーザ光拡がり制御部材で拡げられた後、蛍光部材に照射され、蛍光部材で所望の波長に変換されて出射される。蛍光ユニット511から出射された光は、凹レンズ512を通して被写体に照射される。例えば、レーザチップからの励起光の波長を紫色相当の波長、蛍光部材の発光色を赤色又は青色とすると、被写体に照射される光は、図10Aのスペクトルs2、s4で示す赤色光又は青色光となる。
 図12の(c)で示す光源モジュールでは、拡散ユニット521と、凹レンズ522とが先端側可撓部4021に配置されている。拡散ユニット521は、透明な柱状部材からなるレーザ光拡がり制御部材と、拡散部材とを有している。また、拡散ユニット521には、光ファイバ523の光出射部が接続され、光ファイバ523の光入射部には、結合レンズ524と、光源525とが配置され、光源525は、光源モジュール制御部1024に接続されている。光源525としては例えばレーザチップが用いられる。
 光源モジュール制御部1042の制御によって光源525より出射された励起光は、結合レンズ524を介して光ファイバ523に入射する。そして、この光は、光ファイバ523で導光されて拡散ユニット521に照射される。拡散ユニット521においては、励起光の照射範囲がレーザ光拡がり制御部材で拡げられた後、拡散部材に照射され、拡散部材で拡散光に変換され、凹レンズ522を通して被写体に照射される。レーザ光はスペクトル幅が非常に狭いので、被写体に照射される光は、例えば図10Aのスペクトルs5、s6、又はs7で示すものとなる。
 また、図13に示す光源モジュールは、可変焦点レンズを組み合わせて照射エリアを可変可能としたものである。具体的には、図12の(b)で示した構成において、凹レンズ522を可変焦点レンズ522aに置き換えた構成である。
 図13に示す光源モジュールでは、可変焦点レンズ522aの焦点距離を変更することにより、1つの光源で照射エリアを可変とすることが可能である。
 第5の実施形態に示す構成においても、画像特性設定ユニット106により、所望の画像特性を有する画像データが撮像ユニット102において得られるよう、照明ユニット104及び画像処理ユニット108の設定が行われる。これにより、撮像ユニット102で取得される画像データに対して、複雑な画像処理を行う必要がない。

Claims (14)

  1.  被写体を撮像して該被写体に係る画像を取得するように構成された撮像ユニットと、
     光学特性の異なる複数種類の照明光を前記被写体に対して照射するように構成された単一又は複数の光源を有する照明ユニットと、
     前記撮像ユニットにおいて取得される前記画像の画像特性が設定され、該設定された画像特性を有する前記画像が実効的に前記撮像ユニットで取得されるように、前記光源毎の、光量制御特性の情報と、配光パターン特性の情報と、スペクトル分布特性の情報と、偏光特性の情報との少なくとも1つを含む光源特性情報を参照して、少なくとも1種類の前記照明光の光量、配光パターン、スペクトル分布、又は偏光特性を前記照明ユニットに対して設定するように構成された画像特性設定ユニットと、
     を具備する撮像装置。
  2.  前記画像特性設定ユニットは、前記撮像ユニットの1フレームの撮像時間よりも短い時間で前記複数種類の光量、配光パターン、スペクトル分布、偏光特性のうち少なくとも1つを切り替えるように前記照明ユニットに対して設定する請求項1に記載の撮像装置。
  3.  前記画像特性設定ユニットは、前記撮像ユニットの1フレームの撮像時間毎に前記照明光の光量、配光パターン、スペクトル分布、偏光特性のうち少なくとも1つを前記照明ユニットに対して設定し、
     前記撮像ユニットの1フレーム毎に得られた複数の前記画像を合成する画像処理ユニットをさらに具備する請求項1又は2に記載の撮像装置。
  4.  前記画像特性設定ユニットは、
     前記撮像ユニットから得られた画像から画像特性を抽出する画像特性抽出部と、
     前記画像から抽出した画像特性と前記設定した画像特性とを比較する画像特性比較部と、
     前記画像特性比較部で比較された画像特性の差異がなくなるように、前記照明ユニットの照明光の光量、配光パターン、スペクトル分布、偏光特性のうち少なくとも1つを補正する照明特性補正部と、
     をさらに有する請求項1に記載の撮像装置。
  5.  前記設定される画像特性は、時間的に変化するものであり、
     前記画像特性設定ユニットは、前記設定された画像特性を有する前記画像が実効的に前記撮像ユニットで取得されるように、前記光源特性情報を参照して、少なくとも1種類の前記照明光の光量、配光パターン、スペクトル分布、又は偏光特性を時間的に変化させる請求項1に記載の撮像装置。
  6.  前記設定された画像特性は、前記撮像ユニットで取得される画像の明るさに対するダイナミックレンジを含み、
     前記画像特性設定ユニットは、前記ダイナミックレンジの設定がされた場合に、第1の時間タイミングに第1の光量で、第2の時間タイミングに第2の光量で前記照明光を発光させるように前記照明ユニットを設定し、
     前記撮像ユニットは、前記第1の時間タイミングに同期して第1の画像を取得するとともに、前記第2の時間タイミングに同期して第2の画像を取得し、
     前記第1の画像と前記第2の画像とを合成して前記設定されたダイナミックレンジを有する合成画像を取得する画像処理ユニットをさらに具備する請求項1に記載の撮像装置。
  7.  前記設定された画像特性は、前記撮像ユニットで取得される画像において強調する又は抑制する波長帯域を含み、
     前記画像特性設定ユニットは、前記光源特性情報を参照して、スペクトル分布の異なる複数種類の前記照明光を合成して前記強調する又は抑制する波長帯域の照明光とするように前記照明ユニットを設定する請求項1に記載の撮像装置。
  8.  前記設定された画像特性は、前記撮像ユニットで取得される画像において強調する又は抑制する波長帯域を含み、
     前記画像特性設定ユニットは、前記光源特性情報を参照して、前記照明ユニットから照射される前記照明光のスペクトルが時間的に切り替わるように前記照明ユニットを設定し、
     前記撮像ユニットは、前記照明光のスペクトルの切り替えのタイミングに同期して複数の画像を取得し、
     前記取得された複数の画像を合成して前記設定された波長帯域を強調又は抑制した画像を生成する画像処理ユニットをさらに具備する請求項1に記載の撮像装置。
  9.  前記設定される画像特性は、前記撮像ユニットで取得される画像において明るさを強調すべき被写体エリアの範囲を含み、
     前記画像特性設定ユニットは、前記光源特性情報を参照して、前記設定された被写体エリアに前記照明光が照射されるように前記照明ユニットを設定する請求項1に記載の撮像装置。
  10.  前記画像特性設定ユニットに設定された画像特性を示す情報、前記光源特性を示す情報、前記画像特性設定ユニットによる前記照明ユニットの設定を示す情報の少なくとも1つを前記撮像ユニットで取得された画像とともに表示する表示ユニットをさらに具備する請求項1に記載の撮像装置。
  11.  前記照明ユニットが有する前記光源は、光源と照明光学系との組み合わせ、光源と導光路と蛍光部材と照明光学系との組み合わせ、光源と導光路と拡散部材と照明光学系との組み合わせ、光源と可変焦点距離の照明光学系と、光源と偏光制御光学系との組み合わせの少なくとも何れかを含む請求項1に記載の撮像装置。
  12.  前記撮像ユニットによる画像の取得と前記照明ユニットによる前記被写体の照明とは、前記被写体に対して照射される外光が、被写体に対して前記照明ユニットから照射される照明光に対して実効的に無視できる環境で行われ、
     前記被写体に対して照射される外光が、前記被写体に対して前記照明ユニットから照射される前記照明光に対して実効的に無視できる環境とは、前記撮像ユニットへの外光の入射を抑制される環境、或いは撮像ユニットで取得される画像から外光の成分をキャンセル可能な又は照明光の成分を抽出可能な環境である請求項1に記載の撮像装置。
  13.  請求項1に記載の撮像装置を備えた顕微鏡装置。
  14.  請求項1に記載の撮像装置を備えた内視鏡装置。
PCT/JP2013/064576 2012-06-12 2013-05-27 撮像装置、顕微鏡装置及び内視鏡装置 WO2013187215A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380026131.0A CN104379050B (zh) 2012-06-12 2013-05-27 摄像装置、显微镜装置及内窥镜装置
EP13804945.7A EP2859837A4 (en) 2012-06-12 2013-05-27 IMAGING DEVICE, MICROSCOPE DEVICE, AND ENDOSCOPE DEVICE
US14/565,750 US20150092035A1 (en) 2012-06-12 2014-12-10 Imaging apparatus, microscope apparatus and endoscope apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012133175A JP5996287B2 (ja) 2012-06-12 2012-06-12 撮像装置、顕微鏡装置、内視鏡装置
JP2012-133175 2012-06-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/565,750 Continuation US20150092035A1 (en) 2012-06-12 2014-12-10 Imaging apparatus, microscope apparatus and endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2013187215A1 true WO2013187215A1 (ja) 2013-12-19

Family

ID=49758045

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/064576 WO2013187215A1 (ja) 2012-06-12 2013-05-27 撮像装置、顕微鏡装置及び内視鏡装置

Country Status (5)

Country Link
US (1) US20150092035A1 (ja)
EP (1) EP2859837A4 (ja)
JP (1) JP5996287B2 (ja)
CN (1) CN104379050B (ja)
WO (1) WO2013187215A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105981377A (zh) * 2014-02-19 2016-09-28 奥林巴斯株式会社 摄像装置、内窥镜装置以及显微镜装置
US10939051B2 (en) 2017-03-03 2021-03-02 Sony Corporation Image processing apparatus and image processing method, and endoscopic system

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498695B2 (en) 2006-12-22 2013-07-30 Novadaq Technologies Inc. Imaging system with a single color image sensor for simultaneous fluorescence and color video endoscopy
RU2510235C2 (ru) 2008-03-18 2014-03-27 Новадак Текнолоджиз Инк. Система визуализации для получения комбинированного изображения из полноцветного изображения в отраженном свете и изображение в ближней инфракрасной области
JP6105903B2 (ja) * 2012-11-09 2017-03-29 キヤノン株式会社 画像処理装置、画像処理方法、放射線撮影システム及びプログラム
JP5897224B2 (ja) * 2014-01-15 2016-03-30 オリンパス株式会社 内視鏡装置
EP3940371B1 (en) * 2014-06-05 2023-08-30 Universität Heidelberg Method and imaging apparatus for acquisition of fluorescence and reflectance images
JP6039606B2 (ja) 2014-06-24 2016-12-07 富士フイルム株式会社 内視鏡システム、光源装置、内視鏡システムの作動方法、及び光源装置の作動方法
DE102014112002A1 (de) * 2014-08-21 2016-02-25 Carl Zeiss Microscopy Gmbh Verfahren zur Abbildung einer Probe mittels eines Mikroskops und Mikroskop
CN107079107B (zh) * 2014-10-06 2020-08-14 徕卡显微系统(瑞士)股份公司 用于获得物体的高动态范围合成图像的显微镜和方法
CN106999025B (zh) * 2014-11-27 2018-12-18 奥林巴斯株式会社 内窥镜装置
DE102014118382B4 (de) * 2014-12-11 2020-07-02 Carl Zeiss Meditec Ag Optisches Beobachtungsgerät und Verfahren zum Betreiben eines optischen Beobachtungsgerätes.
EP3206560B1 (en) 2014-12-25 2024-06-12 Sony Group Corporation Medical imaging system and illumination device
US9977232B2 (en) 2015-01-29 2018-05-22 Fujifilm Corporation Light source device for endoscope, endoscope system, and method for operating light source device for endoscope
JP2017012395A (ja) 2015-06-30 2017-01-19 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
CN113648067A (zh) * 2015-11-13 2021-11-16 史赛克欧洲运营有限公司 用于目标的照明和成像的系统和方法
CN105455767A (zh) * 2015-12-22 2016-04-06 佛山市南海区欧谱曼迪科技有限责任公司 一种显微内窥镜系统
US10980420B2 (en) 2016-01-26 2021-04-20 Stryker European Operations Limited Configurable platform
USD916294S1 (en) 2016-04-28 2021-04-13 Stryker European Operations Limited Illumination and imaging device
KR101783142B1 (ko) 2016-06-02 2017-09-28 연세대학교 산학협력단 색과 편광 패턴을 이용한 영상 시스템
EP3469420A4 (en) 2016-06-14 2020-02-12 Novadaq Technologies ULC ADAPTIVE IMAGING METHODS AND SYSTEMS FOR IMPROVING LOW LIGHT SIGNALS IN MEDICAL VISUALIZATION
DE102016215177B4 (de) * 2016-08-15 2024-07-04 Carl Zeiss Microscopy Gmbh Verfahren und Anordnung zur Erfassung von Bilddaten
JP6922170B2 (ja) * 2016-08-25 2021-08-18 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
WO2018117451A1 (ko) * 2016-12-20 2018-06-28 한국전기연구원 결합 광원을 구비하는 광학 영상 장치
JP6931705B2 (ja) 2017-02-10 2021-09-08 ノバダック テクノロジーズ ユーエルシー オープンフィールドハンドヘルド蛍光イメージングシステムおよび方法
WO2018225377A1 (ja) 2017-06-07 2018-12-13 オリンパス株式会社 内視鏡撮像システム
JP6909856B2 (ja) * 2017-08-23 2021-07-28 富士フイルム株式会社 内視鏡システム
JP7023643B2 (ja) * 2017-09-07 2022-02-22 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、および医療用観察システム
JP7176855B2 (ja) * 2018-04-23 2022-11-22 株式会社エビデント 内視鏡装置、内視鏡装置の作動方法、プログラム、および記録媒体
WO2019225074A1 (ja) * 2018-05-21 2019-11-28 オリンパス株式会社 内視鏡システム
WO2020012564A1 (ja) * 2018-07-10 2020-01-16 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP6687071B2 (ja) * 2018-08-27 2020-04-22 ソニー株式会社 照明装置、照明方法及び観察装置
JP6687072B2 (ja) * 2018-08-28 2020-04-22 ソニー株式会社 照明装置、照明方法及び観察装置
CN110251078A (zh) * 2019-01-30 2019-09-20 北京大学第三医院(北京大学第三临床医学院) 显微镜的成像方法、成像系统和显微镜

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005013611A (ja) 2003-06-27 2005-01-20 Olympus Corp 画像処理装置
JP2009254794A (ja) * 2008-03-27 2009-11-05 Fujifilm Corp 撮像装置、撮像方法、およびプログラム
JP2012010981A (ja) * 2010-06-30 2012-01-19 Fujifilm Corp 内視鏡装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1709476A4 (en) * 2003-09-26 2010-08-04 Tidal Photonics Inc DEVICES AND METHODS RELATING TO IMAGING ENDOSCOPY SYSTEMS WITH ADVANCED DYNAMIC SCOPE
JP2009259703A (ja) * 2008-04-18 2009-11-05 Olympus Corp 照明装置、画像取得装置
JP5216429B2 (ja) * 2008-06-13 2013-06-19 富士フイルム株式会社 光源装置および内視鏡装置
JP5544219B2 (ja) * 2009-09-24 2014-07-09 富士フイルム株式会社 内視鏡システム
JP5371920B2 (ja) * 2010-09-29 2013-12-18 富士フイルム株式会社 内視鏡装置
US8784301B2 (en) * 2011-08-12 2014-07-22 Intuitive Surgical Operations, Inc. Image capture unit and method with an extended depth of field

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005013611A (ja) 2003-06-27 2005-01-20 Olympus Corp 画像処理装置
JP2009254794A (ja) * 2008-03-27 2009-11-05 Fujifilm Corp 撮像装置、撮像方法、およびプログラム
JP2012010981A (ja) * 2010-06-30 2012-01-19 Fujifilm Corp 内視鏡装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2859837A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105981377A (zh) * 2014-02-19 2016-09-28 奥林巴斯株式会社 摄像装置、内窥镜装置以及显微镜装置
CN105981377B (zh) * 2014-02-19 2018-04-17 奥林巴斯株式会社 摄像装置、内窥镜装置以及显微镜装置
US10419693B2 (en) 2014-02-19 2019-09-17 Olympus Corporation Imaging apparatus, endoscope apparatus, and microscope apparatus
US10939051B2 (en) 2017-03-03 2021-03-02 Sony Corporation Image processing apparatus and image processing method, and endoscopic system

Also Published As

Publication number Publication date
CN104379050B (zh) 2017-08-08
EP2859837A1 (en) 2015-04-15
JP5996287B2 (ja) 2016-09-21
JP2013255655A (ja) 2013-12-26
US20150092035A1 (en) 2015-04-02
CN104379050A (zh) 2015-02-25
EP2859837A4 (en) 2016-03-16

Similar Documents

Publication Publication Date Title
JP5996287B2 (ja) 撮像装置、顕微鏡装置、内視鏡装置
JP6062405B2 (ja) 赤外蛍光を観察するための手術用顕微鏡、顕微鏡検査方法、および手術用顕微鏡の使用
JP5259882B2 (ja) 撮像装置
US9456738B2 (en) Endoscopic diagnosis system
KR101184841B1 (ko) 내시경 장치 및 그 신호 처리 방법
US8007433B2 (en) Electronic endoscope
JP6304953B2 (ja) 観察装置
US9414739B2 (en) Imaging apparatus for controlling fluorescence imaging in divided imaging surface
CN103491847A (zh) 内窥镜装置和荧光观察的光量控制方法
EP3202306A1 (en) Observation system
JPWO2019087557A1 (ja) 内視鏡システム
JP6927210B2 (ja) 観察装置
US20040152987A1 (en) Inspection system and inspection method
US9055862B2 (en) Image processing device and image processing method
JPWO2009072177A1 (ja) 分光観察装置、内視鏡システムおよびカプセル内視鏡システム
US11774772B2 (en) Medical image processing device, medical observation system, and image processing method
WO2016203983A1 (ja) 内視鏡装置
CN113557462B (zh) 医疗控制装置和医疗观察装置
JP5331863B2 (ja) 内視鏡装置
WO2022195940A1 (ja) 医療用観察システム
JP2005168828A (ja) 自家蛍光電子内視鏡装置
JP2019000148A (ja) 内視鏡システム
JP2008194480A (ja) カプセル内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13804945

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE