WO2015015839A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2015015839A1
WO2015015839A1 PCT/JP2014/059473 JP2014059473W WO2015015839A1 WO 2015015839 A1 WO2015015839 A1 WO 2015015839A1 JP 2014059473 W JP2014059473 W JP 2014059473W WO 2015015839 A1 WO2015015839 A1 WO 2015015839A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
fluorescence
image
light
image signal
Prior art date
Application number
PCT/JP2014/059473
Other languages
English (en)
French (fr)
Inventor
竹腰 聡
俊二 武井
山崎 健二
大野 渉
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to EP14833079.8A priority Critical patent/EP3028622A4/en
Priority to CN201480002352.9A priority patent/CN104619236B/zh
Priority to JP2014544276A priority patent/JP5669997B1/ja
Publication of WO2015015839A1 publication Critical patent/WO2015015839A1/ja
Priority to US14/641,603 priority patent/US9414739B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths

Definitions

  • the present invention relates to an imaging apparatus that irradiates a subject with excitation light or visible light, receives light reflected by the subject with a plurality of pixels, performs photoelectric conversion, and outputs image information.
  • an endoscope system is used when observing the inside of an organ of a subject.
  • an endoscope system inserts a flexible insertion portion having an elongated shape into a body cavity of a subject such as a patient, and irradiates a living tissue in the body cavity with white light through the insertion section.
  • the reflected light is received by an imaging unit provided at the tip of the insertion unit, and is a type of imaging device that captures an in-vivo image.
  • An image signal of a biological image photographed by the endoscope system is transmitted to an image processing apparatus outside the body via a transmission cable in the insertion portion, and image processing is performed in the image processing apparatus, whereby the endoscope system monitor Is displayed.
  • a user such as a doctor observes the inside of the body cavity of the subject through the in-vivo image displayed on the monitor.
  • the present invention has been made in view of the above, and an object of the present invention is to provide an imaging apparatus capable of appropriately observing a fluorescent image without overlooking the emitted fluorescence.
  • an imaging apparatus includes an excitation light emitting unit that emits excitation light for exciting a fluorescent substance introduced into a subject toward the subject.
  • a normal light emitting unit that emits normal light including a visible band different from the excitation light toward the subject, and an optical image of the subject illuminated with the excitation light or the normal light on the imaging surface.
  • An imaging unit that forms an image signal by forming an image
  • a luminance signal generation unit that generates a luminance signal indicating brightness based on the image signal generated by the imaging unit under illumination of the normal light
  • the luminance An amplification unit configured to set the amplification factor of the image signal generated by the imaging unit under illumination of the excitation light based on the amplification factor of the image signal corresponding to the luminance signal generated by the signal generation unit. It is characterized by that.
  • the imaging apparatus may further include a division region setting that divides the imaging surface and sets a plurality of division regions, and the luminance signal generation unit is set by the division region setting unit.
  • the luminance signal of each of the plurality of divided regions is generated, and the amplification unit is configured to generate an image signal corresponding to the divided region under illumination of the excitation light based on an amplification factor corresponding to each of the luminance signals.
  • An amplification factor is set.
  • the divided region setting unit divides the divided region to set a plurality of small divided regions, and the amplifying unit corresponds to each of the luminance signals. Based on the amplification factor, the amplification factor of the image signal corresponding to the small divided region under illumination of the excitation light is set.
  • the imaging apparatus further includes a fluorescence determination unit that determines the presence or absence of a fluorescence region that emits fluorescence in a fluorescence image corresponding to the image signal generated under illumination of the excitation light.
  • the divided region setting unit divides the divided region including the fluorescence region and sets a plurality of small divided regions
  • the amplification unit is configured to set an amplification factor of the image signal corresponding to the small divided region under illumination of the excitation light based on an amplification factor corresponding to each of the luminance signals.
  • the imaging apparatus further includes a fluorescence determination unit that determines the presence or absence of a fluorescence region that emits fluorescence in a fluorescence image corresponding to the image signal generated under illumination of the excitation light.
  • the divided region setting unit is configured to set the divided region including the fluorescent region to be small as time passes when the fluorescence determining unit determines that the fluorescent region is present in the fluorescent image. .
  • the amplification unit sets an amplification factor of the image signal based on a gain.
  • the amplification unit sets an amplification factor of the image signal based on an exposure time.
  • the fluorescence of each pixel is determined based on the amplification factor according to the luminance signal of the image signal generated by the imaging element under the illumination of the normal light generated by the luminance signal generating unit. Set the amplification factor. As a result, the fluorescent image can be appropriately observed without overlooking the emitted fluorescence.
  • FIG. 1 is a diagram illustrating a schematic configuration of an endoscope system that is an imaging apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a cross-sectional view for explaining the outline of the internal configuration of the distal end portion of the endoscope shown in FIG.
  • FIG. 3 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the first embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating an outline of processing executed by the endoscope system according to the first embodiment of the present invention.
  • FIG. 5 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the second embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a schematic configuration of an endoscope system that is an imaging apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a cross-sectional view for explaining the outline of the internal configuration of the distal end portion of the endoscope shown in FIG.
  • FIG. 6 is a flowchart illustrating an outline of processing executed by the endoscope system according to the second embodiment of the present invention.
  • FIG. 7 is a diagram schematically illustrating a divided area when the divided area setting unit illustrated in FIG. 5 divides the imaging surface.
  • FIG. 8 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the third embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating an outline of processing executed by the endoscope system according to the third embodiment of the present invention.
  • FIG. 10 is a diagram schematically illustrating a divided area when the divided area setting unit illustrated in FIG. 8 divides the imaging surface.
  • FIG. 11 is a time chart of processing executed by the endoscope system according to the fourth embodiment of the present invention.
  • FIG. 12 is a diagram schematically illustrating a divided region when the divided region setting unit according to the fourth embodiment of the present invention divides the imaging surface.
  • FIG. 13 is a diagram illustrating a distal end surface of the distal end portion of the endoscope system according to the fifth embodiment of the present invention.
  • FIG. 14 is a diagram showing a part of the cut surface taken along the line AA shown in FIG.
  • FIG. 15 is a view showing a part of the cut surface taken along the line BB shown in FIG.
  • FIG. 16 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the fifth embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a schematic configuration of an endoscope system that is an imaging apparatus according to a first embodiment of the present invention.
  • an endoscope system 1 includes an endoscope 2 that captures an in-vivo image of a subject by inserting a tip portion into the body cavity of the subject, and an in-vivo image captured by the endoscope 2.
  • a light source device that is a light source unit that generates illumination light or excitation light emitted from the distal end of the endoscope 2.
  • 4 and a display device 5 that displays an in-vivo image subjected to image processing by the control device 3.
  • the endoscope 2 includes an insertion portion 21 having an elongated shape having flexibility, an operation portion 22 that is connected to a proximal end side of the insertion portion 21 and receives input of various operation signals, and an insertion portion from the operation portion 22. And a universal cord 23 that includes various cables that extend in a direction different from the direction in which 21 extends and that are connected to the control device 3 and the light source device 4.
  • the insertion portion 21 is connected to a distal end portion 24 incorporating an image pickup device to be described later, a bendable bending portion 25 constituted by a plurality of bending pieces, and a proximal end side of the bending portion 25, and has a flexible length. And a flexible tube portion 26 having a scale shape.
  • FIG. 2 is a cross-sectional view for explaining the outline of the internal configuration of the tip 24.
  • the distal end portion 24 is configured by using a glass fiber or the like, and forms a light guide path of light generated by the light source device 4, and an illumination lens 242 provided at the distal end of the light guide 241.
  • an optical system 243 for condensing, and an image sensor 244 that is provided at an imaging position of the optical system 243, receives light collected by the optical system 243, photoelectrically converts it into an electrical signal, and performs predetermined signal processing.
  • a treatment instrument channel 245 that passes through the treatment instrument for the endoscope 2.
  • the optical system 243 includes at least a lens 243a and a lens 243b. Note that the types and number of lenses constituting the optical system 243 are not limited to those shown in FIG.
  • FIG. 3 is a block diagram showing a functional configuration of a main part of the endoscope system 1.
  • the configuration of the image sensor 244 will be described with reference to FIG.
  • the image sensor 244 includes a sensor unit 244a that photoelectrically converts light from the optical system 243 and outputs an electrical signal, and noise removal and A / D for the electrical signal output by the sensor unit 244a.
  • An analog front end 244b that performs conversion (hereinafter referred to as “AFE unit 244b”), a P / S conversion unit 244c that performs parallel / serial conversion on a digital signal output from the AFE unit 244b, drive timing of the sensor unit 244a, and an AFE unit
  • the timing generator 244d that generates pulses of various signal processing in the 244b and the P / S conversion unit 244c, and the imaging control unit 244e that controls the operation of the imaging device 244 are included.
  • the image sensor 244 is a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the sensor unit 244a is connected to the IC circuit group 244G via the substrate 244S.
  • the IC circuit group 244G includes a plurality of IC circuits having functions of the AFE unit 244b, the P / S conversion unit 244c, the timing generator 244d, and the imaging control unit 244e.
  • the sensor unit 244a includes a light receiving unit 244f in which a plurality of pixels each having a photodiode that accumulates a charge corresponding to the amount of light and an amplifier that amplifies the charge accumulated by the photodiode are arranged in a two-dimensional matrix, and a light receiving unit 244f.
  • a readout unit 244g that reads out, as image information, an electrical signal generated by a pixel arbitrarily set as a readout target among the plurality of pixels.
  • the light receiving unit 244f is provided with RGB color filters for each pixel, thereby enabling acquisition of a color image.
  • the AFE unit 244b includes a noise reduction unit 244h that reduces a noise component included in an electric signal (analog), and an AGC (Auto Gain Control) unit that adjusts an amplification factor (gain) of the electric signal and maintains a constant output level. 244i and an A / D conversion unit 244j that performs A / D conversion on the electrical signal output via the AGC unit 244i.
  • the noise reduction unit 244h performs noise reduction using, for example, a correlated double sampling method.
  • the imaging control unit 244e controls various operations of the distal end portion 24 in accordance with the setting data received from the control device 3.
  • the imaging control unit 244e is configured using a CPU (Central Processing Unit) or the like. Further, the imaging control unit 244e sets an area that the reading unit 244g reads from the light receiving unit 244f in accordance with the setting data received from the control device 3.
  • CPU Central Processing Unit
  • a collective cable 246 in which a plurality of signal lines for transmitting and receiving electrical signals to and from the control device 3 are bundled is connected to the electrode 244E provided on the substrate 244S.
  • the plurality of signal lines include a signal line for transmitting an image signal output from the image pickup device 244 to the control device 3, a signal line for transmitting a control signal output from the control device 3 to the image pickup device 244, and the like.
  • the operation unit 22 includes a bending knob 221 that bends the bending unit 25 in the vertical direction and the left-right direction, a treatment tool insertion unit 222 that inserts a treatment tool such as a biological forceps, a laser knife, and an inspection probe into the body cavity, and the control device 3.
  • a treatment tool such as a biological forceps, a laser knife, and an inspection probe into the body cavity
  • the control device 3 In addition to the light source device 4, it has a plurality of switches 223 which are operation input units for inputting operation instruction signals of peripheral devices such as air supply means, water supply means, and gas supply means.
  • the treatment tool inserted from the treatment tool insertion portion 222 is exposed from the opening 245a via the treatment tool channel 245 of the distal end portion 24.
  • the universal cord 23 includes at least a light guide 241 and a collective cable 246.
  • the light guide 241 of the universal cord 23 is connected to the light source device 4.
  • the collective cable 246 of the universal cord 23 is connected to the control device 3.
  • the control device 3 includes an S / P conversion unit 301, an image processing unit 302, a brightness detection unit 303, a light control unit 304, a read address setting unit 305, a drive signal generation unit 306, and an input unit 307. , A storage unit 308, a control unit 309, and a reference clock generation unit 310.
  • the S / P converter 301 performs serial / parallel conversion on the image signal (digital signal) received from the distal end portion 24.
  • the image processing unit 302 generates an in-vivo image displayed by the display device 5 based on the parallel image signal output from the S / P conversion unit 301.
  • the image processing unit 302 includes a synchronization unit 302a, a white balance (WB) adjustment unit 302b, a gain adjustment unit 302c, a ⁇ correction unit 302d, a D / A conversion unit 302e, a format change unit 302f, and a sample-use unit. It has a memory 302g and a still image memory 302h.
  • the synchronization unit 302a inputs an image signal input as pixel information to three memories (not shown) provided for each pixel, and associates the image signal with the pixel address of the light receiving unit 244f read by the reading unit 244g. Then, the values of the respective memories are held while being sequentially updated, and the image signals of these three memories are synchronized as RGB image signals.
  • the synchronization unit 302a sequentially outputs the synchronized RGB image signals to the white balance adjustment unit 302b, and outputs a part of the RGB image signals to the sample memory 302g for image analysis such as brightness detection.
  • the white balance adjustment unit 302b automatically adjusts the white balance of the RGB image signal. Specifically, the white balance adjustment unit 302b automatically adjusts the white balance of the RGB image signal based on the color temperature included in the RGB image signal.
  • the gain adjusting unit 302c adjusts the gain of the RGB image signal.
  • the gain adjustment unit 302c outputs the RGB signal subjected to gain adjustment to the ⁇ correction unit 302d, and a part of the RGB signal for still image display, enlarged image display, or emphasized image display 302h. Output to.
  • the ⁇ correction unit 302d performs gradation correction ( ⁇ correction) of the RGB image signal in correspondence with the display device 5.
  • the D / A conversion unit 302e converts the RGB image signal after gradation correction output from the ⁇ correction unit 302d into an analog signal.
  • the format changing unit 302f changes the image signal converted into an analog signal to a moving image file format such as a high-definition method, and outputs it to the display device 5.
  • the brightness detection unit 303 detects the brightness level corresponding to each pixel from the RGB image signals held in the sample memory 302g, records the detected brightness level in a memory provided therein, and the control unit 309. Output to. Further, the brightness detection unit 303 calculates a gain adjustment value and a light irradiation amount based on the detected brightness level, and outputs the gain adjustment value to the gain adjustment unit 302c, while adjusting the light irradiation amount to the light adjustment unit 304. Output to. Further, the brightness detection unit 303 generates a luminance signal indicating brightness based on the image signal generated by the imaging device 244 of the endoscope 2, and outputs the luminance signal to the control unit 309. In the first embodiment, the brightness detection unit 303 functions as a luminance signal generation unit.
  • the light control unit 304 sets the type of light generated by the light source device 4, the light amount, the light emission timing, and the like based on the light irradiation amount calculated by the brightness detection unit 303.
  • a light source synchronization signal including the set conditions is transmitted to the light source device 4.
  • the read address setting unit 305 has a function of setting a pixel to be read and a reading order on the light receiving surface of the sensor unit 244a. That is, the read address setting unit 305 has a function of setting the pixel address of the sensor unit 244a read by the AFE unit 244b. Further, the read address setting unit 305 outputs the set address information of the pixel to be read to the synchronization unit 302a.
  • the drive signal generation unit 306 generates a drive timing signal for driving the image sensor 244 and transmits it to a timing generator 244d via a predetermined signal line included in the aggregate cable 246.
  • This timing signal includes address information of a pixel to be read.
  • the input unit 307 receives input of various signals such as an operation instruction signal that instructs the operation of the endoscope system 1.
  • the storage unit 308 is realized by using a semiconductor memory such as a flash memory or a DRAM (Dynamic Random Access Memory).
  • the storage unit 308 stores various programs for operating the endoscope system 1 and data including various parameters necessary for the operation of the endoscope system 1.
  • the control unit 309 is configured using a CPU or the like, and performs drive control of each component including the tip 24 and the light source device 4, input / output control of information with respect to each component, and the like.
  • the control unit 309 transmits setting data for imaging control to the imaging control unit 244e via a predetermined signal line included in the collective cable 246.
  • the setting data includes the imaging speed (frame rate) of the image sensor 244, instruction information for instructing the readout speed of pixel information from any pixel of the sensor unit 244a, and transmission of pixel information read by the AFE unit 244b. Includes control information.
  • the control unit 309 includes an amplification unit 309a.
  • the amplification unit 309a sets the amplification factor of the image signal generated by the imaging device 244 under illumination of excitation light based on the amplification factor corresponding to the luminance signal input from the brightness detection unit 303. Specifically, the amplification unit 309a amplifies the AGC unit 244i according to the luminance signal generated based on the image signal generated by the imaging element 244 under illumination of normal light (visible light) by the brightness detection unit 303. Based on the rate, the AGC unit 244i sets an amplification factor (gain) of an image signal generated by the imaging device 244 under illumination of excitation light.
  • the reference clock generation unit 310 generates a reference clock signal that serves as a reference for the operation of each component of the endoscope system 1 and supplies the generated reference clock signal to each component of the endoscope system 1.
  • the light source device 4 includes a white light source 41, a special light source 42, a light source control unit 43, and an LED (Light Emitting Diode) driver 44.
  • the white light source 41 includes a white LED, and generates white illumination light under the control of the light source control unit 43.
  • the special light source 42 generates excitation light for exciting the fluorescent substance introduced into the subject. Specifically, the special light source 42 generates infrared light. Further, the special light source 42 may generate light of any of R, G, and B as a special light that has a wavelength band different from that of the white irradiation light and is narrowed by a narrow band pass filter. Good.
  • the special light generated by the special light source 42 includes, for example, NBI (Narrow Band Imaging) illumination light of two types of bands, blue light and green light, which are narrowed to be easily absorbed by hemoglobin in blood. It may be generated.
  • NBI Near Band Imaging
  • the light source control unit 43 controls the amount of current supplied to the white light source 41 or the special light source 42 according to the light source synchronization signal transmitted from the dimming unit 304.
  • the LED driver 44 generates excitation light in the white light source 41 or the special light source 42 by supplying current to the white light source 41 or the special light source 42 under the control of the light source control unit 43. Light generated by the white light source 41 or the special light source 42 is irradiated to the outside from the tip of the tip 24 via the light guide 241.
  • the display device 5 has a function of receiving and displaying the in-vivo image generated by the control device 3 via the video cable from the control device 3.
  • the display device 5 has a display such as liquid crystal or organic EL (Electro Luminescence).
  • FIG. 4 is a flowchart showing an outline of processing executed by the endoscope system 1. In the following, it is assumed that the subject has already been subjected to a fluorescent agent containing a fluorescent marker by a treatment tool in the living body by a practitioner.
  • the light source control unit 43 drives the LED driver 44 under the control of the control unit 309 to irradiate the white light source 41 with visible light (step S101).
  • the imaging control unit 244e drives the reading unit 244g at a predetermined timing and outputs an image signal of visible reflected light received by the light receiving unit 244f to the control device 3 (step). S102).
  • the brightness detection unit 303 obtains an image signal of visible light from the sample memory 302g, calculates the illuminance of each image of the light receiving unit 244f (step S103), and generates a luminance signal at each pixel (step S104). ).
  • the amplification unit 309a calculates the amplification factor of the image signal of visible light (normal light) output from each pixel of the light receiving unit 244f based on the luminance signal generated by the brightness detection unit 303, and the imaging control unit 244e. Is set in the AGC unit 244i of the AFE unit 244b (step S105).
  • the control unit 309 generates a white light image signal in the image processing unit 302 and outputs the white light image signal to the display device 5 (step S106). Specifically, when the normal observation mode using white light is set in the endoscope system 1, the control unit 309 causes the image processing unit 302 to output a white light image signal to the display device 5. Accordingly, the practitioner can perform normal observation of the subject by confirming the image displayed on the display device 5. Further, the control unit 309 may cause the image processing unit 302 to store the white light image signal in the storage unit 308.
  • the amplification unit 309a determines the amplification factor of the fluorescence image signal output from each image of the light receiving unit 244f according to the amplification factor of visible light, and the AGC unit 244i of the AFE unit 244b via the imaging control unit 244e. (Step S107).
  • the light source control unit 43 drives the LED driver 44 to irradiate the special light source 42 with excitation light (step S108).
  • the imaging control unit 244e drives the reading unit 244g at a predetermined timing and outputs the fluorescent image signal of fluorescence received by the light receiving unit 244f to the control device 3 (step S109). ).
  • control unit 309 causes the image processing unit 302 to generate a fluorescent image signal and output it to the display device 5 (step S110). Accordingly, the practitioner can perform fluorescence observation in the subject by confirming the fluorescence image displayed on the display device 5.
  • control unit 309 determines whether or not an instruction signal for ending the observation of the subject is input from the input unit 307 (step S111).
  • the control unit 309 determines that an instruction signal has been input (step S111: Yes)
  • the endoscope system 1 ends this process.
  • the control unit 309 determines that no instruction signal is input via the input unit 307 (step S111: No)
  • the endoscope system 1 returns to step S101.
  • each of the light receiving units 244f according to the luminance signal of the image signal generated by the imaging device 244 with the white illumination light generated by the amplifying unit 309a by the brightness detecting unit 303. Based on the amplification factor of the image, the fluorescence amplification factor of each pixel is set. Thereby, the change in fluorescence intensity due to the influence of the light distribution or the light absorption characteristic of the organ can be reduced, and a clear fluorescence image of the subject can be displayed on the display device 5.
  • a region (a dark region or a bleeding region) that is irradiated with visible light and reflected by biological tissue is weak (a dark region or a bleeding region) is far from the distal end portion 24 or has a poor light distribution. Therefore, it can be considered that the illumination light does not reach the area (place).
  • the excitation light is also considered to be an area (place) where the excitation light does not reach the area sufficiently. Therefore, as described above, the amplification factor of each image of the light receiving unit 244f according to the luminance signal of the image signal generated by the imaging element 244 with the white illumination light generated by the amplification unit 309a by the brightness detection unit 303. Based on the above, the amplification factor of the fluorescence of each pixel is set. As a result, it is possible to appropriately observe the fluorescence image without overlooking the fluorescent drug accumulation region.
  • the difference between the intensity of the excitation light generated from the distance from the distal end portion 24 to the living tissue and the intensity of the fluorescence to be acquired is acquired.
  • the amplification unit 309a captures each pixel so that the ratio between the amplification factor of the reflected light and the fluorescence amplification factor of the surrounding organ is constant. Since the sensitivity is optimized, the fluorescence image can be appropriately observed. Note that the amplifying unit 309a may multiply the amplification factor of the reflected light by a certain coefficient instead of the ratio.
  • the amplification unit 309a sets the amplification factor of fluorescence according to the amplification factor of white light (visible light). For example, when the fluorescence is infrared (IR), the image signal The amplification factor may be set using the luminance signal of the red (R) image signal included in the image signal, and the fluorescence amplification factor may be set according to the amplification factor. Thereby, the processing content of the control part 309 can be reduced, and the frame rate which the endoscope 2 images can be accelerated.
  • IR infrared
  • R red
  • the configuration of the control unit of the control device is different, and only the processing executed by the endoscope system is different.
  • the amplification factor of each image is set at the time of fluorescence observation.
  • the region of the light receiving unit is divided into a plurality of regions, and the divided division is performed.
  • the amplification factor during fluorescence observation is set for each region. For this reason, below, after demonstrating the structure of the control part of the endoscope system concerning this Embodiment 2, the process which an endoscope system performs is demonstrated.
  • symbol is attached
  • FIG. 5 is a block diagram illustrating a functional configuration of a main part of the endoscope system 100 according to the second embodiment. As shown in FIG. 5, the control device 3 of the endoscope system 100 further includes a control unit 101.
  • the control unit 101 is configured using a CPU or the like, and performs drive control of each component including the tip 24 and the light source device 4, input / output control of information with respect to each component, and the like.
  • the control unit 101 transmits setting data for imaging control to the imaging control unit 244e via a predetermined signal line included in the collective cable 246.
  • the control unit 101 includes an amplification unit 309a and a divided region setting unit 101a.
  • the divided region setting unit 101a sets a plurality of divided regions by dividing the imaging surface of the sensor unit 244a into predetermined regions. Specifically, the divided area setting unit 101a sets a plurality of divided areas by dividing the imaging surface of the sensor unit 244a via the read address setting unit 305. The plurality of divided regions are used when an amplification unit 309a described later sets an amplification factor in each divided region during fluorescence observation.
  • FIG. 6 is a flowchart illustrating an outline of processing executed by the endoscope system 100 according to the second embodiment.
  • the divided region setting unit 101a sets a divided region by dividing the region where the reading unit 244g reads the image signal from the light receiving unit 244f via the imaging control unit 244e (step S201). For example, as shown in FIG. 7A, the divided region setting unit 101a sets the divided regions A1 to A4 by dividing the light receiving surface of the sensor unit 244a into four.
  • Step S202 and Step S203 correspond to Step S101 and Step S102 of FIG. 4 described above, respectively.
  • the brightness detection unit 303 obtains an image signal of visible light from the sample memory 302g, calculates the illuminance for each divided region of the light receiving unit 244f (step S204), and generates a luminance signal for each divided region. (Step S205). Specifically, as shown in FIG. 7A, the brightness detection unit 303 calculates the illuminance of each of the divided regions A1 to A4 set by the divided region setting unit 101a, and the brightness of each of the divided regions A1 to A4. Generate a signal.
  • the amplification unit 309a determines the amplification factor of the visible light of the image signal output from each divided region of the light receiving unit 244f based on the luminance signal of each divided region detected by the brightness detection unit 303, and the imaging control unit 244e. Is set in the AGC unit 244i of the AFE unit 244b (step S206).
  • control unit 309 causes the image processing unit 302 to generate an image signal of white light and output it to the display device 5 (step S207).
  • the divided area setting unit 101a sets a small divided area obtained by dividing each divided area of visible light (step S208). For example, as shown in FIG. 7B, the divided region setting unit 101a sets subdivided regions A11 to A14 of excitation light obtained by further dividing the divided region A1 of visible light.
  • the amplification unit 309a sets the amplification factor of the fluorescence of each small divided region in accordance with the amplification factor of each divided region of visible light (step S209). Specifically, the amplification unit 309a sets the amplification factor of the fluorescence of the small divided regions A11 to A14 according to the amplification factor of the divided region A1. In this case, the amplification unit 309a sets the amplification factor of the fluorescence in the small divided areas A11 to A14 based on the average value of the luminance signal of each pixel in the divided area A1.
  • the gain for making the luminance ratio with the fluorescence constant can be adjusted.
  • Step S210 to Step S213 correspond to Step S108 to Step S111 in FIG. 4, respectively.
  • the amplification unit 309a sets the amplification factor of the image signal generated by the imaging element 244 under the illumination of the excitation light for each divided region set by the divided region setting unit 101a. To do. Thereby, the average value of the reflected light of visible light according to the distance from the endoscope 2 to the surface inside the body of the subject or the optical characteristics of the organ is set in the divided area, and the luminance ratio with the fluorescence is made constant in the divided area. Gain can be adjusted.
  • the divided region setting unit 101a further divides the divided region on the imaging surface of the sensor unit 244a to set a small divided region, and the amplifying unit 309a performs fluorescence corresponding to each small divided region. Since the gain of the image signal is set, the fluorescence gain can be adjusted more finely. Thereby, even if the distance between the distal end portion 24 and the living tissue is different within the imaging range, the imaging surface of the imaging element 244 can be appropriately amplified without unevenness, and a smooth fluorescent image can be captured.
  • a subject having an image light distribution or absorption distribution emits excitation light on a visible light (white light) image with sufficient dynamic lens or contrast.
  • An image can be obtained by superimposing the fluorescent images.
  • the amplification unit 309a sets the amplification factor of the fluorescence image signal corresponding to each divided region according to the amplification factor of the visible light.
  • the above amplification factor need not be set. This makes it easy to see the periphery of the fluorescence of the affected area and reduces noise caused by amplification.
  • the gain of the AGC unit 244i is adjusted to set the amplification factor of the image signal during the fluorescence observation. For example, each pixel of the sensor unit 244a is not reset and multiplexed. Sensitivity and amplification factor may be adjusted by reading.
  • the divided region setting unit 101a sets the imaging surface of the sensor unit 244a to be divided into four, but the number of divisions can be set as appropriate.
  • the divided region setting unit 101a may set a predetermined region, for example, nine divided regions, according to the size of the imaging surface of the sensor unit 244a and the organ or part of the subject.
  • the divided area setting unit 101a can similarly set the number of divided areas as appropriate.
  • FIG. 8 is a block diagram illustrating a functional configuration of a main part of the endoscope system 110 according to the third embodiment.
  • the control device 3 of the endoscope system 110 includes a control unit 111.
  • the control unit 111 is configured using a CPU or the like, and performs drive control of each component including the tip 24 and the light source device 4, input / output control of information with respect to each component, and the like.
  • the control unit 111 transmits setting data for imaging control to the imaging control unit 244e via a predetermined signal line included in the collective cable 246.
  • the control unit 111 includes an amplification unit 309a, a divided region setting unit 101a, and a fluorescence determination unit 111a.
  • the fluorescence determination unit 111a determines whether or not there is a fluorescent region that emits fluorescence in an image corresponding to the image signal generated by the image sensor 244. Specifically, the fluorescence determination unit 111a determines the presence / absence of an area including a certain level of luminance in an image generated by the image sensor 244 during fluorescence observation. Note that the fluorescence determination unit 111a may determine the address of a pixel corresponding to a fluorescent region that emits fluorescence in the image.
  • FIG. 9 is a flowchart illustrating an outline of processing executed by the endoscope system 110 according to the third embodiment.
  • Steps S301 to S308 correspond to Steps S201 to S207 and Step S209 of FIG. 6, respectively.
  • Steps S309 to S311 correspond to steps S108 to S110 in FIG. 4, respectively.
  • the fluorescence determination unit 111a determines whether there is a divided region in which fluorescence is detected in the fluorescence image corresponding to the fluorescence image signal (step S312). Specifically, the fluorescence determination unit 111a detects whether or not a divided region having a certain luminance level is detected in the fluorescence image. When the fluorescence determination unit 111a determines that there is a divided region in which fluorescence is detected in the fluorescence image corresponding to the fluorescence image signal (step S312: Yes), the endoscope system 1 proceeds to step S313 described later.
  • step S312 determines that there is no divided region in which fluorescence is detected in the fluorescence image corresponding to the fluorescence image signal (step S312: No)
  • the endoscope system 1 performs steps described later. The process proceeds to S317.
  • the divided area setting unit 101a sets a small divided area obtained by dividing the divided area in which fluorescence is detected into predetermined areas. Specifically, as shown in FIG. 10, the divided region setting unit 101a divides the divided region A3 in which the fluorescence S1 is detected into predetermined regions and sets small divided regions A31 to A34 (FIG. 10 ( a) ⁇ (FIG. 10B) Subsequently, the divided area setting unit 101a sets an area to be exposed by the light receiving unit 244f via the imaging control unit 244e, specifically, the divided area setting unit 101a. Then, an area corresponding to the small divided area where the fluorescence S1 is detected via the imaging control unit 244e is set as an area where the pixels of the light receiving unit 244f receive the fluorescence and expose.
  • the light source control unit 43 drives the LED driver 44 under the control of the control unit 311 to irradiate the special light source 42 with excitation light (step S314), and the amplification unit 309a is operated by the divided region setting unit 101a. Only the pixels in the set subdivided region are exposed by receiving fluorescence (step S315). As a result, the sensor unit 244a only needs to expose the pixels in the small divided regions, so that the sensor unit 244a can perform long-time exposure and increase the fluorescence amplification factor (sensitivity).
  • the endoscopic system 1 exposes only the necessary pixels of the light receiving unit 244f for a long time, so that the set frame rate can be set as compared with the case of performing long time exposure for all the pixels of the light receiving unit 244f. Without dropping, it is possible to prevent a series of imaging (exposure) times from extending, and to continuously output a fluorescent image signal smoothly.
  • the image processing unit 302 performs predetermined image processing on the image signal output from the image sensor 244 of the distal end portion 24 to generate a fluorescent image signal, and outputs it to the display device 5 (step S316).
  • control unit 311 determines whether or not an end instruction signal is input to the endoscope system 1 (step S317).
  • the control unit 311 determines that an end instruction signal has been input (step S317: Yes)
  • the endoscope system 1 ends this process.
  • step S317 determines that the end instruction signal is not input (step S317: No)
  • the endoscope system 1 returns to step S302.
  • the divided region setting unit 101a further divides the small divided region in which the fluorescence S1 is detected into predetermined divisions until a termination instruction signal or the like is input, thereby dividing the small divided region A321.
  • ... A324 may be set (FIG. 10B ⁇ FIG. 10C), and the amplification factor (sensitivity) and long-time exposure may be set when the amplification unit 309a images fluorescence.
  • the amplifying unit 309a performs exposure by causing only the pixels in the small divided region set by the divided region setting unit 101a to receive fluorescence.
  • the sensor unit 244a only needs to expose the pixels in the small divided regions, so that the sensor unit 244a can perform long-time exposure and increase the fluorescence amplification factor (sensitivity).
  • the endoscopic system 1 exposes only the necessary pixels of the light receiving unit 244f for a long time, so that the set frame rate can be set as compared with the case of performing long time exposure for all the pixels of the light receiving unit 244f. Without dropping, it is possible to prevent a series of imaging (exposure) times from extending, and to continuously output a fluorescent image signal smoothly.
  • the region where the fluorescence is detected by irradiating the excitation light first may be divided into predetermined regions to set the divided regions. That is, high-sensitivity imaging may be performed in a small area only in the area of interest. Thereby, a fluorescence image can be taken with a sufficient dynamic range or contrast.
  • the endoscope system according to the fourth embodiment has the same configuration as that of the above-described embodiment, and only the processing executed by the endoscope system is different. Specifically, in the above-described embodiment, the sensitivity of imaging the fluorescence is increased by exposing the amplification factor of each pixel included in the divided region where the fluorescence is observed for a long time. The region for increasing the amplification factor is gradually reduced from the entire region toward the region where fluorescence is observed. For this reason, below, the process which the endoscope system concerning this Embodiment 4 performs is demonstrated. In the following, a region where fluorescence is observed will be described as a region of interest (hereinafter referred to as “ROI”).
  • ROI region of interest
  • FIG. 11 is a time chart of processing executed by the endoscope system 1 according to the fourth embodiment.
  • FIG. 11A shows the timing of the region output from the light receiving unit 244f
  • FIG. 11B shows the timing of instructing the pixels of the light receiving unit 244f to reset.
  • the horizontal axis indicates time.
  • the divided region setting unit 101a sets the region of the light receiving unit 244f in the order of all regions, ROI1, ROI2, ROI3, and ROI4 via the imaging control unit 244e based on the determination result of the fluorescence determination unit 111a. Read and output. Specifically, as shown in FIG. 12, in the divided region setting unit 101a, based on the determination result of the fluorescence determination unit 111a, the fluorescence S1 of the affected area is observed in the image W1 via the imaging control unit 244e. The region of the light receiving unit 244f is read out in the order of all the regions R1, ROI1, ROI2, ROI3, and ROI4 so that the region is gradually reduced.
  • the image corresponding to each ROI region has the same image center coordinates, and the region gradually becomes smaller (ROI1> ROI2> ROI3> ROI4).
  • ROI1> ROI2> ROI3> ROI4 the region gradually becomes smaller.
  • the divided region setting unit 101a sets the light receiving surface of the light receiving unit 244f toward the region where the fluorescence S1 of the affected part is observed. Since the area is set by gradually reducing the area where the image quality is increased, it is possible to obtain a smooth image with increased sensitivity in a natural part without reducing the frame rate of the image sensor 244.
  • the sensitivity of the boundary of the region where the amplification unit 309a has fluorescence is set to be inclined, so that the uncomfortable feeling of the image can be reduced.
  • the fourth embodiment even if there is an unnecessary high luminance area other than the ROI area, it is possible to reduce the area where the sensitivity is saturated, and malfunction due to automatic brightness control, for example, black Out can be prevented.
  • FIG. 13 is a diagram illustrating a distal end surface of the distal end portion of the endoscope system according to the fifth embodiment.
  • FIG. 14 is a diagram showing a part of the cut surface taken along the line AA shown in FIG.
  • FIG. 15 is a view showing a part of the cut surface taken along the line BB shown in FIG.
  • FIG. 16 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the fifth embodiment.
  • a cleaning nozzle 61, an observation window 62, an observation window 63, an illumination lens 242 and a treatment instrument channel 245 are provided on the distal end surface of the distal end portion 6 of the endoscope 2. .
  • the observation window 62 and the observation window 63 are closed.
  • the light incident from the outside through the observation window 62 enters the first optical system 621A configured by the plurality of lenses 621a and 621b, is condensed, and then enters the first light receiving unit 622A.
  • the light incident from the outside through the observation window 63 is incident on the second optical system 631B configured by the plurality of lenses 631c and 631d, is condensed, and then incident on the second light receiving unit 632B.
  • the first light receiving unit 622A has a plurality of pixels for imaging arranged two-dimensionally in a matrix, and is arranged so that light emitted from the first optical system 621A enters.
  • the first light receiving unit 622A receives the light incident through the first optical system 621A and images the inside of the body cavity.
  • a cover glass 623A is provided on the light receiving surface side of the first light receiving unit 621A.
  • An R red (R), green (G), or blue (B) filter is arranged between the cover glass 623A and the first light receiving unit 622A corresponding to the pixel arrangement of the first light receiving unit 622A.
  • An on-chip filter 624A is provided, and the first light receiving unit 622A captures a color image.
  • the on-chip filter 624A may be a complementary color filter in which cyan, magenta, yellow, and green filters are arranged.
  • the second light receiving unit 632B has a plurality of pixels for imaging arranged two-dimensionally in a matrix, and is arranged so that light emitted from the second optical system 631B enters.
  • a spectral filter 633 that transmits only light of a predetermined wavelength band and a cover glass 634B are provided on the light receiving surface side of the second light receiving part 632B, and the second light receiving part 632B is a fluorescent light of a predetermined wavelength band.
  • the image for fluorescence observation corresponding to is picked up as a monochrome image.
  • the first light receiving unit 622A and the second light receiving unit 632B instruct the imaging timing to the first light receiving unit 622A and the second light receiving unit 632B and supply the power, and the first light receiving unit 622A and the first light receiving unit 622A. It is mounted on a circuit board 66 together with a conversion circuit 65 that reads out an image signal from the second light receiving unit 632B and converts it into an electrical signal.
  • the first light receiving unit 622A and the second light receiving unit 632B are mounted on the circuit board 66 with the light receiving surfaces arranged side by side.
  • An electrode 67 is provided on the circuit board 66.
  • the electrode 67 is connected to a signal line 68 that transmits an electrical signal to and from the control device 3 through, for example, an anisotropic conductive resin film.
  • a signal line 67a that transmits an image signal that is an electrical signal output from the first light receiving unit 622A and the second light receiving unit 632B
  • a plurality of signal lines including a signal line that transmits a control signal from the control device 3 A collective cable is formed.
  • the tuning unit 121 sets pixels to be read by the first light receiving unit 622A and the second light receiving unit 632B so that the image information is alternately read by the first light receiving unit 622A and the second light receiving unit 632B. .
  • the tuning unit 121 performs exposure processing in the first light receiving unit 622A and the second light receiving unit 632B, and readout of pixel information to the first light receiving unit 622A and the second light receiving unit 632B by the timing generator 244d and the AFE unit 244b. Correlate and control processing timing.
  • the pixel information read from the first light receiving unit 622A and the second light receiving unit 632B is transmitted through the same transmission path.
  • the brightness detection unit 303 generates a luminance signal based on the image signal captured by the first light receiving unit 622A, and the amplification unit 309a is generated by the brightness detection unit 303. Based on the amplification factor corresponding to the generated luminance signal, the amplification factor of the image signal generated by the second light receiving unit 632B under the illumination of the excitation light is set. Thereby, the endoscope system 120 can adjust the sensitivity of imaging the excitation light almost simultaneously while imaging normal light (visible light).

Abstract

 発光した蛍光を見落とすことなく、蛍光画像の観察を適切に行うことができる撮像装置を提供する。内視鏡システム1は、被写体に導入された蛍光物質を励起するための励起光を該被検体に向けて出射する特殊光光源42と、励起光と異なる可視帯域を含む通常光を被検体に向けて出射する白色光光源41と、励起光または通常光で照明された被写体の光学像を撮像して光学像の画像信号を生成する撮像面を有する撮像素子244と、通常光の照明下で撮像素子244が生成した画像信号に基づいて、明るさを示す輝度信号を生成する明るさ検出部303と、明るさ検出部303が生成した輝度信号に応じた増幅率で励起光の照明下で撮像素子244が生成する画像信号の増幅率を設定する増幅部309aと、を備える。

Description

撮像装置
 本発明は、被写体に励起光または可視光を照射して、この被写体で反射した光を複数の画素で受光して光電変換を行って画像情報を出力する撮像装置に関する。
 従来、医療分野においては、被検体の臓器内部を観察する際に内視鏡システムが用いられている。内視鏡システムは、一般に、患者等の被検体の体腔内に細長形状をなす可撓性の挿入部を挿入し、この挿入した挿入部を介して体腔内の生体組織に白色光を照射し、その反射光を挿入部の先端に設けられた撮像部によって受光して、体内画像を撮像する撮像装置の一種である。内視鏡システムで撮影された生体画像の画像信号は、挿入部内の伝送ケーブルを介して体外の画像処理装置に伝送され、画像処理装置において画像処理が行われることにより、内視鏡システムのモニタに表示される。医師等のユーザは、モニタに表示された体内画像を通して、被検体の体腔内を観察する。
 このような内視鏡システムとして、蛍光マーカ等を含む蛍光薬剤が導入された生体組織に特定波長の励起光を照射して蛍光を撮像する蛍光観察、または可視帯域の通常光を生体組織に照射して反射光を撮像する通常観察を行うことが可能な技術が知られている(特許文献1参照)。この技術では、通常光で撮像された画像の輝度レベルを目標値として、蛍光画像の輝度レベルを自動で調整することにより、ユーザに負担をかけることなく、蛍光画像を適切な明るさで表示することができる。
特開2006-61435号公報
 しかしながら、上述した従来技術では、蛍光を観察できない場合、励起光の強度や画像信号の増幅が足りないのか、または蛍光薬剤の集積不足による蛍光を観察することができないのかを蛍光画像から判断することができなかった。
 本発明は、上記に鑑みてなされたものであって、発光した蛍光を見落とすことなく、蛍光画像の観察を適切に行うことができる撮像装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる撮像装置は、被検体に導入された蛍光物質を励起するための励起光を該被検体に向けて出射する励起光出射部と、前記励起光と異なる可視帯域を含む通常光を前記被検体に向けて出射する通常光出射部と、前記励起光または前記通常光で照明された前記被検体の光学像を撮像面上で結像して画像信号を生成する撮像部と、前記通常光の照明下で前記撮像部が生成した前記画像信号に基づいて、明るさを示す輝度信号を生成する輝度信号生成部と、前記輝度信号生成部が生成した前記輝度信号に応じた前記画像信号の増幅率に基づいて、前記励起光の照明下で前記撮像部が生成する前記画像信号の増幅率を設定する増幅部と、を備えたことを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記撮像面を分割して複数の分割領域を設定する分割領域設定をさらに備え、前記輝度信号生成部は、前記分割領域設定部が設定した前記複数の分割領域それぞれの前記輝度信号を生成し、前記増幅部は、前記輝度信号の各々に応じた増幅率に基づいて、前記励起光の照明下における前記分割領域に対応する前記画像信号の増幅率を設定することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記分割領域設定部は、前記分割領域を分割して複数の小分割領域を設定し、前記増幅部は、前記輝度信号の各々に応じた増幅率に基づいて、前記励起光の照明下における前記小分割領域に対応する前記画像信号の増幅率を設定することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記励起光の照明下で生成された前記画像信号に対応する蛍光画像内において蛍光を発する蛍光領域の有無を判定する蛍光判定部をさらに備え、前記分割領域設定部は、前記蛍光判定部が前記蛍光画像内において前記蛍光領域があると判定した場合、前記蛍光領域が含まれる前記分割領域を分割して複数の小分割領域を設定し、前記増幅部は、前記輝度信号の各々に応じた増幅率に基づいて、前記励起光の照明下における前記小分割領域に対応する前記画像信号の増幅率を設定することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記励起光の照明下で生成された前記画像信号に対応する蛍光画像内において蛍光を発する蛍光領域の有無を判定する蛍光判定部をさらに備え、前記分割領域設定部は、前記蛍光判定部が前記蛍光画像内において前記蛍光領域があると判定した場合、前記蛍光領域が含まれる前記分割領域を時間の経過とともに小さく設定することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記増幅部は、ゲインに基づいて、前記画像信号の増幅率を設定することを特徴とする。
 また、本発明にかかる撮像装置は、上記発明において、前記増幅部は、露光時間に基づいて、前記画像信号の増幅率を設定することを特徴とする。
 本発明にかかる撮像装置によれば、増幅部が輝度信号生成部によって生成された通常光の照明下で撮像素子が生成した画像信号の輝度信号に応じた増幅率に基づいて、各画素の蛍光の増幅率を設定する。これにより、発光した蛍光を見落とすことなく、蛍光画像の観察を適切に行うことができる効果を奏する。
図1は、本発明の実施の形態1にかかる撮像装置である内視鏡システムの概略構成を示す図である。 図2は、図1に示す内視鏡の先端部の内部構成の概略を説明する断面図である。 図3は、本発明の実施の形態1にかかる内視鏡システムの要部の機能構成を示すブロック図である。 図4は、本発明の実施の形態1にかかる内視鏡システムが実行する処理の概要を示すフローチャートである。 図5は、本発明の実施の形態2にかかる内視鏡システムの要部の機能構成を示すブロック図である。 図6は、本発明の実施の形態2にかかる内視鏡システムが実行する処理の概要を示すフローチャートである。 図7は、図5に示す分割領域設定部が撮像面を分割する際の分割領域を模式的に示す図である。 図8は、本発明の実施の形態3にかかる内視鏡システムの要部の機能構成を示すブロック図である。 図9は、本発明の実施の形態3にかかる内視鏡システムが実行する処理の概要を示すフローチャートである。 図10は、図8に示す分割領域設定部が撮像面を分割する際の分割領域を模式的に示す図である。 図11は、本発明の実施の形態4にかかる内視鏡システムが実行する処理のタイムチャートである。 図12は、本発明の実施の形態4にかかる分割領域設定部が撮像面を分割する際の分割領域を模式的に示す図である。 図13は、本発明の実施の形態5にかかる内視鏡システムの先端部の先端面を示す図である。 図14は、図13に示すA-A線で切断した切断面の一部を示す図である。 図15は、図13に示すB-B線で切断した切断面の一部を示す図である。 図16は、本発明の実施の形態5にかかる内視鏡システムの要部の機能構成を示すブロック図である。
 以下、本発明を実施するための形態(以下、「実施の形態」という)として、患者等の被検体の体腔内の画像を撮像して表示する医療用の内視鏡システムについて説明する。また、この実施の形態によりこの発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付している。さらにまた、図面は模式的なものであり、各部材の厚みと幅との関係、各部材の比率等は、現実と異なることに留意する必要がある。また、図面の相互間においても、互いの寸法の関係や比率が異なる部分が含まれている。
(実施の形態1)
 図1は、本発明の実施の形態1にかかる撮像装置である内視鏡システムの概略構成を示す図である。図1に示すように、内視鏡システム1は、被検体の体腔内に先端部を挿入することによって被検体の体内画像を撮像する内視鏡2と、内視鏡2が撮像した体内画像に所定の処理を施すとともに、内視鏡システム1全体の動作を統括的に制御する制御装置3と、内視鏡2の先端から出射する照明光または励起光を発生する光源部である光源装置4と、制御装置3が画像処理を施した体内画像を表示する表示装置5と、を備える。
 内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、制御装置3および光源装置4と接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。
 挿入部21は、後述する撮像素子を内蔵した先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓管部26と、を有する。
 図2は、先端部24の内部構成の概略を説明する断面図である。図2に示すように、先端部24は、グラスファイバ等を用いて構成されて光源装置4が発生した光の導光路をなすライトガイド241と、ライトガイド241の先端に設けられた照明レンズ242と、集光用の光学系243と、光学系243の結像位置に設けられ、光学系243が集光した光を受光して電気信号に光電変換して所定の信号処理を施す撮像素子244と、内視鏡2用の処置具を通る処置具チャンネル245と、を有する。
 光学系243は、少なくともレンズ243aおよびレンズ243bからなる。なお、光学系243を構成するレンズの種類や数は、図2に示されるものに限られるわけではない。
 図3は、内視鏡システム1の要部の機能構成を示すブロック図である。図3を参照して、撮像素子244の構成を説明する。図3に示すように、撮像素子244は、光学系243からの光を光電変換して電気信号を出力するセンサ部244aと、センサ部244aが出力した電気信号に対してノイズ除去やA/D変換を行うアナログフロントエンド244b(以下、「AFE部244b」という)と、AFE部244bが出力したデジタル信号をパラレル/シリアル変換するP/S変換部244cと、センサ部244aの駆動タイミング、AFE部244bおよびP/S変換部244cにおける各種信号処理のパルスを発生するタイミングジェネレータ244dと、撮像素子244の動作を制御する撮像制御部244eと、を有する。撮像素子244は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。
 センサ部244aは、基板244Sを介してIC回路群244Gと接続される。IC回路群244Gは、AFE部244b、P/S変換部244c、タイミングジェネレータ244d、および撮像制御部244eの機能を有する複数のIC回路を有する。
 センサ部244aは、光量に応じた電荷を蓄積するフォトダイオードおよびフォトダイオードが蓄積した電荷を増幅する増幅器をそれぞれ有する複数の画素が2次元マトリックス状に配設された受光部244fと、受光部244fの複数の画素のうち読み出し対象として任意に設定された画素が生成した電気信号を画像情報として読み出す読み出し部244gと、を有する。受光部244fには、画素ごとにRGB個別のカラーフィルタが設けられており、カラー画像の取得を可能にしている。
 AFE部244bは、電気信号(アナログ)に含まれるノイズ成分を低減するノイズ低減部244hと、電気信号の増幅率(ゲイン)を調整して一定の出力レベルを維持するAGC(Auto Gain Control)部244iと、AGC部244iを介して出力された電気信号をA/D変換するA/D変換部244jと、を有する。ノイズ低減部244hは、たとえば相関二重サンプリング(Correleted Double Sampling)法を用いてノイズの低減を行う。
 撮像制御部244eは、制御装置3から受信した設定データにしたがって、先端部24の各種動作を制御する。撮像制御部244eは、CPU(Central Processing Unit)等を用いて構成される。また、撮像制御部244eは、制御装置3から受信した設定データにしたがって、読み出し部244gが受光部244fから読み出す領域を設定する。
 基板244Sに設けられる電極244Eには、制御装置3との間で電気信号の送受信を行う複数の信号線が束ねられた集合ケーブル246が接続している。複数の信号線には、撮像素子244が出力した画像信号を制御装置3へ伝送する信号線および制御装置3が出力する制御信号を撮像素子244へ伝送する信号線等が含まれる。
 操作部22は、湾曲部25を上下方向および左右方向に湾曲させる湾曲ノブ221と、体腔内に生体鉗子、レーザメスおよび検査プローブ等の処置具を挿入する処置具挿入部222と、制御装置3、光源装置4に加えて、送気手段、送水手段、送ガス手段等の周辺機器の操作指示信号を入力する操作入力部である複数のスイッチ223と、を有する。処置具挿入部222から挿入される処置具は、先端部24の処置具チャンネル245を経由して開口部245aから表出する。
 ユニバーサルコード23は、ライトガイド241と、集合ケーブル246と、を少なくとも内蔵している。ユニバーサルコード23のライトガイド241は、光源装置4に接続される。ユニバーサルコード23の集合ケーブル246は、制御装置3に接続される。
 つぎに、制御装置3の構成について説明する。制御装置3は、S/P変換部301と、画像処理部302と、明るさ検出部303と、調光部304と、読出アドレス設定部305と、駆動信号生成部306と、入力部307と、記憶部308と、制御部309と、基準クロック生成部310と、を備える。
 S/P変換部301は、先端部24から受信した画像信号(デジタル信号)をシリアル/パラレル変換する。
 画像処理部302は、S/P変換部301から出力されたパラレル形態の画像信号をもとに、表示装置5が表示する体内画像を生成する。画像処理部302は、同時化部302aと、ホワイトバランス(WB)調整部302bと、ゲイン調整部302cと、γ補正部302dと、D/A変換部302eと、フォーマット変更部302fと、サンプル用メモリ302gと、静止画像用メモリ302hと、を有する。
 同時化部302aは、画素情報として入力された画像信号を、画素ごとに設けられた3つのメモリ(図示せず)に入力し、読み出し部244gが読み出した受光部244fの画素のアドレスに対応させて、各メモリの値を順次更新しながら保持するとともに、これら3つのメモリの画像信号をRGB画像信号として同時化する。同時化部302aは、同時化したRGB画像信号をホワイトバランス調整部302bへ順次出力するとともに、一部のRGB画像信号を、明るさ検出などの画像解析用としてサンプル用メモリ302gへ出力する。
 ホワイトバランス調整部302bは、RGB画像信号のホワイトバランスを自動的に調整する。具体的には、ホワイトバランス調整部302bは、RGB画像信号に含まれる色温度に基づいて、RGB画像信号のホワイトバランスを自動的に調整する。
 ゲイン調整部302cは、RGB画像信号のゲイン調整を行う。ゲイン調整部302cは、ゲイン調整を行ったRGB信号をγ補正部302dへ出力するとともに、一部のRGB信号を、静止画像表示用、拡大画像表示用または強調画像表示用として静止画像用メモリ302hへ出力する。
 γ補正部302dは、表示装置5に対応させてRGB画像信号の階調補正(γ補正)を行う。
 D/A変換部302eは、γ補正部302dが出力した階調補正後のRGB画像信号をアナログ信号に変換する。
 フォーマット変更部302fは、アナログ信号に変換された画像信号をハイビジョン方式等の動画用のファイルフォーマットに変更して表示装置5に出力する。
 明るさ検出部303は、サンプル用メモリ302gが保持するRGB画像信号から、各画素に対応する明るさレベルを検出し、検出した明るさレベルを内部に設けられたメモリに記録するとともに制御部309へ出力する。また、明るさ検出部303は、検出した明るさレベルをもとにゲイン調整値および光照射量を算出し、ゲイン調整値をゲイン調整部302cへ出力する一方、光照射量を調光部304へ出力する。さらに、明るさ検出部303は、内視鏡2の撮像素子244が生成した画像信号に基づいて、明るさを示す輝度信号を生成し、この輝度信号を制御部309へ出力する。なお、本実施の形態1では、明るさ検出部303が輝度信号生成部として機能する。
 調光部304は、制御部309の制御のもと、明るさ検出部303が算出した光照射量をもとに光源装置4が発生する光の種別、光量、発光タイミング等を設定し、この設定した条件を含む光源同期信号を光源装置4へ送信する。
 読出アドレス設定部305は、センサ部244aの受光面における読み出し対象の画素および読み出し順序を設定する機能を有する。すなわち、読出アドレス設定部305は、AFE部244bが読出すセンサ部244aの画素のアドレスを設定する機能を有する。また、読出アドレス設定部305は、設定した読み出し対象の画素のアドレス情報を同時化部302aへ出力する。
 駆動信号生成部306は、撮像素子244を駆動するための駆動用のタイミング信号を生成し、集合ケーブル246に含まれる所定の信号線を介してタイミングジェネレータ244dへ送信する。このタイミング信号は、読み出し対象の画素のアドレス情報を含む。
 入力部307は、内視鏡システム1の動作を指示する動作指示信号等の各種信号の入力を受け付ける。
 記憶部308は、フラッシュメモリやDRAM(Dynamic Random Access Memory)等の半導体メモリを用いて実現される。記憶部308は、内視鏡システム1を動作させるための各種プログラム、および内視鏡システム1の動作に必要な各種パラメータ等を含むデータを記憶する。
 制御部309は、CPU等を用いて構成され、先端部24および光源装置4を含む各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。制御部309は、撮像制御のための設定データを、集合ケーブル246に含まれる所定の信号線を介して撮像制御部244eへ送信する。ここで、設定データは、撮像素子244の撮像速度(フレームレート)、およびセンサ部244aの任意の画素からの画素情報の読み出し速度を指示する指示情報、ならびにAFE部244bが読み出した画素情報の伝送制御情報などを含む。また、制御部309は、増幅部309aを有する。
 増幅部309aは、明るさ検出部303から入力される輝度信号に応じた増幅率に基づいて、励起光の照明下で撮像素子244が生成する画像信号の増幅率を設定する。具体的には、増幅部309aは、明るさ検出部303によって通常光(可視光)の照明下で撮像素子244が生成した画像信号に基づいて生成された輝度信号に応じたAGC部244iの増幅率に基づいて、励起光の照明下で撮像素子244が生成する画像信号の増幅率(ゲイン)をAGC部244iに設定する。
 基準クロック生成部310は、内視鏡システム1の各構成部の動作の基準となる基準クロック信号を生成し、内視鏡システム1の各構成部に対して生成した基準クロック信号を供給する。
 つぎに、光源装置4の構成について説明する。光源装置4は、白色光光源41と、特殊光光源42と、光源制御部43と、LED(Light Emitting Diode)ドライバ44と、を備える。
 白色光光源41は、白色LEDからなり、光源制御部43の制御のもと、白色照明光を発生する。
 特殊光光源42は、被検体に導入された蛍光物質を励起するための励起光を発生する。具体的には、特殊光光源42は、赤外光を発生する。また、特殊光光源42は、白色照射光とは波長帯域が異なる光であって狭帯域バンドパスフィルタによって狭帯域化したR、G、Bいずれかの成分の光を特殊光として発生してもよい。特殊光光源42が発生する特殊光としては、たとえば血液中のヘモグロビンに吸収されやすくなるように狭帯域化された青色光および緑色光の2種の帯域のNBI(Narrow Band Imaging)照明光等を発生させてもよい。
 光源制御部43は、調光部304から送信された光源同期信号にしたがって白色光光源41または特殊光光源42に供給する電流量を制御する。
 LEDドライバ44は、白色光光源41あるいは特殊光光源42に対して光源制御部43の制御のもとで電流を供給することにより、白色光光源41または特殊光光源42に励起光を発生させる。白色光光源41または特殊光光源42が発生した光は、ライトガイド241を経由して先端部24の先端から外部へ照射される。
 表示装置5は、映像ケーブルを介して制御装置3が生成した体内画像を制御装置3から受信して表示する機能を有する。表示装置5は、液晶、有機EL(Electro Luminescence)等の表示ディスプレイを有する。
 以上のように構成された内視鏡システム1において被検体の蛍光観察を行う際の処理について説明する。図4は、内視鏡システム1が実行する処理の概要を示すフローチャートである。なお、以下においては、被検体は、施術者によって生体内に蛍光マーカを含む蛍光薬剤が処置具によって既に施されているものとする。
 図4に示すように、光源制御部43は、制御部309の制御のもと、LEDドライバ44を駆動して白色光光源41に可視光を照射させる(ステップS101)。
 続いて、撮像制御部244eは、制御部309の制御のもと、所定のタイミングで読み出し部244gを駆動して受光部244fが受光した可視反射光の画像信号を制御装置3に出力する(ステップS102)。
 その後、明るさ検出部303は、サンプル用メモリ302gから可視光の画像信号を取得して受光部244fの各画像の照度を算出し(ステップS103)、各画素における輝度信号を生成する(ステップS104)。
 続いて、増幅部309aは、明るさ検出部303が生成した輝度信号に基づいて、受光部244fの各画素から出力される可視光(通常光)の画像信号の増幅率を、撮像制御部244eを介してAFE部244bのAGC部244iに設定する(ステップS105)。
 その後、制御部309は、画像処理部302に白色光の画像信号を生成して表示装置5に出力する(ステップS106)。具体的には、制御部309は、内視鏡システム1に白色光による通常観察モードが設定されている場合、画像処理部302に白色光画像信号を表示装置5に出力させる。これにより、施術者は、表示装置5で表示される画像を確認することにより、被検体の通常観察を行うことができる。さらに、制御部309は、画像処理部302に白色光画像信号を記憶部308に記憶させてもよい。
 続いて、増幅部309aは、可視光の増幅率に応じて、受光部244fの各画像から出力される蛍光の画像信号の増幅率を、撮像制御部244eを介してAFE部244bのAGC部244iに設定する(ステップS107)。
 その後、光源制御部43は、制御部309の制御のもと、LEDドライバ44を駆動して特殊光光源42に励起光を照射させる(ステップS108)。
 続いて、撮像制御部244eは、制御部309の制御のもと、所定のタイミングで読み出し部244gを駆動して受光部244fが受光した蛍光の蛍光画像信号を制御装置3に出力する(ステップS109)。
 その後、制御部309は、画像処理部302に蛍光画像信号を生成して表示装置5に出力させる(ステップS110)。これにより、施術者は、表示装置5で表示される蛍光画像を確認することにより、被検体内の蛍光観察を行うことができる。
 続いて、制御部309は、入力部307から被検体の観察を終了する指示信号が入力されたか否かを判断する(ステップS111)。指示信号が入力されたと制御部309が判断した場合(ステップS111:Yes)、内視鏡システム1は、本処理を終了する。これに対して、入力部307を介して指示信号が入力されていないと制御部309が判断した場合(ステップS111:No)、内視鏡システム1は、ステップS101へ戻る。
 以上説明した本実施の形態1によれば、増幅部309aが明るさ検出部303によって生成された白色光の照明光で撮像素子244が生成した画像信号の輝度信号に応じた受光部244fの各画像の増幅率に基づいて、各画素の蛍光の増幅率を設定する。これにより、配光または臓器の吸光特性の影響による蛍光強度の変化を低減することができ、鮮明な被検体の蛍光画像を表示装置5に表示させることができる。
 また、本実施の形態1によれば、可視光を照射し、生体組織で反射した反射光が弱い領域(暗い領域あるいは出血領域)は、先端部24までの距離が遠い、または配光が悪いことで照明光が届いていない領域(場所)と考えられるので、同様に、励起光もその領域に対して十分届いていない領域(場所)と考えられる。このため、上述したように、増幅部309aが明るさ検出部303によって生成された白色光の照明光で撮像素子244が生成した画像信号の輝度信号に応じた受光部244fの各画像の増幅率に基づいて、各画素の蛍光の増幅率を設定する。この結果、蛍光の薬剤集積領域を見落とすことなく、蛍光画像の観察を適切に行うことができる。
 さらに、本実施の形態1によれば、同一の集積度の薬剤を観察した場合であっても、先端部24から生体組織までの距離から生じる励起光の強度と取得する蛍光の強度との差および薬剤集積領域の周辺組織の光学特性の差が生じた場合であって、増幅部309aが周辺臓器の反射光の増幅率と蛍光の増幅率との比を一定になるように各画素の撮影感度を最適化しているので、蛍光画像の観察を適切に行うことができる。なお、増幅部309aは、比でなく、反射光の増幅率に一定の係数を乗じてもよい。
 また、本実施の形態1では、増幅部309aが白色光(可視光)の増幅率に応じて、蛍光の増幅率を設定していたが、たとえば蛍光が赤外(IR)の場合、画像信号に含まれる赤(R)の画像信号の輝度信号を用いて増幅率を設定し、この増幅率に応じて蛍光の増幅率を設定してもよい。これにより、制御部309の処理内容を低減することができ、内視鏡2が撮像するフレームレートを高速化することができる。
(実施の形態2)
 つぎに、本発明の実施の形態2について説明する。本実施の形態2にかかる内視鏡システムは、制御装置の制御部の構成が異なるとともに、内視鏡システムが実行する処理のみが異なる。具体的には、上述した実施の形態では、蛍光観察時に各画像の増幅率を設定していたが、本実施の形態2では、受光部の領域を複数の領域に分割し、この分割した分割領域ごとに蛍光観察時の増幅率を設定する。このため、以下においては、本実施の形態2にかかる内視鏡システムの制御部の構成を説明後、内視鏡システムが実行する処理について説明する。なお、同一の構成には同一の符号を付して説明する。
 図5は、本実施の形態2にかかる内視鏡システム100の要部の機能構成を示すブロック図である。図5に示すように、内視鏡システム100の制御装置3は、制御部101をさらに備える。
 制御部101は、CPU等を用いて構成され、先端部24および光源装置4を含む各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。制御部101は、撮像制御のための設定データを、集合ケーブル246に含まれる所定の信号線を介して撮像制御部244eへ送信する。制御部101は、増幅部309aと、分割領域設定部101aと、を有する。
 分割領域設定部101aは、センサ部244aの撮像面を所定の領域ごとに分割して複数の分割領域を設定する。具体的には、分割領域設定部101aは、読出アドレス設定部305を介してセンサ部244aの撮像面を分割して複数の分割領域を設定する。この複数の分割領域は、後述する増幅部309aが蛍光観察時に各分割領域で増幅率を設定する際に使用される。
 以上の構成を有する内視鏡システム100が実行する処理について説明する。図6は、本実施の形態2にかかる内視鏡システム100が実行する処理の概要を示すフローチャートである。
 図6に示すように、分割領域設定部101aは、撮像制御部244eを介して読み出し部244gが受光部244fから画像信号を読み出す領域を分割して分割領域を設定する(ステップS201)。たとえば、図7(a)に示すように、分割領域設定部101aは、センサ部244aの受光面を4分割にして分割領域A1~A4を設定する。
 ステップS202およびステップS203は、上述した図4のステップS101およびステップS102にそれぞれ対応する。
 続いて、明るさ検出部303は、サンプル用メモリ302gから可視光の画像信号を取得して受光部244fの分割領域ごとの照度を算出し(ステップS204)、各分割領域の輝度信号を生成する(ステップS205)。具体的には、図7(a)に示すように、明るさ検出部303は、分割領域設定部101aが設定した各分割領域A1~A4の照度を算出し、各分割領域A1~A4の輝度信号を生成する。
 その後、増幅部309aは、明るさ検出部303が検出した各分割領域の輝度信号に基づいて、受光部244fの各分割領域から出力される画像信号の可視光の増幅率を、撮像制御部244eを介してAFE部244bのAGC部244iに設定する(ステップS206)。
 続いて、制御部309は、画像処理部302に白色光の画像信号を生成させて表示装置5に出力させる(ステップS207)。
 その後、分割領域設定部101aは、可視光の各分割領域を分割した小分割領域を設定する(ステップS208)。たとえば、図7(b)に示すように、分割領域設定部101aは、可視光の分割領域A1をさらに分割した励起光の小分割領域A11~A14を設定する。
 続いて、増幅部309aは、可視光の各分割領域の増幅率に応じて、各小分割領域の蛍光の増幅率を設定する(ステップS209)。具体的には、増幅部309aは、分割領域A1の増幅率に応じて、小分割領域A11~A14の蛍光の増幅率を設定する。この場合、増幅部309aは、分割領域A1内の各画素の輝度信号の平均値に基づいて、小分割領域A11~A14の蛍光の増幅率を設定する。これにより、分割領域A1~A4で内視鏡2から被検体の体内の表面までの距離または臓器の光学特性による可視光の反射光の平均値で、小分割領域A11~A14,A21~A24,A31~A34,A41~A44で蛍光との輝度比を一定にするためのゲインを調整することができる。
 ステップS210~ステップS213は、図4のステップS108~ステップS111にそれぞれ対応する。
 以上説明した本実施の形態2によれば、増幅部309aが分割領域設定部101aによって設定された各分割領域に対して励起光の照明下で撮像素子244が生成する画像信号の増幅率を設定する。これにより、分割領域で内視鏡2から被検体の体内の表面までの距離または臓器の光学特性による可視光の反射光の平均値を設定し、分割領域で蛍光との輝度比を一定にするためのゲインを調整することができる。
 また、本実施の形態2によれば、分割領域設定部101aがセンサ部244aの撮像面の分割領域をさらに分割して小分割領域を設定し、増幅部309aが各小分割領域に対応する蛍光の画像信号の増幅率を設定しているので、よりきめ細かに蛍光のゲインを調整することができる。これにより、撮像範囲内で先端部24と生体組織との距離が異なっても、撮像素子244の撮像面でムラなく適切に増幅することができ、滑らかな蛍光画像を撮像することができる。
 さらに、本実施の形態2によれば、像の配光分布または吸収分布がある被写体に対しても、充分なダイナミックレンズまたはコントラストで可視光(白色光)の画像に、励起光を照射し発光した蛍光画像を重畳させた画像を得ることができる。
 なお、本実施の形態2では、増幅部309aが可視光の増幅率に応じて各分割領域に対応する蛍光の画像信号の増幅率を設定したが、蛍光が所定以上ある分割領域に対して必要以上の増幅率を設定させなくてもよい。これにより、患部の蛍光の周辺を見やすくするとともに、増幅によって生じるノイズを低減することができる。
 また、本実施の形態2では、AGC部244iのゲインを調整することにより、蛍光観察時における画像信号の増幅率を設定しているが、たとえばセンサ部244aの各画素のリセットを行わず、多重読み出しにより感度や増幅率を調整してもよい。
 また、本実施の形態2では、分割領域設定部101aがセンサ部244aの撮像面を4分割にして設定していたが、分割する数は、適宜設定することができる。たとえば、分割領域設定部101aは、センサ部244aの撮像面の大きさ、被検体の臓器や部位に応じて所定の領域、たとえば9分割にして分割領域を設定してもよい。さらに、分割領域設定部101aは、同様に分割領域を分割する数を適宜設定することも可能である。
(実施の形態3)
 つぎに、本発明の実施の形態3について説明する。本実施の形態3にかかる内視鏡システムは、制御装置の制御部の構成が異なるとともに、内視鏡システムが実行する処理のみが異なる。具体的には、本実施の形態3では、蛍光が検出された領域の画素のみに露光させ、それ以外の領域の画素に対して可視光を低ゲインで露光させる。このため、以下においては、本実施の形態3にかかる内視鏡システムの制御部の構成を説明後、内視鏡システムが実行する処理について説明する。なお、同一の構成には同一の符号を付して説明する。
 図8は、本実施の形態3にかかる内視鏡システム110の要部の機能構成を示すブロック図である。図8に示すように、内視鏡システム110の制御装置3は、制御部111を有する。
 制御部111は、CPU等を用いて構成され、先端部24および光源装置4を含む各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。制御部111は、撮像制御のための設定データを、集合ケーブル246に含まれる所定の信号線を介して撮像制御部244eへ送信する。制御部111は、増幅部309aと、分割領域設定部101aと、蛍光判定部111aと、を有する。
 蛍光判定部111aは、撮像素子244が生成した画像信号に対応する画像内において蛍光を発する蛍光領域の有無を判定する。具体的には、蛍光判定部111aは、蛍光観察時に撮像素子244が生成した画像内に輝度が一定のレベルを含む領域の有無を判定する。なお、蛍光判定部111aは、画像内において蛍光を発する蛍光領域に対応する画素のアドレスを判定してもよい。
 以上の構成を有する内視鏡システム110が実行する処理について説明する。図9は、本実施の形態3にかかる内視鏡システム110が実行する処理の概要を示すフローチャートである。
 図9に示すように、ステップS301~ステップS308は、図6のステップS201~ステップS207およびステップS209にそれぞれ対応する。また、ステップS309~ステップS311は、図4のステップS108~ステップS110にそれぞれ対応する。
 ステップS311の後、蛍光判定部111aは、蛍光画像信号に対応する蛍光画像内に蛍光が検出された分割領域があるか否かを判定する(ステップS312)。具体的には、蛍光判定部111aは、蛍光画像内で輝度が一定のレベルを有する分割領域が検出されたか否かを検出する。蛍光画像信号に対応する蛍光画像内に蛍光が検出された分割領域があると蛍光判定部111aが判定した場合(ステップS312:Yes)、内視鏡システム1は、後述するステップS313へ移行する。これに対して、蛍光画像信号に対応する蛍光画像内に蛍光が検出された分割領域がないと蛍光判定部111aが判定した場合(ステップS312:No)、内視鏡システム1は、後述するステップS317へ移行する。
 ステップS313において、分割領域設定部101aは、蛍光が検出された分割領域を所定の領域ごとに分割した小分割領域を設定する。具体的には、図10に示すように、分割領域設定部101aは、蛍光S1が検出された分割領域A3を所定の領域ごとに分割して小分割領域A31~A34を設定する(図10(a)→(図10(b))。続いて、分割領域設定部101aは、撮像制御部244eを介して受光部244fが露光する領域を設定する。具体的には、分割領域設定部101aは、撮像制御部244eを介して蛍光S1が検出された小分割領域に対応する領域を、受光部244fの画素が蛍光を受光して露光する領域として設定する。
 その後、光源制御部43は、制御部311の制御のもと、LEDドライバ44を駆動して特殊光光源42に励起光を照射させ(ステップS314)、増幅部309aは、分割領域設定部101aによって設定された小分割領域の画素のみに蛍光を受光させて露光を行う(ステップS315)。これにより、センサ部244aは、小分割領域の画素のみを露光すればよいので、長時間露光を行うことができ、蛍光の増幅率(感度)を上げることができる。この結果、内視鏡システム1は、受光部244fの必要な画素のみを長時間露光することで、受光部244fの全画素で長時間露光を行う場合に比して、設定されたフレームレートを落とすことなく、かつ、一連の撮像(露光)時間が延びることを防止することができ、連続的に蛍光画像信号を滑らかに出力することができる。
 続いて、画像処理部302は、先端部24の撮像素子244から出力された画像信号に対して所定の画像処理を施して蛍光画像信号を生成して表示装置5に出力する(ステップS316)。
 その後、制御部311は、内視鏡システム1に終了の指示信号が入力されたか否かを判断する(ステップS317)。終了の指示信号が入力されたと制御部311が判断した場合(ステップS317:Yes)、内視鏡システム1は、本処理を終了する。
 これに対して、終了の指示信号が入力されていないと制御部311が判断した場合(ステップS317:No)、内視鏡システム1は、ステップS302へ戻る。この場合、分割領域設定部101aは、図10に示すように、終了の指示信号等が入力されるまで、蛍光S1が検出された小分割領域を所定の分割にさらに分割して微小分割領域A321~A324を設定し(図10(b)→図10(c))、増幅部309aが蛍光を撮像する際の増幅率(感度)や長時間露光の設定を行ってもよい。
 以上説明した本実施の形態3によれば、増幅部309aが分割領域設定部101aによって設定された小分割領域の画素のみに蛍光を受光させて露光を行う。これにより、センサ部244aは、小分割領域の画素のみを露光すればよいので、長時間露光を行うことができ、蛍光の増幅率(感度)を上げることができる。この結果、内視鏡システム1は、受光部244fの必要な画素のみを長時間露光することで、受光部244fの全画素で長時間露光を行う場合に比して、設定されたフレームレートを落とすことなく、かつ、一連の撮像(露光)時間が延びることを防止することができ、連続的に蛍光画像信号を滑らかに出力することができる。
 また、本実施の形態3では、励起光を先に照射させて蛍光が検出された領域を所定の領域ごとに分割して分割領域を設定してもよい。すなわち、注目する領域のみ小さな領域で高感度の撮像を行うようにしてもよい。これにより、充分なダイナミックレンジまたはコントラストで蛍光画像を撮像することができる。
(実施の形態4)
 つぎに、本実施の形態4について説明する。本実施の形態4にかかる内視鏡システムは、上述した実施の形態と同様の構成を有し、内視鏡システムが実行する処理のみが異なる。具体的には、上述した実施の形態では、蛍光が観察された分割領域に含まれる各画素の増幅率を長時間露光させて蛍光を撮像する感度を上げていたが、本実施の形態4では、全体領域から蛍光が観察された領域に向けて増幅率を上げる領域を徐々に小さく領域を設定する。このため、以下においては、本実施の形態4にかかる内視鏡システムが実行する処理について説明する。なお、以下においては、蛍光が観察された領域を関心領域(以下、「ROI」という)として説明する。
 図11は、本実施の形態4にかかる内視鏡システム1が実行する処理のタイムチャートである。図11において、図11(a)が受光部244fから出力される領域のタイミングを示し、図11(b)が受光部244fの画素に対してリセットを指示するタイミングを示す。なお、図11において、横軸が時間を示す。
 図11に示すように、分割領域設定部101aは、蛍光判定部111aの判定結果に基づいて、撮像制御部244eを介して受光部244fの領域を全領域、ROI1、ROI2、ROI3およびROI4の順に読み出させて出力させる。具体的には、図12に示すように、分割領域設定部101aは、蛍光判定部111aの判定結果に基づいて、撮像制御部244eを介して画像内W1内で患部の蛍光S1が観察された領域が徐々に小さくなるように、受光部244fの領域を全領域R1、ROI1、ROI2、ROI3およびROI4の順で読み出させて出力させる。この際、各ROI領域に対応する画像は、画像中心の座標が同じで、徐々に領域が小さくなる(ROI1>ROI2>ROI3>ROI4)。これにより、各ROIの重畳部分は、最も露光回数が多くなるので、高感度になり、漸次感度が低下する画像となるので、周辺画像との違和感がなくなる。
 以上説明した本実施の形態4によれば、分割領域設定部101aが蛍光判定部111aの判定結果に基づいて、受光部244fの受光面を患部の蛍光S1が観察された領域に向けて増幅率を上げる領域を徐々に小さくして領域を設定するので、撮像素子244のフレームレートを落とさずに、自然な部分に感度を上げた滑らかな画像を得ることができる。
 また、本実施の形態4によれば、増幅部309aが蛍光を有する領域の境界の感度を傾斜的に設定するので、画像の違和感を低減することができる。
 さらに、本実施の形態4によれば、ROI領域以外に不必要な高輝度領域があったとしても、感度が飽和する領域を低減することができるとともに、明るさの自動制御による誤動作、たとえばブラックアウトを防止することができる。
(実施の形態5)
 つぎに、本実施の形態5について説明する。本実施の形態5にかかる内視鏡システムは、内視鏡の先端部に二つの撮像素子が設けられている。このため、以下においては、上述した実施の形態の内視鏡システムと異なる構成についてのみ説明する。なお、同一の構成には同一の符号を付して説明する。
 図13は、本実施の形態5にかかる内視鏡システムの先端部の先端面を示す図である。図14は、図13に示すA-A線で切断した切断面の一部を示す図である。図15は、図13に示すB-B線で切断した切断面の一部を示す図である。図16は、本実施の形態5にかかる内視鏡システムの要部の機能構成を示すブロック図である。
 図13~図16に示すように、内視鏡2の先端部6の先端面には、洗浄用ノズル61、観察窓62、観察窓63、照明レンズ242および処置具チャンネル245が設けられている。
 観察窓62および観察窓63は、閉塞されている。観察窓62を介して外部から入射した光は、複数のレンズ621a,621bによって構成される第1の光学系621Aに入射し、集光されてから、第1の受光部622Aに入射する。観察窓63を介して外部から入射した光は、複数のレンズ631c,631dによって構成される第2の光学系631Bに入射し、集光されてから、第2の受光部632Bに入射する。
 第1の受光部622Aは、2次元的にマトリックス状に配置された撮像用の複数の画素を有し、第1の光学系621Aから出射した光が入射するように配置される。第1の受光部622Aは、第1の光学系621Aを介して入射した光を受光して体腔内を撮像する。第1の受光部621Aの受光面側には、カバーガラス623Aが設けられている。カバーガラス623Aと第1の受光部622Aとの間には、第1の受光部622Aの画素の配列に対応してR赤(R),緑(G)あるいは青(B)のフィルタが配列するオンチップフィルタ624Aが設けられており、第1の受光部622Aは、カラー画像を撮像する。なお、オンチップフィルタ624Aは、シアン、マゼンタ、黄および緑のフィルタが配列する補色フィルタであってもよい。
 第2の受光部632Bは、2次元的にマトリックス状に配置された撮像用の複数の画素を有し、第2の光学系631Bから出射した光が入射するように配置される。第2の受光部632Bの受光面側には、所定波長帯の光のみを透過する分光フィルタ633と、カバーガラス634Bとが設けられており、第2の受光部632Bは、所定波長帯の蛍光に対応する蛍光観察用画像を、モノクロ画像として撮像する特性を有する。
 第1の受光部622Aおよび第2の受光部632Bは、第1の受光部622Aおよび第2の受光部632Bに撮像タイミングを指示するとともに電源供給を行うドライバ64や、第1の受光部622Aおよび第2の受光部632Bによる画像信号を読み出して電気信号に変換する変換回路65などとともに、回路基板66に実装される。第1の受光部622Aおよび第2の受光部632Bは、受光面が左右に並んで回路基板66に実装される。回路基板66には、電極67が設けられる。電極67は、たとえば異方性導電性樹脂フィルムを介して、制御装置3との間で電気信号を伝送する信号線68と接続する。第1の受光部622Aおよび第2の受光部632Bが出力した電気信号である画像信号を伝送する信号線67aのほか、制御装置3から制御信号を伝送する信号線を含む複数の信号線によって、集合ケーブルが形成される。
 同調部121は、第1の受光部622Aおよび第2の受光部632Bが交互に画像情報が読み出されるように、第1の受光部622Aおよび第2の受光部632Bの読み出し対象の画素を設定する。同調部121は、第1の受光部622Aおよび第2の受光部632Bにおける露光処理、ならびに、タイミングジェネレータ244dおよびAFE部244bによる第1の受光部622Aおよび第2の受光部632Bに対する画素情報の読み出し処理のタイミングを相関付けて制御する。そして、第1の受光部622Aおよび第2の受光部632Bから読み出された画素情報は、同一の伝送路によって伝送される。
 このように構成された内視鏡システム120は、明るさ検出部303が第1の受光部622Aで撮像された画像信号に基づいて輝度信号を生成し、増幅部309aが明るさ検出部303によって生成された輝度信号に応じた増幅率に基づいて、励起光の照明下で第2の受光部632Bが生成する画像信号の増幅率を設定する。これにより、内視鏡システム120は、通常光(可視光)の撮像を行いながら、励起光の撮像の感度をほぼ同時に調整することができる。
 1,100,110,120 内視鏡システム
 2 内視鏡
 3 制御装置
 4 光源装置
 5 表示装置
 6,24 先端部
 21 挿入部
 22 操作部
 23 ユニバーサルコード
 25 湾曲部
 26 可撓管部
 41 白色光光源
 42 特殊光光源
 43 光源制御部
 44 LEDドライバ
 101,111,309 制御部
 101a 分割領域設定部
 111a 蛍光判定部
 121 同調部
 221 湾曲ノブ
 222 処置具挿入部
 223 スイッチ
 241 ライトガイド
 242 照明レンズ
 243 光学系
 244 撮像素子
 244a センサ部
 244b アナログフロントエンド
 244c P/S変換部
 244d タイミングジェネレータ
 244e 撮像制御部
 244f 受光部
 244g 読み出し部
 244h ノイズ低減部
 244i AGC部
 244j A/D部
 245 処置具チャンネル
 302 画像処理部
 304 調光部
 305 読出アドレス設定部
 306 駆動信号生成部
 307 入力部
 308 記憶部
 309a 増幅部
 310 基準クロック生成部

Claims (7)

  1.  被検体に導入された蛍光物質を励起するための励起光を該被検体に向けて出射する励起光出射部と、
     前記励起光と異なる可視帯域を含む通常光を前記被検体に向けて出射する通常光出射部と、
     前記励起光または前記通常光で照明された前記被検体の光学像を撮像面上で結像して画像信号を生成する撮像部と、
     前記通常光の照明下で前記撮像部が生成した前記画像信号に基づいて、明るさを示す輝度信号を生成する輝度信号生成部と、
     前記輝度信号生成部が生成した前記輝度信号に応じた前記画像信号の増幅率に基づいて、前記励起光の照明下で前記撮像部が生成する前記画像信号の増幅率を設定する増幅部と、
     を備えたことを特徴とする撮像装置。
  2.  前記撮像面を分割して複数の分割領域を設定する分割領域設定部をさらに備え、
     前記輝度信号生成部は、前記分割領域設定部が設定した前記複数の分割領域それぞれの前記輝度信号を生成し、
     前記増幅部は、前記輝度信号の各々に応じた増幅率に基づいて、前記励起光の照明下における前記分割領域に対応する前記画像信号の増幅率を設定することを特徴とする請求項1に記載の撮像装置。
  3.  前記分割領域設定部は、前記分割領域を分割して複数の小分割領域を設定し、
     前記増幅部は、前記輝度信号の各々に応じた増幅率に基づいて、前記励起光の照明下における前記小分割領域に対応する前記画像信号の増幅率を設定することを特徴とする請求項2に記載の撮像装置。
  4.  前記励起光の照明下で生成された前記画像信号に対応する蛍光画像内において蛍光を発する蛍光領域の有無を判定する蛍光判定部をさらに備え、
     前記分割領域設定部は、前記蛍光判定部が前記蛍光画像内において前記蛍光領域があると判定した場合、前記蛍光領域が含まれる前記分割領域を分割して複数の小分割領域を設定し、
     前記増幅部は、前記輝度信号の各々に応じた増幅率に基づいて、前記励起光の照明下における前記小分割領域に対応する前記画像信号の増幅率を設定することを特徴とする請求項2に記載の撮像装置。
  5.  前記励起光の照明下で生成された前記画像信号に対応する蛍光画像内において蛍光を発する蛍光領域の有無を判定する蛍光判定部をさらに備え、
     前記分割領域設定部は、前記蛍光判定部が前記蛍光画像内において前記蛍光領域があると判定した場合、前記蛍光領域が含まれる前記分割領域を時間の経過とともに小さく設定することを特徴とする請求項2に記載の撮像装置。
  6.  前記増幅部は、ゲインに基づいて、前記画像信号の増幅率を設定することを特徴とする請求項1に記載の撮像装置。
  7.  前記増幅部は、露光時間に基づいて、前記画像信号の増幅率を設定することを特徴とする請求項1に記載の撮像装置。
PCT/JP2014/059473 2013-08-01 2014-03-31 撮像装置 WO2015015839A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP14833079.8A EP3028622A4 (en) 2013-08-01 2014-03-31 Imaging device
CN201480002352.9A CN104619236B (zh) 2013-08-01 2014-03-31 摄像装置
JP2014544276A JP5669997B1 (ja) 2013-08-01 2014-03-31 撮像装置
US14/641,603 US9414739B2 (en) 2013-08-01 2015-03-09 Imaging apparatus for controlling fluorescence imaging in divided imaging surface

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-160659 2013-08-01
JP2013160659 2013-08-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/641,603 Continuation US9414739B2 (en) 2013-08-01 2015-03-09 Imaging apparatus for controlling fluorescence imaging in divided imaging surface

Publications (1)

Publication Number Publication Date
WO2015015839A1 true WO2015015839A1 (ja) 2015-02-05

Family

ID=52431389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/059473 WO2015015839A1 (ja) 2013-08-01 2014-03-31 撮像装置

Country Status (5)

Country Link
US (1) US9414739B2 (ja)
EP (1) EP3028622A4 (ja)
JP (1) JP5669997B1 (ja)
CN (1) CN104619236B (ja)
WO (1) WO2015015839A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105595947A (zh) * 2016-02-01 2016-05-25 清华大学 荧光内窥成像装置和方法
WO2017073302A1 (ja) * 2015-10-27 2017-05-04 オリンパス株式会社 撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法
US10771924B2 (en) 2016-12-22 2020-09-08 Telecom Italia S.P.A. Method and system for counting people at a transport hub by means of data of a telecommunication network

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109310285B (zh) * 2016-09-01 2021-05-28 Hoya株式会社 电子镜及电子内窥镜系统
JP6750876B2 (ja) * 2016-10-07 2020-09-02 キヤノン株式会社 固体撮像装置及びその駆動方法
DE112018001670T5 (de) * 2017-03-30 2019-12-19 Hoya Corporation Elektronische endoskopvorrichtung
US10805553B2 (en) * 2017-04-14 2020-10-13 Canon Kabushiki Kaisha Imaging apparatus and imaging method
CN108478174B (zh) * 2018-03-20 2023-07-25 广东欧谱曼迪科技有限公司 基于曝光反馈的双相机系统及其术中荧光导航调整方法
US20210290037A1 (en) * 2020-03-17 2021-09-23 Sony Olympus Medical Solutions Inc. Medical image processing apparatus and medical observation system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006061435A (ja) 2004-08-27 2006-03-09 Pentax Corp 電子内視鏡装置
JP2009095525A (ja) * 2007-10-18 2009-05-07 Hoya Corp 内視鏡装置の電子内視鏡
JP2009095566A (ja) * 2007-10-18 2009-05-07 Olympus Medical Systems Corp 内視鏡装置
JP2009279172A (ja) * 2008-05-22 2009-12-03 Fujinon Corp 蛍光画像取得方法および蛍光画像取得装置
JP2011250925A (ja) * 2010-06-01 2011-12-15 Fujifilm Corp 電子内視鏡システム
JP5200200B2 (ja) * 2011-06-14 2013-05-15 オリンパスメディカルシステムズ株式会社 医療機器
JP5245022B1 (ja) * 2011-08-15 2013-07-24 オリンパスメディカルシステムズ株式会社 撮像装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5589879A (en) * 1993-03-26 1996-12-31 Fuji Photo Film Co., Ltd. Performing white balance correction on integrated divided areas of which average color is substantially white
US7179222B2 (en) * 1996-11-20 2007-02-20 Olympus Corporation Fluorescent endoscope system enabling simultaneous achievement of normal light observation based on reflected light and fluorescence observation based on light with wavelengths in infrared spectrum
DE60031349T2 (de) * 1999-11-18 2007-05-24 Fuji Photo Film Co., Ltd., Minami-Ashigara Verfahren und Vorrichtung zur Erzeugung von Fluoreszenzbildern
WO2002007587A2 (en) * 2000-07-14 2002-01-31 Xillix Technologies Corporation Compact fluorescent endoscopy video system
JP2005142680A (ja) * 2003-11-04 2005-06-02 Olympus Corp 画像処理装置
JP4575720B2 (ja) * 2004-07-23 2010-11-04 Hoya株式会社 電子内視鏡システム
US7855727B2 (en) * 2004-09-15 2010-12-21 Gyrus Acmi, Inc. Endoscopy device supporting multiple input devices
KR100927286B1 (ko) * 2005-06-08 2009-11-18 올림푸스 메디칼 시스템즈 가부시키가이샤 내시경 장치 및 화상 처리 장치
JP4761899B2 (ja) * 2005-09-12 2011-08-31 Hoya株式会社 電子内視鏡システム
JP4745790B2 (ja) * 2005-10-21 2011-08-10 Hoya株式会社 電子内視鏡装置
JP5855358B2 (ja) * 2011-05-27 2016-02-09 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP5926909B2 (ja) * 2011-09-07 2016-05-25 オリンパス株式会社 蛍光観察装置
CN103732119B (zh) * 2011-12-27 2016-08-24 奥林巴斯株式会社 摄像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006061435A (ja) 2004-08-27 2006-03-09 Pentax Corp 電子内視鏡装置
JP2009095525A (ja) * 2007-10-18 2009-05-07 Hoya Corp 内視鏡装置の電子内視鏡
JP2009095566A (ja) * 2007-10-18 2009-05-07 Olympus Medical Systems Corp 内視鏡装置
JP2009279172A (ja) * 2008-05-22 2009-12-03 Fujinon Corp 蛍光画像取得方法および蛍光画像取得装置
JP2011250925A (ja) * 2010-06-01 2011-12-15 Fujifilm Corp 電子内視鏡システム
JP5200200B2 (ja) * 2011-06-14 2013-05-15 オリンパスメディカルシステムズ株式会社 医療機器
JP5245022B1 (ja) * 2011-08-15 2013-07-24 オリンパスメディカルシステムズ株式会社 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3028622A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073302A1 (ja) * 2015-10-27 2017-05-04 オリンパス株式会社 撮像システムのための制御装置、撮像システム、及び撮像システムの制御方法
JP6203452B1 (ja) * 2015-10-27 2017-09-27 オリンパス株式会社 撮像システム
US11051683B2 (en) 2015-10-27 2021-07-06 Olympus Corporation Control device for imaging system, imaging system, and method for controlling imaging system
CN105595947A (zh) * 2016-02-01 2016-05-25 清华大学 荧光内窥成像装置和方法
US10771924B2 (en) 2016-12-22 2020-09-08 Telecom Italia S.P.A. Method and system for counting people at a transport hub by means of data of a telecommunication network

Also Published As

Publication number Publication date
JP5669997B1 (ja) 2015-02-18
EP3028622A4 (en) 2017-03-22
EP3028622A1 (en) 2016-06-08
US9414739B2 (en) 2016-08-16
JPWO2015015839A1 (ja) 2017-03-02
US20150173595A1 (en) 2015-06-25
CN104619236B (zh) 2016-11-23
CN104619236A (zh) 2015-05-13

Similar Documents

Publication Publication Date Title
JP5669997B1 (ja) 撮像装置
JP5259882B2 (ja) 撮像装置
JP5274720B2 (ja) 撮像装置
JP5769892B2 (ja) 内視鏡
JP5467182B1 (ja) 撮像システム
WO2013128764A1 (ja) 医療システム
JP5539840B2 (ja) 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び電子内視鏡システムの作動方法
JP6100674B2 (ja) 内視鏡用光源装置及び内視鏡システム
JP5554288B2 (ja) 内視鏡システム、プロセッサ装置及び画像補正方法
JP5810016B2 (ja) 内視鏡システム
JP2012081048A (ja) 電子内視鏡システム、電子内視鏡、及び励起光照射方法
JP6325707B2 (ja) 内視鏡用光源装置及び内視鏡システム
JP5525991B2 (ja) 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び電子内視鏡システムの作動方法
JP6396717B2 (ja) 感度調整方法および撮像装置
JP5815162B2 (ja) 撮像装置
JP7235540B2 (ja) 医療用画像処理装置及び医療用観察システム
JP2014183908A (ja) 撮像システム
JP2008252906A (ja) 内視鏡装置
WO2022208629A1 (ja) 蛍光観察装置、光免疫治療システムおよび蛍光内視鏡
JP5467972B2 (ja) 電子内視鏡システム、電子内視鏡システムのプロセッサ装置及び電子内視鏡システムの作動方法
JP2013252356A (ja) 蛍光分光観察装置及び画像処理方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014544276

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14833079

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2014833079

Country of ref document: EP