WO2016088269A1 - 撮像装置、内視鏡およびカプセル型内視鏡 - Google Patents

撮像装置、内視鏡およびカプセル型内視鏡 Download PDF

Info

Publication number
WO2016088269A1
WO2016088269A1 PCT/JP2014/082316 JP2014082316W WO2016088269A1 WO 2016088269 A1 WO2016088269 A1 WO 2016088269A1 JP 2014082316 W JP2014082316 W JP 2014082316W WO 2016088269 A1 WO2016088269 A1 WO 2016088269A1
Authority
WO
WIPO (PCT)
Prior art keywords
filter
light
band
imaging
image
Prior art date
Application number
PCT/JP2014/082316
Other languages
English (en)
French (fr)
Inventor
井岡 健
和徳 吉崎
直 菊地
小宮 康宏
福永 康弘
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2014/082316 priority Critical patent/WO2016088269A1/ja
Priority to JP2016562185A priority patent/JP6392891B2/ja
Publication of WO2016088269A1 publication Critical patent/WO2016088269A1/ja
Priority to US15/607,485 priority patent/US20170258304A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/051Details of CCD assembly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/02Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with scanning movement of lens or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • G03B35/06Stereoscopic photography by sequential recording with axial movement of lens or gate between exposures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/02Control effected by setting a graduated member on the camera in accordance with indication or reading afforded by a light meter, which may be either separate from or built into camera body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values

Definitions

  • the present invention relates to an imaging device, an endoscope, and a capsule endoscope that are introduced into a subject and images a body cavity of the subject.
  • a filter unit in which a plurality of wideband filters having a broadband wavelength transmission characteristic in the visible region and a plurality of narrowband filters having a narrow band wavelength transmission characteristic are arranged in a lattice shape is used as an imaging element.
  • a technique is known that simultaneously obtains a narrow-band image in a blue band and a normal-color wide-band image capable of clearly observing a tissue at a deep position from the surface of a living tissue (see Patent Document 1). ).
  • Patent Document 1 described above since the wavelength transmission characteristics of the wideband filter and the wavelength transmission characteristics of the narrowband filter are significantly different, the wideband pixel covered with the wideband filter and the narrowband pixel covered with the narrowband filter A big difference in sensitivity is born. For this reason, in Patent Document 1 described above, when a narrowband image and a wideband image are acquired simultaneously, there is a problem that the image quality of the narrowband image is deteriorated as compared with the image quality of the wideband image.
  • An object of the present invention is to provide an imaging device, an endoscope, and a capsule endoscope that can simultaneously acquire a narrowband image and a broadband image.
  • an imaging apparatus is arranged in two dimensions, receives light from the outside, and generates and outputs an imaging signal corresponding to the amount of received light.
  • a light receiving unit having pixels, a plurality of first band filters that transmit light in a primary or complementary wavelength band, and at least one second band that transmits light in a band narrower than each of the plurality of first band filters
  • a filter unit including a filter unit and a plurality of pixels corresponding to the plurality of pixels, and a light amount larger than a light amount incident on a pixel corresponding to the first band filter corresponds to the second band filter.
  • an output unit that outputs the imaging signal generated by the light receiving unit after entering the pixel.
  • the image pickup element reads out the first image pickup signal from the pixel corresponding to the first band pass filter, and then reads from the pixel corresponding to the second band pass filter.
  • An imaging control unit that reads out the second imaging signal is further provided, and the output unit outputs the first imaging signal and the second imaging signal as the imaging signal.
  • the imaging control unit makes the exposure time of the pixel corresponding to the second band filter longer than the exposure time of the pixel corresponding to the first band filter.
  • the first imaging signal and the second imaging signal are read out.
  • the imaging element has a light amount incident on a pixel corresponding to the first band filter smaller than a light amount incident on a pixel corresponding to the second band filter.
  • the plurality of pixels each receive light transmitted through the optical member and the color filter to generate the imaging signal.
  • the optical member is an optical filter that transmits at least the narrowband light, and the optical filter is interposed between the color filter and the plurality of pixels. It is arranged.
  • the optical member may be a first microlens that focuses light on a pixel corresponding to the first bandpass filter, and a pixel corresponding to the second bandpass filter. And a viewing angle of the second microlens is larger than a viewing angle of the first microlens.
  • the optical member is disposed between the first band-pass filter and a pixel corresponding to the first band-pass filter, and is formed with a predetermined size.
  • a first light-shielding film having one opening, and a second opening formed between the second band-pass filter and a pixel corresponding to the second band-pass filter and having an opening larger than the first opening.
  • a second light-shielding film is disposed between the first band-pass filter and a pixel corresponding to the first band-pass filter, and is formed with a predetermined size.
  • an endoscope according to the present invention is characterized in that the imaging device described above is provided on the distal end side of the insertion portion.
  • a capsule endoscope according to the present invention includes a capsule-type casing that can be introduced into a subject, and the imaging device provided in the casing.
  • the present invention it is possible to acquire a high-quality narrow-band image even when a narrow-band image and a wide-band image are simultaneously captured.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a capsule endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing a functional configuration of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 3 is a diagram schematically showing the configuration of the color filter according to Embodiment 1 of the present invention.
  • FIG. 4 is a flowchart showing an outline of processing executed by the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 5 is a cross-sectional view schematically showing the configuration of the image sensor according to Embodiment 2 of the present invention.
  • FIG. 6 is a cross-sectional view schematically showing the configuration of an image sensor according to a modification of the second embodiment of the present invention.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a capsule endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing a functional configuration of the capsule endoscope according
  • FIG. 7 is a block diagram showing a functional configuration of the capsule endoscope according to the third embodiment of the present invention.
  • FIG. 8 is a diagram showing the relationship between the transmittance and wavelength of each filter constituting the color filter according to Embodiment 3 of the present invention.
  • FIG. 9 is a diagram showing the relationship between the transmittance and wavelength of the optical filter according to Embodiment 3 of the present invention.
  • FIG. 10 is a diagram showing the relationship between the transmittance and wavelength of the combined color filter and optical filter according to Embodiment 3 of the present invention.
  • FIG. 11 is a schematic diagram of an optical filter according to a modification of the third embodiment of the present invention.
  • FIG. 12 is a diagram schematically showing the arrangement of optical filters according to a modification of the third embodiment of the present invention.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a capsule endoscope system according to Embodiment 1 of the present invention.
  • a capsule endoscope system 1 shown in FIG. 1 includes a capsule endoscope 2 that captures an in-vivo image in a subject 100 and a wireless transmission transmitted from the capsule endoscope 2 that is introduced into the subject 100.
  • a receiving antenna unit 3 that receives a signal
  • a receiving antenna unit 3 that is detachably connected
  • a reception device 4 that records or displays a radio signal received by the receiving antenna unit 3 by performing a predetermined process
  • a capsule-type endoscope An image processing device 5 that processes and / or displays an image corresponding to the image data in the subject 100 imaged by the mirror 2.
  • the capsule endoscope 2 has an imaging function for imaging the inside of the subject 100, and a wireless communication function for transmitting in-vivo information including image data obtained by imaging the inside of the subject 100 to the receiving antenna unit 3.
  • the capsule endoscope 2 passes through the esophagus in the subject 100 by being swallowed into the subject 100, and moves in the body cavity of the subject 100 by the peristaltic movement of the digestive tract cavity.
  • the capsule endoscope 2 sequentially images the inside of the body cavity of the subject 100 at a minute time interval, for example, 0.5 second interval (2 fps) while moving in the body cavity of the subject 100, and the captured inside of the subject 100 Are sequentially transmitted to the receiving antenna unit 3.
  • a minute time interval for example, 0.5 second interval (2 fps
  • the receiving antenna unit 3 includes receiving antennas 3a to 3h.
  • the receiving antennas 3a to 3h receive radio signals from the capsule endoscope 2 and transmit them to the receiving device 4.
  • the receiving antennas 3a to 3h are configured using loop antennas, and are located at predetermined positions on the external surface of the subject 100, for example, positions corresponding to the respective organs in the subject 100 that are passage paths of the capsule endoscope 2. Be placed.
  • the receiving device 4 records the image data in the subject 100 included in the radio signal transmitted from the capsule endoscope 2 via the receiving antennas 3a to 3h, or records an image corresponding to the image data in the subject 100. indicate.
  • the receiving device 4 records position information of the capsule endoscope 2, time information indicating time, and the like in association with image data received via the receiving antennas 3a to 3h. While the inspection by the capsule endoscope 2 is being performed, the receiving device 4 is introduced from, for example, the mouth of the subject 100, passes through the digestive tract, and is discharged from the subject 100. It is stored in a holder (not shown) and carried by the subject 100.
  • the receiving device 4 is detached from the subject 100 after the examination by the capsule endoscope 2 and is connected to the image processing device 5 for transferring image data received from the capsule endoscope 2.
  • the image processing device 5 displays an image corresponding to the image data in the subject 100 acquired via the receiving device 4.
  • the image processing device 5 includes a cradle 51 that reads image data and the like from the receiving device 4 and an operation input device 52 such as a keyboard and a mouse.
  • the cradle 51 acquires related information such as image data, position information associated with the image data, time information, and identification information of the capsule endoscope 2 from the receiving device 4. Then, the acquired various information is transferred to the image processing device 5.
  • the operation input device 52 receives input from the user.
  • the user While operating the operation input device 52, the user observes a living body part inside the subject 100, for example, the esophagus, stomach, small intestine, large intestine, and the like while viewing images in the subject 100 sequentially displayed by the image processing apparatus 5.
  • the subject 100 is diagnosed.
  • FIG. 2 is a block diagram showing a functional configuration of the capsule endoscope 2.
  • a capsule endoscope 2 shown in FIG. 2 includes a housing 20, a power supply unit 21, an optical system 22, an image sensor 23, an illumination unit 24, a signal processing unit 25, a transmission unit 26, and a recording unit. 27, a timer 28, a receiving unit 29, and a control unit 30.
  • the housing 20 has a capsule shape formed so as to be easily inserted into the subject 100.
  • the housing 20 includes a cylindrical tube portion 201, a dome-shaped dome portion 202 and a dome portion 203 that respectively close the opening ends on both sides of the tube portion 201.
  • the cylinder part 201 and the dome part 202 are formed using an opaque colored member that blocks visible light.
  • the dome 203 is configured using an optical member that can transmit light in a predetermined wavelength band such as visible light. As shown in FIG.
  • the casing 20 formed by the cylindrical portion 201, the dome portion 202, and the dome portion 203 includes a power source portion 21, an optical system 22, an image sensor 23, an illumination portion 24, a signal
  • the processing unit 25, the transmission unit 26, the recording unit 27, the timer 28, the reception unit 29, and the control unit 30 are accommodated.
  • the power supply unit 21 supplies power to each unit in the capsule endoscope 2.
  • the power supply unit 21 is configured using a primary battery or a secondary battery such as a button battery and a power supply circuit that boosts the power supplied from the button battery.
  • the power supply unit 21 has a magnetic switch, and switches the power supply on / off state by a magnetic field applied from the outside.
  • the optical system 22 is configured by using a plurality of lenses, and focuses reflected light of the illumination light irradiated by the illumination unit 24 on the imaging surface of the image sensor 23 to form a subject image.
  • the optical system 22 is disposed in the housing 20 so that the optical axis coincides with the central axis O in the longitudinal direction of the housing 20.
  • the imaging element 23 receives a subject image formed on the light receiving surface by the optical system 22 and performs photoelectric conversion to generate an imaging signal (image data) of the subject 100. .
  • the image sensor 23 captures the subject 100 at a reference frame rate, for example, a frame rate of 4 fps, and generates an imaging signal of the subject 100.
  • the image sensor 23 is configured using an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor).
  • the image sensor 23 is arranged two-dimensionally, receives light from the outside, generates a light-receiving signal corresponding to the amount of received light, and outputs a light receiving unit 230, and a primary or complementary wavelength band.
  • a plurality of first band filters (hereinafter referred to as “broadband filters”) and a second band filter (hereinafter referred to as “narrow band filters”) that transmit light in a narrower wavelength band than each of the plurality of first band filters.
  • a color filter 231 including a filter unit including a plurality of pixels, and a pixel whose amount of light is greater than the amount of light incident on the pixel corresponding to the wideband filter.
  • an output unit 232 that outputs an imaging signal generated by the light receiving unit 230 and a pixel corresponding to a wideband filter in the light receiving unit 230 (hereinafter referred to as “broadband image”). )) From the first imaging signal (hereinafter referred to as “broadband image signal”) and then the second imaging signal (hereinafter referred to as “narrowband pixel”) from the pixel corresponding to the narrowband filter (hereinafter referred to as “narrowband pixel”). And an imaging control unit 233 that reads out a “narrowband image signal”.
  • FIG. 3 is a diagram schematically showing the configuration of the color filter 231 and the generation of a wideband image and a narrowband image.
  • the color filter 231 includes a broadband filter R that transmits a red component, a broadband filter G that transmits a green component, a broadband filter B that transmits a blue component, and a wavelength band of 415 nm ⁇ 30 nm. It is configured using a narrowband filter X that transmits.
  • An imaging signal generated in each pixel of the light receiving unit 230 using the color filter 231 configured as described above is subjected to predetermined image processing (for example, by the signal processing unit 25, the receiving device 4, and the image processing device 5).
  • predetermined image processing for example, by the signal processing unit 25, the receiving device 4, and the image processing device 5.
  • the illumination unit 24 irradiates light toward the subject in the imaging field of the image sensor 23 in synchronization with the frame rate of the image sensor 23 under the control of the control unit 30.
  • the illumination unit 24 is configured using a white LED (Light Emitting Diode), a drive circuit, or the like.
  • the signal processing unit 25 performs predetermined image processing on the image signal input from the image sensor 23 and outputs the image signal to the transmission unit 26.
  • the predetermined image processing includes noise reduction processing, gain increase processing, demosaicing processing, and the like.
  • the signal processing unit 25 generates a wideband image (see the wideband image F1 in FIG. 3) based on the wideband image signal included in the imaging signal output from the output unit 232 of the imaging device 23, and the wideband filter. Based on the wideband image signal output from the wideband pixel corresponding to G and the narrowband pixel signal output from the narrowband pixel corresponding to the narrowband filter X, the narrowband image (the narrowband image F2 in FIG. Reference) is generated, and the wideband image and the narrowband image are transmitted to the transmission unit 26.
  • the transmission unit 26 wirelessly transmits the wideband image and the narrowband image sequentially input from the signal processing unit 25 to the outside.
  • the transmission unit 26 includes a transmission antenna and a modulation circuit that modulates a wideband image or a narrowband image into a radio signal by performing signal processing such as modulation.
  • the recording unit 27 records a program indicating various operations executed by the capsule endoscope 2, identification information for identifying the capsule endoscope 2, and the like.
  • Timer 28 has a timekeeping function.
  • the timer 28 outputs time measurement data to the control unit 30.
  • the receiving unit 29 receives a radio signal transmitted from the outside and outputs it to the control unit 30.
  • the reception unit 29 is configured using the reception antenna 3a and a demodulation circuit that performs signal processing such as demodulation on a radio signal and outputs the signal to the control unit 30.
  • the control unit 30 controls the operation of each unit of the capsule endoscope 2.
  • the control unit 30 causes the illumination unit 24 to irradiate.
  • the control unit 30 causes the image sensor 23 to capture an image signal in synchronization with the irradiation timing of the illumination unit 24.
  • the control unit 30 is configured using a CPU (Central Processing Unit).
  • the capsule endoscope 2 configured in this manner sequentially images the body cavity of the subject 100 at a minute time interval while moving in the body cavity of the subject 100, and generates an imaging signal in the captured subject 100. Corresponding image data is generated and sequentially transmitted to the receiving antenna unit 3.
  • FIG. 4 is a flowchart showing an outline of processing executed by the capsule endoscope 2.
  • movement is demonstrated.
  • the imaging control unit 233 calculates the exposure time t1 of the narrowband pixel based on the sensitivity of the narrowband filter X and the amount of light emitted from the illumination unit 24 (step S101). Based on the sensitivity of the broadband filters R, G, and B and the amount of light emitted from the illumination unit 24, the exposure time t2 of the broadband pixel is calculated (step S102).
  • the control unit 30 causes the illumination unit 24 to emit illumination light (step S103).
  • step S104 the imaging control unit 233 performs nondestructive readout of the imaging signal from all the pixels of the light receiving unit 230 (step S105).
  • the output unit 232 outputs an image (hereinafter referred to as “image img1”) corresponding to the imaging signal read from all the pixels of the light receiving unit 230 to the signal processing unit 25.
  • image img1 an image
  • the capsule endoscope 2 proceeds to step S106 described later.
  • the capsule endoscope 2 does not perform nondestructive reading until the exposure time t2 has elapsed.
  • step S106 when the exposure time t1 has passed (step S106: Yes), the imaging control unit 233 reads the imaging signal from all the pixels in the light receiving unit 230 (step S107). In this case, the output unit 232 outputs an image (hereinafter referred to as “image img2”) corresponding to the imaging signal read from all the pixels of the light receiving unit 230 to the signal processing unit 25. At this time, the imaging control unit 233 performs a reset process for initializing the charges for all the pixels of the light receiving unit 230. After step S107, the capsule endoscope 2 proceeds to step S108 described later. On the other hand, when the exposure time t1 has not elapsed (step S106: No), the capsule endoscope 2 does not perform reading that the exposure time t1 has elapsed.
  • step S108 the signal processing unit 25 generates a color broadband image based on the image img1 output from the image sensor 23. Specifically, the signal processing unit 25 generates a wideband image using wideband signals read from wideband pixels (pixels corresponding to the wideband filters R, G, and B) included in the image img1.
  • the signal processing unit 25 generates a narrowband image based on the image img2 output from the image sensor 23 (step S109). Specifically, the signal processing unit 25 reads the wideband signal (G component) read from the wideband image corresponding to the wideband filter G included in the image img1 and the narrowband filter X corresponding to the narrowband filter X included in the image img2. A narrow band image is generated using the narrow band signal read from the band pixel. Thereby, even when a wideband image and a narrowband image are simultaneously photographed, each of the wideband image and the narrowband image can be acquired with high image quality.
  • G component wideband signal
  • the imaging control unit 233 reads a wideband signal from the wideband pixel corresponding to the wideband filter
  • the narrowband signal is read from the narrowband pixel corresponding to the narrowband filter. Since the output unit 232 outputs the wideband signal and the narrowband signal as the imaging signal, a high-quality narrowband image can be acquired even when the wideband image and the narrowband image are simultaneously captured.
  • the signal of the wideband pixel and the signal of the narrowband pixel can be acquired almost simultaneously, an image in which the positional deviation between the wideband pixel and the narrowband pixel is minimized is obtained. Therefore, it is possible to omit image processing for image alignment when superimposing the wideband image and the narrowband image generated thereby.
  • the capsule endoscope 2 can be downsized. be able to.
  • the capsule endoscope system according to the second embodiment is different from the configuration of the imaging element 23 of the capsule endoscope 2 according to the first embodiment described above. Therefore, in the following, the configuration of the imaging element of the capsule endoscope according to the second embodiment will be described.
  • symbol is attached
  • FIG. 5 is a cross-sectional view schematically showing the configuration of the image sensor according to the second embodiment. Note that FIG. 5 illustrates a wideband pixel unit corresponding to one wideband filter and a narrowband pixel unit corresponding to one narrowband filter in a plurality of pixel units constituting the image sensor.
  • 5 has a wideband pixel unit 40 and a narrowband pixel unit 41.
  • the broadband pixel unit 40 includes at least a first microlens 401 that collects light, a broadband filter R, a light shielding layer 402 that blocks a part of the light collected by the first microlens 401, and a first microlens.
  • a photodiode 403 serving as a pixel that receives light collected by the light 401, a wiring layer 404 in which various wirings are stacked, and a silicon substrate 405 on which the photodiode 403 is formed.
  • the broadband pixel unit 40 is formed by stacking a silicon substrate 405, a wiring layer 404, a photodiode 403, a light shielding layer 402, a broadband filter R, and a first microlens 401 in this order.
  • the narrowband pixel unit 41 includes at least a second microlens 411 that collects light, a narrowband filter X, a light shielding layer 412, a photodiode 403, a wiring layer 404, and a silicon substrate 405.
  • the narrowband pixel unit 41 is formed by stacking a silicon substrate 405, a wiring layer 404, a photodiode 403, a light shielding layer 412, a narrowband filter X, and a second microlens 411 in this order.
  • the viewing angle ⁇ 2 of the second microlens 411 is formed larger than the viewing angle ⁇ 1 of the first microlens 401 ( ⁇ 2> ⁇ 1).
  • the narrowband pixel unit 41 makes the thickness D2 of the light shielding layer 412 smaller than the thickness D1 of the light shielding layer 402. be able to.
  • the imaging device 23a As an optical member that constitutes the imaging device 23a using such a wideband pixel unit 40 and a narrowband pixel unit 41, and that makes the light amount incident on the wideband pixel unit 40 smaller than the light amount incident on the narrowband pixel unit 41,
  • the viewing angle ⁇ 2 of the second microlens 411 is formed larger than the viewing angle ⁇ 1 of the first microlens 401.
  • the image sensor 23a can make the amount of light incident on the narrowband pixels larger than the amount of light incident on the wideband pixels. Therefore, even when shooting a narrowband image and a wideband image at the same time, Each broadband image can be acquired with high image quality.
  • the viewing angle ⁇ 2 of the second microlens 411 is formed larger than the viewing angle ⁇ 1 of the first microlens 401, and the amount of light incident on the narrowband pixel unit 41 is set to the wideband pixel unit. Since it can be made larger than the amount of light incident on 40, a high-quality narrow-band image can be acquired even when a narrow-band image and a wide-band image are taken.
  • the interval between the first microlens 401 and the second microlens 411 on the color filter 231 may be changed.
  • a certain interval is provided, and when the first microlens 401 and the second microlens 411 are adjacent to each other, the first microlens 401 and the second microlens 401 are provided.
  • the gap with the lens 411 may be eliminated and provided on the color filter 231.
  • FIG. 6 is a cross-sectional view schematically showing a configuration of an image sensor according to a modification of the second embodiment.
  • a wideband pixel unit corresponding to one wideband filter and a narrowband pixel unit corresponding to one narrowband filter will be described in a plurality of pixel units constituting the image sensor.
  • the image sensor 23b has a wideband pixel unit 40a and a narrowband pixel unit 41a.
  • the broadband pixel unit 40a includes a first light shielding film 406 as an optical member in addition to the configuration of the broadband pixel unit 40 according to the second embodiment.
  • the first light shielding film 406 is disposed between the broadband filter R and the photodiode 403, and has a first opening 406a in which an opening d1 having a predetermined size is formed.
  • the narrow-band pixel unit 41a includes a second light-shielding film 416 as an optical member in addition to the configuration of the narrow-band pixel unit 41 according to Embodiment 2 described above.
  • the second light shielding film 416 is disposed between the narrow band filter X and the photodiode 403, and has a second opening 416a in which an opening d2 larger than the first opening 406a is formed (d2 ⁇ d1).
  • the imaging device 23b As an optical member that configures the imaging device 23b using such a wideband pixel unit 40a and a narrowband pixel unit 41a, and that makes the light amount incident on the wideband pixel unit 40a smaller than the light amount incident on the narrowband pixel unit 41a,
  • the opening d2 of the second opening 416a is formed larger than the opening d1 of the first opening 406a.
  • the image pickup device 23b can make the amount of light incident on the narrowband pixels larger than the amount of light incident on the wideband pixels.
  • a band image can be acquired.
  • the opening d2 of the second opening 416a is formed larger than the opening d1 of the first opening 406a, and the amount of light incident on the narrowband pixel unit 41a is set to the wideband pixel. Since it can be made larger than the amount of light incident on the unit 40a, it is possible to obtain a narrow band image and a wide band image with high image quality even when shooting a narrow band image and a wide band image.
  • the opening of the first opening 406a of the first light shielding film 406 of the wideband pixel unit 40a and the opening of the second opening 416a of the second light shielding film 416 of the narrowband pixel unit 41a was adjusted by changing the size of each, but for example, the area and size of the wiring layer 404 formed on the color filter 231 and the photodiode 403 can be changed to the wideband pixel unit 40a and The amount of light incident on the photodiode 403 may be adjusted by changing each of the narrow-band pixel units 41a.
  • the capsule endoscope system according to the third embodiment is different from the configuration of the capsule endoscope according to the first embodiment described above. Therefore, in the following, the configuration of the capsule endoscope according to the third embodiment will be described.
  • the same components as those of the capsule endoscope 2 according to the first embodiment described above are denoted by the same reference numerals, and description thereof is omitted.
  • FIG. 7 is a block diagram showing a functional configuration of the capsule endoscope 2a according to the third embodiment.
  • a capsule endoscope 2a shown in FIG. 7 includes an image sensor 23c instead of the image sensor 23 of the capsule endoscope 2 according to the first embodiment.
  • the imaging element 23 c receives a subject image formed on the light receiving surface by the optical system 22 and performs photoelectric conversion to generate an imaging signal (image data) of the subject 100.
  • the image sensor 23 c includes a light receiving unit 230, a color filter 231, an output unit 232, and an optical filter 234.
  • the optical filter 234 is configured using a low-pass filter that transmits at least light in a narrow band, and is disposed between the color filter 231 and the light receiving unit 230.
  • the optical filter 234 has a rectangular shape as with the color filter 231.
  • FIG. 8 is a diagram showing the relationship between the transmittance and wavelength of each filter constituting the color filter 231.
  • FIG. 9 is a diagram illustrating the relationship between the transmittance of the optical filter 234 and the wavelength.
  • FIG. 10 is a diagram showing the relationship between the transmittance and wavelength of the color filter 231 and the optical filter 234 combined. 8 to 10, the horizontal axis indicates the wavelength, and the vertical axis indicates the transmittance. Further, in FIG.
  • the curve L B represents the relationship between the transmittance and the wavelength of the broadband filter B
  • the curve L G represents the relationship between the transmittance and the wavelength of the broad band filter G
  • the curve L R is the wideband filter R
  • the curve L x shows the relationship between the transmittance and the wavelength of the narrowband filter X.
  • a curve Lp indicates the relationship between the transmittance of the optical filter 234 and the wavelength.
  • a curve L B2 indicates the relationship between the transmittance and wavelength of the broadband filter B and the optical filter 234, and a curve L G2 indicates the transmittance and wavelength of the broadband filter G and the optical filter 234.
  • the curve L R2 represents the relationship between the transmittance and the wavelength of the combined wide band filter R and the optical filter 234, and the curve L x2 represents the relationship between the transmittance and the wavelength of the combined narrow band filter X and the optical filter 234. Show the relationship.
  • the transmittance of the narrowband filter X is a broadband filter B, G, the curve L B corresponding to the respective R, L G, compared to L R, the spectral sensitivity is small. Therefore, in the third embodiment, an optical filter 234 that restricts light having a predetermined wavelength band, for example, a wavelength of 480 nm or more, is disposed between the color filter 231 and the light receiving unit 230 as indicated by a curve L p in FIG. To do. As a result, as shown by the curves L B2 , L G2 , L R2 , and L X2 in FIG.
  • the sensitivity difference between the narrowband pixels corresponding to the narrowband filter X and the wideband pixels corresponding to the wideband filters B, G, and R, respectively. Becomes smaller.
  • the image sensor 23c can reduce the difference between the amount of light incident on the narrowband pixel and the amount of light incident on the wideband pixel. A narrow-band image can be acquired.
  • the optical filter 234 equalizes the amount of light incident on the narrowband pixel and the amount of light incident on the wideband pixel.
  • a high-quality narrow-band image can be acquired.
  • the optical filter 234 is arranged between the color filter 231 and the light receiving unit 230.
  • the optical filter 234, the color filter 231 and the light receiving unit 230 are arranged in this order, and the imaging device. 23c may be configured.
  • FIG. 11 is a schematic diagram of an optical filter according to a modification of the third embodiment.
  • FIG. 12 is a diagram schematically showing the arrangement of the optical filter according to the modification of the third embodiment.
  • the optical filter 234a has an annular shape.
  • the optical filter 234a is configured using a band-pass filter that transmits at least only narrow-band light. Further, the optical filter 234 a is disposed between the optical system 22 and the color filter 231. Further, the optical filter 234 a is disposed at the pupil position of the optical system 22.
  • the image sensor 23c can equalize the amount of light incident on the narrowband pixels and the amount of light incident on the wideband pixels. Therefore, even when shooting a narrowband image and a wideband image at the same time, Each of the image and the broadband image can be acquired with high image quality.
  • the shape of the optical filter 234a is annular.
  • the optical filter is formed in a disc shape, and a filter capable of transmitting broadband light and narrowband light is provided in the center. Also good. Further, the transmittance of the wavelength transmitted from the center of the optical filter 234a in the radial direction may be gradually changed.
  • the broadband color filter is composed of a primary color filter.
  • a complementary color filter (Cy, Mg, Ye) that transmits light having a complementary color wavelength component may be used.
  • a color filter (R, G, B, Or, Cy) including a primary color filter and a filter (Or, Cy) that transmits light having wavelength components of orange and cyan may be used as the color filter. Good.
  • the color filter is provided with a narrow band filter that transmits one type of narrow wavelength band.
  • a plurality of types of narrow band filters may be provided in the color filter.
  • the narrowband filter X that transmits the blue wavelength band of 415 nm ⁇ 30 nm
  • the narrowband filter Y that transmits light of the wavelength band of 540 nm ⁇ 30 nm, for example, green according to the first embodiment described above
  • a narrowband pixel may be generated from the pixel and the Y pixel.
  • the imaging apparatus has been described as a capsule endoscope.
  • the imaging apparatus can be applied even to an endoscope provided on the distal end side of an insertion portion to be inserted into a subject. Can do.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Optical Filters (AREA)

Abstract

 狭帯域画像および広帯域画像を同時に撮影する場合であっても、高画質な狭帯域画像を取得することができる撮像装置、内視鏡およびカプセル型内視鏡を提供する。撮像装置は、格子状に配置され、複数の画素を有する受光部230と、原色または補色の波長帯域の光を透過する複数の第1帯域フィルタと、複数の第1帯域フィルタそれぞれを透過する光の波長帯域の各々よりも狭い波長帯域を有する狭帯域の光を透過させる第2帯域フィルタと、を含むフィルタユニットを、受光部230の複数の画素に対応させて配置したカラーフィルタ231と、第1帯域フィルタに対応する画素へ入射される光量よりも多くの光量が第2帯域フィルタに対応する画素へ入射されて生成された撮像信号を出力する出力部232と、を備える。

Description

撮像装置、内視鏡およびカプセル型内視鏡
 本発明は、被検体に導入され、被検体の体腔内を撮像する撮像装置、内視鏡およびカプセル型内視鏡に関する。
 近年、内視鏡では、可視領域において広帯域の波長透過特性を有する複数の広帯域フィルタと、狭帯域の波長透過特性を有する複数の狭帯域フィルタと、を格子状に配列したフィルタ部を撮像素子に設けることによって、生体組織の表面から深い位置にある組織を鮮明に観察可能な青の帯域の狭帯域画像と通常のカラーの広帯域画像とを同時に取得する技術が知られている(特許文献1参照)。
特開2007-54113号公報
 しかしながら、上述した特許文献1では、広帯域フィルタの波長透過特性と狭帯域フィルタの波長透過特性が大きく異なるため、広帯域フィルタに覆われている広帯域画素と、狭帯域フィルタに覆われている狭帯域画素に大きな感度差が生まれる。このため、上述した特許文献1では、狭帯域画像と広帯域画像とを同時に取得する場合、狭帯域画像の画質が広帯域画像の画質と比べて劣化するという問題点があった。
 本発明は、上記に鑑みてなされたものであって、狭帯域画像および広帯域画像を同時に撮影する場合であっても、狭帯域画素と広帯域画素の感度差をなるべく少なくすることで、高画質な狭帯域画像と広帯域画像とを同時に取得することができる撮像装置、内視鏡およびカプセル型内視鏡を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る撮像装置は、二次元に配置され、外部から光を受光し、受光量に応じた撮像信号を生成して出力する複数の画素を有する受光部と、原色または補色の波長帯域の光を透過する複数の第1帯域フィルタと、前記複数の第1帯域フィルタの各々よりも狭い帯域の光を透過させる少なくとも1つの第2帯域フィルタと、を含むフィルタユニットを、前記複数の画素に対応させて配置したカラーフィルタと、前記第1帯域フィルタに対応する画素へ入射される光量よりも多くの光量が前記第2帯域フィルタに対応する画素へ入射されて前記受光部によって生成された前記撮像信号を出力する出力部と、を有する撮像素子を備えたことを特徴とする。
 また、本発明に係る撮像装置は、上記発明において、前記撮像素子は、前記第1帯域フィルタに対応する画素から第1撮像信号の読み出しを実施した後に、前記第2帯域フィルタに対応する画素から第2撮像信号の読み出しを行う撮像制御部をさらに備え、前記出力部は、前記第1撮像信号および前記第2撮像信号を前記撮像信号として出力することを特徴とする。
 また、本発明に係る撮像装置は、上記発明において、前記撮像制御部は、前記第1帯域フィルタに対応する画素の露出時間より前記第2帯域フィルタに対応する画素の露出時間を長くすることによって、前記第1撮像信号および前記第2撮像信号それぞれの読み出しを行うことを特徴とする。
 また、本発明に係る撮像装置は、上記発明において、前記撮像素子は、前記第1帯域フィルタに対応する画素に入射する光量を、前記第2帯域フィルタに対応する画素に入射する光量よりも小さくする光学部材をさらに有し、前記複数の画素の各々は、前記光学部材および前記カラーフィルタそれぞれを透過した光を受光して前記撮像信号を生成することを特徴とする。
 また、本発明に係る撮像装置は、上記発明において、前記光学部材は、少なくとも前記狭帯域の光を透過させる光学フィルタであり、前記光学フィルタは、前記カラーフィルタと前記複数の画素との間に配置されていることを特徴とする。
 また、本発明に係る撮像装置は、上記発明において、前記光学部材は、前記第1帯域フィルタに対応する画素に光を集光する第1マイクロレンズと、前記第2帯域フィルタに対応する画素に光を集光する第2マイクロレンズと、を有し、前記第2マイクロレンズの視野角は、前記第1マイクロレンズの視野角よりも大きいことを特徴とする。
 また、本発明に係る撮像装置は、上記発明において、前記光学部材は、前記第1帯域フィルタと前記第1帯域フィルタに対応する画素との間に配置され、所定の大きさで形成された第1開口部を有する第1遮光膜と、前記第2帯域フィルタと前記第2帯域フィルタに対応する画素との間に配置され、前記第1開口部より大きい開口が形成された第2開口部を有する第2遮光膜と、を有することを特徴とする。
 また、本発明に係る内視鏡は、上記の撮像装置を、挿入部の先端側に備えることを特徴とする。
 また、本発明に係るカプセル型内視鏡は、被検体内に導入可能なカプセル型の筐体と、前記筐体の内部に設けられる上記の撮像装置と、を備える。
 本発明によれば、狭帯域画像および広帯域画像を同時に撮影する場合であっても、高画質な狭帯域画像を取得することができるという効果を奏する。
図1は、本発明の実施の形態1に係るカプセル型内視鏡システムの概略構成を示す模式図である。 図2は、本発明の実施の形態1に係るカプセル型内視鏡の機能構成を示すブロック図である。 図3は、本発明の実施の形態1に係るカラーフィルタの構成を模式的に示す図である。 図4は、本発明の実施の形態1に係るカプセル型内視鏡が実行する処理の概要を示すフローチャートである。 図5は、本発明の実施の形態2に係る撮像素子の構成を模式的に示す断面図である。 図6は、本発明の実施の形態2の変形例に係る撮像素子の構成を模式的に示す断面図である。 図7は、本発明の実施の形態3に係るカプセル型内視鏡の機能構成を示すブロック図である。 図8は、本発明の実施の形態3に係るカラーフィルタを構成する各フィルタの透過率と波長との関係を示す図である。 図9は、本発明の実施の形態3に係る光学フィルタの透過率と波長との関係を示す図である。 図10は、本発明の実施の形態3に係るカラーフィルタおよび光学フィルタを合わせた透過率と波長との関係を示す図である。 図11は、本発明の実施の形態3の変形例に係る光学フィルタの模式図である。 図12は、本発明の実施の形態3の変形例に係る光学フィルタの配置を模式的に示す図である。
 以下、本発明を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、以下の説明において参照する各図は、本発明の内容を理解でき得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎない。即ち、本発明は、各図で例示された形状、大きさ、および位置関係のみに限定されるものではない。また、以下の説明において、被検体の体内に導入されて被検体の体内画像を撮像するカプセル型内視鏡から無線信号を受信して被検体の体内画像を表示する処理装置を含むカプセル型内視鏡システムを例示するが、この実施の形態によって本発明が限定されるものではない。また、同一の構成には同一の符号を付して説明する。
(実施の形態1)
 〔カプセル型内視鏡システムの概略構成〕
 図1は、本発明の実施の形態1に係るカプセル型内視鏡システムの概略構成を示す模式図である。
 図1に示すカプセル型内視鏡システム1は、被検体100内の体内画像を撮像するカプセル型内視鏡2と、被検体100内に導入されるカプセル型内視鏡2から送信される無線信号を受信する受信アンテナユニット3と、受信アンテナユニット3が着脱自在に接続され、受信アンテナユニット3が受信した無線信号に所定の処理を行って記録または表示する受信装置4と、カプセル型内視鏡2によって撮像された被検体100内の画像データに対応する画像の処理および/または表示する画像処理装置5と、を備える。
 カプセル型内視鏡2は、被検体100内を撮像する撮像機能と、被検体100内を撮像して得られた画像データを含む体内情報を受信アンテナユニット3へ送信する無線通信機能と、を有する。カプセル型内視鏡2は、被検体100内に飲み込まれることによって被検体100内の食道を通過し、消化管腔の蠕動運動によって被検体100の体腔内を移動する。カプセル型内視鏡2は、被検体100の体腔内を移動しながら微小な時間間隔、例えば0.5秒間隔(2fps)で被検体100の体腔内を逐次撮像し、撮像した被検体100内の画像データを生成して受信アンテナユニット3へ順次送信する。なお、カプセル型内視鏡2の詳細な構成は後述する。
 受信アンテナユニット3は、受信アンテナ3a~3hを備える。受信アンテナ3a~3hは、カプセル型内視鏡2から無線信号を受信して受信装置4へ送信する。受信アンテナ3a~3hは、ループアンテナを用いて構成され、被検体100の体外表面上の所定位置、例えばカプセル型内視鏡2の通過径路である被検体100内の各臓器に対応した位置に配置される。
 受信装置4は、受信アンテナ3a~3hを介してカプセル型内視鏡2から送信された無線信号に含まれる被検体100内の画像データを記録または被検体100内の画像データに対応する画像を表示する。受信装置4は、カプセル型内視鏡2の位置情報および時間を示す時間情報等を、受信アンテナ3a~3hを介して受信した画像データに対応付けて記録する。受信装置4は、カプセル型内視鏡2による検査が行われている間、例えば被検体100の口から導入され、消化菅内を通過して被検体100内から排出されるまでの間、受信装置ホルダ(図示せず)に収納されて被検体100に携帯される。受信装置4は、カプセル型内視鏡2による検査の終了後、被検体100から取り外され、カプセル型内視鏡2から受信した画像データ等の転送のため、画像処理装置5と接続される。
 画像処理装置5は、受信装置4を介して取得した被検体100内の画像データに対応する画像を表示する。画像処理装置5は、受信装置4から画像データ等を読み取るクレードル51と、キーボードやマウス等の操作入力デバイス52と、を備える。クレードル51は、受信装置4が装着される際に、受信装置4から画像データや、この画像データに関連付けられた位置情報、時間情報およびカプセル型内視鏡2の識別情報等の関連情報を取得し、取得した各種情報を画像処理装置5へ転送する。操作入力デバイス52は、ユーザによる入力を受け付ける。ユーザは、操作入力デバイス52を操作しつつ、画像処理装置5が順次表示する被検体100内の画像を見ながら、被検体100内部の生体部位、例えば食道、胃、小腸および大腸等を観察し、被検体100を診断する。
 〔カプセル型内視鏡の構成〕
 次に、図1で説明したカプセル型内視鏡2の詳細な構成について説明する。図2は、カプセル型内視鏡2の機能構成を示すブロック図である。図2に示すカプセル型内視鏡2は、筐体20と、電源部21と、光学系22と、撮像素子23と、照明部24と、信号処理部25と、送信部26と、記録部27と、タイマ28と、受信部29と、制御部30と、を有する。
 筐体20は、被検体100に挿入し易い大きさに形成されたカプセル型の形状をなす。筐体20は、筒状の筒部201、筒部201の両側開口端をそれぞれ塞ぐドーム形状のドーム部202およびドーム部203を有する。筒部201およびドーム部202は、可視光を遮光する不透明な有色の部材を用いて形成される。ドーム部203は、可視光等の所定の波長帯域の光を透過可能な光学部材を用いて構成される。これらの筒部201、ドーム部202およびドーム部203によって形成される筐体20は、図2に示すように、電源部21と、光学系22と、撮像素子23と、照明部24と、信号処理部25と、送信部26と、記録部27と、タイマ28と、受信部29と、制御部30と、を収容する。
 電源部21は、カプセル型内視鏡2内の各部に電源を供給する。電源部21は、ボタン電池等の一次電池または二次電池と、ボタン電池から供給された電力の昇圧等を行う電源回と、を用いて構成される。また、電源部21は、磁気スイッチを有し、外部から印加された磁界によって電源のオンオフ状態を切り替える。
 光学系22は、複数のレンズを用いて構成され、照明部24が照射した照明光の反射光を撮像素子23の撮像面に集光して被写体像を結像する。光学系22は、光軸が筐体20の長手方向の中心軸Oと一致するように筐体20内に配置される。
 撮像素子23は、制御部30の制御のもと、光学系22が受光面に結像した被写体像を受光して光電変換を行うことによって、被検体100の撮像信号(画像データ)を生成する。具体的には、撮像素子23は、制御部30の制御のもと、基準のフレームレート、例えば4fpsのフレームレートによって被検体100を撮像して被検体100の撮像信号を生成する。撮像素子23は、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて構成される。
 また、撮像素子23は、二次元状に配置され、外部から光を受光し、受光量に応じた撮像信号を生成して出力する複数の画素を有する受光部230と、原色または補色の波長帯域の光を透過する複数の第1帯域フィルタ(以下、「広帯域フィルタ」という)と、この複数の第1帯域フィルタの各々よりも狭い波長帯域の光を透過させる第2帯域フィルタ(以下、「狭帯域フィルタ」という)と、を含むフィルタユニットを複数の画素に対応させて配置したカラーフィルタ231と、広帯域フィルタに対応する画素へ入射される光量よりも多くの光量が狭帯域フィルタに対応する画素へ入射されて受光部230によって生成された撮像信号を出力する出力部232と、受光部230における広帯域フィルタに対応する画素(以下、「広帯域画素」という)から第1撮像信号(以下、「広帯域画像信号」という)の読み出しを実施した後に、狭帯域フィルタに対応する画素(以下、「狭帯域画素」という)から第2撮像信号(以下、「狭帯域画像信号」という)の読み出しを行う撮像制御部233と、を有する。
 図3は、カラーフィルタ231の構成及び広帯域画像、狭帯域画像の生成を模式的に示す図である。図3に示すように、カラーフィルタ231は、赤色の成分を透過する広帯域フィルタR、緑色の成分を透過する広帯域フィルタG、青色の成分を透過する広帯域フィルタB、および415nm±30nmの波長帯域を透過する狭帯域フィルタXを用いて構成される。このように構成されたカラーフィルタ231を用いて受光部230の各画素で生成された撮像信号は、信号処理部25、受信装置4および画像処理装置5のいずれかによって、所定の画像処理(例えばデモザイキング処理等の補間)が行われることによって、広帯域のR、G、B画素信号から広帯域画像F1、狭帯域のXと広帯域のG画素信号から狭帯域画像F2が生成される。
 照明部24は、制御部30の制御のもと、撮像素子23のフレームレートに同期して、撮像素子23の撮像視野内の被写体に向けて光を照射する。照明部24は、白色LED(Light Emitting Diode)や駆動回路等を用いて構成される。
 信号処理部25は、撮像素子23から入力された撮像信号に対して所定の画像処理を行って送信部26へ出力する。ここで、所定の画像処理とは、ノイズ低減処理、ゲインアップ処理およびデモザイキング処理等である。また、信号処理部25は、撮像素子23の出力部232から出力される撮像信号に含まれる広帯域画像信号に基づいて、広帯域画像(図3の広帯域画像F1を参照)を生成するとともに、広帯域フィルタGに対応する広帯域画素から出力される広帯域画像信号と、狭帯域フィルタXに対応する狭帯域画素から出力される狭帯域画素信号とに基づいて、狭帯域画像(図3の狭帯域画像F2を参照)を生成し、広帯域画像および狭帯域画像を送信部26へ送信する。
 送信部26は、信号処理部25から順次入力された広帯域画像および狭帯域画像を外部に無線送信する。送信部26は、送信アンテナと、広帯域画像または狭帯域画像を変調等の信号処理を施して無線信号に変調する変調回路と、を用いて構成される。
 記録部27は、カプセル型内視鏡2が実行する各種動作を示すプログラムおよびカプセル型内視鏡2を識別する識別情報等を記録する。
 タイマ28は、計時機能を有する。タイマ28は、計時データを制御部30へ出力する。
 受信部29は、外部から送信された無線信号を受信して制御部30へ出力する。受信部29は、受信アンテナ3aと、無線信号を復調等の信号処理を行って制御部30へ出力する復調回路と、を用いて構成される。
 制御部30は、カプセル型内視鏡2の各部の動作を制御する。制御部30は、照明部24に照射させる。また、制御部30は、照明部24の照射タイミングに同期させて、撮像素子23に撮像させて撮像信号を生成させる。制御部30は、CPU(Central Processing Unit)を用いて構成される。
 このように構成されたカプセル型内視鏡2は、被検体100の体腔内を移動しながら微小な時間間隔で被検体100の体腔内を逐次撮像し、撮像した被検体100内の撮像信号に対応する画像データを生成して受信アンテナユニット3へ順次送信する。
 〔カプセル型内視鏡の処理〕
 次に、カプセル型内視鏡2が実行する処理について説明する。図4は、カプセル型内視鏡2が実行する処理の概要を示すフローチャートである。なお、図4においては、カプセル型内視鏡2が1回の撮影動作で行う処理について説明する。
 図4に示すように、まず、撮像制御部233は、狭帯域フィルタXの感度と照明部24が照射する光の光量とに基づいて、狭帯域画素の露出時間t1を算出し(ステップS101)、広帯域フィルタR,G,Bの感度と照明部24が照射する光の光量とに基づいて、広帯域画素の露出時間t2を算出する(ステップS102)。ここで、狭帯域画素の感度は広帯域画素よりも低いため、狭帯域画素の露出時間t1は、広帯域画素の露出時間t2よりも長い(t1>t2)。その後、制御部30は、照明部24に照明光を照射させる(ステップS103)。
 続いて、露出時間t2が経過した場合(ステップS104:Yes)、撮像制御部233は、受光部230の全画素から撮像信号の非破壊読み出しを行う(ステップS105)。この場合、出力部232は、受光部230の全画素から読み出した撮像信号に対応する画像(以下、「画像img1」という)を信号処理部25へ出力する。ステップS105の後、カプセル型内視鏡2は、後述するステップS106へ移行する。これに対して、露出時間t2が経過していない場合(ステップS104:No)、カプセル型内視鏡2は、露出時間t2が経過するまで非破壊読み出しを行わない。
 ステップS106において、露出時間t1が経過した場合(ステップS106:Yes)、撮像制御部233は、受光部230における全画素から撮像信号の読み出しを行う(ステップS107)。この場合、出力部232は、受光部230の全画素から読み出した撮像信号に対応する画像(以下、「画像img2」という)を信号処理部25へ出力する。このとき、撮像制御部233は、受光部230の全画素に対して電荷を初期状態にするリセット処理を行う。ステップS107の後、カプセル型内視鏡2は、後述するステップS108へ移行する。これに対して、露出時間t1が経過していない場合(ステップS106:No)、カプセル型内視鏡2は、露出時間t1が経過する読み出しを行わない。
 ステップS108において、信号処理部25は、撮像素子23から出力された画像img1に基づいて、カラーの広帯域画像を生成する。具体的には、信号処理部25は、画像img1に含まれる広帯域画素(広帯域フィルタR,G,Bそれぞれに対応する画素)から読み出された広帯域信号を用いて広帯域画像を生成する。
 続いて、信号処理部25は、撮像素子23から出力された画像img2に基づいて、狭帯域画像を生成する(ステップS109)。具体的には、信号処理部25は、画像img1に含まれる広帯域フィルタGに対応する広帯域画像から読み出された広帯域信号(G成分)と、画像img2に含まれる狭帯域フィルタXに対応する狭帯域画素から読み出された狭帯域信号とを用いて、狭帯域画像を生成する。これにより、広帯域画像および狭帯域画像を同時に撮影する場合であっても、広帯域画像および狭帯域画像それぞれを高画質で取得することができる。
 以上説明した本実施の形態1によれば、撮像制御部233が広帯域フィルタに対応する広帯域画素から広帯域信号の読み出しを実施した後に、狭帯域フィルタに対応する狭帯域画素から狭帯域信号の読み出しを行い、出力部232が広帯域信号および狭帯域信号を撮像信号として出力するので、広帯域画像および狭帯域画像を同時に撮影する場合であっても、高画質な狭帯域画像を取得することができる。
 また、本実施の形態1によれば、広帯域画素の信号と狭帯域画素の信号とをほぼ同時に取得することができるため、広帯域画素と狭帯域画素の位置ずれを最小限に抑えた画像を得ることができるので、それによって生成される広帯域画像と狭帯域画像とを重畳して際に画像の位置合わせのための画像処理を省略することができる。
 さらに、本実施の形態1によれば、通常の白色光を照射する照明部24のみで、広帯域画像と狭帯域画像とを取得することができるので、カプセル型内視鏡2の小型化を図ることができる。
(実施の形態2)
 次に、本発明の実施の形態2について説明する。本実施の形態2に係るカプセル型内視鏡システムは、上述した実施の形態1に係るカプセル型内視鏡2の撮像素子23の構成と異なる。このため、以下においては、本実施の形態2に係るカプセル型内視鏡の撮像素子の構成について説明する。なお、上述した実施の形態1に係るカプセル型内視鏡と同一の構成には同一の符号を付して説明を省略する。
 図5は、本実施の形態2に係る撮像素子の構成を模式的に示す断面図である。なお、図5においては、撮像素子を構成する複数の画素ユニットにおいて、1つの広帯域フィルタに対応する広帯域画素ユニットおよび1つの狭帯域フィルタに対応する狭帯域画素ユニットについて説明する。
 図5に示す撮像素子23aは、広帯域画素ユニット40と、狭帯域画素ユニット41と、を有する。
 広帯域画素ユニット40は、少なくとも、光を集光する第1マイクロレンズ401と、広帯域フィルタRと、第1マイクロレンズ401が集光した光の一部を遮光する遮光層402と、第1マイクロレンズ401が集光した光を受光する画素としてのフォトダイオード403と、各種の配線が積層された配線層404と、フォトダイオード403が形成されたシリコン基板405と、を有する。広帯域画素ユニット40は、シリコン基板405、配線層404、フォトダイオード403、遮光層402、広帯域フィルタRおよび第1マイクロレンズ401の順に積層されて形成される。
 狭帯域画素ユニット41は、少なくとも、光を集光する第2マイクロレンズ411と、狭帯域フィルタXと、遮光層412と、フォトダイオード403と、配線層404と、シリコン基板405と、を有する。狭帯域画素ユニット41は、シリコン基板405、配線層404、フォトダイオード403、遮光層412、狭帯域フィルタXおよび第2マイクロレンズ411の順に積層されて形成される。また、第2マイクロレンズ411の視野角α2は、第1マイクロレンズ401の視野角α1よりも大きく形成される(α2>α1)。さらに、狭帯域画素ユニット41は、第2マイクロレンズ411の視野角α2が第1マイクロレンズ401の視野角α1よりも大きいので、遮光層412の厚みD2を遮光層402の厚みD1よりも小さくすることができる。
 このような広帯域画素ユニット40および狭帯域画素ユニット41を用いて撮像素子23aを構成し、広帯域画素ユニット40に入射する光量を、狭帯域画素ユニット41に入射する光量よりも小さくする光学部材として、第2マイクロレンズ411の視野角α2を第1マイクロレンズ401の視野角α1よりも大きく形成する。これにより、撮像素子23aは、狭帯域画素に入射する光量を広帯域画素に入射する光量より大きくすることができるので、狭帯域画像および広帯域画像を同時に撮影する場合であっても、狭帯域画像および広帯域画像それぞれを高画質で取得することができる。
 以上説明した本実施の形態2によれば、第2マイクロレンズ411の視野角α2が第1マイクロレンズ401の視野角α1よりも大きく形成し、狭帯域画素ユニット41に入射する光量を広帯域画素ユニット40に入射する光量より大きくすることができるので、狭帯域画像および広帯域画像を撮影する場合であっても、高画質な狭帯域画像を取得することができる。
 なお、本実施の形態2では、カラーフィルタ231上における第1マイクロレンズ401と第2マイクロレンズ411との間隔を変更してもよい。例えば第1マイクロレンズ401と第1マイクロレンズ401とが隣接する場合、一定の間隔を設け、第1マイクロレンズ401と第2マイクロレンズ411とが隣接する場合、第1マイクロレンズ401と第2マイクロレンズ411との隙間をなくしてカラーフィルタ231上に設けるようにしてもよい。
(実施の形態2の変形例)
 次に、本実施の形態2の変形例について説明する。図6は、本実施の形態2の変形例に係る撮像素子の構成を模式的に示す断面図である。なお、図6においては、撮像素子を構成する複数の画素ユニットにおいて、1つの広帯域フィルタに対応する広帯域画素ユニットおよび1つの狭帯域フィルタに対応する狭帯域画素ユニットについて説明する。
 図6に示すように、撮像素子23bは、広帯域画素ユニット40aと、狭帯域画素ユニット41aと、を有する。
 広帯域画素ユニット40aは、上述した実施の形態2に係る広帯域画素ユニット40の構成に加えて、光学部材としての第1遮光膜406を有する。第1遮光膜406は、広帯域フィルタRとフォトダイオード403との間に配置され、所定の大きさの開口d1が形成された第1開口部406aを有する。
 狭帯域画素ユニット41aは、上述した実施の形態2に係る狭帯域画素ユニット41の構成に加えて、光学部材としての第2遮光膜416を有する。第2遮光膜416は、狭帯域フィルタXとフォトダイオード403との間に配置され、第1開口部406aより大きな開口d2が形成された第2開口部416aを有する(d2<d1)。
 このような広帯域画素ユニット40aおよび狭帯域画素ユニット41aを用いて撮像素子23bを構成し、広帯域画素ユニット40aに入射する光量を、狭帯域画素ユニット41aに入射する光量よりも小さくする光学部材として、第2開口部416aの開口d2を第1開口部406aの開口d1よりも大きく形成する。これにより、撮像素子23bは、狭帯域画素に入射する光量を広帯域画素に入射する光量より大きくすることができるので、狭帯域画像および広帯域画像を同時に撮影する場合であっても、高画質な狭帯域画像を取得することができる。
 以上説明した本実施の形態2の変形例によれば、第2開口部416aの開口d2が第1開口部406aの開口d1よりも大きく形成し、狭帯域画素ユニット41aに入射する光量を広帯域画素ユニット40aに入射する光量より大きくすることができるので、狭帯域画像および広帯域画像を撮影する場合であっても、狭帯域画像および広帯域画像それぞれ高画質で取得することができる。
 なお、本実施の形態2の変形例では、広帯域画素ユニット40aの第1遮光膜406の第1開口部406aの開口および狭帯域画素ユニット41aの第2遮光膜416の第2開口部416aの開口それぞれの大きさを変更することで、フォトダイオード403に入射する光量を調整していたが、例えばカラーフィルタ231とフォトダイオード403に形成された配線層404の領域や大きさを広帯域画素ユニット40aおよび狭帯域画素ユニット41aそれぞれで変更することによって、フォトダイオード403に入射する光量を調整してもよい。
(実施の形態3)
 次に、本発明の実施の形態3について説明する。本実施の形態3に係るカプセル型内視鏡システムは、上述した実施の形態1に係るカプセル型内視鏡の構成と異なる。このため、以下においては、本実施の形態3に係るカプセル型内視鏡の構成について説明する。なお、以下において、上述した実施の形態1に係るカプセル型内視鏡2と同一の構成には同一の符号を付して説明を省略する。
 図7は、本実施の形態3に係るカプセル型内視鏡2aの機能構成を示すブロック図である。図7に示すカプセル型内視鏡2aは、上述した実施の形態1に係るカプセル型内視鏡2の撮像素子23に換えて、撮像素子23cを備える。
 撮像素子23cは、制御部30の制御のもと、光学系22が受光面に結像した被写体像を受光して光電変換を行うことによって、被検体100の撮像信号(画像データ)を生成する。撮像素子23cは、受光部230と、カラーフィルタ231と、出力部232と、光学フィルタ234と、を有する。
 光学フィルタ234は、少なくとも狭帯域の光を透過させるローパスフィルタを用いて構成され、カラーフィルタ231と受光部230との間に配置される。また、光学フィルタ234は、カラーフィルタ231と同様に矩形状をなす。
 次に、光学フィルタ234の特性について説明する。図8は、カラーフィルタ231を構成する各フィルタの透過率と波長との関係を示す図である。図9は、光学フィルタ234の透過率と波長との関係を示す図である。図10は、カラーフィルタ231および光学フィルタ234を合わせた透過率と波長との関係を示す図である。図8~図10において、横軸が波長を示し、縦軸が透過率を示す。また、図8において、曲線Lが広帯域フィルタBの透過率と波長との関係を示し、曲線Lが広帯域フィルタGの透過率と波長との関係を示し、曲線Lが広帯域フィルタRの透過率と波長との関係を示し、曲線Lxが狭帯域フィルタXの透過率と波長との関係を示す。さらに、図9において、曲線Lpが光学フィルタ234の透過率と波長との関係を示す。さらにまた、図10において、曲線LB2が広帯域フィルタBおよび光学フィルタ234を合わせた透過率と波長との関係を示し、曲線LG2が広帯域フィルタGおよび光学フィルタ234を合わせた透過率と波長との関係を示し、曲線LR2が広帯域フィルタRおよび光学フィルタ234を合わせた透過率と波長との関係を示し、曲線Lx2が狭帯域フィルタXおよび光学フィルタ234を合わせた透過率と波長との関係を示す。
 図8の曲線Lxに示すように、狭帯域フィルタXの透過率は、広帯域フィルタB,G,Rそれぞれに対応する曲線LB,LG,LRに比して、分光感度が小さい。そこで、本実施の形態3では、図9の曲線Lpに示すように、所定の波長帯域、例えば波長480nm以上の光を制限する光学フィルタ234をカラーフィルタ231と受光部230との間に配置する。これにより、図10の曲線LB2,LG2,LR2,LX2に示すように、狭帯域フィルタXに対応する狭帯域画素と広帯域フィルタB,G,Rそれぞれに対応する広帯域画素の感度差が小さくなる。これにより、撮像素子23cは、狭帯域画素に入射する光量と広帯域画素に入射する光量の差を小さくすることができるので、狭帯域画像および広帯域画像を同時に撮影する場合であっても、高画質な狭帯域画像を取得することができる。
 以上説明した本実施の形態3によれば、光学フィルタ234が狭帯域画素に入射する光量と広帯域画素に入射する光量とを同等にするので、狭帯域画像および広帯域画像を同時に撮影する場合であっても、高画質な狭帯域画像を取得することができる。
 なお、本実施の形態3では、光学フィルタ234がカラーフィルタ231と受光部230との間に配置されていたが、例えば光学フィルタ234、カラーフィルタ231および受光部230の順で配置して撮像素子23cを構成してもよい。
(実施の形態3の変形例)
 図11は、本実施の形態3の変形例に係る光学フィルタの模式図である。図12は、本実施の形態3の変形例に係る光学フィルタの配置を模式的に示す図である。
 図11および図12に示すように、光学フィルタ234aは、円環状をなす。光学フィルタ234aは、少なくとも狭帯域の光のみを透過させるバンドパスフィルタを用いて構成される。また、光学フィルタ234aは、光学系22とカラーフィルタ231との間に配置される。さらに、光学フィルタ234aは、光学系22の瞳位置に配置される。これにより、撮像素子23cは、狭帯域画素に入射する光量と広帯域画素に入射する光量とを同等にすることができるので、狭帯域画像および広帯域画像を同時に撮影する場合であっても、狭帯域画像および広帯域画像それぞれを高画質で取得することができる。
 なお、本実施の形態3の変形例では、光学フィルタ234aの形状が円環状であったが、光学フィルタを円盤状に形成し、中央を広帯域光および狭帯域光を透過可能なフィルタを設けてもよい。さらに、光学フィルタ234aの中心から径方向に向けて透過する波長の透過率を徐々に変更させてもよい。
(その他の実施の形態)
 上述した実施の形態では、広帯域カラーフィルタが原色フィルタで構成されていたが、例えば補色の波長成分を有する光を透過する補色フィルタ(Cy,Mg,Ye)を用いてもよい。さらに、カラーフィルタを、原色フィルタと、オレンジおよびシアンの波長成分を有する光を透過するフィルタ(Or,Cy)とによって構成されたカラーフィルタ(R,G,B,Or,Cy)を用いてもよい。
 上述した実施の形態では、カラーフィルタに、1つの種類の狭い波長帯域を透過させる狭帯域フィルタが設けられていたが、カラーフィルタ内に、複数種類の狭帯域フィルタを設けてもよい。例えば、上述した実施の形態1の青の415nm±30nmの波長帯域を透過する狭帯域フィルタXと、例えば緑の540nm±30nmの波長帯域の光を透過させる狭帯域フィルタYとを設けて、X画素とY画素から狭帯域画素を生成してもよい。
 上述した実施の形態では、撮像装置をカプセル型内視鏡として説明していたが、撮像装置を、被検体に挿入される挿入部の先端側に備えた内視鏡であっても適用することができる。
 1 カプセル型内視鏡システム
 2,2a カプセル型内視鏡
 3 受信アンテナユニット
 3a 受信アンテナ
 4 受信装置
 5 画像処理装置
 20 筐体
 21 電源部
 22 光学系
 23,23a,23b,23c 撮像素子
 24 照明部
 25 信号処理部
 26 送信部
 27 記録部
 28 タイマ
 29 受信部
 30 制御部
 40,40a 広帯域画素ユニット
 41,41a 狭帯域画素ユニット
 51 クレードル
 52 操作入力デバイス
 100 被検体
 201 筒部
 202,203 ドーム部
 230 受光部
 231 カラーフィルタ
 232 出力部
 233 撮像制御部
 234,234a 光学フィルタ
 401 第1マイクロレンズ
 402,412 遮光層
 403 フォトダイオード
 404 配線層
 405 シリコン基板
 406  第1遮光膜
 406a 第1開口部
 411  第2マイクロレンズ
 416  第2遮光膜
 416a 第2開口部
 B 広帯域フィルタ
 G 広帯域フィルタ
 R 広帯域フィルタ
 X 狭帯域フィルタ

Claims (9)

  1.  二次元に配置され、外部から光を受光し、受光量に応じた撮像信号を生成して出力する複数の画素を有する受光部と、
     原色または補色の波長帯域の光を透過する複数の第1帯域フィルタと、前記複数の第1帯域フィルタの各々よりも狭い帯域の光を透過させる少なくとも1つの第2帯域フィルタと、を含むフィルタユニットを、前記複数の画素に対応させて配置したカラーフィルタと、
     前記第1帯域フィルタに対応する画素へ入射される光量よりも多くの光量が前記第2帯域フィルタに対応する画素へ入射されて前記受光部によって生成された前記撮像信号を出力する出力部と、
     を有する撮像素子を備えたことを特徴とする撮像装置。
  2.  前記撮像素子は、
     前記第1帯域フィルタに対応する画素から第1撮像信号の読み出しを実施した後に、前記第2帯域フィルタに対応する画素から第2撮像信号の読み出しを行う撮像制御部をさらに備え、
     前記出力部は、
     前記第1撮像信号および前記第2撮像信号を前記撮像信号として出力することを特徴とする請求項1に記載の撮像装置。
  3.  前記撮像制御部は、前記第1帯域フィルタに対応する画素の露出時間より前記第2帯域フィルタに対応する画素の露出時間を長くすることによって、前記第1撮像信号および前記第2撮像信号それぞれの読み出しを行うことを特徴とする請求項2に記載の撮像装置。
  4.  前記撮像素子は、
     前記第1帯域フィルタに対応する画素に入射する光量を、前記第2帯域フィルタに対応する画素に入射する光量よりも小さくする光学部材をさらに有し、
     前記複数の画素の各々は、前記光学部材および前記カラーフィルタそれぞれを透過した光を受光して前記撮像信号を生成することを特徴とする請求項1に記載の撮像装置。
  5.  前記光学部材は、
     少なくとも前記狭帯域の光を透過させる光学フィルタであり、
     前記光学フィルタは、
     前記カラーフィルタと前記複数の画素との間に配置されていることを特徴とする請求項4に記載の撮像装置。
  6.  前記光学部材は、
     前記第1帯域フィルタに対応する画素に光を集光する第1マイクロレンズと、
     前記第2帯域フィルタに対応する画素に光を集光する第2マイクロレンズと、
     を有し、
     前記第2マイクロレンズの視野角は、前記第1マイクロレンズの視野角よりも大きいことを特徴とする請求項4に記載の撮像装置。
  7.  前記光学部材は、
     前記第1帯域フィルタと前記第1帯域フィルタに対応する画素との間に配置され、所定の大きさで形成された第1開口部を有する第1遮光膜と、
     前記第2帯域フィルタと前記第2帯域フィルタに対応する画素との間に配置され、前記第1開口部より大きい開口が形成された第2開口部を有する第2遮光膜と、
     を有することを特徴とする請求項4に記載の撮像装置。
  8.  請求項1~7のいずれかに記載の撮像装置を、挿入部の先端側に備えることを特徴とする内視鏡。
  9.  被検体内に導入可能なカプセル型の筐体と、
     前記筐体の内部に設けられる請求項1~7のいずれかに記載の撮像装置と、
     を備えたことを特徴とするカプセル型内視鏡。
PCT/JP2014/082316 2014-12-05 2014-12-05 撮像装置、内視鏡およびカプセル型内視鏡 WO2016088269A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2014/082316 WO2016088269A1 (ja) 2014-12-05 2014-12-05 撮像装置、内視鏡およびカプセル型内視鏡
JP2016562185A JP6392891B2 (ja) 2014-12-05 2014-12-05 撮像装置、内視鏡およびカプセル型内視鏡
US15/607,485 US20170258304A1 (en) 2014-12-05 2017-05-27 Imaging device, endoscope, and capsule endoscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/082316 WO2016088269A1 (ja) 2014-12-05 2014-12-05 撮像装置、内視鏡およびカプセル型内視鏡

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/607,485 Continuation US20170258304A1 (en) 2014-12-05 2017-05-27 Imaging device, endoscope, and capsule endoscope

Publications (1)

Publication Number Publication Date
WO2016088269A1 true WO2016088269A1 (ja) 2016-06-09

Family

ID=56091240

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/082316 WO2016088269A1 (ja) 2014-12-05 2014-12-05 撮像装置、内視鏡およびカプセル型内視鏡

Country Status (3)

Country Link
US (1) US20170258304A1 (ja)
JP (1) JP6392891B2 (ja)
WO (1) WO2016088269A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6214841B1 (ja) * 2016-06-20 2017-10-18 オリンパス株式会社 被検体内導入装置、送信方法及びプログラム
WO2017221335A1 (ja) * 2016-06-21 2017-12-28 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
WO2017221468A1 (ja) * 2016-06-20 2017-12-28 オリンパス株式会社 被検体内導入装置、送信方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111093459A (zh) 2017-10-04 2020-05-01 奥林巴斯株式会社 内窥镜装置、图像处理方法以及程序

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011091158A (ja) * 2009-10-21 2011-05-06 Olympus Corp 光源装置、電子画像取得装置、電子画像観察装置、内視鏡装置、カプセル内視鏡装置
JP2011177532A (ja) * 2011-05-02 2011-09-15 Olympus Medical Systems Corp 内視鏡装置
WO2012043771A1 (ja) * 2010-09-30 2012-04-05 オリンパスメディカルシステムズ株式会社 撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011091158A (ja) * 2009-10-21 2011-05-06 Olympus Corp 光源装置、電子画像取得装置、電子画像観察装置、内視鏡装置、カプセル内視鏡装置
WO2012043771A1 (ja) * 2010-09-30 2012-04-05 オリンパスメディカルシステムズ株式会社 撮像装置
JP2011177532A (ja) * 2011-05-02 2011-09-15 Olympus Medical Systems Corp 内視鏡装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6214841B1 (ja) * 2016-06-20 2017-10-18 オリンパス株式会社 被検体内導入装置、送信方法及びプログラム
WO2017221468A1 (ja) * 2016-06-20 2017-12-28 オリンパス株式会社 被検体内導入装置、送信方法及びプログラム
US11259691B2 (en) 2016-06-20 2022-03-01 Olympus Corporation Body-insertable apparatus, transmission method, and non-transitory computer readable medium
WO2017221335A1 (ja) * 2016-06-21 2017-12-28 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
US10694100B2 (en) 2016-06-21 2020-06-23 Olympus Corporation Image processing apparatus, image processing method, and computer readable recording medium

Also Published As

Publication number Publication date
JP6392891B2 (ja) 2018-09-19
JPWO2016088269A1 (ja) 2017-11-02
US20170258304A1 (en) 2017-09-14

Similar Documents

Publication Publication Date Title
KR100800040B1 (ko) 체내 촬상용 캡슐
US10299665B2 (en) Imaging device and capsule endoscope system
JP6392891B2 (ja) 撮像装置、内視鏡およびカプセル型内視鏡
JP4741033B2 (ja) 被検体内撮像システムおよび被検体内導入装置
EP2124710B1 (en) Narrow band in-vivo imaging device
WO2013024788A1 (ja) 撮像装置
JP2006297093A (ja) Cfaを含むインビボ撮像装置、インビボ撮像装置および外部受信ユニットを含むシステム、ならびにcfaを含む撮像装置
WO2016129062A1 (ja) 画像処理装置、内視鏡システム、撮像装置、画像処理方法およびプログラム
JP5159526B2 (ja) 眼底カメラ
JP2013046850A (ja) 眼底カメラ
WO2015146318A1 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
US20170276847A1 (en) Imaging system
US20090118585A1 (en) Body-insertable apparatus
JP4589464B2 (ja) 画像生成装置、内視鏡システム、および画像生成方法
JP6214841B1 (ja) 被検体内導入装置、送信方法及びプログラム
JP5455734B2 (ja) 電子内視鏡用光源装置
JP2008017941A (ja) 内視鏡および撮影システム
TW201815344A (zh) 手持式顯示裝置
WO2017221468A1 (ja) 被検体内導入装置、送信方法及びプログラム
JP2016057456A (ja) レンズ装置及び撮像装置
JP5065998B2 (ja) カプセル内視鏡システム
JP2016073341A (ja) カプセル型医療装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14907348

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016562185

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14907348

Country of ref document: EP

Kind code of ref document: A1