WO2018193546A1 - 撮像装置および内視鏡装置 - Google Patents

撮像装置および内視鏡装置 Download PDF

Info

Publication number
WO2018193546A1
WO2018193546A1 PCT/JP2017/015706 JP2017015706W WO2018193546A1 WO 2018193546 A1 WO2018193546 A1 WO 2018193546A1 JP 2017015706 W JP2017015706 W JP 2017015706W WO 2018193546 A1 WO2018193546 A1 WO 2018193546A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
monochrome
correction
transmittance characteristic
Prior art date
Application number
PCT/JP2017/015706
Other languages
English (en)
French (fr)
Inventor
博 坂井
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2017/015706 priority Critical patent/WO2018193546A1/ja
Publication of WO2018193546A1 publication Critical patent/WO2018193546A1/ja
Priority to US16/599,223 priority patent/US20200045279A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • the present invention relates to an imaging apparatus and an endoscope apparatus.
  • image pickup elements having primary color filters composed of R (red), G (green), and B (blue) are widely used.
  • R red
  • G green
  • B blue
  • a general image pickup device uses a method of intentionally overlapping the transmittance characteristics of the R, G, and B color filters.
  • Patent Document 1 discloses an imaging apparatus having a pupil division optical system in which a first pupil region transmits R and G light and a second pupil region transmits G and B light. A phase difference is detected based on a positional shift between the R image and the B image obtained by the color image sensor mounted on the image pickup apparatus.
  • the image pickup apparatus disclosed in Patent Document 1 causes a color shift in an image when an image of a subject at a position out of focus is taken.
  • the imaging apparatus having the pupil division optical system disclosed in Patent Document 1 has a color shift 2 by approximating the blur shape and the gravity center position of the R image and the B image to the blur shape and the gravity center position of the G image. Displays an image with reduced multiple images.
  • FIG. 24 shows captured images I10 of white and black subjects.
  • 25 and 26 show the profile of the line L10 in the captured image I10.
  • the horizontal axis in FIGS. 25 and 26 is the horizontal address of the captured image, and the vertical axis is the pixel value of the captured image.
  • FIG. 25 shows a profile when the transmittance characteristics of the color filters of the respective colors do not overlap.
  • FIG. 26 shows a profile when the transmittance characteristics of the color filters of the respective colors overlap.
  • Profile R20 and profile R21 are R image profiles.
  • the R image includes information of pixels in which R color filters are arranged.
  • the profile G20 and the profile G21 are G image profiles.
  • the G image includes information on a pixel in which a G color filter is arranged.
  • Profile B20 and profile B21 are B image profiles.
  • the B image includes information on a pixel in which a B color filter is arranged.
  • the user may point to the displayed image, that is, specify a point.
  • measurement can be performed based on a measurement point designated by a user, and inspection such as a scratch can be performed based on the measurement result.
  • inspection such as a scratch can be performed based on the measurement result.
  • an image including a double image as described above is displayed, there is a problem that it is difficult for the user to perform pointing with high accuracy.
  • the imaging apparatus includes a pupil division optical system, an imaging element, a correction unit, a user instruction unit, a mark generation unit, and a superimposition unit.
  • the pupil division optical system includes a first pupil that transmits light in a first wavelength band, and a second pupil that transmits light in a second wavelength band different from the first wavelength band.
  • the imaging device images light transmitted through the pupil division optical system and a first color filter having a first transmittance characteristic, and the pupil division optical system, the first transmittance characteristic, and a part thereof The light that has passed through the second color filter having the second transmittance characteristic overlapping each other is imaged and a captured image is output.
  • the correction unit corrects a value based on an overlapping component of the first transmittance characteristic and the second transmittance characteristic on the captured image having the component based on the first transmittance characteristic.
  • a second monochrome correction in which a correction image and a value based on an overlapping component of the first transmittance characteristic and the second transmittance characteristic are corrected for the captured image having a component based on the second transmittance characteristic.
  • At least one of the images is output as a monochrome corrected image.
  • the user instruction unit outputs point information indicating points in the monochrome corrected image in accordance with a user instruction.
  • the mark generation unit generates a mark.
  • the superimposing unit superimposes the mark on the basis of the point information on the monochrome corrected image or the processed image obtained by processing the monochrome corrected image, and the monochrome corrected image or the processed image on which the mark is superimposed. Is output to the display.
  • the correction unit may output the first monochrome corrected image and the second monochrome corrected image.
  • the imaging apparatus includes a selection unit that selects at least one of the first monochrome correction image and the second monochrome correction image output from the correction unit and outputs the selected image as the monochrome correction image. May be.
  • the imaging device is configured to instruct the selection unit to select at least one of the first monochrome correction image and the second monochrome correction image. You may have.
  • the selection unit may select at least one of the first monochrome correction image and the second monochrome correction image in accordance with an instruction from the selection instruction unit.
  • the selection instruction unit has a higher SNR (signal-to-noise ratio) of the first monochrome corrected image and the second monochrome corrected image.
  • the selection unit may be instructed to select an image.
  • the selection instruction unit selects at least one of the first monochrome correction image and the second monochrome correction image in accordance with an instruction from a user. You may instruct
  • a measuring unit for calculating a phase difference between the first monochrome corrected image and the second monochrome corrected image.
  • the point information may indicate a measurement point that is a position where the phase difference is calculated.
  • the imaging device may include a second correction unit and a measurement unit.
  • the second correction unit is arranged independently of the correction unit, and for the captured image having a component based on the first transmittance characteristic, the first transmittance characteristic and the second transmittance characteristic.
  • a fourth monochrome corrected image in which a value based on the overlapping component is corrected is generated.
  • the measurement unit calculates a phase difference between the third monochrome corrected image and the fourth monochrome corrected image.
  • the point information may indicate a measurement point that is a position where the phase difference is calculated.
  • the user instruction unit may specify at least one of a plurality of modes in accordance with the user instruction.
  • the imaging apparatus generates a processed image by performing image processing corresponding to a mode specified by the user instruction unit on at least a part of the monochrome corrected image output from the selection unit An image processing unit that outputs the processed image to the display unit may be provided.
  • the image processing unit performs enlargement processing, edge extraction processing, edge processing on at least a part of the monochrome corrected image output from the selection unit.
  • the processed image may be generated by performing at least one of an enhancement process and a noise reduction process.
  • the image processing unit performs an enlargement process on at least a part of the monochrome corrected image output from the selection unit, and performs edge processing.
  • the processed image may be generated by performing at least one of extraction processing, edge enhancement processing, and noise reduction processing.
  • an endoscope apparatus includes the imaging apparatus according to the first aspect.
  • the imaging apparatus and the endoscope apparatus can generate an image in which double images due to image color shift are reduced, visibility is improved, and pointing is easier.
  • FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. It is a block diagram which shows the structure of the pupil division
  • FIG. 1 shows a configuration of an imaging apparatus 10 according to the first embodiment of the present invention.
  • the imaging device 10 is a digital still camera, a video camera, a camera-equipped mobile phone, a camera-equipped personal digital assistant, a camera-equipped personal computer, a surveillance camera, an endoscope, a digital microscope, or the like.
  • the imaging apparatus 10 includes a pupil division optical system 100, an imaging element 110, a demosaic processing unit 120, a correction unit 130, a user instruction unit 140, a mark generation unit 150, a superimposition unit 160, and a display unit 170. Have.
  • the pupil division optical system 100 includes a first pupil 101 that transmits light in the first wavelength band and a second pupil 102 that transmits light in a second wavelength band different from the first wavelength band.
  • the image sensor 110 captures an image of light transmitted through the pupil division optical system 100 and the first color filter having the first transmittance characteristic, and the pupil division optical system 100 and the first transmittance characteristic and a part thereof The light that has passed through the second color filter having the overlapping second transmittance characteristic is imaged and a captured image is output.
  • the correction unit 130 corrects a value based on a component in which the first transmittance characteristic and the second transmittance characteristic overlap with respect to a captured image having a component based on the first transmittance characteristic, For a captured image having a component based on the second transmittance characteristic, at least one of a second monochrome corrected image obtained by correcting a value based on an overlapping component of the first transmittance characteristic and the second transmittance characteristic is monochrome. Output as a corrected image.
  • the user instruction unit 140 outputs point information indicating points in the monochrome corrected image in accordance with a user instruction.
  • the mark generation unit 150 generates a mark.
  • the superimposing unit 160 superimposes the mark on the monochrome corrected image based on the point information, and outputs the monochrome corrected image on which the mark is superimposed to the display unit 170.
  • the display unit 170 displays a monochrome corrected image on which marks are superimposed.
  • the first pupil 101 of the pupil division optical system 100 has an RG filter that transmits light of R (red) and G (green) wavelengths.
  • the second pupil 102 of the pupil division optical system 100 has a BG filter that transmits light of B (blue) and G (green) wavelengths.
  • FIG. 2 shows the configuration of the pupil division optical system 100.
  • the pupil division optical system 100 includes a lens 103, a band limiting filter 104, and a stop 105.
  • the lens 103 is generally composed of a plurality of lenses. In FIG. 2, only one lens is shown for simplicity.
  • the band limiting filter 104 is disposed on the optical path of light incident on the image sensor 110.
  • the band limiting filter 104 is disposed at or near the position of the diaphragm 105.
  • the band limiting filter 104 is disposed between the lens 103 and the diaphragm 105.
  • the diaphragm 105 adjusts the brightness of light incident on the image sensor 110 by limiting the passage range of light that has passed through the lens 103.
  • FIG. 3 shows the configuration of the band limiting filter 104.
  • the left half of the band limiting filter 104 constitutes the first pupil 101
  • the right half of the band limiting filter 104 is the second pupil.
  • 102 is configured.
  • the first pupil 101 transmits light having R and G wavelengths and blocks light having B wavelengths.
  • the second pupil 102 transmits light having B and G wavelengths and blocks light having R wavelengths.
  • the imaging element 110 is a photoelectric conversion element such as a CCD (Charge Coupled Device) sensor and an XY address scanning type CMOS (Complementary Metal Oxide Semiconductor) sensor.
  • CMOS Complementary Metal Oxide Semiconductor
  • As a configuration of the image sensor 110 there is a single plate primary color Bayer arrangement, or a three plate method using three sensors.
  • a CMOS sensor 500 ⁇ 500 pixels, depth 10 bits having a single-plate primary color Bayer array is used.
  • the image sensor 110 has a plurality of pixels.
  • the image sensor 110 includes a color filter including a first color filter, a second color filter, and a third color filter.
  • the color filter is disposed in each pixel of the image sensor 110.
  • the first color filter is an R filter
  • the second color filter is a B filter
  • the third color filter is a G filter.
  • Light that passes through the pupil division optical system 100 and passes through the color filter enters each pixel of the image sensor 110.
  • the light transmitted through the pupil division optical system 100 is light transmitted through the first pupil 101 and light transmitted through the second pupil 102.
  • the image sensor 110 transmits the pixel value of the first pixel to which the light transmitted through the first color filter is incident, the pixel value of the second pixel to which the light transmitted through the second color filter is incident, and the third color filter.
  • a captured image including the pixel value of the third pixel on which light is incident is acquired and output.
  • AFE processing such as CDS (Correlated Double Sampling), AGC (Analog Gain Control), and ADC (Analog-to-Digital Converter) is performed on the analog imaging signal generated by photoelectric conversion in the CMOS sensor by the imaging device 110 ( (Analog Front End) is performed.
  • a circuit outside the image sensor 110 may perform the AFE process.
  • the captured image (bayer image) acquired by the image sensor 110 is transferred to the demosaic processing unit 120.
  • FIG. 4 shows a pixel array of a Bayer image.
  • R (red) and Gr (green) pixels are alternately arranged in odd rows, and Gb (green) and B (blue) pixels are alternately arranged in even rows.
  • R (red) and Gb (green) pixels are alternately arranged in the odd columns, and Gr (green) and B (blue) pixels are alternately arranged in the even columns.
  • the demosaic processing unit 120 performs black level correction (OB (Optical Black) subtraction) on the pixel value of the Bayer image. Furthermore, the demosaic processing unit 120 generates the pixel value of the adjacent pixel by copying the pixel value of each pixel. Thereby, an RGB image in which the pixel values of the respective colors are aligned in all the pixels is generated. For example, the demosaic processing unit 120 performs OB subtraction on the R pixel value (R_00), and then copies the pixel value (R_00-OB). Thereby, the R pixel values in the Gr, Gb, and B pixels adjacent to the R pixel are interpolated.
  • FIG. 5 shows a pixel array of the R image.
  • the demosaic processing unit 120 performs OB subtraction on the Gr pixel value (Gr_01), and then copies the pixel value (Gr_01-OB). Further, the demosaic processing unit 120 performs OB subtraction on the Gb pixel value (Gb_10), and then copies the pixel value (Gb_10 ⁇ OB). Thereby, the G pixel value in the R pixel adjacent to the Gr pixel and the B pixel adjacent to the Gb pixel is interpolated.
  • FIG. 6 shows a pixel array of the G image.
  • the demosaic processing unit 120 performs OB subtraction on the B pixel value (B_11), and then copies the pixel value (B_11 ⁇ OB). Thereby, the B pixel value in the R, Gr, and Gb pixels adjacent to the B pixel is interpolated.
  • FIG. 7 shows a pixel arrangement of the B image.
  • the demosaic processing unit 120 generates a color image (RGB image) composed of an R image, a G image, and a B image by the above processing.
  • RGB image a color image
  • the specific method of demosaic processing is not limited to the above method.
  • Filter processing may be applied to the generated RGB image.
  • the RGB image generated by the demosaic processing unit 120 is transferred to the correction unit 130.
  • FIG. 8 shows an example of spectral characteristics (transmittance characteristics) of the RG filter of the first pupil 101, the BG filter of the second pupil 102, and the color filter of the image sensor 110.
  • the horizontal axis in FIG. 8 is the wavelength ⁇ [nm], and the vertical axis is the gain.
  • a line f RG indicates the spectral characteristic of the RG filter.
  • a line f BG indicates the spectral characteristic of the BG filter.
  • the wavelength ⁇ C is a boundary between the spectral characteristic of the RG filter and the spectral characteristic of the BG filter.
  • the RG filter transmits light in a wavelength band longer than the wavelength ⁇ C.
  • the BG filter transmits light in a wavelength band shorter than the wavelength ⁇ C.
  • a line f R indicates the spectral characteristic (first transmittance characteristic) of the R filter of the image sensor 110.
  • a line f G indicates the spectral characteristic of the G filter of the image sensor 110. Since the filter characteristics of the Gr filter and the Gb filter are equivalent, the Gr filter and the Gb filter are represented as a G filter.
  • a line f B indicates the spectral characteristic (second transmittance characteristic) of the B filter of the image sensor 110. The spectral characteristics of the filters of the image sensor 110 overlap.
  • a region on the shorter wavelength side than the wavelength ⁇ C in the spectral characteristic indicated by the line f R is defined as a region ⁇ GB .
  • a phase difference between R (red) information and B (blue) information is acquired.
  • R information is acquired by photoelectric conversion in the R pixel of the image sensor 110 in which the R filter is arranged.
  • the R information includes information on the region ⁇ R , the region ⁇ RG , and the region ⁇ GB in FIG.
  • Information areas phi R and region phi RG is based on light transmitted through the RG filter of the first pupil 101.
  • the information on the region ⁇ GB is based on light transmitted through the BG filter of the second pupil 102.
  • information on the region ⁇ GB is based on an overlapping component of the spectral characteristics of the R filter and the spectral characteristics of the B filter. Since the region ⁇ GB is on the shorter wavelength side than the wavelength ⁇ C , information on the region ⁇ GB is B information that causes a double image due to color shift. This information is not preferable for the R information because the waveform of the R image is distorted and a double image is generated.
  • B information is acquired by photoelectric conversion in the B pixel of the image sensor 110 in which the B filter is arranged.
  • the B information includes information on the region ⁇ B , the region ⁇ RG , and the region ⁇ GB in FIG.
  • Information on the region ⁇ B and the region ⁇ GB is based on the light transmitted through the BG filter of the second pupil 102.
  • information on the region ⁇ RG is based on an overlapping component of the spectral characteristics of the B filter and the spectral characteristics of the R filter.
  • Information areas phi RG is based on light transmitted through the RG filter of the first pupil 101.
  • information of the area phi RG is R information that causes double images due to the color shift. This information is not preferable for the B information because it distorts the waveform of the B image and generates a double image.
  • the red information it reduces the information area phi GB including blue information, and the blue information are made correction to reduce the information of the region phi RG including red information.
  • the correction unit 130 performs correction processing on the R image and the B image. That is, the correction unit 130 may reduce the information in the area phi GB in the red information, and reduces the information area phi RG in the blue information.
  • FIG. 9 is a view similar to FIG. 9, a line f BR shows the area phi GB and regions phi RG in FIG.
  • the spectral characteristics of the G filter shown by line f G, the spectral characteristics indicated by line f BR, is generally similar.
  • the correction unit 130 performs correction processing using this property. In the correction process, the correction unit 130 calculates red information and blue information using Expression (1) and Expression (2).
  • R ′ R ⁇ ⁇ G (1)
  • B ′ B ⁇ ⁇ G (2)
  • Equation (1) R is red information before the correction process is performed, and R ′ is red information after the correction process is performed.
  • B is blue information before the correction process is performed, and B ′ is blue information after the correction process is performed.
  • ⁇ and ⁇ are greater than 0 and less than 1.
  • ⁇ and ⁇ are set according to the spectral characteristics of the image sensor 110.
  • ⁇ and ⁇ are set according to the spectral characteristics of the imaging element 110 and the spectral characteristics of the light source. For example, ⁇ and ⁇ are stored in a memory (not shown).
  • the correcting unit 130 generates an image (monochrome corrected image) corrected as described above.
  • the correction unit 130 outputs a monochrome corrected image by outputting any one of the generated R ′ image and B ′ image.
  • the correction unit 130 outputs an R ′ image.
  • one of the R ′ image and the B ′ image is output to the display unit 170.
  • the correcting unit 130 may generate an R ′ image and a B ′ image, and may output only one of the generated R ′ image and B ′ image. Alternatively, the correction unit 130 may generate only a predetermined one of the R ′ image and the B ′ image.
  • the superimposing unit 160 outputs the monochrome corrected image output from the correcting unit 130 to the display unit 170.
  • the display unit 170 displays the monochrome corrected image output from the superimposing unit 160.
  • the user instruction unit 140 is a user interface such as buttons, switches, keys, and a mouse.
  • the user instruction unit 140 and the display unit 170 may be configured as a touch panel.
  • the user touches the target position on the monochrome corrected image displayed on the display unit 170 with a finger or clicks with the mouse. As a result, the user performs pointing on the monochrome corrected image via the user instruction unit 140.
  • the user instruction unit 140 outputs the point information at the position instructed by the user to the mark generation unit 150.
  • the user performs pointing in order to mark the subject in the monochrome corrected image.
  • the imaging apparatus 10 is configured as an endoscope apparatus, the user performs pointing in order to designate a measurement point for a scratch or the like shown in the monochrome correction image.
  • the mark generator 150 generates mark graphic data.
  • the shape and color of the mark are arbitrary.
  • the user may specify the mark shape and color.
  • the mark generation unit 150 outputs the generated mark and the point information output from the user instruction unit 140 to the superimposition unit 160.
  • the superimposing unit 160 superimposes the mark on the monochrome corrected image output from the correcting unit 130. At this time, the superimposing unit 160 superimposes the mark at the position indicated by the point information in the monochrome corrected image. As a result, the mark is superimposed at the position where the user has performed pointing.
  • the monochrome corrected image on which the mark is superimposed is output to the display unit 170.
  • the display unit 170 displays a monochrome corrected image on which marks are superimposed. The user can confirm the position designated by the user in the monochrome corrected image.
  • the point information may be directly output from the user instruction unit 140 to the superimposing unit 160.
  • the mark generation unit 150 may generate an image having the same size as the monochrome corrected image and having the mark superimposed on the position indicated by the point information.
  • the image generated by the mark generation unit 150 is an image in which a mark is superimposed on a transparent image.
  • the superimposing unit 160 may generate an image obtained by superimposing the image output from the mark generating unit 150 on the monochrome corrected image output from the correcting unit 130.
  • the monochrome correction image (R ′ image) output from the correction unit 130 may be subjected to high image quality processing such as ⁇ correction, scaling processing, edge enhancement, and low-pass filter processing.
  • high image quality processing such as ⁇ correction, scaling processing, edge enhancement, and low-pass filter processing.
  • ⁇ correction bicubic, Nearest Neighbor, etc. are used.
  • low-pass filter process aliasing is corrected.
  • the correction unit 130 may perform these processes on the monochrome corrected image. That is, the correction unit 130 may generate a processed image obtained by processing a monochrome corrected image.
  • the imaging device 10 may include an image processing unit that performs these processes on the monochrome corrected image.
  • the superimposing unit 160 may output the processed image to the display unit 170.
  • the superimposing unit 160 may superimpose a mark on the processed image obtained by processing the monochrome corrected image based on the point information, and may output the processed image on which the mark is superimposed to the display unit 170.
  • the display unit 170 may display the processed image and the processed image on which the mark is superimposed.
  • the demosaic processing unit 120, the correction unit 130, the mark generation unit 150, and the superimposition unit 160 can be configured by an application specific integrated circuit (ASIC), a field-programmable gate array (FPGA), and a microprocessor.
  • ASIC application specific integrated circuit
  • FPGA field-programmable gate array
  • the demosaic processing unit 120, the correction unit 130, the mark generation unit 150, and the superposition unit 160 are configured by an ASIC and an embedded processor.
  • the demosaic processing unit 120, the correction unit 130, the mark generation unit 150, and the superposition unit 160 may be configured by other hardware, software, firmware, or a combination thereof.
  • the display unit 170 is a transmissive LCD (Liquid Crystal Display) that requires a backlight, a self-luminous EL (Electro Luminescence) element (organic EL), or the like.
  • the display unit 170 is composed of a transmissive LCD and has a driving unit necessary for driving the LCD.
  • the drive unit generates a drive signal and drives the LCD by the drive signal.
  • the imaging device 10 may be an endoscope device.
  • the pupil division optical system 100 and the image sensor 110 are arranged at the distal end of an insertion portion that is inserted into an object to be observed and measured.
  • the imaging apparatus 10 includes the correction unit 130, so that it is possible to reduce double images due to image color shift. Moreover, the visibility of an image can be improved by displaying a monochrome correction image. Even when a user observes an image in a method of acquiring a phase difference based on an R image and a B image, the user can observe an image in which a double image due to color misregistration is reduced and visibility is improved. it can.
  • the user can observe the monochrome corrected image or the processed image displayed on the display unit 170 and can point to the image. Since the image in which the double image due to color misregistration is reduced as described above is displayed, the user can easily perform pointing. That is, the user can perform pointing more accurately.
  • the display unit 170 displays a monochrome corrected image, the amount of information output to the display unit 170 is reduced. Therefore, power consumption of the display unit 170 can be reduced.
  • FIG. 10 shows a configuration of an imaging apparatus 10a according to the second embodiment of the present invention.
  • the configuration shown in FIG. 10 will be described while referring to differences from the configuration shown in FIG.
  • the imaging device 10a does not have the display unit 170.
  • the display unit 170 is configured independently of the imaging device 10a.
  • the monochrome corrected image output from the correction unit 130 may be output to the display unit 170 via a communication device.
  • the communication device communicates with the display unit 170 by wire or wireless.
  • the configuration shown in FIG. 10 is the same as the configuration shown in FIG.
  • the imaging device 10a of the second embodiment reduces the double image due to the color shift of the image, improves the visibility, and makes the pointing easier. Can be generated. Since the display unit 170 is independent of the imaging device 10a, the imaging device 10a can be reduced in size. Also, by transferring the monochrome corrected image, the frame rate when transferring the image to the display unit 170 is improved and the bit rate is reduced compared to the color image.
  • FIG. 11 shows a configuration of an imaging apparatus 10b according to the third embodiment of the present invention.
  • the configuration shown in FIG. 11 will be described while referring to differences from the configuration shown in FIG.
  • the imaging device 10b includes a selection unit 180 in addition to the configuration of the imaging device 10 illustrated in FIG.
  • the correction unit 130 outputs the first monochrome corrected image and the second monochrome corrected image.
  • the first monochrome corrected image corrects a value based on a component in which the first transmittance characteristic and the second transmittance characteristic overlap with respect to a captured image having a component based on the first transmittance characteristic. It is the image produced
  • the second monochrome corrected image is generated by correcting a value based on an overlapping component of the first transmittance characteristic and the second transmittance characteristic on a captured image having a component based on the second transmittance characteristic. It is an image.
  • the selection unit 180 selects at least one of the first monochrome correction image and the second monochrome correction image output from the correction unit 130, and outputs the selected image as a selected monochrome correction image.
  • the first monochrome corrected image is an R ′ image.
  • the second monochrome corrected image is a B ′ image.
  • the imaging device 10b of the third embodiment reduces the double image due to the color shift of the image, improves the visibility, and makes the pointing easier. Can be generated.
  • FIG. 12 shows a configuration of an imaging apparatus 10c according to the fourth embodiment of the present invention.
  • the configuration shown in FIG. 12 will be described while referring to differences from the configuration shown in FIG.
  • the imaging device 10c includes a selection instruction unit 190 in addition to the configuration of the imaging device 10b illustrated in FIG.
  • the selection instruction unit 190 instructs the selection unit 180 to select at least one of the first monochrome correction image and the second monochrome correction image.
  • the selection unit 180 selects at least one of the first monochrome correction image and the second monochrome correction image in response to an instruction from the selection instruction unit 190.
  • the selection instruction unit 190 instructs the selection unit 180 to select an image having a higher SNR (signal-to-noise ratio) among the first monochrome correction image and the second monochrome correction image. For example, the selection instruction unit 190 instructs the selection unit 180 to select one of the first monochrome correction image and the second monochrome correction image according to the analysis result of the first monochrome correction image and the second monochrome correction image. . In the following example, the selection instruction unit 190 makes the selection unit 180 select one of the first monochrome correction image and the second monochrome correction image according to the histograms of the first monochrome correction image and the second monochrome correction image. Instruct.
  • FIG. 13 shows an operation procedure of the selection instruction unit 190.
  • the first monochrome corrected image and the second monochrome corrected image generated by the correction unit 130 are input to the selection instruction unit 190.
  • the selection instruction unit 190 performs histogram analysis of the first monochrome corrected image and the second monochrome corrected image (step S100). After step S100, the selection instruction unit 190 instructs the correction unit 130 to select the monochrome corrected image determined by the histogram analysis (step S110).
  • the selection instruction unit 190 generates a histogram of pixel values of each pixel in the first monochrome corrected image and the second monochrome corrected image.
  • FIG. 14 shows an example of a histogram of the first monochrome corrected image and the second monochrome corrected image. The horizontal axis in FIG. 14 is the gradation of the pixel value, and the vertical axis is the frequency.
  • FIG. 14 shows a histogram of pixel values of a plurality of R pixels in the R ′ image that is the first monochrome corrected image, and a histogram of pixel values of the plurality of B pixels in the B ′ image that is the second monochrome corrected image. ing.
  • a depth of 10 bits (0 to 1023) of the image sensor 110 is distinguished from a region A1 to a region A6.
  • the area A1 is an area having pixel values from 0 to 169.
  • the area A2 is an area having pixel values of 170 to 339.
  • An area A3 is an area having pixel values of 340 to 509.
  • a region A4 is a region having pixel values of 510 to 679.
  • An area A5 is an area having pixel values of 680 to 849.
  • a region A6 is a region having pixel values of 850 to 1023. Pixels with pixel values in the left side area are darker and pixels with pixel values in the right side area are brighter. In the example illustrated in FIG.
  • the selection instruction unit 190 determines the monochrome corrected image selected by the selection unit 180 as an R ′ image.
  • the selection instruction unit 190 generates a histogram of pixel values of a plurality of R pixels and a histogram of pixel values of a plurality of B pixels.
  • the selection instruction unit 190 instructs the selection unit 180 to select a monochrome corrected image corresponding to a pixel having a larger frequency of larger pixel values among the R pixel and the B pixel.
  • the selection instruction unit 190 may use a captured image, that is, a Bayer image, instead of the first monochrome corrected image and the second monochrome corrected image. For example, the selection instruction unit 190 generates a histogram of pixel values of a plurality of R pixels in the Bayer image and a histogram of pixel values of a plurality of B pixels in the Bayer image. The selection instruction unit 190 performs the same processing as described above based on each histogram. Further, the display unit 170 may be configured independently of the imaging device 10c.
  • the imaging device 10c of the fourth embodiment reduces the double image due to the color shift of the image, improves the visibility, and makes the pointing easier. Can be generated.
  • the selection instruction unit 190 instructs the selection unit 180 to select an image having a higher SNR among the first monochrome correction image and the second monochrome correction image. Since a monochrome corrected image having a higher SNR is displayed, the user can more easily perform pointing.
  • FIG. 15 shows a configuration of an imaging apparatus 10d according to the fifth embodiment of the present invention. The difference between the configuration shown in FIG. 15 and the configuration shown in FIG. 12 will be described.
  • the selection instruction unit 190 instructs the selection unit 180 to select at least one of the first monochrome correction image and the second monochrome correction image in accordance with an instruction from the user.
  • the user instruction unit 140 receives an instruction from the user. The user inputs an instruction to select one of the first monochrome corrected image and the second monochrome corrected image via the user instruction unit 140.
  • the user instruction unit 140 outputs information on an image instructed by the user among the first monochrome correction image and the second monochrome correction image to the selection instruction unit 190.
  • the selection instruction unit 190 instructs the selection unit 180 to select an image indicated by the information output from the user instruction unit 140.
  • FIG. 15 other than the above, the configuration shown in FIG. 15 is the same as the configuration shown in FIG.
  • the display unit 170 may be configured independently of the imaging device 10d.
  • the imaging device 10d of the fifth embodiment reduces the double image due to the color shift of the image, improves the visibility, and makes the pointing easier. Can be generated.
  • the selection instruction unit 190 instructs the selection unit 180 to select an image instructed by the user from the first monochrome correction image and the second monochrome correction image. Accordingly, the user can perform pointing on an image that the user likes.
  • FIG. 16 shows a configuration of an imaging apparatus 10e according to the sixth embodiment of the present invention. The difference between the configuration shown in FIG. 16 and the configuration shown in FIG. 15 will be described.
  • the imaging device 10e includes a measuring unit 200 in addition to the configuration of the imaging device 10d illustrated in FIG.
  • the first monochrome corrected image and the second monochrome corrected image generated by the correction unit 130 are input to the measurement unit 200.
  • the point information output from the user instruction unit 140 is input to the measurement unit 200.
  • the measuring unit 200 calculates the phase difference between the first monochrome corrected image and the second monochrome corrected image.
  • the point information output from the user instruction unit 140 indicates a measurement point that is a position where the phase difference is calculated.
  • the measurement unit 200 calculates the phase difference at the measurement point indicated by the point information.
  • the measuring unit 200 calculates the distance of the subject based on the phase difference. For example, when an arbitrary point on the image is designated by the user, the measurement unit 200 measures the depth. When two arbitrary points on the image are designated by the user, the measuring unit 200 can measure the distance between the two points.
  • the measurement part 200 outputs a measurement result to the superimposition part 160 as character information of a measured value.
  • the measurement unit 200 includes an ASIC, an FPGA, a microprocessor, and the like.
  • the superimposing unit 160 superimposes the character information of the measurement value on the selected monochrome correction image, and outputs the selected monochrome correction image on which the character information of the measurement value is superimposed to the display unit 170.
  • the display unit 170 displays the selected monochrome corrected image on which the character information of the measurement value is superimposed. Thereby, the user can confirm the measurement result.
  • the display unit 170 may be configured independently of the imaging device 10e. Similar to the fourth embodiment, the selection instruction unit 190 may instruct the selection unit 180 to select an image having a higher SNR among the first monochrome correction image and the second monochrome correction image.
  • the imaging device 10e of the sixth embodiment reduces the double image due to the color shift of the image, improves the visibility, and makes the pointing easier. Can be generated. The user can specify measurement points with higher accuracy for an image with improved visibility.
  • FIG. 17 shows a configuration of an imaging apparatus 10f according to the seventh embodiment of the present invention. The difference between the configuration illustrated in FIG. 17 and the configuration illustrated in FIG. 16 will be described.
  • the measurement unit 200 in the imaging device 10e illustrated in FIG. The Bayer image output from the image sensor 110 is input to the measurement processing unit 210. Further, the point information output from the user instruction unit 140 is input to the measurement processing unit 210. The measurement processing unit 210 outputs the character information of the measurement value to the superimposing unit 160.
  • FIG. 18 shows a configuration of the measurement processing unit 210.
  • the measurement processing unit 210 includes a second demosaic processing unit 220, a second correction unit 230, and a measurement unit 200.
  • the Bayer image output from the image sensor 110 is input to the second demosaic processing unit 220.
  • the second demosaic processing unit 220 generates the pixel value of the adjacent pixel by copying the pixel value of each pixel of the Bayer image. Thereby, an RGB image in which the pixel values of the respective colors are aligned in all the pixels is generated.
  • the RGB image is composed of an R image, a G image, and a B image.
  • the second demosaic processing unit 220 of the seventh embodiment does not perform OB subtraction, but may perform OB subtraction. When the second demosaic processing unit 220 performs OB subtraction, the OB subtraction value may be different from the OB subtraction value used by the demosaic processing unit 120.
  • the second demosaic processing unit 220 outputs the generated RGB image to the second correction unit 230.
  • the second correction unit 230 is arranged independently of the correction unit 130.
  • the second correction unit 230 corrects a value based on a component that overlaps the first transmittance characteristic and the second transmittance characteristic with respect to a captured image having a component based on the first transmittance characteristic.
  • the 4th monochrome correction image which correct
  • the second correction unit 230 outputs the generated third monochrome correction image and fourth monochrome correction image to the measurement unit 200.
  • the measuring unit 200 calculates the phase difference between the third monochrome corrected image and the fourth monochrome corrected image.
  • the second correction unit 230 performs correction processing on the R image and the B image.
  • the correction process by the second correction unit 230 is the same as the correction process by the correction unit 130.
  • the second correction unit 230 in the red information reduces the area phi GB of information of Figure 8, and reduces the information area phi RG in Figure 8 in the blue information. As a result, an R ′ image that is the third monochrome corrected image is generated, and a B ′ image that is the fourth monochrome corrected image is generated.
  • the measuring unit 200 is configured in the same manner as the measuring unit 200 in the imaging device 10e shown in FIG.
  • the second demosaic processing unit 220 and the second correction unit 230 are configured by an ASIC, an FPGA, a microprocessor, and the like.
  • the display unit 170 may be configured independently of the imaging device 10f. Similar to the fourth embodiment, the selection instruction unit 190 may instruct the selection unit 180 to select an image having a higher SNR among the first monochrome correction image and the second monochrome correction image.
  • the imaging device 10f of the seventh embodiment reduces the double image due to the color shift of the image, improves the visibility, and makes the pointing easier. Can be generated. The user can specify measurement points with higher accuracy for an image with improved visibility.
  • the second demosaic processing unit 220 sets an OB subtraction value (zero in the above example) in accordance with the measurement processing of the measurement unit 200, so that OB subtraction suitable for measurement can be performed, and measurement accuracy is improved. Connected.
  • the demosaic processing unit 120 sets an OB subtraction value in accordance with the black level, so that an appropriate black level can be set, and the image quality is improved.
  • FIG. 19 shows a configuration of an imaging apparatus 10g according to the eighth embodiment of the present invention.
  • the configuration shown in FIG. 19 will be described while referring to differences from the configuration shown in FIG.
  • the imaging device 10g includes a processed image generation unit 240 in addition to the configuration of the imaging device 10e illustrated in FIG.
  • the user instruction unit 140 specifies at least one of a plurality of modes in accordance with a user instruction.
  • the selected monochrome corrected image selected by the selection unit 180 is input to the processed image generation unit 240.
  • the processed image generation unit 240 generates a processed image by performing image processing corresponding to the mode designated by the user instruction unit 140 on at least a part of the selected monochrome corrected image output from the selection unit 180.
  • the processed image generation unit 240 performs image processing on at least a part of the selected monochrome corrected image.
  • the processed image generation unit 240 outputs the generated processed image and the selected monochrome corrected image output from the selection unit 180 to the superimposition unit 160.
  • the processed image generation unit 240 constitutes an image processing unit.
  • the processed image generation unit 240 includes an ASIC, an FPGA, a microprocessor, and the like.
  • the processed image generation unit 240 performs at least one of enlargement processing, edge extraction processing, edge enhancement processing, and noise reduction processing on at least a part of the monochrome corrected image output from the selection unit 180, thereby processing the processed image. Is generated.
  • the processed image generation unit 240 performs an enlargement process on at least a part of the selected monochrome corrected image output from the selection unit 180, and performs at least one of an edge extraction process, an edge enhancement process, and a noise reduction process.
  • a processed image may be generated by doing so.
  • the superimposing unit 160 superimposes the processed image on the selected monochrome corrected image as necessary, and outputs the selected monochrome corrected image on which the processed image is superimposed to the display unit 170.
  • the processed image may be directly output from the processed image generation unit 240 to the display unit 170.
  • FIG. 20 shows image processing performed by the processed image generation unit 240.
  • seven image processing methods are shown.
  • the first method is enlargement processing.
  • the second method is edge extraction processing.
  • the third method is edge enhancement processing.
  • the fourth method is noise reduction (NR) processing.
  • the fifth method is a combination of enlargement processing and edge extraction processing.
  • the sixth method is a combination of enlargement processing and edge enhancement processing.
  • the seventh method is a combination of enlargement processing and NR processing.
  • the user designates a desired image processing method by touching the screen of the display unit 170 or the like.
  • the user instruction unit 140 outputs information indicating the image processing method instructed by the user to the processed image generation unit 240.
  • the processed image generation unit 240 processes the selected monochrome corrected image by an image processing method instructed by the user.
  • FIG. 21 shows an example of an image displayed on the display unit 170.
  • the R ′ image R10 is displayed.
  • the user designates a measurement point for the R ′ image R10.
  • FIG. 21 shows a state when the measurement point P11 is specified after the measurement point P10 is specified.
  • a processed image R11 is generated by enlarging a predetermined region including a position that the user intends to designate as the measurement point P11 in the R ′ image R10.
  • the processed image R11 is displayed superimposed on the R ′ image R10.
  • the user can easily designate the measurement point P11 and can easily confirm the position of the designated measurement point P11 in the processed image R11.
  • a distance (10 [mm]) between two points on the subject corresponding to the measurement point P10 and the measurement point P11 is displayed on the display unit 170 as a measurement result.
  • the display unit 170 displays the R ′ image R10 and the processed image R11 so that the R ′ image R10 and the processed image R11 partially overlap each other.
  • the display unit 170 may display the R ′ image R10 and the processed image R11 side by side so that the R ′ image R10 and the processed image R11 do not overlap.
  • the display unit 170 may be configured independently of the imaging device 10g. Similar to the fourth embodiment, the selection instruction unit 190 may instruct the selection unit 180 to select an image having a higher SNR among the first monochrome correction image and the second monochrome correction image.
  • the imaging device 10g of the eighth embodiment reduces the double image due to the color shift of the image, improves the visibility, and makes the pointing easier. Can be generated. Since the processed image is displayed, the user can specify the measurement point with higher accuracy.
  • FIG. 22 shows a configuration of an imaging apparatus 10h according to the ninth embodiment of the present invention.
  • the configuration shown in FIG. 22 will be described while referring to differences from the configuration shown in FIG.
  • the selection unit 180 outputs the image selected as the selected monochrome correction image from the first monochrome correction image and the second monochrome correction image to the processed image generation unit 240. Further, the selection unit 180 outputs an image that has not been selected as the selected monochrome correction image among the first monochrome correction image and the second monochrome correction image to the superimposition unit 160.
  • the selection unit 180 selects the first monochrome correction image as the selected monochrome correction image
  • the second monochrome correction image is output from the selection unit 180 to the superimposition unit 160.
  • the selection unit 180 selects the second monochrome correction image as the selected monochrome correction image
  • the first monochrome correction image is output from the selection unit 180 to the superimposition unit 160.
  • the superimposing unit 160 superimposes the processed image on the selected monochrome corrected image.
  • the superimposing unit 160 generates an image in which the selected monochrome corrected image on which the processed image is superimposed and the monochrome corrected image output from the selecting unit 180 are arranged, and outputs the generated image to the display unit 170.
  • the display unit 170 displays the selected monochrome corrected image on which the processed image is superimposed and the monochrome corrected image side by side.
  • FIG. 23 shows an example of an image displayed on the display unit 170.
  • the R ′ image R10 on which the processed image R11 is superimposed is displayed.
  • the B ′ image B10 that has not been selected as the selected monochrome corrected image by the selection unit 180 is displayed.
  • the user designates a measurement point for the R ′ image R10 having a high SNR.
  • the measurement point P10 designated by the user is superimposed on the R ′ image R10, and the measurement point P11 designated by the user is superimposed on the processed image R11.
  • a distance (10 [mm]) between two points on the subject corresponding to the measurement point P10 and the measurement point P11 is displayed as a measurement result.
  • a point P12 corresponding to the measurement point P10 and a point P13 corresponding to the measurement point P11 are displayed superimposed on the B ′ image B10. The user can determine the measurement accuracy by confirming the points P12 and P13.
  • the display unit 170 may be configured independently of the imaging device 10h. Similar to the fourth embodiment, the selection instruction unit 190 may instruct the selection unit 180 to select an image having a higher SNR among the first monochrome correction image and the second monochrome correction image.
  • the processed image generation unit 240 may perform image processing on the selected monochrome corrected image and the image that has not been selected as the selected monochrome corrected image by the selection unit 180.
  • the imaging device 10h of the ninth embodiment reduces the double image due to the color shift of the image, improves the visibility, and makes the pointing easier. Can be generated. Since two monochrome corrected images are displayed, the user can confirm the result of specifying the measurement point.
  • the imaging apparatus and the endoscope apparatus can generate an image in which double images due to image color misregistration are reduced, visibility is improved, and pointing is easier. .
  • Imaging device 100 Pupil division optical system 101 First pupil 102 Second pupil 103 Lens 104 Band limiting filter 105 Diaphragm 110 Imaging element 120 Demosaic processing unit 130 Correction unit 140 user instruction unit 150 mark generation unit 160 superimposition unit 170 display unit 180 selection unit 190 selection instruction unit 200 measurement unit 210 measurement processing unit 220 second demosaic processing unit 230 second correction unit 240 processed image generation unit

Abstract

撮像装置において、補正部は、第1透過率特性に基づく成分を有する撮像画像に対して、前記第1透過率特性と第2透過率特性との重複する成分に基づく値を補正した第1モノクロ補正画像と、前記第2透過率特性に基づく成分を有する前記撮像画像に対して、前記第1透過率特性と前記第2透過率特性との重複する成分に基づく値を補正した第2モノクロ補正画像との少なくとも1つをモノクロ補正画像として出力する。重畳部は、前記モノクロ補正画像または前記モノクロ補正画像を処理した処理画像に対して、ポイント情報に基づいてマークを重畳し、かつ前記マークが重畳された前記モノクロ補正画像または前記処理画像を表示部に出力する。

Description

撮像装置および内視鏡装置
 本発明は、撮像装置および内視鏡装置に関する。
 近年の撮像装置には、R(赤)、G(緑)、およびB(青)で構成される原色のカラーフィルタを有する撮像素子が広く用いられている。カラーフィルタの帯域が広くなるほど透過光量が増え、かつ撮像感度が高まる。このため、一般的な撮像素子では、R、G、Bのカラーフィルタの透過率特性を意図的にオーバーラップさせる手法が用いられている。
 位相差AF等において、2つの瞳の視差を用いた位相差検出が行われている。例えば、特許文献1には、第1瞳領域がRおよびGの光を透過させ、かつ第2瞳領域がGおよびBの光を透過させる瞳分割光学系を有する撮像装置が開示されている。この撮像装置に搭載されたカラー撮像素子で得られたR画像およびB画像の位置ずれに基づいて位相差が検出される。
日本国特開2013-044806号公報
 特許文献1に開示された撮像装置は、合焦位置から外れた位置にある被写体を撮像したとき、画像に色ずれが発生する。特許文献1に開示された瞳分割光学系を有した撮像装置は、R画像およびB画像のボケの形状および重心位置をG画像のボケの形状および重心位置に近似させることにより、色ずれによる2重像を軽減した画像を表示する。
 特許文献1に開示された撮像装置において、G画像のボケの形状を基準にR画像およびB画像の補正が行われるため、G画像の波形に歪みがない(2重像がない)ことが前提である。しかし、G画像の波形が歪む場合もある。以下では、図24から図26を用いて、G画像の波形の歪みについて説明する。
 図24は、白および黒の被写体の撮像画像I10を示す。図25および図26は、撮像画像I10におけるラインL10のプロファイルを示す。図25および図26における横軸は撮像画像の水平方向のアドレスであり、かつ縦軸は撮像画像の画素値である。図25は、各色のカラーフィルタの透過率特性がオーバーラップしていない場合のプロファイルを示す。図26は、各色のカラーフィルタの透過率特性がオーバーラップしている場合のプロファイルを示す。プロファイルR20およびプロファイルR21は、R画像のプロファイルである。R画像は、Rのカラーフィルタが配置された画素の情報を含む。プロファイルG20およびプロファイルG21は、G画像のプロファイルである。G画像は、Gのカラーフィルタが配置された画素の情報を含む。プロファイルB20およびプロファイルB21は、B画像のプロファイルである。B画像は、Bのカラーフィルタが配置された画素の情報を含む。
 図25ではG画像のプロファイルG20の波形に歪みがないことがわかるが、図26では、G画像のプロファイルG21の波形に歪みがあることがわかる。Gのカラーフィルタを透過した光がRおよびBの成分を含むため、G画像のプロファイルG21の波形に歪みが発生する。特許文献1に開示された撮像装置では、図25に示すプロファイルG20を前提としており、図26に示すプロファイルG21に生じる波形の歪みを前提としていない。そのため、図26に示すプロファイルG21で示されるG画像を基準にR画像およびB画像のボケの形状および重心位置を補正した場合、撮像装置は色ずれがある2重像を含む画像を表示する。
 表示された画像に対して、ユーザーがポインティングすなわち点の指定を行う場合がある。例えば、工業用内視鏡装置において、ユーザーが指定した計測点に基づいて計測を行い、かつ計測結果に基づいてキズなどの検査を行うことができる。しかしながら、上記のような2重像を含む画像が表示された場合、ユーザーがポインティングを精度良く行うことが困難であるという課題がある。
 本発明は、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる撮像装置および内視鏡装置を提供することを目的とする。
 本発明の第1の態様によれば、撮像装置は、瞳分割光学系、撮像素子、補正部、ユーザー指示部、マーク生成部、および重畳部を有する。前記瞳分割光学系は、第1波長帯域の光を透過させる第1瞳と、前記第1波長帯域とは異なる第2波長帯域の光を透過させる第2瞳とを有する。前記撮像素子は、前記瞳分割光学系と、第1透過率特性を有する第1色フィルタとを透過した光を撮像し、かつ、前記瞳分割光学系と、前記第1透過率特性と一部が重複する第2透過率特性を有する第2色フィルタとを透過した光を撮像して撮像画像を出力する。前記補正部は、前記第1透過率特性に基づく成分を有する前記撮像画像に対して、前記第1透過率特性と前記第2透過率特性との重複する成分に基づく値を補正した第1モノクロ補正画像と、前記第2透過率特性に基づく成分を有する前記撮像画像に対して、前記第1透過率特性と前記第2透過率特性との重複する成分に基づく値を補正した第2モノクロ補正画像との少なくとも1つをモノクロ補正画像として出力する。前記ユーザー指示部は、ユーザーの指示に従い、前記モノクロ補正画像におけるポイントを示すポイント情報を出力する。前記マーク生成部は、マークを生成する。前記重畳部は、前記モノクロ補正画像または前記モノクロ補正画像を処理した処理画像に対して、前記ポイント情報に基づいて前記マークを重畳し、かつ前記マークが重畳された前記モノクロ補正画像または前記処理画像を表示部に出力する。
 本発明の第2の態様によれば、第1の態様において、前記補正部は、前記第1モノクロ補正画像および前記第2モノクロ補正画像を出力してもよい。前記撮像装置は、前記補正部から出力された前記第1モノクロ補正画像および前記第2モノクロ補正画像の少なくとも1つを選択し、かつ選択された画像を前記モノクロ補正画像として出力する選択部を有してもよい。
 本発明の第3の態様によれば、第2の態様において、前記撮像装置は、前記第1モノクロ補正画像および前記第2モノクロ補正画像の少なくとも1つの選択を前記選択部に指示する選択指示部を有してもよい。前記選択部は、前記選択指示部からの指示に応じて、前記第1モノクロ補正画像および前記第2モノクロ補正画像の少なくとも1つを選択してもよい。
 本発明の第4の態様によれば、第3の態様において、前記選択指示部は、前記第1モノクロ補正画像および前記第2モノクロ補正画像のうちSNR(signal-to-noise ratio)がより高い画像の選択を前記選択部に指示してもよい。
 本発明の第5の態様によれば、第3の態様において、前記選択指示部は、ユーザーからの指示に応じて、前記第1モノクロ補正画像および前記第2モノクロ補正画像の少なくとも1つの選択を前記選択部に指示してもよい。
 本発明の第6の態様によれば、第3の態様において、前記第1モノクロ補正画像および前記第2モノクロ補正画像の位相差を演算する計測部を有してもよい。前記ポイント情報は、前記位相差が演算される位置である計測点を示してもよい。
 本発明の第7の態様によれば、第3の態様において、前記撮像装置は、第2補正部および計測部を有してもよい。前記第2補正部は、前記補正部とは独立して配置され、前記第1透過率特性に基づく成分を有する前記撮像画像に対して、前記第1透過率特性と前記第2透過率特性との重複する成分に基づく値を補正した第3モノクロ補正画像と、前記第2透過率特性に基づく成分を有する前記撮像画像に対して、前記第1透過率特性と前記第2透過率特性との重複する成分に基づく値を補正した第4モノクロ補正画像とを生成する。前記計測部は、前記第3モノクロ補正画像および前記第4モノクロ補正画像の位相差を演算する。前記ポイント情報は、前記位相差が演算される位置である計測点を示してもよい。
 本発明の第8の態様によれば、第3の態様において、前記ユーザー指示部は、前記ユーザーの指示に従い、複数のモードの少なくとも1つを指定してもよい。前記撮像装置は、前記選択部から出力された前記モノクロ補正画像の少なくとも一部に対して、前記ユーザー指示部によって指定されたモードに対応する画像処理を行うことにより加工画像を生成し、かつ生成された加工画像を前記表示部に出力する画像処理部を有してもよい。
 本発明の第9の態様によれば、第3の態様において、前記画像処理部は、前記選択部から出力された前記モノクロ補正画像の少なくとも一部に対して、拡大処理、エッジ抽出処理、エッジ強調処理、およびノイズリダクション処理の少なくとも1つを行うことにより前記加工画像を生成してもよい。
 本発明の第10の態様によれば、第8の態様において、前記画像処理部は、前記選択部から出力された前記モノクロ補正画像の少なくとも一部に対して、拡大処理を行い、かつ、エッジ抽出処理、エッジ強調処理、およびノイズリダクション処理の少なくとも1つを行うことにより前記加工画像を生成してもよい。
 本発明の第11の態様によれば、内視鏡装置は、第1の態様の前記撮像装置を有する。
 上記の各態様によれば、撮像装置および内視鏡装置は、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。
本発明の第1の実施形態の撮像装置の構成を示すブロック図である。 本発明の第1の実施形態の瞳分割光学系の構成を示すブロック図である。 本発明の第1の実施形態の帯域制限フィルタの構成を示す図である。 本発明の第1の実施形態におけるbayer画像の画素配列を示す図である。 本発明の第1の実施形態におけるR画像の画素配列を示す図である。 本発明の第1の実施形態におけるG画像の画素配列を示す図である。 本発明の第1の実施形態におけるB画像の画素配列を示す図である。 本発明の第1の実施形態における第1瞳のRGフィルタ、第2瞳のBGフィルタ、および撮像素子のカラーフィルタの分光特性の例を示す図である。 本発明の第1の実施形態における第1瞳のRGフィルタ、第2瞳のBGフィルタ、および撮像素子のカラーフィルタの分光特性の例を示す図である。 本発明の第2の実施形態の撮像装置の構成を示すブロック図である。 本発明の第3の実施形態の撮像装置の構成を示すブロック図である。 本発明の第4の実施形態の撮像装置の構成を示すブロック図である。 本発明の第4の実施形態における選択指示部の動作の手順を示すフローチャートである。 本発明の第4の実施形態における第1モノクロ補正画像および第2モノクロ補正画像のヒストグラムの例を示す図である。 本発明の第5の実施形態の撮像装置の構成を示すブロック図である。 本発明の第6の実施形態の撮像装置の構成を示すブロック図である。 本発明の第7の実施形態の撮像装置の構成を示すブロック図である。 本発明の第7の実施形態の計測処理部の構成を示すブロック図である。 本発明の第8の実施形態の撮像装置の構成を示すブロック図である。 本発明の第8の実施形態の加工画像生成部が行う画像処理を示す図である。 本発明の第8の実施形態において表示される画像の例を示す図である。 本発明の第9の実施形態の撮像装置の構成を示すブロック図である。 本発明の第9の実施形態において表示される画像の例を示す図である。 白および黒の被写体の撮像画像を示す図である。 白および黒の被写体の撮像画像におけるラインのプロファイルを示す図である。 白および黒の被写体の撮像画像におけるラインのプロファイルを示す図である。
 図面を参照し、本発明の実施形態を説明する。
 (第1の実施形態)
 図1は、本発明の第1の実施形態の撮像装置10の構成を示す。撮像装置10は、デジタルスチルカメラ、ビデオカメラ、カメラ付き携帯電話、カメラ付き携帯情報端末、カメラ付きパーソナルコンピュータ、監視カメラ、内視鏡、およびデジタル顕微鏡などである。図1に示すように、撮像装置10は、瞳分割光学系100、撮像素子110、デモザイク処理部120、補正部130、ユーザー指示部140、マーク生成部150、重畳部160、および表示部170を有する。
 撮像装置10の概略構成について説明する。瞳分割光学系100は、第1波長帯域の光を透過させる第1瞳101と、第1波長帯域とは異なる第2波長帯域の光を透過させる第2瞳102とを有する。撮像素子110は、瞳分割光学系100と、第1透過率特性を有する第1色フィルタとを透過した光を撮像し、かつ、瞳分割光学系100と、第1透過率特性と一部が重複する第2透過率特性を有する第2色フィルタとを透過した光を撮像して撮像画像を出力する。補正部130は、第1透過率特性に基づく成分を有する撮像画像に対して、第1透過率特性と第2透過率特性との重複する成分に基づく値を補正した第1モノクロ補正画像と、第2透過率特性に基づく成分を有する撮像画像に対して、第1透過率特性と第2透過率特性との重複する成分に基づく値を補正した第2モノクロ補正画像との少なくとも1つをモノクロ補正画像として出力する。ユーザー指示部140は、ユーザーの指示に従い、モノクロ補正画像におけるポイントを示すポイント情報を出力する。マーク生成部150は、マークを生成する。重畳部160は、モノクロ補正画像に対して、ポイント情報に基づいてマークを重畳し、かつマークが重畳されたモノクロ補正画像を表示部170に出力する。表示部170は、マークが重畳されたモノクロ補正画像を表示する。
 撮像装置10の詳細な構成について説明する。瞳分割光学系100の第1瞳101は、R(赤)およびG(緑)の波長の光を透過させるRGフィルタを有する。瞳分割光学系100の第2瞳102は、B(青)およびG(緑)の波長の光を透過させるBGフィルタを有する。
 図2は、瞳分割光学系100の構成を示す。図2に示すように、瞳分割光学系100は、レンズ103、帯域制限フィルタ104、および絞り105を有する。例えば、レンズ103は、一般的には複数のレンズで構成されることが多い。図2においては簡単のために1枚のレンズのみが示されている。帯域制限フィルタ104は、撮像素子110に入射する光の光路上に配置されている。例えば、帯域制限フィルタ104は、絞り105の位置またはその近傍に配置されている。図2に示す例では、帯域制限フィルタ104は、レンズ103と絞り105との間に配置されている。絞り105は、レンズ103を通過した光の通過範囲を制限することにより、撮像素子110に入射する光の明るさを調節する。
 図3は、帯域制限フィルタ104の構成を示す。図3に示す例では、撮像素子110側から帯域制限フィルタ104を見たときに、帯域制限フィルタ104の左半分が第1瞳101を構成し、かつ帯域制限フィルタ104の右半分が第2瞳102を構成する。第1瞳101は、RおよびGの波長の光を透過させ、かつBの波長の光を遮断する。第2瞳102は、BおよびGの波長の光を透過させ、かつRの波長の光を遮断する。
 撮像素子110は、CCD(Charge Coupled Device)センサーおよびXYアドレス走査型のCMOS(Complementary Metal oxide Semiconductor)センサー等の光電変換素子である。撮像素子110の構成としては、単板原色ベイヤー配列、またはセンサーを3つ使用した3板等の方式がある。以下では単板原色ベイヤー配列のCMOSセンサー(500×500画素、深度10bit)を使用した例で本発明の実施形態を説明する。
 撮像素子110は、複数の画素を有する。また、撮像素子110は、第1色フィルタ、第2色フィルタ、および第3色フィルタを含むカラーフィルタを有する。カラーフィルタは、撮像素子110の各画素に配置されている。例えば、第1色フィルタはRフィルタであり、第2色フィルタはBフィルタであり、かつ第3色フィルタはGフィルタである。瞳分割光学系100を透過し、かつカラーフィルタを透過した光が撮像素子110の各画素に入射する。瞳分割光学系100を透過した光は、第1瞳101を透過した光と、第2瞳102を透過した光とである。撮像素子110は、第1色フィルタを透過した光が入射した第1画素の画素値と、第2色フィルタを透過した光が入射した第2画素の画素値と、第3色フィルタを透過した光が入射した第3画素の画素値とを含む撮像画像を取得および出力する。
 CMOSセンサーにおける光電変換により生成されたアナログ撮像信号に対して、撮像素子110によって、CDS(Correlated Double Sampling)、AGC(Analog Gain Control)、およびADC(Analog-to-Digital Converter)などのAFE処理(Analog Front End)が行われる。撮像素子110の外部の回路がAFE処理を行ってもよい。撮像素子110によって取得された撮像画像(bayer画像)は、デモザイク処理部120に転送される。
 デモザイク処理部120では、bayer画像がRGB画像に変換され、カラー画像が生成される。図4は、bayer画像の画素配列を示す。奇数行においてR(赤)およびGr(緑)の画素が交互に配置され、かつ偶数行においてGb(緑)およびB(青)の画素が交互に配置される。奇数列においてR(赤)およびGb(緑)の画素が交互に配置され、かつ偶数列においてGr(緑)およびB(青)の画素が交互に配置される。
 デモザイク処理部120は、bayer画像の画素値に対して、黒のレベル補正(OB(Optical Black)減算)を行う。さらに、デモザイク処理部120は、各画素の画素値をコピーすることにより、隣接画素の画素値を生成する。これにより、全ての画素において各色の画素値が揃ったRGB画像が生成される。例えば、デモザイク処理部120は、Rの画素値(R_00)にOB減算を行った後、画素値(R_00-OB)をコピーする。これにより、Rの画素に隣接するGr、Gb、およびBの画素におけるRの画素値が補間される。図5は、R画像の画素配列を示す。
 同様に、デモザイク処理部120は、Grの画素値(Gr_01)にOB減算を行った後、画素値(Gr_01-OB)をコピーする。また、デモザイク処理部120は、Gbの画素値(Gb_10)にOB減算を行った後、画素値(Gb_10-OB)をコピーする。これにより、Grの画素に隣接するRの画素およびGbの画素に隣接するBの画素におけるGの画素値が補間される。図6は、G画像の画素配列を示す。
 同様に、デモザイク処理部120は、Bの画素値(B_11)にOB減算を行った後、画素値(B_11-OB)をコピーする。これにより、Bの画素に隣接するR、Gr、およびGbの画素におけるBの画素値が補間される。図7は、B画像の画素配列を示す。
 デモザイク処理部120は、上記の処理により、R画像、G画像、およびB画像で構成されるカラー画像(RGB画像)を生成する。デモザイク処理の具体的な方法は、上記の方法に限らない。生成されたRGB画像に対してフィルタ処理が施されてもよい。デモザイク処理部120によって生成されたRGB画像は、補正部130に転送される。
 補正部130が行う処理の詳細について説明する。図8は、第1瞳101のRGフィルタ、第2瞳102のBGフィルタ、および撮像素子110のカラーフィルタの分光特性(透過率特性)の例を示す。図8における横軸は波長λ[nm]であり、かつ縦軸はゲインである。線fRGは、RGフィルタの分光特性を示す。線fBGは、BGフィルタの分光特性を示す。波長λがRGフィルタの分光特性とBGフィルタの分光特性との境界である。RGフィルタは、波長λよりも長波長側の波長帯域の光を透過させる。BGフィルタは、波長λよりも短波長側の波長帯域の光を透過させる。線fは、撮像素子110のRフィルタの分光特性(第1透過率特性)を示す。線fは、撮像素子110のGフィルタの分光特性を示す。GrフィルタおよびGbフィルタのフィルタ特性は同等であるため、GrフィルタおよびGbフィルタはGフィルタとして表されている。線fは、撮像素子110のBフィルタの分光特性(第2透過率特性)を示す。撮像素子110の各フィルタの分光特性は、オーバーラップしている。
 線fが示す分光特性において波長λよりも長波長側の領域のうち線fおよび線fの間の領域を領域φと定義する。線fが示す分光特性において波長λよりも長波長側の領域を領域φRGと定義する。線fが示す分光特性において波長λよりも短波長側の領域のうち線fおよび線fの間の領域を領域φと定義する。線fが示す分光特性において波長λよりも短波長側の領域を領域φGBと定義する。
 R画像およびB画像に基づいて位相差を取得する方式では、例えばR(赤)情報およびB(青)情報の位相の差が取得される。Rフィルタが配置された撮像素子110のR画素における光電変換により、R情報が取得される。R情報は、図8の領域φ、領域φRG、および領域φGBの情報を含む。領域φおよび領域φRGの情報は、第1瞳101のRGフィルタを透過した光に基づく。領域φGBの情報は、第2瞳102のBGフィルタを透過した光に基づく。R情報において領域φGBの情報は、Rフィルタの分光特性とBフィルタの分光特性との重複する成分に基づく。領域φGBは波長λよりも短波長側であるため、領域φGBの情報は、色ずれによる2重像の原因となるB情報である。この情報は、R画像の波形を歪ませ、かつ2重像を発生させるため、R情報には好ましくない。
 一方、Bフィルタが配置された撮像素子110のB画素における光電変換により、B情報が取得される。B情報は、図8の領域φ、領域φRG、および領域φGBの情報を含む。領域φおよび領域φGBの情報は、第2瞳102のBGフィルタを透過した光に基づく。B情報において領域φRGの情報は、Bフィルタの分光特性とRフィルタの分光特性との重複する成分に基づく。領域φRGの情報は、第1瞳101のRGフィルタを透過した光に基づく。領域φRGは波長λよりも長波長側であるため、領域φRGの情報は、色ずれによる2重像の原因となるR情報である。この情報は、B画像の波形を歪ませ、かつ2重像を発生させるため、B情報には好ましくない。
 赤情報において、青情報を含む領域φGBの情報を低減させ、かつ青情報において、赤情報を含む領域φRGの情報を低減させる補正がなされる。補正部130は、R画像とB画像に対して、補正処理を行う。つまり、補正部130は、赤情報において領域φGBの情報を低減させ、かつ青情報において領域φRGの情報を低減させる。
 図9は、図8と同様の図である。図9において、線fBRは、図8における領域φGBおよび領域φRGを示す。線fで示されるGフィルタの分光特性と、線fBRで示される分光特性とは、一般的に相似である。補正部130は、この性質を利用して補正処理を行う。補正部130は、補正処理において、式(1)および式(2)により赤情報および青情報を算出する。
  R’=R-α×G ・・・(1)
  B’=B-β×G ・・・(2)
 式(1)において、Rは補正処理が行われる前の赤情報であり、かつR’は補正処理が行われた後の赤情報である。式(2)において、Bは補正処理が行われる前の青情報であり、かつB’は補正処理が行われた後の青情報である。この例において、αおよびβは、0よりも大きく、かつ1よりも小さい。αおよびβは、撮像素子110の分光特性に応じて設定される。撮像装置10が照明用の光源を有する場合、αおよびβは、撮像素子110の分光特性および光源の分光特性に応じて設定される。例えば、αおよびβは、図示していないメモリに格納されている。
 式(1)および式(2)で示される演算により、Rフィルタの分光特性とBフィルタの分光特性との重複する成分に基づく値が補正される。補正部130は、上記のように補正された画像(モノクロ補正画像)を生成する。補正部130は、生成されたR’画像およびB’画像のいずれか1つを出力することにより、モノクロ補正画像を出力する。例えば、補正部130は、R’画像を出力する。第1の実施形態において、R’画像およびB’画像のいずれか1つが表示部170に出力される。補正部130は、R’画像およびB’画像を生成し、かつ生成されたR’画像およびB’画像のいずれか1つのみを出力してもよい。あるいは、補正部130は、R’画像およびB’画像のうち予め決められた1つのみを生成してもよい。
 重畳部160は、補正部130から出力されたモノクロ補正画像を表示部170に出力する。表示部170は、重畳部160から出力されたモノクロ補正画像を表示する。
 ユーザー指示部140は、ボタン、スイッチ、キー、およびマウス等のユーザーインターフェースである。ユーザー指示部140および表示部170は、タッチパネルとして構成されてもよい。ユーザーは、表示部170に表示されたモノクロ補正画像上の注目位置に対して、指によるタッチあるいはマウスによるクリック等を行う。これにより、ユーザーは、ユーザー指示部140を介して、モノクロ補正画像に対してポインティングを行う。ユーザー指示部140は、ユーザーによって指示された位置のポイント情報をマーク生成部150に出力する。例えば、ポイント情報は、(x,y)=(200,230)のような座標情報である。例えば、ユーザーは、モノクロ補正画像に写っている被写体に目印を付けるためにポインティングを行う。撮像装置10が内視鏡装置として構成されている場合、ユーザーは、モノクロ補正画像に写っているキズ等に計測点を指定するためにポインティングを行う。
 マーク生成部150は、マークのグラフィックデータを生成する。マークの形状および色は任意である。ユーザーがマークの形状や色を指定しても構わない。マーク生成部150は、生成されたマークと、ユーザー指示部140から出力されたポイント情報とを重畳部160に出力する。
 重畳部160は、補正部130から出力されたモノクロ補正画像に対してマークを重畳する。このとき、重畳部160は、モノクロ補正画像において、ポイント情報が示す位置にマークを重畳する。これにより、ユーザーがポインティングを行った位置にマークが重畳される。マークが重畳されたモノクロ補正画像は、表示部170に出力される。表示部170は、マークが重畳されたモノクロ補正画像を表示する。ユーザーは、モノクロ補正画像において自身が指定した位置を確認することができる。
 ユーザー指示部140から重畳部160にポイント情報が直接出力されてもよい。マーク生成部150は、モノクロ補正画像と同じ大きさを有し、かつポイント情報が示す位置にマークが重畳された画像を生成してもよい。マーク生成部150によって生成されるその画像は、透明な画像に対してマークが重畳された画像である。重畳部160は、補正部130から出力されたモノクロ補正画像に対して、マーク生成部150から出力された画像を重ねた画像を生成してもよい。
 補正部130から出力されたモノクロ補正画像(R’画像)に対して、例えばγ補正、スケーリング処理、エッジの強調、およびローパスフィルタ処理等の高画質化処理が行われてもよい。スケーリング処理では、バイキュービックおよびNearest Neighbor等が利用される。ローパスフィルタ処理では、折返し歪み(aliasing)が補正される。補正部130は、モノクロ補正画像に対して、これらの処理を行ってもよい。つまり、補正部130は、モノクロ補正画像を処理した処理画像を生成してもよい。あるいは、撮像装置10は、モノクロ補正画像に対してこれらの処理を行う画像処理部を有してもよい。重畳部160は、処理画像を表示部170に出力してもよい。また、重畳部160は、モノクロ補正画像を処理した処理画像に対して、ポイント情報に基づいてマークを重畳し、かつマークが重畳された処理画像を表示部170に出力してもよい。表示部170は、処理画像およびマークが重畳された処理画像を表示してもよい。
 モノクロ補正画像に対してスケーリング処理が行われる場合、ユーザーが指定した位置とマークが重畳される位置とを合わせるためにスケーリング情報がマーク生成部150に通知される。例えば、500x500の大きさを有するモノクロ補正画像(スケーリングなし)において、ユーザーがモノクロ補正画像の(x,y)=(200,230)の位置を指定した場合は、(x,y)=(200,230)の位置にマークを生成する必要がある。一方、スケーリングをした場合、ユーザーによって指定された位置をスケーリングに応じて変換する必要がある。例えば、500x500の大きさを有するモノクロ補正画像が2倍の大きさ(1000x1000)に拡大された場合、(x,y)=(200,230)の座標は、処理画像において(x,y)=(400,460)の位置に対応する。そのため、この座標にマークを生成する必要がある。
 デモザイク処理部120、補正部130、マーク生成部150、および重畳部160は、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、およびマイクロプロセッサーなどで構成することができる。例えば、デモザイク処理部120、補正部130、マーク生成部150、および重畳部160は、ASICおよびエンベデッドプロセッサーで構成される。デモザイク処理部120、補正部130、マーク生成部150、および重畳部160は、それ以外のハードウエア、ソフトウエア、ファームウエア、またはこれらの組み合わせで構成されてもよい。
 表示部170は、バックライトが必要な透過型LCD(Liquid Crystal Display)および自発光タイプのEL(Electro Luminescence)素子(有機EL)などである。例えば、表示部170は透過型LCDで構成され、かつLCD駆動に必要な駆動部を有する。駆動部は、駆動信号を生成し、かつ駆動信号によりLCDを駆動する。
 撮像装置10は、内視鏡装置であってもよい。工業用内視鏡において、瞳分割光学系100および撮像素子110は、観察および計測の対象物の内部に挿入される挿入部の先端に配置される。
 第1の実施形態の撮像装置10は、補正部130を有することにより、画像の色ずれによる2重像を低減することができる。また、モノクロ補正画像が表示されることにより、画像の視認性を改善することができる。ユーザーは、R画像およびB画像に基づいて位相差を取得する方式において画像を観察する場合であっても、色ずれによる2重像が低減され、かつ視認性が向上した画像を観察することができる。
 ユーザーは、表示部170に表示されたモノクロ補正画像または処理画像を観察し、かつ画像に対してポインティングを行うことができる。上記のように色ずれによる2重像が低減された画像が表示されるため、ユーザーは、容易にポインティングを行うことができる。つまり、ユーザーは、より精度良くポインティングを行うことができる。
 表示部170はモノクロ補正画像を表示するため、表示部170に出力される情報量が低下する。そのため、表示部170の消費電力を削減することができる。
 (第2の実施形態)
 図10は、本発明の第2の実施形態の撮像装置10aの構成を示す。図10に示す構成について、図1に示す構成と異なる点を説明する。
 撮像装置10aは表示部170を有していない。表示部170は、撮像装置10aから独立して構成されている。補正部130から出力されたモノクロ補正画像は、通信機を介して表示部170に出力されてもよい。例えば、通信機は、表示部170と有線または無線により通信を行う。
 上記以外の点について、図10に示す構成は、図1に示す構成と同様である。
 第2の実施形態の撮像装置10aは、第1の実施形態の撮像装置10と同様に、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。表示部170が撮像装置10aから独立しているため、撮像装置10aを小型化することができる。また、モノクロ補正画像を転送することにより、カラー画像に比べて、表示部170に対して画像を転送するときのフレームレートが向上し、かつビットレートが低減する。
 (第3の実施形態)
 図11は、本発明の第3の実施形態の撮像装置10bの構成を示す。図11に示す構成について、図1に示す構成と異なる点を説明する。
 撮像装置10bは、図1に示す撮像装置10の構成に加えて、選択部180を有する。補正部130は、第1モノクロ補正画像および第2モノクロ補正画像を出力する。前述したように、第1モノクロ補正画像は、第1透過率特性に基づく成分を有する撮像画像に対して、第1透過率特性と第2透過率特性との重複する成分に基づく値を補正することにより生成された画像である。第2モノクロ補正画像は、第2透過率特性に基づく成分を有する撮像画像に対して、第1透過率特性と第2透過率特性との重複する成分に基づく値を補正することにより生成された画像である。選択部180は、補正部130から出力された第1モノクロ補正画像および第2モノクロ補正画像の少なくとも1つを選択し、かつ選択された画像を選択モノクロ補正画像として出力する。例えば、第1モノクロ補正画像は、R’画像である。例えば、第2モノクロ補正画像は、B’画像である。
 上記以外の点について、図11に示す構成は、図1に示す構成と同様である。
 第3の実施形態の撮像装置10bは、第1の実施形態の撮像装置10と同様に、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。
 (第4の実施形態)
 図12は、本発明の第4の実施形態の撮像装置10cの構成を示す。図12に示す構成について、図11に示す構成と異なる点を説明する。
 撮像装置10cは、図11に示す撮像装置10bの構成に加えて、選択指示部190を有する。選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像の少なくとも1つの選択を選択部180に指示する。選択部180は、選択指示部190からの指示に応じて、第1モノクロ補正画像および第2モノクロ補正画像の少なくとも1つを選択する。
 選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像のうちSNR(signal-to-noise ratio)がより高い画像の選択を選択部180に指示する。例えば、選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像の解析結果に応じて、第1モノクロ補正画像および第2モノクロ補正画像のいずれか1つの選択を選択部180に指示する。以下の例では、選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像のヒストグラムに応じて、第1モノクロ補正画像および第2モノクロ補正画像のいずれか1つの選択を選択部180に指示する。
 上記以外の点について、図12に示す構成は、図11に示す構成と同様である。
 図13は、選択指示部190の動作の手順を示す。補正部130によって生成された第1モノクロ補正画像および第2モノクロ補正画像が選択指示部190に入力される。選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像のヒストグラム解析を行う(ステップS100)。ステップS100の後、選択指示部190は、ヒストグラム解析によって決定されたモノクロ補正画像の選択を補正部130に指示する(ステップS110)。
 ステップS100における処理の詳細について説明する。選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像における各画素の画素値のヒストグラムを生成する。図14は、第1モノクロ補正画像および第2モノクロ補正画像のヒストグラムの例を示す。図14における横軸は画素値の階調であり、かつ縦軸は度数である。図14において、第1モノクロ補正画像であるR’画像における複数のR画素の画素値のヒストグラムと、第2モノクロ補正画像であるB’画像における複数のB画素の画素値のヒストグラムとが示されている。撮像素子110の深度10bit(0から1023)は、領域A1から領域A6に区別されている。領域A1は、画素値が0から169の領域である。領域A2は、画素値が170から339の領域である。領域A3は、画素値が340から509の領域である。領域A4は、画素値が510から679の領域である。領域A5は、画素値が680から849の領域である。領域A6は、画素値が850から1023の領域である。より左側の領域の画素値を有する画素はより暗く、より右側の領域の画素値を有する画素はより明るい。図14に示す例では、R画素の度数は、B画素の度数と比べて、より明るい領域に分布している。そのため、R’画像は、B’画像に比べてSNRが高いと判断できる。選択指示部190は、選択部180が選択するモノクロ補正画像をR’画像に決定する。
 この例では、選択指示部190は、複数のR画素の画素値のヒストグラムと、複数のB画素の画素値のヒストグラムとを生成する。選択指示部190は、R画素およびB画素のうち、より大きい画素値の度数がより多い画素に対応するモノクロ補正画像の選択を選択部180に指示する。
 選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像の代わりに、撮像画像すなわちbayer画像を使用してもよい。例えば、選択指示部190は、bayer画像における複数のR画素の画素値のヒストグラムと、bayer画像における複数のB画素の画素値のヒストグラムとを生成する。選択指示部190は、各ヒストグラムに基づいて、上記と同様の処理を行う。また、表示部170は、撮像装置10cから独立して構成されてもよい。
 第4の実施形態の撮像装置10cは、第1の実施形態の撮像装置10と同様に、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。
 選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像のうちSNRがより高い画像の選択を選択部180に指示する。SNRがより高いモノクロ補正画像が表示されるため、ユーザーは、ポインティングをより容易に行うことができる。
 (第5の実施形態)
 図15は、本発明の第5の実施形態の撮像装置10dの構成を示す。図15に示す構成について、図12に示す構成と異なる点を説明する。
 選択指示部190は、ユーザーからの指示に応じて、第1モノクロ補正画像および第2モノクロ補正画像の少なくとも1つの選択を選択部180に指示する。ユーザー指示部140は、ユーザーからの指示を受け付ける。ユーザーは、第1モノクロ補正画像および第2モノクロ補正画像のいずれか1つを選択する指示を、ユーザー指示部140を介して入力する。ユーザー指示部140は、第1モノクロ補正画像および第2モノクロ補正画像のうちユーザーにより指示された画像の情報を選択指示部190に出力する。選択指示部190は、ユーザー指示部140から出力された情報が示す画像の選択を選択部180に指示する。
 上記以外の点について、図15に示す構成は、図12に示す構成と同様である。
 表示部170は、撮像装置10dから独立して構成されてもよい。
 第5の実施形態の撮像装置10dは、第1の実施形態の撮像装置10と同様に、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。
 選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像のうちユーザーにより指示された画像の選択を選択部180に指示する。これにより、ユーザーは、自身が好む画像に対してポインティングを行うことができる。
 (第6の実施形態)
 図16は、本発明の第6の実施形態の撮像装置10eの構成を示す。図16に示す構成について、図15に示す構成と異なる点を説明する。
 撮像装置10eは、図15に示す撮像装置10dの構成に加えて、計測部200を有する。補正部130によって生成された第1モノクロ補正画像および第2モノクロ補正画像が計測部200に入力される。また、ユーザー指示部140から出力されたポイント情報が計測部200に入力される。計測部200は、第1モノクロ補正画像および第2モノクロ補正画像の位相差を演算する。ユーザー指示部140から出力されるポイント情報は、位相差が演算される位置である計測点を示す。計測部200は、ポイント情報が示す計測点における位相差を演算する。
 計測部200は、位相差に基づいて被写体の距離を算出する。例えば、画像の任意の1点がユーザーにより指定された場合、計測部200は奥行きの計測を行う。画像の任意の2点がユーザーにより指定された場合、計測部200は2点間の距離を計測することができる。計測部200は、計測結果を計測値のキャラクター情報として重畳部160に出力する。計測部200は、ASIC、FPGA、およびマイクロプロセッサーなどで構成される。
 重畳部160は、選択モノクロ補正画像に計測値のキャラクター情報を重畳し、かつ計測値のキャラクター情報が重畳された選択モノクロ補正画像を表示部170に出力する。表示部170は、計測値のキャラクター情報が重畳された選択モノクロ補正画像を表示する。これにより、ユーザーは計測結果を確認することができる。
 上記以外の点について、図16に示す構成は、図15に示す構成と同様である。
 表示部170は、撮像装置10eから独立して構成されてもよい。第4の実施形態と同様に、選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像のうちSNRがより高い画像の選択を選択部180に指示してもよい。
 第6の実施形態の撮像装置10eは、第1の実施形態の撮像装置10と同様に、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。ユーザーは、視認性が改善された画像に対して計測点をより精度良く指定することができる。
 (第7の実施形態)
 図17は、本発明の第7の実施形態の撮像装置10fの構成を示す。図17に示す構成について、図16に示す構成と異なる点を説明する。
 撮像装置10fにおいて、図16に示す撮像装置10eにおける計測部200は計測処理部210に変更される。撮像素子110から出力されたbayer画像が計測処理部210に入力される。また、ユーザー指示部140から出力されたポイント情報が計測処理部210に入力される。計測処理部210は、計測値のキャラクター情報を重畳部160に出力する。
 上記以外の点について、図17に示す構成は、図16に示す構成と同様である。
 図18は、計測処理部210の構成を示す。図18に示すように、計測処理部210は、第2デモザイク処理部220、第2補正部230、および計測部200を有する。
 撮像素子110から出力されたbayer画像が第2デモザイク処理部220に入力される。第2デモザイク処理部220は、bayer画像の各画素の画素値をコピーすることにより、隣接画素の画素値を生成する。これにより、全ての画素において各色の画素値が揃ったRGB画像が生成される。RGB画像は、R画像、G画像、およびB画像で構成される。第7の実施形態の第2デモザイク処理部220はOB減算を行わなかったが、OB減算を行っても構わない。第2デモザイク処理部220がOB減算を行う場合、OB減算値はデモザイク処理部120が使用したOB減算値と異なっても構わない。第2デモザイク処理部220は、生成されたRGB画像を第2補正部230に出力する。
 第2補正部230は、補正部130とは独立して配置されている。第2補正部230は、第1透過率特性に基づく成分を有する撮像画像に対して、第1透過率特性と第2透過率特性との重複する成分に基づく値を補正した第3モノクロ補正画像と、第2透過率特性に基づく成分を有する撮像画像に対して、第1透過率特性と第2透過率特性との重複する成分に基づく値を補正した第4モノクロ補正画像とを生成する。第2補正部230は、生成された第3モノクロ補正画像および第4モノクロ補正画像を計測部200に出力する。計測部200は、第3モノクロ補正画像および第4モノクロ補正画像の位相差を演算する。
 具体的には、第2補正部230は、R画像とB画像に対して、補正処理を行う。第2補正部230による補正処理は、補正部130による補正処理と同様である。第2補正部230は、赤情報において図8の領域φGBの情報を低減させ、かつ青情報において図8の領域φRGの情報を低減させる。これにより、第3モノクロ補正画像であるR’画像が生成され、かつ第4モノクロ補正画像であるB’画像が生成される。
 計測部200は、図16に示す撮像装置10eにおける計測部200と同様に構成されている。第2デモザイク処理部220および第2補正部230は、ASIC、FPGA、およびマイクロプロセッサーなどで構成される。
 表示部170は、撮像装置10fから独立して構成されてもよい。第4の実施形態と同様に、選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像のうちSNRがより高い画像の選択を選択部180に指示してもよい。
 第7の実施形態の撮像装置10fは、第1の実施形態の撮像装置10と同様に、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。ユーザーは、視認性が改善された画像に対して計測点をより精度良く指定することができる。
 第2デモザイク処理部220が計測部200の計測処理に合わせてOB減算値(上記の例では、ゼロ)を設定することで、計測に適したOB減算をすることができ、計測精度の向上につながる。また、デモザイク処理部120が、黒レベルに合わせて、OB減算値を設定することで、適切な黒レベルの設定が可能となり、画質が向上する。
 (第8の実施形態)
 図19は、本発明の第8の実施形態の撮像装置10gの構成を示す。図19に示す構成について、図16に示す構成と異なる点を説明する。
 撮像装置10gは、図16に示す撮像装置10eの構成に加えて、加工画像生成部240を有する。ユーザー指示部140は、ユーザーの指示に従い、複数のモードの少なくとも1つを指定する。選択部180によって選択された選択モノクロ補正画像が加工画像生成部240に入力される。加工画像生成部240は、選択部180から出力された選択モノクロ補正画像の少なくとも一部に対して、ユーザー指示部140によって指定されたモードに対応する画像処理を行うことにより加工画像を生成する。加工画像生成部240は、選択モノクロ補正画像の少なくとも一部に対して画像処理を行う。加工画像生成部240は、生成された加工画像と、選択部180から出力された選択モノクロ補正画像とを重畳部160に出力する。
 加工画像生成部240は、画像処理部を構成する。加工画像生成部240は、ASIC、FPGA、およびマイクロプロセッサーなどで構成される。加工画像生成部240は、選択部180から出力されたモノクロ補正画像の少なくとも一部に対して、拡大処理、エッジ抽出処理、エッジ強調処理、およびノイズリダクション処理の少なくとも1つを行うことにより加工画像を生成する。加工画像生成部240は、選択部180から出力された選択モノクロ補正画像の少なくとも一部に対して、拡大処理を行い、かつ、エッジ抽出処理、エッジ強調処理、およびノイズリダクション処理の少なくとも1つを行うことにより加工画像を生成してもよい。
 重畳部160は、必要に応じて、選択モノクロ補正画像に対して加工画像を重畳し、かつ加工画像が重畳された選択モノクロ補正画像を表示部170に出力する。加工画像が加工画像生成部240から表示部170に直接出力されてもよい。
 上記以外の点について、図19に示す構成は、図16に示す構成と同様である。
 図20は、加工画像生成部240が行う画像処理を示す。図20において、7つの画像処理方法が示されている。第1の方法は、拡大処理である。第2の方法は、エッジ抽出処理である。第3の方法は、エッジ強調処理である。第4の方法は、ノイズリダクション(NR)処理である。第5の方法は、拡大処理およびエッジ抽出処理の組合せである。第6の方法は、拡大処理およびエッジ強調処理の組合せである。第7の方法は、拡大処理およびNR処理の組合せである。
 例えば、図20に示す7つの画像処理方法が表示部170に表示される。ユーザーは、表示部170の画面のタッチ等により所望の画像処理方法を指定する。ユーザー指示部140は、ユーザーにより指示された画像処理方法を示す情報を加工画像生成部240に出力する。加工画像生成部240は、ユーザーにより指示された画像処理方法で選択モノクロ補正画像を処理する。
 図21は、表示部170に表示された画像の例を示す。例えば、R’画像R10が表示される。ユーザーは、R’画像R10に対して計測点を指定する。図21において、計測点P10が指定された後、計測点P11が指定されるときの状態が示されている。計測点P11が指定されるとき、R’画像R10において、ユーザーが計測点P11として指定しようとする位置を含む所定領域を拡大した加工画像R11が生成される。加工画像R11は、R’画像R10に重畳表示される。ユーザーが計測点P11として指定しようとする位置の周辺が拡大されるため、ユーザーは計測点P11を指定しやすく、かつ指定された計測点P11の位置を加工画像R11において確認しやすい。計測点P10および計測点P11に対応する被写体上の2点間の距離(10[mm])が計測結果として表示部170に表示される。
 図21において、表示部170は、R’画像R10および加工画像R11の一部が重なるようにR’画像R10および加工画像R11を表示する。表示部170は、R’画像R10および加工画像R11が重ならないように、R’画像R10および加工画像R11を並べて表示してもよい。
 表示部170は、撮像装置10gから独立して構成されてもよい。第4の実施形態と同様に、選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像のうちSNRがより高い画像の選択を選択部180に指示してもよい。
 第8の実施形態の撮像装置10gは、第1の実施形態の撮像装置10と同様に、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。加工画像が表示されるため、ユーザーは、計測点をより精度良く指定することができる。
 (第9の実施形態)
 図22は、本発明の第9の実施形態の撮像装置10hの構成を示す。図22に示す構成について、図19に示す構成と異なる点を説明する。
 選択部180は、第1モノクロ補正画像および第2モノクロ補正画像のうち選択モノクロ補正画像として選択された画像を加工画像生成部240に出力する。また、選択部180は、第1モノクロ補正画像および第2モノクロ補正画像のうち選択モノクロ補正画像として選択されなかった画像を重畳部160に出力する。選択部180が第1モノクロ補正画像を選択モノクロ補正画像として選択した場合、第2モノクロ補正画像が選択部180から重畳部160に出力される。選択部180が第2モノクロ補正画像を選択モノクロ補正画像として選択した場合、第1モノクロ補正画像が選択部180から重畳部160に出力される。
 重畳部160は、選択モノクロ補正画像に対して加工画像を重畳する。また、重畳部160は、加工画像が重畳された選択モノクロ補正画像と、選択部180から出力されたモノクロ補正画像とが並んだ画像を生成し、生成された画像を表示部170に出力する。表示部170は、加工画像が重畳された選択モノクロ補正画像と、モノクロ補正画像とを並べて表示する。
 上記以外の点について、図22に示す構成は、図19に示す構成と同様である。
 図23は、表示部170に表示された画像の例を示す。図21と同様に、加工画像R11が重畳されたR’画像R10が表示される。また、選択部180によって選択モノクロ補正画像として選択されなかったB’画像B10が表示される。例えば、ユーザーは、SNRが高いR’画像R10に対して計測点を指定する。ユーザーによって指定された計測点P10がR’画像R10に重畳表示され、かつユーザーによって指定された計測点P11が加工画像R11に重畳表示される。また、計測点P10および計測点P11に対応する被写体上の2点間の距離(10[mm])が計測結果として表示される。さらに、計測点P10に対応する点P12と、計測点P11に対応する点P13とがB’画像B10に重畳表示される。ユーザーは、点P12および点P13を確認することにより、計測精度を判断することができる。
 表示部170は、撮像装置10hから独立して構成されてもよい。第4の実施形態と同様に、選択指示部190は、第1モノクロ補正画像および第2モノクロ補正画像のうちSNRがより高い画像の選択を選択部180に指示してもよい。加工画像生成部240は、選択モノクロ補正画像と、選択部180によって選択モノクロ補正画像として選択されなかった画像とに画像処理を行ってもよい。
 第9の実施形態の撮像装置10hは、第1の実施形態の撮像装置10と同様に、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。2つのモノクロ補正画像が表示されるため、ユーザーは、計測点の指定結果を確認することができる。
 以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
 本発明の各実施形態によれば、撮像装置および内視鏡装置は、画像の色ずれによる2重像が低減され、視認性が改善され、かつポインティングがより容易な画像を生成することができる。
 10,10a,10b,10c,10d,10e,10f,10g,10h 撮像装置
 100 瞳分割光学系
 101 第1瞳
 102 第2瞳
 103 レンズ
 104 帯域制限フィルタ
 105 絞り
 110 撮像素子
 120 デモザイク処理部
 130 補正部
 140 ユーザー指示部
 150 マーク生成部
 160 重畳部
 170 表示部
 180 選択部
 190 選択指示部
 200 計測部
 210 計測処理部
 220 第2デモザイク処理部
 230 第2補正部
 240 加工画像生成部

Claims (11)

  1.  第1波長帯域の光を透過させる第1瞳と、前記第1波長帯域とは異なる第2波長帯域の光を透過させる第2瞳とを有する瞳分割光学系と、
     前記瞳分割光学系と、第1透過率特性を有する第1色フィルタとを透過した光を撮像し、かつ、前記瞳分割光学系と、前記第1透過率特性と一部が重複する第2透過率特性を有する第2色フィルタとを透過した光を撮像して撮像画像を出力する撮像素子と、
     前記第1透過率特性に基づく成分を有する前記撮像画像に対して、前記第1透過率特性と前記第2透過率特性との重複する成分に基づく値を補正した第1モノクロ補正画像と、前記第2透過率特性に基づく成分を有する前記撮像画像に対して、前記第1透過率特性と前記第2透過率特性との重複する成分に基づく値を補正した第2モノクロ補正画像との少なくとも1つをモノクロ補正画像として出力する補正部と、
     ユーザーの指示に従い、前記モノクロ補正画像におけるポイントを示すポイント情報を出力するユーザー指示部と、
     マークを生成するマーク生成部と、
     前記モノクロ補正画像または前記モノクロ補正画像を処理した処理画像に対して、前記ポイント情報に基づいて前記マークを重畳し、かつ前記マークが重畳された前記モノクロ補正画像または前記処理画像を表示部に出力する重畳部と、
     を有する撮像装置。
  2.  前記補正部は、前記第1モノクロ補正画像および前記第2モノクロ補正画像を出力し、
     前記撮像装置は、
     前記補正部から出力された前記第1モノクロ補正画像および前記第2モノクロ補正画像の少なくとも1つを選択し、かつ選択された画像を前記モノクロ補正画像として出力する選択部
     を有する請求項1に記載の撮像装置。
  3.  前記第1モノクロ補正画像および前記第2モノクロ補正画像の少なくとも1つの選択を前記選択部に指示する選択指示部を有し、
     前記選択部は、前記選択指示部からの指示に応じて、前記第1モノクロ補正画像および前記第2モノクロ補正画像の少なくとも1つを選択する
     請求項2に記載の撮像装置。
  4.  前記選択指示部は、前記第1モノクロ補正画像および前記第2モノクロ補正画像のうちSNR(signal-to-noise ratio)がより高い画像の選択を前記選択部に指示する
     請求項3に記載の撮像装置。
  5.  前記選択指示部は、ユーザーからの指示に応じて、前記第1モノクロ補正画像および前記第2モノクロ補正画像の少なくとも1つの選択を前記選択部に指示する
     請求項3に記載の撮像装置。
  6.  前記第1モノクロ補正画像および前記第2モノクロ補正画像の位相差を演算する計測部を有し、
     前記ポイント情報は、前記位相差が演算される位置である計測点を示す
     請求項3に記載の撮像装置。
  7.  前記補正部とは独立して配置され、前記第1透過率特性に基づく成分を有する前記撮像画像に対して、前記第1透過率特性と前記第2透過率特性との重複する成分に基づく値を補正した第3モノクロ補正画像と、前記第2透過率特性に基づく成分を有する前記撮像画像に対して、前記第1透過率特性と前記第2透過率特性との重複する成分に基づく値を補正した第4モノクロ補正画像とを生成する第2補正部と、
     前記第3モノクロ補正画像および前記第4モノクロ補正画像の位相差を演算する計測部と、
     を有し、
     前記ポイント情報は、前記位相差が演算される位置である計測点を示す
     請求項3に記載の撮像装置。
  8.  前記ユーザー指示部は、前記ユーザーの指示に従い、複数のモードの少なくとも1つを指定し、
     前記撮像装置は、
     前記選択部から出力された前記モノクロ補正画像の少なくとも一部に対して、前記ユーザー指示部によって指定されたモードに対応する画像処理を行うことにより加工画像を生成し、かつ生成された加工画像を前記表示部に出力する画像処理部
     を有する請求項3に記載の撮像装置。
  9.  前記画像処理部は、前記選択部から出力された前記モノクロ補正画像の少なくとも一部に対して、拡大処理、エッジ抽出処理、エッジ強調処理、およびノイズリダクション処理の少なくとも1つを行うことにより前記加工画像を生成する
     請求項8に記載の撮像装置。
  10.  前記画像処理部は、前記選択部から出力された前記モノクロ補正画像の少なくとも一部に対して、拡大処理を行い、かつ、エッジ抽出処理、エッジ強調処理、およびノイズリダクション処理の少なくとも1つを行うことにより前記加工画像を生成する
     請求項8に記載の撮像装置。
  11.  請求項1に記載の撮像装置を有する内視鏡装置。
PCT/JP2017/015706 2017-04-19 2017-04-19 撮像装置および内視鏡装置 WO2018193546A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/015706 WO2018193546A1 (ja) 2017-04-19 2017-04-19 撮像装置および内視鏡装置
US16/599,223 US20200045279A1 (en) 2017-04-19 2019-10-11 Imaging apparatus and endoscope apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/015706 WO2018193546A1 (ja) 2017-04-19 2017-04-19 撮像装置および内視鏡装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/599,223 Continuation US20200045279A1 (en) 2017-04-19 2019-10-11 Imaging apparatus and endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2018193546A1 true WO2018193546A1 (ja) 2018-10-25

Family

ID=63855725

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/015706 WO2018193546A1 (ja) 2017-04-19 2017-04-19 撮像装置および内視鏡装置

Country Status (2)

Country Link
US (1) US20200045279A1 (ja)
WO (1) WO2018193546A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013044806A (ja) * 2011-08-22 2013-03-04 Olympus Corp 撮像装置
JP2015011058A (ja) * 2013-06-26 2015-01-19 オリンパス株式会社 撮像装置及び撮像方法
WO2016121464A1 (ja) * 2015-01-28 2016-08-04 オリンパス株式会社 信号処理装置および内視鏡システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013044806A (ja) * 2011-08-22 2013-03-04 Olympus Corp 撮像装置
JP2015011058A (ja) * 2013-06-26 2015-01-19 オリンパス株式会社 撮像装置及び撮像方法
WO2016121464A1 (ja) * 2015-01-28 2016-08-04 オリンパス株式会社 信号処理装置および内視鏡システム

Also Published As

Publication number Publication date
US20200045279A1 (en) 2020-02-06

Similar Documents

Publication Publication Date Title
JP5816015B2 (ja) 固体撮像装置及びカメラモジュール
JP5701785B2 (ja) カメラモジュール
JP5740465B2 (ja) 撮像装置及び欠陥画素補正方法
KR101391161B1 (ko) 화상처리장치
US8988591B2 (en) Solid-state imaging device, camera module, and focus adjustment method of camera module
CN103444183B (zh) 彩色摄像元件及摄像装置
JP2013093914A (ja) 画像入力装置
JP2019033917A (ja) 内視鏡システム
JP2016048815A (ja) 画像処理装置、画像処理方法、及び、画像処理システム
JP5600812B2 (ja) 撮像装置
JP2020005844A (ja) 医療用画像処理装置及び医療用観察装置
US10778948B2 (en) Imaging apparatus and endoscope apparatus
JP2016100879A (ja) 撮像装置、画像処理方法
JP2011109620A (ja) 撮像装置および画像処理方法
JP2007318630A (ja) 画像入力装置、撮像モジュール、及び固体撮像装置
US9374568B2 (en) Image processing apparatus, imaging apparatus, and image processing method
WO2018193546A1 (ja) 撮像装置および内視鏡装置
JP2019154029A (ja) 画像処理装置及び撮像装置
JP5036524B2 (ja) 画像処理装置、画像処理方法、プログラムおよび撮像装置
WO2018193552A1 (ja) 撮像装置および内視鏡装置
JP2013012089A (ja) 画像処理装置、カメラおよび画像処理プログラム
JP4781825B2 (ja) 撮像装置
JP2010093336A (ja) 撮像装置および補間処理方法
JP4017017B2 (ja) カラー撮像装置
JP2012256169A (ja) 画像処理装置および画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17906266

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17906266

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP