WO2014119257A1 - 撮像システム - Google Patents

撮像システム Download PDF

Info

Publication number
WO2014119257A1
WO2014119257A1 PCT/JP2014/000333 JP2014000333W WO2014119257A1 WO 2014119257 A1 WO2014119257 A1 WO 2014119257A1 JP 2014000333 W JP2014000333 W JP 2014000333W WO 2014119257 A1 WO2014119257 A1 WO 2014119257A1
Authority
WO
WIPO (PCT)
Prior art keywords
image information
light
information
image
wavelength band
Prior art date
Application number
PCT/JP2014/000333
Other languages
English (en)
French (fr)
Inventor
善光 野口
山形 道弘
今村 典広
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2014525645A priority Critical patent/JP5873983B2/ja
Publication of WO2014119257A1 publication Critical patent/WO2014119257A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/14Special procedures for taking photographs; Apparatus therefor for taking photographs during medical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene

Definitions

  • This application relates to an imaging system.
  • Patent Document 1 is known in the field of an imaging system that acquires polarization information in addition to normal image information.
  • Patent Document 1 discloses an image processing method that suppresses the influence of surface reflection of light included in an image acquired using an imaging system.
  • the reflected light component is corrected by a process including a difference calculation between a pixel having polarization characteristics and a pixel having no polarization characteristics, using an imaging device in which some pixels have polarization characteristics. Done.
  • an imaging system is arranged to receive light reflected by a subject, and includes first image information having information on light in a first wavelength band, and first image information.
  • Second image information having information of light in the second wavelength band polarized in the direction of the first polarization axis, and the second image information polarized in the direction of the second polarization axis different from the direction of the first polarization axis.
  • An image pickup unit configured to acquire third image information having light information of two wavelength bands, and based on the second and third image information, image information of a specular reflection component of the subject, Alternatively, an operation configured to acquire image information of an internal diffusion component and acquire and output the subject information without using the second and third image information based on the first image information.
  • a processing unit configured to acquire third image information having light information of two wavelength bands, and based on the second and third image information, image information of a specular reflection component of the subject, Alternatively, an operation configured to acquire image information of an internal diffusion component and acquire and output the subject information without using the second and third image information based on the first image information.
  • a processing unit configured to acquire third image information having light information of two wavelength bands, and based on the second and third image information, image information of a specular reflection component of the subject, Alternatively, an operation configured to acquire image information of an internal diffusion component and acquire and output the subject information without using the second and third image information based on the first image information.
  • An imaging system is arranged to receive light reflected from a subject, and has first image information having light information in a first wavelength band, in the direction of a first polarization axis. Second image information having information on the polarized light in the second wavelength band, and light in the second wavelength band polarized in a second polarization axis direction different from the first polarization axis direction.
  • An imaging unit configured to acquire third image information having information, and image information of a specular reflection component or image information of an internal diffusion component of the subject based on the second and third image information
  • An arithmetic processing unit configured to acquire and output information on the subject based on the first image information without performing a difference calculation with the second and third image information. ,including.
  • image information from pixels that do not have polarization characteristics when acquiring various pieces of object information based on image information from pixels that do not have polarization characteristics, image information from pixels that have polarization characteristics is not used, or Difference calculation with image information from a pixel having polarization characteristics is not performed. Therefore, it is possible to acquire image information that is less affected by noise.
  • FIG. 1 is a schematic diagram illustrating an imaging system AP in an exemplary embodiment 1.
  • FIG. 1 is a schematic diagram of an imaging apparatus according to an exemplary embodiment 1.
  • FIG. 3 is a diagram illustrating an arrangement of pixels on an image sensor in exemplary embodiment 1.
  • FIG. 3 is a block diagram illustrating a procedure of image processing of the imaging apparatus A according to exemplary Embodiment 1.
  • FIG. 3 is a block diagram illustrating a procedure of image processing of the imaging apparatus A according to exemplary Embodiment 1.
  • FIG. It is a schematic diagram which shows the content of the image processing of the block diagram of FIG. It is a block diagram which shows the procedure of the image processing of the imaging device A of a reference form.
  • FIG. 6 is a schematic diagram of an imaging apparatus according to an exemplary embodiment 2.
  • FIG. It is the front view which looked at optical field D1, D2, D3, and D4 of optical element L1s in example Embodiment 2 from the photographic subject side. It is the front view which looked at optical field D1, D2, D3, and D4 of optical element L1p in exemplary Embodiment 2 from the photographic subject side.
  • FIG. 6 is a perspective view of an arrayed optical element K in an exemplary embodiment 2. It is a figure which expands and shows the array-like optical element K and image pick-up element Nb which are shown in FIG. 8 in exemplary Embodiment 2.
  • FIG. 10 is a schematic diagram of an imaging unit IP according to an exemplary embodiment 3. It is a schematic diagram of imaging system AP of exemplary Embodiment 4. It is a schematic diagram which shows the example of the polarization state of the specular reflected light in case the illuminating device EXL is installed above the to-be-subject Ob. It is a schematic diagram which shows the modification of imaging system AP of exemplary Embodiment 4. FIG. It is a figure for demonstrating other embodiment.
  • An imaging system is arranged to receive light reflected from a subject, and includes first image information having information on light in a first wavelength band, and a first polarization axis. Second image information having information of light in the second wavelength band polarized in the direction, and second wavelength band polarized in a second polarization axis direction different from the first polarization axis direction. Based on the imaging unit configured to acquire third image information having light information and the second and third image information, the image information of the specular reflection component of the subject, or the internal diffusion component An arithmetic processing unit configured to acquire image information, and acquire and output information on the subject based on the first image information without using the second and third image information; Including.
  • An imaging system is arranged to receive light reflected by a subject, and includes first image information having information on light in a first wavelength band, and a first polarization axis. Second image information having information of light in the second wavelength band polarized in the direction, and second wavelength band polarized in a second polarization axis direction different from the first polarization axis direction. Based on the imaging unit configured to acquire third image information having light information and the second and third image information, the image information of the specular reflection component of the subject, or the internal diffusion component Arithmetic processing configured to acquire image information and acquire and output information on the subject based on the first image information without performing a difference calculation with the second and third image information Part.
  • An imaging system includes a polarized illumination configured to emit light polarized in the direction of the first polarization axis, and light emitted from the polarized illumination and reflected by a subject.
  • First image information having information on light in the first wavelength band
  • second image information having information on light in the second wavelength band, polarized in the direction of the first polarization axis
  • Third image information having information on the light in the third wavelength band, and information on light in the third wavelength band polarized in the direction of the second polarization axis different from the direction of the first polarization axis Obtained by selecting, for each corresponding pixel pair, a pixel having a small luminance value among the corresponding pixel pairs in the third and fourth image information, and an imaging unit configured to acquire fourth image information having Low luminance image information, and the third and fourth At least one of the high luminance image information obtained by selecting, for each corresponding pixel pair, a pixel having a large luminance value among the corresponding pixel pairs in the image information
  • the arithmetic processing unit performs a gain process for compensating for an influence due to light attenuation that occurs when the third and fourth image information is acquired on the average image information.
  • Corrected average image information is generated by performing gain processing for adjusting white balance on the first image information, the second image information, and the corrected average image information, thereby generating first color information
  • the second color information and the third color information are respectively generated, and the first to third color information is synthesized to generate the color image.
  • An imaging system includes a polarization illumination configured to emit light polarized in the direction of the first polarization axis, and light emitted from the polarization illumination and reflected from a subject.
  • First image information having light information in the first wavelength band
  • second image information having light information in the second wavelength band
  • Third image information having information on polarized light in the third wavelength band, and light in the third wavelength band polarized in a second polarization axis direction different from the first polarization axis direction.
  • An imaging unit configured to acquire fourth image information having information, average image information indicating an average value of luminance values for each corresponding pixel pair in the third and fourth image information, and the third And difference in luminance value for each corresponding pixel pair in the fourth image information Difference image information indicating an absolute value is generated, and the luminance value of the corresponding pixel in the difference image information is calculated from the luminance value of each pixel in each of the first image information, the second image information, and the average image information.
  • An arithmetic processing unit configured to generate a color image by image processing including an operation of subtracting or adding values.
  • the arithmetic processing unit performs a gain process for compensating for an influence caused by attenuation of light generated when acquiring the third and fourth image information on the average image information.
  • Corrected average image information is generated by performing gain processing for adjusting white balance on the first image information, the second image information, and the corrected average image information, thereby generating first color information
  • the second color information and the third color information are generated, respectively, and the difference image information is corrected for the influence caused by the attenuation of light that occurs when the third and fourth image information is acquired.
  • the said arithmetic processing part respond
  • a color image in which the specular reflection component of light from the subject is suppressed is generated by image processing that subtracts the luminance value of the pixel, and each of the first image information, the second image information, and the average image information
  • a color image in which the specular reflection component of light from the subject is increased is generated by image processing for adding the luminance value of the corresponding pixel in the difference image information from the luminance value of each pixel.
  • the first wavelength band, the second wavelength band, and the third wavelength band are different wavelength bands included in a visible light wavelength band.
  • the third wavelength band is a blue or green wavelength band.
  • the direction of the first polarization axis and the direction of the second polarization axis are orthogonal to each other.
  • the imaging unit includes a plurality of first pixels, a plurality of second pixels, a plurality of third pixels, and a plurality of fourth pixels arranged two-dimensionally.
  • An image sensor is provided, and the first to fourth image information is acquired based on electrical signals output from the first to fourth pixels.
  • each of the plurality of first pixels includes a first photoelectric conversion element and a first spectral filter designed to transmit light in the first wavelength band.
  • Each of the plurality of second pixels includes a second photoelectric conversion element and a second spectral filter designed to transmit light in the second wavelength band, and
  • Each of the third pixels includes a third photoelectric conversion element, a third spectral filter designed to transmit light in the third wavelength band, and a direction parallel to the first polarization axis.
  • a first polarizing filter that transmits polarized light to each of the plurality of fourth pixels, and each of the plurality of fourth pixels is designed to transmit a fourth photoelectric conversion element and light in the third wavelength band. And transmits the light polarized in the direction parallel to the second polarization axis.
  • a second polarizing filter that is designed to.
  • the imaging unit includes a first optical region that transmits light in the first wavelength band, a second optical region that transmits light in the second wavelength band, and the first optical region.
  • a third optical region that transmits the light of the third wavelength band polarized in the direction of the polarization axis of the fourth light, and a fourth optical region that transmits the light of the third wavelength band polarized in the direction of the second polarization axis.
  • the plurality of third pixels, and the array-shaped optical element configured to enter the plurality of fourth pixels.
  • the imaging unit is disposed on first to fourth lenses arranged in parallel to an imaging surface of the imaging element, and an optical axis of the first lens, and the first A first spectral filter that transmits light in the second wavelength band, a second spectral filter that is disposed on the optical axis of the second lens and transmits light in the second wavelength band, and the third spectral filter.
  • a third spectral filter disposed on the optical axis of the lens and transmitting light in the third wavelength band; and a third spectral filter disposed on the optical axis of the fourth lens and transmitting light in the third wavelength band.
  • a fourth spectral filter a first polarizing filter disposed on the optical axis of the third lens and transmitting light polarized in the direction of the first polarization axis, and the light of the fourth lens
  • a second optical element disposed on the axis and transmitting light polarized in the direction of the second polarization axis;
  • a polarizing filter wherein the plurality of first pixels are arranged at positions to receive light transmitted through the first lens and the first spectral filter, and the plurality of second pixels are The second lens and the second spectral filter are arranged to receive light transmitted through the second lens, and the plurality of third pixels includes the third lens, the third spectral filter, and the first polarized light.
  • the plurality of fourth pixels are arranged at positions for receiving light transmitted through the filter, and are arranged at positions for receiving light transmitted through the fourth lens, the fourth spectral filter, and the second polarizing filter.
  • the imaging system further includes a display device that displays an image generated by the imaging unit.
  • the polarized illumination is disposed in the vicinity of the display device, and a direction of a polarization axis of the polarized illumination is a horizontal direction.
  • An image processing apparatus includes a polarization illumination configured to emit light polarized in the direction of the first polarization axis, and light emitted from the polarization illumination and reflected from a subject.
  • First image information having light information in the first wavelength band
  • second image information having light information in the second wavelength band
  • Third image information having information on polarized light in the third wavelength band, and light in the third wavelength band polarized in a second polarization axis direction different from the first polarization axis direction.
  • An image processing unit configured to acquire fourth image information having information, and an image processing device that processes a signal output from the image pickup device, wherein the third and fourth image information For each corresponding pixel pair, select a pixel with a lower luminance value from the corresponding pixel pair.
  • Low luminance image information obtained by selecting, and at least high luminance image information obtained by selecting, for each corresponding pixel pair, a pixel having a large luminance value among the corresponding pixel pairs in the third and fourth image information.
  • average image information indicating an average value of luminance values for each corresponding pixel pair in the third and fourth image information is generated, and the first image information, the second image information, and the average image are generated.
  • a color image is generated by image processing based on information.
  • An image processing apparatus includes a polarization illumination configured to emit light polarized in the direction of the first polarization axis, and light emitted from the polarization illumination and reflected from a subject.
  • First image information having light information in the first wavelength band
  • second image information having light information in the second wavelength band
  • Third image information having information on polarized light in the third wavelength band, and light in the third wavelength band polarized in a second polarization axis direction different from the first polarization axis direction.
  • An image processing unit configured to acquire fourth image information having information, and an image processing device that processes a signal output from the image pickup device, wherein the third and fourth image information Average image information indicating the average luminance value for each corresponding pixel pair, Difference image information indicating an absolute value of a difference in luminance value for each corresponding pixel pair in the third and fourth image information is generated, and the first image information, the second image information, and the average image are generated.
  • a color image is generated by image processing including processing of subtracting or adding the luminance value of the corresponding pixel of the difference image information from the luminance value of each pixel in each piece of information.
  • a computer program provides polarized illumination configured to emit light polarized in the direction of the first polarization axis, and light emitted from the polarized illumination and reflected by a subject.
  • First image information having information on light in the first wavelength band
  • second image information having information on light in the second wavelength band, polarized in the direction of the first polarization axis
  • Third image information having information on the light in the third wavelength band, and information on light in the third wavelength band polarized in the direction of the second polarization axis different from the direction of the first polarization axis
  • a computer program for processing a signal output from an imaging device comprising: an imaging unit configured to acquire fourth image information, wherein the third and fourth are stored in a computer.
  • Corresponding pixel pairs in image information Among the corresponding pixel pairs in the low-luminance image information obtained by selecting a pixel having a small luminance value for each corresponding pixel pair and the corresponding pixel pairs in the third and fourth image information, a pixel having a large luminance value is defined for each corresponding pixel pair. Generating at least one of high luminance image information obtained by selecting, generating average image information indicating an average value of luminance values for each corresponding pixel pair in the third and fourth image information, and Generating a color image by performing image processing based on the first image information, the second image information, and the average image information.
  • a computer program provides polarized illumination configured to emit light polarized in the direction of the first polarization axis, and light emitted from the polarized illumination and reflected by a subject.
  • First image information having information on light in the first wavelength band
  • second image information having information on light in the second wavelength band, polarized in the direction of the first polarization axis
  • Third image information having information on the light in the third wavelength band, and information on light in the third wavelength band polarized in the direction of the second polarization axis different from the direction of the first polarization axis
  • a computer program for processing a signal output from an imaging device comprising: an imaging unit configured to acquire fourth image information, wherein the third and fourth are stored in a computer.
  • Corresponding pixel pairs in image information Generating average image information indicating an average value of luminance values of the first and second steps, generating difference image information indicating an absolute value of a difference between luminance values of corresponding pixel pairs in the third and fourth image information, and An image including a process of subtracting or adding the luminance value of the corresponding pixel of the difference image information from the luminance value of each pixel in each of the first image information, the second image information, and the average image information And a step of generating a color image by the processing.
  • An imaging system is arranged to receive polarized illumination configured to emit horizontally polarized light and light emitted from the polarized illumination and reflected from a subject.
  • An imaging unit configured to acquire horizontal polarization image information having information of light polarized in the horizontal direction and vertical polarization image information having information of light polarized in the vertical direction; and
  • a display configured to display image information based on the horizontally polarized image information acquired by the imaging unit and image information based on the vertically polarized image information.
  • the display is a liquid crystal display having a plurality of color filters and a plurality of polarization filters, and the directions of the polarization axes of the plurality of polarization filters are coincident with the horizontal direction.
  • the display is a part of a liquid crystal display having a plurality of color filters and a plurality of polarizing filters, and the polarized illumination is another part of the liquid crystal display,
  • the direction of the polarization axis of the polarizing filter coincides with the horizontal direction, and no color filter is provided in the other part of the liquid crystal display.
  • the polarized illumination is disposed on both sides or around the display.
  • the apparatus further includes auxiliary illumination configured to emit non-polarized light.
  • the imaging unit acquires, as the horizontally polarized image information, image information including information on light in the first wavelength band polarized in the horizontal direction, and the first polarized in the vertical direction.
  • Image information having light information of one wavelength band is acquired as the vertically polarized image information, and further has image information having light information of the second wavelength band and light information of the third wavelength band It is configured to acquire image information.
  • FIG. 1 is a schematic diagram showing an imaging system AP of the present embodiment.
  • This imaging system AP is used for the purpose of diagnosing the health condition of the skin by photographing the face of the subject.
  • the imaging system AP includes a polarized illumination Qa that emits light polarized in the first direction, an imaging device A that generates and outputs image information based on the light from the subject Ob, and the polarized illumination Qa and the imaging device A.
  • the control part CS which controls is provided.
  • the polarized illumination Qa includes a light source LS1 that emits visible light and a polarization filter PLQ1 that is disposed on the optical path of the light emitted from the light source LS1 and has a first polarization axis parallel to the first direction. .
  • the polarized illumination Qa emits light (linearly polarized light) polarized in the direction of the first polarization axis.
  • the light emitted from the polarized illumination Qa does not have to be strictly linearly polarized light, and most of the emitted light only needs to be polarized in the direction of the first polarization axis.
  • the imaging apparatus A includes an imaging unit IP that acquires information (image information) indicating an image based on light from the subject Ob, and an arithmetic processing unit PR1 that processes a signal output from the imaging unit IP.
  • the imaging unit IP includes an optical system that focuses light from the subject Ob, and an imaging element that generates image information by photoelectric conversion.
  • the imaging unit IP and the arithmetic processing unit PR1 are connected to each other by an unillustrated wiring so that an electrical signal can be exchanged.
  • the arithmetic processing unit PR1 can be realized by an integrated circuit such as a microcontroller (MCU) or a central processing unit (CPU).
  • the imaging element is realized by a known image sensor such as a CCD or CMOS sensor.
  • the control unit CS performs various processes such as control of the imaging device A and polarized illumination Qa and input / output control with the external device EXT.
  • the control unit CS may be an integrated circuit such as a microcontroller (MCU) or a central processing unit (CPU).
  • the control unit CS may be realized only by hardware, or may be realized by a combination of hardware and software.
  • the external device EXT can be, for example, an information processing device such as a monitor that displays an image output from the imaging system AP or a personal computer that processes the image.
  • the imaging system AP is a recording medium for recording information such as an input / output interface for connecting to the external device EXT, a user interface for receiving a user operation, an image, a control program, and the like. Other elements may be included.
  • the imaging apparatus A can also include other elements such as a recording medium that records information such as an input / output interface and various types of information generated during the processing and control programs.
  • FIG. 2A is a schematic diagram showing an outline of the configuration and functions of the imaging unit IP shown in FIG.
  • the imaging unit IP of the imaging apparatus A of the present embodiment includes a lens L and an imaging element Na.
  • FIG. 2B is a diagram showing an arrangement of pixels on the image sensor Na.
  • four types of pixels Pa1, Pa2, Pa3, and Pa4 are two-dimensionally arranged on the image sensor Na.
  • Each pixel has a photoelectric conversion element such as a photodiode, and various filters arranged to face the photoelectric conversion element.
  • the pixel Pa1 is provided with a bandpass filter (spectral filter) that mainly transmits light in the first wavelength band ⁇ 1, and is not provided with a polarizing filter.
  • the pixel Pa2 is provided with a bandpass filter that mainly transmits light in the second wavelength band ⁇ 2, and is not provided with a polarizing filter.
  • the pixel Pa3 is provided with a bandpass filter that mainly transmits light in the third wavelength band ⁇ 3 and a polarization filter that mainly transmits light polarized in the direction of the first polarization axis.
  • the pixel Pa4 is provided with a bandpass filter that mainly transmits light in the third wavelength band ⁇ 3 and a polarization filter that mainly transmits light polarized in the direction of the second polarization axis.
  • the direction of the second polarization axis is a direction different from the direction of the first polarization axis, and in the following description, the direction is perpendicular to the first polarization axis.
  • the band pass filter of each pixel is configured by an absorption type filter or a filter having wavelength selectivity formed by a dielectric multilayer film.
  • the polarizing filter can be constituted by, for example, a wire grid polarizer.
  • the light beam from the subject passes through the lens L and then reaches the imaging surface of the imaging element Na.
  • the pixel Pa1 is provided with a bandpass filter that mainly transmits light in the first wavelength band ⁇ 1, it has information on the light in the first wavelength band ⁇ 1 by extracting only the signal of the pixel Pa1.
  • the first image information S101 can be generated.
  • the second image information S102 having the light information of the second wavelength band ⁇ 2.
  • the pixel Pa3 includes a bandpass filter that mainly transmits light in the third wavelength band ⁇ 3 and a polarization filter that mainly transmits light polarized in the direction of the first polarization axis.
  • the pixel Pa4 includes a bandpass filter that mainly transmits light in the third wavelength band ⁇ 3 and a polarization filter that mainly transmits light polarized in the direction of the second polarization axis.
  • the imaging unit IP acquires the first image information S101, the second image information S102, the third image information S103, and the fourth image information S104.
  • the first wavelength band ⁇ 1, the second wavelength band ⁇ 2, and the third wavelength band ⁇ 3 are wavelength bands mainly including the red, green, and blue wavelength bands, respectively.
  • the first wavelength band ⁇ 1 is a wavelength band of about 600 nm to about 700 nm
  • the second wavelength band ⁇ 2 is a wavelength band of about 500 nm to about 600 nm
  • the third wavelength band ⁇ 3 is about 400 nm to It can be a wavelength band of about 500 nm.
  • the first wavelength band ⁇ 1, the second wavelength band ⁇ 2, and the third wavelength band ⁇ 3 may be different from each other.
  • “different” between the two wavelength bands includes not only the case where there is no portion overlapping the two wavelength bands but also the case where the two wavelength bands partially overlap.
  • the first wavelength band ⁇ 1, the second wavelength band ⁇ 2, and the third wavelength band ⁇ 3 may partially overlap.
  • the lens optical system L may be composed of a single lens or a plurality of lenses. In FIG. 2A, only one lens is illustrated.
  • the light emitted from the light source LS1 of the polarization illumination Qa shown in FIG. 1 passes through the polarization filter PLQ1 and reaches the subject Ob.
  • the polarization filter PLQ1 mainly transmits light polarized in a direction parallel to the first polarization axis, and absorbs most of the light polarized in a direction orthogonal to the first polarization axis. Accordingly, the object Ob is irradiated only with light polarized in the direction of the first polarization axis.
  • the subject Ob is, for example, a living body such as a human face skin.
  • the subject Ob is human face skin.
  • the light that reaches the face skin (subject Ob) has a reflected component and an absorbed component, and the imaging apparatus A performs imaging by receiving the reflected component light.
  • the light reflected by the face skin includes a component reflected by the surface of the face skin and a component emitted from a position different from the incident position after entering the inside of the face skin and repeating scattering.
  • the inside of the facial skin is the epidermis region. Melanin is generated in areas where spots are generated in the epidermis area. Light that has entered the epidermis, especially light in the wavelength band from blue to near ultraviolet rays, is easily attenuated by melanin.
  • the light reflected from the surface of the face skin is further divided into a specular reflection component and a diffuse reflection component.
  • the component that is specularly reflected by the facial skin maintains the polarization state.
  • the component that diffusely reflects on the face skin and the component that enters the face skin and exits from different positions are in a non-polarized state in which the polarization state is disturbed.
  • the first image information S101 and the second image information S102 generated based on the outputs of the pixels Pa1 and Pa2 that are not provided with the polarizing filter include the component of light that is specularly reflected by the facial skin, the facial skin, and the like. All of the components of the light diffusely reflected on the surface of the light and the components of the light entering the inside of the face skin and emitted from different positions are included. That is, an image generated from the image information is the same as an image captured by a normal camera. Since these images include a specular reflection component of facial skin (for example, shining facial skin), it is difficult to recognize a decrease in luminance due to spots.
  • the third image information S103 is an image in which pores and texture on the skin surface are easy to see.
  • the fourth image information S104 most of the specular reflection component of the facial skin is cut by a polarizing filter that mainly transmits light polarized in the direction of the second polarization axis, and is easily absorbed by melanin. Since it has information on light in the third wavelength band, it is an image that is easy to see on the skin of the face that is slightly difficult to see with the naked eye.
  • the imaging unit IP includes the first image information S101 having the light information of the first wavelength band ⁇ 1, the second image information S102 having the light information of the second wavelength band ⁇ 2, and the facial skin.
  • Third image information S103 having information on light in the third wavelength band in which the state such as pores is easy to see
  • fourth image information having information on light in the third wavelength band ⁇ 3 in which the state such as stains on the face skin is easily seen S104 can be acquired simultaneously.
  • a non-polarized image having information on light in the third wavelength band ⁇ 3 is missing.
  • the arithmetic processing unit PR1 of the present embodiment performs a non-polarized image (seventh image information) having information on light in the third wavelength band ⁇ 3 and an image indicating the diffusion component (fifth image processing) by the following image processing. Image information) and an image (sixth image information) indicating the specular reflection component are generated.
  • FIG. 3A is a diagram for explaining the flow of image processing by the arithmetic processing unit PR1 (hereinafter sometimes referred to as “first arithmetic processing unit PR1”).
  • the first arithmetic processing unit PR1 acquires first image information S101, second image information S102, third image information S103, and fourth image information S104 generated by the imaging unit IP.
  • the third image information S103 having the information on the light in the third wavelength band polarized in the direction of the first polarization axis, and the information on the light in the third wavelength band polarized in the direction of the second polarization axis.
  • 5th image information S301, 6th image information S302, and 7th image information S303 are produced
  • the fifth image information S301 includes two pixels (hereinafter referred to as “corresponding pixel pairs”) corresponding to the image position information (coordinates on the image) in the third image information S103 and the fourth image information S104. It is an image generated by selecting the smaller luminance value as the minimum value for each corresponding pixel pair (for each coordinate on the image). In the present specification, the fifth image information S301 may be referred to as “low luminance image information”.
  • the sixth image information S302 is an image selected for each corresponding pixel pair with the maximum value of the corresponding pixel pairs in the third image information S103 and the fourth image information S104 as the maximum value.
  • the sixth image information S302 may be referred to as “high luminance image information”.
  • 7th image information S303 is an image comprised by the value which carried out the average calculation for every corresponding pixel pair of said 3rd image information S103 and said 4th image information S104.
  • the seventh image information S303 may be referred to as “average image information”.
  • the reason why the fifth image information S301 and the sixth image information S302 are generated is to remove the influence of disturbance light other than the polarized illumination Qa.
  • the third image information S103 is generated based on light polarized in a direction parallel to the polarization axis of the polarized illumination Qa, and thus basically includes information on the specular reflection component of light.
  • the fourth image information S104 is generated based on light polarized in a direction perpendicular to the polarization axis of the polarized illumination Qa, basically, the fourth image information S104 mainly includes a light diffusion component. However, this relationship may be reversed depending on the intensity of disturbance light, the polarization state, and the state of the subject.
  • the third image information S103 may indicate a diffusion component and the fourth image information S104 may indicate a specular reflection component. This inversion phenomenon may occur for each portion of the subject, that is, for each pixel. For this reason, the arithmetic processing unit PR1 of the present embodiment compares the luminance value for each corresponding pixel of the third image information S103 and the fourth image information S104, and collects only the pixels having a small luminance value. Information S301 and 6th image information S302 which collected only the pixel with a large luminance value are produced
  • the fifth image information S301 is an image mainly representing a diffusion component of light from a living body even if some disturbance light is present in addition to the polarized illumination Qa.
  • Information and the sixth image information S302 is mainly image information representing a specular reflection component of light from a living body.
  • the seventh image information S303 is an image corresponding to a non-polarized image by light in the third wavelength band ⁇ 3 that enters without passing through the polarizing filter.
  • FIG. 4 is a diagram schematically showing the above image processing image.
  • the fifth image information S301 includes the stain XS information.
  • the sixth image information S302 contains almost no stain XS information, but mainly contains the state XK such as pores and texture on the skin surface.
  • the seventh image information S303 includes a state XK such as a spot XS and a surface pore as much as the non-polarized state.
  • the first arithmetic processing unit PR1 generates a first color image S305 based on the first image information S101, the second image information S102, and the seventh image information S303.
  • the seventh image information S303 oscillates in the direction of the first polarization axis, and includes the third image information S103 having information on the light in the third wavelength band ⁇ 3, and the second polarization axis.
  • the image is composed of values obtained by averaging the corresponding pixels of the fourth image information S104 having the information on the light in the third wavelength band ⁇ 3.
  • the seventh image information S303 can be regarded as image information having light information of the third wavelength band ⁇ 3 acquired in a state where the pixel of the image sensor does not have a polarizing filter.
  • the third image information S103 and the fourth image information S104 are both image information based on the light transmitted through the polarization filter, the luminance value is attenuated to about 1 ⁇ 2 compared to the case without the polarization filter. is doing. In order to compensate for the influence, it is necessary to double the luminance value of the seventh image information S303. Since the actual transmittance of the polarizing filter is not 1, if the maximum transmittance of the polarizing filter is T, it is necessary to compensate for the influence of light attenuation due to the maximum transmittance.
  • the first calculation processing unit PR1 performs the calculation represented by the following expression (1) for each pixel, and corrects the pixel values of the seventh image information S303 to obtain eighth image information (corrected average image information).
  • S304 is generated.
  • P304 (2 / T) ⁇ P303 (1)
  • the luminance value of each pixel constituting the image is represented by the symbol P. That is, the luminance value P303 indicates the luminance value of the corresponding pixel in the seventh image information S303, and the luminance value P304 indicates the luminance value of the corresponding pixel in the eighth image information S304.
  • the same notation is used.
  • the first wavelength band ⁇ 1, the second wavelength band ⁇ 2, and the third wavelength band ⁇ 3 mainly include the red, green, and blue wavelength bands, respectively.
  • the first image information S101, the second image information S102, and the seventh image information S303 are image information of a red component, a green component, and a blue component, respectively.
  • the eighth image information S304 is also blue component image information.
  • the first arithmetic processing unit PR1 performs image synthesis processing including white balance processing on the first image information S101, the second image information S102, and the eighth image information S304, thereby performing the first processing.
  • One color image S305 is generated.
  • an image obtained by performing white balance processing on the first image information S101 is designated as the first ⁇ 1 image information (first color information) S21
  • an image obtained by performing white balance processing on the second image information S102 is designated as the first.
  • the image obtained by performing white balance processing on the ⁇ 2 image information (second color information) S22 and the eighth image information S304 is referred to as first ⁇ 3 image information (third color information) S23.
  • the white balance gain for the first image information S101 is gain Rg
  • the white balance gain for the second image information S102 is gain Gg
  • the white balance gain for the eighth image information S304 is gain Bg.
  • the first color image S305 obtained by synthesizing the first ⁇ 1 image information S21, the first ⁇ 2 image information S22, and the first ⁇ 3 image information S23 generated in this manner is used as a polarizing filter. This corresponds to a color image acquired when it is assumed that is not provided.
  • the first color image S305 as a normal color image
  • the fifth image information S301 as an image in which a spot portion is emphasized
  • the sixth image information S302 as a noticeable image can be acquired simultaneously.
  • the first ⁇ 1 image information S21 and the first ⁇ 2 image information S22 used for the synthesis of the first color image S305 are respectively the first image information S101 from pixels having no polarization characteristics.
  • the second image information S102 is obtained by performing gain processing. That is, correction such as difference calculation using image information from pixels having polarization characteristics is not performed. Thereby, a color image with little influence of noise can be generated.
  • the first color image S305 may be generated, or only at least one of the fifth image information S301 and the sixth image information S302 may be generated.
  • the third wavelength band ⁇ 3 is blue, but it may be green. In that case, by setting the first wavelength band ⁇ 1 to red and the second wavelength band ⁇ 2 to blue, a normal color image, a diffuse component image by a green wavelength, and a specular reflection component image are generated. Become.
  • the third wavelength band ⁇ 3 may be red.
  • a normal color image, a diffuse component image by a red wavelength, and a specular reflection component image are generated.
  • the first wavelength band ⁇ 1, the second wavelength band ⁇ 2, and the third wavelength band ⁇ 3 may be bands other than the visible light range.
  • a near-ultraviolet band or a near-infrared band may be used.
  • a normal color image cannot be obtained, but a composite image representing information in a band other than visible light is obtained.
  • the fifth, sixth, seventh, and eighth image information include the diffused light component, the specular reflected light component, and the attenuated normal reflected light in the third wavelength band, respectively. And image information indicating the corrected normal reflected light component.
  • the polarization illumination Qa is not limited to the one that emits white light, and any illumination that includes the light component of the third wavelength band ⁇ 3 polarized in the direction of the first polarization axis may be used. .
  • the polarized illumination Qa may be irradiated with monochromatic light, or may be irradiated with near ultraviolet rays or near infrared rays.
  • a display device is added to the imaging system AP as the external device EXT shown in FIG. 1, an image of a characteristic part of a living body such as a skin spot can be confirmed in real time.
  • a display device for example, a liquid crystal display is used.
  • FIG. 5A is a diagram showing an outline of the flow of image processing based on the image information S101 to S104 acquired by the imaging unit IP of the imaging apparatus A of the present embodiment.
  • FIG. 5B is a diagram illustrating details of the flow of the image processing.
  • ninth image information S306 is generated instead of the fifth image information (low luminance image information) S301 and the sixth image information (high luminance image information) S302 in the first embodiment.
  • the ninth image information S306 is image information obtained by calculating the absolute value of the difference in luminance value for each corresponding pixel pair in the third image information S103 and the fourth image information S104.
  • the ninth image information S306 may be referred to as “difference image information”.
  • the third image information S103 is information of light polarized in the direction of the first polarization axis parallel to the polarization axis of the illumination light Qa, both the light diffusion component and the specular reflection component are obtained. Including.
  • the fourth image information S103 is information of light polarized in the direction of the second polarization axis substantially perpendicular to the polarization axis of the illumination light Qa
  • the fourth image information S103 mainly includes a light diffusion component. Therefore, when the difference between the third image information S103 and the fourth image information S104 is performed, the diffusion component is canceled and a lot of specular reflection components remain. For this reason, it can be said that the ninth image information S306 is image information reflecting a specular reflection component.
  • the second arithmetic processing unit PR2 performs the second color image information S307 and the third color by performing arithmetic processing using the ninth image information S306 and the first color image information S305 described in the first embodiment.
  • Image information S308 is generated.
  • the second color image information S307 represents a color image in which the component of specular reflection light is suppressed from a normal color image.
  • the third color image information S308 represents a color image in which a component of specular reflection light is emphasized from a normal color image.
  • the first color image information S305 is not shown.
  • FIG. 5A and 5B the first color image information S305 is not shown. In FIG.
  • the first color image information S305 includes first ⁇ 1 image information (first color information) S21 and first ⁇ 2 image information (second color information) S22 which are constituent images of the color image S305. , And first ⁇ 3 image information (third color information) S23.
  • the first ⁇ 3 image information S23 is a gain process that compensates for the influence of the attenuation of incident light caused by the insertion of the polarization filter, and a gain process that uses a white balance process with respect to the seventh image information S303. It is an image produced
  • the second calculation processing unit PR2 performs a calculation shown in the following expression (2) on the first ⁇ 3 image information S23, thereby removing the specular reflection component from the first ⁇ 3 image information S23.
  • ⁇ 3 image information S26 is generated.
  • the luminance value P23 is the luminance value of each pixel of the first ⁇ 3 image information S23
  • the luminance value P26 is the luminance value of the corresponding pixel of the second ⁇ 3 image information S26
  • the luminance value P306 is the ninth image.
  • the luminance value of the corresponding pixel of information S306 is shown.
  • the calculation of Expression (2) is performed for each pixel.
  • the spectroscopic characteristic of specular reflection light maintains the spectral characteristic of incident light as it is.
  • the color of the specular reflection light reflects the color of the incident light source, not the color of the subject.
  • the specular reflected light is not red light but white light. Therefore, the light source color is superimposed on the first ⁇ 1 image information S21, the first ⁇ 2 image information S22, and the first ⁇ 3 image information S23 after the white balance processing is performed on the subject under the incident light source.
  • the R component, G component, and B component of the superimposed light correspond to the same luminance value.
  • the light source color information remains missing, and it is impossible to estimate at what ratio each of the specular reflection lights is included. .
  • the second calculation processing unit PR2 performs the calculation shown in the following expression (3) on the first ⁇ 1 image information S21, thereby removing the specular reflection component from the first ⁇ 1 image information S21. 2 ⁇ 1 image information S24 is generated.
  • the luminance value P21 indicates the luminance value of each pixel of the first ⁇ 1 image information S21
  • the luminance value P24 indicates the luminance value of the corresponding pixel of the second ⁇ 1 image information S24.
  • the calculation shown in Expression (3) is performed for each pixel.
  • P24 P21 ⁇ (2 / T) ⁇ Bg ⁇ P306 (3)
  • the second calculation processing unit PR2 performs the calculation shown in the following formula (4) on the first ⁇ 2 image information S22, thereby removing the specular reflection component from the first ⁇ 2 image information S22.
  • 2 ⁇ 2 image information S25 is generated.
  • the luminance value P22 indicates the luminance value of each pixel of the first ⁇ 2 image information S22
  • the luminance value P25 indicates the luminance value of the corresponding pixel of the second ⁇ 2 image information S25.
  • the calculation shown in Expression (4) is also performed for each pixel.
  • P25 P22 ⁇ (2 / T) ⁇ Bg ⁇ P306 (4)
  • the second arithmetic processing unit PR2 obtains the second ⁇ 1 image information S24, the second ⁇ 2 image information S25, and the second ⁇ 3 image information S26 obtained by the operations shown in the equations (2) to (4). Are combined to generate a second color image S307.
  • This image is a color image mainly composed of a diffusion component in which the specular reflection component is suppressed compared to the first color image S305 which is a normal color image.
  • the second calculation processing unit PR2 performs a calculation shown in the following equation (5) on the first ⁇ 3 image information S23, thereby adding a third ⁇ 3 obtained by adding a specular reflection component to the first ⁇ 3 image information S23. Image information S29 is generated.
  • the second calculation processing unit PR2 performs a calculation shown in the following equation (6) on the first ⁇ 1 image information S21, thereby adding a specular reflection component to the first ⁇ 1 image information S21. 3 ⁇ 1 image information S27 is generated.
  • the second calculation processing unit PR2 performs a calculation shown in the following expression (7) on the first ⁇ 2 image information S22, thereby adding a specular reflection component to the first ⁇ 2 image information S22.
  • ⁇ 2 image information S28 is generated.
  • P27 P21 + (2 / T) ⁇ Bg ⁇ P306 (5)
  • P28 P22 + (2 / T) ⁇ Bg ⁇ P306 (6)
  • P29 P23 + (2 / T) ⁇ Bg ⁇ P306 (7)
  • the luminance value P27 indicates the luminance value of each pixel of the third ⁇ 1 image information S27
  • the luminance value P28 indicates the luminance value of each pixel of the third ⁇ 2 image information S28
  • the luminance value P29 indicates the third value.
  • the luminance value of each pixel of the ⁇ 3 image information S29 is shown.
  • the calculations shown in equations (5) to (7) are performed for each pixel.
  • the second arithmetic processing unit PR2 generates a third color image S308 by combining the third ⁇ 1 image information S27, the third ⁇ 2 image information S28, and the third ⁇ 3 image information S29.
  • This image is a color image mainly composed of a specular reflection component compared to the first color image S305 which is a normal color image.
  • the first color image S305 as a normal color image
  • the second color image S307 as a color image in which a portion such as a spot is emphasized
  • the surface of the skin
  • the third color image S308 as a color image in which the state is enhanced can be simultaneously acquired.
  • the second arithmetic processing unit PR2 may be configured to generate only at least one of the second color image S307 and the third color image S308.
  • E represents a synthesis coefficient of the luminance values P21, P22, and P23
  • F represents a synthesis coefficient of the luminance value P306.
  • P27 E ⁇ P21 + F ⁇ (2 / T) ⁇ Bg ⁇ P306
  • P28 E * P22 + F * (2 / T) * Bg * P306 (9)
  • P29 E * P23 + F * (2 / T) * Bg * P306 (10)
  • the coefficients E and F can be set arbitrarily. By setting E and F to appropriate values, the ratio of the specular reflection component to the normal image can be changed.
  • the third color image S308 obtained by combining the third ⁇ 1 image information S27, the third ⁇ 2 image information S28, and the third ⁇ 3 image information S29 is added to the first color image S305 that is a normal color image. In comparison, the color image is obtained by changing the ratio of the specular reflection component.
  • This adjustment function makes it possible to obtain a color image in which the degree of enhancement of the state of pores and texture on the skin surface is arbitrarily controlled when the subject is facial skin.
  • the adjustment of the coefficients E and F can be performed by the user via an operation unit such as a user interface displayed on a display or a button mounted on the apparatus, for example.
  • the luminance value P303 indicates the luminance value of each pixel of the seventh image information S303.
  • C represents a synthesis coefficient of the luminance value P303, and D represents a synthesis coefficient of the luminance value P306.
  • the coefficients C and D can be set arbitrarily.
  • the third ⁇ 3 image information S29 configured by the signal P29 of each pixel obtained by the calculation of Expression (11) is an image in which the ratio of the specular reflection component is changed compared to the sixth image information S302 in the first embodiment. It is.
  • This function makes it possible to obtain an image in which the degree of enhancement of the state of pores, texture, etc. on the skin surface is arbitrarily controlled when the subject is facial skin.
  • the third ⁇ 3 image information S29 is equivalent to the sixth image information S302 in the first embodiment.
  • Embodiment 2 Next, a second embodiment will be described.
  • the present embodiment is different from the first embodiment in that the configuration of the imaging unit IP of the imaging apparatus A is different.
  • differences from the first embodiment will be mainly described, and detailed description of common items will be omitted.
  • FIG. 6 is a schematic diagram showing the imaging unit IP of the present embodiment.
  • the imaging unit IP of the present embodiment includes a lens optical system Lx having an optical axis V, an arrayed optical element K disposed near the focal point of the lens optical system Lx, and a monochrome imaging element Nb.
  • the monochrome image sensor Nb is an image sensor that does not have a color filter or a polarization filter.
  • the lens optical system Lx includes a stop S on which light from a subject (not shown) enters, an optical element L1s on which light that has passed through the stop S enters, and an optical element L1p on which light that has passed through the optical element L1s enters. And a lens L2 on which light having passed through the optical element L1p enters.
  • the lens optical system Lx has first, second, third, and fourth optical regions D1, D2, D3, and D4. In FIG. 6, the second and third optical regions D2 and D3 are not drawn.
  • the lens L2 may be composed of a single lens or a plurality of lenses. Moreover, the structure arrange
  • restriction S may be sufficient. In FIG. 6, the lens L2 is illustrated as being composed of a single lens.
  • FIG. 7A is a front view when the optical element L1s is viewed from the subject side.
  • the optical element L1s is disposed between the stop S and the optical element L1p.
  • the optical element L1s is disposed in the optical regions D1, D2, D3, and D4.
  • the optical regions D1, D2, D3, and D4 are regions that are divided into four parts in the vertical and horizontal directions in a plane perpendicular to the optical axis V with the optical axis V as the boundary center.
  • the spectral transmittance characteristics of portions of the optical element L1s located in the optical regions D1, D2, D3, and D4 are the same in the optical regions D3 and D4, but are different from the optical regions D1 and D2. Further, the spectral transmittance characteristics of the portions located in the optical regions D1 and D2 are also different.
  • the regions corresponding to the optical regions D1 and D2 of the optical element L1s mainly transmit light in the first wavelength band ⁇ 1 and mainly transmit light in the second wavelength band ⁇ 2, respectively.
  • the area is arranged.
  • both regions that mainly transmit light in the third wavelength band ⁇ 3 are disposed.
  • FIG. 7B is a front view when the optical element L1p is viewed from the subject side.
  • the optical regions D1, D2, D3, and D4 are regions that are divided into four parts in the vertical and horizontal directions in a plane perpendicular to the optical axis V with the optical axis V as the boundary center.
  • a polarization filter PLb1 that mainly transmits light polarized in the direction of the first polarization axis is disposed only in a portion of the optical element L1p positioned in the optical region D3, and only in a portion positioned in the optical region D4.
  • a polarizing filter PLb2 that mainly transmits light polarized in the direction of the polarization axis is disposed, and a glass plate that transmits light polarized in all directions is disposed in a portion located in the other region.
  • FIG. 8 is a perspective view of the arrayed optical element K.
  • FIG. 8 On the surface of the arrayed optical element K on the image sensor N side, optical elements M are arranged in a grid pattern. Each optical element M has a curved cross section (vertical and horizontal cross sections), and each optical element M protrudes toward the image sensor N.
  • the optical element M is a microlens
  • the arrayed optical element K is a microlens array.
  • FIG. 9A is an enlarged view showing the arrayed optical element K and the image pickup element Nb
  • FIG. 9B is a view showing the positional relationship between the arrayed optical element K and the pixels on the image pickup element Nb.
  • the arrayed optical element K is arranged such that the surface on which the optical element M is formed faces the imaging surface Ni side.
  • Pixels P are arranged in a matrix on the imaging surface Ni.
  • the pixel P can be distinguished into a pixel Pb1, a pixel Pb2, a pixel Pb3, and a pixel Pb4.
  • the arrayed optical element K is disposed in the vicinity of the focal point of the lens optical system Lx, and is disposed at a position away from the imaging surface Ni by a predetermined distance.
  • a microlens Ms is provided so as to cover the surfaces of the pixels Pb1, Pb2, Pb3, and Pb4.
  • the array-like optical element K includes a pixel Pb1, a pixel Pb2, a pixel Pb3, a pixel Pb1, a pixel Pb3, and a pixel Pb3 on the imaging surface Ni, respectively. And is designed to reach the pixel Pb4. Specifically, the above configuration is realized by appropriately setting parameters such as the refractive index of the arrayed optical element K, the distance from the imaging surface Ni, and the radius of curvature of the surface of the optical element M.
  • the first image information having the light information of the first wavelength band ⁇ 1 is extracted by extracting only the output of the pixel P1.
  • S101 can be generated.
  • the second image information S102 having the light information of the second wavelength band ⁇ 2.
  • light polarized in the direction of the first polarization axis in the third wavelength band ⁇ 3 is mainly incident on the pixel Pb3. Therefore, by extracting only the output of the pixel Pb3, the direction of the first polarization axis is obtained.
  • the third image information S103 having information on the light in the third wavelength band ⁇ 3.
  • the direction of the second polarization axis in the third wavelength band ⁇ 3 is extracted by extracting only the output of the pixel Pb4.
  • the fourth image information S104 having the light information of the third wavelength band ⁇ 3.
  • the imaging unit IP can obtain the first image information S101, the second image information S102, the third image information S103, and the fourth image information S104.
  • the image composition processing based on the image information either or both of the image processing procedures shown in the first embodiment and the reference embodiment can be applied.
  • the arithmetic processing unit PR1 or PR2 may perform the above-described image processing after correcting the parallax included in the first to fourth image information S101 to S104. For example, when the fifth image information S301 shown in FIGS. 3A and 3B is generated, the first arithmetic processing unit PR1 corrects the parallax between the third image information S103 and the fourth image information S104. It may be synthesized later.
  • the first image information S101 is used as a reference image
  • the parallax correction image of the second image information S102, the parallax correction image of the third image information S103, and the parallax correction image of the fourth image information S104 respectively.
  • a synthesis process may be performed after the generation.
  • Each parallax correction image can be generated by performing pattern matching for each micro block of each image and shifting the image by the amount of parallax extracted for each micro block.
  • a normal color image, an image with an enhanced diffusion component and its color image, an image with an enhanced specular reflection component and its color image, An imaging system that can be acquired simultaneously can be realized.
  • the configuration of the optical elements L1s and L1p can be changed according to the purpose.
  • desired spectral characteristics can be designed, so that the spectral characteristics can be easily customized.
  • the arrayed optical element K is arranged at a position away from the imaging surface Ni by a predetermined distance.
  • it may be configured directly on the upper part of the imaging element.
  • Embodiment 3 Next, a third embodiment will be described. This embodiment is different from the first and second embodiments in that the configuration of the imaging unit IP of the imaging apparatus A is different. The following description will focus on the differences from Embodiments 1 and 2, and a detailed description of common items will be omitted.
  • FIG. 10 is a schematic diagram showing the configuration of the imaging unit IP of the present embodiment.
  • the imaging unit IP of the imaging apparatus of the present embodiment includes a compound eye lens LL, a bandpass filter F1 that mainly transmits light in the first wavelength band ⁇ 1, and a band that mainly transmits light in the second wavelength band ⁇ 2.
  • a pass filter F2 a bandpass filter F3 that mainly transmits light in the third wavelength band ⁇ 3, a bandpass filter F4 that mainly transmits light in the third wavelength band ⁇ 3, and a first polarization axis
  • lenses La1, La2, La3, and La4 are arranged on the same plane substantially parallel to the imaging surface Ni of the imaging element Nc.
  • imaging areas Ni1, Ni2, Ni3, and Ni4 corresponding to the lenses La1, La2, La3, and La4, respectively, are set on the imaging surface Ni on the imaging element Nc.
  • the imaging unit IP images a subject (not shown) by four optical paths. That is, the optical path reaching the imaging region Ni1 via the lens La1 and the bandpass filter F1 that mainly transmits light in the first wavelength band ⁇ 1, and the lens La2 and light in the second wavelength band ⁇ 2 are mainly transmitted.
  • the optical path reaching the imaging area Ni2 via the bandpass filter F2, the imaging area via the lens La3, the bandpass filter F3 that mainly transmits light in the third wavelength band ⁇ 3, and the first polarizing filter PLc1 This is an optical path that reaches Ni3 and an optical path that reaches the imaging region Ni4 via the lens La4, the bandpass filter F4 that mainly transmits light in the third wavelength band ⁇ 3, and the second polarizing filter PLc2.
  • the imaging unit IP has the first image information S101 having the light information of the first wavelength band ⁇ 1 and the second wavelength band ⁇ 2 from the imaging regions Ni1, Ni2, Ni3, and Ni4, respectively.
  • Second image information S102 having light information
  • third image information S103 having light information in the third wavelength band ⁇ 3 and having light information polarized in the direction of the first polarization axis
  • fourth image information S104 having information on light in the third wavelength band ⁇ 3 and information on light polarized in the direction of the second polarization axis.
  • the arithmetic processing unit PR1 or PR2 may perform the above-described image processing after correcting the parallax included in the first to fourth image information S101 to S104. For example, when the fifth image information S301 shown in FIGS. 3A and 3B is generated, the first arithmetic processing unit PR1 corrects the parallax between the third image information S103 and the fourth image information S104. It may be synthesized later.
  • the first image information S101 is used as a reference image
  • the parallax correction image of the second image information S102, the parallax correction image of the third image information S103, and the parallax correction image of the fourth image information S104 respectively.
  • a synthesis process may be performed after the generation.
  • Each parallax correction image can be generated by performing pattern matching for each micro block of each image and shifting the image by the amount of parallax extracted for each micro block.
  • the imaging unit IP can obtain the first image information S101, the second image information S102, the third image information S103, and the fourth image information S104.
  • image composition either or both of the image processing procedures shown in the first embodiment and the reference embodiment can be applied.
  • Embodiment 4 Next, a fourth embodiment will be described. This embodiment is different from Embodiments 1, 2, and 3 in that the direction of the polarization axis of the polarization filter PLQ1 in the polarization illumination Qa is set in the horizontal direction.
  • differences from Embodiments 1, 2, and 3 will be mainly described, and description of common matters will be omitted.
  • FIG. 11A is a schematic diagram showing the imaging system AP of the present embodiment.
  • the imaging system AP includes a polarization illumination Qa, an imaging device A, and a display device (display) DP.
  • the display device DP is provided on the same side as the irradiation direction of the polarized illumination Qa, and is configured to display an image generated by imaging.
  • the imaging system AP includes other elements such as a control unit CS, an imaging unit, and an arithmetic processing unit inside the housing. With such a configuration, the imaging system AP can be used as an electronic mirror.
  • the direction of the first polarization axis is set to the horizontal direction.
  • the “horizontal direction” means a direction substantially parallel to the ground surface in the posture of the polarized illumination Qa while the imaging system AP is shooting.
  • the imaging system AP performs imaging while a person is standing or sitting. Accordingly, it is only necessary to provide the polarization filter PLQ1 so that the direction of the first polarization axis is substantially parallel to the ground surface in the state during photographing.
  • substantially parallel is not limited to being strictly parallel, but includes, for example, a case where the robot is inclined at an angle smaller than 15 degrees.
  • the “vertical direction” in this specification means a direction substantially perpendicular to the ground surface in the posture of the polarized illumination Qa during photographing.
  • the term “substantially vertical” is not limited to being strictly vertical, but includes cases in which it is inclined within a range of 75 to 105 degrees, for example.
  • the polarization filter PLQ1 mainly transmits light polarized in the horizontal direction and absorbs most of the light polarized in the direction orthogonal to the first polarization axis, that is, in the vertical direction. Accordingly, only the light polarized in the horizontal direction is irradiated on the subject Ob. The specular reflection component on the face skin caused by this light maintains the polarization information of the irradiated light and contains a lot of light polarized in the horizontal direction.
  • the illumination device EXL is often installed above the subject Ob. It is considered that the specular reflection component of the facial skin caused by the light from the illumination device EXL removes most of the vertical component and includes a lot of light polarized in the horizontal direction. If the direction of the polarization axis of the polarization filter PLQ1 in the polarization illumination Qa is deviated from the horizontal direction, the image information of the specular reflection component may not be obtained correctly.
  • the direction of the polarization axis of the polarization filter PLQ1 is set to the horizontal direction.
  • the direction of the polarization axis of the specular reflection component of the reflected light from the subject Ob by the polarized illumination Qa coincides with the direction of the polarization axis of the specular reflection component by the normal room illumination. For this reason, the precision of the light beam control by the polarizing filter in the imaging unit IP can be maintained.
  • the display device DP is added as in the present embodiment, it is possible to confirm in real time an image showing a biological feature such as a skin spot. Further, by arranging the polarization illumination Qa and the imaging device A in the vicinity of the display device DP, it is possible to efficiently illuminate the subject and display an image of the subject.
  • “near” means, for example, when the display device DP is rectangular, the distance (space interval) between the outer periphery of the display device DP and the outer periphery of the polarization illumination Qa or the imaging device A is the display device DP. The case where the length is shorter than the length of the long side.
  • “near” refers to a case where the distance (space interval) between the outer periphery of the display device DP and the outer periphery of the polarized illumination Qa or the imaging device A is shorter than the major axis.
  • the liquid crystal display can be arranged by aligning the direction of the polarization axis of the liquid crystal display with the direction of the polarization axis of the polarization filter PLQ1 of the polarized illumination Qa Since the light from itself can also be part of the illumination for the subject, it is efficient.
  • a part of the liquid crystal display may be used as the polarized illumination Qa.
  • a part of the liquid crystal display used as the polarized illumination Qa does not need to be provided with a color filter.
  • the polarized illumination Qa is provided on both sides of the display device DP, but may be provided so as to surround the periphery.
  • auxiliary illumination such as the illumination device EXL shown in FIG. 11B may be included in the components of the imaging system.
  • the direction of the polarization axis of the polarized illumination Qa is set to the horizontal direction, an image can be appropriately generated by the image processing of the first embodiment or the reference embodiment even when auxiliary illumination is present. Can do.
  • the imaging system AP of the present embodiment emphasizes a normal color image and a diffusion component in the same manner as in the first, second, and third embodiments even in an environment where there is some disturbance light.
  • the image and the color image thereof, the image in which the specular reflection component is enhanced, and the color image thereof can be acquired simultaneously.
  • the imaging apparatus A may be configured to generate only horizontally polarized image information having information on light polarized in the horizontal direction and vertically polarized image information having information on light polarized in the vertical direction. In that case, the imaging apparatus A only needs to be provided with a polarizing filter that transmits only light polarized in the horizontal direction and a polarizing filter that transmits only light polarized in the vertical direction.
  • Embodiments 1 to 4 light information in the first wavelength band and light information in the second wavelength band are acquired as image information from pixels that do not have polarization characteristics (no polarization filter is provided).
  • the present invention is not limited to this.
  • the image information having no polarization characteristics only the information on the light in the first wavelength band may be acquired, the information on the light in the first and second wavelength bands, the information on the light in the other wavelength bands, May be obtained.
  • Embodiments 1 to 4 are described as applications for photographing the face of a subject and diagnosing the health condition of the skin, the present invention is not limited to this.
  • the wet state of the road surface can be detected using the third and fourth image information having polarization characteristics.
  • signal detection, a yellow line, a traffic sign, etc. can be detected based on the 1st image information which does not have a polarization characteristic.
  • correction using image information having polarization characteristics, such as a difference calculation, is not performed. Thereby, the detection which reduced the influence of noise can be performed. Polarized illumination is not always necessary.
  • a sensing camera may be used as a sensing camera to detect food ingredients.
  • a method for detecting a food component for example, there is a method of estimating based on the result of measuring an absorption spectrum in the near infrared region from captured image information and the absorbance of the known sample food data group with respect to the near infrared region. Conceivable. However, in this case, if the specular reflection on the food surface is large, the diffuse reflection light from the inside of the food is blocked, and accurate component measurement becomes difficult. Therefore, based on the third and fourth image information in the near-infrared region having different polarization axes, information inside the food may be acquired to estimate the internal component.
  • FIG. 12 is a diagram illustrating an example of the flow of image processing performed by the arithmetic processing unit PR3 included in the imaging apparatus A in an imaging system that does not include such polarized illumination.
  • the image information corresponding to the second image information is not used. Therefore, the third image information and the image information corresponding to the fourth image information in the above description are referred to as “second image information”.
  • the second image information S402 includes information on light in the second wavelength band polarized in the direction of the first polarization axis, and the third image information is a second different from the direction of the first polarization axis. Information of light in the second wavelength band polarized in the direction of the polarization axis.
  • the second wavelength band corresponds to the third wavelength band in each of the above embodiments.
  • the difference between these terms is not particularly important.
  • the imaging unit IP in this example is arranged to receive the light reflected by the subject, and is polarized in the direction of the first image information S401 having information on the light in the first wavelength band and the first polarization axis.
  • the second image information S402 having the light information of the second wavelength band, and the information of the light of the second wavelength band polarized in the direction of the second polarization axis different from the direction of the first polarization axis. It is comprised so that 3rd image information S403 which has may be acquired.
  • the arithmetic processing unit PR3 acquires at least one of the specular reflection component image information S442 and the internal diffusion component image information S441 of the subject based on the second image information S402 and the third image information S403.
  • the arithmetic processing unit PR3 further acquires and outputs the first image S405 that is subject information without using the second image information S402 and the third image information S403 based on the first image information S401. .
  • the image information obtained by performing the maximum value calculation process on the second image information S402 and the third image information S403 is set as the specular reflection component image information S442.
  • the image information obtained by performing the minimum value calculation process is used as image information S441 of the internal diffusion component.
  • the image information S441 and S442 may be generated by other methods.
  • the calculation processing unit PR3 does not use the second image information S402 and the third image information S403 when generating the subject information.
  • the image information may be used.
  • an image in which a specular reflection component or an internal diffusion component is emphasized compared to the first image S405, or an image in which the color tone is corrected can be generated.
  • subject information is generated without performing a difference calculation between the first image information S401 and the second and third image information S402 and S403. As a result, an image with reduced influence of noise can be generated.
  • the functions of the arithmetic processing unit in each of the above embodiments may be implemented in an independent image processing apparatus.
  • Such an image processing device generates the image information in the first embodiment or the reference embodiment by performing the signal calculation shown in any of FIGS. 3A, 3B, 5A, 5B, and FIG. 12, for example. Composed.
  • the technology of the present application can also be applied to software (computer program) that defines the processing in each of the above-described embodiments.
  • the operations defined in such a computer program are, for example, as shown in FIGS. 3A, 3B, 5A, 5B, and FIG.
  • Such a program can be provided by being recorded on a portable recording medium or can be provided through a telecommunication line.
  • Various operations described in the above embodiments can be realized by a computer mounted on the apparatus executing such a program.
  • the imaging system is useful as an imaging device and a display device such as a skin diagnostic camera, an electronic mirror, a makeup support device, an in-vehicle camera, and a food sensing camera.
  • a display device such as a skin diagnostic camera, an electronic mirror, a makeup support device, an in-vehicle camera, and a food sensing camera.
  • IP imaging unit A imaging device AP imaging system ⁇ 1 to ⁇ 3 wavelength band S101 to S104 image information PR1, PR2 arithmetic processing units S301 to S304, S306 image information S305, S307, S308 color image S21 to S29 image information P303, P304, P306 luminance Value S401 to S403 Image information S405 First image S441 Internal diffusion component image information S442 Specular reflection component image information P21 to P29 Luminance value Rg, Gg, Bg White balance gain Qa Polarized illumination LS1 Light source PLQ1, PLb1, PLb2 Polarization filter PLc1, PLc2 Polarizing filter L, L2 OB Ob Subject CS Control unit EXT External device Na, Nb, Nc Image sensor LL Compound eye lens La1 to La4 Optical element of compound eye lens F1 to F4 Bandpass filter Ni Imaging surface Ni1 to Ni4 Imaging region on imaging surface Pa1 to Pa4 Imaging device Upper pixel Lx Lens optical system L1s, L1p

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Dermatology (AREA)
  • General Physics & Mathematics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Blocking Light For Cameras (AREA)
  • Cameras In General (AREA)

Abstract

 ある実施形態における撮像システムは、第1の偏光軸の方向に偏光した光を出射する偏光照明と、第1の波長帯域の光の情報を有する第1の画像情報、第2の波長帯域の光の情報を有する第2の画像情報、第1の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第3の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第3の波長帯域の光の情報を有する第4の画像情報を取得する撮像部IPと、第1から第4の画像情報に基づく画像処理により、カラー画像S305を生成する演算処理部PR1とを備える。

Description

撮像システム
 本願は、撮像システムに関する。
 通常の画像情報に加えて偏光情報を取得する撮像システムの分野において、たとえば、特許文献1が知られている。
 特許文献1は、撮像システムを用いて取得した画像に含まれる光の表面反射による影響を抑制する画像処理方法を開示している。この方法では、一部の画素に偏光特性を持たせた撮像素子を用いて、偏光特性を有する画素と偏光特性を有しない画素との間の差分演算を含む処理により、反射光成分の補正が行われる。
特開2006-254331号公報
 上述した従来の技術では、偏光特性を有する画素と偏光特性を有しない画素との差分演算を行うためにノイズの影響が大きくなるという問題があった。
 上記課題を解決するために、本発明の一態様に係る撮像システムは、被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第1の偏光軸の方向に偏光した第2の波長帯域の光の情報を有する第2の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第2の波長帯域の光の情報を有する第3の画像情報を取得するように構成された撮像部と、前記第2および第3の画像情報に基づいて、前記被写体の鏡面反射成分の画像情報、または内部拡散成分の画像情報を取得し、前記第1の画像情報に基づいて、前記第2および第3の画像情報を用いずに前記被写体の情報を取得して出力するように構成された演算処理部と、を含む。
 本発明の他の態様に係る撮像システムは、被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第1の偏光軸の方向に偏光した第2の波長帯域の光の情報を有する第2の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第2の波長帯域の光の情報を有する第3の画像情報を取得するように構成された撮像部と、前記第2および第3の画像情報に基づいて、前記被写体の鏡面反射成分の画像情報、または内部拡散成分の画像情報を取得し、前記第1の画像情報に基づいて、前記第2および第3の画像情報との差分演算を行わずに前記被写体の情報を取得して出力するように構成された演算処理部と、を含む。
 上述の一般的かつ特定の態様は、システム、方法およびコンピュータプログラムを用いて実装され、またはシステム、方法およびコンピュータプログラムの組み合わせを用いて実現され得る。
 本発明の一態様に係る撮像システムによれば、偏光特性を有しない画素からの画像情報に基づいて被写体の諸情報を取得する際に、偏光特性を有する画素からの画像情報を用いない、または偏光特性を有する画素からの画像情報との差分演算を行わない。したがって、ノイズの影響の少ない画像情報を取得することが可能である。
例示的な実施の形態1における撮像システムAPを示す模式図である。 例示的な実施の形態1の撮像装置の模式図である。 例示的な実施の形態1における撮像素子上の画素の配列を示す図である。 例示的な実施の形態1の撮像装置Aの画像処理の手順を示すブロック図である。 例示的な実施の形態1の撮像装置Aの画像処理の手順を示すブロック図である。 図1のブロック図の画像処理の内容を示す模式図である。 参考形態の撮像装置Aの画像処理の手順を示すブロック図である。 参考形態の撮像装置Aの画像処理の手順を示すブロック図である。 例示的な実施の形態2の撮像装置の模式図である。 例示的な実施の形態2における光学素子L1sの光学領域D1、D2、D3およびD4を被写体側から見た正面図である。 例示的な実施の形態2における光学素子L1pの光学領域D1、D2、D3およびD4を被写体側から見た正面図である。 例示的な実施の形態2におけるアレイ状光学素子Kの斜視図である。 例示的な実施の形態2における図8に示すアレイ状光学素子Kおよび撮像素子Nbを拡大して示す図である。 例示的な実施の形態2におけるアレイ状光学素子Kと撮像素子Nb上の画素との位置関係を示す図である。 例示的な実施の形態3の撮像部IPの模式図である。 例示的な実施の形態4の撮像システムAPの模式図である。 被写体Obの上方に照明装置EXLが設置されている場合の鏡面反射光の偏光状態の例を示す模式図である。 例示的な実施の形態4の撮像システムAPの変形例を示す模式図である。 他の実施の形態を説明するための図である。
 本発明の実施形態の概要は以下のとおりである。
 (1)本発明の一態様に係る撮像システムは、被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第1の偏光軸の方向に偏光した第2の波長帯域の光の情報を有する第2の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第2の波長帯域の光の情報を有する第3の画像情報を取得するように構成された撮像部と、前記第2および第3の画像情報に基づいて、前記被写体の鏡面反射成分の画像情報、または内部拡散成分の画像情報を取得し、前記第1の画像情報に基づいて、前記第2および第3の画像情報を用いずに前記被写体の情報を取得して出力するように構成された演算処理部と、を含む。
 (2)本発明の一態様に係る撮像システムは、被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第1の偏光軸の方向に偏光した第2の波長帯域の光の情報を有する第2の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第2の波長帯域の光の情報を有する第3の画像情報を取得するように構成された撮像部と、前記第2および第3の画像情報に基づいて、前記被写体の鏡面反射成分の画像情報、または内部拡散成分の画像情報を取得し、前記第1の画像情報に基づいて、前記第2および第3の画像情報との差分演算を行わずに前記被写体の情報を取得して出力するように構成された演算処理部と、を含む。
 (3)本発明の一態様に係る撮像システムは、第1の偏光軸の方向に偏光した光を出射するように構成された偏光照明と、前記偏光照明から出射され被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第2の波長帯域の光の情報を有する第2の画像情報、前記第1の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第3の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第3の波長帯域の光の情報を有する第4の画像情報を取得するように構成された撮像部と、前記第3および第4の画像情報における対応画素対のうち輝度値の小さい画素を対応画素対ごとに選択することによって得られる低輝度画像情報、および前記第3および第4の画像情報における対応画素対のうち輝度値の大きい画素を対応画素対ごとに選択することによって得られる高輝度画像情報の少なくとも一方、および前記第3および第4の画像情報における対応画素対ごとの輝度値の平均値を示す平均画像情報を生成し、前記第1の画像情報、前記第2の画像情報、および前記平均画像情報に基づく画像処理により、カラー画像を生成するように構成された演算処理部と、を含む。
 (4)ある実施形態において、前記演算処理部は、前記第3および第4の画像情報を取得する際に生じた光の減衰による影響を補償するためのゲイン処理を前記平均画像情報に対して行うことによって補正平均画像情報を生成し、前記第1の画像情報、前記第2の画像情報、および前記補正平均画像情報に、ホワイトバランスを調整するゲイン処理を行うことにより、第1の色情報、第2の色情報、および第3の色情報をそれぞれ生成し、前記第1から第3の色情報を合成することにより、前記カラー画像を生成するように構成されている。
 (5)本発明の他の態様に係る撮像システムは、第1の偏光軸の方向に偏光した光を出射するように構成された偏光照明と、前記偏光照明から出射され被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第2の波長帯域の光の情報を有する第2の画像情報、前記第1の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第3の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第3の波長帯域の光の情報を有する第4の画像情報を取得するように構成された撮像部と、前記第3および第4の画像情報における対応画素対ごとの輝度値の平均値を示す平均画像情報、および前記第3および第4の画像情報における対応画素対ごとの輝度値の差分の絶対値を示す差分画像情報を生成し、前記第1の画像情報、前記第2の画像情報、および前記平均画像情報のそれぞれにおける各画素の輝度値から、前記差分画像情報における対応する画素の輝度値を減算または加算する演算を含む画像処理により、カラー画像を生成するように構成された演算処理部と、を含む。
 (6)ある実施形態において、前記演算処理部は、前記第3および第4の画像情報を取得する際に生じた光の減衰による影響を補償するためのゲイン処理を前記平均画像情報に対して行うことによって補正平均画像情報を生成し、前記第1の画像情報、前記第2の画像情報、および前記補正平均画像情報に、ホワイトバランスを調整するゲイン処理を行うことにより、第1の色情報、第2の色情報、および第3の色情報をそれぞれ生成し、前記差分画像情報に対して、前記第3および第4の画像情報を取得する際に生じた光の減衰による影響を補正しホワイトバランスを調整するゲイン処理を行うことによって得られる画像情報の各画素の輝度値を、前記第1から第3の色情報のそれぞれにおける対応する画素の輝度値から減算または加算することによって前記カラー画像を生成するように構成されている。
 (7)ある実施形態において、前記演算処理部は、前記第1の画像情報、前記第2の画像情報、および前記平均画像情報のそれぞれにおける各画素の輝度値から、前記差分画像情報における対応する画素の輝度値を減算する画像処理により、被写体からの光の鏡面反射成分を抑えたカラー画像を生成し、前記第1の画像情報、前記第2の画像情報、および前記平均画像情報のそれぞれにおける各画素の輝度値から、前記差分画像情報における対応する画素の輝度値を加算する画像処理により、被写体からの光の鏡面反射成分を増加させたカラー画像を生成するように構成されている。
 (8)ある実施形態において、前記第1の波長帯域、前記第2の波長帯域、および前記第3の波長帯域は、可視光の波長帯域に含まれる異なる波長帯域である。
 (9)ある実施形態において、前記第3の波長帯域は、青または緑の波長帯域である。
 (10)ある実施形態において、前記第1の偏光軸の方向と、前記第2の偏光軸の方向とは、互いに直交している。
 (11)ある実施形態において、前記撮像部は、2次元的に配列された複数の第1の画素、複数の第2の画素、複数の第3の画素、および複数の第4の画素を有する撮像素子を有し、前記複数の第1から第4の画素から出力される電気信号に基づいて、前記第1から第4の画像情報を取得する。
 (12)ある実施形態において、前記複数の第1の画素の各々は、第1の光電変換素子と、前記第1の波長帯域の光を透過させるように設計された第1の分光フィルタとを有し、前記複数の第2の画素の各々は、第2の光電変換素子と、前記第2の波長帯域の光を透過させるように設計された第2の分光フィルタとを有し、前記複数の第3の画素の各々は、第3の光電変換素子と、前記第3の波長帯域の光を透過させるように設計された第3の分光フィルタと、前記第1の偏光軸に平行な方向に偏光した光を透過させる第1の偏光フィルタとを有し、前記複数の第4の画素の各々は、第4の光電変換素子と、前記第3の波長帯域の光を透過させるように設計された第4の分光フィルタと、前記第2の偏光軸に平行な方向に偏光した光を透過させるように設計された第2の偏光フィルタとを有している。
 (13)ある実施形態において、前記撮像部は、前記第1の波長帯域の光を透過させる第1の光学領域、前記第2の波長帯域の光を透過させる第2の光学領域、前記第1の偏光軸の方向に偏光した前記第3の波長帯域の光を透過させる第3の光学領域、および前記第2の偏光軸の方向に偏光した前記第3の波長帯域の光を透過させる第4の光学領域を有する光学系と、前記光学系および前記撮像素子の間に配置され、前記第1から第4の光学領域を通過した光をそれぞれ前記複数の第1の画素、前記複数の第2の画素、前記複数の第3の画素、および前記複数の第4の画素に入射させるように構成されたアレイ状光学素子と、を有する。
 (14)ある実施形態において、前記撮像部は、前記撮像素子の撮像面に平行に配列された第1から第4のレンズと、前記第1のレンズの光軸上に配置され、前記第1の波長帯域の光を透過させる第1の分光フィルタと、前記第2のレンズの光軸上に配置され、前記第2の波長帯域の光を透過させる第2の分光フィルタと、前記第3のレンズの光軸上に配置され、前記第3の波長帯域の光を透過させる第3の分光フィルタと、前記第4のレンズの光軸上に配置され、前記第3の波長帯域の光を透過させる第4の分光フィルタと、前記第3のレンズの光軸上に配置され、前記第1の偏光軸の方向に偏光した光を透過させる第1の偏光フィルタと、前記第4のレンズの光軸上に配置され、前記第2の偏光軸の方向に偏光した光を透過させる第2の偏光フィルタとをさらに有し、前記複数の第1の画素は、前記第1のレンズおよび前記第1の分光フィルタを透過した光を受ける位置に配置され、前記複数の第2の画素は、前記第2のレンズおよび前記第2の分光フィルタを透過した光を受ける位置に配置され、前記複数の第3の画素は、前記第3のレンズ、前記第3の分光フィルタ、および前記第1の偏光フィルタを透過した光を受ける位置に配置され、前記複数の第4の画素は、前記第4のレンズ、前記第4の分光フィルタ、および前記第2の偏光フィルタを透過した光を受ける位置に配置されている。
 (15)ある実施形態において、撮像システムは、前記撮像部によって生成された画像を表示する表示装置をさらに備える。
 (16)ある実施形態において、前記偏光照明は、前記表示装置の近傍に配置されており、前記偏光照明の偏光軸の方向は、水平方向である。
 (17)本発明の他の態様による画像処理装置は、第1の偏光軸の方向に偏光した光を出射するように構成された偏光照明と、前記偏光照明から出射され被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第2の波長帯域の光の情報を有する第2の画像情報、前記第1の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第3の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第3の波長帯域の光の情報を有する第4の画像情報を取得するように構成された撮像部と、を備えた撮像装置から出力された信号を処理する画像処理装置であって、前記第3および第4の画像情報における対応画素対のうち輝度値の小さい画素を対応画素対ごとに選択することによって得られる低輝度画像情報、および前記第3および第4の画像情報における対応画素対のうち輝度値の大きい画素を対応画素対ごとに選択することによって得られる高輝度画像情報の少なくとも一方、および前記第3および第4の画像情報における対応画素対ごとの輝度値の平均値を示す平均画像情報を生成し、前記第1の画像情報、前記第2の画像情報、および前記平均画像情報に基づく画像処理により、カラー画像を生成するように構成されている。
 (18)本発明の他の態様による画像処理装置は、第1の偏光軸の方向に偏光した光を出射するように構成された偏光照明と、前記偏光照明から出射され被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第2の波長帯域の光の情報を有する第2の画像情報、前記第1の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第3の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第3の波長帯域の光の情報を有する第4の画像情報を取得するように構成された撮像部と、を備えた撮像装置から出力された信号を処理する画像処理装置であって、前記第3および第4の画像情報における対応画素対ごとの輝度値の平均値を示す平均画像情報、および前記第3および第4の画像情報における対応画素対ごとの輝度値の差分の絶対値を示す差分画像情報を生成し、前記第1の画像情報、前記第2の画像情報、および前記平均画像情報のそれぞれにおける各画素の輝度値から、前記差分画像情報の対応する画素の輝度値を減算または加算する処理を含む画像処理により、カラー画像を生成するように構成されている。
 (19)本発明の他の態様によるコンピュータプログラムは、第1の偏光軸の方向に偏光した光を出射するように構成された偏光照明と、前記偏光照明から出射され被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第2の波長帯域の光の情報を有する第2の画像情報、前記第1の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第3の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第3の波長帯域の光の情報を有する第4の画像情報を取得するように構成された撮像部と、を備えた撮像装置から出力された信号を処理するためのコンピュータプログラムであって、コンピュータに、前記第3および第4の画像情報における対応画素対のうち輝度値の小さい画素を対応画素対ごとに選択することによって得られる低輝度画像情報、および前記第3および第4の画像情報における対応画素対のうち輝度値の大きい画素を対応画素対ごとに選択することによって得られる高輝度画像情報の少なくとも一方を生成するステップと、前記第3および第4の画像情報における対応画素対ごとの輝度値の平均値を示す平均画像情報を生成するステップと、前記第1の画像情報、前記第2の画像情報、および前記平均画像情報に基づく画像処理により、カラー画像を生成するステップと、を実行させる。
 (20)本発明の他の態様によるコンピュータプログラムは、第1の偏光軸の方向に偏光した光を出射するように構成された偏光照明と、前記偏光照明から出射され被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第2の波長帯域の光の情報を有する第2の画像情報、前記第1の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第3の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第3の波長帯域の光の情報を有する第4の画像情報を取得するように構成された撮像部と、を備えた撮像装置から出力された信号を処理するためのコンピュータプログラムであって、コンピュータに、前記第3および第4の画像情報における対応画素対ごとの輝度値の平均値を示す平均画像情報を生成するステップと、前記第3および第4の画像情報における対応画素対ごとの輝度値の差分の絶対値を示す差分画像情報を生成するステップと、前記第1の画像情報、前記第2の画像情報、および前記平均画像情報のそれぞれにおける各画素の輝度値から、前記差分画像情報の対応する画素の輝度値を減算または加算する処理を含む画像処理により、カラー画像を生成するステップと、を実行させる。
 (21)本発明の他の態様による撮像システムは、水平方向に偏光した光を出射するように構成された偏光照明と、前記偏光照明から出射され被写体で反射された光を受けるように配置され、前記水平方向に偏光した光の情報を有する水平偏光画像情報、および垂直方向に偏光した光の情報を有する垂直偏光画像情報を取得するように構成された撮像部と、前記偏光照明の近傍に配置され、前記撮像部によって取得された前記水平偏光画像情報に基づく画像情報および前記垂直偏光画像情報に基づく画像情報を表示するように構成されたディスプレイと、を備えている。
 (22)ある実施形態において、前記ディスプレイは、複数のカラーフィルタおよび複数の偏光フィルタを有する液晶ディスプレイであり、前記複数の偏光フィルタの偏光軸の方向は、前記水平方向と一致している。
 (23)ある実施形態において、前記ディスプレイは、複数のカラーフィルタおよび複数の偏光フィルタを有する液晶ディスプレイの一部であり、前記偏光照明は、前記液晶ディスプレイの他の一部であり、前記複数の偏光フィルタの偏光軸の方向は、前記水平方向と一致しており、前記液晶ディスプレイの前記他の一部には、カラーフィルタが設けられていない。
 (24)ある実施形態において、前記偏光照明は、前記ディスプレイの両側または周囲に配置されている。
 (25)ある実施形態において、無偏光光を出射するように構成された補助照明をさらに備えている。
 (26)ある実施形態において、前記撮像部は、前記水平方向に偏光した第1の波長帯域の光の情報を有する画像情報を前記水平偏光画像情報として取得し、前記垂直方向に偏光した前記第1の波長帯域の光の情報を有する画像情報を前記垂直偏光画像情報として取得し、さらに、第2の波長帯域の光の情報を有する画像情報、および第3の波長帯域の光の情報を有する画像情報を取得するように構成されている。
 以下、図面を参照しながら、より具体的な実施の形態を説明する。
 (実施の形態1)
 図1は、本実施の形態の撮像システムAPを示す模式図である。この撮像システムAPは、被写体の顔等を撮影して肌の健康状態を診断する用途に用いられる。撮像システムAPは、第1の方向に偏光した光を出射する偏光照明Qaと、被写体Obからの光に基づいて画像情報を生成して出力する撮像装置Aと、偏光照明Qaおよび撮像装置Aを制御する制御部CSとを備えている。
 偏光照明Qaは、可視光を出射する光源LS1と、光源LS1から出射した光の光路上に配置され、第1の方向に平行な第1の偏光軸を有する偏光フィルタPLQ1とを有している。これにより、偏光照明Qaは、第1の偏光軸の方向に偏光した光(直線偏光)を出射する。なお、偏光照明Qaから出射される光は、厳密な直線偏光である必要はなく、出射される光の多くが第1の偏光軸の方向に偏光していればよい。
 撮像装置Aは、被写体Obからの光に基づいて画像を示す情報(画像情報)を取得する撮像部IPと、撮像部IPから出力された信号を処理する演算処理部PR1とを有している。撮像部IPは、被写体Obからの光を集束させる光学系と、光電変換によって画像情報を生成する撮像素子とを有している。撮像部IPと演算処理部PR1とは、不図示の配線によって電気信号の授受ができるように接続されている。演算処理部PR1は、例えばマイクロコントローラ(MCU)や中央演算処理装置(CPU)などの集積回路によって実現され得る。撮像素子は、公知のCCDやCMOSセンサといったイメージセンサによって実現される。
 制御部CSは、撮像装置Aおよび偏光照明Qaの制御や、外部装置EXTとの入出力制御等の各種の処理を行う。制御部CSは、例えばマイクロコントローラ(MCU)や中央演算処理装置(CPU)などの集積回路であり得る。制御部CSは、ハードウェアのみで実現されてもよいし、ハードウェアとソフトウェアとの組み合わせによって実現されていてもよい。外部装置EXTは、例えば、撮像システムAPから出力された画像を表示するモニターや、画像を処理するパーソナルコンピュータ等の情報処理装置であり得る。
 図1には示されていないが、撮像システムAPは、外部装置EXTと接続するための入出力インターフェースや、ユーザの操作を受け付けるためのユーザインターフェース、画像や制御プログラム等の情報を記録する記録媒体といった他の要素を含み得る。撮像装置Aについても、入出力インターフェースや処理過程で生成された各種の情報や制御プログラム等の情報を記録する記録媒体等の他の要素を含み得る。
 図2Aは、図1に示す撮像部IPの構成および機能の概要を示す模式図である。本実施形態の撮像装置Aの撮像部IPは、レンズLと、撮像素子Naとを有している。
 図2Bは、撮像素子Na上の画素の配列を示す図である。図2Bに示すように、撮像素子Na上には、画素Pa1、Pa2、Pa3、Pa4の4種類の画素が2次元的に配列されている。各画素は、フォトダイオード等の光電変換素子と、それに対向して配置される各種のフィルタとを有している。画素Pa1には、第1の波長帯域λ1の光を主に透過するバンドパスフィルタ(分光フィルタ)が設けられており、偏光フィルタは設けられていない。画素Pa2には、第2の波長帯域λ2の光を主に透過するバンドパスフィルタが設けられており、偏光フィルタは設けられていない。画素Pa3には、第3の波長帯域λ3の光を主に透過するバンドパスフィルタと、第1の偏光軸の方向に偏光した光を主に透過する偏光フィルタとが設けられている。画素Pa4には、第3の波長帯域λ3の光を主に透過するバンドパスフィルタと、第2の偏光軸の方向に偏光した光を主に透過する偏光フィルタとが設けられている。ここで、第2の偏光軸の方向は、第1の偏光軸の方向とは異なる方向であり、以下の説明では、第1の偏光軸に垂直な方向とする。各画素のバンドパスフィルタは、吸収型のフィルタまたは誘電体多層膜によって構成された波長選択性を有するフィルタによって構成される。偏光フィルタは、例えばワイヤーグリッド偏光子によって構成され得る。
 被写体を撮像する場合、被写体からの光線は、レンズLを通過した後、撮像素子Naの撮像面に到達する。画素Pa1は、第1の波長帯域λ1の光を主に透過するバンドパスフィルタが設けられているため、画素Pa1の信号のみを抽出することにより、第1の波長帯域λ1の光の情報を有する第1の画像情報S101を生成することができる。同様に、画素Pa2の信号のみを抽出することにより、第2の波長帯域λ2の光の情報を有する第2の画像情報S102を生成することができる。また、画素Pa3は、第3の波長帯域λ3の光を主に透過するバンドパスフィルタと第1の偏光軸の方向に偏光した光を主に透過する偏光フィルタが備えられているため、画素Pa3の信号のみを抽出することにより、第1の偏光軸の方向に振動し、かつ第3の波長帯域λ3の光の情報を有する第3の画像情報S103を生成することができる。同様に、画素Pa4は、第3の波長帯域λ3の光を主に透過するバンドパスフィルタと第2の偏光軸の方向に偏光した光を主に透過する偏光フィルタが備えられているため、画素Pa4の信号のみを抽出することにより、第2の偏光軸の方向に振動し、かつ第3の波長帯域λ3の光の情報を有する第4の画像情報S104を生成することができる。
 このような構成により、撮像部IPは、第1の画像情報S101、第2の画像情報S102、第3の画像情報S103、および第4の画像情報S104を取得する。
 ここで、第1の波長帯域λ1、第2の波長帯域λ2、および第3の波長帯域λ3は、それぞれ、赤色、緑色、および青色の波長帯域を主に含む波長帯域とする。例えば、第1の波長帯域λ1は、約600nm~約700nmの波長帯域であり、第2の波長帯域λ2は、約500nm~約600nmの波長帯域であり、第3波長帯域λ3は、約400nm~約500nmの波長帯域であり得る。この例に限定されず、第1の波長帯域λ1、第2の波長帯域λ2、第3の波長帯域λ3は、互いに異なる波長帯域であればよい。ここで、2つの波長帯域が「異なる」とは、両者の波長帯域に重なる部分がない場合のみならず、両者の波長帯域が部分的に重なる場合をも含む。言い換えれば、第1の波長帯域λ1、第2の波長帯域λ2、第3の波長帯域λ3は、部分的に重複していてもよい。
 レンズ光学系Lは、1枚のレンズで構成されていてもよいし、複数枚のレンズで構成されていてもよい。図2Aでは、1枚のレンズのみが例示されている。
 次に、以上の撮像システムAPによって生体からの偏光情報を制御し、内部拡散成分、表面反射成分を用いた生体の特徴箇所を強調した画像を生成する流れを説明する。
 図1に示す偏光照明Qaの光源LS1から出射した光は、偏光フィルタPLQ1を通過して被写体Obに到達する。偏光フィルタPLQ1は、第1の偏光軸と平行な方向に偏光した光を主に透過し、第1の偏光軸と直交する方向に偏光した光の大部分を吸収する。したがって、被写体Obには、第1の偏光軸の方向に偏光した光のみが照射される。
 被写体Obは、例えば、人の顔肌等の生体である。本実施形態では、被写体Obは人の顔肌であるものとして説明する。顔肌(被写体Ob)に到達した光は、反射される成分と吸収される成分があり、撮像装置Aは反射される成分の光を受けて撮像を行う。顔肌で反射される光には、顔肌の表面で反射する成分と、顔肌の内部に入り込んで散乱を繰り返した後、入射した位置とは異なる位置から出射する成分とが含まれる。ここで、顔肌の内部とは、表皮領域である。表皮領域の中でシミが発生している領域にはメラニンが生成されている。表皮に入り込んだ光、特に青色から近紫外線の波長帯域の光は、メラニンによって減衰されやすい。
 顔肌の表面で反射される光は、さらに鏡面反射する成分と拡散反射する成分に分けられる。顔肌で鏡面反射する成分は、偏光状態が維持される。一方、顔肌で拡散反射する成分と、顔肌の内部に入り込んで異なる位置から出射する成分は、偏光状態が乱れた無偏光の状態となる。
 従って、偏光フィルタが設けられていない画素Pa1、Pa2の出力に基づいてそれぞれ生成される第1の画像情報S101、第2の画像情報S102には、顔肌で鏡面反射した光の成分、顔肌の表面で拡散反射した光の成分、および顔肌の内部に入り込んで異なる位置から出射した光の成分の全てが含まれる。すなわち、これらの画像情報から生成される画像は、通常のカメラで撮像した画像と同様のものとなる。これらの画像は、顔肌の鏡面反射成分(例えば顔肌のテカリ)を含んでいるため、シミによる輝度の低下の認識が困難な画像である。
 これに対し、偏光照明Qaの偏光軸の方向と同じ第1の偏光軸の方向に偏光した光を透過させる偏光フィルタが配置された画素Pa3の出力に基づいて生成される第3の画像情報S103は、主に鏡面反射成分を反映した画像となる。さらに、肌への浸透が少ない青色の波長帯域の光の情報を有するため、第3の画像情報S103は、肌表面の毛穴やキメの見やすい画像となる。
 一方、第4の画像情報S104は、第2の偏光軸の方向に偏光した光を主に透過する偏光フィルタによって顔肌の鏡面反射成分の大部分がカットされ、かつメラニンで吸収されやすい青色の第3の波長帯域の光の情報を有するため、肉眼ではやや見えにくい顔肌のシミを見やすい画像となる。
 このように、撮像部IPは、第1の波長帯域λ1の光の情報を有する第1の画像情報S101、第2の波長帯域λ2の光の情報を有する第2の画像情報S102、顔肌の毛穴等の状態が見やすい第3の波長帯域の光の情報を有する第3の画像情報S103、顔肌のシミ等の状態が見やすい第3の波長帯域λ3の光の情報を有する第4の画像情報S104を同時に取得することができる。ただし、この状態では、通常のカラー画像を生成するためには、第3の波長帯域λ3の光の情報を有する無偏光画像が欠落している。さらに、偏光照明Qa以外の外乱光が存在する場合、第3の画像情報S103が鏡面反射成分を表し、第4の画像情報S104が拡散成分を表すとは必ずしも言えない場合がある。そこで、本実施形態の演算処理部PR1は、以下の画像処理により、第3の波長帯域λ3の光の情報を有する無偏光画像(第7の画像情報)、拡散成分を示す画像(第5の画像情報)、および鏡面反射成分を示す画像(第6の画像情報)を生成する。
 以下、本実施形態における画像処理を説明する。
 図3Aは、演算処理部PR1(以下、「第1の演算処理部PR1」と称することがある。)による画像処理の流れを説明するための図である。まず、第1の演算処理部PR1は、撮像部IPによって生成された第1の画像情報S101、第2の画像情報S102、第3の画像情報S103、第4の画像情報S104を取得する。そして、第1の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第3の画像情報S103と、第2の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第4の画像情報S104とに基づいて、第5の画像情報S301、第6の画像情報S302、および第7の画像情報S303を生成する。
 第5の画像情報S301は、第3の画像情報S103および第4の画像情報S104における画像位置情報(画像上の座標)が対応する2つの画素(以下、「対応画素対」と呼ぶ。)のうち輝度値が小さい方を最小値として対応画素対ごとに(画像上の座標ごとに)選択することによって生成される画像である。本明細書では、第5の画像情報S301を、「低輝度画像情報」と呼ぶことがある。
 第6の画像情報S302は、第3の画像情報S103および第4の画像情報S104における対応画素対のうち輝度値が大きい方を最大値として対応画素対ごとに選択した画像である。本明細書では、第6の画像情報S302を、「高輝度画像情報」と呼ぶことがある。
 第7の画像情報S303は、前記第3の画像情報S103および前記第4の画像情報S104の対応画素対ごとに平均演算した値で構成される画像である。本明細書では、第7の画像情報S303を、「平均画像情報」と呼ぶことがある。
 第5の画像情報S301および第6の画像情報S302を生成する理由は、偏光照明Qa以外の外乱光の影響を除去するためである。上記のように、第3の画像情報S103は、偏光照明Qaの偏光軸に平行な方向に偏光した光に基づいて生成されるため、基本的には光の鏡面反射成分の情報を主に含む。一方、第4の画像情報S104は、偏光照明Qaの偏光軸に垂直な方向に偏光した光に基づいて生成されるため、基本的には光の拡散成分を主に含む。しかしながら、外乱光の強度や偏光状態、被写体の状態によっては、この関係が逆転する場合がある。すなわち、第3の画像情報S103が拡散成分を示し、第4の画像情報S104が鏡面反射成分を示す場合がある。この逆転現象は、被写体の部分、すなわち画素ごとに生じ得る。このため、本実施形態の演算処理部PR1は、第3の画像情報S103および第4の画像情報S104の対応画素ごとに輝度値を比較し、輝度値の小さい画素のみを集めた第5の画像情報S301と、輝度値の大きい画素のみを集めた第6の画像情報S302とを生成する。
 第1の演算処理部PR1によって行われる上記の画像処理により、偏光照明Qa以外に多少の外乱光が存在しても、第5の画像情報S301は主に生体からの光の拡散成分を表す画像情報となり、第6の画像情報S302は主に生体からの光の鏡面反射成分を表す画像情報となる。また、第7の画像情報S303は、偏光フィルタを通さずに入射する第3の波長帯域λ3の光による無偏光画像に相当する画像となる。
 図4は、以上の画像処理のイメージを模式的に示す図である。ここで、被写体Obの顔肌にシミXSが存在している場合、第5の画像情報S301には、シミXSの情報が含まれる。一方、第6の画像情報S302には、シミXSの情報は殆ど含まれず、肌表面の毛穴やキメなどの状態XKが主に含まれる。また、第7の画像情報S303には、シミXSおよび表面の毛穴等の状態XKが無偏光状態と同程度に含まれる。
 続いて、第1の演算処理部PR1は、第1の画像情報S101、第2の画像情報S102、および第7の画像情報S303に基づいて、第1のカラー画像S305を生成する。
 以下、図3Bを参照しながら、第1のカラー画像S305の生成処理の流れの詳細を説明する。
 第7の画像情報S303は、上記のように、第1の偏光軸の方向に振動し、かつ第3の波長帯域λ3の光の情報を有する第3の画像情報S103、および第2の偏光軸の方向に振動し、かつ第3の波長帯域λ3の光の情報を有する第4の画像情報S104の対応する画素ごとに平均演算した値で構成された画像である。このため、第7の画像情報S303は、撮像素子の画素に偏光フィルタがない状態で取得した第3の波長帯域λ3の光の情報を有する画像情報とみなすことができる。
 ただし、第3の画像情報S103および第4の画像情報S104は、ともに偏光フィルタを透過した光に基づく画像情報であるため、偏光フィルタがない場合と比較して輝度値が約1/2に減衰している。その影響を補償するため、第7の画像情報S303の輝度値を2倍にする必要がある。また、実際の偏光フィルタの透過率は1ではないので、偏光フィルタの最大透過率をTとすると、その最大透過率による光の減衰の影響を補償する必要がある。
 そこで、第1の演算処理部PR1は、以下の式(1)に示す演算を画素ごとに行い、第7の画像情報S303の各画素値を補正した第8の画像情報(補正平均画像情報)S304を生成する。
  P304=(2/T)×P303    (1)
ここで、画像を構成する各画素の輝度値をPという記号で表している。すなわち、輝度値P303は、第7の画像情報S303の対応画素の輝度値を示し、輝度値P304は、第8の画像情報S304の対応する画素の輝度値を示す。以下、同様の記法を用いる。
 一方、前述したように、第1の波長帯域λ1、第2の波長帯域λ2、および第3の波長帯域λ3は、それぞれ、赤色、緑色、および青色の波長帯域を主に含んでいるので、第1の画像情報S101、第2の画像情報S102、および第7の画像情報S303は、それぞれ、赤成分、緑成分、および青成分の画像情報である。また、第8の画像情報S304も青成分の画像情報である。
 そこで、第1の演算処理部PR1は、第1の画像情報S101、第2の画像情報S102、および第8の画像情報S304に対して、ホワイトバランス処理を含む画像合成処理を行うことにより、第1のカラー画像S305を生成する。ここで、第1の画像情報S101にホワイトバランス処理を行った画像を第1のλ1画像情報(第1の色情報)S21、第2の画像情報S102にホワイトバランス処理を行った画像を第1のλ2画像情報(第2の色情報)S22、第8の画像情報S304にホワイトバランス処理を行った画像を第1のλ3画像情報(第3の色情報)S23とする。また、第1の画像情報S101に対するホワイトバランスゲインをゲインRg、第2の画像情報S102に対するホワイトバランスゲインをゲインGg、第8の画像情報S304に対するホワイトバランスゲインをゲインBgとする。なお、ここではG画像を基準にホワイトバランス処理を行うため、ホワイトバランスゲインをGg=1とする。
 このようにして生成された第1のλ1画像情報S21、第1のλ2画像情報S22、および第1のλ3画像情報S23を合成して得られる第1のカラー画像S305は、撮像素子に偏光フィルタが設けられていないと仮定した場合に取得されるカラー画像に相当する。
 以上のような撮像システムの構成と画像処理により、通常のカラー画像としての第1のカラー画像S305と、シミの部分が強調された画像としての第5の画像情報S301と、肌の表面状態を顕著に示す画像としての第6の画像情報S302とを、同時に取得することができる。これにより、簡易な構成で、カラー画像、拡散成分画像、および鏡面反射成分画像を取得できるため、従来にない有用な撮像システムを実現できる。
 本実施の形態では、第1のカラー画像S305の合成に使われる第1のλ1画像情報S21及び第1のλ2画像情報S22は、それぞれ、偏光特性を有しない画素からの第1の画像情報S101及び第2の画像情報S102にゲイン処理を施すことにより取得している。すなわち、偏光特性を有する画素からの画像情報を用いた差分演算などの補正を行っていない。これにより、ノイズの影響が少ないカラー画像を生成することができる。
 なお、必ずしもすべての画像を生成する必要はなく、システム全体として必要な画像のみを生成すればよいことは言うまでもない。例えば、第1のカラー画像S305のみを生成してもよいし、第5の画像情報S301および第6の画像情報S302の少なくとも一方のみを生成してもよい。
 本実施の形態では、第3の波長帯域λ3を青色としたが、緑色であってもよい。その場合、第1の波長帯域λ1を赤色にし、第2の波長帯域λ2を青色にすることにより、通常のカラー画像と緑色の波長による拡散成分画像と鏡面反射成分画像とが生成されることになる。
 さらに、第3の波長帯域λ3は赤色であってもよい。第1の波長帯域λ1を青色、第2の波長帯域λ2を緑色にすることで、通常のカラー画像と赤色の波長による拡散成分画像と鏡面反射成分画像とが生成されることになる。
 さらに、第1の波長帯域λ1、第2の波長帯域λ2、第3の波長帯域λ3は、可視光域以外の帯域であってもよい。例えば、近紫外線の帯域や近赤外線の帯域であってもよい。その場合、通常のカラー画像は得られないが、可視光以外の帯域の情報を表す合成画像が得られることとなる。その場合であっても、第5、第6、第7、および第8の画像情報は、それぞれ第3の波長帯域での拡散光の成分、鏡面反射光の成分、減衰された通常の反射光の成分、補正された通常の反射光の成分を示す画像情報である。
 また、偏光照明Qaは、白色光を出射するものに限定されず、第1の偏光軸の方向に偏光した第3の波長帯域λ3の光の成分を含む照明光を出射するものであればよい。偏光照明Qaは、用途によっては単色光を照射するものでもよいし、近紫外線や近赤外線を照射するものでもよい。
 また、図1に示す外部装置EXTとして表示装置を撮像システムAPに追加すれば、肌のシミ等の生体の特徴箇所の画像をリアルタイムに確認することができる。そのような表示装置として、例えば液晶ディスプレイが用いられる。
 (参考形態)
 次に、参考実施形態を説明する。本実施の形態は、第1の演算処理部PR1の代わりに第2の演算処理部PR2を有する点で実施の形態1と異なっている。以下、実施の形態1と異なる点を中心に説明し、共通する事項についての詳細な説明は省略する。
 図5Aは、本実施形態の撮像装置Aの撮像部IPによって取得された画像情報S101~S104に基づく画像処理の流れの概要を示す図である。図5Bは、当該画像処理の流れの詳細を示す図である。本実施形態では、実施の形態1における第5の画像情報(低輝度画像情報)S301、第6の画像情報(高輝度画像情報)S302の代わりに、第9の画像情報S306が生成される。
 第9の画像情報S306は、第3の画像情報S103および第4の画像情報S104における対応画素対ごとに輝度値の差分の絶対値を計算することによって得られる画像情報である。本明細書において、第9の画像情報S306を、「差分画像情報」と呼ぶことがある。上述のように、第3の画像情報S103は、照明光Qaの偏光軸に平行な第1の偏光軸の方向に偏光した光の情報であるため、光の拡散成分と鏡面反射成分の両方を含む。一方、第4の画像情報S103は、照明光Qaの偏光軸にほぼ垂直な第2の偏光軸の方向に偏光した光の情報であるため、光の拡散成分を主に含む。したがって、第3の画像情報S103と第4の画像情報S104との差分を行った場合、拡散成分がキャンセルされ、鏡面反射成分が多く残る。このため、第9の画像情報S306は、鏡面反射成分を反映した画像情報であると言える。
 第2の演算処理部PR2は、この第9の画像情報S306と実施形態1に示した第1のカラー画像情報S305とを用いた演算処理により、第2のカラー画像情報S307および第3のカラー画像情報S308を生成する。第2のカラー画像情報S307は、通常のカラー画像から鏡面反射光の成分を抑えたカラー画像を表す。第3のカラー画像情報S308は、通常のカラー画像から鏡面反射光の成分を強調したカラー画像を表す。なお、図5Aおよび図5Bでは、第1のカラー画像情報S305は図示されていない。第1のカラー画像情報S305は、図5Bにおいて、カラー画像S305の構成画像である第1のλ1画像情報(第1の色情報)S21、第1のλ2画像情報(第2の色情報)S22、および第1のλ3画像情報(第3の色情報)S23に分解して図示されている。
 まず、第2のカラー画像S307の生成処理を説明する。
 第1のλ3画像情報S23は、上記のように、第7の画像情報S303に対して、偏光フィルタの挿入に起因する入射光の減衰の影響を補償するゲイン処理と、ホワイトバランス処理によるゲイン処理とを行うことによって生成される画像である。第2の演算処理部PR2は、この第1のλ3画像情報S23に対し、以下の式(2)に示す演算を行うことにより、第1のλ3画像情報S23から鏡面反射成分を取り除いた第2のλ3画像情報S26を生成する。
  P26=P23―(2/T)×Bg×P306    (2)
ここで、輝度値P23は第1のλ3画像情報S23の各画素の輝度値を、輝度値P26は第2のλ3画像情報S26の対応する画素の輝度値を、輝度値P306は第9の画像情報S306の対応する画素の輝度値を示す。式(2)の演算は画素ごとに行われる。
 一般に、鏡面反射光の分光特性は、入射光の分光特性がそのまま維持されることが知られている。すなわち、鏡面反射光の色は、被写体の色ではなく、入射光源の色を反映したものとなる。例えば、白色光を赤い被写体に照射した場合、その鏡面反射光は、赤色光ではなく、白色光である。したがって、その入射光源下にある被写体に対してホワイトバランス処理を行ったのちの第1のλ1画像情報S21、第1のλ2画像情報S22、および第1のλ3画像情報S23に、光源色が重畳した場合、その重畳した光のR成分、G成分、およびB成分は、同一の輝度値に相当することになる。言い換えれば、ホワイトバランス処理を行っていない状態のR成分、G成分、およびB成分においては、光源色情報が欠落したままであり、鏡面反射光がそれぞれどの割合で含まれているのかを推定できない。
 そこで、第2の演算処理部PR2は、第1のλ1画像情報S21に対し、以下の式(3)に示す演算を行うことにより、第1のλ1画像情報S21から鏡面反射成分を取り除いた第2のλ1画像情報S24を生成する。ここで、輝度値P21は第1のλ1画像情報S21の各画素の輝度値を、輝度値P24は第2のλ1画像情報S24の対応する画素の輝度値を示す。式(3)に示す演算は画素ごとに行われる。
  P24=P21―(2/T)×Bg×P306    (3)
 同様に、第2の演算処理部PR2は、第1のλ2画像情報S22に対し以下の式(4)に示す演算を行うことにより、第1のλ2画像情報S22から鏡面反射成分を取り除いた第2のλ2画像情報S25を生成する。ここで、輝度値P22は第1のλ2画像情報S22の各画素の輝度値を、輝度値P25は第2のλ2画像情報S25の対応する画素の輝度値を示す。式(4)に示す演算も画素ごとに行われる。
  P25=P22―(2/T)×Bg×P306    (4)
 次に、第2の演算処理部PR2は、式(2)~(4)に示す演算によって得られる第2のλ1画像情報S24、第2のλ2画像情報S25、および第2のλ3画像情報S26を合成して第2のカラー画像S307を生成する。この画像は、通常のカラー画像である第1のカラー画像S305に比べ、鏡面反射成分が抑制された、拡散成分が主体のカラー画像である。
 次に、第3のカラー画像S308の生成処理を説明する。
 第2の演算処理部PR2は、第1のλ3画像情報S23に対し以下の式(5)に示す演算を行うことにより、第1のλ3画像情報S23に鏡面反射成分を加えた第3のλ3画像情報S29を生成する。
 同様に、第2の演算処理部PR2は、第1のλ1画像情報S21に対し以下の式(6)に示す演算を行うことにより、第1のλ1画像情報S21に鏡面反射成分を加えた第3のλ1画像情報S27を生成する。
 さらに、第2の演算処理部PR2は、第1のλ2画像情報S22に対し以下の式(7)に示す演算を行うことにより、第1のλ2画像情報S22に鏡面反射成分を加えた第3のλ2画像情報S28を生成する。
  P27=P21+(2/T)×Bg×P306   (5)

  P28=P22+(2/T)×Bg×P306   (6)

  P29=P23+(2/T)×Bg×P306   (7)
ここで、輝度値P27は第3のλ1画像情報S27の各画素の輝度値を示し、輝度値P28は第3のλ2画像情報S28の各画素の輝度値を示し、輝度値P29は第3のλ3画像情報S29の各画素の輝度値を示す。式(5)~(7)に示す演算は画素ごとに行われる。
 第2の演算処理部PR2は、第3のλ1画像情報S27、第3のλ2画像情報S28、および第3のλ3画像情報S29を合成することにより、第3のカラー画像S308を生成する。この画像は、通常のカラー画像である第1のカラー画像S305に比べ、鏡面反射成分が主体となるカラー画像である。
 以上のような撮像システムの構成および画像処理により、通常のカラー画像としての第1のカラー画像S305と、シミ等の部分が強調されたカラー画像としての第2のカラー画像S307と、肌の表面状態が強調されたカラー画像としての第3のカラー画像S308とを、同時に取得することができる。これにより、簡易な構成で、通常のカラー画像と、鏡面反射成分の影響を抑えたカラー画像と、鏡面反射成分の影響を強調したカラー画像とを取得できるため、従来にない有用な撮像システムを実現できる。
 なお、必ずしもすべての画像を生成する必要はなく、全体システムとして必要な画像のみを生成すればよいことは言うまでもない。例えば、第2のカラー画像S307および第3のカラー画像S308の少なくとも一方のみを生成するように第2の演算処理部PR2が構成されていてもよい。
 また、第3のカラー画像S308を生成する処理において、式(5)~(7)の代わりに、以下の式(8)~(10)に示す演算を行ってもよい。ここで、Eは輝度値P21、P22、およびP23の合成係数を示し、Fは輝度値P306の合成係数を示す。
  P27=E×P21+F×(2/T)×Bg×P306   (8)

  P28=E×P22+F×(2/T)×Bg×P306   (9)

  P29=E×P23+F×(2/T)×Bg×P306   (10)
 係数E、Fは、任意に設定することができる。EとFを適当な値に設定することにより、通常画像に対する鏡面反射成分の割合を変化させることができる。これらの第3のλ1画像情報S27、第3のλ2画像情報S28、および第3のλ3画像情報S29を合成した第3のカラー画像S308は、通常のカラー画像である第1のカラー画像S305に比べ、鏡面反射成分の割合を変化させたカラー画像となる。
 この調整機能により、被写体が顔肌の場合では肌表面の毛穴やキメなどの状態の強調度合いを任意にコントロールしたカラー画像を得ることができる。係数E、Fの調整は、例えばディスプレイに表示されたユーザインターフェースや、装置に搭載されたボタンなどの操作部を介してユーザによって行われ得る。
 また、肌表面の毛穴やキメなどの状態を確認する画像として、カラー画像が必要ではない場合は、例えば青画像情報に注目し、式(10)の代わりに以下の式(11)の演算を行ってもよい。
  P29=C×P303+D×P306    (11)
ここで、輝度値P303は第7の画像情報S303の各画素の輝度値を示す。Cは輝度値P303の合成係数を示し、Dは輝度値P306の合成係数を示す。係数C、Dは、任意に設定することができる。
 式(11)の演算によって得られる各画素の信号P29で構成される第3のλ3画像情報S29は、実施形態1における第6の画像情報S302に比べ、鏡面反射成分の割合を変化させた画像である。
 この機能により、被写体が顔肌の場合では肌表面の毛穴やキメなどの状態の強調度合いを任意にコントロールした画像を得ることができる。
 なお式(11)で、C=1、D=0.5に設定した場合、第3のλ3画像情報S29は、実施形態1における第6の画像情報S302と等価となる。
 (実施の形態2)
 次に、第2の実施の形態を説明する。本実施の形態は、撮像装置Aの撮像部IPの構成が異なる点で、実施の形態1と異なる。以下の説明では、実施の形態1と異なる点を中心に説明し、共通する事項についての詳細な説明は省略する。
 図6は、本実施形態の撮像部IPを示す模式図である。本実施形態の撮像部IPは、光軸Vを有するレンズ光学系Lxと、レンズ光学系Lxの焦点近傍に配置されたアレイ状光学素子Kと、モノクロの撮像素子Nbとを備える。モノクロの撮像素子Nbは、カラーフィルタや偏光フィルタを有しない撮像素子である。
 レンズ光学系Lxは、被写体(図示せず)からの光が入射する絞りSと、絞りSを通過した光が入射する光学素子L1sと、光学素子L1sを通過した光が入射する光学素子L1pと、光学素子L1pを通過した光が入射するレンズL2とを有する。レンズ光学系Lxは、第1、第2、第3、および第4の光学領域D1、D2、D3、およびD4を有する。図6には、第2および第3の光学領域D2、D3は描かれていない。
 レンズL2は、1枚のレンズで構成されていてもよいし、複数枚のレンズで構成されていてもよい。また、絞りSの前後に複数枚に分かれて配置された構成であってもよい。図6では、レンズL2は1枚のレンズから構成されているものとして図示されている。
 図7Aは、光学素子L1sを被写体側から見た場合の正面図である。光学素子L1sは、絞りSと光学素子L1pとの間に配置されている。
 光学素子L1sは、光学領域D1、D2、D3、およびD4に配置されている。光学領域D1、D2、D3、およびD4は、光軸Vを境界中心として光軸Vに垂直な面内で上下左右に4分割された領域である。光学素子L1sのうち光学領域D1、D2、D3、およびD4に位置する部分の分光透過率特性は、光学領域D3とD4とは同一であるが、光学領域D1、およびD2とは互いに異なる。また、光学領域D1、およびD2に位置する部分の分光透過率特性も異なる。
 具体的には、光学素子L1sの光学領域D1、D2に対応する領域には、それぞれ第1の波長帯域λ1の光を主に透過する領域、第2の波長帯域λ2の光を主に透過する領域が配置されている。光学素子L1sの光学領域D3、D4に対応する領域には、ともに第3の波長帯域λ3の光を主に透過する領域が配置されている。
 図7Bは、光学素子L1pを被写体側から見た場合の正面図である。光学領域D1、D2、D3、およびD4は光軸Vを境界中心として光軸Vに垂直な面内で上下左右に4分割された領域である。光学素子L1pのうち光学領域D3に位置する部分のみに、第1の偏光軸の方向に偏光した光を主に透過する偏光フィルタPLb1が配置され、光学領域D4に位置する部分のみに、第2の偏光軸の方向に偏光した光を主に透過する偏光フィルタPLb2が配置され、その他の領域に位置する部分には、全ての方向に偏光した光を透過するガラス板が配置されている。
 図8は、アレイ状光学素子Kの斜視図である。アレイ状光学素子Kにおける撮像素子N側の面には、光学要素Mが格子状に配置されている。それぞれの光学要素Mの断面(縦方向および横方向それぞれの断面)は曲面形状であり、それぞれの光学要素Mは、撮像素子N側に突出している。このように、光学要素Mはマイクロレンズであり、アレイ状光学素子Kは、マイクロレンズアレイである。
 図9Aは、アレイ状光学素子Kと撮像素子Nbとを拡大して示す図であり、図9Bは、アレイ状光学素子Kと撮像素子Nb上の画素との位置関係を示す図である。アレイ状光学素子Kは、光学要素Mが形成された面が撮像面Ni側に向かうように配置されている。撮像面Niには、画素Pが行列状に配置されている。画素Pは、画素Pb1、画素Pb2、画素Pb3、および画素Pb4に区別できる。
 アレイ状光学素子Kは、レンズ光学系Lxの焦点近傍に配置されており、かつ撮像面Niから所定の距離だけ離れた位置に配置されている。また、撮像面Ni上には、画素Pb1、Pb2、Pb3、Pb4の表面を覆うようにマイクロレンズMsが設けられている。
 アレイ状光学素子Kは、光学素子L1s、およびL1pで構成される光学領域D1、D2、D3、およびD4を通過した光束の大部分がそれぞれ撮像面Ni上の画素Pb1、画素Pb2、画素Pb3、および画素Pb4に到達するように設計されている。具体的には、アレイ状光学素子Kの屈折率、撮像面Niからの距離及び光学要素M表面の曲率半径等のパラメータを適切に設定することにより、上記構成が実現する。
 従って、画素Pb1には、第1の波長帯域λ1の光が主に入射するため、画素P1の出力のみを抽出することにより、第1の波長帯域λ1の光の情報を有する第1の画像情報S101を生成することができる。同様に、画素Pb2の出力のみを抽出することにより、第2の波長帯域λ2の光の情報を有する第2の画像情報S102を生成することができる。また、画素Pb3には、第3の波長帯域λ3において第1の偏光軸の方向に偏光した光が主に入射するため、画素Pb3の出力のみを抽出することにより、第1の偏光軸の方向に振動し、かつ第3の波長帯域λ3の光の情報を有する第3の画像情報S103を生成することができる。また、画素Pb4には、第3の波長帯域λ3において第2の偏光軸の方向に偏光した光が主に入射するため、画素Pb4の出力のみを抽出することにより、第2の偏光軸の方向に振動し、かつ第3の波長帯域λ3の光の情報を有する第4の画像情報S104を生成することができる。
 このような構成により、撮像部IPは、第1の画像情報S101、第2の画像情報S102、第3の画像情報S103、および第4の画像情報S104を取得することができる。これらの画像情報に基づく画像合成処理は、実施の形態1、参考形態で示した画像処理の手順のいずれか、あるいは両方を適用することができる。
 また、本実施の形態では、光学素子L1s、およびL1pの光学領域D1、D2、D3、およびD4が互いに離間しているため、撮像領域NiにおけるPb1、Pb2、Pb3、およびPb4で取得した画像には、互いに被写体距離に対応した視差が発生する。従って、演算処理部PR1またはPR2は、第1から第4の画像情報S101~S104に含まれる視差を補正した上で、上述の画像処理を行ってもよい。例えば、図3Aおよび図3Bに示す第5の画像情報S301を生成する場合は、第1の演算処理部PR1が第3の画像情報S103と第4の画像情報S104との間の視差を補正した後に合成してもよい。具合的には、第1の画像情報S101を基準画像とし、第2の画像情報S102の視差補正画像、第3の画像情報S103の視差補正画像、第4の画像情報S104の視差補正画像をそれぞれ生成した後に合成処理を行えばよい。各視差補正画像は、各画像の微小ブロック毎にパターンマッチングを行うことにより抽出し、微小ブロック毎に抽出した視差の分だけ画像をずらすことにより生成できる。
 以上のような構成により、実施の形態1、参考形態と同様、通常のカラー画像と、拡散成分が強調された画像およびそのカラー画像と、鏡面反射成分が強調された画像およびそのカラー画像とを同時に取得できる撮像システムを実現することができる。
 本実施の形態では、光学素子L1sおよびL1pの構成を目的に応じて変更することができる。特に、光学素子L1sにおいては、誘電体多層膜を適用することにより、所望の分光特性を設計することができるため、分光特性のカスタマイズが容易になる。
 上記の例では、アレイ状光学素子Kが撮像面Niから所定の距離だけ離れた位置に配置されているが、空間を設けるのではなく、撮像素子の上部に直接構成してもよい。
 (実施の形態3)
 次に、第3の実施の形態を説明する。本実施の形態は、撮像装置Aの撮像部IPの構成が異なる点で、実施の形態1、および2と異なる。以下、実施の形態1、および2と異なる点を中心に説明し、共通する事項についての詳細な説明は省略する。
 図10は、本実施形態の撮像部IPの構成を示す模式図である。本実施形態の撮像装置の撮像部IPは、複眼レンズLLと、第1の波長帯域λ1の光を主に透過するバンドパスフィルタF1と、第2の波長帯域λ2の光を主に透過するバンドパスフィルタF2と、第3の波長帯域λ3の光を主に透過するバンドパスフィルタF3と、同じく第3の波長帯域λ3の光を主に透過するバンドパスフィルタF4と、第1の偏光軸の方向に偏光した光を主に透過する第1の偏光フィルタPLc1と、第2の偏光軸の方向に偏光した光を主に透過する第2の偏光フィルタPLc2と、撮像素子Ncとを有している。
 複眼レンズLLには、撮像素子Ncの撮像面Niにほぼ平行な同一平面上にレンズLa1、La2、La3、およびLa4が配列されている。また、撮像素子Nc上の撮像面Niには、レンズLa1、La2、La3、およびLa4にそれぞれ一対一に対応する撮像領域Ni1、Ni2、Ni3、およびNi4が設定されている。
 撮像部IPは、4つの光路によって被写体(図示せず)を撮像する。すなわち、レンズLa1と第1の波長帯域λ1の光を主に透過するバンドパスフィルタF1とを介して撮像領域Ni1に到達する光路、レンズLa2と第2の波長帯域λ2の光を主に透過するバンドパスフィルタF2とを介して撮像領域Ni2に到達する光路、レンズLa3と第3の波長帯域λ3の光を主に透過するバンドパスフィルタフィルタF3と第1の偏光フィルタPLc1とを介して撮像領域Ni3に到達する光路、およびレンズLa4と第3の波長帯域λ3の光を主に透過するバンドパスフィルタフィルタF4と第2の偏光フィルタPLc2とを介して撮像領域Ni4に到達する光路である。
 このような構成により、撮像部IPは、撮像領域Ni1、Ni2、Ni3、およびNi4から、それぞれ第1の波長帯域λ1の光の情報を有する第1の画像情報S101、第2の波長帯域λ2の光の情報を有する第2の画像情報S102、第3の波長帯域λ3の光の情報を有しかつ第1の偏光軸の方向に偏光した光の情報を有する第3の画像情報S103、および第3の波長帯域λ3の光の情報を有しかつ第2の偏光軸の方向に偏光した光の情報を有する第4の画像情報S104を取得することができる。
 また、本実施の形態では、レンズLa1、La2、La3、およびLa4が互いに離間して配列されているため、撮像領域Ni1、Ni2、Ni3、およびNi4で取得した画像には、互いに被写体距離に対応した視差が発生する。従って、演算処理部PR1またはPR2は、第1から第4の画像情報S101~S104に含まれる視差を補正した上で、上述の画像処理を行ってもよい。例えば、図3Aおよび図3Bに示す第5の画像情報S301を生成する場合は、第1の演算処理部PR1が第3の画像情報S103と第4の画像情報S104との間の視差を補正した後に合成してもよい。具合的には、第1の画像情報S101を基準画像とし、第2の画像情報S102の視差補正画像、第3の画像情報S103の視差補正画像、第4の画像情報S104の視差補正画像をそれぞれ生成した後に合成処理を行えばよい。各視差補正画像は、各画像の微小ブロック毎にパターンマッチングを行うことにより抽出し、微小ブロック毎に抽出した視差の分だけ画像をずらすことにより生成できる。
 このような構成により、撮像部IPは、第1の画像情報S101、第2の画像情報S102、第3の画像情報S103、および第4の画像情報S104を取得することができる。画像合成は、実施の形態1および参考形態で示した画像処理の手順のいずれか、あるいは両方を適用することができる。
 以上のような構成により、実施の形態1および2と同様に通常のカラー画像と、拡散成分が強調された画像およびそのカラー画像と、鏡面反射成分が強調された画像およびそのカラー画像とを同時に取得できる撮像システムを実現することができる。
 (実施の形態4)
 次に、第4の実施の形態を説明する。本実施の形態は、偏光照明Qaにおける偏光フィルタPLQ1の偏光軸の方向が水平方向に設定されている点で、実施の形態1、2、および3と異なる。以下、実施の形態1、2、および3と異なる点を主に説明し、共通する事項についての説明は省略する。
 図11Aは、本実施形態の撮像システムAPを示す模式図である。撮像システムAPは、偏光照明Qaと、撮像装置Aと、表示装置(ディスプレイ)DPとを有している。表示装置DPは、偏光照明Qaの照射方向と同じ側に設けられ、撮像によって生成した画像を表示するように構成されている。撮像システムAPは、図示される要素の他、筐体の内部に制御部CS、撮像部、演算処理部などの他の要素を有している。このような構成により、撮像システムAPは、電子ミラーとして利用することができる。
 本実施形態の偏光照明Qaにおける偏光フィルタPLQ1は、第1の偏光軸の方向が水平方向に設定されている。本明細書において「水平方向」とは、撮像システムAPが撮影を行っている最中の偏光照明Qaの姿勢において、地表面にほぼ平行な方向を意味する。通常、撮像システムAPは、人が直立している状態または座っている状態で撮影を行う。したがって、この撮影中の状態において、第1の偏光軸の方向が地表面にほぼ平行になるように偏光フィルタPLQ1が設けられていればよい。なお、「ほぼ平行」とは、厳密に平行である場合に限らず、例えば15度よりも小さい角度で傾いている場合も含むものとする。一方、本明細書において「垂直方向」とは、撮影中の偏光照明Qaの姿勢において、地表面にほぼ垂直な方向を意味する。「ほぼ垂直」とは、厳密に垂直である場合に限らず、例えば75度~105度の範囲で傾いている場合も含むものとする。
 本実施形態では、偏光フィルタPLQ1は、水平方向に偏光した光を主に透過させ、第1の偏光軸と直交する方向、すなわち垂直方向に偏光した光の大部分を吸収する。したがって、被写体Obには、水平方向に偏光した光のみが照射される。この光による顔肌での鏡面反射成分には、照射される光の偏光情報が維持され、水平方向に偏光した光が多く含まれることになる。
 一方、通常の室内照明下での使用を想定した場合、図11Bに示すように、被写体Obの上方に照明装置EXLが設置されている場合が多い。そのような照明装置EXLからの光による顔肌の鏡面反射成分には垂直方向の成分の多くが除去され、水平方向に偏光した光が多く含まれると考えられる。仮に偏光照明Qaにおける偏光フィルタPLQ1の偏光軸の方向が水平方向からずれている場合、鏡面反射成分の画像情報を正しく得られないおそれがある。
 そこで、本実施形態では、偏光フィルタPLQ1の偏光軸の方向は水平方向に設定される。これにより、偏光照明Qaによる被写体Obからの反射光の鏡面反射成分の偏光軸の方向と通常の室内照明による鏡面反射成分の偏光軸の方向とが一致することになる。このため、撮像部IPにおける偏光フィルタによる光線制御の精度を保つことができる。
 本実施形態のように、表示装置DPを追加すれば、肌のシミ等の生体の特徴箇所を示す画像をリアルタイムに確認することができる。また、表示装置DPの近傍に偏光照明Qaと撮像装置Aを配置することにより、効率よく被写体を照明し、その被写体の画像を表示することが可能となる。ここで、「近傍」とは、例えば表示装置DPが長方形状である場合、表示装置DPの外周部と偏光照明Qaまたは撮像装置Aの外周部との距離(空間間隔)が、表示装置DPの長辺の長さよりも短い場合を指す。表示装置DPが仮に楕円形状である場合、「近傍」とは、表示装置DPの外周部と偏光照明Qaまたは撮像装置Aの外周部との距離(空間間隔)が長径よりも短い場合を指す。
 表示装置DPとして、複数の偏光フィルタを備える液晶ディスプレイを用いた場合、その液晶ディスプレイの偏光軸の方向を偏光照明Qaの偏光フィルタPLQ1の偏光軸の方向に一致させるように配置すれば、液晶ディスプレイ自体からの光も被写体に対する照明の一部とすることができるため、効率がよい。
 表示装置DPとして液晶ディスプレイを用いた場合、例えば図11Cに示すように、液晶ディスプレイの一部を偏光照明Qaとして利用してもよい。この場合、偏光照明Qaとして用いられる液晶ディスプレイの一部には、カラーフィルタが設けられている必要はない。図11Cの例では偏光照明Qaは表示装置DPの両側に設けられているが、周囲を囲むように設けられていてもよい。
 また、撮像システムの構成要素に図11Bに示す照明装置EXLのような補助照明が含まれていてもよい。本実施形態では、偏光照明Qaの偏光軸の方向が水平方向に設定されているため、補助照明が存在していても、実施形態1または参考形態の画像処理により、適切に画像を生成することができる。
 以上のような構成により、本実施形態の撮像システムAPは、多少外乱光が存在する環境下においても、実施の形態1、2、および3と同様に通常のカラー画像と、拡散成分が強調された画像およびそのカラー画像と、鏡面反射成分が強調された画像およびそのカラー画像とを同時に取得することができる。
 なお、本実施形態においては、必ずしも実施形態1または参考形態における全ての画像処理を行う必要はない。用途に応じて一部の画像情報のみを生成してもよい。例えば、撮像装置Aは、水平方向に偏光した光の情報を有する水平偏光画像情報、および垂直方向に偏光した光の情報を有する垂直偏光画像情報のみを生成するように構成されていてもよい。その場合、撮像装置Aには、水平方向に偏光した光のみを透過させる偏光フィルタ、および垂直方向に偏光した光のみを透過させる偏光フィルタが設けられていればよい。
(他の実施の形態)
 実施の形態1~4は、偏光特性を有しない(偏光フィルタを設けていない)画素からの画像情報として第1の波長帯域の光の情報、および第2の波長帯域の光の情報を取得しているが、本願発明はこれに限定されない。偏光特性を有しない画像情報として、第1の波長帯域の光の情報のみを取得してもよいし、第1及び第2の波長帯域の光の情報と、他の波長帯域の光の情報とを取得してもよい。
 また、実施の形態1~4は、被写体の顔等を撮影して肌の健康状態を診断する用途として記載しているが、本願発明はこれに限定されない。
 たとえば、車載カメラとして例えば路面状態を検出する用途として使用してもよい。この場合、偏光特性を有する第3及び第4の画像情報を用いて、路面の湿潤状態を検出することができる。また、偏光特性を有しない第1の画像情報に基づいて、信号検出、黄色線、交通標識などを検出することができる。このとき、差分演算を行うなど、偏光特性を有する画像情報を用いた補正は行わない。これにより、ノイズの影響を低減した検出を行うことができる。偏光照明は必ずしも必要でない。
 そのほかに、食品の成分を検出するセンシングカメラとして使用してもよい。食品成分の検出方法としては、例えば、撮影した画像情報から近赤外領域の吸収スペクトルを測定した結果と、既知のサンプル食品データ群の近赤外領域に対する吸光度と、に基づいて推定する方法が考えられる。しかし、この場合、食品表面での鏡面反射が大きいと食品内部からの拡散反射光が遮られてしまい、正確な成分計測が困難になる。そこで、偏光軸の異なる近赤外領域の第3および第4画像情報に基づいて、食品の内部の情報を取得し、内部成分を推定してもよい。また、偏光特性を有しない第1の画像情報を用いて、食品の位置や色情報を検出してもよい。このとき、差分演算を行うなど、偏光特性を有する画像情報を用いた補正は行わない。これにより、ノイズの影響を低減した検出を行うことができる。偏光照明は必ずしも必要ではない。
 図12は、このような偏光照明を有しない撮像システムにおける撮像装置Aが有する演算処理部PR3による画像処理の流れの一例を示す図である。なお、この例では、上記の第2の画像情報に相当する画像情報を利用しないため、これまでの説明における第3の画像情報および第4の画像情報に対応する画像情報を、それぞれ「第2の画像情報」および「第3の画像情報」と改めて呼んでいる。第2の画像情報S402は、第1の偏光軸の方向に偏光した第2の波長帯域の光の情報を有し、第3の画像情報は、第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した第2の波長帯域の光の情報を有する。ここで、第2の波長帯域は、上記の各実施形態における第3の波長帯域に対応するが、各波長帯域の決め方は任意であるため、これらの用語の差異は特に重要ではない。
 したがって、この例における撮像部IPは、被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報S401、第1の偏光軸の方向に偏光した第2の波長帯域の光の情報を有する第2の画像情報S402、および第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第2の波長帯域の光の情報を有する第3の画像情報S403を取得するように構成されている。また、演算処理部PR3は、第2の画像情報S402および第3の画像情報S403に基づいて被写体の鏡面反射成分の画像情報S442、および内部拡散成分の画像情報S441の少なくとも一方を取得する。演算処理部PR3は、さらに、第1の画像情報S401に基づいて、第2の画像情報S402および第3の画像情報S403を用いずに被写体情報である第1の画像S405を取得して出力する。
 図12の例では、実施の形態1と同様、第2の画像情報S402と第3の画像情報S403とで最大値演算処理を行うことによって得られた画像情報を鏡面反射成分の画像情報S442とし、最小値演算処理を行うことによって得られた画像情報を内部拡散成分の画像情報S441としている。ただしこれは一例であり、それ以外の方法で画像情報S441、S442を生成してもよい。
 上記の例では、演算処理部PR3は、被写体情報を生成する際、第2の画像情報S402および第3の画像情報S403を利用しないこととしたが、これらの画像情報を利用してもよい。これにより、例えば第1の画像S405に比べて鏡面反射成分または内部拡散成分が強調された画像や、色調が補正された画像を生成することができる。ただしこの場合も、第1の画像情報S401と、第2および第3の画像情報S402、S403との差分演算を行わずに被写体情報が生成される。これにより、ノイズの影響を低減した画像を生成することができる。
 以上の各実施形態における演算処理部の機能を、独立した画像処理装置に実装してもよい。そのような画像処理装置は、例えば図3A、3B、5A、5B、図12のいずれかに示される信号演算を行うことにより、実施形態1または参考形態におけるいずれかの画像情報を生成するように構成される。
 本願の技術は、上述の各実施形態における処理を規定するソフトウェア(コンピュータプログラム)にも適用され得る。そのようなコンピュータプログラムに規定される動作は、例えば図3A、3B、5A、5B、図12に示すとおりである。このようなプログラムは、可搬型の記録媒体に記録されて提供され得る他、電気通信回線を通じても提供され得る。装置に搭載されたコンピュータがこのようなプログラムを実行することにより、上記の実施形態で説明した各種動作を実現することができる。
 本発明の一態様にかかる撮像システムは、例えば肌診断カメラ、電子ミラー、化粧支援装置、車載カメラ、食品センシングカメラ等の撮像装置および表示装置として有用である。
  IP             撮像部
  A              撮像装置
  AP             撮像システム
  λ1~λ3          波長帯域
  S101~S104      画像情報
  PR1、PR2        演算処理部
  S301~S304、S306 画像情報
  S305、S307、S308 カラー画像
  S21~S29        画像情報
  P303、P304、P306 輝度値
  S401~S403             画像情報
  S405                       第1の画像
  S441                       内部拡散成分の画像情報
  S442                       鏡面反射成分の画像情報
  P21~P29        輝度値
  Rg、Gg、Bg       ホワイトバランスゲイン
  Qa             偏光照明
  LS1            光源
  PLQ1、PLb1、PLb2 偏光フィルタ
  PLc1、PLc2      偏光フィルタ
  L、L2           レンズ
  Ob             被写体
  CS             制御部
  EXT            外部装置
  Na、Nb、Nc       撮像素子
  LL             複眼レンズ
  La1~La4        複眼レンズの光学要素
  F1~F4          バンドパスフィルタ
  Ni             撮像面
  Ni1~Ni4        撮像面上の撮像領域
  Pa1~Pa4        撮像素子上の画素
  Lx             レンズ光学系
  L1s、L1p        光学素子
  D1~D4          光学領域
  S              絞り
  V              光軸
  B1~B4          光線
  K              アレイ状光学素子
  M              アレイ状光学素子における光学要素
  Ms             撮像素子上のマイクロレンズ
  Pb1~Pb4        撮像素子上の画素
  T              撮像装置内の偏光フィルタの最大透過率
  C、D、E,F        画素演算時の合成係数
  DP             表示装置
  EXL            照明装置

Claims (3)

  1.  被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第1の偏光軸の方向に偏光した第2の波長帯域の光の情報を有する第2の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第2の波長帯域の光の情報を有する第3の画像情報を取得するように構成された撮像部と、
     前記第2および第3の画像情報に基づいて前記被写体の鏡面反射成分の画像情報、または内部拡散成分の画像情報を取得し、前記第1の画像情報に基づいて、前記第2および第3の画像情報を用いずに前記被写体情報を取得して出力するように構成された演算処理部と、
    を備えた撮像システム。
  2.  被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第1の偏光軸の方向に偏光した第2の波長帯域の光の情報を有する第2の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第2の波長帯域の光の情報を有する第3の画像情報を取得するように構成された撮像部と、
     前記第2および第3の画像情報に基づいて前記被写体の鏡面反射成分の画像情報、または内部拡散成分の画像情報を取得し、前記第1の画像情報に基づいて、前記第2および第3の画像情報との差分演算を行わずに前記被写体情報を取得して出力するように構成された演算処理部と、
    を備えた撮像システム。
  3.  第1の偏光軸の方向に偏光した光を出射するように構成された偏光照明と、
     前記偏光照明から出射され被写体で反射された光を受けるように配置され、第1の波長帯域の光の情報を有する第1の画像情報、第2の波長帯域の光の情報を有する第2の画像情報、前記第1の偏光軸の方向に偏光した第3の波長帯域の光の情報を有する第3の画像情報、および前記第1の偏光軸の方向とは異なる第2の偏光軸の方向に偏光した前記第3の波長帯域の光の情報を有する第4の画像情報を取得するように構成された撮像部と、
     前記第3および第4の画像情報における対応画素対のうち輝度値の小さい画素を対応画素対ごとに選択することによって得られる低輝度画像情報、および前記第3および第4の画像情報における対応画素対のうち輝度値の大きい画素を対応画素対ごとに選択することによって得られる高輝度画像情報の少なくとも一方、および前記第3および第4の画像情報における対応画素対ごとの輝度値の平均値を示す平均画像情報を生成し、前記第1の画像情報、前記第2の画像情報、および前記平均画像情報に基づく画像処理により、カラー画像を生成するように構成された演算処理部と、
    を備えた撮像システム。
PCT/JP2014/000333 2013-01-29 2014-01-23 撮像システム WO2014119257A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014525645A JP5873983B2 (ja) 2013-01-29 2014-01-23 撮像システム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013014435 2013-01-29
JP2013-014435 2013-01-29
JP2013014434 2013-01-29
JP2013-014434 2013-01-29

Publications (1)

Publication Number Publication Date
WO2014119257A1 true WO2014119257A1 (ja) 2014-08-07

Family

ID=51261975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000333 WO2014119257A1 (ja) 2013-01-29 2014-01-23 撮像システム

Country Status (2)

Country Link
JP (1) JP5873983B2 (ja)
WO (1) WO2014119257A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182225A1 (ja) * 2014-05-30 2015-12-03 コニカミノルタ株式会社 撮像装置
CN105488782A (zh) * 2014-10-06 2016-04-13 松下知识产权经营株式会社 光泽判定装置以及光泽判定方法
JP2017191986A (ja) * 2016-04-12 2017-10-19 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記録媒体
WO2018037678A1 (ja) * 2016-08-24 2018-03-01 ソニー株式会社 画像処理装置および情報生成装置と情報生成方法
WO2018074064A1 (ja) * 2016-10-17 2018-04-26 ソニー株式会社 画像処理装置と画像処理方法および撮像装置
CN108694703A (zh) * 2017-04-05 2018-10-23 三星电子株式会社 用于精细化深度图像的方法和装置
WO2019012858A1 (ja) * 2017-07-12 2019-01-17 ソニー株式会社 撮像装置、画像生成方法、撮像システム
CN112204364A (zh) * 2018-06-05 2021-01-08 索尼公司 信息生成装置、信息生成方法和程序

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004468A (ja) * 2003-06-11 2005-01-06 Kose Corp 画像のシミュレーション方法
JP2010166580A (ja) * 2007-12-07 2010-07-29 Panasonic Corp 画像処理装置および画像処理方法ならびに撮像装置
JP2012212978A (ja) * 2011-03-30 2012-11-01 Nikon Corp 撮像素子および撮像装置
JP2014023609A (ja) * 2012-07-25 2014-02-06 Panasonic Corp 撮影観察装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004468A (ja) * 2003-06-11 2005-01-06 Kose Corp 画像のシミュレーション方法
JP2010166580A (ja) * 2007-12-07 2010-07-29 Panasonic Corp 画像処理装置および画像処理方法ならびに撮像装置
JP2012212978A (ja) * 2011-03-30 2012-11-01 Nikon Corp 撮像素子および撮像装置
JP2014023609A (ja) * 2012-07-25 2014-02-06 Panasonic Corp 撮影観察装置

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182225A1 (ja) * 2014-05-30 2015-12-03 コニカミノルタ株式会社 撮像装置
CN105488782B (zh) * 2014-10-06 2020-07-28 松下知识产权经营株式会社 光泽判定装置以及光泽判定方法
CN105488782A (zh) * 2014-10-06 2016-04-13 松下知识产权经营株式会社 光泽判定装置以及光泽判定方法
JP2016075561A (ja) * 2014-10-06 2016-05-12 パナソニックIpマネジメント株式会社 光沢判定装置および光沢判定方法
US9953237B2 (en) 2014-10-06 2018-04-24 Panasonic Intellectual Property Management Co., Ltd. Gloss determination device and gloss determination method
JP2017191986A (ja) * 2016-04-12 2017-10-19 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記録媒体
WO2018037678A1 (ja) * 2016-08-24 2018-03-01 ソニー株式会社 画像処理装置および情報生成装置と情報生成方法
JP7040447B2 (ja) 2016-08-24 2022-03-23 ソニーグループ株式会社 画像処理装置および情報生成装置と情報生成方法
US10904503B2 (en) 2016-08-24 2021-01-26 Sony Corporation Image processing device, information generation device, and information generation method
CN109565546A (zh) * 2016-08-24 2019-04-02 索尼公司 图像处理设备、信息生成设备以及信息生成方法
JPWO2018037678A1 (ja) * 2016-08-24 2019-06-20 ソニー株式会社 画像処理装置および情報生成装置と情報生成方法
US10848727B2 (en) 2016-08-24 2020-11-24 Sony Corporation Image processing device, information generation device, and information generation method
WO2018074064A1 (ja) * 2016-10-17 2018-04-26 ソニー株式会社 画像処理装置と画像処理方法および撮像装置
US10750136B2 (en) 2016-10-17 2020-08-18 Sony Corporation Image processing apparatus, image processing method, and image pickup device
JPWO2018074064A1 (ja) * 2016-10-17 2019-08-15 ソニー株式会社 画像処理装置と画像処理方法および撮像装置
JP7070423B2 (ja) 2016-10-17 2022-05-18 ソニーグループ株式会社 画像処理装置と画像処理方法および撮像装置
CN108694703A (zh) * 2017-04-05 2018-10-23 三星电子株式会社 用于精细化深度图像的方法和装置
CN108694703B (zh) * 2017-04-05 2023-06-27 三星电子株式会社 用于精细化深度图像的方法和装置
JPWO2019012858A1 (ja) * 2017-07-12 2020-05-21 ソニー株式会社 撮像装置、画像生成方法、撮像システム
CN110832843A (zh) * 2017-07-12 2020-02-21 索尼公司 成像设备、图像形成方法和成像系统
WO2019012858A1 (ja) * 2017-07-12 2019-01-17 ソニー株式会社 撮像装置、画像生成方法、撮像システム
US11399144B2 (en) 2017-07-12 2022-07-26 Sony Group Corporation Imaging apparatus, image forming method, and imaging system
JP7207303B2 (ja) 2017-07-12 2023-01-18 ソニーグループ株式会社 撮像装置、画像生成方法、撮像システム
CN112204364A (zh) * 2018-06-05 2021-01-08 索尼公司 信息生成装置、信息生成方法和程序

Also Published As

Publication number Publication date
JPWO2014119257A1 (ja) 2017-01-26
JP5873983B2 (ja) 2016-03-01

Similar Documents

Publication Publication Date Title
JP5873983B2 (ja) 撮像システム
JP7314976B2 (ja) 撮像装置及び撮像方法
JP5796191B2 (ja) 撮像システム
JP5723881B2 (ja) マルチスペクトル撮像
JP6524617B2 (ja) 撮像装置および方法
US10335019B2 (en) Image pickup element and endoscope device
JP6156787B2 (ja) 撮影観察装置
EP2577977A1 (en) Two sensor imaging systems
JPWO2015015717A1 (ja) 撮像装置、並びにそれを用いた撮像システム、電子ミラーシステムおよび測距装置
US10575718B2 (en) Endoscope system
US11737673B1 (en) Systems for detecting carious lesions in teeth using short-wave infrared light
JP5159526B2 (ja) 眼底カメラ
JP2013046850A (ja) 眼底カメラ
JP4966618B2 (ja) 撮像素子及び内視鏡装置
WO2017175383A1 (ja) 内視鏡システム
JP4764794B2 (ja) 画像処理装置、内視鏡装置、及び画像処理プログラム
JP2009153074A (ja) 画像撮影装置
JP5108013B2 (ja) カラー撮像素子及びこれを用いた撮像装置及びフィルタ
WO2018142692A1 (ja) 撮像装置、および画像処理装置
JP2011226947A (ja) 分光イメージング装置及び分光イメージング方法
JP4951303B2 (ja) 内視鏡用撮像素子
JP7477158B2 (ja) 3板式カメラ
JP2015513824A (ja) イメージング
KR20220137629A (ko) 촬상 유닛 및 측정 장치
JP2007315808A (ja) マルチスペクトル撮像装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014525645

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14745367

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14745367

Country of ref document: EP

Kind code of ref document: A1