WO2019078336A1 - 撮像装置および信号処理装置 - Google Patents

撮像装置および信号処理装置 Download PDF

Info

Publication number
WO2019078336A1
WO2019078336A1 PCT/JP2018/038943 JP2018038943W WO2019078336A1 WO 2019078336 A1 WO2019078336 A1 WO 2019078336A1 JP 2018038943 W JP2018038943 W JP 2018038943W WO 2019078336 A1 WO2019078336 A1 WO 2019078336A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging device
imaging
pixel
unit
light
Prior art date
Application number
PCT/JP2018/038943
Other languages
English (en)
French (fr)
Inventor
光昭 喜多
佳孝 宮谷
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201880066133.5A priority Critical patent/CN111201779B/zh
Priority to EP18868008.6A priority patent/EP3700192B1/en
Priority to JP2019548811A priority patent/JP7259756B2/ja
Priority to US16/754,586 priority patent/US11431911B2/en
Publication of WO2019078336A1 publication Critical patent/WO2019078336A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00095Systems or arrangements for the transmission of the picture signal
    • H04N1/00103Systems or arrangements for the transmission of the picture signal specially adapted for radio transmission, e.g. via satellites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3204Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a user, sender, addressee, machine or electronic recording medium
    • H04N2201/3205Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a user, sender, addressee, machine or electronic recording medium of identification information, e.g. name or ID code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3253Position information, e.g. geographical position at time of capture, GPS data

Definitions

  • the present disclosure relates to an imaging device and a signal processing device, and more particularly to an imaging device and a signal processing device that can expand the application range of the imaging device.
  • the imaging device which does not use an imaging lens as shown by a nonpatent literature 1 and patent documents 1 and 2 can be miniaturized as there is no imaging lens, and expansion of an application range is expected.
  • the present disclosure has been made in view of such a situation, and is intended to be able to expand the application range of an imaging device.
  • the imaging device receives incident light from an object that is incident without passing through either the imaging lens or the pinhole, and detects an output pixel value modulated by the incident angle of the incident light.
  • an image sensor including one or more pixel output units for outputting one, and outputting a detection signal set including the one or more detection signals, the detection signal set, and a position and orientation indicating at least one of position and orientation
  • a communication unit that transmits imaging data including data to the communication device by wireless communication.
  • the signal processing device receives incident light from an object incident without passing through either the imaging lens or the pinhole, and detects an output pixel value modulated by the incident angle of the incident light.
  • a plurality of the plurality of imaging data respectively included in a plurality of imaging data from a plurality of imaging devices each including one or more pixel output units that output one signal and each including an imaging element that outputs a detection signal set consisting of one or more of the detection signals.
  • a restoration unit is provided that restores a restored image using the detection signal set.
  • At least one detection indicating an output pixel value modulated by an incident angle of the incident light is received by receiving incident light from an object incident without passing through either the imaging lens or the pinhole
  • a detection signal set including a signal is output, and imaging data including position and orientation data indicating at least one of the detection signal set and the position and orientation is transmitted to the communication device by wireless communication.
  • a detection signal indicating an output pixel value modulated by an incident angle of the incident light is received by receiving incident light from an object incident without passing through either the imaging lens or the pinhole.
  • a plurality of detection signal sets respectively included in a plurality of imaging data from a plurality of imaging devices each having one or more pixel output units to output and each having an imaging element that outputs a detection signal set consisting of one or more of the detection signals To restore the restored image.
  • the application range of the imaging device can be expanded.
  • FIG. It is a figure explaining the example of usage of an imaging system of FIG. It is a block diagram which shows 1st Embodiment of the imaging device of FIG. It is a schematic diagram which shows the structural example of the external appearance of 1st Embodiment of the imaging device of FIG. It is a figure which shows the example of the pattern of the pixel array part of the image pick-up element of FIG. It is a figure which shows the example of the pattern of the pixel array part of the image pick-up element of FIG. It is a figure which shows the example of the pattern of the pixel array part of the image pick-up element of FIG. It is a figure which shows the example of the pattern of the pixel array part of the image pick-up element of FIG. It is a block diagram which shows the structural example of the signal processing apparatus of FIG.
  • the imaging device 51 in which the detection sensitivity of each pixel is made to have incident angle directivity is used.
  • incident angle directivity to the detection sensitivity of each pixel means that the light receiving sensitivity characteristic according to the incident angle of incident light to each pixel is different for each pixel.
  • the light receiving sensitivity characteristics of all the pixels do not have to be completely different, and the light receiving sensitivity characteristics of some pixels may be the same.
  • the object plane 31 of the upper left object in FIG. 1 is composed of the point light source PA to the point light source PC, and the point light source PA to the point light source PC respectively emit a plurality of light rays of light intensity a to light intensity c around It shall be.
  • the imaging device 51 includes pixels (hereinafter, referred to as pixels Pa to Pc) having different incident angle directivity at positions Pa to Pc.
  • rays of the same light intensity emitted from the same point light source are made incident on the respective pixels of the image sensor 51.
  • a light beam of light intensity a emitted from the point light source PA is incident on the pixels Pa to Pc of the imaging device 51, respectively.
  • rays emitted from the same point light source are incident at different incident angles for each pixel.
  • light rays from the point light source PA are incident on the pixels Pa to Pc at different incident angles.
  • the incident angle directivity of the pixels Pa to Pc is different from each other, light rays of the same light intensity emitted from the same point light source are detected with different sensitivities in each pixel. As a result, rays of the same light intensity are detected at different detection signal levels for each pixel. For example, detection signal levels for light rays of light intensity a from the point light source PA have different values in the pixels Pa to Pc.
  • the light receiving sensitivity level of each pixel with respect to the light beam from each point light source is determined by multiplying the light intensity of the light beam by a coefficient indicating the light receiving sensitivity (that is, the incident angle directivity) with respect to the incident angle of the light beam.
  • the detection signal level of the pixel Pa with respect to the light beam from the point light source PA multiplies the light intensity a of the light beam of the point light source PA by a coefficient indicating the incident angle directivity of the pixel Pa with respect to the incident angle of the light beam to the pixel Pa It is determined by
  • the detection signal levels DA, DB, DC of the pixels Pc, Pb, Pa are expressed by the following formulas (1) to (3), respectively.
  • DA ⁇ 1 ⁇ a + ⁇ 1 ⁇ b + ⁇ 1 ⁇ c ...
  • DB ⁇ 2 ⁇ a + ⁇ 2 ⁇ b + ⁇ 2 ⁇ c ...
  • DC ⁇ 3 ⁇ a + ⁇ 3 ⁇ b + ⁇ 3 ⁇ c ...
  • the coefficient ⁇ 1 is a coefficient indicating the incident angle directivity of the pixel Pc with respect to the incident angle of the ray from the point light source PA to the pixel Pc, and is set according to the incident angle. Further, ⁇ 1 ⁇ a indicates the detection signal level of the pixel Pc with respect to the light beam from the point light source PA.
  • the coefficient ⁇ 1 is a coefficient indicating the incident angle directivity of the pixel Pc with respect to the incident angle of a ray from the point light source PB to the pixel Pc, and is set according to the incident angle. Further, ⁇ 1 ⁇ b represents the detection signal level of the pixel Pc with respect to the ray from the point light source PB.
  • the coefficient ⁇ 1 is a coefficient indicating the incident angle directivity of the pixel Pc with respect to the incident angle of the light beam from the point light source PC to the pixel Pc, and is set according to the incident angle. Further, ⁇ 1 ⁇ c indicates the detection signal level of the pixel Pc with respect to the ray from the point light source PC.
  • the detection signal level DA of the pixel Pa includes the light intensities a, b and c of the light rays from the point light sources PA, PB and PC at the pixel Pc, and the incident angle directivity according to the respective incident angles. It is obtained by product-sum with coefficients ⁇ 1, ⁇ 1, and ⁇ 1.
  • the detection signal level DB of the pixel Pb is, as shown in equation (2), the respective light intensities a, b and c of the light rays from the point light sources PA, PB and PC in the pixel Pb It is obtained by the product-sum with the coefficients ⁇ 2, ⁇ 2, and ⁇ 2 indicating the incident angle directivity according to the angle.
  • the detection signal level DC of the pixel Pc is, as shown in the equation (3), the respective light intensities a, b and c of the light rays from the point light sources PA, PB and PC at the pixel Pa and the respective incident angles It is determined by product-sum with the coefficients ⁇ 2, ⁇ 2 and ⁇ 2 indicating the incident angle directivity according to
  • the detection signal levels DA, DB, DC of the pixels Pa, Pb, Pc are light of the light beams emitted from the point light sources PA, PB, PC as shown in the equations (1) to (3).
  • the strengths a, b and c are mixed. Therefore, as shown in the upper right of FIG. 1, the detection signal level in the imaging device 51 is different from the light intensity of each point light source on the object plane 31. Therefore, the image obtained by the imaging device 51 is different from that on which the image of the object plane 31 is formed.
  • a set of coefficients for example, coefficients ⁇ 1, ⁇ 1, ⁇ 1 for each of the equations constituting the simultaneous equations is referred to as a coefficient set.
  • a set of a plurality of coefficient sets corresponding to a plurality of equations included in the simultaneous equations for example, coefficient set ⁇ 1, ⁇ 1, ⁇ 1, coefficient set ⁇ 2, ⁇ 2, ⁇ 2, coefficient set ⁇ 3, ⁇ 3, ⁇ 3) Is called a coefficient set group.
  • Patent Document 1 Non-Patent Document 1
  • Patent Document etc. It is possible to realize an imaging device in which the element 51 is an essential component.
  • the imaging lens, the pinhole, and the optical filter described in the patent document and the like do not become an essential component, the height of the imaging device can be reduced, that is, the thickness in the incident direction of light in the configuration realizing the imaging function. It becomes possible to make it thinner.
  • the essential configuration is only the imaging device 51, it is possible to improve the degree of freedom in design.
  • FIG. 2 is a block diagram showing a configuration example of an imaging device 101 which is a basic imaging device to which the technology of the present disclosure is applied.
  • the imaging device 101 includes an imaging element 121, a restoration unit 122, a control unit 123, an input unit 124, a detection unit 125, an association unit 126, a display unit 127, a storage unit 128, a recording and reproduction unit 129, a recording medium 130, and a communication unit. 131 is provided. Further, signal processing and imaging are performed by the restoration unit 122, the control unit 123, the input unit 124, the detection unit 125, the association unit 126, the display unit 127, the storage unit 128, the recording and reproducing unit 129, the recording medium 130, and the communication unit 131.
  • a signal processing control unit 111 that controls the device 101 is configured. Note that the imaging device 101 does not include an imaging lens (imaging lens free).
  • the imaging device 121, the restoration unit 122, the control unit 123, the input unit 124, the detection unit 125, the association unit 126, the display unit 127, the storage unit 128, the recording and reproduction unit 129, and the communication unit 131 are connected via the bus B1. Are connected to each other, and transmit and receive data via the bus B1.
  • the description of the bus B1 in the case where each unit of the imaging apparatus 101 transmits and receives data via the bus B1 is omitted.
  • the input unit 124 supplies data to the control unit 123 via the bus B1
  • the input unit 124 supplies data to the control unit 123.
  • the image pickup device 121 corresponds to the image pickup device 51 described with reference to FIG. 1 and includes a pixel having incident angle directivity, and an image formed of a detection signal indicating a detection signal level corresponding to the amount of incident light. Are output to the restoration unit 122 or the bus B1.
  • the imaging device 121 may have the same basic structure as that of a general imaging device such as a complementary metal oxide semiconductor (CMOS) image sensor.
  • CMOS complementary metal oxide semiconductor
  • the imaging device 121 has a configuration in which the incident angle directivity is given, as will be described later with reference to FIGS. ing.
  • the image sensor 121 varies (changes) the light reception sensitivity in accordance with the incident angle of incident light for each pixel, and has incident angle directivity with respect to the incident angle of incident light in pixel units.
  • the image output from the imaging element 121 is an image constituted by a detection signal in which the image of the subject is not formed as shown in the upper right of FIG. 1 described above, the subject can be visually recognized. Can not. That is, although the detection image which consists of a detection signal which image sensor 121 outputs is a set of pixel signals, it is an image which can not recognize a subject even if a user looks at a subject (it can not see a subject).
  • an image composed of a detection signal on which the image of the subject is not formed, that is, an image captured by the imaging element 121 is referred to as a detected image.
  • the imaging device 121 may not be configured as a pixel array, and may be configured as, for example, a line sensor.
  • the incident angle directivity does not necessarily have to be all different for each pixel, and the incident angle directivity may include the same pixels.
  • the restoration unit 122 corresponds to the subject distance corresponding to the distance from the imaging device 51 to the subject plane 31 (the subject plane corresponding to the restored image) in FIG. 1, for example, and the coefficients ⁇ 1 to ⁇ 3, ⁇ 1 to ⁇ 3, ⁇ 1 described above.
  • the coefficient set group corresponding to ⁇ 3 is acquired from the storage unit 128.
  • the restoration unit 122 uses the detection signal level of each pixel of the detection image output from the imaging device 121 and the acquired coefficient set group to be represented by the above-described Equations (1) to (3). Make simultaneous equations. Then, the reconstruction unit 122 solves the created simultaneous equations to obtain the pixel values of the respective pixels constituting the image on which the image of the subject shown in the lower right of FIG. 1 is formed.
  • an image from which the user can visually recognize and recognize the subject (and can visually recognize the subject) is restored from the detected image.
  • an image restored from the detected image will be referred to as a restored image.
  • the restored image is not an image that can identify the subject as a normal image, but also in this case the restored image It is called.
  • a restored image which is an image in a state in which an image of a subject is formed, and an image before color separation such as demosaicing processing or synchronization processing is referred to as a RAW image
  • the detected image is distinguished as an image according to the array of color filters but not a RAW image.
  • the number of pixels of the imaging device 121 and the number of pixels of the pixels forming the restored image do not necessarily have to be the same.
  • the restoration unit 122 performs demosaicing processing, ⁇ correction, white balance adjustment, conversion processing to a predetermined compression format, and the like on the restored image as necessary. Then, the restoration unit 122 outputs the restored image to the bus B1.
  • the control unit 123 includes, for example, various processors, and controls each unit of the imaging apparatus 101.
  • the input unit 124 includes an input device (for example, a key, a switch, a button, a dial, a touch panel, a remote controller, and the like) for performing an operation of the imaging apparatus 101, an input of data used for processing, and the like.
  • the input unit 124 outputs an operation signal, input data, and the like to the bus B1.
  • the detection unit 125 includes the imaging device 101 and various sensors used to detect the state of the subject and the like.
  • the detection unit 125 may be an acceleration sensor or a gyro sensor that detects the posture or movement of the imaging device 101, a position detection sensor (for example, a GNSS (Global Navigation Satellite System) receiver) that detects the position of the imaging device 101, an object A distance measuring sensor or the like for detecting a distance is provided.
  • the detection unit 125 outputs a signal indicating the detection result to the bus B1.
  • the associating unit 126 associates the detection image obtained by the imaging device 121 with the metadata corresponding to the detection image.
  • the metadata includes, for example, a coefficient set group for restoring a restored image using a target detection image, an object distance, and the like.
  • the method of associating the detection image with the metadata is not particularly limited as long as the correspondence between the detection image and the metadata can be specified. For example, metadata is added to image data including a detected image, the same ID is added to a detected image and metadata, or the detected image and metadata are recorded on the same recording medium 130. Metadata is associated.
  • the display unit 127 is, for example, a display, and displays various types of information (for example, a restored image and the like). Note that the display unit 127 can also be provided with an audio output unit such as a speaker to output audio.
  • the storage unit 128 includes one or more storage devices such as a read only memory (ROM), a random access memory (RAM), and a flash memory, and stores, for example, programs and data used for processing of the imaging device 101.
  • the storage unit 128 stores coefficient set groups corresponding to the above-described coefficients ⁇ 1 to ⁇ 3, ⁇ 1 to ⁇ 3, and ⁇ 1 to ⁇ 3 in association with various object distances. More specifically, for example, the storage unit 128 stores, for each subject plane 31 at each subject distance, a coefficient set group including a coefficient for each pixel 121a of the image sensor 121 for each point light source set on the subject plane 31. doing.
  • the recording and reproduction unit 129 performs recording of data on the recording medium 130 and reproduction (reading) of data recorded on the recording medium 130.
  • the recording / reproducing unit 129 records the restored image on the recording medium 130 or reads the restored image from the recording medium 130.
  • the recording / reproducing unit 129 records the detection image and the corresponding metadata on the recording medium 130 or reads out from the recording medium 130.
  • the recording medium 130 is made of, for example, any of a hard disk drive (HDD), a solid state drive (SSD), a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or a combination thereof.
  • HDD hard disk drive
  • SSD solid state drive
  • magnetic disk magnetic disk
  • optical disk magnetic disk
  • magneto-optical disk magnetic disk
  • semiconductor memory or a combination thereof.
  • the communication unit 131 communicates with another device (for example, another imaging device, a signal processing device, and the like) by a predetermined communication method.
  • the communication method of the communication unit 131 may be wired or wireless. Further, the communication unit 131 can also correspond to a plurality of communication methods.
  • FIG. 3 shows a front view of a part of the pixel array portion of the imaging element 121.
  • FIG. 3 shows an example in which the number of pixels in the pixel array portion is 6 vertical pixels ⁇ 6 horizontal pixels, the number of pixels in the pixel array portion is not limited to this.
  • a light shielding film 121b which is one of the modulation elements, is provided for each pixel 121a so as to cover a part of the light receiving area (light receiving surface) of the photodiode. Incident incident light is optically modulated according to the incident angle. Then, for example, by providing the light shielding film 121b in a different range for each pixel 121a, the light receiving sensitivity with respect to the incident angle of incident light differs for each pixel 121a, and each pixel 121a has different incident angle directivity .
  • the light shielding film 121b-1 and the light shielding film 121b-2 provided in the pixel 121a-1 and the pixel 121a-2 have different ranges for shielding the light receiving region of the photodiode (a light shielding region (position), And at least one of the shaded areas). That is, in the pixel 121a-1, the light shielding film 121b-1 is provided so as to shield a part of the left side of the light receiving region of the photodiode by a predetermined width. On the other hand, in the pixel 121a-2, a light shielding film 121b-2 is provided so as to shield a part of the right side of the light receiving region by a predetermined width.
  • the width at which the light shielding film 121b-1 shields the light receiving area of the photodiode may be different from or the same as the width at which the light shielding film 121b-2 shields the light receiving area of the photodiode. .
  • the light shielding films 121b are randomly arranged in the pixel array so as to shield a different range of the light receiving area for each pixel.
  • the amount of light that can be received by the photodiode decreases as the rate at which the light shielding film 121b obscures the light receiving area of each pixel increases. Therefore, it is desirable that the area of the light shielding film 121b be such an area that a desired light quantity can be secured, and for example, a restriction of up to about 3/4 of the light receiving area may be added. By doing this, it is possible to secure a light amount of a desired amount or more. However, it is possible to receive a minimum amount of light if each pixel is provided with an unshielded range having a width corresponding to the wavelength of light to be received. That is, for example, in the case of the B pixel (blue pixel), the wavelength is about 500 nm, but it is possible to receive the minimum light amount unless the light is blocked beyond the width corresponding to this wavelength.
  • the upper part of FIG. 4 is a side cross-sectional view of the first configuration example of the imaging device 121
  • the middle part of FIG. 4 is a top view of the first configuration example of the imaging device 121.
  • the side cross-sectional view of the upper stage of FIG. 4 is an AB cross section in the middle stage of FIG. 4.
  • the lower part of FIG. 4 is a circuit configuration example of the imaging element 121.
  • the adjacent pixels 121a-1 and 121a-2 are so-called back side illumination type in which the wiring layer Z12 is provided in the lowermost layer in the drawing and the photoelectric conversion layer Z11 is provided thereon.
  • the description of the numbers at the end of the reference numerals is omitted and simply referred to as the pixel 121a.
  • the numbers at the end of the reference numerals may be omitted in the same manner for the other configurations.
  • FIG. 4 shows only the side view and the top view of two pixels constituting the pixel array of the image sensor 121, and needless to say, although more pixels 121a are arranged, Is omitted.
  • the pixels 121a-1 and 121a-2 respectively include photodiodes 121e-1 and 121e-2 in the photoelectric conversion layer Z11.
  • on-chip lenses 121c-1 and 121c-2 and color filters 121d-1 and 121d-2 are stacked on the photodiodes 121e-1 and 121e-2, respectively.
  • the on-chip lenses 121c-1 and 121c-2 condense incident light on the photodiodes 121e-1 and 121e-2.
  • the color filters 121d-1 and 121d-2 are optical filters that transmit light of a specific wavelength, such as red, green, blue, infrared, and white. In the case of white, the color filters 121d-1 and 121d-2 may or may not be transparent filters.
  • Light shielding films 121g-1 to 121g-3 are formed at the boundaries between the pixels in the photoelectric conversion layer Z11 of the pixels 121a-1 and 121a-2, and for example, as shown in FIG. L is incident on an adjacent pixel to suppress the occurrence of crosstalk.
  • the light shielding films 121b-1 and 121b-2 shield a part of the light receiving surface S as viewed from the top.
  • different ranges are shielded by the light shielding films 121b-1 and 121b-2, respectively, whereby different incident angles are obtained.
  • the directivity is set independently for each pixel.
  • the light shielding range does not have to be different for all the pixels 121 a of the imaging device 121, and some pixels 121 a may have the same light shielding region.
  • the light shielding film 121b-1 and the light shielding film 121g-1 are connected to each other, and are L-shaped when viewed from the side.
  • the light shielding film 121b-2 and the light shielding film 121g-2 are connected to each other, and are configured in an L shape when viewed from the side.
  • the light shielding film 121b-1, the light shielding film 121b-2, and the light shielding films 121g-1 to 121g-3 are made of metal, and for example, tungsten (W), aluminum (Al), or Al and copper Composed of an alloy with (Cu).
  • the light shielding film 121b-1, the light shielding film 121b-2, and the light shielding films 121g-1 to 121g-3 are simultaneously formed of the same metal as the wiring in the same process as the wiring in the semiconductor process. It may be done.
  • the film thicknesses of the light shielding film 121b-1, the light shielding film 121b-2, and the light shielding films 121g-1 to 121g-3 may not be the same depending on the position.
  • the pixel 121 a includes a photodiode 161 (corresponding to the photodiode 121 e), a transfer transistor 162, an FD (Floating Diffusion: floating diffusion) portion 163, a selection transistor 164, and an amplification transistor 165. And a reset transistor 166, and is connected to the current source 168 via the vertical signal line 167.
  • the anode electrode of the photodiode 161 is grounded, and the cathode electrode is connected to the gate electrode of the amplification transistor 165 via the transfer transistor 162.
  • the transfer transistor 162 is driven according to the transfer signal TG. For example, when the transfer signal TG supplied to the gate electrode of the transfer transistor 162 becomes high level, the transfer transistor 162 is turned on. Thereby, the charge accumulated in the photodiode 161 is transferred to the FD unit 163 via the transfer transistor 162.
  • the amplification transistor 165 is an input portion of a source follower which is a readout circuit for reading out a signal obtained by photoelectric conversion in the photodiode 161, and a pixel signal of a level corresponding to the charge stored in the FD portion 163 is a vertical signal line 167. Output to That is, the amplification transistor 165 has a drain terminal connected to the power supply VDD and a source terminal connected to the vertical signal line 167 via the selection transistor 164, thereby connecting the current source 168 connected to one end of the vertical signal line 167. Configure a source follower.
  • the FD unit 163 is a floating diffusion region having a charge capacity C1 provided between the transfer transistor 162 and the amplification transistor 165, and temporarily accumulates the charge transferred from the photodiode 161 via the transfer transistor 162.
  • the FD unit 163 is a charge detection unit that converts a charge into a voltage, and the charge stored in the FD unit 163 is converted into a voltage by the amplification transistor 165.
  • the selection transistor 164 is driven according to the selection signal SEL, and is turned on when the selection signal SEL supplied to the gate electrode becomes high level, and connects the amplification transistor 165 and the vertical signal line 167.
  • the reset transistor 166 is driven according to the reset signal RST. For example, the reset transistor 166 is turned on when the reset signal RST supplied to the gate electrode becomes high level, discharges the charge stored in the FD unit 163 to the power supply VDD, and resets the FD unit 163.
  • the pixel circuit shown in the lower part of FIG. 4 operates as follows.
  • the reset transistor 166 and the transfer transistor 162 are turned on, the charge stored in the FD unit 163 is discharged to the power supply VDD, and the FD unit 163 is reset.
  • the reset transistor 166 and the transfer transistor 162 are turned off, and during the exposure period, the photodiode 161 accumulates a charge according to the amount of incident light.
  • the reset transistor 166 is turned on and the FD section 163 is reset, and then the reset transistor 166 is turned off.
  • the FD unit 163 is set to the reference potential.
  • the potential of the FD section 163 in a reset state is output from the amplification transistor 165 as a reference potential.
  • the transfer transistor 162 is turned on, and the charge accumulated in the photodiode 161 is transferred to the FD portion 163.
  • the potential of the FD section 163 to which the charge of the photodiode is transferred is output from the amplification transistor 165 as a signal potential.
  • a signal obtained by subtracting the reference potential from the signal potential by CDS is output as a detection signal (pixel signal) of the pixel 121a.
  • the value (output pixel value) of the detection signal is modulated according to the incident angle of incident light from the subject, and the characteristic (directivity) differs depending on the incident angle (having incident angle directivity).
  • FIG. 5 is a diagram showing a second configuration example of the imaging device 121.
  • the upper side of FIG. 5 shows a side cross-sectional view of the pixel 121a of the imaging device 121 which is the second configuration example, and the middle stage of FIG. 5 shows a top view of the imaging device 121.
  • the side cross-sectional view of the upper stage of FIG. Furthermore, the lower part of FIG. 5 is a circuit configuration example of the imaging element 121.
  • the imaging device 121 of FIG. 5 In the imaging device 121 of FIG. 5, four photodiodes 121f-1 to 121f-4 are formed in one pixel 121a, and a light shielding film 121g is formed in a region separating the photodiodes 121f-1 to 121f-4.
  • the configuration is different from that of the imaging device 121 of FIG. That is, in the imaging element 121 of FIG. 5, the light shielding film 121 g is formed in a “+” shape when viewed from the upper surface.
  • symbol same as FIG. 4 is attached
  • the photodiodes 121 f-1 to 121 f-4 are separated by the light shielding film 121 g, so that electrical and optical crosstalk between the photodiodes 121 f-1 to 121 f-4 occurs. It is prevented. That is, the light shielding film 121g of FIG. 5 is for preventing crosstalk similarly to the light shielding film 121g of the imaging device 121 of FIG. 4, and is not for providing incident angle directivity.
  • one FD unit 163 is shared by the four photodiodes 121f-1 to 121f-4.
  • the lower part of FIG. 5 shows an example of a circuit configuration in which one FD portion 163 is shared by four photodiodes 121f-1 to 121f-4. In the lower part of FIG. 5, the description of the same configuration as the lower part of FIG. 4 is omitted.
  • the lower part of FIG. 5 differs from the circuit configuration of the lower part of FIG. 4 in that photodiodes 161-1 to 161- are used instead of the photodiode 161 (corresponding to the photodiode 121e in the upper part of FIG. 4) and the transfer transistor 162. 4 (corresponding to the photodiodes 121f-1 to 121f-4 in the upper part of FIG. 5) and the transfer transistors 162-1 to 162-4 and share the FD section 163.
  • the charge accumulated in the photodiodes 121f-1 to 121f-4 has a predetermined capacitance provided at the connection portion between the photodiodes 121f-1 to 121f-4 and the gate electrode of the amplification transistor 165. It is transferred to the common FD unit 163. Then, a signal corresponding to the level of the charge held in the FD unit 163 is read as a detection signal (pixel signal) (however, the CDS processing is performed as described above).
  • the charges accumulated in the photodiodes 121f-1 to 121f-4 can be selectively contributed to the output of the pixel 121a, that is, the detection signal in various combinations. That is, the photodiodes 121f-1 to 121f-4 are configured to be able to read out the charge independently, and the photodiodes 121f-1 to 121f-4 (the photodiodes 121f-1 to 121f-4 output Different incident angle directivity can be obtained.
  • the incident angle directivity in the left-right direction can be obtained.
  • the incident angle directivity in the vertical direction by transferring the electric charges of the photodiode 121f-1 and the photodiode 121f-3 to the FD portion 163 and adding the signals obtained by reading out each, the incident angle directivity in the left-right direction can be obtained.
  • the incident angle directivity in the vertical direction by transferring the electric charges of the photodiode 121f-1 and the photodiode 121f-2 to the FD portion 163 and adding the signals obtained by reading the respective, it is possible to obtain the incident angle directivity in the vertical direction.
  • a signal obtained based on the charges selectively read out independently from the four photodiodes 121f-1 to 121f-4 is a detection signal corresponding to one pixel constituting the detection image.
  • the contribution of (the charge of) each photodiode 121f to the detection signal is not limited to, for example, whether or not the charge (the detected value) of each photodiode 121f is transferred to the FD unit 163, but also using an electronic shutter function. This can also be realized by resetting the charge accumulated in the photodiode 121 f before transfer to the FD unit 163. For example, if the charge of the photodiode 121f is reset immediately before transfer to the FD portion 163, the photodiode 121f does not contribute to the detection signal at all. On the other hand, by giving time to the charge of the photodiode 121f between the reset and the transfer of the charge to the FD portion 163, the photodiode 121f partially contributes to the detection signal.
  • the combination of the four photodiodes 121 f-1 to 121 f-4 used for the detection signal is changed to have different incident angle directivity for each pixel.
  • the detection signal output from each pixel 121a of the image sensor 121 in FIG. 5 has a value (output pixel value) modulated according to the incident angle of the incident light from the subject, and the characteristic (directivity) according to the incident angle Are different (having incident angle directivity).
  • the pixel output unit includes at least one or more photodiodes, and generally, each pixel 121a of the imaging device 121 corresponds to one pixel output unit.
  • one pixel output unit includes one photodiode 121 e.
  • one pixel 121e constitutes one pixel output unit.
  • the incident angle directivity of each pixel output unit can be made different.
  • incident light to each pixel 121a is optically modulated using the light shielding film 121b, and as a result, the incident angle is directed by the signal output from the photodiode 121e of each pixel 121a.
  • a detection signal for one pixel of the detected image reflecting the polarity is obtained. That is, the image pickup device 121 of FIG. 4 includes a plurality of pixel output units for receiving incident light from an object incident without any of the imaging lens and the pinhole, and each pixel output unit includes one photodiode 121e.
  • the characteristic (incident angle directivity) with respect to the incident angle of incident light from the subject is set for each pixel output unit.
  • one pixel output unit includes four photodiodes 121e. Become. In other words, one pixel output unit is configured by the four photodiodes 121 f. On the other hand, individual pixel output units are not configured by each photodiode 121e alone.
  • the incident angle directivity for each pixel output unit is different. It becomes a thing. That is, in the imaging device 121 of FIG. 5, the range not contributing to the output (detection signal) among the four photodiodes 121f-1 to 121f-4 functions in the same manner as the light-shielded region. Then, by combining the signals output from the photodiodes 121f-1 to 121f-4, a detection signal for one pixel of the detection image reflecting the incident angle directivity is obtained. That is, the imaging device 121 of FIG.
  • each pixel output unit includes a plurality of photodiodes (for example, Characteristics (incident angle directivity) of each pixel output unit with respect to the incident angle of incident light from the subject by providing the photodiodes 121f-1 to 121f-4) and varying (the degree of) the photodiodes contributing to the output Are different from each other.
  • photodiodes for example, Characteristics (incident angle directivity) of each pixel output unit with respect to the incident angle of incident light from the subject by providing the photodiodes 121f-1 to 121f-4) and varying (the degree of) the photodiodes contributing to the output Are different from each other.
  • incident light is incident on all the photodiodes 121f-1 to 121f-4 without being optically modulated, so that the detection signal is a signal obtained by optical modulation. Absent. Further, hereinafter, the photodiode 121 f not contributing to the detection signal is also referred to as a photodiode 121 f not contributing to a pixel output unit or an output.
  • the light receiving surface of the pixel output unit (pixel 121a) is equally divided into four, and photodiodes 121f having the same size as the light receiving surface are arranged in each region, that is, four photodiodes, etc.
  • the division number and division position of the photodiode can be set arbitrarily.
  • the photodiodes do not necessarily have to be equally divided, and the division positions of the photodiodes may be different for each pixel output unit.
  • the incident angle directivity differs between the pixel output units.
  • by setting the number of divisions to be different between pixel output units it is possible to more freely set the incident angle directivity.
  • both the division number and the division position may be made different between pixel output units.
  • each of the image sensor 121 of FIG. 4 and the image sensor 121 of FIG. 5 has a configuration in which each pixel output unit can independently set the incident angle directivity.
  • each pixel output unit of an image sensor does not have the composition which can set up incidence angle directivity independently.
  • the incident angle directivity of each pixel output unit is set by the light shielding film 121 b at the time of manufacture.
  • the image sensor 121 of FIG. 4 the image sensor 121 of FIG.
  • the division number and division position of the photodiode of each pixel output unit are set at the time of manufacture, but the incident angle directivity of each pixel output unit (combination of photodiodes contributing to output) Can be set at the time of use (for example, at the time of imaging).
  • the imaging device 121 of FIG. 4 and the imaging device 121 of FIG. 5 it is not necessary to have a configuration in which all the pixel output units have incident angle directivity.
  • each pixel of the imaging device corresponds to one pixel output unit, but as described later, there may be a case where one pixel output unit is formed by a plurality of pixels. . The following description will be made assuming that each pixel of the imaging device corresponds to one pixel output unit unless otherwise noted.
  • the incident angle directivity of each pixel of the imaging element 121 is generated, for example, according to the principle shown in FIG.
  • the upper left part and the upper right part of FIG. 6 are diagrams for explaining the generation principle of the incident angle directivity in the imaging element 121 of FIG. 4, and the lower left part and the lower right part of FIG. 6 are for the imaging element 121 of FIG. It is a figure explaining the generation
  • Each of the upper left and upper right pixels in FIG. 6 includes one photodiode 121 e.
  • the lower left and lower right pixels in FIG. 6 each include two photodiodes 121 f.
  • an example in which one pixel includes two photodiodes 121 f is shown here, this is for convenience of explanation, and the number of photodiodes 121 f provided in one pixel may be another number. .
  • a light shielding film 121b-11 is formed to shield the right half of the light receiving surface of the photodiode 121e-11. Further, in the pixel at the upper right portion of FIG. 6, a light shielding film 121b-12 is formed so as to shield the left half of the light receiving surface of the photodiode 121e-12. Note that the alternate long and short dash line in the drawing is an auxiliary line which passes through the horizontal center of the light receiving surface of the photodiode 121e and is perpendicular to the light receiving surface.
  • incident light from the upper right direction forming the incident angle ⁇ 1 with respect to the alternate long and short dash line in the drawing is left unshielded by the light shielding film 121b-11 of the photodiode 121e-11. It is easy to receive light by the half range.
  • incident light from the upper left direction forming the incident angle ⁇ 2 with respect to the alternate long and short dash line in the figure is hard to be received by the left half range not blocked by the light shielding film 121b-11 of the photodiode 121e-11. . Therefore, the pixel in the upper left part of FIG. 6 has high incidence sensitivity with respect to incident light from the upper right in the figure and low sensitivity to incident light from the upper left. .
  • incident light from the upper right direction forming the incident angle ⁇ 1 is received by the left half range shielded by the light shielding film 121b-12 of the photodiode 121e-12. Hateful.
  • incident light from the upper left direction forming the incident angle ⁇ 2 is likely to be received by the right half range which is not blocked by the light shielding film 121b-12 of the photodiode 121e-12. Therefore, the pixel in the upper right part of FIG. 6 has low incident sensitivity to incident light from the upper right in the figure and high incident sensitivity to incident light from the upper left. .
  • photodiodes 121f-11 and 121f-12 are provided on the left and right in the drawing, and a light shielding film 121b is provided by reading out one of the detection signals. It is set as the structure which has incident angle directivity.
  • incident angle directivity similar to that of the upper left part in FIG. You can get it. That is, incident light from the upper right direction forming the incident angle ⁇ 1 with respect to the alternate long and short dash line in the figure is incident on the photodiode 121f-11 and a signal corresponding to the amount of light received is read out from the photodiode 121f-11. It contributes to the detection signal output from the pixel.
  • incident light from the upper left direction forming the incident angle ⁇ 2 with respect to the alternate long and short dash line in the figure is incident on the photodiode 121f-12 but is not read out from the photodiode 121f-12. It does not contribute to the output detection signal.
  • incident light from the upper left direction forming the incident angle ⁇ 2 is incident on the photodiode 121f-14, and a signal corresponding to the amount of light received is read out from the photodiode 121f-14, so that it is output from this pixel Contribute to the detection signal.
  • the upper graph in FIG. 7 shows the incident angle directivity of the middle and lower pixels in FIG.
  • the horizontal axis represents the incident angle ⁇
  • the vertical axis represents the detection signal level.
  • the incident angle ⁇ is 0 degrees when the direction of incident light coincides with the alternate long and short dash line in the middle left of FIG. 7, and the middle left incident angle ⁇ 21 in FIG. 7 is a positive direction.
  • the right incident angle ⁇ 22 side is a negative direction. Therefore, with respect to the on-chip lens 121c, the incident angle of the incident light entering from the upper right is larger than the incident angle of the incident light entering from the upper left. That is, the incident angle ⁇ becomes larger as the traveling direction of the incident light leans to the left (larger in the positive direction) and smaller as it leans to the right (larger in the negative direction).
  • the pixels in the middle left part of FIG. 7 are the on-chip lens 121 c-11 for condensing incident light and the color filters 121 d-11 for transmitting light of a predetermined wavelength to the pixels in the upper left part of FIG. Is added. That is, in this pixel, the on-chip lens 121c-11, the color filter 121d-11, the light shielding film 121b-11, and the photodiode 121e-11 are laminated in order from the incident direction of the upper light in the drawing.
  • the pixel at the middle right of FIG. 7, the pixel at the lower left of FIG. 7, and the pixel at the lower right of FIG. 7 are respectively the pixel at the upper right of FIG. 6 and the lower left of FIG.
  • the on-chip lens 121 c-11 and the color filter 121 d-11 or the on-chip lens 121 c-12 and the color filter 121 d-12 are added to the pixel of FIG.
  • the detection signal level (light receiving sensitivity) of the photodiode 121e-11 changes according to the incident angle ⁇ of incident light. That is, the larger the incident angle ⁇ which is the angle formed by the incident light with respect to the alternate long and short dash line in the figure (the larger the incident angle ⁇ in the positive direction (the more inclined in the right direction in the figure)) When the light is collected in the range in which 11 is not provided, the detection signal level of the photodiode 121e-11 is increased.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ in the negative direction (the more inclined in the left direction in the figure)
  • the light is collected in the range in which the light shielding film 121b-11 is provided.
  • the detection signal level of the photodiode 121e-11 decreases.
  • the detection signal level (light receiving sensitivity) of the photodiode 121e-12 changes according to the incident angle ⁇ of incident light.
  • the incident angle ⁇ of the incident light is larger (the incident angle ⁇ is larger in the positive direction)
  • the light is condensed in the range in which the light shielding film 121b-12 is provided, thereby the photodiode 121e-12.
  • the detection signal level increases.
  • the waveforms of the solid line and the dotted line shown in the upper part of FIG. 7 can be changed according to the range of the light shielding film 121 b. Therefore, it is possible to give different incident angle directivity to each other in pixel units by the range of the light shielding film 121b.
  • the incident angle directivity is a characteristic of the light receiving sensitivity of each pixel according to the incident angle ⁇ , but this is a characteristic of the light blocking value according to the incident angle ⁇ in the middle pixel of FIG. It can be said that That is, although the light shielding film 121 b blocks incident light in a specific direction at a high level, incident light from other directions can not be blocked sufficiently.
  • the change of the light shieldable level produces different detection signal levels according to the incident angle ⁇ as shown in the upper part of FIG.
  • the direction in which light can be blocked at the highest level in each pixel is defined as the light blocking direction of each pixel, having different incident angle directivity in pixel units means, in other words, light blocking mutually different in pixel units It means that it has a direction.
  • the middle left pixel in FIG. 7 It is possible to obtain incident angle directivity similar to that of the pixels of a part. That is, when the incident angle ⁇ of the incident light increases (when the incident angle ⁇ increases in the positive direction), the light is collected in the range of the photodiode 121f-11 from which the signal is read, and the detection signal level is large. Become. Conversely, the smaller the incident angle ⁇ of the incident light (the larger the incident angle ⁇ in the negative direction), the more light is collected in the range of the photodiode 121 f-12 from which the signal is not read out, and thus the detection signal level Becomes smaller.
  • the signal of only the photodiode 121 f-14 in the right in FIG. An incident angle directivity similar to that of the pixel in the middle right part of can be obtained. That is, when the incident angle ⁇ of incident light increases (when the incident angle ⁇ increases in the positive direction), light is collected in the range of the photodiode 121 f-13 that does not contribute to the output (detection signal). The level of the unit detection signal decreases.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ in the negative direction
  • the more light is collected in the range of the photodiode 121f-14 that contributes to the output (detection signal)
  • the level of the detection signal in units of pixels is increased.
  • each photodiode has directivity with respect to the incident angle of incident light
  • the on-chip lens 121c is an essential component of each pixel in order to generate incident angle directivity in pixel units.
  • the incident angle directivity it is desirable that the randomness be high in pixel units.
  • the above-described equations (1) to (3) or equations (4) to (6) described later may be the same as each other.
  • the number of equations is insufficient for the unknowns that are solutions of simultaneous equations, which may make it impossible to obtain the pixel values that make up the restored image.
  • the light shielding film 121b that shields the entire light receiving surface of the pixel 121a in the vertical direction and shields the light receiving surface with a predetermined width in the horizontal direction It is called a band type light shielding film 121b.
  • a light shielding film 121b that shields the entire light receiving surface of the pixel 121a in the horizontal direction and shields the light receiving surface at a predetermined height in the vertical direction is referred to as a vertical band type light shielding film 121b.
  • an L-shaped light shielding film 121 b is formed for each pixel of the Bayer arrangement. It may be provided.
  • the black range represents the light shielding film 121b, and the same applies to the following drawings unless otherwise noted.
  • the pixels 121a-21 and 121a-24 of G (green) pixels, the pixels 121a-22 of R (red) pixels, and the pixels 121a-23 of B (blue) pixels, which are in the Bayer array, are provided.
  • L-shaped light shielding films 121b-21 to 121b-24 are provided for each of them.
  • each pixel 121a has incident angle directivity as shown in the right part of FIG. That is, in the right part of FIG. 8, the distribution of the light receiving sensitivity of each pixel 121a is shown, the horizontal axis represents the incident angle ⁇ x in the horizontal direction (x direction) of the incident light, and the vertical axis is the vertical of the incident light
  • the incident angle ⁇ y in the direction (y direction) is represented.
  • the light receiving sensitivity in the range C4 is higher than the outside of the range C4
  • the light receiving sensitivity in the range C3 is higher than the outside of the range C3
  • the light receiving sensitivity in the range C2 is higher than the outside of the range C2.
  • the light reception sensitivity in the range C1 is higher than the outside of the range C1.
  • the detection signal level for the incident light in which the incident angle ⁇ x in the horizontal direction (x direction) and the incident angle ⁇ y in the vertical direction (y direction) fall within the range C1 is the highest. Then, the detection signal level decreases in the order of incident light in which the incident angle ⁇ x and the incident angle ⁇ y fall within the range C2, within the range C3, within the range C4, and outside the range C4.
  • the intensity distribution of the light receiving sensitivity shown in the right part of FIG. 8 is determined by the range shielded by the light shielding film 121b in each pixel 121a regardless of the Bayer arrangement.
  • the light shielding film 121b is generically referred to as an L-shaped light shielding film 121b.
  • the light shielding range in the horizontal direction of the light shielding film 121b is from the left end of the pixel 121a to the position A, and the light shielding range in the vertical direction is from the upper end of the pixel 121a
  • the range is up to B.
  • the weights Wx and Wy change as in the graph of FIG. 9 when ideal conditions are satisfied.
  • the incident angle directivity of each pixel 121a that is, the coefficient corresponding to the light receiving sensitivity characteristic
  • a value obtained by multiplying the weight Wx corresponding to the incident angle ⁇ x of incident light from a certain point light source on the object surface 31 and the weight Wy corresponding to the incident angle ⁇ y is set as the coefficient for the point light source.
  • the inclination (1 / 2 ⁇ ) indicating the change of the weight in the range in which the weight Wx in the horizontal direction and the weight Wy in the vertical direction are around 0.5 is obtained by using the on-chip lens 121c having different focal lengths. It can be set.
  • the focal length of the on-chip lens 121c matches the surface of the light shielding film 121b
  • the focal length of the on-chip lens 121c changes with the curvature of the on-chip lens 121c. Therefore, different incident angle directivity, that is, different light receiving sensitivity characteristics can be obtained by changing the focal length of the on-chip lens 121 c using the on-chip lens 121 c having different curvatures.
  • the incident angle directivity of the pixel 121a can be adjusted by the combination of the range in which the photodiode 121e is shielded by the light shielding film 121b and the curvature of the on-chip lens 121c.
  • the curvature of the on-chip lens may be the same for all the pixels 121 a of the imaging device 121 or may be different for some of the pixels 121 a.
  • each pixel 121a For example, based on the position of each pixel 121a, the shape, position and range of the light shielding film 121b of each pixel 121a, and the curvature of the on-chip lens 121c as an index indicating the incident angle directivity of each pixel 121a of the image sensor 121.
  • the characteristics of the weight Wx and the weight Wy as in the graph of FIG. 9 are set for each pixel 121a.
  • the incident angle of the light beam from the point light source to the pixel 121a is obtained.
  • the coefficient of the pixel 121a with respect to the point light source is determined.
  • the coefficients are obtained as described above to obtain the coefficient sets ⁇ 1 and ⁇ 1 of the equations (1) to (3) described above.
  • the coefficient set group of the image sensor 121 with respect to the object plane 31 can be obtained, such as ⁇ 1, ⁇ 1, coefficient set ⁇ 2, ⁇ 2, ⁇ 2, coefficient set ⁇ 3, ⁇ 3, ⁇ 3.
  • the incident angle of the light beam from each point light source of the subject surface 31 to the imaging device 121 is Because they are different, different coefficient set groups are required for each subject distance.
  • each pixel 121 a needs to be set so as to ensure the independence of the above-described simultaneous equations.
  • the imaging element 121 does not require an optical block or a pinhole formed of an imaging lens, but as described above, the on-chip lens 121 c is provided.
  • the on-chip lens 121c and the imaging lens have different physical actions.
  • the imaging lens 152 is designed to condense diffused light incident at different angles from the point light source P101 at the pixel position P111 and form an image of the point light source P101.
  • the pixel position P111 is specified by the chief ray L101 passing through the point light source P101 and the center of the imaging lens 152.
  • the imaging lens 152 is designed to condense diffused light incident at different angles from the point light source P102 at the pixel position P112 and form an image of the point light source P102.
  • the pixel position P112 is specified by the chief ray L102 passing through the point light source P102 and the center of the imaging lens 152.
  • the imaging lens 152 forms images of point light sources P101 and P102 having different chief rays at different pixel positions P111 and P112 on the imaging element 151.
  • the imaging lens 152 when the point light source P101 is at infinity, a part of the diffused light emitted from the point light source P101 is incident on the imaging lens 152 as parallel light parallel to the chief ray L101.
  • parallel light which is a light ray between the light ray L121 and the light ray L122 parallel to the chief ray L101, enters the imaging lens 152.
  • the parallel light incident on the imaging lens 152 is condensed at the pixel position P111 on the imaging element 151. That is, the imaging lens 152 is designed to condense parallel light from the point light source P101 existing at infinity into the pixel position P111 and form an image of the point light source P101.
  • the imaging lens 152 causes diffused light from a point light source having a chief ray incident angle ⁇ 1 to enter into the pixel (pixel output unit) P1 and has a chief ray incident angle ⁇ 2 different from the chief ray incident angle ⁇ 1. It has a light collecting function of causing diffused light from a light source to be incident on a pixel (pixel output unit) P2 different from the pixel P1. That is, the imaging lens 152 has a light collecting function for causing diffused light from light sources with different incident angles of principal rays to a plurality of pixels (pixel output units) adjacent to each other. However, for example, light from point light sources close to each other or point light sources existing at infinity and substantially close to each other may be incident on the same pixel (pixel output unit).
  • the light passing through the on-chip lens 121c is received by the photodiode 121e or the photodiode 121f constituting the corresponding pixel (pixel output unit). It is incident only on the surface.
  • the on-chip lens 121 c is provided for each pixel (pixel output unit), and condenses incident light incident thereon to only the corresponding pixel (pixel output unit). That is, the on-chip lens 121c does not have a light collecting function for causing light from different point light sources to be incident on different pixels (pixel output units).
  • the incident angle directivity can not be set freely and freely for each pixel.
  • DA ⁇ 1 ⁇ a + ⁇ 1 ⁇ b + ⁇ 1 ⁇ c ...
  • DB ⁇ 2 ⁇ a + ⁇ 2 ⁇ b + ⁇ 2 ⁇ c ...
  • DC ⁇ 3 ⁇ a + ⁇ 3 ⁇ b + ⁇ 3 ⁇ c ...
  • the object surface 31 ′ at which the object distance to the image pickup element 121 is a distance d 2 larger by d than the distance d 1 is a distance d 2 larger by d than the distance d 1
  • the detection signal levels at the pixels Pc, Pb and Pa on the image sensor 121 are the same as the detection signal levels DA, DB and DC as shown in the lower center of FIG. become.
  • the coefficient set group consisting of the coefficient sets ⁇ 11, ⁇ 11, ⁇ 11, the coefficient sets ⁇ 12, ⁇ 12, ⁇ 12, the coefficient sets ⁇ 13, ⁇ 13, ⁇ 13 is the coefficient sets ⁇ 1, ⁇ 1, ⁇ 1 and the coefficient sets ⁇ 2, ⁇ 2 for the object surface 31. , ⁇ 2, and coefficient sets ⁇ 3, ⁇ 3, and ⁇ 3 for the object plane 31 ′.
  • the object plane can be obtained by solving the simultaneous equations of equations (4) to (6) using preset coefficient set groups ⁇ 11, ⁇ 11, ⁇ 11, ⁇ 12, ⁇ 12, ⁇ 13, ⁇ 13, ⁇ 13.
  • the point light source PA ′ of the object surface 31 ′ as shown in the lower right of FIG. 13, in the same manner as in the case of obtaining the light intensities a, b and c of the light from the 31 point light sources PA, PB and PC.
  • the light intensities a ', b' and c 'of the rays from PB' and PC ' can be determined. As a result, it is possible to restore the restored image of the subject surface 31 '.
  • a coefficient set group for each distance (subject distance) from the imaging element 121 to the subject surface is prepared in advance, and the coefficient set group is switched for each subject distance to perform simultaneous equations.
  • the coefficient set group is switched according to the distance to the object surface using the recorded detected image, and the restored image is restored. It is possible to generate a restored image of the object plane.
  • the pixels having incident angle directivity suitable for imaging the subject surface corresponding to the specified subject distance and angle of view without using all the pixels.
  • the detection signal may be used to generate a restored image.
  • a restored image can be generated using detection signals of pixels suitable for imaging the object plane corresponding to the specified object distance and angle of view.
  • FIG. 15 shows an example of the incident angle of incident light from the object plane 31 to the center position C1 of the image sensor 121.
  • FIG. 15 shows an example of the incident angle of incident light in the horizontal direction, the same applies to the vertical direction.
  • the pixels 121a and 121a 'in FIG. 14 are shown.
  • the pixel 121a of FIG. 14 when the pixel 121a of FIG. 14 is disposed at the center position C1 of the imaging element 121, the range of the incident angle of incident light from the object plane 31 to the pixel 121a is an angle as shown in the left part of FIG. It becomes A1. Accordingly, the pixel 121a can receive incident light for the width W1 in the horizontal direction of the object plane 31.
  • the pixel 121a ′ when the pixel 121a 'in FIG. 14 is disposed at the center position C1 of the imaging device 121, the pixel 121a' has a wider range of light shielding than the pixel 121a.
  • the range of the incident angle of the incident light is the angle A2 ( ⁇ A1) as shown in the left part of FIG. Therefore, the pixel 121 a ′ can receive incident light corresponding to the width W 2 ( ⁇ W 1) in the horizontal direction of the object surface 31.
  • the pixel 121 a having a narrow light shielding range is a wide angle of view pixel suitable for imaging a wide range on the object surface 31
  • the pixel 121 a ′ having a wide light shielding range is narrow on the object surface 31. It is a narrow angle-of-view pixel suitable for imaging a range.
  • the wide angle of view pixel and the narrow angle of view pixel are expressions for comparing both of the pixels 121a and 121a 'in FIG. 14 and are not limited to the case of comparing pixels of other angles of view.
  • pixel 121a is used to restore image I1 of FIG.
  • the image I1 is an image of an angle of view SQ1 corresponding to the subject width W1 including the whole of the person H101 as the subject in the upper stage of FIG.
  • the pixel 121a ' is used to restore the image I2 of FIG.
  • the image I2 is an image of an angle of view SQ2 corresponding to the subject width W2 in which the periphery of the face of the person H101 in the upper part of FIG. 16 is zoomed up.
  • the pixel 121a of FIG. 14 is specified in the range ZA surrounded by the dotted line of the imaging device 121, and the pixel 121a ′ is specified in the range ZB surrounded by the dashed dotted line. It is conceivable to collect and arrange each pixel number. Then, for example, when the image of the angle of view SQ1 corresponding to the subject width W1 is restored, the image of the angle of view SQ1 is appropriately restored by using the detection signal of each pixel 121a in the range ZA. it can. On the other hand, when the image of the angle of view SQ2 corresponding to the subject width W2 is restored, the image of the angle of view SQ2 can be appropriately restored by using the detection signal of each pixel 121a 'in the range ZB. .
  • the angle of view SQ2 is narrower than the angle of view SQ1
  • the image of the angle of view SQ2 is restored rather than the image of the angle of view SQ1. It is possible to obtain a higher quality restored image.
  • the right part of FIG. 17 shows a configuration example within the range ZA of the imaging device 121 of FIG.
  • the left part of FIG. 17 shows a configuration example of the pixel 121a in the range ZA.
  • the range shown in black is the light shielding film 121b, and the light shielding range of each pixel 121a is determined, for example, according to the rule shown in the left part of FIG.
  • the main light-shielding portion Z101 in the left part of FIG. 17 is a range in which light is shielded in common in each pixel 121a.
  • the main light shielding portion Z101 has a height in the range of dx1 from the left side and the right side of the pixel 121a and in the range from the upper side and the lower side of the pixel 121a to the inside of the pixel 121a. It is the range of dy1.
  • a rectangular opening Z111 which is not shielded by the light shielding film 121b is provided within the range Z102 inside the main light shielding portion Z101. Therefore, in each pixel 121a, the range other than the opening Z111 is shielded by the light shielding film 121b.
  • the openings Z111 of the pixels 121a are regularly arranged. Specifically, the horizontal position of the opening Z111 in each pixel 121a is the same in the pixels 121a in the same vertical direction. Further, the position in the vertical direction of the opening Z111 in each pixel 121a is the same in the pixels 121a in the same horizontal row.
  • the horizontal position of the opening Z111 in each pixel 121a is shifted at a predetermined interval according to the horizontal position of the pixel 121a. That is, as the position of the pixel 121a advances to the right, the left side of the opening Z111 moves to the position shifted to the right from the left side of the pixel 121a by the widths dx1, dx2,.
  • the distance between the width dx1 and the width dx2, the distance between the width dx2 and the width dx3, ..., the distance between the width dxn-1 and the width dxn is the length obtained by subtracting the width of the opening Z111 from the width of the range Z102 Divided by the number of pixels n-1 in the horizontal direction.
  • the position in the vertical direction of the opening Z111 in each pixel 121a is shifted at a predetermined interval according to the position in the vertical direction of the pixel 121a. That is, as the position of the pixel 121a moves downward, the upper side of the opening Z111 moves downward from the upper side of the pixel 121a by heights dy1, dy2,.
  • the distance between the height dy1 and the height dy2, the distance between the height dy2 and the height dy3, ..., the distance between the height dyn-1 and the height dyn are respectively from the vertical height of the range Z102 to the opening Z111
  • the length obtained by subtracting the height of the image is divided by the number of pixels m-1 in the vertical direction.
  • the right part of FIG. 18 shows a configuration example within the range ZB of the imaging device 121 of FIG.
  • the left part of FIG. 18 shows a configuration example of the pixel 121a 'in the range ZB.
  • the range shown in black is the light shielding film 121b ', and the light shielding range of each pixel 121a' is determined, for example, according to the rule shown in the left part of FIG.
  • the main light shielding portion Z151 at the left part of FIG. 18 is a range in which light is shielded in common in each pixel 121a '. Specifically, the main light shielding portion Z151 goes from the left side and the right side of the pixel 121a 'to the inside of the pixel 121a' and in the range of the width dx1 'and from the upper side and the lower side of the pixel 121a' And the height dy1 '.
  • a rectangular opening Z161 which is not shielded by the light shielding film 121b' is provided in a range Z152 inside the main light shielding portion Z151. Therefore, in each pixel 121a ', the range other than the opening Z161 is shielded by the light shielding film 121b'.
  • the opening Z161 of each pixel 121a ' is regularly arranged similarly to the opening Z111 of each pixel 121a of FIG. Specifically, the horizontal position of the opening Z161 in each pixel 121a 'is the same in the pixels 121a' in the same vertical direction. Further, the vertical position of the opening Z 161 in each pixel 121 a ′ is the same in the pixels 121 a ′ in the same horizontal row.
  • the horizontal position of the opening Z161 in each pixel 121a ' is shifted at a predetermined interval in accordance with the horizontal position of the pixel 121a'. That is, as the position of the pixel 121a 'proceeds to the right, the left side of the opening Z161 moves to the position shifted to the right by the widths dx1', dx2 ', ..., dxn' from the left side of the pixel 121a '. Do.
  • the length obtained by subtracting the width is divided by the number of pixels n-1 in the horizontal direction.
  • the position in the vertical direction of the opening Z161 in each pixel 121a ' is shifted at a predetermined interval according to the position in the vertical direction of the pixel 121a'. That is, as the position of the pixel 121a 'moves downward, the upper side of the opening Z161 is shifted downward by height dy1', dy2 ', ..., dyn' from the upper side of the pixel 121a '.
  • the distance between the height dy1 ′ and the height dy2 ′, the distance between the height dy2 ′ and the height dy3 ′,..., The distance between the height dyn ⁇ 1 ′ and the height dyn ′ are in the vertical direction of the range Z152
  • the length obtained by subtracting the height of the opening Z161 from the height is divided by the number of pixels m-1 in the vertical direction.
  • the length obtained by subtracting the width of the opening Z111 from the width of the range Z102 of the pixel 121a in FIG. 17 is the width of the opening Z161 from the width of the range Z152 of the pixel 121a ′ in FIG. It becomes larger than the width which I pulled. Therefore, the intervals of change in the widths dx1, dx2,..., Dxn in FIG. 17 are larger than the intervals of changes in the widths dx1 ', dx2',.
  • the length obtained by subtracting the height of the opening Z111 from the height in the vertical direction of the range Z102 of the pixel 121a of FIG. 17 is the height of the opening Z161 in the vertical direction of the range Z152 of the pixel 121a ′ of FIG. It is larger than the length minus the height. Accordingly, the change intervals of the heights dy1, dy2... Dyn in FIG. 17 are larger than the change intervals of the heights dy1 ', dy2'.
  • the interval of change of the position in the horizontal direction and the vertical direction of the opening Z111 of the light shielding film 121b of each pixel 121a of FIG. 17 and the horizontal direction of the opening Z161 of the light shielding film 121b ′ of each pixel 121a ′ of FIG. It is different from the interval of change of position in the direction and vertical direction.
  • the difference in this interval is the difference in object resolution (angular resolution) in the restored image. That is, the change in the horizontal and vertical positions of the opening Z161 of the light shielding film 121b 'of each pixel 121a' in FIG. 18 corresponds to the horizontal direction of the opening Z111 of the light shielding film 121b in each pixel 121a of FIG.
  • the restored image restored using the detection signal of each pixel 121a 'in FIG. 18 has a higher subject resolution than the restored image restored using the detection signal of each pixel 121a in FIG. Become.
  • the imaging device 121 including pixels (having various incident angle directivity) of various angles of view is realized. It becomes possible.
  • the pixel 121a and the pixel 121a ′ are divided into the range ZA and the range ZB is described above, this is to simplify the description, and the pixels 121a corresponding to different angles of view are the same. It is desirable to be mixedly arranged in the area.
  • each unit U is a pixel 121a-W with a wide angle of view, a middle angle of view
  • pixels of a pixel 121a-M, a pixel 121a-N with a narrow angle of view, and a pixel 121a-AN with a very narrow angle of view are used.
  • images of intermediate angles of view of four types of angle of view and images of angles of view before and after that may be generated by interpolation from images of four types of angle of view, and images of various angles of view are seamlessly generated By doing this, a pseudo optical zoom may be realized.
  • all wide angle of view pixels may be used, or part of the wide angle of view pixels may be used.
  • all narrow angle of view pixels may be used, or a part of narrow angle of view pixels may be used.
  • Imaging processing by the imaging device 101 in FIG. 2 will be described with reference to the flowchart in FIG.
  • step S1 the imaging element 121 captures an image of a subject.
  • a detection signal indicating a detection signal level corresponding to the light amount of incident light from the subject is output from each pixel 121a of the imaging device 121 having different incident angle directivity, and the imaging device 121 detects each pixel 121a.
  • the detection image composed of a signal is supplied to the restoration unit 122.
  • step S2 the restoration unit 122 obtains a coefficient used for image restoration. Specifically, the restoration unit 122 sets the distance to the object plane 31 to be restored, that is, the object distance. Note that any method can be adopted as a method of setting the subject distance. For example, the restoration unit 122 sets the subject distance input by the user via the input unit 124 or the subject distance detected by the detection unit 125 as the distance to the subject plane 31 to be restored.
  • the restoration unit 122 reads out from the storage unit 128 the coefficient set group associated with the set subject distance.
  • step S3 the restoration unit 122 restores the image using the detected image and the coefficients. Specifically, the restoration unit 122 uses the detection signal level of each pixel of the detection image and the coefficient set group acquired in the process of step S2 to set the above-mentioned equation (1) to equation (3) or The simultaneous equations described with reference to equations (4) to (6) are created. Next, the restoration unit 122 calculates the light intensity of each point light source on the object plane 31 corresponding to the set object distance by solving the created simultaneous equations. Then, the restoration unit 122 arranges the pixels having pixel values according to the calculated light intensity according to the arrangement of the point light sources of the object plane 31 to generate a restored image on which the image of the object is formed.
  • step S4 the imaging apparatus 101 performs various processes on the restored image.
  • the restoration unit 122 performs demosaicing processing, ⁇ correction, white balance adjustment, conversion processing to a predetermined compression format, and the like on the restored image as necessary.
  • the restoration unit 122 supplies, for example, a restored image to the display unit 127 for display, or supplies the restored image to the recording and reproduction unit 129, and records the restored image on the recording medium 130 as needed. , Output to other devices.
  • the example of restoring the restored image from the detected image using the image sensor 121 and the coefficient set group associated with the subject distance has been described, but, for example, as described above in addition to the subject distance
  • the set of coefficients corresponding to the angle of view of the restored image may be further prepared, and the set of coefficients corresponding to the subject distance and the angle of view may be used to restore the restored image.
  • the resolution for the subject distance and the angle of view depends on the number of coefficient set groups prepared.
  • the example using detection signals of all the pixels included in the detected image has been described, but the subject distance specified among the pixels constituting the image sensor 121 And a detection image consisting of detection signals of pixels having incident angle directivity corresponding to the angle of view may be generated and used to restore a restored image.
  • Such processing enables the restored image to be restored with a detected image suitable for the subject distance and angle of view of the restored image to be obtained, and the restoration accuracy and image quality of the restored image are improved. That is, when the image corresponding to the specified subject distance and angle of view is, for example, an image corresponding to the angle of view SQ1 in FIG. 16, the pixel 121a having the incident angle directivity corresponding to the angle of view SQ1 is selected. By restoring the restored image with the detected image obtained from these, it is possible to restore the image of the angle of view SQ1 with high accuracy.
  • the imaging device 101 having the imaging device 121 as an essential component in which each pixel is made to have incident angle directivity.
  • the imaging lens, the pinhole, and the optical filter described in the above-mentioned patent documents and the like become unnecessary, it is possible to increase the degree of freedom in the design of the device, and configured separately from the imaging device 121
  • it becomes unnecessary to use an optical element assumed to be mounted together with the imaging device 121 at the stage of configuring as an imaging device it becomes possible to realize miniaturization of the device with respect to the incident direction of incident light It is possible to reduce the cost.
  • a lens corresponding to an imaging lens for forming an optical image such as a focus lens, is not necessary.
  • a zoom lens for changing the magnification may be provided.
  • a detection image is recorded, for example, without performing a decompression
  • the restored image may be restored using a detected image at a desired timing.
  • restoration of the restored image may be performed by the imaging device 101 or may be performed by another device.
  • a restored image is obtained by solving simultaneous equations created using coefficient set groups according to an arbitrary subject distance and an angle of view, thereby obtaining an restored object for the object plane of an arbitrary subject distance and an angle of view. It is possible to realize refocusing and the like.
  • the imaging apparatus 101 it is possible to restore the restored image of an arbitrary subject distance or angle of view by switching the coefficient set group in this manner, so the focal length (that is, object distance) or angle of view changes variously. This eliminates the need for processing such as repeated imaging while making it happen.
  • the user switches the coefficient set group corresponding to different subject distance and angle of view, and displays the restored image on the display unit 127 while restoring the restored image of the desired subject distance and angle of view. It is also possible to get.
  • Metadata is associated with the detected image. For example, metadata is added to image data including a detected image, the same ID is added to a detected image and metadata, or the detected image and metadata are recorded on the same recording medium 130. Metadata is associated.
  • the detected image and the metadata can be recorded on different recording media, or can be output individually from the imaging apparatus 101.
  • the metadata may or may not include the coefficient set group used for restoration.
  • the subject distance and the angle of view at the time of restoration are included in the metadata, and at the time of restoration, a coefficient set group corresponding to the subject distance and the angle of view is acquired from the storage unit 128 or the like.
  • the restored image is immediately restored at the time of imaging, it is possible to select, for example, an image to be recorded or output to the outside from among the detected image and the restored image.
  • both images may be recorded or output to the outside, or only one of the images may be recorded or output to the outside.
  • the presence or absence of restoration of a restored image and selection of an image to be recorded or output to the outside can be performed for each frame. For example, it is possible to switch the presence or absence of restoration of a restored image for each frame. In addition, for example, it is possible to individually switch the presence / absence of recording of the detected image and the presence / absence of recording of the restored image for each frame. Also, for example, while adding metadata to a detection image of a useful frame that may be used later, the detection images of all the frames may be recorded.
  • an autofocus function as in an imaging apparatus using an imaging lens.
  • the autofocus function can be realized by determining the optimum subject distance by the hill climbing method similar to the contrast AF (Auto Focus) method based on the restored image.
  • the imaging device 121 is an essential component, and for example, the optical filter described in the above-mentioned patent documents and the like are not required. It is possible to realize an imaging device with high environmental resistance without distortion.
  • the imaging lens, the pinhole, and the optical filter described in the above-mentioned patent documents and the like are not required, so the degree of freedom in design of a configuration having an imaging function is improved. It becomes possible.
  • the processing by the restoration unit 122 is performed as the randomness of the difference in the light shielding range increases.
  • the load on the Therefore, the processing load may be reduced by reducing the randomness by setting a part of the change in the light shielding range of the light shielding film 121b of each pixel 121a to be regular.
  • the L-shaped light shielding film 121b is formed by combining the vertical band type and the horizontal band type, and the horizontal band type light shielding film 121b having the same width is combined in a predetermined column direction. In the row direction of, the vertical band type light shielding films 121b of the same height are combined.
  • the light blocking range of the light blocking film 121b of each pixel 121a changes randomly in pixel units while having regularity in the column direction and the row direction.
  • the difference in light blocking range of the light blocking film 121b of each pixel 121a that is, the randomness of the difference in incident angle directivity can be reduced, and the processing load of the restoration unit 122 can be reduced.
  • the horizontal band type light shielding film 121b having the same width X0 is used for all pixels in the same column indicated by the range Z130.
  • a vertical band type light shielding film 121b of the same height Y0 is used for the pixels in the same row indicated by the range Z150.
  • an L-shaped light shielding film 121b in which these are combined is used for the pixels 121a specified in each row and column.
  • the light shielding film 121b of the horizontal band type having the same width X1 is used, and the same row indicated by the range Z151 adjacent to the range Z150.
  • the vertical band type light shielding film 121b of the same height Y1 is used for the pixel of.
  • the light shielding film 121b of the horizontal band type having the same width X2 is used for all pixels in the same row indicated by the range Z152 adjacent to the range Z151.
  • a vertical band type light shielding film 121b of the same height Y2 is used for the pixels 121a specified in each row and column.
  • each element of matrix N of (N ⁇ N) rows ⁇ (N ⁇ N) rows of coefficient sets, and (N ⁇ N) rows ⁇ 1 row vector X representing a restored image It is shown that the result of multiplication of is a vector Y of (N ⁇ N) rows ⁇ 1 column representing a detected image. Then, from this relationship, simultaneous equations corresponding to, for example, the above-described Equation (1) to Equation (3) or Equation (4) to Equation (6) are configured.
  • each element of the first column indicated by the range Z201 of the matrix A corresponds to an element of the first row of the vector X
  • an N ⁇ N column indicated by the range Z202 of the matrix A Indicates that each element of X corresponds to an element of the N ⁇ Nth row of the vector X.
  • the matrix A is a diagonal matrix in which all the down-tilting diagonal components become one.
  • the matrix A does not form a diagonal matrix.
  • the restored image is obtained by solving the simultaneous equations based on the determinant shown in FIG. 22 and finding each element of the vector X.
  • the matrix A can not be accurately determined, the matrix A can not be accurately measured, the basis vector of the matrix A can not be solved in the case near linear dependence, and each element of the detected image It contains noise. And it may not be possible to solve simultaneous equations by any of those reasons or their combination.
  • a t is the transposed matrix of the matrix A
  • I is the identity matrix
  • the matrix A the matrix AL of N rows ⁇ N columns, decomposed into matrix AR T of N rows ⁇ N columns, N rows ⁇ N columns, each representing a restored image
  • the result obtained by multiplying the former stage and the latter stage of the matrix X of X is made to be an N-row ⁇ N-column matrix Y representing a detected image.
  • matrix AL of number of elements is (N ⁇ N)
  • AR T the number of elements of each matrix is 1 / (N ⁇ N).
  • a matrix matrix AL in parentheses of formula (8) is realized by an inverse matrix of the transposed matrix of the matrix A and matrix AR T.
  • the element group Z222 is obtained by multiplying each element group Z221 of the corresponding column of the matrix AL by the element of interest Xp in the matrix X Be Further, by multiplying the elements in the row corresponding to the element of interest Xp the element group Z222 matrix AR T, 2-dimensional response Z224 that corresponds to the element of interest Xp is calculated. Then, the two-dimensional response Z 224 corresponding to all elements of the matrix X is integrated to obtain the matrix Y.
  • the matrix can be made smaller, the capacity of the memory used for calculation can be reduced, and the device cost can be reduced.
  • FIG. 21 shows an example in which the light shielding range (light receiving range) is changed in pixel units while giving predetermined regularity in the horizontal direction and the vertical direction, but in the present disclosure, such an example is shown.
  • the light blocking range (light receiving range) is not completely randomly set in a pixel unit, it is considered that the light blocking range (light receiving range) is also set randomly at some random settings. In other words, in the present disclosure, not only when the light blocking range (light receiving range) is completely set randomly on a pixel basis, but also to a certain degree random (for example, regularity for some of all pixels).
  • the imaging lens, the pinhole, and the optical filter described in the above-mentioned patent documents and the like are not required. High degree of freedom.
  • an object is imaged by a plurality of imaging devices provided with imaging elements having incident angle directivity, and a restored image is restored using detection signals obtained by each imaging device.
  • FIG. 26 is a block diagram showing an exemplary configuration of an imaging system 301 according to the first embodiment of the present disclosure.
  • the imaging system 301 includes an imaging unit 311 and a signal processing unit 312.
  • the imaging unit 311 includes one or more n imaging devices 321-1 to 321-n.
  • the imaging devices 321-1 to 321-n are simply referred to as imaging devices 321 when it is not necessary to distinguish them individually.
  • Each imaging device 321 includes one or more imaging devices 121 having the above-described incident angle directivity.
  • Each imaging device 321 can be discretely arranged in space as shown in FIG. 27, for example. That is, the imaging devices 321 do not necessarily have to be aligned in space, and can be randomly arranged at intervals.
  • Each imaging device 321 performs near field communication with the reader / writer 331 of the signal processing unit 312 using technology such as RFID (Radio Frequency Identifier), for example, and detects one or more detection signals obtained by each imaging element 121 The detection signal set including is transmitted to the reader / writer 331. Further, each imaging device 321 converts an electromagnetic wave transmitted from the reader / writer 331 into electric power and is driven by the converted electric power. In other words, each imaging device 321 is driven by the electromotive force of the electromagnetic wave transmitted from the reader / writer 331.
  • RFID Radio Frequency Identifier
  • the signal processing unit 312 acquires a detection signal set from each imaging device 321 by controlling imaging by each imaging device 321, and performs restoration processing and the like of a restored image using the acquired detection signal set.
  • the signal processing unit 312 includes a reader / writer 331 and a signal processing device 332.
  • the reader / writer 331 performs near field communication with each imaging device 321 using technology such as RFID, and supplies power to each imaging device 321.
  • the signal processing device 332 performs restoration processing and the like of a restored image based on the detection signal set received from each imaging device 321 via the reader / writer 331, as shown in FIG.
  • FIG. 28 is a block diagram showing a configuration example of an imaging device 321A which is a first embodiment of the imaging device 321 of FIG.
  • parts corresponding to those of the imaging apparatus 101 in FIG. 2 are assigned the same reference numerals, and the description thereof will be omitted as appropriate.
  • the imaging device 321A includes an imaging element 121, a control unit 411, an association unit 412, a storage unit 413, and a communication unit 414.
  • the control unit 411, the association unit 412, the storage unit 413, and the communication unit 414 constitute a signal processing control unit 401A.
  • the imaging device 321A does not include an imaging lens.
  • the imaging device 121, the control unit 411, the association unit 412, the storage unit 413, and the communication unit 414 are connected to one another via the bus B2, and transmit and receive data via the bus B2.
  • the description of the bus B2 in the case where each part of the imaging device 321A transmits and receives data via the bus B2 is omitted.
  • the imaging element 121 outputs a detection signal set including one or more detection signals output from each pixel 121a to the bus B2.
  • the control unit 411 includes, for example, various processors, and controls each unit of the imaging device 321A.
  • the association unit 412 associates the detection signal set obtained by the imaging device 121 with the metadata corresponding to the detection signal set in cooperation with the association unit 504 (FIG. 33) of the signal processing device 332 or independently. Do.
  • the storage unit 413 includes one or more storage devices such as a read only memory (ROM), a random access memory (RAM), and a flash memory, and stores, for example, a program, data, and the like used for processing of the imaging device 321A.
  • the storage unit 413 stores, for example, an ID for uniquely identifying the imaging device 321A.
  • the communication unit 414 performs near field communication with the reader / writer 331 and receives power transmitted from the reader / writer 331 by electromagnetic waves.
  • the communication unit 414 includes a transmission / reception unit 421 and an antenna 422.
  • the transmission / reception unit 421 transmits / receives data to / from the reader / writer 331 via the antenna 422 by the short distance wireless communication method corresponding to the reader / writer 331.
  • the antenna 422 transmits / receives an electromagnetic wave to / from an antenna (not shown) of the reader / writer 331. Further, the electromagnetic wave received from the reader / writer 331 is converted into electric power by the antenna 422, and the imaging device 321A is driven by the electric power.
  • FIG. 29 schematically shows an example of the configuration of the appearance of the imaging device 321A.
  • the structural example of the surface of the imaging device 321A is schematically shown, and in the lower part, the structural example of the back surface of the imaging device 321A is schematically shown.
  • rectangular antennas 422 are provided on the left and right of the vertically long rectangular main body portion 431 at the center.
  • an imaging device 121 In the main body 431, an imaging device 121, a control unit 411, an association unit 412, a storage unit 413, and a transmission / reception unit 421 are incorporated.
  • a light receiving surface 121A of the imaging element 121 is disposed substantially at the center of the surface of the main body 431.
  • FIGS. 30 to 32 show examples of patterns of the pixel array portion of the imaging element 121 of each imaging device 321A.
  • the black portions in FIG. 30 to FIG. 32 indicate the light shielding range by the light shielding film 121 b.
  • FIG. 30 shows an example in which the imaging element 121 of each imaging device 321A includes one pixel 121a.
  • color filters 121d of different colors of white, red, green, or blue are provided, and the right half is blocked.
  • the color filter 121 d may or may not be a transparent filter. Therefore, by using the four imaging devices 321A of the patterns Pt1 to Pt4, it is possible to acquire detection signals having the same incident angle directivity and different colors (detection wavelengths). Then, for example, by using a plurality of imaging devices 321A having different light blocking ranges for each color, a plurality of detection signals having different incident angle directivity can be obtained for each color.
  • FIG. 31 illustrates an example in which the imaging element 121 of each imaging device 321A includes three pixels 121a.
  • the pixels 121a are arranged in the horizontal direction, and the color filters 121d of different colors of red, green, or blue are provided in the pixels 121a.
  • the right half of each pixel 121a is shielded from light. Therefore, by using the imaging device 321A of the pattern Pt11, detection signals having the same incident angle directivity and different colors (detection wavelengths) can be acquired at one time. Then, for example, by using a plurality of imaging devices 321A having the same color arrangement as the pattern Pt11 and different light blocking ranges, a plurality of detection signals having different incident angle directivity can be obtained for each color.
  • the pixels 121a are arranged in the horizontal direction, and the color filters 121d of different colors of red, green, or blue are provided in the respective pixels 121a.
  • the imaging device 321A of the pattern Pt12 detection signals having different incident angle directivity and color (detection wavelength) can be acquired at one time.
  • a plurality of imaging devices 321A having the same color arrangement as that of the pattern Pt12 and having a different light shielding range a plurality of detection signals having different incident angle directivity can be obtained for each color.
  • FIG. 32 illustrates an example in which the imaging element 121 of each imaging device 321A includes four pixels 121a.
  • the pixels 121a are arranged in the horizontal direction, and the pixels 121a are provided with color filters 121d of different colors of red, green, blue, or white.
  • the color filter 121 d may or may not be a transparent filter.
  • the right half of each pixel 121a is shielded from light. Therefore, by using the imaging device 321A of the pattern Pt21, detection signals having the same incident angle directivity and different colors (detection wavelengths) can be acquired at one time. Then, for example, by using a plurality of imaging devices 321A having the same color arrangement as that of the pattern Pt21 and having a different light blocking range, a plurality of detection signals having different incident angle directivity can be obtained for each color.
  • the pixels 121a are arranged in 2 rows ⁇ 2 columns, and the color filters 121d of different colors of red, green, blue, or white are provided in the pixels 121a.
  • the color filter 121 d may or may not be a transparent filter.
  • the right half of each pixel 121a is shielded from light. Therefore, by using the imaging device 321A of the pattern Pt22, detection signals having the same incident angle directivity and different colors (detection wavelengths) can be acquired at one time. Then, for example, by using a plurality of imaging devices 321A having the same color arrangement as the pattern Pt22 and different light blocking ranges, a plurality of detection signals having different incident angle directivity can be obtained for each color.
  • the pixels 121a are arranged in 2 rows ⁇ 2 columns, and the color arrangement of the pixels 121a follows the Bayer arrangement. Further, the light blocking range of each pixel 121a is different. Therefore, by using the imaging device 321A of the pattern Pt23, detection signals having different incident angle directivity and color (detection wavelength) can be acquired at one time. Then, for example, by using a plurality of imaging devices 321A having the same color arrangement as that of the pattern Pt23 and having different light shielding ranges, a plurality of detection signals having different incident angle directivity can be obtained for each color.
  • the pixels 121a are arranged in two rows and two columns, and a color filter 121d of the same color (in this example, white) is provided in each pixel 121a.
  • the color filter 121 d may or may not be a transparent filter.
  • the light blocking range of each pixel 121a is different. Therefore, by using the imaging device 321A of the pattern Pt23, detection signals having different incident angle directivity and the same color (detection wavelength) can be acquired at one time.
  • FIG. 33 is a block diagram showing a configuration example of the signal processing device 332 of FIG.
  • the signal processing device 332 includes a restoration unit 501, a control unit 502, an input unit 503, an association unit 504, a display unit 505, a storage unit 506, a recording and reproduction unit 507, a recording medium 508, and a communication unit 509.
  • the restoration unit 501, the control unit 502, the input unit 503, the display unit 505, the storage unit 506, the recording and reproduction unit 507, and the communication unit 509 are mutually connected via the bus B3, and data are connected via the bus B3.
  • Send and receive In the following, in order to simplify the description, the description of the bus B3 in the case where each part of the signal processing device 332 transmits and receives data via the bus B3 is omitted.
  • the restoration unit 501 performs restoration processing and the like of a restored image by the same processing as the restoration unit 122 of the imaging device 101 in FIG. 2 using the detection signal set received from each imaging device 321 via the reader / writer 331. .
  • the restoration unit 501 outputs the restored image to the bus B3.
  • the control unit 502 includes, for example, various processors, and controls each unit of the signal processing device 332.
  • the input unit 503 includes an input device (for example, a key, a switch, a button, a dial, a touch panel, a remote controller, and the like) for performing an operation of the signal processing device 332 and an input of data used for processing.
  • the input unit 503 outputs an operation signal, input data, and the like to the bus B3.
  • the associating unit 504 associates the detection signal set acquired from each imaging device 321A with metadata corresponding to each detection signal set in cooperation with the associating unit 412 of the imaging device 321A or by itself.
  • the display unit 505 includes, for example, a display, and displays various types of information (for example, a restored image and the like). Note that the display unit 505 may include an audio output unit such as a speaker to output audio.
  • the storage unit 506 includes one or more storage devices such as a ROM, a RAM, and a flash memory, and stores, for example, programs and data used for the processing of the signal processing device 332.
  • the storage unit 506 stores installation information including the position (for example, latitude and longitude) of each imaging device 321A and the posture (for example, orientation and inclination).
  • the storage unit 506 stores, for example, a coefficient set group corresponding to the imaging element 121 of each imaging device 321A in the current installation state of each imaging device 321A.
  • the coefficient set group is prepared, for example, for each assumed subject distance and angle of view.
  • the recording and reproducing unit 507 performs recording of data on the recording medium 508 and reproduction (reading) of data recorded on the recording medium 508.
  • the recording / reproducing unit 507 records the restored image on the recording medium 508 or reads it from the recording medium 508.
  • the recording / reproducing unit 507 records the detection signal set and the corresponding metadata on the recording medium 508 or reads out from the recording medium 508.
  • the recording medium 508 is, for example, an HDD, an SSD, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory or the like, or a combination thereof.
  • the communication unit 509 communicates with another device (for example, the reader / writer 331 or another signal processing device) by a predetermined communication method.
  • the communication method of the communication unit 509 may be either wired or wireless.
  • the communication unit 509 can also correspond to a plurality of communication methods.
  • step S101 the signal processing unit 312 transmits an imaging command.
  • control unit 502 of the signal processing device 332 generates an imaging command, and encodes the generated imaging command.
  • the control unit 502 supplies the encoded imaging command to the reader / writer 331 via the communication unit 509.
  • the reader / writer 331 transmits an imaging command to each imaging device 321 by starting transmission of a carrier wave composed of an electromagnetic wave and modulating the carrier wave with the encoded imaging command.
  • Each imaging device 321 receives an imaging command in step S151 of FIG. 36 described later, and transmits imaging data in step S153.
  • step S102 the signal processing unit 312 receives imaging data from each imaging device 321A.
  • the reader / writer 331 receives imaging data transmitted from each imaging device 321 by modulating a carrier wave composed of a reflected wave of the transmitted electromagnetic wave.
  • the imaging data is transmitted, for example, using a packet shown in FIG.
  • Each packet includes a start code, an ID, a detection signal, and an end code.
  • a predetermined code indicating the beginning of the packet is set.
  • the ID is an ID for identifying the imaging device 321A and the pixel 121a that output the detection signal included in the packet.
  • the ID for identifying each imaging device 321A and each pixel 121a in the imaging element 121 The ID is a combination of the ID for identification.
  • the imaging device 321A and the pixel 121a that output the detection signal included in the packet are identified.
  • the value of the detection signal to be transmitted (that is, the detection signal level) is set.
  • a predetermined code indicating the end of the packet is set.
  • the ID and the detection signal are encoded as necessary.
  • one packet is generated for one detection signal, and each detection signal is transmitted by a different packet. Therefore, packets corresponding to at least the number of detection signals are transmitted from each imaging device 321A. Then, a detection signal set including one or more detection signals output from the imaging device 121 of each imaging device 321A and metadata (for example, an ID or the like) corresponding to the detection signal set are transmitted by the one or more packets. Ru.
  • a plurality of detection signals may be transmitted at one time.
  • the transmission order of the detection signals is fixed, and the transmission of the ID of each pixel 121a is omitted, and one in one packet. It is also possible to include only the ID of the imaging device 321A.
  • the reader / writer 331 demodulates each packet of the imaging data received from each imaging device 321A and supplies it to the signal processing device 332.
  • the restoration unit 501 of the signal processing device 332 acquires each of the demodulated packets via the communication unit 509, and decodes the ID and the detection signal contained in each packet.
  • the reader / writer 331 stops the transmission of the carrier wave composed of the electromagnetic wave after a predetermined time has elapsed.
  • step S103 the restoration unit 501 obtains a coefficient used for image restoration. Specifically, the restoration unit 501 sets the subject distance by the same process as the process performed by the restoration unit 122 of the imaging apparatus 101 in step S2 of FIG. Then, the restoration unit 122 reads out from the storage unit 506 the coefficient set group associated with the set subject distance.
  • step S104 the reconstruction unit 501 reconstructs an image using the detection signal set and the coefficients. That is, the restoration unit 501 performs the same processing as the processing performed by the restoration unit 122 of the imaging apparatus 101 in step S3 of FIG. 20, the detection signal set included in the imaging data received from each imaging apparatus 321A, and the processing in step S103. The restored image is restored using the coefficient set group obtained in step.
  • step S105 the signal processing device 332 performs various processes on the restored image.
  • the restoration unit 501 performs demosaicing processing, ⁇ correction, white balance adjustment, conversion processing to a predetermined compression format, and the like on the restored image as necessary.
  • the restoration unit 501 supplies, for example, a restored image to the display unit 505 for display, or supplies the restored image to the recording and reproduction unit 507, and records the restored image on the recording medium 508, as necessary. , Output to other devices.
  • each imaging device 321A will be described with reference to the flowchart in FIG. 36, corresponding to the processing of the signal processing unit 312 in FIG.
  • the imaging device 321A receives an imaging command. Specifically, in step S101 of FIG. 34, the antenna 422 of the imaging device 321A receives an electromagnetic wave whose transmission is started from the reader / writer 331, converts the received electromagnetic wave into electric power, and supplies it to each part of the imaging device 321A. Do. Thus, each unit of the imaging device 321A is activated.
  • the transmission / reception unit 421 demodulates the electromagnetic wave received from the reader / writer 331 via the antenna 422, and supplies the encoded data obtained as a result to the control unit 411.
  • the control unit 411 acquires an imaging command by decoding the encoded data.
  • step S152 the imaging element 121 captures an image of a subject, as in the process of step S1 in FIG.
  • the imaging element 121 supplies the detection signal set including the detection signal of each pixel 121a to the associating unit 412.
  • step S153 the imaging device 321A transmits imaging data.
  • the association unit 412 generates the packet described above with reference to FIG. 35 for each detection signal included in the detection signal set. Thus, an ID is assigned to each detection signal.
  • the associating unit 412 supplies the generated packets to the transmitting and receiving unit 421.
  • the transmission / reception unit 421 transmits imaging data in packet units to the reader / writer 331 by, for example, modulating a carrier wave consisting of a reflected wave of an electromagnetic wave received from the reader / writer 331 with data of each packet via the antenna 422.
  • the reader / writer 331 stops the transmission of the electromagnetic wave, whereby the supply of power from the reader / writer 331 is ended, the imaging device 321A is turned off, and the processing is ended.
  • the imaging device 321A can be further miniaturized, power consumption can be reduced, and the amount of data communication related to transmission of imaging data can be reduced by performing imaging by sharing a plurality of imaging devices 321A. be able to. Further, the imaging device 321A is compact, does not require a power source such as a battery, and transmits imaging data by wireless communication, so the degree of freedom of the installation position is high. Therefore, the application range of the imaging device 321A can be expanded.
  • the imaging system 301 For example, by applying the imaging system 301 to an agricultural monitoring system, arranging the imaging devices 321A at a plurality of locations in the farmland, and performing the above-described processing, it is possible to grasp the weather and crop condition from remote locations. It is.
  • the small-sized imaging devices 321A in a distributed manner, it is possible to perform imaging without damaging the landscape.
  • the imaging system 301 to a building monitoring system and distributing a plurality of imaging devices 321A on a wall of a building etc.
  • the surroundings of the building can be imaged without damaging the landscape, and from a remote place It is possible to monitor.
  • the imaging device 321A can also be installed on a small device or a curved portion of the device, the range of applicable devices is expanded.
  • the imaging device 321A can be applied to various wearable terminals, medical devices such as an endoscope camera and a fundus camera, card-type devices, and the like.
  • the imaging device 321B of FIG. 37 which is the second embodiment of the imaging device 321, is used.
  • portions corresponding to the imaging device 321A in FIG. 28 are assigned the same reference numerals, and the description thereof will be omitted as appropriate.
  • illustration of power supply lines for supplying power from the power supply unit 451 to each unit of the imaging device 321B is omitted.
  • the imaging device 321B is different from the imaging device 321A in that a power supply unit 451 is provided.
  • the power supply unit 451 is configured of, for example, a battery or an AC / DC power supply, and supplies driving power to each unit of the imaging device 321B.
  • the power supply unit 451 is an AC / DC power supply
  • the power supply unit 451 converts the power supplied from the external AC power supply into a direct current, and then supplies the power to each unit of the imaging device 321B.
  • the imaging device 321B can autonomously perform imaging processing and transmit imaging data even when power is not supplied from the reader / writer 331.
  • the signal processing device 332 receives the imaging data transmitted from each imaging device 321 without transmitting an imaging command to each imaging device 321 B, and uses the received imaging data to restore the restored image. It can be restored.
  • FIG. 38 ⁇ Configuration Example of Imaging Device 321C>
  • the imaging device 321C in FIG. 38 which is the third embodiment of the imaging device 321 is used.
  • parts corresponding to the imaging device 321A in FIG. 28 are assigned the same reference numerals, and the description thereof will be omitted as appropriate.
  • illustration of power supply lines for supplying power from the power supply unit 461 to each unit of the imaging device 321C is omitted.
  • the imaging device 321C differs from the imaging device 321A in that a power supply unit 461 is provided.
  • the power supply unit 461 is a power supply that generates electric power by solar power generation.
  • the power supply unit 461 includes a photoelectric conversion unit 471 and a storage unit 472.
  • the photoelectric conversion unit 471 includes, for example, a photodiode, converts received light into charge, and supplies the obtained charge to the storage unit 472.
  • the storage unit 472 stores the charge converted by the photoelectric conversion unit 471, and supplies power of the stored charge to each unit of the imaging device 321C.
  • the imaging device 321C can generate power by itself and operate with the power without receiving supply of power from the outside or replacing the battery.
  • the photoelectric conversion portion 471 can be integrated with the imaging element 121.
  • the imaging device 321C can be miniaturized, and the manufacturing process can be simplified.
  • the imaging device 321 is compact and has a high degree of freedom in the installation position, it is assumed that the imaging device 321 is used at an arbitrary place other than a predetermined place. For example, it is also conceivable to use a plurality of imaging devices 321 in random distribution.
  • the inclination of the light receiving surface of the imaging element 121 with respect to the object surface to be restored changes, and the incident angles of light rays from point light sources on the object surface change.
  • the imaging device 321 moves from the position of the dotted line to the position of the solid line, the ray from the point light source P on the object plane 31 is transmitted to the imaging device 321 (the light receiving surface of the imaging element 121). The incident angle changes.
  • each pixel 121a of the imaging element 121 has incident angle directivity.
  • FIG. 40 shows an example of the light reception sensitivity with respect to the incident angle ⁇ x in the horizontal direction of a certain pixel 121a of the imaging device 121.
  • the horizontal axis of FIG. 40 indicates the incident angle ⁇ x in the horizontal direction, and the vertical axis indicates the detection signal level.
  • the detection signal level Becomes larger.
  • each imaging device 321 the position and the inclination of each imaging device 321 are detected by each imaging device 321, and the signal processing device 332 obtains a coefficient to be used for restoration of a restored image based on the detection result and restores it.
  • the image is to be restored.
  • the imaging device 321D of FIG. 41 which is the fourth embodiment of the imaging device 321, is used.
  • parts corresponding to the imaging device 321A in FIG. 28 are assigned the same reference numerals, and the description thereof will be omitted as appropriate.
  • the imaging device 321D is different from the imaging device 321A in that a signal processing control unit 401D is provided instead of the signal processing control unit 401A.
  • the signal processing control unit 401D is different from the signal processing control unit 401A in that a detection unit 611A is added.
  • the detection unit 611A includes a position detection unit 621 and a tilt detection unit 622.
  • the position detection unit 621 includes, for example, a GNSS receiver or the like, and detects the current position (for example, an absolute position represented by latitude and longitude) of the imaging device 321D.
  • the position detection unit 621 outputs the detected position information to the bus B2.
  • the tilt detection unit 622 includes, for example, an acceleration sensor or a tilt sensor, and detects the tilt of the light receiving surface of the imaging element 121 with respect to a plane perpendicular to the direction of gravity. For example, as shown in FIG. 42, when the direction of gravity is the Z axis, the direction perpendicular to the Z axis is the X axis, and the direction perpendicular to the Z axis is the Y axis, inclination detection The unit 622 detects the inclination X ⁇ and the inclination Y ⁇ .
  • the inclination X ⁇ is the inclination around the Y axis in the XZ plane.
  • the inclination Y ⁇ is the inclination around the X axis in the YZ plane.
  • the inclination detection unit 622 outputs the detected inclination information to the bus B2.
  • step S201 an imaging command is transmitted as in the process of step S101 in FIG.
  • step S202 as in the process of step S102 in FIG. 34, imaging data is received from each imaging device 321D.
  • the data configuration of the packet of the imaging data is different from the process of step S102 of FIG.
  • FIG. 44 shows an example of the data configuration of a packet of imaging data used in the fourth embodiment.
  • the inclination X ⁇ and the inclination Y ⁇ of the light receiving surface of the imaging element 121 detected by the inclination detection unit 622 of the imaging device 321D are respectively set to the inclination X ⁇ and the inclination Y ⁇ .
  • the latitude and longitude of the current position of the imaging device 321D detected by the position detection unit 621 of the imaging device 321D are respectively set as the latitude and longitude.
  • step S203 the restoration unit 501 obtains a coefficient used for image restoration. Specifically, the restoration unit 501 sets the subject distance, as in the process of step S103 in FIG.
  • the restoration unit 501 calculates, for each imaging device 321D, the amount of change in the inclination of the light receiving surface of the imaging element 121 with respect to the object plane (object plane to be restored) for the set object distance. That is, the restoration unit 501 calculates the amount of change in the inclination of the light receiving surface of the imaging element 121 with respect to the object surface as the imaging devices 321D move from the predetermined reference position to the current position.
  • the imaging device 321D when the imaging device 321D is installed at the reference position, the light receiving surface of the imaging element 121 and the object surface face each other, and both are surfaces perpendicular to the direction of gravity. Also, hereinafter, the latitude and longitude of the reference position will be referred to as reference latitude and reference longitude, respectively.
  • the reference position is, for example, set in advance for each imaging device 321D.
  • ⁇ x a tan ((Longitude after movement-standard longitude) / subject distance) + X ⁇ ... (9)
  • ⁇ y a tan ((Latitude after movement-reference latitude) / subject distance) + Y ⁇ ... (10)
  • the incident angle ⁇ x in the X-axis direction and the incident angle ⁇ y in the Y-axis direction of light rays from the respective point light sources on the object surface to the light receiving surface of the imaging device 121 are increased by ⁇ x and ⁇ y, respectively.
  • the change amount ⁇ x of the incident angle ⁇ x is referred to as the incident angle change amount ⁇ x
  • the change amount ⁇ y of the incident angle ⁇ y is referred to as the incident angle change amount ⁇ y.
  • the restoration unit 501 changes the incident angle change amount ⁇ x and the incident angle of each imaging device 321D with respect to the object plane 31 of the set object distance based on the latitude and longitude, the inclination X ⁇ , and the inclination Y ⁇ of each imaging device 321D.
  • the amount ⁇ y is calculated.
  • the incident angle change amount ⁇ x and the incident angle change amount ⁇ y are change amounts of the incident angle ⁇ x and the incident angle ⁇ y based on the case where each imaging device 321D is installed at a predetermined reference position.
  • the storage unit 506 is not limited to the coefficient set group with respect to the object plane of each object distance when each imaging device 321D is installed at the reference position, but also the incident angle variation ⁇ x and the incident angle with respect to each object plane.
  • a coefficient set group for each change amount ⁇ y is also stored.
  • the restoration unit 501 uses the storage unit 506 as a coefficient set group corresponding to each imaging device 321D, and also sets a coefficient set group corresponding to the calculated incident angle change amount ⁇ x and incident angle change amount ⁇ y. read out.
  • each point on the subject surface when the imaging device 321D is installed at the reference position is determined based on the weight Wx and the weight Wy for the incident angle obtained by adding the calculated incident angle change amount ⁇ x and the incident angle change amount ⁇ y to the incident angle ⁇ x and the incident angle ⁇ y of the incident light from the light source. It is also good.
  • step S204 as in the process of step S104 of FIG. 34, image restoration is performed using the detection signal set and the coefficients.
  • step S205 various processes are performed on the restored image, as in the process of step S105 in FIG.
  • step S251 an imaging command is received as in the process of step S151 in FIG.
  • step S252 imaging of a subject is performed as in the process of step S152 in FIG.
  • the detection unit 611A detects the position and orientation. Specifically, the position detection unit 621 detects the latitude and longitude of the current position of the imaging device 321D, and outputs the detected position information to the bus B2. The inclination detection unit 622 detects the inclination X ⁇ and the inclination Y ⁇ of the light receiving surface of the imaging element 121 of the imaging device 321D, and outputs the detected inclination information to the bus B2.
  • step S254 as in the process of step S153 in FIG. 36, imaging data is transmitted.
  • imaging data is transmitted using the packet of FIG.
  • each imaging device 321D detects its own position and orientation, and notifies the signal processing device 332, so that each imaging device 321D can be freely installed without performing prior setting processing or the like.
  • the imaging process can be performed by moving it.
  • FIG. 46 show the light receiving sensitivity characteristics with respect to the incident angle of the incident light of the pixel 121a having the imaging element 121, similarly to the right portion of FIG.
  • the upper part of FIG. 46 shows the light receiving sensitivity characteristic of the pixel 121a before rotation
  • the lower part shows the light receiving sensitivity characteristic of the pixel 121a after the pixel 121a is rotated by the angle ⁇ around the reference point (0, 0). There is.
  • incident light incident from the point light source P on the object plane 31 at the incident angle ( ⁇ x1, ⁇ y1) to the pixel 121a before rotation is incident at the incident angle ( ⁇ x2, ⁇ y2) to the pixel 121a after rotation It will be incident.
  • the light reception sensitivity of the pixel 121a to incident light before and after rotation changes, and the detection signal level changes.
  • each imaging device 321 is further detected by each imaging device 321, and the signal processing device 332 obtains a coefficient to be used for the restoration of the restoration image based on the detection result.
  • the imaging device 321E of FIG. 47 which is the fifth embodiment of the imaging device 321, is used.
  • parts corresponding to the imaging device 321D in FIG. 41 are given the same reference numerals, and the description thereof will be omitted as appropriate.
  • the imaging device 321E is different from the imaging device 321D in that a signal processing control unit 401E is provided instead of the signal processing control unit 401D.
  • the signal processing control unit 401E is different from the signal processing control unit 401D in that a detection unit 611B is provided instead of the detection unit 611A.
  • the detection unit 611B is different from the detection unit 611A in that a geomagnetism detection unit 623 is added.
  • the geomagnetic detection unit 623 detects the direction of the imaging device 321E, such as north, south, east, and west. For example, the orientation of a predetermined axis parallel to the light receiving surface of the imaging element 121 of the imaging device 321E is detected as the orientation of the imaging device 321E.
  • the geomagnetic detection unit 623 outputs direction information indicating the detected direction to the bus B2.
  • FIG. 48 shows an example of the data configuration of a packet of imaging data transmitted from each imaging device 321E.
  • the direction of the imaging device 321E detected by the geomagnetic detection unit 623 of the imaging device 321E is set.
  • the change amount ⁇ x 'of the incident angle ⁇ x in the X-axis direction and the change amount ⁇ y' of the incident angle ⁇ y in the Y-axis direction are the incident angle change amount ⁇ x of equation (9) and the incident angle of equation (10) It is represented by following Formula (11) and Formula (12) using change amount (DELTA) (theta) y.
  • ⁇ x ′ ⁇ x ⁇ cos ⁇ y ⁇ sin ⁇ ... (11)
  • ⁇ y ′ ⁇ x ⁇ sin ⁇ + ⁇ y ⁇ cos ⁇ ... (12)
  • the restoration unit 501 of the signal processing device 332 changes the incident angle change amount ⁇ x ′ of the equation (11) instead of the incident angle change amount ⁇ x of the equation (9) and the incident angle change amount ⁇ y of the equation (10).
  • the coefficient set group is obtained using the incident angle change amount ⁇ y ′ of (12), and the restored image is restored using the obtained coefficient set group.
  • the restored image is restored using more appropriate coefficients, and the restoration accuracy and the image quality of the restored image are improved.
  • the imaging device 321F of FIG. 49 which is the sixth embodiment of the imaging device 321, is used.
  • parts corresponding to the imaging device 321E in FIG. 47 are given the same reference numerals, and the description thereof will be omitted as appropriate.
  • the imaging device 321F is different from the imaging device 321E in that a signal processing control unit 401F is provided instead of the signal processing control unit 401E.
  • the signal processing control unit 401F is different from the signal processing control unit 401E in that a detection unit 611C is provided instead of the detection unit 611B, and a drive unit 651 is added.
  • the detection unit 611C is different from the detection unit 611B in that an altitude detection unit 624 is added.
  • the altitude detection unit 624 includes, for example, an altitude sensor.
  • the altitude detection unit 624 detects the altitude of the position where the imaging device 321F is installed, and outputs altitude information indicating the detected altitude to the bus B2.
  • the drive unit 651 includes, for example, a drive mechanism that moves (changes) the position and orientation of the imaging device 321F.
  • the drive unit 651 includes a wheel that moves the imaging device 321F on land, a propeller that moves the air in the air, and the like.
  • the drive unit 651 includes an actuator or the like that moves the orientation or the inclination of the imaging device 321F.
  • the drive unit 651 allows the imaging device 321F to change the position and posture by itself.
  • step S301 the signal processing unit 312 transmits a drive command.
  • control unit 502 of the signal processing device 332 generates a drive command, and encodes the generated drive command.
  • the drive command includes, for example, a movement command for moving at least one of the position and orientation of the imaging device 321F to be driven, and the ID of the imaging device 321F to be driven.
  • the movement command may be indicated by an absolute position and attitude, or may be indicated by a relative position and attitude.
  • the position or posture for moving the imaging device 321F is indicated by an absolute numerical value (for example, latitude, longitude, direction, angle with respect to the direction of gravity, etc.).
  • the movement direction and the movement amount with respect to the current position or posture of the imaging device 321F are indicated.
  • the control unit 502 supplies the encoded drive command to the reader / writer 331 via the communication unit 509.
  • the reader / writer 331 starts transmission of a carrier wave composed of an electromagnetic wave, and modulates the carrier wave with the encoded drive command to transmit a drive command to each imaging device 321F.
  • movement commands for a plurality of imaging devices 321F may be included in one drive command, or the drive commands may be transmitted individually for each of the imaging devices 321F to be driven. In the latter case, for example, when changing the position or orientation of the plurality of imaging devices 321F, a plurality of drive commands are transmitted in step S301.
  • the imaging device 321F which is to be driven, changes the position or the posture in accordance with the command by the drive command in step S353 in FIG. 52 described later.
  • step S301 when there is no need to change the position and orientation of each imaging device 321F, the process of step S301 can be omitted.
  • step S302 an imaging command is transmitted as in the process of step S101 in FIG.
  • step S303 as in the process of step S102 in FIG. 34, imaging data is received from each imaging device 321F.
  • the data configuration of the packet of the imaging data is different from the process of step S102 of FIG.
  • FIG. 51 shows an example of the data configuration of a packet of imaging data used in the sixth embodiment.
  • the altitude of the imaging device 321F detected by the altitude detection unit 624 of the imaging device 321F is set as the altitude.
  • step S304 as in the process of step S203 of FIG. 43, a coefficient used for image restoration is determined.
  • the restoration unit 501 uses the following equations (13) and (14) instead of the above-described equations (9) and (10), and takes incident light in consideration of the height of the imaging device 321F.
  • the angle change amount ⁇ x and the incident angle change amount ⁇ y are calculated.
  • the restoration unit 501 calculates the incident angle change amount ⁇ x ′ and the incident angle change amount ⁇ y ′ using the above-described Equations (11) and (12). Then, the restoration unit 501 reads out from the storage unit 506 the set of coefficients corresponding to the set subject distance, the incident angle change amount ⁇ x ′ and the incident angle change amount ⁇ y ′.
  • step S305 as in the process of step S104 of FIG. 34, the image is restored using the detection signal set and the coefficients.
  • step S306 various processes are performed on the restored image, as in the process of step S105 in FIG.
  • step S351 the imaging device 321F receives the drive command. Specifically, in step S301 in FIG. 50, the antenna 422 of the imaging device 321F receives an electromagnetic wave whose transmission is started from the reader / writer 331, converts the received electromagnetic wave into electric power, and supplies it to each part of the imaging device 321F. Do. Thereby, each part of the imaging device 321F is activated.
  • the transmission / reception unit 421 demodulates the electromagnetic wave received from the reader / writer 331 via the antenna 422, and supplies the encoded data obtained as a result to the control unit 411.
  • the control unit 411 acquires a drive command by decoding the encoded data.
  • step S352 the control unit 411 determines whether or not a change in position or posture has been instructed. For example, when the ID of the imaging device to be driven included in the drive command matches the ID of the control unit 411, the control unit 411 determines that the change of the position or the posture is instructed, and the process proceeds to step S353.
  • step S353 the imaging device 321F changes the position or the posture. Specifically, the control unit 411 controls the drive unit 651 to move the position or the attitude of the imaging device 321F according to the movement command included in the drive command.
  • step S352 for example, when the ID of the imaging device to be driven included in the drive command does not match the ID of the user, the control unit 411 determines that the change of the position or the posture is not instructed, The process of S353 is skipped, and the process proceeds to step S354.
  • step S354 an imaging command is received as in the process of step S151 in FIG.
  • step S355 imaging of a subject is performed as in the process of step S152 of FIG.
  • the detection unit 611C detects the position and orientation. Specifically, the position detection unit 621 detects the latitude and longitude of the current position of the imaging device 321F, and outputs the detected position information to the bus B2.
  • the inclination detection unit 622 detects the inclination X ⁇ and the inclination Y ⁇ of the light receiving surface of the imaging element 121 of the imaging device 321F, and outputs the detected inclination information to the bus B2.
  • the geomagnetic detection unit 623 detects the direction of the imaging device 321F, and outputs the detected direction information to the bus B2.
  • the altitude detection unit 624 detects the altitude of the imaging device 321F, and outputs the detected altitude information to the bus B2.
  • step S357 as in the process of step S153 in FIG. 36, imaging data is transmitted.
  • imaging data is transmitted using the packet of FIG.
  • the restored image is restored using more appropriate coefficients, and the restoration accuracy and the image quality of the restored image are improved.
  • the drive command and the imaging command are continuously transmitted.
  • the drive command and the imaging command may be transmitted at different timings. That is, the movement of the position or posture of each imaging device 321F and the imaging process may be performed at different timings.
  • each imaging device 321 ⁇ / b> F may be able to autonomously change the position or the attitude regardless of the instruction from the signal processing unit 312. In this case, each imaging device 321F needs to be able to operate without receiving power supply from the reader / writer 331.
  • the power supply unit 451 of FIG. 37 or the power supply unit 461 of FIG. 38 may be provided in each imaging device 321F.
  • an external DC power supply may be attached to each imaging device 321F, or power may be supplied from the outside via a power supply line.
  • an imaging device 321G of FIG. 53 which is a seventh embodiment of the imaging device 321, is used as the imaging device 321 of the imaging system 301 of FIG.
  • the imaging device 321 is also assumed to be randomly distributed and used. However, when the imaging device 321 is scattered, the light receiving surface 121A of the imaging element 121 does not necessarily face front. For example, when the light receiving surface 121A of the imaging element 121 faces the ground, the imaging device 321 can not obtain an effective detection signal set.
  • the imaging device 321G in addition to the light receiving surface 121A of the imaging device 121 on the front surface, the light reception of the imaging device 701 (not shown) having the same configuration as the imaging device 121 on the back surface (opposite surface) A surface 701A is provided. Thereby, the imaging device 321F can capture an object and obtain an effective detection signal set, regardless of which of the front and back faces the front.
  • the imaging device 321G may determine which of the imaging device 121 and the imaging device 701 is effective, and may transmit imaging data including only a detection signal set of the imaging device determined to be effective. . For example, the imaging device 321G determines that an imaging element having a larger average value of detection signal levels among detection signal sets of two imaging elements is valid, and includes only a detection signal set of imaging elements determined to be valid. Imaging data may be transmitted.
  • the imaging device 321G may always transmit imaging data including detection signal sets of both imaging devices, and the signal processing device 332 may determine which detection signal set is valid.
  • the imaging element 121 and the imaging element 701 may be configured by one imaging element.
  • the imaging device has a configuration bent at 180 °, and the pixel array portion on one side and the pixel array portion on the other side can be operated independently.
  • the imaging device 321F may be configured by a polyhedron having three or more faces having different directions, such as a regular tetrahedron or a regular hexahedron, and the light receiving surface of the imaging element may be provided on each surface.
  • the height detection unit 624 of the imaging device 321F of FIG. 49 can be added to the imaging device 321E of FIG.
  • the imaging device 321 when the imaging device 321 is driven by the power supplied from the reader / writer 331 or the power generated by solar power generation, a case where sufficient power can not be obtained is assumed. On the other hand, when sufficient power can not be obtained, some pixels 121a may be invalidated.
  • the upper and lower parts of FIG. 54 show examples of patterns of the pixel array portion of the imaging element 121.
  • an R pixel provided with a red color filter a G pixel provided with a green color filter, a B pixel provided with a blue color filter, and a W pixel provided with a white color filter
  • the pixel block of 1 row x 4 columns is made into 1 unit, and the pixel block is arranged in 3 rows x 2 columns.
  • the black part of each pixel 121a indicates the light shielding film 121b.
  • the light blocking ranges of the light blocking films 121 b of all the pixels 121 a are set to the same range, but it is not necessary to set the light blocking ranges to the same range.
  • all the pixels 121a are validated as shown in the upper row. That is, detection signals of all the pixels 121a are read out and transmitted to the outside.
  • to invalidate the pixel 121a means, for example, to stop reading out of the detection signal of the pixel 121a.
  • the readout of the detection signal is stopped by stopping the AD conversion of the detection signal of the invalid pixel 121a.
  • the detection signal of the invalid pixel 121a may be transmitted to the outside, or may not be transmitted to the outside.
  • a signal of a predetermined dummy value is transmitted as a detection signal of the invalid pixel 121a.
  • part of the detection signal can be supplied to the signal processing device 332, and image restoration can be continued.
  • the number of pixels 121 a to be invalidated may be changed according to the amount of power shortage.
  • each pixel 121a As the shape of the light shielding film 121b of each pixel 121a, it is possible to adopt a shape other than the above-described horizontal band type, vertical band type, L-shaped type, and a type provided with a rectangular opening.
  • one pixel output unit may include nine photodiodes 121 f.
  • the photodiodes 121f-11, 121f-114, 121f-117 to 121f-119 are substantially made.
  • An incident angle characteristic similar to that of the pixel 121a provided with the L-shaped light shielding film 121b in which the light shielding film 121b is set in the range of -117 to 121f -119 can be obtained.
  • the incident angle directivity can be changed as in the case where the position and the range shielded by the light shielding film 121 b are changed.
  • one pixel output unit is configured by one pixel 121a.
  • one pixel output unit may be configured by a plurality of pixels 121a.
  • each of the pixels 121 a-111 to 121 a-119 includes, for example, one photodiode and does not include an on-chip lens.
  • the incident angle directivity of the pixel output unit 801b can be realized.
  • the pixel signals of the pixels 121a-112, 121a-113, 121a-115, and 121a-116 are added to generate a detection signal, and the pixels 121a-111, 121a-114, and It is possible to obtain the same incident angle directivity as in the case where the L-shaped light shielding film 121b is provided in the range of the pixels 121a-117 to the pixels 121a-119.
  • the incident angle directivity can be set to different values as in the case where the position and the range shielded by the light shielding film 121b are changed.
  • the range of the pixel output unit can be changed by changing the combination of the pixels 121a.
  • a pixel output unit 801 s can be configured by pixels 121 a-111, pixels 121 a-112, pixels 121 a-114, and pixels 121 a in 2 rows ⁇ 2 columns including the pixels 121 a-115.
  • the range of the pixel output unit later by recording the pixel signals of all the pixels 121a and setting the combination of the pixels 121a later. Furthermore, it is possible to set the incident angle directivity of a pixel output unit later by selecting the pixel 121a which adds a pixel signal to a detection signal among the pixels 121a in the set pixel output unit.
  • FIG. 4 illustrates an example in which different incident angle directivity is given to each pixel by using the light shielding film 121b as the modulation element or changing the combination of photodiodes contributing to the output. Then, for example, as shown in FIG. 57, it is also possible to use an optical filter 902 covering the light receiving surface of the imaging element 901 as a modulation element so that each pixel has incident angle directivity.
  • the optical filter 902 is disposed to cover the entire surface of the light receiving surface 901A at a predetermined interval from the light receiving surface 901A of the imaging element 901.
  • the light from the subject surface 31 is modulated by the optical filter 902, and then enters the light receiving surface 901 ⁇ / b> A of the image sensor 901.
  • optical filter 902BW having a black and white lattice pattern shown in FIG.
  • a white pattern portion that transmits light and a black pattern portion that blocks light are randomly disposed.
  • the size of each pattern is set independently of the size of the pixel of the image sensor 901.
  • FIG. 59 shows the light receiving sensitivity characteristic of the image sensor 901 with respect to light from the point light source PA and the point light source PB on the object plane 31 when the optical filter 902BW is used.
  • the light from the point light source PA and the light from the point light source PB are respectively modulated by the optical filter 902BW, and then enter the light receiving surface 901A of the imaging element 901.
  • the light reception sensitivity characteristic of the image pickup device 901 with respect to the light from the point light source PA becomes like a waveform Sa. That is, since a shadow is generated by the black pattern portion of the optical filter 902BW, a light and dark pattern is generated in the image on the light receiving surface 901A for the light from the point light source PA.
  • the light receiving sensitivity characteristic of the image sensor 901 with respect to the light from the point light source PB becomes like a waveform Sb. That is, since a shadow is generated by the black pattern portion of the optical filter 902BW, a light and dark pattern is generated in the image on the light receiving surface 901A for the light from the point light source PB.
  • each pixel of the image sensor 901 has incident angle directivity with respect to each point light source of the object plane 31.
  • the optical filter 902HW of FIG. 60 may be used instead of the black pattern portion of the optical filter 902BW.
  • the optical filter 902HW includes a linear polarization element 911A and a linear polarization element 911B having the same polarization direction, and a half wave plate 912.
  • the half wave plate 912 is between the linear polarization element 911A and the linear polarization element 911B. It is pinched.
  • a polarized portion shown by oblique lines is provided, and the white pattern portion and the polarized portion are randomly arranged.
  • the linear polarization element 911A transmits only light of a predetermined polarization direction out of substantially non-polarized light emitted from the point light source PA.
  • the linear polarization element 911A transmits only light whose polarization direction is parallel to the drawing.
  • the polarized light transmitted through the linear polarizing element 911A the polarized light transmitted through the polarizing portion of the half-wave plate 912 is changed in polarization direction in a direction perpendicular to the drawing as the plane of polarization is rotated.
  • the linear polarization element 911A transmits the polarized light transmitted through the white pattern portion, and hardly transmits the polarized light transmitted through the polarized portion. Therefore, the quantity of polarized light transmitted through the polarizing section is smaller than that of polarized light transmitted through the white pattern section. As a result, a pattern of shading similar to that in the case of using the optical filter BW is generated on the light receiving surface 901A of the imaging element 901.
  • optical filter 902LF it is possible to use an optical interference mask as the optical filter 902LF.
  • the light emitted from the point light sources PA and PB of the object plane 31 is irradiated onto the light receiving surface 901A of the imaging element 901 through the optical filter 902LF.
  • corrugation of a wavelength grade is provided in the light-incidence surface of optical filter 902LF, for example.
  • the optical filter 902LF maximizes transmission of light of a specific wavelength emitted from the vertical direction.
  • the optical path length changes.
  • the light weakens when the optical path length is an odd multiple of a half wavelength, and the light strengthens when an even multiple of a half wavelength. That is, the intensity of the transmitted light of a specific wavelength emitted from the point light sources PA and PB and transmitted through the optical filter 902LF is modulated according to the incident angle with respect to the optical filter 902LF as shown in B of FIG.
  • the light is incident on the light receiving surface 901A. Therefore, the detection signal output from each pixel output unit of the imaging element 901 is a signal obtained by combining the light intensity after modulation of each point light source for each pixel output unit.
  • the present disclosure can be applied to an imaging device and an imaging element that perform imaging of light of wavelengths other than visible light such as infrared light.
  • the restored image is not an image that allows the user to visually recognize the subject, but is an image in which the user can not visually recognize the subject.
  • the present technology since it is difficult for the normal imaging lens to transmit far infrared light, the present technology is effective, for example, when imaging far infrared light. Therefore, the restored image may be an image of far infrared light, and may be an image of other visible light or non-visible light without being limited to far infrared light.
  • the association unit 504 of the signal processing device 332 may associate the detection signal set acquired from each imaging device 321 with the metadata corresponding to each detection signal set.
  • the associating unit 412 shown in FIGS. 28, 37, 38, 41, 47, and 49 may not be provided.
  • the metadata may or may not include, for example, a coefficient set group at the time of restoration.
  • a coefficient set group at the time of restoration for example, data indicating the object distance at the time of restoration in metadata, the angle of view, and the position and orientation at the time of imaging of each imaging device 321 (for example, latitude, longitude, inclination X ⁇ , inclination Y ⁇ , direction, altitude, etc.) Is included.
  • the method of associating the detection signal set with the metadata is not particularly limited as long as the correspondence between the detection signal set and the metadata can be specified.
  • detection may be performed by adding metadata to data including a detection signal set, assigning the same ID to the detection signal set and metadata, or recording the detection signal set and metadata on the same recording medium 508.
  • Signal sets and metadata are associated.
  • metadata may be individually associated with each detection signal set, or metadata may be associated with data in which the detection signal sets are combined into one.
  • the restoration unit 501 restores the restoration image using the detection signal sets of some imaging devices 321 You may do so.
  • the imaging device 121 suitable for imaging a subject surface having a different subject distance or angle of view may be provided for each imaging device 321. Then, for example, when the subject distance and the angle of view can be specified, an imaging device suitable for imaging the specified subject distance and angle of view without using the detection signal set of all the imaging devices 321 by the restoration unit 501. Only the detection signal set 321 may be used to restore the restored image. In this case, it is not necessary to make the subject distance and the angle of view appropriately different in all the imaging devices 321, and some imaging devices 321 may be the same.
  • the restoration unit 501 may select a detection signal set used for restoration of a restored image based on the restored image (hereinafter, referred to as a simple restored image) simply restored.
  • the restoration unit 501 uses the detection signal sets of all the imaging devices 321 to simply restore the restored image. For example, the restoration unit 501 thins out a detection signal of a predetermined pixel 121a among detection signals of each pixel 121a included in each detection signal set, and performs restoration processing simply with a small number of pixels. Alternatively, the reconstruction unit 501 simply performs the reconstruction processing, for example, by limiting the amount of computation (for example, the number of iterations, etc.).
  • the restoration unit 501 sets the main subject based on the simple restored image, for example.
  • the setting method of the main subject is arbitrary.
  • the restoring unit 501 sets the largest subject in the simple restored image or a predetermined type of subject (for example, a person or the like) in the simple restored image as the main subject.
  • the user may visually recognize the simple restored image and set a desired subject in the simple restored image as the main subject.
  • the restoration unit 501 selects a detection signal set used for restoration of the restored image.
  • the imaging range in the real world of each pixel 121a of each imaging device 321 can be estimated based on, for example, the position and orientation of each imaging device 321, and the light shielding range of each pixel 121a.
  • the position of the main subject in the real world can be estimated based on, for example, the position of the main subject in the simple restored image. Therefore, the restoration unit 501 includes the main subject among the detection signal sets of all the imaging devices 321 based on the imaging range of each pixel 121a in the real world and the position of the main subject in the real world (main subject Is extracted and selected as a detection signal set to be used for restoration of a restored image.
  • the restoration unit 501 selects the image sensor 121 (hereinafter referred to as a master sensor) as a master.
  • the restoring unit 501 determines the size and position of the main subject within the imaging range of the imaging device 121 of each imaging device 321 based on the imaging range of each pixel 121a in the real world and the position of the main subject in the real world. presume. Then, the restoration unit 501 selects, as a master sensor, the imaging sensor 121 which is most appropriate for the size and position of the main subject.
  • the appropriate size and position of the main subject vary depending on the type of the main subject, the scene to be imaged, and the like.
  • the restoration unit 501 extracts, for example, from among the imaging elements 121 excluding the master sensor, the imaging element 121 in which the ratio of the area where the imaging range overlaps the imaging range of the master sensor is equal to or more than a predetermined threshold.
  • the restoration unit 501 selects the detection signal set of the master sensor and the detection signal set of the extracted image sensor 121 as the detection signal set used for restoration of the restored image.
  • the restoration unit 501 performs restoration processing of a restored image using the selected detection signal set.
  • the restoration unit 501 restores the restored image by creating and solving the simultaneous equations described above using the coefficient set corresponding to each pixel 121a of each imaging device 321 that has acquired the selected detection signal set.
  • the pixel 121a used for the restoration of the restored image may be further selected from the pixels 121a of the selected imaging device 321.
  • the restoration unit 501 may select a detection signal of the pixel 121a whose imaging range overlaps with the main subject from the selected detection signal set, and restore the restored image using the selected detection signal. .
  • the coordinate system (hereinafter referred to as a reference coordinate system) used for the calculation of equations (9) to (14) is set based on a predetermined reference position (reference latitude, reference longitude)
  • a predetermined reference position reference latitude, reference longitude
  • the reference position may be variable.
  • the reference position may be set based on the position of the main subject.
  • the position in the real world of a predetermined position for example, the center of gravity
  • the reference position may be set as the reference position.
  • the reference position may be set based on the position of the master sensor. For example, a pixel at a predetermined position (for example, center, upper left corner, etc.) of the master sensor may be set as the reference position.
  • the reference coordinate system may be set based on the master sensor.
  • the X and Y axes of the reference coordinate system are set based on the coordinate system of the pixel area of the master sensor, and the axis perpendicular to the light receiving surface of the master sensor is set as the Z axis of the reference coordinate system. Good.
  • the subject distance and the angle of view of the restored image may be set based on the main subject.
  • the subject distance of the restored image may be set so that the image quality of the main subject is the best.
  • the angle of view of the restored image may be set so that the main subject has an appropriate size in the restored image.
  • the subject distance is always set to infinity.
  • the reader / writer 331 and the signal processing device 332 can be integrated, or part of the functions of the signal processing device 332 can be provided in the reader / writer 331.
  • the function of the reader / writer 331 or the function of the signal processing device 332 may be provided in some of the imaging devices.
  • FIG. 62 shows a configuration example of an imaging system 1001 which is a first modified example of the imaging system.
  • parts corresponding to those of the imaging system 301 in FIG. 26 are assigned the same reference numerals, and the description thereof will be omitted as appropriate.
  • the imaging system 1001 is different from the imaging system 301 in that an imaging unit 1011 is provided instead of the imaging unit 311 and a reader / writer 331 is deleted.
  • the imaging unit 1011 is different from the imaging unit 311 in that an imaging device 1021 is added.
  • the imaging device 1021 has the function of a reader / writer 331. That is, the imaging device 1021 performs near field communication with each imaging device 321, and supplies power to each imaging device 321. Then, the imaging device 1021 transmits an imaging command to each imaging device 321 to control imaging of the subject by each imaging device 321, and also performs imaging of the subject itself. Then, the imaging device 1021 receives imaging data from each imaging device 321, and transmits imaging data received from each imaging device 321 and imaging data acquired by imaging itself to the signal processing device 332. That is, the imaging device 1021 plays a role of relaying imaging data from each imaging device 321 to the signal processing device 332.
  • the imaging device 1021 includes, for example, a power supply unit similar to the power supply unit 451 of the imaging device 321B of FIG. 37 or the power supply unit 461 of the imaging device 321C of FIG. It is also possible to operate.
  • the number of imaging devices 321 may be one.
  • FIG. 63 shows a configuration example of an imaging system 1101 which is a second modified example of the imaging system.
  • parts corresponding to those of the imaging system 301 in FIG. 26 are assigned the same reference numerals, and the description thereof will be omitted as appropriate.
  • the imaging system 1101 is different from the imaging system 301 in that an imaging unit 1111 is provided instead of the imaging unit 311, and the reader / writer 331 and the signal processing device 332 are deleted.
  • the imaging unit 1111 differs from the imaging unit 311 in that an imaging device 1121 is added.
  • the imaging device 1121 has the same function as the imaging device 1021 in FIG. 62 and the same function as the signal processing device 332 in FIG. Then, the imaging device 1121 performs restoration processing and the like of the restored image based on the imaging data received from each imaging device 321 and the imaging data acquired by imaging by itself.
  • the number of imaging devices 321 may be one.
  • each imaging device 321 detects its own position and orientation, and notifies the signal processing unit 312 of the detection result.
  • the position and orientation of each imaging device 321 It may be detected from the outside.
  • the area in which each imaging device 321 is installed may be imaged from the outside, and the position and orientation of each imaging device 321 may be detected based on the imaged image.
  • such a detection function may be provided to the reader / writer 331 or the signal processing device 332.
  • the example described above detects the position (absolute position), tilt, orientation, and height as the position and orientation of the imaging device 321, this combination can be freely changed. is there. Further, another data indicating the position or attitude of the imaging device 321 may be detected. Furthermore, for example, only one of the position and orientation of the imaging device 321 may be detected.
  • the series of processes described above can be performed by hardware or software.
  • a program that configures the software is installed on a computer.
  • the computer includes a computer (for example, the control unit 123 or the like) incorporated in dedicated hardware.
  • the program executed by the computer can be provided by being recorded in, for example, a recording medium (eg, the recording medium 130 or the like) as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • a recording medium eg, the recording medium 130 or the like
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program executed by the computer may be a program that performs processing in chronological order according to the order described in this specification, in parallel, or when necessary, such as when a call is made. It may be a program to be processed.
  • a system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same case. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
  • the present technology can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
  • each step described in the above-described flowchart can be executed by one device or in a shared manner by a plurality of devices.
  • the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
  • the present disclosure can also have the following configurations.
  • One or more pixel output units that receive incident light from an object incident without passing through either the imaging lens or the pinhole, and output one detection signal indicating an output pixel value modulated by the incident angle of the incident light
  • An imaging element that outputs a detection signal set including one or more of the detection signals
  • An imaging apparatus comprising: a communication unit configured to transmit imaging data including the detection signal set and position and orientation data indicating at least one of position and orientation to a communication device by wireless communication.
  • the imaging device according to (3) wherein the incident angle directivity of each of the pixel output units is the same.
  • the image sensor includes a plurality of the pixel output units having the same detection wavelength, The imaging device according to (2), wherein the incident angle directivity of each of the pixel output units is different.
  • the position and orientation data includes at least one of an absolute position, an inclination, an orientation, and an altitude of the imaging device.
  • the imaging device further including: a drive unit that changes at least one of the position and the attitude of the imaging device according to a command transmitted from the communication device.
  • the imaging device according to any one of (1) to (8), wherein the imaging data includes identification information for identifying the imaging device.
  • the imaging device (10) The imaging device according to any one of (1) to (9), including a plurality of light receiving surfaces having different directions. (11) The imaging device according to (10), including a plurality of the imaging elements each including the light receiving surface. (12) The imaging device according to (11), wherein the communication unit transmits imaging data including the detection signal of the effective imaging device among a plurality of the imaging devices.
  • the imaging device according to any one of (1) to (13) further including: a power supply unit that supplies power for driving the imaging device and the communication unit.
  • the power supply unit has a power generation function.
  • the power supply unit generates electricity by sunlight
  • One or more pixel output units that receive incident light from an object incident without passing through either the imaging lens or the pinhole, and output one detection signal indicating an output pixel value modulated by the incident angle of the incident light
  • a plurality of detection signal sets respectively included in a plurality of imaging data from a plurality of imaging devices each having an imaging element that outputs a detection signal set consisting of one or more of the detection signals;
  • Signal processing device comprising a unit.
  • Each of the imaging data includes position and orientation data indicating at least one of the position and orientation of each of the imaging devices,
  • the signal processing apparatus according to (19), wherein the restoration unit further restores the restored image using the position and orientation data of each of the imaging devices.
  • the restoration unit restores the restored image using the detection signal of each of the pixel output units and a plurality of coefficients indicating directivity of each of the pixel output units with respect to an incident angle of incident light from the subject.
  • the signal processing device according to (19) or (20).
  • the communication unit according to any one of (19) to (21), further comprising: a communication unit that receives the plurality of imaging data from the plurality of imaging devices by wireless communication and supplies power to one or more of the plurality of imaging devices using electromagnetic waves. Signal processing apparatus described in.
  • association unit 301 imaging system 311 imaging unit 312 signal processing unit 321, 321A to 321G imaging apparatus 331 reader / writer 332 signal processing apparatus 401A to 401F signal processing control unit 411 control unit 412 association unit , 414 communication unit, 421 transmission / reception unit, 422 antenna, 451, 461 power supply unit, 471 photoelectric conversion unit, 472 storage unit, 501 restoration unit, 502 Control unit, 504 association unit, 611A to 611C detection unit, 621 position detection unit, 622 inclination detection unit, 623 geomagnetic detection unit, 624 altitude detection unit, 651 drive unit, 701 imaging device, 701

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Exposure Control For Cameras (AREA)
  • Cameras In General (AREA)

Abstract

本開示は、撮像装置の適用範囲を拡大することができるようにする撮像装置および信号処理装置に関する。 撮像装置は、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を1つ出力する画素出力単位を1以上備え、1以上の前記検出信号を含む検出信号セットを出力する撮像素子と、前記検出信号セット、並びに、位置及び姿勢のうち少なくとも1つを示す位置姿勢データを含む撮像データを無線通信により通信装置に送信する通信部とを備える。本開示は、例えば、監視システムに適用することができる。

Description

撮像装置および信号処理装置
 本開示は、撮像装置および信号処理装置に関し、特に、撮像装置の適用範囲を拡大できるようにした撮像装置および信号処理装置に関する。
 従来、撮像レンズを用いずに、撮像素子の受光面を覆う格子状の光学フィルタや回折格子からなる光学フィルタにより被写体からの光を変調して撮像し、所定の演算処理により被写体の像が結像された画像を復元する撮像装置が提案されている(例えば、非特許文献1、特許文献1、2参照)。
特表2016-510910号公報 国際公開第2016/123529号
 ところで、非特許文献1や特許文献1、2に示されるような撮像レンズを用いない撮像装置は、撮像レンズがない分小型化が可能であり、適用範囲の拡大が期待されている。
 本開示は、このような状況に鑑みてなされたものであり、撮像装置の適用範囲を拡大できるようにするものである。
 本開示の第1の側面の撮像装置は、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を1つ出力する画素出力単位を1以上備え、1以上の前記検出信号を含む検出信号セットを出力する撮像素子と、前記検出信号セット、並びに、位置及び姿勢のうち少なくとも1つを示す位置姿勢データを含む撮像データを無線通信により通信装置に送信する通信部とを備える。
 本開示の第2の側面の信号処理装置は、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を1つ出力する画素出力単位を1以上備え、1以上の前記検出信号からなる検出信号セットを出力する撮像素子をそれぞれ備える複数の撮像装置からの複数の撮像データにそれぞれ含まれる複数の前記検出信号セットを用いて、復元画像を復元する復元部を備える。
 本開示の第1の側面においては、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光が受光され、前記入射光の入射角によって変調された出力画素値を示す1以上の検出信号を含む検出信号セットが出力され、前記検出信号セット、並びに、位置及び姿勢のうち少なくとも1つを示す位置姿勢データを含む撮像データが無線通信により通信装置に送信される。
 本開示の第2の側面においては、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を1つ出力する画素出力単位を1以上備え、1以上の前記検出信号からなる検出信号セットを出力する撮像素子をそれぞれ備える複数の撮像装置からの複数の撮像データにそれぞれ含まれる複数の前記検出信号セットを用いて、復元画像が復元される。
 本開示の第1の側面又は第2の側面によれば、撮像装置の適用範囲を拡大することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の技術を適用した撮像装置における撮像の原理を説明する図である。 本開示の技術を適用した撮像装置の基本的な構成例を示すブロック図である。 図2の撮像素子の画素アレイ部の構成例を示す図である。 図2の撮像素子の第1の構成例を説明する図である。 図2の撮像素子の第2の構成例を説明する図である。 入射角指向性の発生の原理を説明する図である。 オンチップレンズを利用した入射角指向性の変化を説明する図である。 遮光膜のタイプの例を示す図である。 入射角指向性の設計を説明する図である。 オンチップレンズと撮像レンズとの違いを説明する図である。 オンチップレンズと撮像レンズとの違いを説明する図である。 オンチップレンズと撮像レンズとの違いを説明する図である。 被写体距離と入射角指向性を示す係数との関係を説明する図である。 狭画角画素と広画角画素との関係を説明する図である。 狭画角画素と広画角画素との関係を説明する図である。 狭画角画素と広画角画素との関係を説明する図である。 狭画角画素と広画角画素の画質の違いを説明するための図である。 狭画角画素と広画角画素の画質の違いを説明するための図である。 複数の画角の画素を組み合わせる例を説明する図である。 図2の撮像装置による撮像処理を説明するフローチャートである。 処理負荷の低減方法を説明する図である。 処理負荷の低減方法を説明する図である。 処理負荷の低減方法を説明する図である。 処理負荷の低減方法を説明する図である。 処理負荷の低減方法を説明する図である。 本開示の技術を適用した撮像システムの構成例を示すブロック図である。 図26の撮像システムの使用方法の例を説明する図である。 図26の撮像装置の第1の実施の形態を示すブロック図である。 図26の撮像装置の第1の実施の形態の外観の構成例を示す模式図である。 図28の撮像素子の画素アレイ部のパターンの例を示す図である。 図28の撮像素子の画素アレイ部のパターンの例を示す図である。 図28の撮像素子の画素アレイ部のパターンの例を示す図である。 図26の信号処理装置の構成例を示すブロック図である。 図26の信号処理部の処理の第1の実施の形態を説明するフローチャートである。 撮像データのパケットのデータ構造の第1の例を示す図である。 図28の撮像装置の処理を説明するフローチャートである。 図26の撮像装置の第2の実施の形態を示すブロック図である。 図26の撮像装置の第3の実施の形態を示すブロック図である。 撮像装置の位置と点光源からの光線の入射角度の関係を説明する図である。 入射角指向性の例を示すグラフである。 図26の撮像装置の第4の実施の形態を示すブロック図である。 撮像装置の傾きの検出方向を示す図である。 図26の信号処理部の処理の第2の実施の形態を説明するフローチャートである。 撮像データのパケットのデータ構造の第2の例を示す図である。 図41の撮像装置の処理を説明するフローチャートである。 画素の向きと受光感度特性の関係を説明する図である。 図26の撮像装置の第5の実施の形態を示すブロック図である。 撮像データのパケットのデータ構造の第3の例を示す図である。 図26の撮像装置の第6の実施の形態を示すブロック図である。 図26の信号処理部の処理の第3の実施の形態を説明するフローチャートである。 撮像データのパケットのデータ構造の第4の例を示す図である。 図49の撮像装置の処理を説明するフローチャートである。 図26の撮像装置の第7の実施の形態の外観の構成例を示す模式図である。 電力が不足する場合の対策の例を説明する図である。 図5の撮像素子の変形例を示す図である。 画素出力単位の変形例を説明する図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 本開示の技術を適用した撮像システムの第1の変形例を示すブロック図である。 本開示の技術を適用した撮像システムの第2の変形例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を適宜省略する。
 また、以下の順序で説明を行う。
  1.本開示の撮像装置の概要
  2.本開示の撮像装置の基本的な構成例
  3.第1の実施の形態
  4.第2の実施の形態:電源部を設けた例
  5.第3の実施の形態:太陽光発電を行う電源部を設けた例
  6.第4の実施の形態:撮像装置の位置及び傾きを検出するようにした例
  7.第5の実施の形態:撮像装置の向きを検出するようにした例
  8.第6の実施の形態:撮像装置を位置及び姿勢を変更可能にした例
  9.第7の実施の形態:撮像装置の両面に受光面を設けた例
  10.変形例
  11.その他
 <<1.本開示の撮像装置の概要>>
 まず、本開示の撮像装置の概要について説明する。
 本開示の撮像装置においては、図1の左上に示されるように、各画素の検出感度に入射角指向性を持たせた撮像素子51が用いられる。ここで、各画素の検出感度に入射角指向性を持たせるとは、各画素への入射光の入射角度に応じた受光感度特性を画素毎に異なるものとすることである。ただし、全ての画素の受光感度特性が完全に異なるものである必要はなく、一部の画素の受光感度特性が同一であってもよい。
 ここで、例えば、全ての被写体は点光源の集合であり、各点光源からあらゆる方向に光が出射されているものとする。例えば、図1の左上の被写体の被写体面31が、点光源PA乃至点光源PCにより構成され、点光源PA乃至点光源PCが、それぞれ光強度a乃至光強度cの複数の光線を周囲に発しているものとする。また、以下、撮像素子51は、位置Pa乃至位置Pcに入射角指向性がそれぞれ異なる画素(以下、画素Pa乃至画素Pcと称する)を備えるものとする。
 この場合、図1の左上に示されるように、同一の点光源より発せられた同一の光強度の光線が、撮像素子51の各画素に入射される。例えば、点光源PAから発せられた光強度aの光線が、撮像素子51の画素Pa乃至画素Pcにそれぞれ入射される。一方、同一の点光源より発せられた光線は、画素毎にそれぞれ異なる入射角度で入射される。例えば、点光源PAからの光線は、画素Pa乃至画素Pcにそれぞれ異なる入射角度で入射される。
 ここで、画素Pa乃至画素Pcの入射角指向性がそれぞれ異なるため、同一の点光源より発せられた同一の光強度の光線が、各画素で異なる感度で検出される。その結果、同一の光強度の光線が画素毎に異なる検出信号レベルで検出される。例えば、点光源PAからの光強度aの光線に対する検出信号レベルが、画素Pa乃至画素Pcでそれぞれ異なる値になる。
 そして、各点光源からの光線に対する各画素の受光感度レベルは、その光線の光強度に、その光線の入射角度に対する受光感度(すなわち、入射角指向性)を示す係数を乗じることにより求められる。例えば、点光源PAからの光線に対する画素Paの検出信号レベルは、点光源PAの光線の光強度aに、当該光線の画素Paへの入射角度に対する画素Paの入射角指向性を示す係数を乗じることにより求められる。
 従って、画素Pc,Pb,Paの検出信号レベルDA,DB,DCは、それぞれ以下の式(1)乃至式(3)で表される。
 DA=α1×a+β1×b+γ1×c
                           ・・・(1)
 DB=α2×a+β2×b+γ2×c
                           ・・・(2)
 DC=α3×a+β3×b+γ3×c
                           ・・・(3)
 ここで、係数α1は、点光源PAから画素Pcへの光線の入射角度に対する画素Pcの入射角指向性を示す係数であり、当該入射角度に応じて設定される。また、α1×aは、点光源PAからの光線に対する画素Pcの検出信号レベルを示している。
 係数β1は、点光源PBから画素Pcへの光線の入射角度に対する画素Pcの入射角指向性を示す係数であり、当該入射角度に応じて設定される。また、β1×bは、点光源PBからの光線に対する画素Pcの検出信号レベルを示している。
 係数γ1は、点光源PCから画素Pcへの光線の入射角度に対する画素Pcの入射角指向性を示す係数であり、当該入射角度に応じて設定される。また、γ1×cは、点光源PCからの光線に対する画素Pcの検出信号レベルを示している。
 このように、画素Paの検出信号レベルDAは、画素Pcにおける点光源PA,PB,PCからの光線のそれぞれの光強度a,b,cと、それぞれの入射角度に応じた入射角指向性を示す係数α1,β1,γ1との積和により求められる。
 同様に、画素Pbの検出信号レベルDBは、式(2)に示されるように、画素Pbにおける点光源PA,PB,PCからの光線のそれぞれの光強度a,b,cと、それぞれの入射角度に応じた入射角指向性を示す係数α2,β2,γ2との積和により求められる。また、画素Pcの検出信号レベルDCは、式(3)に示されるように、画素Paにおける点光源PA,PB,PCからの光線のそれぞれの光強度a,b,cと、それぞれの入射角度に応じた入射角指向性を示す係数α2,β2,γ2との積和により求められる。
 ただし、画素Pa,Pb,Pcの検出信号レベルDA、DB、DCは、式(1)乃至式(3)に示されるように、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cが入り交じっている。従って、図1の右上に示されるように、撮像素子51における検出信号レベルは、被写体面31上の各点光源の光強度とは異なる。従って、撮像素子51により得られる画像は、被写体面31の像が結像されたものとは異なるものとなる。
 一方、式(1)乃至式(3)からなる連立方程式を作成し、作成した連立方程式を解くことにより、各点光源PA乃至点光源PCの光線の光強度a乃至光強度cが求められる。そして、求めた光強度a乃至光強度cに応じた画素値を有する画素を点光源PA乃至点光源PCの配置(相対位置)に合わせて並べることにより、図1の右下に示されるように、被写体面31の像が結像された復元画像が復元される。
 なお、以下、連立方程式を構成する式毎に係数をまとめたもの(例えば、係数α1、β1、γ1)を係数セットと称する。また、以下、連立方程式に含まれる複数の式に対応する複数の係数セットをまとめたもの(例えば、係数セットα1、β1、γ1、係数セットα2、β2、γ2、係数セットα3、β3、γ3)を係数セット群と称する。
 このようにして、撮像レンズ、ピンホール、並びに、特許文献1及び非特許文献1(以下、特許文献等と称する)に示される光学フィルタを必要とせず、各画素において入射角指向性を有する撮像素子51を必須構成とする撮像装置を実現することが可能となる。結果として、撮像レンズ、ピンホール、及び、特許文献等に記載の光学フィルタが必須構成とならないので、撮像装置の低背化、すなわち、撮像機能を実現する構成における光の入射方向に対する厚さを薄くすることが可能になる。
 また、必須構成が撮像素子51のみになるので、設計の自由度を向上させることが可能となる。例えば、従来の撮像レンズを用いた撮像装置では、撮像レンズにより被写体の像が結像される位置に合わせて、撮像素子の画素を2次元のアレイ状に配置する必要があるが、撮像素子51を用いた撮像装置では、その必要がない。そのため、各画素の配置の自由度が向上し、例えば、被写体からの光が入射する範囲内において、各画素を自由に配置することが可能になる。例えば、各画素を円形の領域内に並べたり、中空方形(ロの字型)の領域内に並べたり、複数の領域に分散して配置したりすることが可能になる。
 そして、各画素の配置に関わらず、被写体面31上の各点光源からの光線の各画素への入射角度に応じた係数を用いて、上述した式(1)乃至式(3)で示されるような連立方程式を作成し、解くことにより、各点光源からの光線の光強度を求めることができる。そして、求めた各点光源の光強度に応じた画素値を有する画素を被写体面31上の各点光源の配置に合わせて並べることにより、被写体面31の像が結像された復元画像を復元することができる。
 <<2.本開示の撮像装置の基本的な構成例>>
 次に、図2乃至図25を参照して、本開示の撮像装置の基本的な構成例について説明する。
 <撮像装置101の構成例>
 図2は、本開示の技術を適用した基本的な撮像装置である撮像装置101の構成例を示すブロック図である。
 撮像装置101は、撮像素子121、復元部122、制御部123、入力部124、検出部125、関連付け部126、表示部127、記憶部128、記録再生部129、記録媒体130、及び、通信部131を備える。また、復元部122、制御部123、入力部124、検出部125、関連付け部126、表示部127、記憶部128、記録再生部129、記録媒体130、及び、通信部131により、信号処理や撮像装置101の制御等を行う信号処理制御部111が構成される。なお、撮像装置101は、撮像レンズを含まない(撮像レンズフリー)。
 また、撮像素子121、復元部122、制御部123、入力部124、検出部125、関連付け部126、表示部127、記憶部128、記録再生部129、及び、通信部131は、バスB1を介して相互に接続されており、バスB1を介してデータの送受信等を行う。なお、以下、説明を簡単にするために、撮像装置101の各部がバスB1を介してデータの送受信等を行う場合のバスB1の記載を省略する。例えば、入力部124がバスB1を介して制御部123にデータを供給する場合、入力部124が制御部123にデータを供給すると記載する。
 撮像素子121は、図1を参照して説明した撮像素子51に対応するものであり、入射角指向性を有する画素を含み、入射光の光量に応じた検出信号レベルを示す検出信号からなる画像を復元部122又はバスB1に出力する撮像素子である。
 より具体的には、撮像素子121は、基本的な構造において、一般の、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子からなるものと同様のものであっても良い。ただし、撮像素子121は、画素アレイを構成する各画素の構成が一般のものと異なり、例えば、図3乃至図5を参照して後述するように、入射角指向性を持たせる構成を有している。そして、撮像素子121は、画素毎に入射光の入射角度に応じて受光感度が異なり(変化し)、画素単位で入射光の入射角度に対する入射角指向性を有している。
 なお、撮像素子121が出力する画像は、上述した図1の右上に示されるように被写体の像が結像されていない検出信号により構成される画像となるので、目視により被写体を認識することができない。すなわち、撮像素子121が出力する検出信号からなる検出画像は、画素信号の集合ではあるが、ユーザが目視しても被写体を認識できない(被写体を視認不可能な)画像である。
 そこで、以降においては、図1の右上に示されるように被写体の像が結像されていない検出信号より構成される画像、すなわち、撮像素子121により撮像される画像を、検出画像と称するものとする。
 尚、撮像素子121は、画素アレイとして構成されなくてもよく、例えば、ラインセンサとして構成されてもよい。また、入射角指向性は必ずしも画素単位で全て異なる必要はなく、入射角指向が同じ画素を含んでいてもよい。
 復元部122は、例えば、図1における撮像素子51から被写体面31(復元画像に対応する被写体面)までの距離に相当する被写体距離に対応し、上述した係数α1乃至α3,β1乃至β3,γ1乃至γ3に相当する係数セット群を記憶部128から取得する。また、復元部122は、撮像素子121から出力される検出画像の各画素の検出信号レベルと、取得した係数セット群とを用いて、上述した式(1)乃至式(3)で示されるような連立方程式を作成する。そして、復元部122は、作成した連立方程式を解くことにより、図1の右下に示される被写体の像が結像された画像を構成する各画素の画素値を求める。これにより、ユーザが目視して被写体を認識できる(被写体を視認可能な)画像が検出画像から復元される。以降においては、この検出画像から復元される画像を復元画像と称するものとする。ただし、撮像素子121が紫外線などの視認可能な波長帯域以外の光のみに感度を有する場合、復元画像も通常の画像のように被写体を識別できるような画像とはならないが、この場合も復元画像と称する。
 また、以降においては、被写体の像が結像された状態の画像である復元画像であって、デモザイク処理等の色分離や同時化処理前の画像をRAW画像と称し、撮像素子121により撮像された検出画像については、色フィルタの配列に従った画像ではあるが、RAW画像ではないものとして区別する。
 尚、撮像素子121の画素数と、復元画像を構成する画素の画素数とは、必ずしも同一である必要はない。
 また、復元部122は、必要に応じて、復元画像に対してデモザイク処理、γ補正、ホワイトバランス調整、所定の圧縮形式への変換処理等を行う。そして、復元部122は、復元画像をバスB1に出力する。
 制御部123は、例えば、各種のプロセッサを備え、撮像装置101の各部を制御する。
 入力部124は、撮像装置101の操作や、処理に用いるデータの入力等を行うための入力デバイス(例えば、キー、スイッチ、ボタン、ダイヤル、タッチパネル、リモートコントローラ等)を備える。入力部124は、操作信号や入力されたデータ等をバスB1に出力する。
 検出部125は、撮像装置101や被写体の状態等の検出に用いる各種のセンサ等を備える。例えば、検出部125は、撮像装置101の姿勢や動きを検出する加速度センサやジャイロセンサ、撮像装置101の位置を検出する位置検出センサ(例えば、GNSS(Global Navigation Satellite System)受信機等)、被写体距離を検出する測距センサ等を備える。検出部125は、検出結果を示す信号をバスB1に出力する。
 関連付け部126は、撮像素子121により得られる検出画像と、検出画像に対応するメタデータとの関連付けを行う。メタデータは、例えば、対象となる検出画像を用いて復元画像を復元するための係数セット群や被写体距離等を含む。
 なお、検出画像とメタデータを関連付ける方法は、検出画像とメタデータとの対応関係を特定することができれば、特に限定されない。例えば、検出画像を含む画像データにメタデータを付与したり、検出画像とメタデータに同じIDを付与したり、検出画像とメタデータを同じ記録媒体130に記録させたりすることにより、検出画像とメタデータが関連付けられる。
 表示部127は、例えば、ディスプレイにより構成され、各種の情報(例えば、復元画像等)の表示を行う。なお、表示部127が、スピーカ等の音声出力部を備え、音声の出力を行うようにすることも可能である。
 記憶部128は、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の記憶装置を1つ以上備え、例えば、撮像装置101の処理に用いられるプログラムやデータ等を記憶する。例えば、記憶部128は、様々な被写体距離に対応付けて、上述した係数α1乃至α3,β1乃至β3,γ1乃至γ3に相当する係数セット群を記憶している。より具体的には、例えば、記憶部128は、各被写体距離における被写体面31毎に、被写体面31上に設定した各点光源に対する撮像素子121の各画素121aに対する係数を含む係数セット群を記憶している。
 記録再生部129は、記録媒体130へのデータの記録、及び、記録媒体130に記録されているデータの再生(読み出し)を行う。例えば、記録再生部129は、復元画像を記録媒体130に記録したり、記録媒体130から読み出したりする。また、例えば、記録再生部129は、検出画像及び対応するメタデータを、記録媒体130に記録したり、記録媒体130から読み出したりする。
 記録媒体130は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等のいずれか、又は、それらの組合せなどからなる。
 通信部131は、所定の通信方式により、他の機器(例えば、他の撮像装置や信号処理装置等)と通信を行う。なお、通信部131の通信方式は、有線又は無線のいずれであってもよい。また、通信部131が複数の通信方式に対応することも可能である。
 <撮像素子121の第1の構成例>
 次に、図3及び図4を参照して、図2の撮像装置101の撮像素子121の第1の構成例について説明する。
 図3は、撮像素子121の画素アレイ部の一部の正面図を示している。尚、図3においては、画素アレイ部の画素数が縦6画素×横6画素である場合の例を示しているが、画素アレイ部の画素数は、これに限るものではない。
 図3の撮像素子121では、画素121a毎に、そのフォトダイオードの受光領域(受光面)の一部を覆うように変調素子の1つである遮光膜121bが設けられており、各画素121aに入射する入射光が、入射角度に応じて光学的に変調される。そして、例えば、画素121a毎に異なる範囲に遮光膜121bを設けることにより、画素121a毎に入射光の入射角度に対する受光感度が異なるものとなり、各画素121aが異なる入射角指向性を有するようになる。
 例えば、画素121a-1と画素121a-2とでは、設けられている遮光膜121b-1と遮光膜121b-2とによりフォトダイオードの受光領域を遮光する範囲が異なる(遮光する領域(位置)、および遮光する面積の少なくともいずれかが異なる)。すなわち、画素121a-1においては、フォトダイオードの受光領域の左側の一部を所定の幅だけ遮光するように遮光膜121b-1が設けられている。一方、画素121a-2においては、受光領域の右側の一部を所定の幅だけ遮光するように遮光膜121b-2が設けられている。なお、遮光膜121b-1がフォトダイオードの受光領域を遮光する幅と、遮光膜121b-2がフォトダイオードの受光領域を遮光する幅とは、異なっていてもよいし、同じであってもよい。その他の画素121aにおいても、同様に、遮光膜121bが、画素毎に受光領域の異なる範囲を遮光するように、画素アレイ内でランダムに配置されている。
 尚、遮光膜121bが各画素の受光領域を覆い隠す割合が大きくなるほど、フォトダイオードが受光できる光量が少ない状態となる。従って、遮光膜121bの面積は、所望の光量が確保できる程度の面積とすることが望ましく、例えば、最大で受光領域の3/4程度までといった制限を加えるようにしてもよい。このようにすることで、所望量以上の光量を確保することが可能となる。ただし、各画素において、受光する光の波長に相当する幅の遮光されていない範囲が設けられていれば、最小限の光量を受光することは可能である。すなわち、例えば、B画素(青色画素)の場合、波長は500nm程度となるが、この波長に相当する幅以上に遮光されていなければ、最小限の光量を受光することは可能である。
 図4の上段は、撮像素子121の第1の構成例における側面断面図であり、図4の中段は、撮像素子121の第1の構成例における上面図である。また、図4の上段の側面断面図は、図4の中段におけるAB断面となる。さらに、図4の下段は、撮像素子121の回路構成例である。
 図4の上段の撮像素子121においては、図中の上方から下方に向けて入射光が入射する。隣接する画素121a-1,121a-2は、それぞれ図中の最下層に配線層Z12が設けられており、その上に光電変換層Z11が設けられている、いわゆる、裏面照射型である。
 尚、画素121a-1,121a-2を区別する必要がない場合、符号の末尾の数字の記載を省略し、単に、画素121aと称する。以下、明細書内において、他の構成についても、同様に符号の末尾の数字を省略する場合がある。
 また、図4においては、撮像素子121の画素アレイを構成する2画素分の側面図および上面図のみを示しており、いうまでもなく、これ以上の数の画素121aが配置されているが図示が省略されている。
 さらに、画素121a-1,121a-2は、それぞれ光電変換層Z11にフォトダイオード121e-1,121e-2を備えている。また、フォトダイオード121e-1,121e-2の上には、それぞれ上からオンチップレンズ121c-1,121c-2、およびカラーフィルタ121d-1,121d-2が積層されている。
 オンチップレンズ121c-1,121c-2は、入射光をフォトダイオード121e-1,121e-2上に集光させる。
 カラーフィルタ121d-1,121d-2は、例えば、赤色、緑色、青色、赤外および白色等の特定の波長の光を透過させる光学フィルタである。尚、白色の場合、カラーフィルタ121d-1,121d-2は、透明のフィルタでもよいし、無くてもよい。
 画素121a-1,121a-2の光電変換層Z11における、それぞれ画素間の境界には、遮光膜121g-1乃至121g-3が形成されており、例えば、図4に示されるように、入射光Lが隣接する画素に入射し、クロストークが発生するのを抑制する。
 また、図4の上段及び中段に示されるように、遮光膜121b-1,121b-2が、上面から見て受光面Sの一部を遮光している。画素121a-1,121a-2におけるフォトダイオード121e-1,121e-2の受光面Sにおいては、遮光膜121b-1,121b-2により、それぞれ異なる範囲が遮光されており、これにより異なる入射角指向性が画素毎に独立に設定される。ただし、遮光される範囲は、撮像素子121の全画素121aで異なっている必要はなく、一部で同一の範囲が遮光される画素121aが存在していてもよい。
 なお、図4の上段に示されるように、遮光膜121b-1と遮光膜121g-1とは互いに接続されており、側面から見てL字型に構成されている。同様に、遮光膜121b-2と遮光膜121g-2とは互いに接続されており、側面から見てL字型に構成されている。また、遮光膜121b-1、遮光膜121b-2、及び、遮光膜121g-1乃至121g-3は、金属により構成されており、例えば、タングステン(W)、アルミニウム(Al)、またはAlと銅(Cu)との合金により構成される。また、遮光膜121b-1、遮光膜121b-2、及び、遮光膜121g-1乃至121g-3は、半導体プロセスにおける配線が形成されるプロセスと同一のプロセスで、配線と同一の金属により同時に形成されるようにしてもよい。尚、遮光膜121b-1、遮光膜121b-2、及び、遮光膜121g-1乃至121g-3の膜厚は、位置に応じて同一の厚さにしなくてもよい。
 また、図4の下段に示されるように、画素121aは、フォトダイオード161(フォトダイオード121eに対応する)、転送トランジスタ162、FD(Floating Diffusion:フローティングディフュージョン)部163、選択トランジスタ164、増幅トランジスタ165、およびリセットトランジスタ166を備え、垂直信号線167を介して電流源168に接続されている。
 フォトダイオード161は、アノード電極が接地され、カソード電極が、転送トランジスタ162を介して増幅トランジスタ165のゲート電極に接続されている。
 転送トランジスタ162は、転送信号TGに従って駆動する。例えば、転送トランジスタ162のゲート電極に供給される転送信号TGがハイレベルになると、転送トランジスタ162はオンとなる。これにより、フォトダイオード161に蓄積されている電荷が転送トランジスタ162を介してFD部163に転送される。
 増幅トランジスタ165は、フォトダイオード161での光電変換によって得られる信号を読み出す読出し回路であるソースフォロワの入力部となり、FD部163に蓄積されている電荷に応じたレベルの画素信号を垂直信号線167に出力する。すなわち、増幅トランジスタ165は、ドレイン端子が電源VDDに接続され、ソース端子が選択トランジスタ164を介して垂直信号線167に接続されることで、垂直信号線167の一端に接続される電流源168とソースフォロワを構成する。
 FD部163は、転送トランジスタ162と増幅トランジスタ165との間に設けられる電荷容量C1を有する浮遊拡散領域であり、転送トランジスタ162を介してフォトダイオード161から転送される電荷を一時的に蓄積する。FD部163は、電荷を電圧に変換する電荷検出部であって、FD部163に蓄積されている電荷が増幅トランジスタ165において電圧に変換される。
 選択トランジスタ164は、選択信号SELに従って駆動し、ゲート電極に供給される選択信号SELがハイレベルになるとオンとなって、増幅トランジスタ165と垂直信号線167とを接続する。
 リセットトランジスタ166は、リセット信号RSTに従って駆動する。例えば、リセットトランジスタ166は、ゲート電極に供給されるリセット信号RSTがハイレベルになるとオンとなり、FD部163に蓄積されている電荷を電源VDDに排出して、FD部163をリセットする。
 例えば、図4の下段に示される画素回路は以下のように動作する。
 すなわち、第一動作として、リセットトランジスタ166および転送トランジスタ162がオンにされ、FD部163に蓄積されている電荷を電源VDDに排出して、FD部163をリセットする。
 第二動作として、リセットトランジスタ166および転送トランジスタ162がオフにされ、露光期間となり、フォトダイオード161により、入射光の光量に応じた電荷が蓄積される。
 第三動作として、リセットトランジスタ166がオンにされて、FD部163がリセットされた後、リセットトランジスタ166がオフにされる。この動作により、FD部163が基準電位に設定される。
 第四動作として、リセットされた状態のFD部163の電位が、基準電位として増幅トランジスタ165より出力される。
 第五動作として、転送トランジスタ162がオンにされて、フォトダイオード161に蓄積された電荷がFD部163に転送される。
 第六動作として、フォトダイオードの電荷が転送されたFD部163の電位が、信号電位として増幅トランジスタ165より出力される。
 そして、CDS(相関二重サンプリング)により信号電位から基準電位が減算された信号が、画素121aの検出信号(画素信号)として出力される。この検出信号の値(出力画素値)は、被写体からの入射光の入射角に応じて変調されており、入射角により特性(指向性)が異なる(入射角指向性を有する)。
 <撮像素子121の第2の構成例>
 図5は、撮像素子121の第2の構成例を示す図である。図5の上段には、第2の構成例である撮像素子121の画素121aの側面断面図が示されており、図5の中段には、撮像素子121の上面図が示されている。また、図5の上段の側面断面図は、図5の中段におけるAB断面となる。さらに、図5の下段は、撮像素子121の回路構成例である。
 図5の撮像素子121は、1つの画素121aに4つのフォトダイオード121f-1乃至121f-4が形成され、遮光膜121gがフォトダイオード121f-1乃至121f-4同士を分離する領域に形成されている点で、図4の撮像素子121と異なる構成となっている。即ち、図5の撮像素子121では、遮光膜121gは、上面から見て「+」形状に形成されている。なお、それらの共通の構成については図4と同一の符号を付しており、詳細な説明は省略する。
 図5の撮像素子121では、遮光膜121gによりフォトダイオード121f-1乃至121f-4が分離されることによって、フォトダイオード121f-1乃至121f-4間の電気的および光学的なクロストークの発生が防止される。すなわち、図5の遮光膜121gは、図4の撮像素子121の遮光膜121gと同様にクロストークを防止するためのものであって、入射角指向性を与えるためのものではない。
 また、図5の撮像素子121では、1個のFD部163が4個のフォトダイオード121f-1乃至121f-4で共有される。図5の下段は、1個のFD部163を4個のフォトダイオード121f-1乃至121f-4で共有するようにした回路構成例を示している。尚、図5の下段において、図4の下段と同一の構成については、その説明を省略する。
 図5の下段において、図4の下段の回路構成と異なる点は、フォトダイオード161(図4の上段におけるフォトダイオード121eに対応する)および転送トランジスタ162に代えて、フォトダイオード161-1乃至161-4(図5の上段におけるフォトダイオード121f-1乃至121f-4に対応する)および転送トランジスタ162-1乃至162-4を設け、FD部163を共有する構成としている点である。
 このような構成により、フォトダイオード121f-1乃至121f-4に蓄積された電荷は、フォトダイオード121f-1乃至121f-4と増幅トランジスタ165のゲート電極との接続部に設けられる所定の容量を有する共通のFD部163に転送される。そして、FD部163に保持されている電荷のレベルに応じた信号が検出信号(画素信号)として読み出される(ただし、上述したようにCDS処理が行われる)。
 このため、フォトダイオード121f-1乃至121f-4で蓄積された電荷を様々な組み合わせで選択的に画素121aの出力、すなわち検出信号に寄与させることができる。すなわち、フォトダイオード121f-1乃至121f-4毎に独立して電荷を読み出すことができる構成とし、出力に寄与するフォトダイオード121f-1乃至121f-4(フォトダイオード121f-1乃至121f-4が出力に寄与する度合い)を互いに異ならせることで、異なる入射角指向性を得ることができる。
 例えば、フォトダイオード121f-1とフォトダイオード121f-3の電荷をFD部163に転送し、それぞれを読み出して得られる信号を加算することにより、左右方向の入射角指向性を得ることができる。同様に、フォトダイオード121f-1とフォトダイオード121f-2の電荷をFD部163に転送し、それぞれを読み出して得られる信号を加算することにより、上下方向の入射角指向性を得ることができる。
 また、4つのフォトダイオード121f-1乃至121f-4より独立して選択的に読み出される電荷に基づいて得られる信号は、検出画像を構成する1画素分に相当する検出信号となる。
 なお、各フォトダイオード121f(の電荷)の検出信号への寄与は、例えば、各フォトダイオード121fの電荷(検出値)をFD部163に転送するか否かだけでなく、電子シャッタ機能を用いてFD部163への転送前にフォトダイオード121fに蓄積された電荷をリセットすること等でも実現することができる。例えば、FD部163への転送直前にフォトダイオード121fの電荷をリセットすれば、そのフォトダイオード121fは、検出信号に全く寄与しない状態となる。一方、フォトダイオード121fの電荷をリセットとFD部163への電荷の転送との間に時間を持たせることにより、そのフォトダイオード121fは、部分的に検出信号に寄与する状態となる。
 以上のように、図5の撮像素子121の場合、4つのフォトダイオード121f-1乃至121f-4のうち、検出信号に用いるものの組み合わせを変更することで、画素毎に異なる入射角指向性を持たせることができる。また、図5の撮像素子121の各画素121aから出力される検出信号は、被写体からの入射光の入射角に応じて変調された値(出力画素値)となり、入射角により特性(指向性)が異なる(入射角指向性を有する)。
 なお、以下、検出画像の1画素分に相当する検出信号を出力する単位を画素出力単位と称する。画素出力単位は、少なくとも1つ以上のフォトダイオードを備え、通常は、撮像素子121の各画素121aが、それぞれ1つの画素出力単位に相当する。
 例えば、図4の撮像素子121では、1つの画素121aにそれぞれ1つのフォトダイオード121eが設けられているため、1つの画素出力単位がそれぞれ1つのフォトダイオード121eを備えることになる。換言すれば、1つのフォトダイオード121eにより、1つの画素出力単位が構成される。
 そして、各画素121aの遮光膜121bによる遮光の状態をそれぞれ異なるものとすることで、各画素出力単位の入射角指向性を異なるものとすることができる。そして、図4の撮像素子121では、遮光膜121bを用いて各画素121aへの入射光が光学的に変調され、その結果、各画素121aのフォトダイオード121eから出力される信号により、入射角指向性を反映した検出画像の1画素分の検出信号が得られる。すなわち、図4の撮像素子121は、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光する複数の画素出力単位を備え、各画素出力単位が1つのフォトダイオード121eを備え、被写体からの入射光の入射角に対する特性(入射角指向性)が画素出力単位毎に設定されている。
 一方、図5の撮像素子121では、1つの画素121aにそれぞれ4つのフォトダイオード121f-1乃至121f-4が設けられているため、1つの画素出力単位がそれぞれ4つのフォトダイオード121eを備えることになる。換言すれば、4つのフォトダイオード121fにより、1つの画素出力単位が構成される。一方、各フォトダイオード121e単体により、個別の画素出力単位が構成されることはない。
 そして、上述したように4つのフォトダイオード121f-1乃至121f-4のうち検出信号に寄与するフォトダイオード121fを画素121a毎に異なるものとすることで、画素出力単位毎の入射角指向性が異なるものとなる。すなわち、図5の撮像素子121では、4個のフォトダイオード121f-1乃至121f-4のうち出力(検出信号)に寄与しない範囲が遮光された領域と同様に機能する。そして、フォトダイオード121f-1乃至121f-4から出力される信号の組合せにより、入射角指向性を反映した検出画像の1画素分の検出信号が得られる。すなわち、図5の撮像素子121は、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光する複数の画素出力単位を備え、各画素出力単位が複数のフォトダイオード(例えば、フォトダイオード121f-1乃至121f-4)を備え、出力に寄与するフォトダイオード(の度合い)を異ならせることで、被写体からの入射光の入射角に対する各画素出力単位の特性(入射角指向性)が互いに異なる。
 なお、図5の撮像素子121では、入射光が光学的に変調されずに全てのフォトダイオード121f-1乃至121f-4に入射されるため、検出信号は、光学的な変調により得られる信号ではない。また、以降において、検出信号に寄与しないフォトダイオード121fのことを、画素出力単位又は出力に寄与しないフォトダイオード121fとも称する。
 なお、図5には、画素出力単位(画素121a)の受光面を4等分して、各領域にそれぞれ受光面が同じ大きさのフォトダイオード121fを配置した例、すなわち、フォトダイオードを4等分した例を示しているが、フォトダイオードの分割数や分割位置は任意に設定することが可能である。
 例えば、フォトダイオードを必ずしも等分する必要はなく、画素出力単位毎にフォトダイオードの分割位置を異ならせてもよい。これにより、例えば、複数の画素出力単位間で同じ位置のフォトダイオード121fを出力に寄与させるようにしたとしても、画素出力単位間で入射角指向性が異なるようになる。また、例えば、画素出力単位間で分割数を異なるものとすることにより、より自由に入射角指向性を設定することが可能になる。さらに、例えば、画素出力単位間で分割数及び分割位置の両方を異ならせるようにしてもよい。
 また、図4の撮像素子121及び図5の撮像素子121のいずれも、各画素出力単位が入射角指向性を独立に設定可能な構成を有している。一方、上述した非特許文献1や特許文献1、2に示される撮像装置では、撮像素子の各画素出力単位が入射角指向性を独立に設定可能な構成を有していない。なお、図4の撮像素子121では、各画素出力単位の入射角指向性が、遮光膜121bにより製造時に設定される。一方、図5の撮像素子121では、各画素出力単位のフォトダイオードの分割数や分割位置は製造時に設定されるが、各画素出力単位の入射角指向性(出力に寄与させるフォトダイオードの組合せ)は使用時(例えば、撮像時)に設定することができる。なお、図4の撮像素子121及び図5の撮像素子121のいずれにおいても、必ずしも全ての画素出力単位が、入射角指向性を持たせる構成を備える必要はない。
 なお、上述したように、通常は、撮像素子の各画素が、それぞれ1つの画素出力単位に相当するが、後述するように、複数の画素により、1つの画素出力単位が構成される場合もある。以降においては、特に記載がない限り、撮像素子の各画素が、それぞれ1つの画素出力単位に相当するものとして、説明を行う。
 <入射角指向性を生じさせる原理について>
 撮像素子121の各画素の入射角指向性は、例えば、図6に示されるような原理により発生する。尚、図6の左上部および右上部は、図4の撮像素子121における入射角指向性の発生原理を説明する図であり、図6の左下部および右下部は、図5の撮像素子121における入射角指向性の発生原理を説明する図である。
 図6の左上部および右上部の画素は、いずれも1個のフォトダイオード121eを備える。これに対して、図6の左下部および右下部の画素は、いずれも2個のフォトダイオード121fを備える。尚、ここでは、1画素が2個のフォトダイオード121fを備える例を示しているが、これは説明の便宜上であり、1画素が備えるフォトダイオード121fの数は、その他の個数であってもよい。
 図6の左上部の画素においては、フォトダイオード121e-11の受光面の右半分を遮光するように遮光膜121b-11が形成されている。また、図6の右上部の画素においては、フォトダイオード121e-12の受光面の左半分を遮光するように遮光膜121b-12が形成されている。尚、図中の一点鎖線は、フォトダイオード121eの受光面の水平方向の中心を通り、受光面に対して垂直な補助線である。
 例えば、図6の左上部の画素においては、図中の一点鎖線に対して入射角θ1を成す右上方向からの入射光は、フォトダイオード121e-11の遮光膜121b-11により遮光されていない左半分の範囲により受光され易い。これに対して、図中の一点鎖線に対して入射角θ2を成す左上方向からの入射光は、フォトダイオード121e-11の遮光膜121b-11により遮光されていない左半分の範囲により受光されにくい。したがって、図6の左上部の画素は、図中の右上方からの入射光に対して受光感度が高く、左上方からの入射光に対して受光感度が低い入射角指向性を備えることになる。
 一方、例えば、図6の右上部の画素においては、入射角θ1を成す右上方向からの入射光は、フォトダイオード121e-12の遮光膜121b-12により遮光されている左半分の範囲により受光されにくい。これに対して、入射角θ2を成す左上方向からの入射光は、フォトダイオード121e-12の遮光膜121b-12により遮光されていない右半分の範囲により受光され易い。したがって、図6の右上部の画素は、図中の右上方からの入射光に対して受光感度が低く、左上方からの入射光に対して受光感度が高い入射角指向性を備えることになる。
 また、図6の左下部の画素は、図中の左右にフォトダイオード121f-11,121f-12が設けられており、いずれか一方の検出信号を読み出すようにすることで、遮光膜121bを設けることなく入射角指向性を有する構成とされている。
 すなわち、図6の左下部の画素では、図中の左側に設けられたフォトダイオード121f-11の信号のみを読み出すようにすることで、図6の左上部の画素と同様の入射角指向性を得ることができる。すなわち、図中の一点鎖線に対して入射角θ1を成す右上方向からの入射光は、フォトダイオード121f-11に入射し、受光量に対応する信号がフォトダイオード121f-11から読み出されるため、この画素から出力される検出信号に寄与する。これに対して、図中の一点鎖線に対して入射角θ2を成す左上方向からの入射光は、フォトダイオード121f-12に入射するが、フォトダイオード121f-12から読み出されないため、この画素から出力される検出信号に寄与しない。
 同様に、図6の右下部の画素のように、2個のフォトダイオード121f-13,121f-14を備える場合、図中の右側に設けられたフォトダイオード121f-14の信号のみを読み出すようにすることで、図6の右上部の画素と同様の入射角指向性を得ることができる。すなわち、入射角θ1を成す右上方向からの入射光は、フォトダイオード121f-13に入射するが、フォトダイオード121f-13から信号が読み出されないため、この画素から出力される検出信号に寄与しない。これに対して、入射角θ2を成す左上方向からの入射光は、フォトダイオード121f-14に入射し、受光量に対応する信号がフォトダイオード121f-14から読み出されるため、この画素から出力される検出信号に寄与する。
 尚、図6の上部の画素においては、画素(フォトダイオード121eの受光面)の水平方向の中心位置で遮光される範囲と遮光されない範囲が分かれる例を示したが、その他の位置で分かれるようにしてもよい。また、図6の下部の画素においては、画素の水平方向の中心位置で、2つのフォトダイオード121fが分かれる例を示したが、その他の位置で分かれるようにしてもよい。このように、遮光範囲又はフォトダイオード121fが分かれる位置を変えることにより、異なる入射角指向性を生じさせることができる。
 <オンチップレンズを含む構成における入射角指向性について>
 次に、図7を参照して、オンチップレンズ121cを含めた構成における入射角指向性について説明する。
 図7の上段のグラフは、図7の中段及び下段の画素の入射角指向性を示している。なお、横軸が入射角度θであり、縦軸が検出信号レベルを示している。なお、入射角度θは、入射光の方向が、図7の中段左側の一点鎖線と一致する場合を0度とし、図7の中段左側の入射角度θ21側を正の方向とし、図7の中段右側の入射角度θ22側を負の方向とする。したがって、オンチップレンズ121cに対して、右上方より入射する入射光については、左上方より入射する入射光よりも入射角度が大きくなる。すなわち入射角度θは、入射光の進行方向が左に傾くほど大きくなり(正の方向に大きくなり)、右に傾くほど小さくなる(負の方向に大きくなる)。
 また、図7の中段左部の画素は、図6の上段左部の画素に、入射光を集光するオンチップレンズ121c-11、及び、所定の波長の光を透過させるカラーフィルタ121d-11を追加したものである。すなわち、この画素では、オンチップレンズ121c-11、カラーフィルタ121d-11、遮光膜121b-11、フォトダイオード121e-11が、図中上方の光の入射方向から順に積層されている。
 同様に、図7の中段右部の画素、図7の下段左部の画素、及び、図7の下段右部の画素は、それぞれ、図6の上段右部の画素、図6の下段左部の画素、及び、図6の下段右部の画素に、オンチップレンズ121c-11及びカラーフィルタ121d-11、又は、オンチップレンズ121c-12及びカラーフィルタ121d-12を追加したものである。
 図7の中段左部の画素では、図7の上段の実線の波形で示されるように、入射光の入射角度θに応じてフォトダイオード121e-11の検出信号レベル(受光感度)が変化する。すなわち、図中の一点鎖線に対して入射光のなす角である入射角度θが大きいほど(入射角度θが正の方向に大きいほど(図中の右方向に傾くほど))、遮光膜121b-11が設けられていない範囲に光が集光されることで、フォトダイオード121e-11の検出信号レベルが大きくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど(図中の左方向に傾くほど))、遮光膜121b-11が設けられている範囲に光が集光されることで、フォトダイオード121e-11の検出信号レベルが小さくなる。
 また、図7の中段右部の画素では、図7の上段の点線の波形で示されるように、入射光の入射角度θに応じてフォトダイオード121e-12の検出信号レベル(受光感度)が変化する。すなわち、入射光の入射角度θが大きいほど(入射角度θが正の方向に大きいほど)、遮光膜121b-12が設けられている範囲に光が集光されることで、フォトダイオード121e-12の検出信号レベルが小さくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど)、遮光膜121b-12が設けられていない範囲に光が入射することで、フォトダイオード121e-12の検出信号レベルが大きくなる。
 この図7の上段に示される実線および点線の波形は、遮光膜121bの範囲に応じて変化させることができる。従って、遮光膜121bの範囲により、画素単位で相互に異なる入射角指向性を持たせることが可能となる。
 上述したように、入射角指向性とは、入射角度θに応じた各画素の受光感度の特性であるが、これは、図7の中段の画素では、入射角度θに応じた遮光値の特性であるとも言える。すなわち、遮光膜121bは、特定の方向の入射光は高いレベルで遮光するが、それ以外の方向からの入射光は十分に遮光できない。この遮光できるレベルの変化が、図7の上段に示されるような入射角度θに応じた異なる検出信号レベルを生じさせる。したがって、各画素において最も高いレベルで遮光可能な方向を各画素の遮光方向と定義すると、画素単位で相互に異なる入射角指向性を持つということは、換言すれば、画素単位で相互に異なる遮光方向を持つということになる。
 また、図7の下段左部の画素では、図6の下段左部の画素と同様に、図中左部のフォトダイオード121f-11のみの信号を用いるようにすることで、図7の中段左部の画素と同様の入射角指向性を得ることができる。すなわち、入射光の入射角度θが大きくなると(入射角度θが正の方向に大きくなると)、信号が読み出されるフォトダイオード121f-11の範囲に光が集光されることで、検出信号レベルが大きくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど)、信号が読み出されないフォトダイオード121f-12の範囲に光が集光されることで、検出信号レベルが小さくなる。
 また、同様に、図7の下段右部の画素では、図6の下段右部の画素と同様に、図中右部のフォトダイオード121f-14のみの信号を用いるようにすることで、図7の中段右部の画素と同様の入射角指向性を得ることができる。すなわち、入射光の入射角度θが大きくなると(入射角度θが正の方向に大きくなると)、出力(検出信号)に寄与しないフォトダイオード121f-13の範囲に光が集光されることで、画素単位の検出信号のレベルが小さくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど)、出力(検出信号)に寄与するフォトダイオード121f-14の範囲に光が集光されることで、画素単位の検出信号のレベルが大きくなる。
 なお、図7の下段の画素のように、画素内に複数のフォトダイオードを設け、出力に寄与するフォトダイオードを変更可能な画素において、各フォトダイオードに入射光の入射角に対する指向性を持たせ、画素単位での入射角指向性を生じさせるために、各画素にオンチップレンズ121cが必須構成となる。
 尚、入射角指向性については、画素単位でランダム性が高い方が望ましい。例えば、隣り合う画素間で同一の入射角指向性を持つと、上述した式(1)乃至式(3)または、後述する式(4)乃至式(6)が相互に同一の式となる恐れがあり、その結果、連立方程式の解となる未知数に対して式の数が不足し、復元画像を構成する画素値を求められなくなる恐れがあるためである。
 なお、以下の説明では、図4の画素121aのように、遮光膜121bを用いて入射角指向性を実現する画素121aを用いる場合の例を中心に説明する。ただし、遮光膜121bが必須となる場合を除いて、基本的にフォトダイオードを分割して入射角指向性を実現する画素121aを用いることも可能である。
 <遮光膜の構成について>
 以上においては、図3に示されるように、撮像素子121の各画素121aの遮光膜121bの構成として、垂直方向に対しては受光面全体を遮光し、水平方向の遮光幅や位置を変化させる例を示したが、当然のことながら、水平方向に対して受光面全体を遮光し、垂直方向の幅(高さ)や位置を変化させるようにして、各画素121aに入射角指向性を持たせるようにしてもよい。
 尚、以降においては、図3の例のように、垂直方向に対しては画素121aの受光面全体を遮光し、水平方向に対して所定の幅で受光面を遮光する遮光膜121bを、横帯タイプの遮光膜121bと称する。また、水平方向に対しては画素121aの受光面全体を遮光し、垂直方向に対して所定の高さで受光面を遮光する遮光膜121bを、縦帯タイプの遮光膜121bと称する。
 また、図8の左部に示されるように、縦帯タイプと横帯タイプの遮光膜121bを組み合わせて、例えば、ベイヤ配列のそれぞれの画素に対して、L字型のような遮光膜121bを設けるようにしてもよい。
 尚、図8においては、黒色の範囲が遮光膜121bを表しており、特に断りがない限り、以降の図面においても同様に表示する。また、図8の例では、ベイヤ配列となるG(緑色)画素の画素121a-21,121a-24、R(赤色)画素の画素121a-22、およびB(青色)画素の画素121a-23のそれぞれに対して、L字型の遮光膜121b-21乃至121b-24が設けられている。
 この場合、各画素121aは、図8の右部に示されるような入射角指向性を有することになる。すなわち、図8の右部においては、各画素121aの受光感度の分布が示されており、横軸が入射光の水平方向(x方向)の入射角度θxを表し、縦軸が入射光の垂直方向(y方向)の入射角度θyを表している。そして、範囲C4内の受光感度が、範囲C4の外よりも高く、範囲C3内の受光感度が、範囲C3の外よりも高く、範囲C2内の受光感度が、範囲C2の外よりも高く、範囲C1内の受光感度が、範囲C1の外よりも高くなる。
 従って、各画素121aにおいて、水平方向(x方向)の入射角度θxと、垂直方向(y方向)の入射角度θyとが範囲C1内となる入射光に対する検出信号レベルが最も高くなる。そして、入射角度θxと入射角度θyが範囲C2内、範囲C3内、範囲C4内、および、範囲C4以外の範囲となる入射光の順に検出信号レベルが低くなる。尚、図8の右部に示される受光感度の強度分布は、ベイヤ配列とは無関係に、各画素121aにおける遮光膜121bにより遮光される範囲により決定されるものである。
 尚、以降においては、図8のL字型の遮光膜121b-21乃至121b-24のように、縦帯タイプの遮光膜と横帯タイプの遮光膜をそれぞれの端部でつなぎ合わせた形状の遮光膜121bを、L字タイプの遮光膜121bと総称するものとする。
 <入射角指向性の設定方法>
 次に、図9を参照して、入射角指向性の設定方法の例について説明する。
 例えば、図9の上段に示されるように、遮光膜121bの水平方向の遮光範囲が、画素121aの左端部から位置Aまでの範囲とし、垂直方向の遮光範囲が、画素121aの上端部から位置Bまでの範囲である場合について考える。
 この場合、各画素の水平方向の中心位置からの入射角度θx(deg)に応じた重みであって、水平方向の入射角指向性の指標となる0乃至1の重みWxを設定する。より詳細には、位置Aに対応する入射角度θx=θaにおいて、重みWxが0.5になると仮定した場合、入射角度θx<θa-αにおいて重みWxが1となり、θa-α≦入射角度θx≦θa+αにおいて、重みWxが(-(θx-θa)/2α+0.5)となり、入射角度θx>θa+αにおいて重みWxが0となるように重みWxを設定する。
 同様に、各画素の垂直方向の中心位置からの入射角度θy(deg)に応じた重みであって、垂直方向の入射角指向性の指標となる0乃至1の重みWyを設定する。より詳細には、位置Bに対応する入射角度θy=θbにおいて、重みWyが0.5になると仮定した場合、入射角度θy<θb-αにおいて重みWyが0となり、θb-α≦入射角度θy≦θb+αにおいて、重みWyが((θy-θb)/2α+0.5)となり、入射角度θy>θb+αにおいて重みWyが1となるように重みWyを設定する。
 尚、重みWx及び重みWyが、図9のグラフのように変化するのは、理想的な条件が満たされる場合となる。
 そして、このようにして求められた重みWx,Wyを用いることにより、それぞれの画素121aの入射角指向性、すなわち、受光感度特性に対応する係数を求めることができる。例えば、被写体面31のある点光源からの入射光の入射角度θxに対応する重みWxと、入射角度θyに対応する重みWyとを乗じた値が、その点光源に対する係数に設定される。
 また、このとき、水平方向の重みWxおよび垂直方向の重みWyが0.5前後となる範囲における重みの変化を示す傾き(1/2α)は、焦点距離の異なるオンチップレンズ121cを用いることで設定することができる。
 例えば、図9の下段の実線で示されるように、オンチップレンズ121cの焦点距離が遮光膜121bの表面に合っている場合、水平方向の重みWx及び垂直方向の重みWyの傾き(1/2α)は、急峻になる。すなわち、重みWxおよび重みWyは、値が0.5付近となる水平方向の入射角度θx=θa、および、垂直方向の入射角度θy=θbの境界付近において、急激に0または1に変化する。
 また、例えば、図9の下段の点線で示されるように、オンチップレンズ121cの焦点距離がフォトダイオード121eの表面に合っている場合、水平方向の重みWx及び垂直方向の重みWyの傾き(1/2α)は、緩やかになる。すなわち、重みWxおよび重みWyは、値が0.5付近となる水平方向の入射角度θx=θa、および、垂直方向の入射角度θy=θbの境界付近において、緩やかに0または1に変化する。
 例えば、オンチップレンズ121cの焦点距離は、オンチップレンズ121cの曲率により変化する。従って、曲率の異なるオンチップレンズ121cを用いて、オンチップレンズ121cの焦点距離を変化させることで異なる入射角指向性、すなわち、異なる受光感度特性を得ることができる。
 したがって、画素121aの入射角指向性は、遮光膜121bによりフォトダイオード121eが遮光される範囲と、オンチップレンズ121cの曲率との組み合わせにより調整することができる。尚、オンチップレンズの曲率は、撮像素子121の全ての画素121aで同一にしてもよいし、一部の画素121aで異なるようにしてもよい。
 例えば、撮像素子121の各画素121aの入射角指向性を表す指標として、各画素121aの位置、各画素121aの遮光膜121bの形状、位置、範囲、オンチップレンズ121cの曲率等に基づいて、図9のグラフのような重みWx及び重みWyの特性が画素121a毎に設定される。また、所定の被写体距離の被写体面31上のある点光源と、撮像素子121のある画素121aとの位置関係に基づいて、当該点光源から当該画素121aへの光線の入射角度が求められる。そして、求めた入射角度、並びに、当該画素121aの重みWx及び重みWyの特性に基づいて、当該点光源に対する当該画素121aの係数が求められる。
 同様に、被写体面31上の各点光源と撮像素子121の各画素121aとの組み合わせについて、上述したように係数を求めることにより、上述した式(1)乃至式(3)の係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3のような、被写体面31に対する撮像素子121の係数セット群を求めることができる。
 なお、図13を参照して後述するように、被写体面31から撮像素子121の受光面までの被写体距離が異なると、被写体面31の各点光源からの光線の撮像素子121への入射角が異なるため、被写体距離毎に異なる係数セット群が必要となる。
 また、同じ被写体距離の被写体面31であっても、設定する点光源の数や配置が異なると、各点光源からの光線の撮像素子121への入射角が異なる。従って、同じ被写体距離の被写体面31に対して、複数の係数セット群が必要となる場合がある。また、各画素121aの入射角指向性は、上述した連立方程式の独立性を確保できるように設定する必要がある。
 <オンチップレンズと撮像レンズとの違い>
 本開示の撮像装置101においては、撮像素子121は、撮像レンズからなる光学ブロックやピンホールを必要としない構成であるが、上述したように、オンチップレンズ121cは設けられる。ここで、オンチップレンズ121cと撮像レンズとは、物理的作用が異なるものである。
 例えば、図10に示されるように、点光源P101から発せられた拡散光のうち撮像レンズ152に入射した光は、撮像素子151上の画素位置P111において集光する。すなわち、撮像レンズ152は、点光源P101から異なる角度で入射する拡散光を、画素位置P111に集光し、点光源P101の像を結像させるように設計されている。この画素位置P111は、点光源P101と撮像レンズ152の中心とを通る主光線L101により特定される。
 また、例えば、図11に示されるように、点光源P101とは異なる点光源P102から発せられた拡散光のうち撮像レンズ152に入射した光は、撮像素子151上の画素位置P111とは異なる画素位置P112において集光する。すなわち、撮像レンズ152は、点光源P102から異なる角度で入射する拡散光を、画素位置P112に集光し、点光源P102の像を結像させるように設計されている。この画素位置P112は、点光源P102と撮像レンズ152の中心とを通る主光線L102により特定される。
 このように、撮像レンズ152は、撮像素子151上の異なる画素位置P111,P112に、それぞれ主光線が異なる点光源P101,P102の像を結像させる。
 さらに、図12に示されるように、点光源P101が無限遠に存在する場合、点光源P101から発せられた拡散光の一部が、主光線L101に平行な平行光として撮像レンズ152に入射する。例えば、主光線L101に対して平行な光線L121と光線L122の間の光線からなる平行光が撮像レンズ152に入射する。そして、撮像レンズ152に入射した平行光は、撮像素子151上の画素位置P111に集光する。すなわち、撮像レンズ152は、無限遠に存在する点光源P101からの平行光を、画素位置P111に集光し、点光源P101の像を結像させるように設計されている。
 従って、撮像レンズ152は、例えば、主光線入射角θ1を持つ点光源からの拡散光を画素(画素出力単位)P1に入射させ、主光線入射角θ1とは異なる主光線入射角θ2を持つ点光源からの拡散光を、画素P1とは異なる画素(画素出力単位)P2に入射させる集光機能を持つ。すなわち、撮像レンズ152は、主光線の入射角が異なる光源からの拡散光を、互いに隣接する複数の画素(画素出力単位)へ入射させるための集光機能を持つ。ただし、例えば、互いに近接している点光源や、無限遠に存在しており実質的に近接している点光源からの光は、同じ画素(画素出力単位)に入射する場合がある。
 これに対して、例えば、図4,図5を参照して説明したように、オンチップレンズ121cを通る光は、対応する画素(画素出力単位)を構成するフォトダイオード121eまたはフォトダイオード121fの受光面のみに入射される。換言すれば、オンチップレンズ121cは、画素(画素出力単位)毎に設けられ、自身に入射する入射光を対応する画素(画素出力単位)のみに集光する。すなわち、オンチップレンズ121cは、異なる点光源からの光を、異なる画素(画素出力単位)へ入射させるための集光機能を持たない。
 なお、ピンホールを用いた場合、各画素(画素出力単位)の位置と光の入射角の関係が一意に定まる。したがって、ピンホールと従来の撮像素子を用いた構成の場合、各画素に対して、入射角指向性を独立して自由に設定することができない。
 <被写体面と撮像素子との距離の関係>
 次に、図13を参照して、被写体面と撮像素子121との距離の関係について説明する。
 なお、図13の左上に示されるように、撮像素子121(図1の撮像素子51と同様)と被写体面31までの被写体距離が距離d1である場合、撮像素子121上の画素Pc,Pb,Paにおける検出信号レベルDA,DB,DCが、上述した式(1)乃至式(3)と同一の式で表されるものとする。
 DA=α1×a+β1×b+γ1×c
                           ・・・(1)
 DB=α2×a+β2×b+γ2×c
                           ・・・(2)
 DC=α3×a+β3×b+γ3×c
                           ・・・(3)
 また、図13の左下に示されるように、撮像素子121との被写体距離が距離d1よりもdだけ大きな距離d2である被写体面31’、すなわち、撮像素子121から見て、被写体面31よりも奥の被写体面31’について考える場合も、撮像素子121上の画素Pc,Pb,Paにおける検出信号レベルは、図13の下段中央部に示されるように、検出信号レベルDA,DB,DCで同様になる。
 しかしながら、この場合、被写体面31’上の点光源PA’,PB’,PC’からの光強度a’,b’,c’の光線が撮像素子121の各画素において受光される。また、撮像素子121への光強度a’,b’,c’の光線の入射角度が異なる(変化する)ので、それぞれ異なる係数セット群が必要となる。従って、各画素Pa,Pb,Pcにおける検出信号レベルDA,DB,DCは、例えば、以下の式(4)乃至式(6)で表される。
 DA=α11×a’+β11×b’+γ11×c’
                           ・・・(4)
 DB=α12×a’+β12×b’+γ12×c’
                           ・・・(5)
 DC=α13×a’+β13×b’+γ13×c’
                           ・・・(6)
 ここで、係数セットα11,β11,γ11,係数セットα12,β12,γ12,係数セットα13,β13,γ13からなる係数セット群は、被写体面31に対する係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3に対応する被写体面31’に対する係数セット群である。
 従って、式(4)乃至式(6)からなる連立方程式を、予め設定された係数セット群α11,β11,γ11,α12,β12,γ12,α13,β13,γ13を用いて解くことで、被写体面31の点光源PA,PB,PCからの光線の光強度a,b,cを求める場合と同様の手法で、図13の右下に示されるように、被写体面31’の点光源PA’,PB’,PC’からの光線の光強度a’,b’,c’を求めることができる。その結果、被写体面31’の復元画像を復元することが可能となる。
 従って、図2の撮像装置101においては、撮像素子121からの被写体面までの距離(被写体距離)毎の係数セット群を予め用意しておき、被写体距離毎に係数セット群を切り替えて連立方程式を作成し、作成した連立方程式を解くことで、1個の検出画像に基づいて、様々な被写体距離の被写体面の復元画像を得ることが可能となる。例えば、検出画像を1回撮像し、記録した後、記録した検出画像を用いて、被写体面までの距離に応じて係数セット群を切り替えて、復元画像を復元することにより、任意の被写体距離の被写体面の復元画像を生成することが可能である。
 また、被写体距離や画角が特定できるような場合については、全ての画素を用いずに、特定された被写体距離や画角に対応した被写体面の撮像に適した入射角指向性を有する画素の検出信号を用いて、復元画像を生成するようにしてもよい。これにより、特定された被写体距離や画角に対応した被写体面の撮像に適した画素の検出信号を用いて復元画像を生成することができる。
 例えば、図14の上段に示されるように、4辺のそれぞれの端部から幅d1だけ遮光膜121bにより遮光されている画素121aと、図14の下段に示されるように、4辺のそれぞれの端部から幅d2(>d1)だけ遮光膜121bにより遮光されている画素121a’とを考える。
 図15は、撮像素子121の中心位置C1への被写体面31からの入射光の入射角度の例を示している。なお、図15においては、水平方向の入射光の入射角度の例を示しているが、垂直方向についてもほぼ同様となる。また、図15の右部には、図14における画素121a,121a’が示されている。
 例えば、図14の画素121aが撮像素子121の中心位置C1に配置されている場合、被写体面31から画素121aへの入射光の入射角の範囲は、図15の左部に示されるように角度A1となる。従って、画素121aは、被写体面31の水平方向の幅W1分の入射光を受光することができる。
 これに対して、図14の画素121a’が撮像素子121の中心位置C1に配置されている場合、画素121a’は画素121aよりも遮光される範囲が広いため、被写体面31から画素121a’への入射光の入射角の範囲は、図15の左部に示されるように角度A2(<A1)となる。従って、画素121a’は、被写体面31の水平方向の幅W2(<W1)分の入射光を受光することができる。
 つまり、遮光範囲が狭い画素121aは、被写体面31上の広い範囲を撮像するのに適した広画角画素であるのに対して、遮光範囲が広い画素121a’は、被写体面31上の狭い範囲を撮像するのに適した狭画角画素である。尚、ここでいう広画角画素および狭画角画素は、図14の画素121a,121a’の両者を比較する表現であって、その他の画角の画素を比較する上ではこの限りではない。
 従って、例えば、画素121aは、図14の画像I1を復元するために用いられる。画像I1は、図16の上段の被写体となる人物H101の全体を含み、被写体幅W1に対応する画角SQ1の画像である。これに対して、例えば、画素121a’は、図14の画像I2を復元するために用いられる。画像I2は、図16の上段の人物H101の顔の周辺がズームアップされた被写体幅W2に対応する画角SQ2の画像である。
 また、例えば、図16の下段に示されるように、撮像素子121の点線で囲まれた範囲ZAに、図14の画素121aを、一点鎖線で囲まれた範囲ZBに画素121a’を、それぞれ所定画素数ずつ集めて配置することが考えられる。そして、例えば、被写体幅W1に対応する画角SQ1の画像を復元するときには、範囲ZA内の各画素121aの検出信号を用いるようにすることで、適切に画角SQ1の画像を復元することができる。一方、被写体幅W2に対応する画角SQ2の画像を復元するときには、範囲ZB内の各画素121a’の検出信号を用いるようにすることで、適切に画角SQ2の画像を復元することができる。
 なお、画角SQ2は、画角SQ1よりも狭いので、画角SQ2と画角SQ1の画像を同一の画素数で復元する場合、画角SQ1の画像よりも、画角SQ2の画像を復元する方が、より高画質な復元画像を得ることができる。
 つまり、同一画素数を用いて復元画像を得ることを考えた場合、より画角の狭い画像を復元する方が、より高画質な復元画像を得ることができる。
 例えば、図17の右部は、図16の撮像素子121の範囲ZA内の構成例を示している。図17の左部は、範囲ZA内の画素121aの構成例を示している。
 図17において、黒色で示された範囲が遮光膜121bであり、各画素121aの遮光範囲は、例えば、図17の左部に示される規則に従って決定される。
 図17の左部の主遮光部Z101(図17の左部の黒色部)は、各画素121aにおいて共通に遮光される範囲である。具体的には、主遮光部Z101は、画素121aの左辺及び右辺から画素121a内に向かって、それぞれ幅dx1の範囲、並びに、画素121aの上辺及び下辺から画素121a内に向かって、それぞれ高さdy1の範囲である。そして、各画素121aにおいて、主遮光部Z101の内側の範囲Z102内に、遮光膜121bにより遮光されない矩形の開口部Z111が設けられる。従って、各画素121aにおいて、開口部Z111以外の範囲が、遮光膜121bにより遮光される。
 ここで、各画素121aの開口部Z111は規則的に配置されている。具体的には、各画素121a内における開口部Z111の水平方向の位置は、同じ垂直方向の列の画素121a内において同一になる。また、各画素121a内における開口部Z111の垂直方向の位置は、同じ水平方向の行の画素121a内において同一になる。
 一方、各画素121a内における開口部Z111の水平方向の位置は、画素121aの水平方向の位置に応じて所定の間隔でずれている。すなわち、画素121aの位置が右方向に進むに従って、開口部Z111の左辺が、画素121aの左辺からそれぞれ幅dx1、dx2、・・・、dxnだけ右方向にずれた位置に移動する。幅dx1と幅dx2の間隔、幅dx2と幅dx3の間隔、・・・、幅dxn-1と幅dxnの間隔は、それぞれ範囲Z102の水平方向の幅から開口部Z111の幅を引いた長さを水平方向の画素数n-1で割った値となる。
 また、各画素121a内における開口部Z111の垂直方向の位置は、画素121aの垂直方向の位置に応じて所定の間隔でずれている。すなわち、画素121aの位置が下方向に進むに従って、開口部Z111の上辺が、画素121aの上辺からそれぞれ高さdy1、dy2、・・・、dynだけ下方向にずれた位置に移動する。高さdy1と高さdy2の間隔、高さdy2と高さdy3の間隔、・・・、高さdyn-1と高さdynの間隔は、それぞれ範囲Z102の垂直方向の高さから開口部Z111の高さを引いた長さを垂直方向の画素数m-1で割った値となる。
 図18の右部は、図16の撮像素子121の範囲ZB内の構成例を示している。図18の左部は、範囲ZB内の画素121a’の構成例を示している。
 図18において、黒色で示された範囲が遮光膜121b’であり、各画素121a’の遮光範囲は、例えば、図18の左部に示される規則に従って決定される。
 図18の左部の主遮光部Z151(図18に左部の黒色部)は、各画素121a’において共通に遮光される範囲である。具体的には、主遮光部Z151は、画素121a’の左辺及び右辺から画素121a’内に向かって、それぞれ幅dx1’の範囲、並びに、画素121a’の上辺及び下辺から画素121a’内に向かって、それぞれ高さdy1’の範囲である。そして、各画素121a’において、主遮光部Z151の内側の範囲Z152内に、遮光膜121b’により遮光されない矩形の開口部Z161が設けられる。従って、各画素121a’において、開口部Z161以外の範囲が、遮光膜121b’により遮光される。
 ここで、各画素121a’の開口部Z161は、図17の各画素121aの開口部Z111と同様に、規則的に配置されている。具体的には、各画素121a’内における開口部Z161の水平方向の位置は、同じ垂直方向の列の画素121a’内において同一になる。また、各画素121a’内における開口部Z161の垂直方向の位置は、同じ水平方向の行の画素121a’内において同一になる。
 一方、各画素121a’内における開口部Z161の水平方向の位置は、画素121a’の水平方向の位置に応じて所定の間隔でずれている。すなわち、画素121a’の位置が右方向に進むに従って、開口部Z161の左辺が、画素121a’の左辺からそれぞれ幅dx1’、dx2’、・・・、dxn’だけ右方向にずれた位置に移動する。幅dx1’と幅dx2’の間隔、幅dx2’と幅dx3’の間隔、・・・、幅dxn-1’と幅dxn’の間隔は、それぞれ範囲Z152の水平方向の幅から開口部Z161の幅を引いた長さを水平方向の画素数n-1で割った値となる。
 また、各画素121a’内における開口部Z161の垂直方向の位置は、画素121a’の垂直方向の位置に応じて所定の間隔でずれている。すなわち、画素121a’の位置が下方向に進むに従って、開口部Z161の上辺が、画素121a’の上辺からそれぞれ高さdy1’,dy2’、・・・、dyn’だけ下方向にずれた位置に移動する。高さdy1’と高さdy2’の間隔、高さdy2’と高さdy3’の間隔、・・・、高さdyn-1’と高さdyn’の間隔は、それぞれ範囲Z152の垂直方向の高さから開口部Z161の高さを引いた長さを垂直方向の画素数m-1で割った値となる。
 ここで、図17の画素121aの範囲Z102の水平方向の幅から開口部Z111の幅を引いた長さは、図18の画素121a’の範囲Z152の水平方向の幅から開口部Z161の幅を引いた幅より大きくなる。従って、図17の幅dx1、dx2・・・dxnの変化の間隔は、図18の幅dx1’、dx2’・・・dxn’の変化の間隔より大きくなる。
 また、図17の画素121aの範囲Z102の垂直方向の高さから開口部Z111の高さを引いた長さは、図18の画素121a’の範囲Z152の垂直方向の高さから開口部Z161の高さを引いた長さより大きくなる。従って、図17の高さdy1、dy2・・・dynの変化の間隔は、図18の高さdy1’、dy2’・・・dyn’の変化の間隔より大きくなる。
 このように、図17の各画素121aの遮光膜121bの開口部Z111の水平方向および垂直方向の位置の変化の間隔と、図18の各画素121a’の遮光膜121b’の開口部Z161の水平方向および垂直方向の位置の変化の間隔とは異なる。そして、この間隔の違いが、復元画像における被写体分解能(角度分解能)の違いとなる。すなわち、図18の各画素121a’の遮光膜121b’の開口部Z161の水平方向および垂直方向の位置の変化の間隔の方が、図17の各画素121aの遮光膜121bの開口部Z111の水平方向および垂直方向の位置の変化の間隔より狭くなる。従って、図18の各画素121a’の検出信号を用いて復元される復元画像は、図17の各画素121aの検出信号を用いて復元される復元画像より、被写体分解能が高くなり、高画質となる。
 このように、主遮光部の遮光範囲と開口部の開口範囲との組み合わせを変化させることで、様々な画角の(様々な入射角指向性を持った)画素からなる撮像素子121を実現することが可能となる。
 尚、以上においては、画素121aと画素121a’を範囲ZAと範囲ZBに分けて配置する例を示したが、これは説明を簡単にするためであり、異なる画角に対応する画素121aが同じ領域内に混在して配置されることが望ましい。
 例えば、図19に示されるように、点線で示される2画素×2画素からなる4画素を1個の単位Uとして、それぞれの単位Uが、広画角の画素121a-W、中画角の画素121a-M、狭画角の画素121a-N、極狭画角の画素121a-ANの4画素から構成されるようにする。
 この場合、例えば、全画素121aの画素数がXである場合、4種類の画角ごとにX/4画素ずつの検出画像を用いて復元画像を復元することが可能となる。この際、画角毎に異なる4種類の係数セット群が使用されて、4種類の異なる連立方程式により、それぞれ異なる画角の復元画像が復元される。
 従って、復元する復元画像の画角の撮像に適した画素から得られる検出画像を用いて復元画像を復元することで、4種類の画角に応じた適切な復元画像を得ることが可能となる。
 また、4種類の画角の中間の画角や、その前後の画角の画像を、4種類の画角の画像から補間生成するようにしてもよく、様々な画角の画像をシームレスに生成することで、疑似的な光学ズームを実現するようにしてもよい。
 尚、例えば、画角の広い画像を復元画像として得る場合、広画角画素を全て用いるようにしてもよいし、広画角画素の一部を用いるようにしてもよい。また、例えば、画角の狭い画像を復元画像として得る場合、狭画角画素を全て用いるようにしてもよいし、狭画角画素の一部を用いるようにしてもよい。
 <撮像装置101による撮像処理>
 次に、図20のフローチャートを参照して、図2の撮像装置101による撮像処理について説明する。
 ステップS1において、撮像素子121は、被写体の撮像を行う。これにより、異なる入射角指向性を備える撮像素子121の各画素121aから、被写体からの入射光の光量に応じた検出信号レベルを示す検出信号が出力され、撮像素子121は、各画素121aの検出信号からなる検出画像を復元部122に供給する。
 ステップS2において、復元部122は、画像の復元に用いる係数を求める。具体的には、復元部122は、復元対象となる被写体面31までの距離、すなわち被写体距離を設定する。なお、被写体距離の設定方法には、任意の方法を採用することができる。例えば、復元部122は、入力部124を介してユーザにより入力された被写体距離、又は、検出部125により検出された被写体距離を、復元対象となる被写体面31までの距離に設定する。
 次に、復元部122は、設定した被写体距離に対応付けられている係数セット群を記憶部128から読み出す。
 ステップS3において、復元部122は、検出画像及び係数を用いて、画像の復元を行う。具体的には、復元部122は、検出画像の各画素の検出信号レベルと、ステップS2の処理で取得した係数セット群とを用いて、上述した式(1)乃至式(3)、または、式(4)乃至式(6)を参照して説明した連立方程式を作成する。次に、復元部122は、作成した連立方程式を解くことにより、設定した被写体距離に対応する被写体面31上の各点光源の光強度を算出する。そして、復元部122は、算出した光強度に応じた画素値を有する画素を被写体面31の各点光源の配置に従って並べることにより、被写体の像が結像された復元画像を生成する。
 ステップS4において、撮像装置101は、復元画像に対して各種の処理を行う。例えば、復元部122は、必要に応じて、復元画像に対して、デモザイク処理、γ補正、ホワイトバランス調整、所定の圧縮形式への変換処理等を行う。また、復元部122は、例えば、必要に応じて、復元画像を表示部127に供給し、表示させたり、記録再生部129に供給し、記録媒体130に記録させたり、通信部131を介して、他の機器に出力したりする。
 その後、撮像処理は終了する。
 尚、以上においては、撮像素子121と被写体距離に対応付けられた係数セット群を用いて、検出画像から復元画像を復元する例について説明してきたが、例えば、被写体距離に加えて、上述したように、復元画像の画角に対応する係数セット群をさらに用意して、被写体距離および画角に応じた係数セット群を用いて、復元画像を復元するようにしても良い。尚、被写体距離および画角に対する分解能は、用意される係数セット群の数によるものとなる。
 また、図20のフローチャートを用いた処理の説明においては、検出画像に含まれる全ての画素の検出信号を用いる例について説明してきたが、撮像素子121を構成する画素のうち、特定された被写体距離および画角に対応する入射角指向性を備えた画素の検出信号からなる検出画像を生成し、これを用いて復元画像を復元するようにしても良い。このような処理により、求めようとする復元画像の被写体距離や画角に適した検出画像で復元画像を復元することが可能となり、復元画像の復元精度や画質が向上する。すなわち、特定された被写体距離および画角に対応する画像が、例えば、図16における画角SQ1に対応する画像である場合、画角SQ1に対応する入射角指向性を備えた画素121aを選択し、これらから得られる検出画像で復元画像を復元することにより、画角SQ1の画像を高い精度で復元することが可能となる。
 以上の処理により、各画素に入射角指向性を持たせるようにした撮像素子121を必須構成とした撮像装置101を実現することが可能となる。
 結果として、撮像レンズ、ピンホール、及び、上述した特許文献等に記載の光学フィルタが不要となるため、装置の設計の自由度を高めることが可能になると共に、撮像素子121と別体で構成され、撮像装置として構成する段階で撮像素子121と合わせて搭載されることが想定される光学素子が不要となるため、入射光の入射方向に対する装置の小型化を実現することが可能となり、製造コストを低減することが可能となる。また、フォーカスレンズなどのような、光学像を結像させるための撮像レンズに相当するレンズが不要となる。ただし、倍率を変化させるズームレンズは設けられていてもよい。
 なお、以上においては、検出画像の撮像を行った後、すぐに所定の被写体距離に対応する復元画像を復元する処理について説明したが、例えば、すぐに復元処理を行わずに、検出画像を記録媒体130に記録したり、通信部131を介して、他の機器に出力したりした後、所望のタイミングで検出画像を用いて、復元画像を復元するようにしてもよい。この場合、復元画像の復元は、撮像装置101で行ってもよいし、他の装置で行ってもよい。この場合、例えば、任意の被写体距離や画角に応じた係数セット群を用いて作成した連立方程式を解いて復元画像を求めることで、任意の被写体距離や画角の被写体面に対する復元画像を得ることができ、リフォーカス等を実現することができる。
 例えば、撮像レンズと従来の撮像素子からなる撮像装置を用いた場合、様々な焦点距離や画角の画像を得るためには、焦点距離や画角を様々に変化させながら、撮像しておく必要がある。一方、撮像装置101においては、このように係数セット群を切り替えて任意の被写体距離や画角の復元画像を復元させることができるので、焦点距離(すなわち、被写体距離)や画角を様々に変化させながら繰り返し撮像するといった処理が不要になる。
 この場合、例えば、ユーザは、異なる被写体距離や画角に対応する係数セット群を切り替えながら、復元された復元画像をそれぞれ表示部127に表示させながら、所望の被写体距離や画角の復元画像を得ることも可能である。
 なお、検出画像を記録する場合、復元時の被写体距離や画角が決まっているとき、復元に用いるメタデータを検出画像と関連付けるようにしてもよい。例えば、検出画像を含む画像データにメタデータを付与したり、検出画像とメタデータに同じIDを付与したり、検出画像とメタデータを同じ記録媒体130に記録させたりすることにより、検出画像とメタデータが関連付けられる。
 なお、検出画像とメタデータに同じIDが付与された場合は、検出画像とメタデータを異なる記録媒体に記録したり、個別に撮像装置101から出力したりすることが可能である。
 また、メタデータには、復元に用いる係数セット群を含んでいてもよいし、含んでいなくてもよい。後者の場合、例えば、復元時の被写体距離や画角がメタデータに含まれ、復元時に、その被写体距離や画角に対応する係数セット群が記憶部128等から取得される。
 さらに、撮像時にすぐに復元画像の復元を行う場合、例えば、記録したり外部に出力したりする画像を、検出画像及び復元画像の中から選択することが可能である。例えば、両方の画像を記録又は外部に出力してもよいし、一方の画像のみを記録又は外部に出力してもよい。
 また、動画を撮像する場合も同様に、撮像時の復元画像の復元の有無や、記録又は外部に出力する画像の選択が可能である。例えば、動画の撮像を行いながら、各フレームの復元画像をすぐに復元するとともに、復元画像及び復元前の検出画像の両方又は一方を記録したり、外部に出力したりすることが可能である。この場合、撮像時に各フレームの復元画像をスルー画として表示させることも可能である。或いは、例えば、撮像時には復元処理を行わずに、各フレームの検出画像を記録したり、外部に出力したりすることが可能である。
 さらに、動画の撮像時には、例えば、復元画像の復元の有無や、記録又は外部に出力する画像の選択をフレーム毎に行うことができる。例えば、フレーム毎に復元画像の復元の有無を切り替えることが可能である。また、例えば、フレーム毎に、検出画像の記録の有無、及び、復元画像の記録の有無を個別に切り替えることが可能である。また、例えば、後で使用する可能性のある有用なフレームの検出画像にメタデータを付与しながら、全てのフレームの検出画像を記録するようにしてもよい。
 また、撮像レンズを用いる撮像装置のように、オートフォーカス機能を実現することも可能である。例えば、復元画像に基づいてコントラストAF(Auto Focus)方式と同様の山登り方式で最適な被写体距離を決定することで、オートフォーカス機能を実現することができる。
 さらに、上述した特許文献等に記載の光学フィルタと従来の撮像素子とからなる撮像装置などと比較して、画素単位で入射角指向性を持った撮像素子121により撮像される検出画像を用いて復元画像を生成することができるので、多画素化を実現したり、高解像度かつ高角度分解能の復元画像を得たりすることが可能となる。一方、光学フィルタと従来の撮像素子とからなる撮像装置では、画素を微細化しても、光学フィルタの微細化が難しいため、復元画像の高解像度化等の実現が難しい。
 また、本開示の撮像装置101は、撮像素子121が必須構成であり、例えば、上述した特許文献等に記載の光学フィルタ等を必要としないので、使用環境が高温になって、光学フィルタが熱で歪むといったことがなく、環境耐性の高い撮像装置を実現することが可能となる。
 さらに、本開示の撮像装置101においては、撮像レンズ、ピンホール、及び、上述した特許文献等に記載の光学フィルタを必要としないので、撮像する機能を備えた構成の設計の自由度を向上させることが可能となる。
 <処理負荷の低減方法>
 ところで、撮像素子121の各画素121aの遮光膜121bの遮光範囲(すなわち、入射角指向性)にランダム性を持たせている場合、遮光範囲の違いの乱雑さが大きいほど、復元部122による処理の負荷は大きなものとなる。そこで、各画素121aの遮光膜121bの遮光範囲の変化の一部を規則的なものとして、乱雑さを低減させることで、処理負荷を低減させるようにしてもよい。
 例えば、縦帯タイプと横帯タイプとを組み合わせたL字タイプの遮光膜121bを構成するようにして、所定の列方向に対しては、同一幅の横帯タイプの遮光膜121bを組み合わせ、所定の行方向に対しては、同一の高さの縦帯タイプの遮光膜121bを組み合わせる。これにより、各画素121aの遮光膜121bの遮光範囲が、列方向および行方向で規則性を持ちつつ、画素単位ではランダムに変化するようになる。その結果、各画素121aの遮光膜121bの遮光範囲の違い、すなわち入射角指向性の違いの乱雑さを低減させ、復元部122の処理負荷を低減させることができる。
 具体的には、例えば、図21の撮像素子121’’に示されるように、範囲Z130で示される同一列の画素については、いずれも同一の幅X0の横帯タイプの遮光膜121bが用いられ、範囲Z150で示される同一行の画素については、同一の高さY0の縦帯タイプの遮光膜121bが用いられる。その結果、各行と列で特定される画素121aについては、これらが組み合わされたL字タイプの遮光膜121bが用いられる。
 同様に、範囲Z130に隣接する範囲Z131で示される同一列の画素については、いずれも同一の幅X1の横帯タイプの遮光膜121bが用いられ、範囲Z150に隣接する範囲Z151で示される同一行の画素については、同一の高さY1の縦帯タイプの遮光膜121bが用いられる。その結果、各行と列で特定される画素121aについては、これらが組み合わされたL字タイプの遮光膜121bが用いられる。
 さらに、範囲Z131に隣接する範囲Z132で示される同一列の画素については、いずれも同一の幅X2の横帯タイプの遮光膜121bが用いられ、範囲Z151に隣接する範囲Z152で示される同一行の画素については、同一の高さY2の縦帯タイプの遮光膜121bが用いられる。その結果、各行と列で特定される画素121aについては、これらが組み合わされたL字タイプの遮光膜121bが用いられる。
 このようにすることで、遮光膜121bの水平方向の幅および位置、並びに、垂直方向の高さおよび位置に規則性を持たせつつ、画素単位で遮光膜の範囲を異なる値に設定することができるので、入射角指向性の変化の乱雑さを抑え込むことができる。結果として、係数セットのパターンを低減させることが可能となり、復元部122における演算処理の処理負荷を低減させることが可能となる。
 より詳細には、図22の右上部に示されるように、N画素×N画素の検出画像PicからN×N画素の復元画像を求める場合、(N×N)行×1列の復元画像の各画素の画素値を要素とするベクトルX、(N×N)行×1列の検出画像の各画素の画素値を要素とするベクトルY、および、係数セット群からなる(N×N)行×(N×N)列の行列Aにより、図22の左部に示されるような関係が成立する。
 すなわち、図22においては、係数セット群からなる(N×N)行×(N×N)列の行列Aの各要素と、復元画像を表す(N×N)行×1列のベクトルXとを乗算した結果が、検出画像を表す(N×N)行×1列のベクトルYとなることが示されている。そして、この関係から、例えば、上述した式(1)乃至式(3)または式(4)乃至式(6)に対応する連立方程式が構成される。
 尚、図22においては、行列Aの範囲Z201で示される1列目の各要素が、ベクトルXの1行目の要素に対応しており、行列Aの範囲Z202で示されるN×N列目の各要素が、ベクトルXのN×N行目の要素に対応していることを示している。
 なお、ピンホールを用いた場合、及び、撮像レンズ等の同じ方向から入射した入射光を互いに隣接する画素出力単位の双方へ入射させるための集光機能を用いた場合、各画素の位置と光の入射角度の関係が一意に定まるので、行列Aは、右下がりの対角成分が全て1となる対角行列となる。逆に、図2の撮像装置101のようにピンホールおよび撮像レンズのいずれも用いない場合、各画素の位置と光の入射角度の関係は一意に定まらないので、行列Aは対角行列にならない。
 換言すれば、図22に示される行列式に基づいた連立方程式を解いて、ベクトルXの各要素を求めることにより復元画像が求められる。
 ところで、一般的に、図22の行列式は、両辺に行列Aの逆行列A-1を左から乗じることにより、図23に示されるように変形され、検出画像のベクトルYに逆行列A-1を左から乗じることで、検出画像であるベクトルXの各要素が求められる。
 しかしながら、現実には、行列Aを正確に求められなかったり、行列Aを正確に測定できなかったり、行列Aの基底ベクトルが線形従属に近いケースで解けなかったり、および、検出画像の各要素にノイズが含まれたりする。そして、それらの理由のいずれか、または、それらの組み合わせで、連立方程式を解くことができないことがある。
 そこで、例えば、様々な誤差に対してロバストな構成を考え、正則化最小二乗法の概念を用いた次式(7)が用いられる。
Figure JPOXMLDOC01-appb-M000001
                           ・・・(7)
 ここで、式(7)のxの上部に「^」が付されたものはベクトルXを、Aは行列Aを、YはベクトルYを、γはパラメータを、||A||はL2ノルム(二乗和平方根)を表している。ここで、右辺の第一項は、図22の両辺を最小にするときのノルムであり、右辺の第二項は正則化項である。
 この式(7)をxについて解くと、以下の式(8)となる。
Figure JPOXMLDOC01-appb-M000002
                           ・・・(8)
 ここで、Aは行列Aの転置行列であり、Iは単位行列である。
 しかしながら、行列Aは、膨大なサイズであるので、計算量や必要なメモリ量が大きくなる。
 そこで、例えば、図24に示されるように、行列Aを、N行×N列の行列ALと、N行×N列の行列ARとに分解し、それぞれ復元画像を表すN行×N列の行列Xの前段と後段とから掛けた結果が、検出画像を表すN行×N列の行列Yとなるようにする。これにより、要素数(N×N)×(N×N)の行列Aに対して、要素数が(N×N)の行列AL、ARとなり、各行列の要素数が1/(N×N)になる。結果として、計算量や必要なメモリ量を低減させることができる。
 図24に示される行列式は、例えば、式(8)のカッコ内の行列を行列ALとし、行列Aの転置行列の逆行列を行列ARとすることで実現される。
 図24に示されるような計算では、図25に示されるように、行列Xにおける注目要素Xpに対して、行列ALの対応する列の各要素群Z221を乗算することで、要素群Z222が求められる。さらに、要素群Z222と行列ARの注目要素Xpに対応する行の要素とを乗算することで、注目要素Xpに対応する2次元応答Z224が求められる。そして、行列Xの全要素に対応する2次元応答Z224が積算されることで行列Yが求められる。
 そこで、例えば、行列ALの各列の要素群Z221には、図21に示される撮像素子121の列毎に同一の幅に設定される横帯タイプの画素121aの入射角指向性に対応する係数が用いられる。
 同様に、例えば、行列ARの各行の要素群Z223には、図21に示される撮像素子121の行毎に同一の高さに設定される縦帯タイプの画素121aの入射角指向性に対応する係数が用いられる。
 この結果、検出画像に基づいて、復元画像を復元する際に使用する行列を小さくすることが可能となるので、計算量が低減し、処理速度を向上させ、計算に係る電力消費を低減させることが可能となる。また、行列を小さくできるので、計算に使用するメモリの容量を低減させることが可能となり、装置コストを低減させることが可能となる。
 尚、図21には、水平方向、および垂直方向に所定の規則性を持たせつつ、画素単位で遮光範囲(受光範囲)を変化させる例が示されているが、本開示においては、このように画素単位で遮光範囲(受光範囲)が、完全にランダムに設定されてはいないものの、ある程度ランダムに設定されるものについても、ランダムに設定されるものとみなす。換言すれば、本開示においては、画素単位で遮光範囲(受光範囲)が完全にランダムに設定される場合のみならず、ある程度ランダムなもの(例えば、全画素のうち、一部については規則性を持たせた範囲を含むが、その他の範囲はランダムである場合)、または、ある程度規則性がなさそうなもの(全画素のうち、図21を参照して説明したような規則に従って配置されていることが確認できない配置の場合)についてもランダムであるものとみなす。
 <<3.第1の実施の形態>>
 次に、図26乃至図36を参照して、本開示の第1の実施の形態について説明する。
 上述したように、入射角指向性を有する画素を用いた撮像素子121においては、撮像レンズ、ピンホール、及び、上述した特許文献等に記載の光学フィルタを必要としないため、各画素121aの配置の自由度が高い。
 そこで、この第1の実施の形態では、入射角指向性を有する撮像素子を備える複数の撮像装置により被写体の撮像を行い、各撮像装置により得られる検出信号を用いて復元画像の復元を行うようにする。
 <撮像システム301の構成例>
 図26は、本開示の第1の実施の形態に係る撮像システム301の構成例を示すブロック図である。
 撮像システム301は、撮像部311及び信号処理部312を備える。
 撮像部311は、1以上のn台の撮像装置321-1乃至撮像装置321-nを備える。なお、以下、撮像装置321-1乃至撮像装置321-nを個々に区別する必要がない場合、単に撮像装置321と称する。
 各撮像装置321は、上述した入射角指向性を有する撮像素子121をそれぞれ1以上備える。各撮像装置321は、例えば、図27に示されるように、空間内に離散的に配置することが可能である。すなわち、各撮像装置321は、必ずしも空間内に整列して配置する必要はなく、間隔を空けて無造作に配置することが可能である。
 各撮像装置321は、例えば、RFID(Radio Frequency IDentifier)等の技術を用いて、信号処理部312のリーダライタ331と近距離無線通信を行い、各撮像素子121により得られる1以上の検出信号を含む検出信号セットを、リーダライタ331に送信する。また、各撮像装置321は、リーダライタ331から送信される電磁波を電力に変換し、変換した電力により駆動される。換言すれば、各撮像装置321は、リーダライタ331から送信される電磁波による起電力により駆動される。
 信号処理部312は、各撮像装置321による撮像を制御することにより、各撮像装置321から検出信号セットを取得し、取得した検出信号セットを用いて、復元画像の復元処理等を行う。信号処理部312は、リーダライタ331、及び、信号処理装置332を備える。
 リーダライタ331は、上述したように、例えば、RFID等の技術を用いて、各撮像装置321と近距離無線通信を行うとともに、各撮像装置321に電力を供給する。
 信号処理装置332は、図27に示されるように、リーダライタ331を介して各撮像装置321から受信した検出信号セットに基づいて、復元画像の復元処理等を行う。
 なお、以下では、撮像装置321の実施の形態に応じて、撮像装置321A、撮像装置321Bのように符号の末尾に異なるアルファベットを付与するが、特にそれらを区別する必要がない場合、単に撮像装置321と称する。
 <撮像装置321Aの構成例>
 図28は、図26の撮像装置321の第1の実施の形態である撮像装置321Aの構成例を示すブロック図である。なお、図中、図2の撮像装置101と対応する部分には同じ符号を付してあり、その説明は適宜省略する。
 撮像装置321Aは、撮像素子121、制御部411、関連付け部412、記憶部413、及び、通信部414を備える。また、制御部411、関連付け部412、記憶部413、及び、通信部414により、信号処理制御部401Aが構成される。なお、撮像装置321Aは、撮像レンズを含まない。
 また、撮像素子121、制御部411、関連付け部412、記憶部413、及び、通信部414は、バスB2を介して相互に接続されており、バスB2を介してデータの送受信等を行う。なお、以下、説明を簡単にするために、撮像装置321Aの各部がバスB2を介してデータの送受信等を行う場合のバスB2の記載を省略する。
 撮像素子121は、各画素121aから出力される1以上の検出信号からなる検出信号セットをバスB2に出力する。
 制御部411は、例えば、各種のプロセッサを備え、撮像装置321Aの各部を制御する。
 関連付け部412は、信号処理装置332の関連付け部504(図33)と協調して、或いは、単独で、撮像素子121により得られる検出信号セットと、検出信号セットに対応するメタデータとの関連付けを行う。
 記憶部413は、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の記憶装置を1つ以上備え、例えば、撮像装置321Aの処理に用いられるプログラムやデータ等を記憶する。記憶部413は、例えば、撮像装置321Aを一意に識別するためのIDを記憶している。
 通信部414は、リーダライタ331と近距離無線通信を行うとともに、リーダライタ331から電磁波により送信される電力を受信する。通信部414は、送受信部421及びアンテナ422を備える。
 送受信部421は、リーダライタ331に対応した近距離無線通信方式により、アンテナ422を介して、リーダライタ331とデータの送受信を行う。
 アンテナ422は、リーダライタ331のアンテナ(不図示)との間の電磁波の送受信を行う。また、アンテナ422によりリーダライタ331から受信した電磁波が電力に変換され、その電力により撮像装置321Aが駆動される。
 図29は、撮像装置321Aの外観の構成例を模式的に示している。図29の上段には、撮像装置321Aの表面の構成例が模式的に示され、下段には、撮像装置321Aの裏面の構成例が模式的に示されている。
 撮像装置321Aにおいては、中央の縦長の矩形の本体部431の左右に矩形のアンテナ422が設けられている。本体部431には、撮像素子121、制御部411、関連付け部412、記憶部413、及び、送受信部421が内蔵されている。また、本体部431の表面のほぼ中央には、撮像素子121の受光面121Aが配置されている。
 図30乃至図32は、各撮像装置321Aの撮像素子121の画素アレイ部のパターンの例を示している。なお、図30乃至図32の黒色の部分は、遮光膜121bによる遮光範囲を示している。
 図30は、各撮像装置321Aの撮像素子121が1つの画素121aを備える場合の例を示している。
 パターンPt1乃至パターンPt4においては、それぞれ白色、赤色、緑色、又は、青色の異なる色のカラーフィルタ121dが設けられるとともに、右半分が遮光されている。尚、白色の場合、カラーフィルタ121dは、透明のフィルタでもよいし、無くてもよい。従って、パターンPt1乃至パターンPt4の4つの撮像装置321Aを用いることにより、入射角指向性が同じで色(検出波長)が異なる検出信号を取得することができる。そして、例えば、各色の遮光範囲が異なる撮像装置321Aを複数用いることにより、各色について、入射角指向性の異なる複数の検出信号が取得されるようになる。
 図31は、各撮像装置321Aの撮像素子121が3つの画素121aを備える場合の例を示している。
 パターンPt11においては、各画素121aが水平方向に並べられるとともに、各画素121aに、それぞれ赤色、緑色、又は、青色の異なる色のカラーフィルタ121dが設けられている。また、各画素121aの右半分が遮光されている。従って、パターンPt11の撮像装置321Aを用いることにより、入射角指向性が同じで色(検出波長)が異なる検出信号を一度に取得することができる。そして、例えば、パターンPt11と同じ色配列であって、遮光範囲が異なる撮像装置321Aを複数用いることにより、各色について、入射角指向性の異なる複数の検出信号が取得されるようになる。
 パターンPt12においては、パターンPt11と同様に、画素121aが水平方向に並べられるとともに、各画素121aに、それぞれ赤色、緑色、又は、青色の異なる色のカラーフィルタ121dが設けられている。また、赤色の画素121a及び青色の画素121aにおいては、右半分が遮光され、緑色の画素121aにおいては、左半分が遮光されている。従って、パターンPt12の撮像装置321Aを用いることにより、入射角指向性及び色(検出波長)が異なる検出信号を一度に取得することができる。そして、例えば、パターンPt12と同じ色配列であって、遮光範囲が異なる撮像装置321Aを複数用いることにより、各色について、入射角指向性の異なる複数の検出信号が取得されるようになる。
 図32は、各撮像装置321Aの撮像素子121が4つの画素121aを備える例を示している。
 パターンPt21においては、各画素121aが水平方向に並べられるとともに、各画素121aに、それぞれ赤色、緑色、青色、又は、白色の異なる色のカラーフィルタ121dが設けられている。尚、白色の場合、カラーフィルタ121dは、透明のフィルタでもよいし、無くてもよい。また、各画素121aの右半分が遮光されている。従って、パターンPt21の撮像装置321Aを用いることにより、入射角指向性が同じで色(検出波長)が異なる検出信号を一度に取得することができる。そして、例えば、パターンPt21と同じ色配列であって、遮光範囲が異なる撮像装置321Aを複数用いることにより、各色について、入射角指向性の異なる複数の検出信号が取得されるようになる。
 パターンPt22においては、各画素121aが2行×2列に並べられるとともに、各画素121aに、それぞれ赤色、緑色、青色、又は、白色の異なる色のカラーフィルタ121dが設けられている。尚、白色の場合、カラーフィルタ121dは、透明のフィルタでもよいし、無くてもよい。また、各画素121aの右半分が遮光されている。従って、パターンPt22の撮像装置321Aを用いることにより、入射角指向性が同じで色(検出波長)が異なる検出信号を一度に取得することができる。そして、例えば、パターンPt22と同じ色配列であって、遮光範囲が異なる撮像装置321Aを複数用いることにより、各色について、入射角指向性の異なる複数の検出信号が取得されるようになる。
 パターンPt23においては、各画素121aが2行×2列に並べられるとともに、各画素121aの色配列がベイヤ配列に従っている。また、各画素121aの遮光範囲がそれぞれ異なっている。従って、パターンPt23の撮像装置321Aを用いることにより、入射角指向性及び色(検出波長)が異なる検出信号を一度に取得することができる。そして、例えば、パターンPt23と同じ色配列であって、遮光範囲が異なる撮像装置321Aを複数用いることにより、各色について、入射角指向性の異なる複数の検出信号が取得されるようになる。
 パターンPt24においては、各画素121aが2行×2列に並べられるとともに、各画素121aに同じ色(この例では、白色)のカラーフィルタ121dが設けられている。尚、白色の場合、カラーフィルタ121dは、透明のフィルタでもよいし、無くてもよい。また、各画素121aの遮光範囲がそれぞれ異なっている。従って、パターンPt23の撮像装置321Aを用いることにより、入射角指向性が異なり色(検出波長)が同じ検出信号を一度に取得することができる。
 <信号処理装置332の構成例>
 図33は、図26の信号処理装置332の構成例を示すブロック図である。信号処理装置332は、復元部501、制御部502、入力部503、関連付け部504、表示部505、記憶部506、記録再生部507、記録媒体508、及び、通信部509を備える。
 復元部501、制御部502、入力部503、表示部505、記憶部506、記録再生部507、及び、通信部509は、バスB3を介して相互に接続されており、バスB3を介してデータの送受信等を行う。なお、以下、説明を簡単にするために、信号処理装置332の各部がバスB3を介してデータの送受信等を行う場合のバスB3の記載を省略する。
 復元部501は、リーダライタ331を介して、各撮像装置321から受信した検出信号セットを用いて、図2の撮像装置101の復元部122と同様の処理により、復元画像の復元処理等を行う。復元部501は、復元画像をバスB3に出力する。
 制御部502は、例えば、各種のプロセッサを備え、信号処理装置332の各部を制御する。
 入力部503は、信号処理装置332の操作や、処理に用いるデータの入力等を行うための入力デバイス(例えば、キー、スイッチ、ボタン、ダイヤル、タッチパネル、リモートコントローラ等)を備える。入力部503は、操作信号や入力されたデータ等をバスB3に出力する。
 関連付け部504は、撮像装置321Aの関連付け部412と協調して、又は、単独で、各撮像装置321Aから取得した検出信号セットと、各検出信号セットに対応するメタデータとの関連付けを行う。
 表示部505は、例えば、ディスプレイにより構成され、各種の情報(例えば、復元画像等)の表示を行う。なお、表示部505が、スピーカ等の音声出力部を備え、音声の出力を行うようにすることも可能である。
 記憶部506は、ROM、RAM、フラッシュメモリ等の記憶装置を1つ以上備え、例えば、信号処理装置332の処理に用いられるプログラムやデータを記憶する。例えば、記憶部506は、各撮像装置321Aの位置(例えば、緯度及び経度等)、並びに、姿勢(例えば、向き及び傾き等)等を含む設置情報を記憶している。また、記憶部506は、例えば、現在の各撮像装置321Aの設置状態における各撮像装置321Aの撮像素子121に対応する係数セット群を記憶している。この係数セット群は、例えば、想定される被写体距離及び画角毎に用意される。
 記録再生部507は、記録媒体508へのデータの記録、及び、記録媒体508に記録されているデータの再生(読み出し)を行う。例えば、記録再生部507は、復元画像を記録媒体508に記録したり、記録媒体508から読み出したりする。また、例えば、記録再生部507は、検出信号セット及び対応するメタデータを、記録媒体508に記録したり、記録媒体508から読み出したりする。
 記録媒体508は、例えば、HDD、SSD、磁気ディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等のいずれか、又は、それらの組合せなどからなる。
 通信部509は、所定の通信方式により、他の機器(例えば、リーダライタ331や他の信号処理装置等)と通信を行う。なお、通信部509の通信方式は、有線又は無線のいずれであってもよい。また、通信部509が複数の通信方式に対応することも可能である。
 <撮像システム301の処理>
 次に、図34乃至図36を参照して、撮像システム301の処理について説明する。
 <信号処理部312の処理>
 まず、図34のフローチャートを参照して、信号処理部312の処理について説明する。
 ステップS101において、信号処理部312は、撮像コマンドを送信する。
 具体的には、信号処理装置332の制御部502は、撮像コマンドを生成し、生成した撮像コマンドを符号化する。制御部502は、符号化した撮像コマンドを、通信部509を介してリーダライタ331に供給する。
 リーダライタ331は、電磁波からなる搬送波の送信を開始するともに、符号化された撮像コマンドにより搬送波を変調することにより、各撮像装置321に撮像コマンドを送信する。
 各撮像装置321は、後述する図36のステップS151において、撮像コマンドを受信し、ステップS153において、撮像データを送信する。
 ステップS102において、信号処理部312は、各撮像装置321Aから撮像データを受信する。
 具体的には、リーダライタ331は、送信した電磁波の反射波からなる搬送波を変調することにより各撮像装置321から送信されてくる撮像データを受信する。
 撮像データは、例えば、図35に示されるパケットを用いて送信される。各パケットは、開始符号、ID、検出信号、及び、終了符号を含む。
 開始符号には、パケットの先頭を示す所定の符号が設定される。
 IDは、パケットに含まれる検出信号を出力した撮像装置321A及び画素121aを識別するためのIDであり、例えば、各撮像装置321Aを識別するためのIDと、撮像素子121内の各画素121aを識別するためのIDとを組み合わせたIDとなる。これにより、パケットに含まれる検出信号を出力した撮像装置321A及び画素121aが特定される。
 検出信号には、送信対象となる検出信号の値(すなわち、検出信号レベル)が設定される。
 終了符号には、パケットの末尾を示す所定の符号が設定される。
 なお、例えば、ID及び検出信号は、必要に応じて符号化される。
 例えば、1つの検出信号につき1つのパケットが生成され、各検出信号が異なるパケットにより送信される。従って、各撮像装置321Aから、少なくとも検出信号の数分のパケットが送信される。そして、1以上のパケットにより、各撮像装置321Aの撮像素子121から出力される1以上の検出信号を含む検出信号セット、及び、検出信号セットに対応するメタデータ(例えば、ID等)が送信される。
 なお、例えば、1つのパケットにIDと検出信号の組み合わせを複数含めることにより、複数の検出信号を一度に送信するようにしてもよい。この場合、例えば、1つのパケットに全ての検出信号を含めて送信するのであれば、検出信号の並び順を固定することにより、各画素121aのIDの送信を省略し、1つのパケット内に1つだけ撮像装置321AのIDを含めるようにすることも可能である。
 リーダライタ331は、各撮像装置321Aから受信した撮像データの各パケットを復調し、信号処理装置332に供給する。信号処理装置332の復元部501は、通信部509を介して、復調された各パケットを取得し、各パケットに含まれるID及び検出信号を復号する。
 また、リーダライタ331は、所定の時間が経過した後、電磁波からなる搬送波の送信を停止する。
 ステップS103において、復元部501は、画像の復元に用いる係数を求める。具体的には、復元部501は、図20のステップS2の撮像装置101の復元部122による処理と同様の処理により、被写体距離を設定する。そして、復元部122は、設定した被写体距離に対応付けられている係数セット群を記憶部506から読み出す。
 ステップS104において、復元部501は、検出信号セット及び係数を用いて、画像の復元を行う。すなわち、復元部501は、図20のステップS3の撮像装置101の復元部122による処理と同様の処理により、各撮像装置321Aから受信した撮像データに含まれる検出信号セット、及び、ステップS103の処理で求めた係数セット群を用いて、復元画像を復元する。
 ステップS105において、信号処理装置332は、復元画像に対して各種の処理を行う。例えば、復元部501は、必要に応じて、復元画像に対して、デモザイク処理、γ補正、ホワイトバランス調整、所定の圧縮形式への変換処理等を行う。また、復元部501は、例えば、必要に応じて、復元画像を表示部505に供給し、表示させたり、記録再生部507に供給し、記録媒体508に記録させたり、通信部509を介して、他の機器に出力したりする。
 その後、信号処理部312の処理は終了する。
 次に、図36のフローチャートを参照して、図34の信号処理部312の処理に対応して、各撮像装置321Aにより実行される処理について説明する。
 ステップS151において、撮像装置321Aは、撮像コマンドを受信する。具体的には、撮像装置321Aのアンテナ422は、図34のステップS101において、リーダライタ331から送信が開始される電磁波を受信し、受信した電磁波を電力に変換し、撮像装置321Aの各部に供給する。これにより、撮像装置321Aの各部が起動する。
 次に、送受信部421は、アンテナ422を介してリーダライタ331から受信した電磁波を復調し、その結果得られた符号化データを制御部411に供給する。
 制御部411は、符号化データを復号することにより、撮像コマンドを取得する。
 ステップS152において、撮像素子121は、図20のステップS1の処理と同様に、被写体の撮像を行う。撮像素子121は、各画素121aの検出信号からなる検出信号セットを関連付け部412に供給する。
 ステップS153において、撮像装置321Aは、撮像データを送信する。
 具体的には、関連付け部412は、検出信号セットに含まれる検出信号毎に、図35を参照して上述したパケットを生成する。これにより、各検出信号にIDが付与される。関連付け部412は、生成した各パケットを送受信部421に供給する。
 送受信部421は、例えば、アンテナ422を介して、リーダライタ331から受信した電磁波の反射波からなる搬送波を各パケットのデータにより変調することにより、リーダライタ331にパケット単位で撮像データを送信する。
 その後、リーダライタ331が電磁波の送信を停止することにより、リーダライタ331からの電力の供給が終了し、撮像装置321Aがオフし、処理が終了する。
 以上のように、複数の撮像装置321Aで分担して撮像を行うことにより、撮像装置321Aをさらに小型化したり、消費電力を削減したり、撮像データの送信に係るデータ通信量を削減したりすることができる。また、撮像装置321Aは、小型であり、バッテリ等の電源を必要とせず、無線通信により撮像データを送信するため、設置位置の自由度が高い。従って、撮像装置321Aの適用範囲を拡大することができる。
 例えば、撮像システム301を農業の監視システムに適用し、農地内の複数の場所に撮像装置321Aを配置し、上述した処理を行うことにより、遠隔地から天候や作物の状態を把握することが可能である。
 また、小型の撮像装置321Aを分散して配置することにより、景観を損ねずに、撮像を行うことが可能になる。例えば、撮像システム301を建物の監視システムに適用し、建物の壁等に複数の撮像装置321Aを分散して配置することにより、景観を損ねずに、建物の周辺を撮像し、遠隔地からの監視を行うことが可能である。また、この場合、撮像装置321Aの存在に気付かれにくいという効果もある。
 さらに、撮像装置321Aは、小型の機器や、機器の湾曲した部分にも設置することができるため、適用可能な機器の範囲が拡大する。例えば、各種のウエラブル端末、内視鏡カメラや眼底カメラ等の医療機器、カード型の装置等に、撮像装置321Aを適用することができる。
 <<4.第2の実施の形態>>
 次に、図37を参照して、本開示の第2の実施の形態について説明する。
 <撮像装置321Bの構成例>
 本開示の第2の実施の形態では、図26の撮像システム301において、撮像装置321の第2の実施の形態である図37の撮像装置321Bが用いられる。なお、図37において、図28の撮像装置321Aと対応する部分には同じ符号を付してあり、その説明は適宜省略する。また、図37において、電源部451から撮像装置321Bの各部に電力を供給する電源線の図示を省略している。
 撮像装置321Bは、撮像装置321Aと比較して、電源部451が設けられている点が異なる。
 電源部451は、例えば、バッテリ、又は、AC/DC電源により構成され、撮像装置321Bの各部に駆動用の電力を供給する。なお、電源部451がAC/DC電源の場合、電源部451は、外部の交流電源から供給される電力を直流に変換した後、撮像装置321Bの各部に電力を供給する。
 このように、電源部451を設けることにより、撮像装置321Bは、リーダライタ331から電力が供給されなくても、自律して撮像処理を行い、撮像データを送信することができる。
 これに対して、信号処理装置332は、各撮像装置321Bに撮像コマンドを送信することなく、各撮像装置321から送信されてくる撮像データを受信し、受信した撮像データを用いて、復元画像を復元することができる。
 <<5.第3の実施の形態>>
 次に、図38を参照して、本開示の第3の実施の形態について説明する。
 <撮像装置321Cの構成例>
 本開示の第3の実施の形態では、図26の撮像システム301において、撮像装置321の第3の実施の形態である図38の撮像装置321Cが用いられる。なお、図38において、図28の撮像装置321Aと対応する部分には同じ符号を付してあり、その説明は適宜省略する。また、図38において、電源部461から撮像装置321Cの各部に電力を供給する電源線の図示を省略している。
 撮像装置321Cは、撮像装置321Aと比較して、電源部461が設けられている点が異なる。
 電源部461は、太陽光発電により電力を生成する電源である。電源部461は、光電変換部471及び蓄電部472を備える。
 光電変換部471は、例えば、フォトダイオードを備え、受光した光を電荷に変換し、得られた電荷を蓄電部472に供給する。
 蓄電部472は、光電変換部471で変換された電荷を蓄積し、蓄積した電荷による電力を撮像装置321Cの各部に供給する。
 これにより、撮像装置321Cは、外部から電力の供給を受けたり、バッテリを交換したりしなくても、自ら発電し、その電力により動作することができる。
 なお、例えば、撮像素子121のフォトダイオードと光電変換部471のフォトダイオードを同じ半導体基板上に形成することにより、光電変換部471を撮像素子121と一体化させることが可能である。これにより、撮像装置321Cを小型化したり、製造工程を簡略化したりすることができる。
 <<6.第4の実施の形態>>
 次に、図39乃至図45を参照して、本開示の第4の実施の形態について説明する。
 撮像装置321は、上述したように小型かつ設置位置の自由度が高いため、予め決められた場所以外の任意の場所に置いて使用されることが想定される。例えば、複数の撮像装置321を無秩序にばらまいて使用することも想定される。
 一方、撮像装置321の位置及び姿勢が変化すると、復元対象となる被写体面に対する撮像素子121の受光面の傾きが変化し、被写体面の各点光源からの光線の入射角度が変化する。例えば、図39に示されるように、撮像装置321が点線の位置から実線の位置に移動すると、被写体面31の点光源Pからの光線の撮像装置321(の撮像素子121の受光面)への入射角度が変化する。
 一方、上述したように、撮像素子121の各画素121aは、入射角指向性を有している。例えば、図40は、撮像素子121のある画素121aの水平方向の入射角度θxに対する受光感度の例を示している。図40の横軸は、水平方向の入射角度θxを示し、縦軸は検出信号レベルを示している。
 例えば、被写体面31の点光源Pから入射角度が0°で光線が入射している場合に、撮像素子121の水平方向の傾きがΔθxだけ大きくなると、この図に示されるように、検出信号レベルが大きくなる。
 従って、撮像装置321の位置や姿勢が変化した場合、復元画像の復元に用いる係数を調整する必要がある。
 そこで、第4の実施の形態では、各撮像装置321の位置及び傾きを各撮像装置321で検出し、信号処理装置332が、検出結果に基づいて復元画像の復元に用いる係数を求めて、復元画像の復元を行うようにするものである。
 <撮像装置321Dの構成例>
 第4の実施の形態では、図26の撮像システム301において、撮像装置321の第4の実施の形態である図41の撮像装置321Dが用いられる。なお、図41において、図28の撮像装置321Aと対応する部分には同じ符号を付してあり、その説明は適宜省略する。
 撮像装置321Dは、撮像装置321Aと比較して、信号処理制御部401Aの代わりに、信号処理制御部401Dが設けられている点が異なる。信号処理制御部401Dは、信号処理制御部401Aと比較して、検出部611Aが追加されている点が異なる。
 検出部611Aは、位置検出部621及び傾き検出部622を備える。
 位置検出部621は、例えば、GNSS受信機等を備え、撮像装置321Dの現在位置(例えば、緯度及び経度で表される絶対位置)を検出する。位置検出部621は、検出した位置情報をバスB2に出力する。
 傾き検出部622は、例えば、加速度センサ又は傾斜センサを備え、重力の向きに対して垂直な平面に対する撮像素子121の受光面の傾きを検出する。例えば、図42に示されるように、重力の方向をZ軸とし、Z軸に垂直で東西に延びる方向をX軸とし、Z軸に垂直で南北に延びる方向をY軸とした場合、傾き検出部622は、傾きXθ及び傾きYθを検出する。傾きXθは、X-Z平面におけるY軸周りの傾きである。傾きYθは、Y-Z平面におけるX軸周りの傾きである。傾き検出部622は、検出した傾き情報をバスB2に出力する。
 <撮像システム301の処理>
 次に、図43乃至図45を参照して、撮像システム301の処理について説明する。
 <信号処理部312の処理>
 まず、図43のフローチャートを参照して、信号処理部312の処理について説明する。
 ステップS201において、図34のステップS101の処理と同様に、撮像コマンドが送信される。
 ステップS202において、図34のステップS102の処理と同様に、各撮像装置321Dから撮像データが受信される。ただし、図34のステップS102の処理と、撮像データのパケットのデータ構成が異なっている。
 図44は、第4の実施の形態で用いられる撮像データのパケットのデータ構成の例を示している。
 図44のパケットのデータ構成を、図35のパケットのデータ構成と比較すると、傾きXθ、傾きYθ、緯度、及び、経度が追加されている点が異なる。
 傾きXθ及び傾きYθには、撮像装置321Dの傾き検出部622により検出される撮像素子121の受光面の傾きXθ及び傾きYθがそれぞれ設定される。
 緯度及び経度には、撮像装置321Dの位置検出部621により検出される撮像装置321Dの現在位置の緯度及び経度がそれぞれ設定される。
 ステップS203において、復元部501は、画像の復元に用いる係数を求める。具体的には、復元部501は、図34のステップS103の処理と同様に、被写体距離を設定する。
 次に、復元部501は、各撮像装置321D毎に、設定した被写体距離の被写体面(復元対象となる被写体面)に対する撮像素子121の受光面の傾きの変化量を算出する。すなわち、復元部501は、各撮像装置321Dが所定の基準位置から現在の位置に移動することに伴う被写体面に対する撮像素子121の受光面の傾きの変化量を算出する。
 以下、撮像装置321Dが基準位置に設置されている場合に撮像素子121の受光面と被写体面とが互いに対向し、かつ、ともに重力方向に垂直な面であるものとする。また、以下、基準位置の緯度及び経度をそれぞれ基準緯度及び基準経度と称する。なお、基準位置は、例えば、各撮像装置321D毎に予め設定される。
 この場合、撮像装置321Dの緯度及び経度、並びに、傾きXθ及び傾きYθが基準位置から変化した場合、被写体面の各点光源からの撮像素子121の受光面への光線のX軸方向の入射角度θxの変化量Δθx、及び、Y軸方向の入射角度θyの変化量Δθyは、次式(9)及び式(10)で表される。
 Δθx=atan((移動後の経度-基準経度)/被写体距離)+Xθ
                           ・・・(9)
 Δθy=atan((移動後の緯度-基準緯度)/被写体距離)+Yθ
                           ・・・(10)
 すなわち、被写体面の各点光源からの撮像素子121の受光面への光線のX軸方向の入射角度θx及びY軸方向の入射角度θyが、それぞれΔθx及びΔθyだけ大きくなる。
 なお、以下、入射角度θxの変化量Δθxを入射角変化量Δθxと称し、入射角度θyの変化量Δθyを入射角変化量Δθyと称する。
 そこで、復元部501は、各撮像装置321Dの緯度、経度、傾きXθ、及び、傾きYθに基づいて、設定した被写体距離の被写体面31に対する各撮像装置321Dの入射角変化量Δθx及び入射角変化量Δθyを算出する。この入射角変化量Δθx及び入射角変化量Δθyは、各撮像装置321Dが所定の基準位置に設置されている場合を基準とする入射角度θx及び入射角度θyの変化量である。
 このとき、例えば、記憶部506は、各撮像装置321Dが基準位置に設置されている場合の各被写体距離の被写体面に対する係数セット群だけでなく、各被写体面に対する入射角変化量Δθx及び入射角変化量Δθy毎の係数セット群も記憶している。そして、復元部501は、各撮像装置321Dに対応する係数セット群として、設定した被写体距離、並びに、算出した入射角変化量Δθx及び入射角変化量Δθyに対応する係数セット群を記憶部506から読み出す。
 或いは、例えば、復元部501は、図9を参照して上述した重みWx及び重みWyの特性を用いて係数を求める場合、撮像装置321Dが基準位置に設置されている場合の被写体面の各点光源からの入射光の入射角度θx及び入射角度θyに、算出した入射角変化量Δθx及び入射角変化量Δθyをそれぞれ加算した入射角度に対する重みWx及び重みWyに基づいて、係数を求めるようにしてもよい。
 ステップS204において、図34のステップS104の処理と同様に、検出信号セット及び係数を用いて、画像の復元が行われる。
 ステップS205において、図34のステップS105の処理と同様に、復元画像に対して各種の処理が行われる。
 その後、信号処理部312の処理は終了する。
 <撮像装置321Dの処理>
 次に、図45のフローチャートを参照して、図43の信号処理部312の処理に対応して、各撮像装置321Dにより実行される処理について説明する。
 ステップS251において、図36のステップS151の処理と同様に、撮像コマンドが受信される。
 ステップS252において、図36のステップS152の処理と同様に、被写体の撮像が行われる。
 ステップS253において、検出部611Aは、位置及び姿勢を検出する。具体的には、位置検出部621は、撮像装置321Dの現在位置の緯度及び経度を検出し、検出した位置情報をバスB2に出力する。傾き検出部622は、撮像装置321Dの撮像素子121の受光面の傾きXθ及び傾きYθを検出し、検出した傾き情報をバスB2に出力する。
 ステップS254において、図36のステップS153の処理と同様に、撮像データが送信される。ただし、ステップS153の処理と異なり、撮像データが、図44のパケットを用いて送信される。
 その後、撮像装置321Dの処理は終了する。
 このように、各撮像装置321Dが、自分の位置及び姿勢を検出し、信号処理装置332に通知することにより、事前の設定処理等を行わずに、各撮像装置321Dを自由に設置したり、動かしたりして、撮像処理を行うことができる。
 <<7.第5の実施の形態>>
 次に、図46乃至図48を参照して、本開示の第5の実施の形態について説明する。
 図46の上段及び下段は、図8の右部と同様に、撮像素子121のある画素121aの入射光の入射角に対する受光感度特性を示している。図46の上段は、回転前の画素121aの受光感度特性を示し、下段は、画素121aが基準点(0,0)を中心に角度αだけ回転した後の画素121aの受光感度特性を示している。
 例えば、被写体面31の点光源Pから回転前の画素121aに対して入射角度(θx1、θy1)で入射していた入射光は、回転後の画素121aに対して入射角度(θx2、θy2)で入射するようになる。これにより、回転前と回転後で入射光に対する画素121aの受光感度が変化し、検出信号レベルが変化する。
 従って、撮像装置321(撮像素子121)の向きが変化した場合にも、係数の調整を行う必要がある。
 そこで、第5の実施の形態では、さらに各撮像装置321の向きを各撮像装置321で検出し、信号処理装置332が、検出結果に基づいて復元画像の復元に用いる係数を求めて、復元画像の復元を行うようにするものである。
 <撮像装置321Eの構成例>
 第5の実施の形態では、図26の撮像システム301において、撮像装置321の第5の実施の形態である図47の撮像装置321Eが用いられる。なお、図47において、図41の撮像装置321Dと対応する部分には同じ符号を付してあり、その説明は適宜省略する。
 撮像装置321Eは、撮像装置321Dと比較して、信号処理制御部401Dの代わりに、信号処理制御部401Eが設けられている点が異なる。信号処理制御部401Eは、信号処理制御部401Dと比較して、検出部611Aの代わりに検出部611Bが設けられている点が異なる。
 検出部611Bは、検出部611Aと比較して、地磁気検出部623が追加されている点が異なる。
 地磁気検出部623は、東西南北などの撮像装置321Eの向きを検出する。例えば、撮像装置321Eの撮像素子121の受光面に平行な所定の軸の向きが、撮像装置321Eの向きとして検出される。地磁気検出部623は、検出した向きを示す方向情報をバスB2に出力する。
 図48は、各撮像装置321Eから送信される撮像データのパケットのデータ構成の例を示している。
 図48のパケットのデータ構成を、図44のパケットのデータ構成と比較すると、方向が追加されている点が異なる。
 方向には、撮像装置321Eの地磁気検出部623により検出される撮像装置321Eの向きが設定される。
 例えば、撮像装置321Eが、基準位置に設置されている場合を基準にして、角度αだけ向きが変化した場合、復元対象となる被写体面の各点光源からの撮像素子121の受光面への光線のX軸方向の入射角度θxの変化量Δθx’、及び、Y軸方向の入射角度θyの変化量Δθy’は、上述した式(9)の入射角変化量Δθx及び式(10)の入射角変化量Δθyを用いて、次式(11)及び式(12)で表される。
 Δθx’=Δθx×cosα-Δθy×sinα
                           ・・・(11)
 Δθy’=Δθx×sinα+Δθy×cosα
                           ・・・(12)
 そして、信号処理装置332の復元部501は、式(9)の入射角変化量Δθx及び式(10)の入射角変化量Δθyの代わりに、式(11)の入射角変化量Δθx’及び式(12)の入射角変化量Δθy’を用いて、係数セット群を求め、求めた係数セット群を用いて、復元画像の復元を行う。これにより、より適切な係数を用いて復元画像の復元が行われるようになり、復元画像の復元精度や画質が向上する。
 <<8.第6の実施の形態>>
 次に、図49乃至図52を参照して、本開示の第6の実施の形態について説明する。
 <撮像装置321Fの構成例>
 本開示の第6の実施の形態では、図26の撮像システム301において、撮像装置321の第6の実施の形態である図49の撮像装置321Fが用いられる。なお、図49において、図47の撮像装置321Eと対応する部分には同じ符号を付してあり、その説明は適宜省略する。
 撮像装置321Fは、撮像装置321Eと比較して、信号処理制御部401Eの代わりに、信号処理制御部401Fが設けられている点が異なる。信号処理制御部401Fは、信号処理制御部401Eと比較して、検出部611Bの代わりに検出部611Cが設けられ、駆動部651が追加されている点が異なる。
 検出部611Cは、検出部611Bと比較して、高度検出部624が追加されている点が異なる。
 高度検出部624は、例えば、高度センサを備える。高度検出部624は、撮像装置321Fが設置されている位置の高度を検出し、検出した高度を示す高度情報をバスB2に出力する。
 駆動部651は、例えば、撮像装置321Fの位置や姿勢を移動(変化)させる駆動機構を備える。例えば、駆動部651は、撮像装置321Fを陸上移動させる車輪、空中移動させるプロペラ等を備える。或いは、例えば、駆動部651は、撮像装置321Fの向きや傾きを移動させるアクチュエータ等を備える。この駆動部651により、撮像装置321Fは、自分で位置や姿勢を変えることができる。
 <撮像システム301の処理>
 次に、図50乃至図52を参照して、撮像システム301の処理について説明する。
 <信号処理部312の処理>
 まず、図50を参照して、信号処理部312の処理について説明する。
 ステップS301において、信号処理部312は、駆動コマンドを送信する。
 具体的には、信号処理装置332の制御部502は、駆動コマンドを生成し、生成した駆動コマンドを符号化する。駆動コマンドは、例えば、駆動対象となる撮像装置321Fの位置及び姿勢のうち少なくとも1つの移動に関する移動指令、並びに、駆動対象となる撮像装置321FのIDを含む。
 なお、移動指令は、絶対的な位置及び姿勢により示されてもよいし、相対的な位置及び姿勢により示されてもよい。前者の場合、例えば、撮像装置321Fを移動させる位置又は姿勢が、絶対的な数値(例えば、緯度、経度、方角、重力方向に対する角度等)により示される。後者の場合、例えば、現在の撮像装置321Fの位置又は姿勢に対する移動方向及び移動量が示される。
 制御部502は、符号化した駆動コマンドを、通信部509を介してリーダライタ331に供給する。
 リーダライタ331は、電磁波からなる搬送波の送信を開始するともに、符号化した駆動コマンドにより搬送波を変調することにより、各撮像装置321Fに駆動コマンドを送信する。
 なお、1つの駆動コマンドに複数の撮像装置321Fに対する移動指令を含むようにしてもよいし、駆動対象となる撮像装置321F毎に個別に駆動コマンドを送信するようにしてもよい。後者の場合、例えば、複数の撮像装置321Fの位置又は姿勢を変更するとき、ステップS301において、複数の駆動コマンドが送信される。
 駆動対象となった撮像装置321Fは、後述する図52のステップS353において、駆動コマンドによる指令に従って、位置又は姿勢を変更する。
 なお、各撮像装置321Fの位置及び姿勢を変更する必要がない場合、ステップS301の処理は省略することが可能である。
 ステップS302において、図34のステップS101の処理と同様に、撮像コマンドが送信される。
 ステップS303において、図34のステップS102の処理と同様に、各撮像装置321Fから撮像データが受信される。ただし、図34のステップS102の処理と、撮像データのパケットのデータ構成が異なっている。
 図51は、第6の実施の形態で用いられる撮像データのパケットのデータ構成の例を示している。
 図51のパケットのデータ構成を、図48のパケットのデータ構成と比較すると、高度が追加されている点が異なる。
 高度には、撮像装置321Fの高度検出部624により検出される撮像装置321Fの高度が設定される。
 ステップS304において、図43のステップS203の処理と同様に、画像の復元に用いる係数が求められる。ただし、復元部501は、例えば、上述した式(9)及び式(10)の代わりに、次式(13)及び式(14)を用いて、撮像装置321Fの高度をさらに考慮して、入射角変化量Δθx及び入射角変化量Δθyを算出する。
 Δθx=atan((移動後の経度-基準経度)/(被写体距離-高度))+Xθ
                           ・・・(13)
 Δθy=atan((移動後の緯度-基準緯度)/(被写体距離-高度))+Yθ
                           ・・・(14)
 さらに、復元部501は、上述した式(11)及び式(12)を用いて、入射角変化量Δθx’及び入射角変化量Δθy’を算出する。そして、復元部501は、設定した被写体距離、並びに、入射角変化量Δθx’及び入射角変化量Δθy’に対応する係数セット群を記憶部506から読み出す。
 ステップS305において、図34のステップS104の処理と同様に、検出信号セット及び係数を用いて、画像の復元が行われる。
 ステップS306において、図34のステップS105の処理と同様に、復元画像に対して各種の処理が行われる。
 その後、信号処理部312の処理は終了する。
 <撮像装置321Fの処理>
 次に、図52のフローチャートを参照して、図50の信号処理部312の処理に対応して、各撮像装置321Fにより実行される処理について説明する。
 ステップS351において、撮像装置321Fは、駆動コマンドを受信する。具体的には、撮像装置321Fのアンテナ422は、図50のステップS301において、リーダライタ331から送信が開始される電磁波を受信し、受信した電磁波を電力に変換し、撮像装置321Fの各部に供給する。これにより、撮像装置321Fの各部が起動する。
 次に、送受信部421は、アンテナ422を介してリーダライタ331から受信した電磁波を復調し、その結果得られた符号化データを制御部411に供給する。
 制御部411は、符号化データを復号することにより、駆動コマンドを取得する。
 ステップS352において、制御部411は、位置又は姿勢の変更が指示されたか否かを判定する。例えば、制御部411は、駆動コマンドに含まれる駆動対象となる撮像装置のIDが自分のIDと一致する場合、位置又は姿勢の変更が指示されたと判定し、処理はステップS353に進む。
 ステップS353において、撮像装置321Fは、位置又は姿勢の変更を行う。具体的には、制御部411は、駆動部651を制御して、駆動コマンドに含まれる移動指令に従って、撮像装置321Fの位置又は姿勢を移動させる。
 その後、処理はステップS354に進む。
 一方、ステップS352において、例えば、制御部411は、駆動コマンドに含まれる駆動対象となる撮像装置のIDが自分のIDと一致しない場合、位置又は姿勢の変更が指示されていないと判定し、ステップS353の処理はスキップされ、処理はステップS354に進む。
 ステップS354において、図36のステップS151の処理と同様に、撮像コマンドが受信される。
 ステップS355において、図36のステップS152の処理と同様に、被写体の撮像が行われる。
 ステップS356において、検出部611Cは、位置及び姿勢を検出する。具体的には、位置検出部621は、撮像装置321Fの現在位置の緯度及び経度を検出し、検出した位置情報をバスB2に出力する。傾き検出部622は、撮像装置321Fの撮像素子121の受光面の傾きXθ及び傾きYθを検出し、検出した傾き情報をバスB2に出力する。地磁気検出部623は、撮像装置321Fの向きを検出し、検出した方向情報をバスB2に出力する。高度検出部624は、撮像装置321Fの高度を検出し、検出した高度情報をバスB2に出力する。
 ステップS357において、図36のステップS153の処理と同様に、撮像データが送信される。ただし、ステップS153の処理と異なり、撮像データが、図51のパケットを用いて送信される。
 その後、撮像装置321Fの処理は終了する。
 以上のようにして、遠隔操作により各撮像装置321Fの位置や姿勢を移動させながら、所望の被写体を撮像することが可能になる。
 また、撮像装置321Fの高度をさらに考慮して、係数を求めるため、より適切な係数を用いて復元画像の復元が行われるようになり、復元画像の復元精度や画質が向上する。
 なお、以上の説明では、駆動コマンドと撮像コマンドが連続して送信される例を示したが、駆動コマンドと撮像コマンドが異なるタイミングで送信されてもよい。すなわち、各撮像装置321Fの位置又は姿勢の移動と、撮像処理とが異なるタイミングで行われてもよい。
 また、例えば、各撮像装置321Fが、信号処理部312からの指示によらずに、自律的に位置又は姿勢を変更できるようにしてもよい。この場合、各撮像装置321Fは、リーダライタ331から電力の供給を受けずに動作できるようにする必要がある。
 そこで、例えば、各撮像装置321Fに図37の電源部451又は図38の電源部461を設けるようにしてもよい。或いは、例えば、各撮像装置321Fに外付けの直流電源を装着したり、外部から電源線を介して電力を供給したりするようにしてもよい。
 <<9.第7の実施の形態>>
 次に、図53を参照して、本開示の第7の実施の形態について説明する。
 <撮像装置321Gの構成例>
 この第7の実施の形態では、図26の撮像システム301の撮像装置321として、撮像装置321の第7の実施の形態である図53の撮像装置321Gが用いられる。
 上述したように、撮像装置321は、無秩序にばらまいて使用することも想定される。しかし、撮像装置321をばらまいた場合、必ずしも撮像素子121の受光面121Aが表を向くとは限らない。例えば、撮像素子121の受光面121Aが地面の方向を向いてしまうと、その撮像装置321からは有効な検出信号セットを得ることができなくなる。
 そこで、例えば、撮像素子121の受光面121Aが必ず表を向くように、撮像装置321の裏面に重りをつける等の対策が考えられる。しかし、撮像装置321に重りをつけても、必ず撮像素子121の受光面121Aが表を向くとは限らないし、また、撮像装置321のサイズや重量が大きくなってしまう。
 これに対して、撮像装置321Gでは、表面の撮像素子121の受光面121Aに加えて、裏面(表面と反対の面)に撮像素子121と同様の構成を有する撮像素子701(不図示)の受光面701Aが設けられている。これにより、撮像装置321Fは、表面及び裏面のどちらが表を向いたとしても、被写体を撮像し、有効な検出信号セットを得ることができる。
 なお、撮像装置321Gは、撮像素子121と撮像素子701のいずれが有効であるかを判定し、有効と判定した方の撮像素子の検出信号セットのみを含む撮像データを送信するようにしてもよい。例えば、撮像装置321Gは、2つの撮像素子の検出信号セットのうち検出信号レベルの平均値が大きい方の撮像素子を有効であると判定し、有効と判定した撮像素子の検出信号セットのみを含む撮像データを送信するようにしてもよい。
 或いは、撮像装置321Gは、常に両方の撮像素子の検出信号セットを含む撮像データを送信し、信号処理装置332が、どちらの検出信号セットが有効であるかを判定するようにしてもよい。
 また、撮像素子121と撮像素子701を1つの撮像素子により構成するようにしてもよい。この場合、例えば、撮像素子は、180°に折り曲げられた構成を有し、一方の面の画素アレイ部と他方の面の画素アレイ部が、独立して動作することが可能とされる。
 さらに、撮像装置321Fを正四面体や正六面体等の方向が異なる3面以上の面を有する多面体により構成し、各面に撮像素子の受光面を設けるようにしてもよい。
 <<10.変形例>>
 以下、上述した本開示の実施の形態の変形例について説明する。
 <撮像装置及び撮像素子に関する変形例>
 上述した撮像装置321A乃至撮像装置321Fの特徴は、可能な範囲で組み合わせることが可能である。
 例えば、図47の撮像装置321Eに、図49の撮像装置321Fの高度検出部624を追加することが可能である。或いは、例えば、図41の撮像装置321D、図47の撮像装置321E、又は、図49の撮像装置321Fに、図37の撮像装置321Bの電源部451、又は、図38の撮像装置321Cの電源部461を設けることが可能である。
 また、例えば、リーダライタ331から供給される電力、或いは、太陽光発電による電力により撮像装置321が駆動される場合、十分な電力が得られない場合が想定される。これに対して、十分な電力が得られない場合、一部の画素121aを無効にするようにしてもよい。
 例えば、図54の上段及び下段は、撮像素子121の画素アレイ部のパターンの例を示している。この例では、赤色のカラーフィルタが設けられたR画素、緑色のカラーフィルタが設けられたG画素、青色のカラーフィルタが設けられたB画素、及び、白色のカラーフィルタが設けられたW画素の1行×4列の画素ブロックを1単位とし、その画素ブロックが3行×2列に並べられている。また、各画素121aの黒色の部分は、遮光膜121bを示している。なお、この例では、全ての画素121aの遮光膜121bの遮光範囲が同じ範囲に設定されているが、必ずしも同じ範囲に設定する必要はない。
 例えば、電力の供給が十分な場合、上段に示されるように、全ての画素121aが有効とされる。すなわち、全ての画素121aの検出信号が読み出され、外部に送信される。
 一方、電力の供給が不十分な場合、上段に示されるように、一部の画素121aが無効とされる。この例では、太線の枠で囲まれた5つの画素ブロック内の画素121aが無効とされている。
 ここで、画素121aを無効にするとは、例えば、その画素121aの検出信号の読み出しを停止することである。例えば、無効な画素121aの検出信号のAD変換を停止することにより、検出信号の読み出しが停止される。
 なお、無効な画素121aの検出信号を、外部に送信するようにしてもよいし、外部に送信しないようにしてもよい。外部に送信する場合には、例えば、所定のダミーの値の信号が、無効な画素121aの検出信号として送信される。
 これにより、電力の供給が不足している場合でも、検出信号の一部を信号処理装置332に供給することができ、画像の復元を継続することが可能になる。
 なお、電力の不足量に応じて、無効にする画素121aの数を変更するようにしてもよい。
 また、例えば、各画素121aの遮光膜121bの形状には、上述した横帯タイプ、縦帯タイプ、L字タイプ、矩形の開口部を設けたタイプ以外の形状を採用することが可能である。
 さらに、例えば、図5を参照して上述した撮像素子121では、1つの画素121a内に2行×2列の4つのフォトダイオード121fを設ける例を示したが、フォトダイオード121fの数や配置は、この例に限定されるものではない。
 例えば、図55に示されるように、1つの画素121aにおいて、1個のオンチップレンズ121cに対して、例えば、3行×3列に並べられた9個のフォトダイオード121f-111乃至121f-119を設けるようにしてもよい。すなわち、1つの画素出力単位が、9個のフォトダイオード121fを備えるようにしてもよい。
 そして、例えば、フォトダイオード121f-111,121f-114,121f-117乃至121f-119の5画素の信号を読み出さないようにすることで、実質的に、フォトダイオード121f-111,121f-114,121f-117乃至121f-119の範囲に遮光膜121bが設定されたL字タイプの遮光膜121bを備える画素121aと同様の入射角特性を得ることができる。
 このようにして、遮光膜121bを設けることなく、遮光膜121bを設けた場合と同様の入射角特性を得ることができる。また、信号を読み出さないフォトダイオード121fのパターンを切り替えることにより、遮光膜121bにより遮光される位置と範囲を変えた場合と同様に、入射角指向性を変化させることができる。
 また、以上の説明では、1つの画素121aにより1つの画素出力単位が構成される例を示したが、複数の画素121aにより1つの画素出力単位を構成することも可能である。
 例えば、図56に示されるように、3行×3列に並べられた画素121a-111乃至画素121a-119により1つの画素出力単位801bを構成することが可能である。なお、画素121a-111乃至画素121a-119は、例えば、それぞれ1つのフォトダイオードを備え、オンチップレンズを備えていない。
 例えば、各画素121aからの画素信号を加算することにより、検出画像の1画素分の検出信号を生成するともに、一部の画素121aからの画素信号の出力を停止したり、加算しないようにすることにより、画素出力単位801bの入射角指向性を実現することができる。例えば、画素121a-112、画素121a-113、画素121a-115、及び、画素121a-116の画素信号を加算して検出信号を生成することにより、画素121a-111、画素121a-114、及び、画素121a-117乃至画素121a-119の範囲にL字タイプの遮光膜121bを設けた場合と同様の入射角指向性を得ることができる。
 また、画素信号を検出信号に加算する画素121aのパターンを切り替えることにより、遮光膜121bにより遮光される位置と範囲を変えた場合と同様に、入射角指向性を異なる値に設定することができる。
 また、この場合、例えば、画素121aの組合せを変更することにより、画素出力単位の範囲を変更することが可能である。例えば、画素121a-111、画素121a-112、画素121a-114、及び、画素121a-115からなる2行×2列の画素121aにより画素出力単位801sを構成することができる。
 さらに、例えば、全ての画素121aの画素信号を記録しておき、画素121aの組合せを後で設定することにより、画素出力単位の範囲を後で設定することが可能である。さらに、設定した画素出力単位内の画素121aのうち、画素信号を検出信号に加算する画素121aを選択することにより、画素出力単位の入射角指向性を後で設定することが可能である。
 また、図4では、変調素子として遮光膜121bを用いたり、出力に寄与するフォトダイオードの組合せを変更したりすることにより画素毎に異なる入射角指向性を持たせる例を示したが、本開示では、例えば、図57に示されるように、撮像素子901の受光面を覆う光学フィルタ902を変調素子として用いて、各画素に入射角指向性を持たせるようにすることも可能である。
 具体的には、光学フィルタ902は、撮像素子901の受光面901Aから所定の間隔を空けて、受光面901Aの全面を覆うように配置されている。被写体面31からの光は、光学フィルタ902で変調されてから、撮像素子901の受光面901Aに入射する。
 例えば、光学フィルタ902には、図58に示される白黒の格子状のパターンを有する光学フィルタ902BWを用いることが可能である。光学フィルタ902BWには、光を透過する白パターン部と光を遮光する黒パターン部がランダムに配置されている。各パターンのサイズは、撮像素子901の画素のサイズとは独立して設定されている。
 図59は、光学フィルタ902BWを用いた場合の被写体面31上の点光源PA及び点光源PBからの光に対する撮像素子901の受光感度特性を示している。点光源PA及び点光源PBからの光は、それぞれ光学フィルタ902BWで変調されてから、撮像素子901の受光面901Aに入射する。
 例えば、点光源PAからの光に対する撮像素子901の受光感度特性は、波形Saのようになる。すなわち、光学フィルタ902BWの黒パターン部により影が生じるため、点光源PAからの光に対する受光面901A上の像に濃淡のパターンが生じる。同様に、点光源PBからの光に対する撮像素子901の受光感度特性は、波形Sbのようになる。すなわち、光学フィルタ902BWの黒パターン部により影が生じるため、点光源PBからの光に対する受光面901A上の像に濃淡のパターンが生じる。
 なお、点光源PAからの光と点光源PBからの光とは、光学フィルタ902BWの各白パターン部に対する入射角度が異なるため、受光面に対する濃淡のパターンの現れ方にズレが生じる。従って、撮像素子901の各画素は、被写体面31の各点光源に対して入射角指向性を持つようになる。
 この方式の詳細は、例えば、上述した非特許文献1に開示されている。
 なお、光学フィルタ902BWの黒パターン部の代わりに、図60の光学フィルタ902HWを用いるようにしてもよい。光学フィルタ902HWは、偏光方向が等しい直線偏光素子911Aと直線偏光素子911B、及び、1/2波長板912を備え、1/2波長板912は、直線偏光素子911Aと直線偏光素子911Bの間に挟まれている。1/2波長板912には、光学フィルタ902BWの黒パターン部の代わりに、斜線で示される偏光部が設けられ、白パターン部と偏光部がランダムに配置されている。
 直線偏光素子911Aは、点光源PAから出射されたほぼ無偏光の光のうち、所定の偏光方向の光のみを透過する。以下、直線偏光素子911Aが、偏光方向が図面に平行な光のみを透過するものとする。直線偏光素子911Aを透過した偏光光のうち、1/2波長板912の偏光部を透過した偏光光は、偏光面が回転されることにより、偏光方向が図面に垂直な方向に変化する。一方、直線偏光素子911Aを透過した偏光光のうち、1/2波長板912の白パターン部を透過した偏光光は、偏光方向が図面に平行な方向のまま変化しない。そして、直線偏光素子911Bは、白パターン部を透過した偏光光を透過し、偏光部を透過した偏光光をほとんど透過しない。従って、偏光部を透過した偏光光は、白パターン部を透過した偏光光より光量が減少する。これにより、光学フィルタBWを用いた場合とほぼ同様の濃淡のパターンが、撮像素子901の受光面901A上に生じる。
 また、図61のAに示されるように、光干渉マスクを光学フィルタ902LFとして用いることが可能である。被写体面31の点光源PA,PBから出射された光は、光学フィルタ902LFを介して撮像素子901の受光面901Aに照射される。図61のAの下方の拡大図に示されるように、光学フィルタ902LFの例えば光入射面には、波長程度の凹凸が設けられている。また、光学フィルタ902LFは、鉛直方向から照射された特定波長の光の透過が最大となる。被写体面31の点光源PA,PBから出射された特定波長の光の光学フィルタ902LFに対する入射角の変化(鉛直方向に対する傾き)が大きくなると光路長が変化する。ここで、光路長が半波長の奇数倍であるときは光が弱めあい、半波長の偶数倍であるときは光が強めあう。すなわち、点光源PA,PBから出射されて光学フィルタ902LFを透過した特定波長の透過光の強度は、図61のBに示すように、光学フィルタ902LFに対する入射角に応じて変調されて撮像素子901の受光面901Aに入射する。したがって、撮像素子901の各画素出力単位から出力される検出信号は、画素出力単位毎に各点光源の変調後の光強度を合成した信号となる。
 この方式の詳細は、例えば、上述した特許文献1に開示されている。
 なお、特許文献1及び非特許文献1の方式では、上述した図4の画素121a又は図5の画素121aを用いた撮像素子121のように、隣接する画素に影響することなく画素121a単位で入射角指向性を独立して設定することができない。従って、例えば、光学フィルタ902BWのパターン、又は、光学フィルタ902LFの回折格子のパターンが異なると、撮像素子901の少なくとも隣接する複数の画素の入射角指向性が共に異なるものとされることになる。また、近い位置にある画素121a間で、互いに近い入射角指向性を有することになる。
 また、本開示は、赤外光等の可視光以外の波長の光の撮像を行う撮像装置や撮像素子にも適用することが可能である。この場合、復元画像は、ユーザが目視して被写体を認識できる画像とはならず、ユーザが被写体を視認できない画像となる。なお、通常の撮像レンズは遠赤外光を透過することが困難であるため、本技術は、例えば、遠赤外光の撮像を行う場合に有効である。したがって、復元画像は遠赤外光の画像であっても良く、また、遠赤外光に限らず、その他の可視光や非可視光の画像であっても良い。
 <信号処理部に関する変形例>
 例えば、信号処理装置332の関連付け部504が、各撮像装置321から取得した検出信号セットと、各検出信号セットに対応するメタデータとの関連付けを行うようにしてもよい。この場合、例えば、図28、図37、図38、図41、図47、及び、図49の関連付け部412を設けないようにすることも可能である。
 また、メタデータには、例えば、復元時の係数セット群を含んでいてもよいし、含んでいなくてもよい。後者の場合、例えば、メタデータに復元時の被写体距離、画角、各撮像装置321の撮像時の位置や姿勢を示すデータ(例えば、緯度、経度、傾きXθ、傾きYθ、向き、高度等)が含まれる。
 なお、検出信号セットとメタデータを関連付ける方法は、検出信号セットとメタデータとの対応関係を特定することができれば、特に限定されない。例えば、検出信号セットを含むデータにメタデータを付与したり、検出信号セットとメタデータに同じIDを付与したり、検出信号セットとメタデータを同じ記録媒体508に記録させたりすることにより、検出信号セットとメタデータが関連付けられる。また、各検出信号セットに個別にメタデータを関連付けてもよいし、検出信号セットを1つにまとめたデータにメタデータを関連付けてもよい。
 さらに、復元画像の復元に、必ずしも全ての撮像装置321の検出信号セットを用いる必要はなく、例えば、復元部501が、一部の撮像装置321の検出信号セットを用いて、復元画像を復元するようにしてもよい。
 例えば、撮像装置321毎に異なる被写体距離や画角の被写体面の撮像に適した撮像素子121を設けるようにしてもよい。そして、例えば、被写体距離や画角が特定できるような場合、復元部501が、全ての撮像装置321の検出信号セットを用いずに、特定された被写体距離や画角の撮像に適した撮像装置321の検出信号セットのみを用いて、復元画像を復元するようにしてもよい。この場合、必ずしも全ての撮像装置321において、適切な被写体距離や画角を異ならせる必要はなく、一部の撮像装置321で同じであってもよい。
 また、例えば、復元部501が、簡易的に復元した復元画像(以下、簡易復元画像と称する)に基づいて、復元画像の復元に用いる検出信号セットを選択するようにしてもよい。
 具体的には、まず、復元部501は、全ての撮像装置321の検出信号セットを用いて、復元画像を簡易的に復元する。例えば、復元部501は、各検出信号セットに含まれる各画素121aの検出信号のうち、所定の画素121aの検出信号を間引き、少ない画素数で簡易的に復元処理を行う。或いは、復元部501は、例えば、演算量(例えば、反復演算の回数等)を制限することにより、簡易的に復元処理を行う。
 次に、復元部501は、例えば、簡易復元画像に基づいて、主被写体を設定する。主被写体の設定方法は任意である。例えば、復元部501は、簡易復元画像内で最も大きな被写体、又は、簡易復元画像内の所定の種類の被写体(例えば、人等)を主被写体に設定する。或いは、例えば、ユーザが、簡易復元画像を視認し、簡易復元画像内の所望の被写体を主被写体に設定するようにしてもよい。
 次に、復元部501は、復元画像の復元に用いる検出信号セットを選択する。
 具体的には、各撮像装置321の各画素121aの現実世界における撮像範囲は、例えば、各撮像装置321の位置及び姿勢、並びに、各画素121aの遮光範囲に基づいて推定することが可能である。また、主被写体の現実世界における位置は、例えば、簡易復元画像内の主被写体の位置等に基づいて推定することが可能である。そこで、復元部501は、各画素121aの現実世界における撮像範囲、及び、主被写体の現実世界における位置に基づいて、全ての撮像装置321の検出信号セットの中から、主被写体を含む(主被写体が写っている)検出信号セットを抽出し、復元画像の復元に用いる検出信号セットに選択する。
 或いは、例えば、復元部501は、マスタとなる撮像素子121(以下、マスタセンサと称する)を選択する。例えば、復元部501は、各画素121aの現実世界における撮像範囲、及び、主被写体の現実世界における位置に基づいて、各撮像装置321の撮像素子121の撮像範以内における主被写体のサイズ及び位置を推定する。そして、復元部501は、主被写体のサイズ及び位置が最も適切な撮像素子121をマスタセンサに選択する。
 なお、主被写体の適切なサイズや位置は、主被写体の種類や、撮像するシーン等により異なる。
 次に、復元部501は、例えば、マスタセンサを除く撮像素子121の中から、撮像範囲がマスタセンサの撮像範囲と重なる領域の割合が所定の閾値以上となる撮像素子121を抽出する。復元部501は、マスタセンサの検出信号セット、及び、抽出した撮像素子121の検出信号セットを、復元画像の復元に用いる検出信号セットに選択する。
 そして、復元部501は、選択した検出信号セットを用いて、復元画像の復元処理を行う。例えば、復元部501は、選択した検出信号セットを取得した各撮像装置321の各画素121aに対応する係数セットを用いて、上述した連立方程式を作成し、解くことにより、復元画像を復元する。
 これにより、復元画像における主被写体の画質(例えば、解像度等)を良好に保ちつつ、復元処理の負荷を軽減することができる。
 なお、選択した撮像装置321の画素121aの中から、さらに復元画像の復元に用いる画素121aを選択するようにしてもよい。例えば、復元部501が、選択した検出信号セットの中から、撮像範囲が主被写体と重なる画素121aの検出信号を選択し、選択した検出信号を用いて、復元画像を復元するようにしてもよい。
 また、以上の説明では、式(9)乃至式(14)の計算に用いる座標系(以下、基準座標系と称する)が、所定の基準位置(基準緯度、基準経度)に基づいて設定される例を示したが、基準位置は可変でもよい。
 例えば、主被写体の位置に基づいて、基準位置が設定されるようにしてよい。例えば、主被写体の所定の位置(例えば、重心)の現実世界における位置が、基準位置に設定されるようにしてもよい。
 或いは、例えば、マスタセンサの位置に基づいて、基準位置が設定されるようにしてもよい。例えば、マスタセンサの所定の位置(例えば、中央、左上隅等)の画素が、基準位置に設定されるようにしてもよい。
 この場合、例えば、マスタセンサに基づいて、基準座標系が設定されるようにしてもよい。例えば、マスタセンサの画素領域の座標系に基づいて、基準座標系のX軸及びY軸を設定し、マスタセンサの受光面に垂直な軸を基準座標系のZ軸に設定するようにしてもよい。
 さらに、例えば、復元画像の被写体距離及び画角が、主被写体に基づいて設定されるようにしてもよい。例えば、主被写体の画質が最も良好になるように、復元画像の被写体距離が設定されるようにしてもよい。また、例えば、復元画像において主被写体が適切な大きさになるように、復元画像の画角が設定されるようにしてもよい。
 なお、例えば、撮像システム301が無限遠を前提に設計されている場合、被写体距離は常に無限遠に設定される。
 <システムの構成に関する変形例>
 図26の撮像システム301の構成は、変更することが可能である。
 例えば、リーダライタ331と信号処理装置332を一体化したり、信号処理装置332の機能の一部をリーダライタ331に設けるようにしたりすることが可能である。
 また、一部の撮像装置にリーダライタ331の機能や信号処理装置332の機能を設けるようにしてもよい。
 図62は、撮像システムの第1の変形例である撮像システム1001の構成例を示している。なお、図中、図26の撮像システム301と対応する部分には、同じ符号を付してあり、その説明は適宜省略する。
 撮像システム1001は、撮像システム301と比較して、撮像部311の代わりに、撮像部1011が設けられ、リーダライタ331が削除されている点が異なる。撮像部1011は、撮像部311と比較して、撮像装置1021が追加されている点が異なる。
 撮像装置1021は、リーダライタ331の機能を備えている。すなわち、撮像装置1021は、各撮像装置321と近距離無線通信を行うとともに、各撮像装置321に電力を供給する。そして、撮像装置1021は、各撮像装置321に撮像コマンドを送信して、各撮像装置321による被写体の撮像の制御を行うとともに、自らも被写体の撮像を行う。そして、撮像装置1021は、各撮像装置321から撮像データを受信し、各撮像装置321から受信した撮像データ、及び、自らが撮像することにより取得した撮像データを信号処理装置332に送信する。すなわち、撮像装置1021は、各撮像装置321からの撮像データを信号処理装置332に中継する役割を果たす。
 なお、撮像装置1021は、例えば、図37の撮像装置321Bの電源部451、又は、図38の撮像装置321Cの電源部461と同様の電源部を備え、リーダライタ331からの電力の供給がなくても動作することが可能である。
 また、撮像システム1001においては、撮像装置321の数は1台でもよい。
 図63は、撮像システムの第2の変形例である撮像システム1101の構成例を示している。なお、図中、図26の撮像システム301と対応する部分には、同じ符号を付してあり、その説明は適宜省略する。
 撮像システム1101は、撮像システム301と比較して、撮像部311の代わりに、撮像部1111が設けられ、リーダライタ331及び信号処理装置332が削除されている点が異なる。撮像部1111は、撮像部311と比較して、撮像装置1121が追加されている点が異なる。
 撮像装置1121は、図62の撮像装置1021と同様の機能、及び、図26の信号処理装置332と同様の機能を備える。そして、撮像装置1121は、各撮像装置321から受信した撮像データ、及び、自らが撮像することにより取得した撮像データに基づいて、復元画像の復元処理等を行う。
 なお、撮像システム1101においては、撮像装置321の数は1台でもよい。
 <その他の変形例>
 また、以上の説明では、各撮像装置321が、自分の位置や姿勢を検出して、検出結果を信号処理部312に通知する例を示したが、例えば、各撮像装置321の位置や姿勢を外部から検出するようにしてもよい。例えば、各撮像装置321が設置されている領域を外部から撮像し、撮像した画像に基づいて、各撮像装置321の位置や姿勢を検出するようにしてもよい。また、例えば、そのような検出機能を、リーダライタ331又は信号処理装置332が備えるようにしてもよい。
 さらに、上述した例では、撮像装置321の位置及び姿勢として、位置(絶対位置)、傾き、向き、及び、高さを検出する例を示したが、この組み合わせは自由に変更することが可能である。また、撮像装置321の位置又は姿勢を示す別のデータを検出するようにしてもよい。さらに、例えば、撮像装置321の位置及び姿勢のうちいずれか一方のみを検出するようにしてもよい。
 また、例えば、ディープラーニング等の機械学習を適用することにより、復元後の復元画像を用いずに、復元前の検出画像や検出信号セットを用いて画像認識等を行うようにすることも可能である。この場合も、本技術を用いることにより、復元前の検出画像を用いた画像認識の精度が向上する。換言すれば、復元前の検出画像の画質が向上する。
 <<11.その他>>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータ(例えば、制御部123等)などが含まれる。
 コンピュータが実行するプログラムは、例えば、パッケージメディア等としての記録媒体(例えば、記録媒体130等)に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 尚、本開示は、以下のような構成も取ることができる。
(1)
 撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を1つ出力する画素出力単位を1以上備え、1以上の前記検出信号を含む検出信号セットを出力する撮像素子と、
 前記検出信号セット、並びに、位置及び姿勢のうち少なくとも1つを示す位置姿勢データを含む撮像データを無線通信により通信装置に送信する通信部と
 を備える撮像装置。
(2)
 少なくとも1つの前記画素出力単位が、前記入射光の入射角に対する指向性を示す入射角指向性を独立に設定可能な構成を有する
 前記(1)に記載の撮像装置。
(3)
 前記撮像素子は、検出波長がそれぞれ異なる複数の前記画素出力単位を備える
 前記(2)に記載の撮像装置。
(4)
 各前記画素出力単位の前記入射角指向性が同じである
 前記(3)に記載の撮像装置。
(5)
 前記撮像素子は、検出波長が同じ複数の前記画素出力単位を備え、
 各前記画素出力単位の前記入射角指向性がそれぞれ異なる
 前記(2)に記載の撮像装置。
(6)
 前記撮像装置の位置及び姿勢のうち少なくとも1つを検出する検出部を
 さらに備える前記(1)乃至(5)のいずれかに記載の撮像装置。
(7)
 前記位置姿勢データは、前記撮像装置の絶対位置、傾き、向き、及び、高度のうち少なくとも1つを含む
 前記(6)に記載の撮像装置。
(8)
 前記通信装置から送信されてくる指令により、前記撮像装置の位置及び姿勢のうち少なくとも1つを変更する駆動部を
 さらに備える前記(6)又は(7)に記載の撮像装置。
(9)
 前記撮像データは、前記撮像装置を識別するための識別情報を含む
 前記(1)乃至(8)のいずれかに記載の撮像装置。
(10)
 方向が異なる複数の受光面を備える
 前記(1)乃至(9)のいずれかに記載の撮像装置。
(11)
 各前記受光面をそれぞれ備える複数の前記撮像素子を
 備える前記(10)に記載の撮像装置。
(12)
 前記通信部は、複数の前記撮像素子のうち有効な前記撮像素子の前記検出信号を含む撮像データを送信する
 前記(11)に記載の撮像装置。
(13)
 前記撮像装置の第1の面に設けられた第1の受光面と、
 前記撮像装置の第1の面と反対の第2の面に設けられた第2の受光面と
 を備える前記(10)乃至(12)のいずれかに記載の撮像装置。
(14)
 前記通信部は、前記通信装置から電磁波により供給される電力を受信する
 前記(1)乃至(13)のいずれかに記載の撮像装置。
(15)
 前記撮像素子は、2以上の前記画素出力単位を備え、前記通信装置から供給される電力に応じて、一部の前記画素出力単位を無効にする
 前記(14)に記載の撮像装置。
(16)
 前記撮像素子及び前記通信部を駆動する電力を供給する電源部を
 さらに備える前記(1)乃至(13)のいずれかに記載の撮像装置。
(17)
 前記電源部は、発電機能を有する
 前記(16)に記載の撮像装置。
(18)
 前記電源部は、太陽光により発電し、
 前記電源部の光電変換部と前記撮像素子の光電変換部とが、同じ半導体基板に形成されている
 前記(17)に記載の撮像装置。
(19)
 撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を1つ出力する画素出力単位を1以上備え、1以上の前記検出信号からなる検出信号セットを出力する撮像素子をそれぞれ備える複数の撮像装置からの複数の撮像データにそれぞれ含まれる複数の前記検出信号セットを用いて、復元画像を復元する復元部を
 備える信号処理装置。
(20)
 各前記撮像データは、各前記撮像装置の位置及び姿勢のうち少なくとも1つを示す位置姿勢データを含み、
 前記復元部は、さらに各前記撮像装置の前記位置姿勢データを用いて、前記復元画像を復元する
 前記(19)に記載の信号処理装置。
(21)
 前記復元部は、各前記画素出力単位の前記検出信号、及び、前記被写体からの入射光の入射角に対する各前記画素出力単位の指向性を示す複数の係数を用いて、前記復元画像を復元する
 前記(19)又は(20)に記載の信号処理装置。
(22)
 前記複数の撮像装置から前記複数の撮像データを無線通信により受信し、前記複数の撮像装置のうちの1以上に電磁波により電力を供給する通信部を
 さらに備える前記(19)乃至(21)のいずれかに記載の信号処理装置。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 101 撮像装置, 111 信号処理制御部, 121 撮像素子, 121a,121a’ 画素, 121A 受光面, 121b 遮光膜, 121c オンチップレンズ, 121e,121f フォトダイオード, 122 復元部, 123 制御部, 125 検出部, 126 関連付け部, 301 撮像システム, 311 撮像部, 312 信号処理部, 321,321A乃至321G 撮像装置, 331 リーダライタ, 332 信号処理装置, 401A乃至401F 信号処理制御部, 411 制御部, 412 関連付け部, 414 通信部, 421 送受信部, 422 アンテナ, 451,461 電源部, 471 光電変換部, 472 蓄電部, 501 復元部, 502 制御部, 504 関連付け部, 611A乃至611C 検出部, 621 位置検出部, 622 傾き検出部, 623 地磁気検出部, 624 高度検出部, 651 駆動部, 701 撮像素子, 701A 受光面, 801b,801s 画素出力単位, 901 撮像素子, 901A 受光面, 902,902BW, 902F 光学フィルタ, 1001 撮像システム, 1011 撮像部, 1021 撮像装置, 1101 撮像システム, 1111 撮像部, 1121 撮像装置

Claims (22)

  1.  撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を1つ出力する画素出力単位を1以上備え、1以上の前記検出信号を含む検出信号セットを出力する撮像素子と、
     前記検出信号セット、並びに、位置及び姿勢のうち少なくとも1つを示す位置姿勢データを含む撮像データを無線通信により通信装置に送信する通信部と
     を備える撮像装置。
  2.  少なくとも1つの前記画素出力単位が、前記入射光の入射角に対する指向性を示す入射角指向性を独立に設定可能な構成を有する
     請求項1に記載の撮像装置。
  3.  前記撮像素子は、検出波長がそれぞれ異なる複数の前記画素出力単位を備える
     請求項2に記載の撮像装置。
  4.  各前記画素出力単位の前記入射角指向性が同じである
     請求項3に記載の撮像装置。
  5.  前記撮像素子は、検出波長が同じ複数の前記画素出力単位を備え、
     各前記画素出力単位の前記入射角指向性がそれぞれ異なる
     請求項2に記載の撮像装置。
  6.  前記撮像装置の位置及び姿勢のうち少なくとも1つを検出する検出部を
     さらに備える請求項1に記載の撮像装置。
  7.  前記位置姿勢データは、前記撮像装置の絶対位置、傾き、向き、及び、高度のうち少なくとも1つを含む
     請求項6に記載の撮像装置。
  8.  前記通信装置から送信されてくる指令により、前記撮像装置の位置及び姿勢のうち少なくとも1つを変更する駆動部を
     さらに備える請求項6に記載の撮像装置。
  9.  前記撮像データは、前記撮像装置を識別するための識別情報を含む
     請求項1に記載の撮像装置。
  10.  方向が異なる複数の受光面を備える
     請求項1に記載の撮像装置。
  11.  各前記受光面をそれぞれ備える複数の前記撮像素子を
     備える請求項10に記載の撮像装置。
  12.  前記通信部は、複数の前記撮像素子のうち有効な前記撮像素子の前記検出信号を含む撮像データを送信する
     請求項11に記載の撮像装置。
  13.  前記撮像装置の第1の面に設けられた第1の受光面と、
     前記撮像装置の第1の面と反対の第2の面に設けられた第2の受光面と
     を備える請求項10に記載の撮像装置。
  14.  前記通信部は、前記通信装置から電磁波により供給される電力を受信する
     請求項1に記載の撮像装置。
  15.  前記撮像素子は、2以上の前記画素出力単位を備え、前記通信装置から供給される電力に応じて、一部の前記画素出力単位を無効にする
     請求項14に記載の撮像装置。
  16.  前記撮像素子及び前記通信部を駆動する電力を供給する電源部を
     さらに備える請求項1に記載の撮像装置。
  17.  前記電源部は、発電機能を有する
     請求項16に記載の撮像装置。
  18.  前記電源部は、太陽光により発電し、
     前記電源部の光電変換部と前記撮像素子の光電変換部とが、同じ半導体基板に形成されている
     請求項17に記載の撮像装置。
  19.  撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を1つ出力する画素出力単位を1以上備え、1以上の前記検出信号からなる検出信号セットを出力する撮像素子をそれぞれ備える複数の撮像装置からの複数の撮像データにそれぞれ含まれる複数の前記検出信号セットを用いて、復元画像を復元する復元部を
     備える信号処理装置。
  20.  各前記撮像データは、各前記撮像装置の位置及び姿勢のうち少なくとも1つを示す位置姿勢データを含み、
     前記復元部は、さらに各前記撮像装置の前記位置姿勢データを用いて、前記復元画像を復元する
     請求項19に記載の信号処理装置。
  21.  前記復元部は、各前記画素出力単位の前記検出信号、及び、前記被写体からの入射光の入射角に対する各前記画素出力単位の指向性を示す複数の係数を用いて、前記復元画像を復元する
     請求項19に記載の信号処理装置。
  22.  前記複数の撮像装置から前記複数の撮像データを無線通信により受信し、前記複数の撮像装置のうちの1以上に電磁波により電力を供給する通信部を
     さらに備える請求項19に記載の信号処理装置。
PCT/JP2018/038943 2017-10-19 2018-10-19 撮像装置および信号処理装置 WO2019078336A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201880066133.5A CN111201779B (zh) 2017-10-19 2018-10-19 成像装置和信号处理装置
EP18868008.6A EP3700192B1 (en) 2017-10-19 2018-10-19 Imaging device and signal processing device
JP2019548811A JP7259756B2 (ja) 2017-10-19 2018-10-19 撮像装置および信号処理装置
US16/754,586 US11431911B2 (en) 2017-10-19 2018-10-19 Imaging device and signal processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017202861 2017-10-19
JP2017-202861 2017-10-19

Publications (1)

Publication Number Publication Date
WO2019078336A1 true WO2019078336A1 (ja) 2019-04-25

Family

ID=66173307

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/038943 WO2019078336A1 (ja) 2017-10-19 2018-10-19 撮像装置および信号処理装置

Country Status (5)

Country Link
US (1) US11431911B2 (ja)
EP (1) EP3700192B1 (ja)
JP (1) JP7259756B2 (ja)
CN (1) CN111201779B (ja)
WO (1) WO2019078336A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020218074A1 (ja) * 2019-04-26 2020-10-29 ソニー株式会社 撮像システム及び撮像素子
WO2022244354A1 (ja) * 2021-05-17 2022-11-24 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び電子機器

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7247890B2 (ja) * 2017-10-19 2023-03-29 ソニーグループ株式会社 電子機器及び信号処理装置
CN112106343A (zh) 2018-03-29 2020-12-18 索尼公司 信息处理装置、信息处理方法、程序和信息处理系统
JP2023042368A (ja) * 2021-09-14 2023-03-27 株式会社東芝 固体撮像素子、及び固体撮像装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186674A (ja) * 2011-03-07 2012-09-27 Hitachi Kokusai Electric Inc 監視カメラシステム
JP2013132139A (ja) * 2011-12-21 2013-07-04 Nikon Corp 電子機器、撮像装置、および電子機器の制御プログラム
WO2016009688A1 (ja) * 2014-07-16 2016-01-21 株式会社リコー システム、機械、制御方法、プログラム
JP2016510910A (ja) 2013-03-05 2016-04-11 ラムバス・インコーポレーテッド 高解像度レンズなし光学検知の奇対称を有する位相格子
JP2016092413A (ja) * 2014-10-29 2016-05-23 株式会社半導体エネルギー研究所 撮像装置および電子機器
WO2016123529A1 (en) 2015-01-29 2016-08-04 William Marsh Rice University Lensless imaging system using an image sensor with one or more attenuating layers

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6731305B1 (en) * 2000-07-17 2004-05-04 Imove, Inc. Camera system which records camera identification in image file
JP4141800B2 (ja) * 2002-11-01 2008-08-27 株式会社リコー デジタルカメラ
JP2006229583A (ja) * 2005-02-17 2006-08-31 Eastman Kodak Co 通信システム及びデジタルカメラ並びにドック装置
GB2434934A (en) * 2006-02-06 2007-08-08 Qinetiq Ltd Processing coded aperture image data by applying weightings to aperture functions and data frames
JP2009200752A (ja) * 2008-02-20 2009-09-03 Panasonic Corp カメラモジュール
US8862987B2 (en) 2009-03-31 2014-10-14 Intel Corporation Capture and display of digital images based on related metadata
JP5277063B2 (ja) * 2009-04-20 2013-08-28 パナソニック株式会社 集光素子、集光素子群および固体撮像装置
US9237317B2 (en) * 2009-05-02 2016-01-12 Steven J. Hollinger Throwable camera and network for operating the same
JP5496794B2 (ja) * 2010-07-01 2014-05-21 パナソニック株式会社 固体撮像装置
JP5682473B2 (ja) * 2011-06-21 2015-03-11 コニカミノルタ株式会社 広角歪補正処理を有する画像処理方法、画像処理装置及び撮像装置
CN104025581B (zh) * 2011-12-28 2015-06-03 富士胶片株式会社 摄像装置
DE112013005594T5 (de) * 2012-11-22 2015-10-22 Fujifilm Corporation Abbildungsvorrichtung, Unschärfebetrag-Berechnungsverfahren und Objektivvorrichtung
US9432568B2 (en) * 2014-06-30 2016-08-30 Semiconductor Components Industries, Llc Pixel arrangements for image sensors with phase detection pixels
JP6632239B2 (ja) * 2015-07-22 2020-01-22 キヤノン株式会社 無線通信可能な電子機器、その制御方法、プログラム
US10462377B2 (en) * 2016-07-29 2019-10-29 Nokia Of America Corporation Single-aperture multi-sensor lensless compressive image acquisition
US20180035046A1 (en) * 2016-07-29 2018-02-01 Xin Yuan Block-based lensless compressive image acquisition
US10616516B2 (en) * 2016-09-30 2020-04-07 Planet Labs Inc. Systems and methods for implementing time delay integration imaging techniques in conjunction with distinct imaging regions on a monolithic charge-coupled device image sensor
JP6713549B2 (ja) * 2016-12-27 2020-06-24 富士フイルム株式会社 撮像装置及び撮像モジュール
US11257856B2 (en) * 2017-10-13 2022-02-22 Trustees Of Boston University Lens-free compound eye cameras based on angle-sensitive meta-surfaces
US10594914B2 (en) * 2018-04-10 2020-03-17 The Boeing Company Paint applied camera system
US10984287B2 (en) * 2018-05-14 2021-04-20 Panasonic Intellectual Property Management Co., Ltd. Learning device, learning method, and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186674A (ja) * 2011-03-07 2012-09-27 Hitachi Kokusai Electric Inc 監視カメラシステム
JP2013132139A (ja) * 2011-12-21 2013-07-04 Nikon Corp 電子機器、撮像装置、および電子機器の制御プログラム
JP2016510910A (ja) 2013-03-05 2016-04-11 ラムバス・インコーポレーテッド 高解像度レンズなし光学検知の奇対称を有する位相格子
WO2016009688A1 (ja) * 2014-07-16 2016-01-21 株式会社リコー システム、機械、制御方法、プログラム
JP2016092413A (ja) * 2014-10-29 2016-05-23 株式会社半導体エネルギー研究所 撮像装置および電子機器
WO2016123529A1 (en) 2015-01-29 2016-08-04 William Marsh Rice University Lensless imaging system using an image sensor with one or more attenuating layers

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
M. SALMAN ASIFFOUR OTHERS: "Flatcam: Replacing lenses with masks and computation", 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOP (ICCVW, 2015, pages 663 - 666, XP032865019, DOI: 10.1109/ICCVW.2015.89

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020218074A1 (ja) * 2019-04-26 2020-10-29 ソニー株式会社 撮像システム及び撮像素子
WO2022244354A1 (ja) * 2021-05-17 2022-11-24 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び電子機器

Also Published As

Publication number Publication date
CN111201779A (zh) 2020-05-26
US11431911B2 (en) 2022-08-30
EP3700192B1 (en) 2023-08-30
JP7259756B2 (ja) 2023-04-18
US20200358959A1 (en) 2020-11-12
CN111201779B (zh) 2022-11-01
EP3700192A4 (en) 2020-11-18
JPWO2019078336A1 (ja) 2020-12-17
EP3700192A1 (en) 2020-08-26

Similar Documents

Publication Publication Date Title
JP7259756B2 (ja) 撮像装置および信号処理装置
JP7259757B2 (ja) 撮像装置、並びに、画像処理装置および方法
JP7238887B2 (ja) 情報処理装置、プログラム、及び、情報処理システム
US11460666B2 (en) Imaging apparatus and method, and image processing apparatus and method
KR20200074101A (ko) 촬상 장치 및 방법, 및, 화상 처리 장치 및 방법
US11375103B2 (en) Imaging device, image processing apparatus, and image processing method
JP2023041751A (ja) 撮像装置及び信号処理装置
WO2019078333A1 (ja) 撮像装置、露出制御方法、プログラム、及び、撮像素子
WO2019189099A1 (ja) 撮像素子、撮像装置、並びに、情報処理方法
JP7147841B2 (ja) 撮像装置および方法、画像処理装置および方法、並びに、撮像素子

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18868008

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019548811

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018868008

Country of ref document: EP

Effective date: 20200519