WO2022239326A1 - 撮像装置、および撮像装置の作動方法 - Google Patents

撮像装置、および撮像装置の作動方法 Download PDF

Info

Publication number
WO2022239326A1
WO2022239326A1 PCT/JP2022/003951 JP2022003951W WO2022239326A1 WO 2022239326 A1 WO2022239326 A1 WO 2022239326A1 JP 2022003951 W JP2022003951 W JP 2022003951W WO 2022239326 A1 WO2022239326 A1 WO 2022239326A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging device
component
filter
components
Prior art date
Application number
PCT/JP2022/003951
Other languages
English (en)
French (fr)
Inventor
イリヤ レシェトウスキ
秀紀 小柳津
隆一 唯野
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2023520778A priority Critical patent/JPWO2022239326A1/ja
Publication of WO2022239326A1 publication Critical patent/WO2022239326A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof

Definitions

  • the present disclosure relates to an imaging device and an operating method of the imaging device, and more particularly to an imaging device and an operating method of the imaging device that can appropriately limit information included when capturing an image.
  • Patent Document 1 A technology has been proposed that restricts the information captured as an image by disposing a cover or filter in front of the imaging surface of an image sensor, etc., so that a partial area of the scene cannot be captured. Also, a technique for restricting information to be imaged by arranging a polarizing filter has been disclosed (see Patent Document 2).
  • a polarizing filter that blocks information from a display that emits a polarized component can be used to physically block the light of an entire scene, or part of a scene, to prevent specific information from being displayed. are removed to achieve privacy protection.
  • the filter since the filter blocks non-polarized components and allows polarized components to pass through, the filter is the opposite of the filter in the first example.
  • the non-polarized components have all the polarized components, so the polarizing filter does not function as a filter for some of the non-polarized components.
  • the present disclosure has been made in view of such circumstances, and in particular, provides an imaging apparatus that can appropriately limit information included in an image that is an imaging result in imaging using an image sensor or the like. come true.
  • An imaging device includes a mask in which a plurality of transmission regions that transmit incident light for each of a plurality of components are formed in a predetermined pattern, and that each of the plurality of components of the incident light is modulated and transmitted. and an imaging device that captures a transmission image made up of light transmitted through the mask, and a reconstructing unit that reconstructs an image corresponding to the incident light based on the transmission image.
  • a method of operating an imaging device is an imaging device including a mask in which a plurality of transmission regions that transmit incident light for each component are formed in a predetermined pattern, an imaging device, and a reconstruction unit.
  • the mask modulates each of the components of the incident light to transmit them as modulated light
  • the imaging device captures a transmission image made up of the light transmitted through the mask
  • the reconstruction unit and reconstructing an image corresponding to said incident light based on said transmitted image.
  • each of the plurality of components of the incident light is modulated and transmitted by a mask in which a plurality of transmission regions that transmit the incident light for each of the plurality of components are formed in a predetermined pattern. Then, an imaging device picks up a transmitted image composed of light transmitted through the mask, and reconstructs an image corresponding to the incident light based on the transmitted image.
  • FIG. 5 is a diagram for explaining the configuration of the mask in FIG. 4; 5 is a diagram for explaining the imaging principle of the imaging device of FIG. 4; FIG. 5 is a diagram illustrating a final image generated by the imaging device of FIG. 4; FIG. 5 is a flowchart for explaining imaging processing of the imaging device of FIG. 4; It is a figure explaining the example of composition of the 2nd embodiment of the imaging device of this indication.
  • FIGS. 10A and 10B are diagrams for explaining the imaging principle of the imaging device of FIG. 9;
  • FIG. 10 is a diagram illustrating a final image generated by the imaging device of FIG. 9;
  • FIG. 10 is a flowchart for explaining imaging processing of the imaging device of FIG. 9;
  • FIG. It is a figure explaining the structure of the mask used as the application example of 2nd Embodiment of the imaging device of this indication.
  • 15 is a diagram for explaining the imaging principle of the imaging device of FIG. 14;
  • FIG. 15 is a diagram illustrating a final image generated by the imaging device of FIG. 14;
  • FIG. 15 is a flowchart for explaining imaging processing of the imaging device of FIG. 14;
  • FIG. 1 is a side cross-sectional view of the lensless imaging device 11.
  • the imaging device 11 in FIG. 1 is a so-called lensless camera, and includes a mask 31, an imaging device 32, a reconstruction section 33, and an output section .
  • the mask 31 is a plate-like structure made of a light shielding material provided in front of the imaging device 32. For example, as shown in the left part of FIG. 41 and a light-shielding area 42 which is shielded from light.
  • the mask 31 When the mask 31 receives light as incident light from an object surface (actually, a surface from which radiation light from a three-dimensional object is emitted) G1 indicated by the optical axis AX, the incident light passes through the transmission region 41. By transmitting the incident light, the incident light from the object plane G1 is modulated as a whole, converted into modulated light, and the converted modulated light is received by the imaging element 32 to be imaged.
  • an object surface actually, a surface from which radiation light from a three-dimensional object is emitted
  • the imaging element 32 is composed of a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor, and captures the modulated light obtained by modulating the incident light from the object plane G1 by the mask 31, and the pixel It is output to the reconstruction unit 33 as an image G2 made up of unit signals.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the mask 31 is of a size that encompasses at least the entire surface of the imaging element 32, and basically, the imaging element 32 is configured to receive only modulated light that has been modulated by passing through the mask 31. ing.
  • the transmissive region 41 formed in the mask 31 has a size that is at least larger than the pixel size of the imaging device 32 .
  • a small gap of distance d is provided between the imaging device 32 and the mask 31 .
  • incident light from point light sources PA, PB, and PC on the object plane G1 is transmitted through the transmission region 41 of the mask 31 and reaches positions Pa and Pb on the imaging device 32.
  • Pc are received as light rays of light intensities a, b, and c, respectively.
  • the detection sensitivity of each pixel has directivity according to the incident angle by modulating the incident light by the transmissive area 41 set on the mask 31 .
  • Giving incident angle directivity to the detection sensitivity of each pixel here means giving different light receiving sensitivity characteristics according to the incident angle of incident light depending on the area on the image sensor 32. be.
  • the light source that constitutes the object plane G1 is a point light source
  • light rays with the same light intensity emitted from the same point light source are incident on the imaging device 32.
  • the incident angle changes for each region on the imaging surface of the imaging element 32 .
  • the mask 31 changes the incident angle of the incident light depending on the area on the imaging device 32
  • the light receiving sensitivity characteristic that is, the incident angle directivity
  • the mask 31 provided in front of the image pickup surface of the image pickup device 32 detects with different sensitivities for each region on the image pickup device 32, and detection signals with different detection signal levels are detected for each region.
  • detection signal levels DA, DB, and DC of pixels at positions Pa, Pb, and Pc on the image sensor 32 are expressed by the following equations (1) to (3). It should be noted that formulas (1) to (3) in FIG. 2 are reversed in vertical relation from positions Pa, Pb, and Pc on the imaging device 32 in FIG.
  • DA ⁇ 1 ⁇ a+ ⁇ 1 ⁇ b+ ⁇ 1 ⁇ c ...
  • DB ⁇ 2 ⁇ a+ ⁇ 2 ⁇ b+ ⁇ 2 ⁇ c ...
  • DC ⁇ 3 ⁇ a+ ⁇ 3 ⁇ b+ ⁇ 3 ⁇ c ...
  • ⁇ 1 is a coefficient for the detection signal level a set according to the incident angle of the light beam from the point light source PA on the object plane G1 to be restored at the position Pa on the imaging device 32 .
  • ⁇ 1 is a coefficient for the detection signal level b that is set according to the incident angle of the light beam from the point light source PB on the object plane G1 to be restored at the position Pa on the imaging device 32 .
  • ⁇ 1 is a coefficient for the detection signal level c set according to the incident angle of the light beam from the point light source PC on the object plane G1 to be restored at the position Pa on the imaging device 32 .
  • ( ⁇ 1 ⁇ a) of the detection signal level DA indicates the detection signal level due to the light beam from the point light source PA at the position Pa.
  • ( ⁇ 1 ⁇ b) of the detection signal level DA indicates the detection signal level by the light beam from the point light source PB at the position Pa.
  • ( ⁇ 1 ⁇ c) of the detection signal level DA indicates the detection signal level due to the light beam from the point light source PC at the position Pa.
  • the detection signal level DA is expressed as a composite value obtained by multiplying each component of the point light sources PA, PB, and PC at the position Pa by respective coefficients ⁇ 1, ⁇ 1, and ⁇ 1.
  • the coefficients ⁇ 1, ⁇ 1, and ⁇ 1 are collectively referred to as a coefficient set.
  • the coefficient sets ⁇ 2, ⁇ 2, ⁇ 2 for the detection signal level DB at the point light source Pb correspond to the coefficient sets ⁇ 1, ⁇ 1, ⁇ 1 for the detection signal level DA at the point light source PA, respectively.
  • the coefficient sets ⁇ 3, ⁇ 3, ⁇ 3 for the detection signal level DC at the point light source Pc correspond to the coefficient sets ⁇ 1, ⁇ 1, ⁇ 1 for the detection signal level DA at the point light source Pa, respectively.
  • the detection signal levels of the pixels at the positions Pa, Pb, and Pc are values expressed by the product sum of the light intensities a, b, and c of the light beams emitted from the point light sources PA, PB, and PC, respectively, and the coefficients. is. For this reason, these detection signal levels are a mixture of the light intensities a, b, and c of the light beams emitted from the point light sources PA, PB, and PC, respectively. is different from An image composed of detection signal levels DA, DB, and DC of pixels at positions Pa, Pb, and Pc corresponds to image G2 in FIG.
  • a set of coefficients ⁇ 1, ⁇ 1, ⁇ 1, a set of coefficients ⁇ 2, ⁇ 2, ⁇ 2, a set of coefficients ⁇ 3, ⁇ 3, ⁇ 3, and detection signal levels DA, DB, DC are used to construct simultaneous equations, and light intensities a, b , c, the pixel values of the respective positions Pa, Pb, and Pc are obtained as shown in the lower right portion of FIG.
  • a restored image final image
  • this reconstructed image corresponds to the image G3 in FIG.
  • the image of the object plane at various distances can be reconstructed after the image is captured by changing the coefficient set according to the distance.
  • the detection signal level shown in the upper right part of FIG. 3 is not the detection signal level corresponding to the image in which the image of the subject is formed. It corresponds to the image G2. Further, the detection signal level shown in the lower right part of FIG. 3 is the signal value for each pixel corresponding to the image in which the image of the subject is formed, that is, the restored image (final image) restored based on the image G2. is the value of each pixel in , it becomes a pixel value. That is, the restored image (final image) of this object plane G1 corresponds to the image G3.
  • Such a configuration enables the imaging device 11 to function as a so-called lensless camera.
  • the imaging lens is not an essential component, it is possible to reduce the height of the imaging device, that is, to reduce the thickness in the light incident direction in the configuration that realizes the imaging function. Also, by varying the coefficient set, it is possible to reconstruct and restore the final image (restored image) on the object plane at various distances.
  • an image corresponding to the image G2 before reconstruction captured by the imaging device 32 is simply referred to as a captured image, and an image reconstructed and restored by signal processing the captured image.
  • An image corresponding to G3 is called a final image (restored image). Therefore, from one shot image, by variously changing the coefficient set described above, images on the object plane G1 at various distances can be reconstructed as the final image.
  • the reconstruction unit 33 has the above-described coefficient set, and uses the coefficient set corresponding to the distance from the imaging position of the imaging device 11 to the object plane G1 to reconstruct the image captured by the imaging device 32 ( Based on the image G2), the final image (restored image) (image G3 in FIG. 1) is reconstructed and output to the output unit .
  • the output unit 34 applies signal processing to the final image supplied from the reconstruction unit 33 and outputs the result as an image signal.
  • step S ⁇ b>11 the mask 31 modulates the light from the object plane G ⁇ b>1 to enter the imaging device 32 .
  • step S12 the imaging device 32 captures an image of light from the object plane G1 that has been modulated by the mask 31, and outputs it to the reconstruction unit 33 as a captured image (corresponding to the image G2). Output.
  • the reconstruction unit 33 converts the image pickup position of the image pickup device 11 from the image pickup position of the image pickup device 11 to the object plane G1 based on the image pickup image (equivalent to the image G2) obtained by picking up the image composed of the modulated light output from the image pickup device 32.
  • the image is reconstructed using a predetermined coefficient set according to the distance to the point, and is output to the output unit 34 as a final image (restored image) (corresponding to image G3). That is, the final image (restored image) is obtained by constructing and solving the simultaneous equations using the coefficient set described with reference to the above equations (1) to (3) for the captured image. become.
  • step S14 the output unit 34 performs signal processing and outputs it as an image signal.
  • the imaging device of the present disclosure applies the principle of the lensless imaging device described above, and uses filters that transmit at least two or more specific light components as a transmission region 41 and a light shielding region 42 for each light component. By making it work, a specific light component is modulated and reconstructed.
  • an imaging device that can appropriately limit the information included when an image is captured.
  • the imaging apparatus 101 in FIG. 4 reconstructs only an image composed of polarized components and does not reconstruct an image composed of non-polarized components, so that the final image is an image composed only of polarized components. Limit the information contained in the image composed of the polarization components.
  • the imaging device 101 is composed of a mask 111 , an imaging device 112 , a reconstruction section 113 and an output section 114 .
  • the mask 111, image sensor 112, reconstruction unit 113, and output unit 114 have configurations corresponding to the mask 31, image sensor 32, reconstruction unit 33, and output unit 34 in FIG. 1, respectively.
  • the mask 111 has a configuration corresponding to the mask 31 in FIG.
  • the mask 31 has a plate-like configuration made of a light-shielding material, and is configured to modulate incident light by forming the transmission region 41 and the light-shielding region 42 .
  • the mask 111 includes a vertical polarizing filter 111v that transmits the vertically polarized light component and a horizontal polarizing filter 111h that transmits the horizontally polarized light component of the light incident from the subject plane 121 on the left side of the drawing. are arranged in a pseudo-random pattern.
  • the arrangement pattern of the vertical polarizing filter 111v and the horizontal polarizing filter 111h may be a pattern other than a pseudo-random pattern, such as a random pattern, a URA (Uniformly Redundant Arrays) pattern, and a MURA (Modified Uniformly Redundant Arrays) pattern.
  • the vertical polarizing filter 111v and the horizontal polarizing filter 111h have the same light transmittance.
  • a vertical striped pattern is drawn in the area where the vertical polarizing filter 111v is arranged on the mask 111, and a horizontal striped pattern is drawn in the area where the horizontal polarizing filter 111h is arranged.
  • the object plane 121 there are a smartphone 131 that emits a vertically polarized component Lv composed of a polarized component of light in the vertical direction, a person 132 that emits an unpolarized component Lu composed of unpolarized light, and a person 132 that emits an unpolarized component Lu composed of unpolarized light.
  • a smartphone 131 that emits a vertically polarized component Lv composed of a polarized component of light in the vertical direction
  • a person 132 that emits an unpolarized component Lu composed of unpolarized light
  • a person 132 that emits an unpolarized component Lu composed of unpolarized light a person 132 that emits an unpolarized component Lu composed of unpolarized light.
  • a display 133 that emits a horizontal polarization component Lh of polarization components.
  • the vertical polarization component Lv emitted by the smartphone 131 is modulated by, for example, passing through the vertical polarization filter 111v area of the mask 111 indicated by the white area in the center of FIG.
  • the imaging device 112 captures an image composed of the modulated vertical polarization component Lv.
  • the reconstruction unit 113 reconstructs an image of the smartphone 131 composed of the vertically polarized component Lv based on the modulated image composed of the vertically polarized component Lv.
  • the unpolarized component Lu emitted by the person 132 is transmitted through both the horizontal polarizing filter 111h and the vertical polarizing filter 111v, as shown in the left part of FIG. Therefore, the light transmitted through the entire surface of the mask 111 is incident on the imaging device 112, and the image of the person 132 cannot be reconstructed by the above-described image reconstruction processing. That is, the non-polarized component Lu passes through both the horizontal polarizing filter 111h and the vertical polarizing filter 111v, so that it appears as if it passes through a transparent space where the mask 111 does not exist. Then, an image is captured.
  • the non-polarized component Lu when transmitted through the mask 111, there is only a region corresponding to the transmissive region 41 on the mask 111, and no region corresponding to the light-shielding region 42 exists.
  • the component Lu is incident on the imaging element 112 without being modulated by the mask 111 and is imaged.
  • the reconstruction unit 113 cannot reconstruct an image composed of the unpolarized light component Lu, which is incident light that has not been modulated, so that the person 132 cannot be reconstructed.
  • the horizontal polarization component Lh emitted by the display 133 is modulated by passing through the region of the horizontal polarization filter 111h of the mask 111 indicated by the white region in the right part of FIG.
  • the imaging device 112 captures an image composed of the modulated horizontal polarization component Lh.
  • the reconstruction unit 113 reconstructs an image of the display 133 composed of the horizontal polarization component Lh based on the modulated image composed of the horizontal polarization component Lh.
  • each region of the mask 111 corresponds to at least one of the horizontal polarizing filter 111h and the vertical polarizing filter 111v. It has been shown that
  • an image 121u composed of the unpolarized component Lu an image 121v composed of the vertically polarized component Lv
  • an image 121v composed of the horizontally polarized component An image 121h composed of components Lh is transmitted through the mask 111 in a combined state.
  • the image 121v consisting of only the vertical polarization component Lv in FIG. 6 is only the balloon displayed in the smartphone 131 emitting the vertical polarization component Lv, and the rest is observed as a black image.
  • the image 121h composed only of the horizontal polarization component Lh in FIG. 6 is only the automobile displayed in the display 133 emitting the horizontal polarization component Lh, and the other images are observed as a black image.
  • Image 112i is an image of each of smartphone 131 in object plane 121 consisting of modulated vertical polarization component Lv, person 132 consisting of unmodulated unpolarized component Lu, and display 133 consisting of modulated horizontal polarization component Lh. is not formed, the image is blurred as a whole, as shown in FIG.
  • the reconstruction unit 113 Based on the image 112i supplied from the imaging device 112, the reconstruction unit 113 generates images 121v' and 121h' corresponding to the image 121v composed of the modulated vertical polarization component Lv and 121h composed of the modulated horizontal polarization component Lh. is reconstructed and output to the output unit 114 . At this time, the reconstruction unit 113 cannot reconstruct the non-modulated non-polarized component Lu, and therefore cannot reconstruct the image corresponding to the image 121u composed of the non-modulated non-polarized component Lu.
  • the mask 111 has a configuration in which horizontal polarizing filters 111h and vertical polarizing filters 111v are arranged in a pseudo-random pattern.
  • the horizontal polarization filter 111h functions as the transmission region 41 of the mask 31 in FIG. 1, and the vertical polarization filter 111v functions as the light shielding region 42 in FIG. By functioning, the horizontal polarization component Lh is modulated.
  • the vertical polarization filter 111v functions as the transmission region 41 of the mask 31 in FIG. 1, and the horizontal polarization filter 111h functions as the light shielding region 42 in FIG. By doing so, the vertical polarization component Lv is modulated.
  • the horizontal polarization component Lh and the vertical polarization component Lv are the light modulated by the vertical polarization filter 111v and the horizontal polarization filter 111h of the mask 111, and the light modulated by the horizontal polarization filter 111h.
  • An image 112 i is obtained from the observation result with the non-polarized light component, and is output to the reconstruction unit 113 .
  • the reconstruction unit 113 uses coefficient sets corresponding to the vertical polarization filter 111v and the horizontal polarization filter 111h of the mask 111 for the image 112i to generate an image 121v composed of the vertical polarization component Lv. and an image 121h' corresponding to the image 121h composed of the horizontal polarization component Lh. At this time, the reconstruction unit 113 cannot reconstruct the image 121u composed of the non-polarized component Lu because the processing is based on the image captured without modulation.
  • the output unit 114 synthesizes the image 121v' consisting of the vertical polarization component Lv supplied from the reconstruction unit 113 and the image 121h' consisting of the horizontal polarization component Lh, and produces an image 122 as shown in the right part of FIG. is generated and output as the final image.
  • an image 122 composed of an image 121v′ displayed by the smartphone 131 and composed of the vertically polarized component Lv and an image 121h′ composed of the horizontally polarized component Lh displayed by the display 133 is output.
  • the face of the person holding the smartphone 131 or the display 133 exists within the imaging field of view.
  • the face of the person holding the smartphone 131 or the display 133 is reflected together with the QR code, making it difficult to consider privacy.
  • the imaging device 101 of the present disclosure even if the face of a person holding the smartphone 131 or the display 133 on which the QR code is displayed exists within the imaging field, the non-polarized light A person's face, which consists of components, is not imaged, so only the QR code is imaged, and it is possible to realize appropriate restrictions on imaging in consideration of privacy.
  • the object plane 121 is a rectangular image of M pixels ⁇ N pixels, and light emitted from each pixel as a light source is composed of a vertically polarized component, a horizontally polarized component, and a non-polarized component.
  • the imaging device 112 is composed of P pixels ⁇ Q pixels.
  • Q-1 is formed so as to be distributed in a grid pattern, and has substantially the same shape and size as the pixels of the imaging device 112 .
  • Light from the object surface 121 passes through either the vertical polarizing filter 111v or the horizontal polarizing filter 111h formed on the mask 111, and is modulated before entering the imaging element 112.
  • Equation (4) is a determinant representing the simultaneous equations.
  • p i is the pixel value of the image sensor 112
  • a ij is a coefficient set according to the design of the mask 111.
  • 0 represents the horizontal polarizing filter 111h
  • 1 represents the vertical polarizing filter. It represents filter 111v.
  • s i ⁇ represents the light intensity of the incident light at the position where the vertical polarization filter 111v is provided
  • s i ⁇ represents the light intensity of the incident light at the position where the horizontal polarization filter 111h is provided.
  • A is a matrix represented by the following formula (6).
  • s i is represented by the following equation (7).
  • s i is estimated by solving equation (5) above.
  • equation (5) there are various methods for solving equation (5), for example, it may be solved using a pseudo-inverse matrix by normalization.
  • Equation (5) can be expressed as an exact solution as shown in Equation (8) below.
  • Equation (8) or Equation (9) is the light intensity s i of the incident light at the position where the vertical polarizing filter 111v is provided and the intensity of the incident light at the position where the horizontal polarizing filter 111h is provided. It can be obtained by giving an approximate value to the difference from the light intensity s i ⁇ (s i ⁇ ⁇ s i ⁇ ) .
  • the following formula (10) can be used based on the assumption that the light of each pixel constituting the object plane 121 is a vertically polarized component, a horizontally polarized component, or a non-polarized component.
  • the result s i can be separated into either vertically polarized, horizontally polarized, and unpolarized components.
  • the vertical polarizing filter 111v and the horizontal polarizing filter 111h of the mask 111 act in the same way on the non-polarized component (component with a transmittance of 50%). It is recorded by the imaging device 112 as an offset for estimating the intensity of the component.
  • Equations (8) and (9), which are the solutions described above, represent the difference between the vertical polarization component and the horizontal polarization component at each pixel position forming the object plane 121 .
  • the intensity in the vertical polarization direction is Ii
  • the polarization angle with respect to the vertical polarization direction is ⁇ i
  • the linear polarization degree ( DoLP ) is ⁇ i ( 0 ⁇ i ⁇ 1 ) .
  • the following formula (11) holds based on Malus' law.
  • the polarization angle ⁇ i cannot be determined unless the product of the perpendicular polarization direction intensity I i and the degree of linear polarization (DoLP) ⁇ i is known.
  • the polarization angle ⁇ i is constrained to two angles ⁇ a , ⁇ b ( ⁇ i ⁇ ⁇ a , ⁇ b ⁇ ) such that, for example, cos2 ⁇ a cos2 ⁇ b ⁇ 0, then the object plane 121 can be obtained based on the sign and value of s i obtained by equation (7 ) .
  • step S31 the horizontal polarization filter 111h and the vertical polarization filter 111v of the mask 111 modulate the horizontal polarization component and the vertical polarization component of the light from the object plane 121, respectively, and make them enter the imaging device 112. Since the non-polarized light component is not modulated by the mask 111 , it passes through the mask 111 and enters the imaging element 112 as it is.
  • step S32 the imaging device 112 captures the light from the object plane 121 that has passed through the mask 111, and outputs the captured image to the reconstruction unit 113 as a captured image.
  • step S ⁇ b>33 the reconstruction unit 113 generates a predetermined distance corresponding to the distance from the imaging position of the imaging device 101 to the object plane 121 based on the captured image output from the imaging device 112 and in which the light transmitted through the mask 111 is captured.
  • the final image (restored image) composed of the horizontal polarization component and the final image (restored image) composed of the vertical polarization component are reconstructed using the above-described equation (4) consisting of the coefficient set of , and output to the output unit 34 do.
  • step S34 the output unit 114 synthesizes the reconstructed final image composed of the horizontally polarized component and the reconstructed final image composed of the vertically polarized component.
  • step S35 the output unit 114 performs signal processing on an image obtained by synthesizing the reconstructed image composed of the horizontally polarized component and the reconstructed image composed of the vertically polarized component, and outputs the result as an image signal.
  • the final image (restored image) is reconstructed using a set of coefficients. , it becomes possible to reconstruct images at various distances by one imaging.
  • the imaging device 101 of the present disclosure applies the principle of the lensless imaging device described above, and uses a mask 111 made of a filter that transmits at least two or more specific light components to separate the horizontal polarization component and the vertical polarization component. is modulated and reconstructed. At this time, the unpolarized components are not modulated and therefore not reconstructed.
  • the mask 111 composed of two types of polarizing filters, the horizontal polarizing filter 111h and the vertical polarizing filter 111v, is used to modulate the incident light and take an image, thereby reconstructing an image composed of polarized components.
  • the types of polarizing filters used in the mask 111 are not limited to two types, and more types of polarizing filters may be included.
  • the mask may be formed from three types of polarizing filters including a polarizing filter that transmits a polarized component in the diagonal direction (45 degree direction).
  • FIG. 9 shows an imaging device in which a mask is formed from three types of polarizing filters including a horizontal polarizing filter, a vertical polarizing filter, and a polarizing filter that transmits a polarized component in the diagonal direction (45 degree direction). configuration example.
  • the imaging device 201 in FIG. 9 is composed of a mask 211 , an imaging element 212 , a reconstruction section 213 and an output section 214 .
  • the mask 211, the imaging device 212, the reconstruction unit 213, and the output unit 214 basically correspond to the mask 111, the imaging device 112, the reconstruction unit 113, and the output unit 114 of the imaging device 101 in FIG. It is a configuration with functions.
  • the mask 111 is composed of a horizontal polarizing filter 111h and a vertical polarizing filter 111v
  • the mask 211 is composed of a horizontal polarizing filter 211h and a vertical polarizing filter 211v as well as a diagonal direction (45 degrees direction) is provided (hereinafter referred to as a 45-degree polarizing filter 211s).
  • the mask 111 in FIG. 4 includes a vertical polarizing filter 111v that transmits the vertically polarized light component and a horizontal polarizing filter 111h that transmits the horizontally polarized light component of the light incident from the subject plane 121 on the left side of the figure. were arranged in a pseudo-random pattern.
  • the mask 211 in FIG. 9 includes a vertical polarizing filter 211v that transmits the vertically polarized light component and a horizontal filter 211v that transmits the horizontally polarized light component of the light incident from the subject plane 221 on the left side of the figure.
  • a vertical polarizing filter 211v that transmits the vertically polarized light component
  • a horizontal filter 211v that transmits the horizontally polarized light component of the light incident from the subject plane 221 on the left side of the figure.
  • 45-degree polarizing filters 211s that transmit polarized light components in the diagonal direction (45-degree direction) are arranged in a pseudo-random pattern.
  • the non-polarized component passes through all of the vertical polarizing filter 211v, the horizontal polarizing filter 211h, and the 45-degree polarizing filter 211s, so it passes through without being modulated. Therefore, even if an image is captured by the imaging device 212, the reconstructing unit 213 cannot reconstruct an image of the non-polar
  • the arrangement patterns of the vertical polarizing filters 211v, the horizontal polarizing filters 211h, and the 45-degree polarizing filters 211s may be patterns other than pseudo-random patterns, such as random patterns, URA (Uniformly Redundant Arrays) patterns, and MURA (Modified Uniformly Redundant Arrays) pattern. Further, the vertical polarizing filter 211v, the horizontal polarizing filter 211h, and the 45-degree polarizing filter 211s have the same light transmittance.
  • a vertical striped pattern is drawn in the area where the vertical polarizing filter 211v is arranged on the mask 211, and a horizontal striped pattern is drawn in the area where the horizontal polarizing filter 211h is arranged.
  • the area where the 45-degree polarizing filter 211s is arranged has a diagonal striped pattern.
  • a subject plane 221 on which persons 231 and 232 emitting light of non-polarized light components and smartphones 233 to 235 emitting light of polarized light components in predetermined directions to display images are present.
  • the smartphones 233 to 235 display an image when the QR code is displayed on the display surface.
  • the polarized light components emitted by the smartphones 233 to 235 are modulated by passing through the regions of the vertical polarizing filter 211v, the horizontal polarizing filter 211h, and the 45-degree polarizing filter 211s of the mask 211, and enter the imaging device 212. .
  • the black portion indicates the area of the vertical polarizing filter 211v
  • the white portion indicates the area of the horizontal polarizing filter 211h
  • the gray portion indicates the area of the 45-degree polarizing filter 211s.
  • a pixel value corresponding to a value of 0 to 1 corresponding to the degree of linear polarization (DoLP) is set for each pixel.
  • pixel values corresponding to 0 to ⁇ (Rad) corresponding to the polarization angle are set for each pixel.
  • the pixel values corresponding to the degree of linear polarization are set for the regions where the displays of the smartphones 233 to 235 exist, and the pixel values are set to 0 for the other regions. are black.
  • the pixel values corresponding to the polarization angles are set for the regions where the displays of the smartphones 233 to 235 are present, and the pixel values for the other regions are set to 0 and black. ing.
  • the image 212i is an image composed of a modulated polarized component in which the images of the persons 231 and 232 and the smartphones 233 to 235 in the object plane 221 are not formed, and an unmodulated non-polarized component. Therefore, as shown in FIG. 10, the image becomes blurred as a whole.
  • the reconstruction unit 213 reconstructs images 221 d and 221 a composed of the modulated polarization components based on the image 212 i supplied from the imaging device 212 and outputs the images 221 d and 221 a to the output unit 224 .
  • the reconstruction unit 213 uses coefficient sets corresponding to the vertical polarizing filter 211v, the horizontal polarizing filter 211h, and the 45-degree polarizing filter 211s of the mask 211 for the image 212i.
  • An image 221d' consisting of pixel values multiplied by , and an image 221a consisting of polarization angles are respectively reconstructed.
  • the output unit 214 synthesizes the images 221d' and 221a supplied from the reconstruction unit 213, generates an image 222, and outputs it as the final image.
  • an image 222 composed of modulated components displayed by the smartphones 233 to 235 is output, so an image composed of only non-polarized components such as a human face is output. will not be included.
  • the object plane 221 is assumed to be a rectangular image of M pixels ⁇ N pixels, and light emitted from each pixel as a light source is composed of a vertically polarized component, a horizontally polarized component, a 45-degree polarized component, and a non-polarized component. shall be configured.
  • the image sensor 212 is composed of P pixels ⁇ Q pixels.
  • the vertical polarizing filter 211v, the horizontal polarizing filter 211h, and the 45-degree polarizing filter 211s are arranged in a pseudo-random pattern such that (M+P-1 ) ⁇ (N+Q ⁇ 1) grid, and the shape, size, and transmittance of the pixels of the imaging device 212 are substantially the same.
  • Light from the object plane 221 passes through any one of the vertical polarizing filter 211v, horizontal polarizing filter 211h, and 45-degree polarizing filter 211s formed on the mask 211, is modulated, and enters the imaging device 212.
  • Equation (12) is a determinant of the simultaneous equations.
  • a 0 is a matrix represented by Equation (13) below.
  • p i is the pixel value of the image sensor 212
  • a ij and b ij are coefficients set according to the design of the mask 211.
  • a ij is 1, the vertical polarizing filter 211v, and b ij being 1 represents the horizontal polarizing filter 211h, and when both a ij and b ij are 0, representing the 45 degree polarizing filter 211s.
  • s i ⁇ represents the light intensity of the incident light at the position where the vertical polarizing filter 211v is provided
  • s i ⁇ represents the light intensity of the incident light at the position where the horizontal polarizing filter 211h is provided
  • s i 45 represents the light intensity of the incident light at the position where the 45-degree polarizing filter 211s is provided.
  • Equation (12) is transformed into the following equation (14) in order to solve the simultaneous equations. be able to.
  • a and S are matrices represented by the following formula (15).
  • S is estimated by solving the above equation (14).
  • equation (14) there are various methods for solving equation (14), for example, it may be solved using a pseudo-inverse matrix by normalization.
  • Equation (14) can be expressed as an exact solution as shown in Equation (16) below.
  • Equation (16) or Equation (17) is the difference between the light intensity s i of the incident light at the position where the vertical polarizing filter 111v is provided and the light intensity s i 45 of the 45-degree polarizing filter 211s. (s i ⁇ ⁇ s i 45 ) , and the difference (s i ⁇ -s i 45 ) can be obtained by giving an approximate value to each.
  • the light intensity I i ⁇ i and the polarization angle ⁇ i corresponding to the linear polarization degree ⁇ i can be obtained for each pixel position.
  • Equation (14) and (15) all polarization components are obtained at all points on the object plane 221 . Furthermore, by using equations (22) and (23), the light intensity I i ⁇ i and the polarization angle ⁇ i corresponding to the linear polarization degree ⁇ i at all points can be solved. Images consisting of polarization components cannot be reconstructed.
  • Imaging processing by the imaging device 201 in FIG. 9 will be described with reference to the flowchart in FIG.
  • step S51 the horizontal polarization filter 211h, vertical polarization filter 211v, and 45-degree polarization filter 211s of the mask 211 modulate the horizontal polarization component, vertical polarization component, and 45-degree polarization component of the light from the object plane 221, respectively. to make it incident on the imaging device 212 . Since the non-polarized light component is not modulated by the mask 211 , it passes through the mask 211 as it is and enters the imaging element 212 .
  • step S52 the imaging element 212 captures the light from the object plane 221 and the light transmitted through the mask 211, and outputs the captured image to the reconstruction unit 213.
  • step S ⁇ b>53 the reconstruction unit 213 generates a predetermined distance according to the distance from the imaging position of the imaging device 201 to the object plane 221 based on the captured image output from the imaging element 212 and in which the light transmitted through the mask 211 is captured.
  • equations (14) to (23) which consist of the coefficient set of (Restored image) is output to the output unit 214 .
  • step S54 the output unit 214 synthesizes the final image (restored image) made up of the degree of linear polarization and the final image (restored image) made up of the polarization angles.
  • step S55 the output unit 214 outputs the final image (restored image) having the light intensity I i ⁇ i corresponding to the degree of linear polarization and the final image (restored image) having the polarization angle ⁇ i . Then, the signal is processed and output as an image signal.
  • a mask 211 consisting of a filter that transmits three or more specific light components is used to obtain a horizontal polarization component, a vertical polarization component, and a 45-degree polarization component. are modulated and reconstructed, and non-polarized components are not reconstructed by not being modulated.
  • the final image composed of the light intensity corresponding to the degree of linear polarization of the polarized component and the final image composed of the polarization angle are reconstructed, and the image composed of the non-polarized component is not reconstructed. It is possible to appropriately restrict privacy-related information such as a face image of a person composed of non-polarized components, which is included, and to capture only images composed of polarized components such as smartphones and displays.
  • the 45-degree polarizing filter 211s may be a polarizing filter with an angle other than 45 degrees.
  • a 60-degree polarizing filter or the like that transmits only the component may be used.
  • an ND (Neutral Density) filter may be used.
  • FIG. 13 shows a configuration example of a mask 251 in which an ND filter is provided instead of the 45-degree polarizing filter 211s in the mask 211 of FIG.
  • a vertical striped pattern is drawn in the region where the vertical polarizing filter 251v is arranged on the mask 251, and a horizontal striped pattern is drawn in the region where the horizontal polarizing filter 251h is arranged.
  • the area where the ND filter 251n is arranged is drawn in gray.
  • the vertical polarizing filter 251v, the horizontal polarizing filter 251h, and the ND filter 251n have the same transmittance.
  • a mask in which filters that transmit polarized light components corresponding to a plurality of polarization directions are randomly arranged is provided in front of the imaging device, and the incident light is modulated by the mask and captured, and the final image is reconstructed.
  • the incident light is modulated by the mask and captured, and the final image is reconstructed.
  • the filter formed on the mask may be configured to filter not only the component corresponding to the polarization direction, but also the component corresponding to other light characteristics.
  • filters that transmit specific color components out of RGB (red, green, and blue components) that make up the incident light may be arranged in a pseudorandom pattern on the mask.
  • the imaging device 301 in FIG. The mask 311, the imaging device 312, the reconstruction unit 313, and the output unit 314 have configurations corresponding to the mask 31, the imaging device 32, the reconstruction unit 33, and the output unit 34 in FIG. 1, respectively.
  • the mask 311 has a configuration corresponding to the mask 31 in FIG.
  • the mask 31 has a plate-like configuration made of a light-shielding material, and is configured to modulate incident light by forming the transmission region 41 and the light-shielding region 42 .
  • the mask 311 has a pseudo-random pattern of blue filters 311b and red filters 311b and 311r, respectively, which transmit the blue component and the red filter 311r, respectively. It is configured as
  • the area where the blue filter 311b on the mask 311 is arranged is drawn as a light gray area, and the area where the red filter 311r is arranged is drawn as a dark gray area.
  • the blue filter 311b and the red filter 311r have the same transmittance.
  • a smart phone 331 emitting light containing red and blue components, a display 333, and a document 332 in which a confidential document is written in black (or gray) ink on a white paper surface are present on an object plane 321.
  • a document 332 in which a confidential document is written in black (or gray) ink on a white paper surface are present on an object plane 321.
  • the document 332 for example, it is assumed that white light is projected substantially from the front, and the confidential document itself written on the paper is substantially colored with gray components.
  • the blue component of the light emitted by each of the smartphone 331, the document 332, and the display 333 is modulated by passing through the area of the blue filter 311b of the mask 311, which is indicated by the light gray area in the figure. incident on element 312 .
  • the red component of the light emitted by each of the smartphone 331, the document 332, and the display 333 is modulated by passing through the red filter 311r region of the mask 311, which is indicated by the dark gray region in the figure, and is modulated by the image sensor. 312.
  • an image 321r made up of red components, an image 321p made up of gray components, and an image 321b made up of blue components are transmitted through the mask 311 in a combined state.
  • the image 312i is an image composed of modulated light and unmodulated light in which the respective images of the smartphone 331, the document 332, and the display 333 in the object plane 321 are not formed. As shown in , the image is vague as a whole.
  • the reconstruction unit 313 reconstructs the images 321 b and 321 r based on the image 312 i supplied from the imaging device 312 and outputs them to the output unit 314 .
  • the mask 311 has a configuration in which blue filters 311b and red filters 311r are arranged in a pseudo-random pattern.
  • the blue filter 311b functions as the transmission region 41 of the mask 31 in FIG. 1
  • the red filter 311r functions as the light shielding region 42 in FIG. , the blue component is modulated.
  • the red filter 311r functions as the transmission region 41 of the mask 31 in FIG. 1
  • the blue filter 311b functions as the light shielding region 42 in FIG. Modulation is applied to the red component.
  • the blue and red components are obtained by evenly dividing the observation result of the light modulated by the blue and red filters 311b and 311r of the mask 311 and the blue and red components.
  • An image 312 i is captured as an image 312 i and output to the reconstruction unit 313 .
  • the reconstruction unit 313 applies the blue filter 311b and the red filter 311r of the mask 311 to the image 312i by using the coefficient sets of the respective coefficient sets.
  • An image 321r consisting of a red component is reconstructed.
  • the reconstructing unit 313 cannot reconstruct an unmodulated gray component that equally includes a blue component and a red component, and therefore cannot reconstruct an image corresponding to the image 321p.
  • the output unit 314 synthesizes the image 321b composed of the blue component and the image 321r composed of the red component supplied from the reconstruction unit 313 to generate the image 322 shown in the right part of FIG. Output as an image.
  • the image 321b made up of the blue component and the image 321r made up of the red component are synthesized, so that, for example, the smartphone 331 displaying the display image made up of the red component and the blue component and the display 333 display
  • An image 322 is output that is configured by synthesizing the surface portions and that does not include the document 332 made up of gray components.
  • Imaging processing by the imaging apparatus 101 in FIG. 14 will be described with reference to the flowchart in FIG. 17 .
  • step S ⁇ b>71 the blue filter 311 b and red filter 311 r of the mask 311 modulate the blue component and red component of the light from the object plane 321 , respectively, and make them enter the imaging element 312 .
  • a gray component including a blue component and a red component evenly is not modulated even if it passes through the mask 311 , it passes through the mask 311 as it is and enters the imaging device 312 .
  • step S72 the image sensor 312 detects the light from the object plane 321, which is modulated by passing through the mask 311, the blue component and the red component, and the unmodulated blue component and the red component.
  • An image composed of light including a gray component that equally includes the gray component is captured and output to the reconstruction unit 313 as a captured image.
  • step S73 the reconstruction unit 313 generates a final image (restored image) made up of blue components and a final image ( (Restored image) is reconstructed and output to the output unit 314 .
  • a non-modulated gray component image that equally includes blue and red components is not reconstructed.
  • step S74 the output unit 314 synthesizes the final image made up of the red component and the final image made up of the blue component.
  • the output unit 314 may output a composite result of a final image made up of red components and a final image made up of blue components.
  • step S75 the output unit 314 performs signal processing on the image obtained by synthesizing the reconstructed image composed of the red component and the reconstructed image composed of the blue component, and outputs the result as an image signal.
  • a mask 311 made of a filter that transmits at least two types of specific light components is used to form a transmission region 41 and a light blocking region 42 for each light component. to modulate the blue and red components.
  • the final image of the blue component and the red component may be reconstructed.
  • modulates the blue and green components reconstructs the modulated blue and green components, and includes both blue and green components equally.
  • the gray component may not be reconstructed.
  • constructing a mask 311 made up of filters that transmit the red component and the green component the red component and the green component are modulated, the modulated red component and the green component are reconstructed, and the red component and the green component are reconstructed.
  • the mask 311 composed of a filter that evenly transmits the blue component and the red component
  • other color components cannot be reconstructed as long as the color includes the blue component and the red component evenly.
  • the mask 311 by configuring the mask 311 with filters that transmit blue and green components, the blue and green components are modulated and the modulated blue and green components are reconstructed. In this way, other color components that equally contain both blue and green components may also be prevented from being reconstructed, for example, an intermediate color that equally contains both blue and green components. Certain cyan components may not be reconstructed.
  • a mask 311 composed of a filter that equally transmits the red component and the green component
  • the red component and the green component are modulated
  • the modulated red component and the green component are reconstructed
  • the red component is modulated.
  • Other color components that equally contain both red and green components may also be prevented from being reconstructed. good.
  • Reconstruction may be restricted so that images of wavelength components that equally include each of two specific types of components are not reconstructed.
  • each of the RGB components red, green, and blue components
  • gray components containing each of the RGB components are reconstructed. It may not be configured.
  • FIG. 18 shows an image including each of the RGB components evenly, for example, by filtering each of the RGB components (red component, green component, blue component) so as to reconstruct the final image for each of the RGB components. , gray components, etc., are not reconstructed.
  • the mask 351 is provided in front of the imaging device 312 instead of the mask 311 in the imaging device 301 of FIG.
  • a red filter 351r that transmits a red component, a green filter 351g that transmits a green component, and a blue filter 351b that transmits a blue component are arranged in a pseudorandom pattern.
  • the area where the blue filter 351b on the mask 351 is arranged is drawn as a dark gray area
  • the area where the green filter 351g is arranged is drawn as an intermediate color between dark gray and light gray. It is drawn as a dark gray area
  • the area where the red filter 351r is arranged is drawn as a light gray area.
  • the blue filter 351b, the green filter 351g, and the red filter 351r have the same transmittance.
  • a red filter 351r, a green filter 351g, and a blue filter 351b transmit the red component, the green component, and the blue component, respectively, so that they are modulated and made incident on the imaging element 312.
  • the reconstruction unit 313 reconstructs the final images of the modulated red, green, and blue components picked up by the imaging device 312 and outputs them to the output unit 314 .
  • the output unit 314 synthesizes and outputs the final images of the reconstructed red, green, and blue components.
  • a component in which red, green, and blue components are evenly synthesized is equally transmitted through each of the red filter 351r, the green filter 351g, and the blue filter 351b.
  • a component such as a gray component in which the red component, the green component, and the blue component are evenly synthesized is incident on the imaging element 312 in a state in which it is not modulated even if it passes through the mask 351. become.
  • the reconstruction unit 313 reconstructs a final image of a component, such as a gray component, in which the red component, the green component, and the blue component are evenly synthesized, based on the image captured by the image sensor 312. Can not do it.
  • a component such as a gray component, in which the red component, the green component, and the blue component are evenly synthesized, based on the image captured by the image sensor 312. Can not do it.
  • the mask 351 makes it possible to reconstruct the final image of each of the RGB components, and for a final image containing evenly each of the RGB components, e.g. Since it is not possible, it is possible to limit the reflection of an image composed of components including evenly distributed RGB components, such as gray components.
  • FIG. 19 shows a configuration example of a general-purpose computer.
  • This personal computer incorporates a CPU (Central Processing Unit) 1001 .
  • An input/output interface 1005 is connected to the CPU 1001 via a bus 1004 .
  • a ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004 .
  • the input/output interface 1005 includes an input unit 1006 including input devices such as a keyboard and a mouse for the user to input operation commands, an output unit 1007 for outputting a processing operation screen and images of processing results to a display device, and programs and various data.
  • LAN Local Area Network
  • magnetic discs including flexible discs
  • optical discs including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical discs (including MD (Mini Disc)), or semiconductors
  • a drive 1010 that reads and writes data from a removable storage medium 1011 such as a memory is connected.
  • the CPU 1001 reads a program stored in the ROM 1002 or a removable storage medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installs the program in the storage unit 1008, and loads the RAM 1003 from the storage unit 1008. Various processes are executed according to the program.
  • the RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.
  • the CPU 1001 loads, for example, a program stored in the storage unit 1008 into the RAM 1003 via the input/output interface 1005 and the bus 1004, and executes the above-described series of programs. is processed.
  • a program executed by the computer (CPU 1001) can be provided by being recorded on a removable storage medium 1011 such as a package medium, for example. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage section 1008 via the input/output interface 1005 by loading the removable storage medium 1011 into the drive 1010 . Also, the program can be received by the communication unit 1009 and installed in the storage unit 1008 via a wired or wireless transmission medium. In addition, programs can be installed in the ROM 1002 and the storage unit 1008 in advance.
  • the program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be executed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • a system means a set of multiple components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a single device housing a plurality of modules in one housing, are both systems. .
  • the present disclosure can take the configuration of cloud computing in which a single function is shared by multiple devices via a network and processed jointly.
  • each step described in the flowchart above can be executed by a single device, or can be shared by a plurality of devices.
  • one step includes multiple processes
  • the multiple processes included in the one step can be executed by one device or shared by multiple devices.
  • ⁇ 1> a mask having a plurality of transmission regions formed in a predetermined pattern for transmitting each of a plurality of components of incident light, and transmitting the incident light by modulating each of the plurality of components; an imaging device that captures a transmission image made up of light that has passed through the mask; and a reconstruction unit that reconstructs an image corresponding to the incident light based on the transmission image.
  • ⁇ 2> The imaging device according to ⁇ 1>, wherein the plurality of transmissive regions are formed in a pseudo-random pattern.
  • ⁇ 3> The imaging device according to ⁇ 1> or ⁇ 2>, wherein the plurality of transmissive regions are formed to have the same transmittance.
  • ⁇ 4> The imaging device according to any one of ⁇ 1> to ⁇ 3>, wherein the plurality of transmission regions are formed of a linear polarization filter that transmits polarized components in a plurality of directions.
  • ⁇ 5> The imaging device according to ⁇ 4>, wherein the plurality of transmission regions are formed of a linear polarization filter that transmits polarized components in two directions.
  • ⁇ 6> The imaging device according to ⁇ 5>, wherein the plurality of transmission regions are formed of a linear polarization filter that transmits a vertical polarization component and a horizontal polarization filter that transmits a horizontal polarization component.
  • ⁇ 7> The imaging device according to ⁇ 6>, wherein the reconstruction unit reconstructs a vertical polarization component image made up of the vertical polarization component and a horizontal polarization component image made up of the horizontal polarization component.
  • the vertical polarization component image and the horizontal polarization component image are synthesized and output.
  • the plurality of transmission areas are formed of a linear polarization filter that transmits polarized components in three directions.
  • the plurality of transmission regions are formed of a linear polarization filter that transmits a vertical polarization component, a horizontal polarization filter that transmits a horizontal polarization component, and a 45-degree polarization filter that transmits a 45-degree polarization component.
  • ⁇ 11> The imaging device according to ⁇ 10>, wherein the reconstructing unit reconstructs an image obtained by synthesizing the light intensity and the degree of linear polarization and an image composed of polarization angles.
  • ⁇ 12> The imaging device according to ⁇ 11>, wherein the reconstructed image obtained by combining the light intensity and the degree of linear polarization and the image formed by the polarization angle are combined and output.
  • ⁇ 13> The imaging device according to any one of ⁇ 1> to ⁇ 3>, wherein the plurality of transmission areas are formed of a linear polarization filter that transmits polarized components in a plurality of directions and an ND (Neutral Density) filter.
  • ⁇ 14> The imaging device according to ⁇ 13>, wherein the plurality of transmission regions are formed of a linear polarization filter that transmits polarized components in two directions and the ND filter.
  • ⁇ 15> The imaging device according to any one of ⁇ 1> to ⁇ 3>, wherein the plurality of transmission regions are formed from a wavelength filter that transmits a plurality of wavelength components.
  • the imaging device according to ⁇ 15>, wherein the plurality of transmission regions are formed from the wavelength filter that transmits two or three wavelength components.
  • the plurality of transmission regions include the two or three types of a blue filter that transmits a blue wavelength component, a red filter that transmits a red wavelength component, and a green filter that transmits a green wavelength component.
  • the imaging device which is formed from the wavelength filter that transmits wavelength components.
  • the reconstruction unit reconstructs images of the two or three wavelength components that form the plurality of transmission regions.
  • the imaging device according to ⁇ 18>, wherein the reconstructed images of the two or three wavelength components are combined and output.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

本開示は、画像を撮像する際に含まれてしまう情報を適切に制限できるようにする撮像装置、および撮像装置の作動方法に関する。 入射光を複数の成分毎に透過させる複数の透過領域が所定のパターンで形成されたマスクを撮像素子の前段に形成し、入射光に変調を掛けて変調光として透過させ、撮像素子が、変調光からなる画像を撮像し、再構成部が、変調光からなる画像に基づいて、画像を再構成する。本開示は、撮像装置に適用することができる。

Description

撮像装置、および撮像装置の作動方法
 本開示は、撮像装置、および撮像装置の作動方法に関し、特に、画像を撮像する際に含まれてしまう情報を適切に制限できるようにした撮像装置、および撮像装置の作動方法に関する。
 イメージセンサなどの撮像面の前段に、カバーやフィルターを配し、シーンの一部領域の撮影ができないようにする事で、画像として撮像される情報を制限する技術が提案されている(特許文献1参照)。また、偏光フィルタを配する事で、同様に撮像される情報を制限する技術が開示されている(特許文献2参照)。
米国特許出願公開2013/0050549号明細書 米国特許出願公開2018/0348536号明細書
 ところで、特許文献1のようなフィルタを用いて実現されるアプリケーションの第1の例としては、例えば、シーン全体、または、シーンの一部の光を物理的に遮光することで、特定の情報を除去して、例えば、プライバシ保護を実現するものが挙げられる。
 ところが、このアプリケーションにおいては、動きのあるシーンに対しては、適切に機能しないことがある。
 すなわち、動きのあるシーンにおいて、このアプリケーションを機能させるには、内部において入射光を遮光する、シーン全体、または、シーンの一部の領域を変化させる処理を組み込む必要がある。
 しかしながら、この場合、プライバシを保護すべき領域を同定するためには、一度、シーン全体を撮像し、撮像したシーン全体からプライバシを保護する領域を同定する必要があり、厳密なプライバシ保護を保証することができない。
 また、第2の例としては、偏光成分を発するディスプレイからの情報をブロックする偏光フィルタを使用して、シーン全体、または、シーンの一部の光を物理的に遮光することで、特定の情報を除去して、プライバシ保護を実現するものが挙げられる。
 しかしながら、この第2の例においては、非偏光成分をブロックし、偏光成分を透過させるようなフィルタであるため、第1の例におけるフィルタとは反対のフィルタになってしまう。
 また、先行文献2においては、非偏光成分が全ての偏光成分を持つため、偏光フィルタが、非偏光成分の一部に対してフィルタとして機能しない。
 本開示は、このような状況に鑑みてなされたものであり、特に、イメージセンサなどを用いた撮像において、撮像結果となる画像に含まれてしまう情報を適切に制限できるようにした撮像装置を実現する。
 本開示の一側面の撮像装置は、入射光を複数の成分毎に透過させる複数の透過領域が所定のパターンで形成され、前記入射光に前記複数の成分のそれぞれに変調を掛けて透過させるマスクと、前記マスクを透過した光からなる透過画像を撮像する撮像素子と、前記透過画像に基づいて、前記入射光に対応する画像を再構成する再構成部とを備える撮像装置である。
 本開示の一側面の撮像装置の作動方法は、入射光を成分毎に透過させる複数の透過領域が所定のパターンで形成されたマスクと、撮像素子と、再構成部とを備えた撮像装置の作動方法において、前記マスクが、前記入射光の成分のそれぞれに変調を掛けて変調光として透過させ、前記撮像素子が、前記マスクを透過した光からなる透過画像を撮像し、前記再構成部が、前記透過画像に基づいて、前記入射光に対応する画像を再構成するステップを含む撮像装置の作動方法である。
 本開示の一側面においては、入射光を複数の成分毎に透過させる複数の透過領域が所定のパターンで形成されたマスクにより、前記入射光に前記複数の成分のそれぞれに変調が掛けられて透過され、撮像素子により、前記マスクを透過した光からなる透過画像が撮像され、前記透過画像に基づいて、前記入射光に対応する画像が再構成される。
レンズレスカメラの概要を説明する図である。 レンズレスカメラの撮像原理を説明する図である。 レンズレスカメラの撮像処理を説明するフローチャートである。 本開示の撮像装置の第1の実施の形態の構成例を説明する図である。 図4のマスクの構成を説明する図である。 図4の撮像装置の撮像原理を説明する図である。 図4の撮像装置により生成される最終画像を説明する図である。 図4の撮像装置の撮像処理を説明するフローチャートである。 本開示の撮像装置の第2の実施の形態の構成例を説明する図である。 図9の撮像装置の撮像原理を説明する図である。 図9の撮像装置により生成される最終画像を説明する図である。 図9の撮像装置の撮像処理を説明するフローチャートである。 本開示の撮像装置の第2の実施の形態の応用例となるマスクの構成を説明する図である。 本開示の撮像装置の第3の実施の形態の構成例を説明する図である。 図14の撮像装置の撮像原理を説明する図である。 図14の撮像装置により生成される最終画像を説明する図である。 図14の撮像装置の撮像処理を説明するフローチャートである。 本開示の撮像装置の第3の実施の形態の応用例となるマスクの構成を説明する図である。 汎用のパーソナルコンピュータの構成例を説明する図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.レンズレス撮像装置の概要
 2.第1の実施の形態
 3.第2の実施の形態
 4.第2の実施の形態の応用例
 5.第3の実施の形態
 6.第3の実施の形態の応用例
 7.ソフトウエアにより実行させる例
 <<1.レンズレス撮像装置の概要>>
 図1を参照して、レンズレス撮像装置の概要について説明する。尚、図1は、レンズレス撮像装置11の側面断面図である。
 図1の撮像装置11は、いわゆるレンズレスカメラであり、マスク31、撮像素子32、再構成部33、および出力部34を備えている。
 マスク31は、撮像素子32の前段に設けられる遮光素材からなる板状の構成であり、例えば、図2の左部で示されるように、入射光を透過させる穴状の開口部からなる透過領域41と、それ以外の遮光された遮光領域42とから構成されている。
 マスク31は、光軸AXで示される被写体面(現実には3次元の被写体からの放射光が発せられる面)G1からの光を入射光として受光すると、透過領域41を介して、入射光を透過させることで、被写体面G1からの入射光に対して全体として変調を掛けて、変調光に変換し、変換した変調光を撮像素子32により受光させて撮像させる。
 撮像素子32は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサからなり、被写体面G1からの入射光に、マスク31により変調が掛けられた変調光を撮像し、画素単位の信号からなる画像G2として再構成部33に出力する。
 尚、マスク31は、少なくとも撮像素子32の全面を内包する大きさであり、基本的に撮像素子32において、マスク31を透過することで変調が掛けられた変調光のみが受光される構成とされている。
 また、マスク31に構成される透過領域41は、少なくとも撮像素子32の画素サイズよりも大きいサイズである。また、撮像素子32とマスク31との間には、微小な距離dの隙間が設けられている。
 例えば、図2の左上部で示されるように、被写体面G1上の点光源PA,PB,PCからの入射光が、マスク31の透過領域41を透過して撮像素子32上の位置Pa,Pb,Pcにおいて、それぞれ光強度a,b,cの光線として受光されるものとする。
 図2の左上部で示されるように、各画素の検出感度は、マスク31に設定される透過領域41により入射光が変調されることにより、入射角に応じた指向性を持つことになる。ここでいう各画素の検出感度に入射角指向性を持たせるとは、撮像素子32上の領域に応じて入射光の入射角度に応じた受光感度特性を異なるものとなるように持たせることである。
 すなわち、被写体面G1を構成する光源が点光源であることを前提とした場合、撮像素子32においては、同一の点光源より発せられた同一の光強度の光線が、入射されることになるが、マスク31により変調されることにより、撮像素子32の撮像面上の領域毎に入射角度が変化する。そして、マスク31により撮像素子32上の領域に応じて入射光の入射角度が変化することにより受光感度特性、すなわち、入射角指向性を有しているので、同一の光強度の光線であっても、撮像素子32の撮像面の前段に設けられたマスク31により撮像素子32上の領域毎に異なる感度で検出されることになり、領域毎に異なる検出信号レベルの検出信号が検出される。
 より具体的には、図2の右上部で示されるように、撮像素子32上の位置Pa,Pb,Pcにおける画素の検出信号レベルDA,DB,DCは、それぞれ以下の式(1)乃至式(3)で表される。尚、図2における式(1)乃至式(3)は、図2における撮像素子32上における位置Pa,Pb,Pcと上下関係が反転している。
 DA=α1×a+β1×b+γ1×c
                           ・・・(1)
 DB=α2×a+β2×b+γ2×c
                           ・・・(2)
 DC=α3×a+β3×b+γ3×c
                           ・・・(3)
 ここで、α1は、撮像素子32上の位置Paにおける復元する被写体面G1上の点光源PAからの光線の入射角度に応じて設定される検出信号レベルaに対する係数である。
 また、β1は、撮像素子32上の位置Paにおける復元する被写体面G1上の点光源PBからの光線の入射角度に応じて設定される検出信号レベルbに対する係数である。
 さらに、γ1は、撮像素子32上の位置Paにおける復元する被写体面G1上の点光源PCからの光線の入射角度に応じて設定される検出信号レベルcに対する係数である。
 従って、検出信号レベルDAのうちの(α1×a)は、位置Paにおける点光源PAからの光線による検出信号レベルを示したものである。
 また、検出信号レベルDAのうちの(β1×b)は、位置Paにおける点光源PBからの光線による検出信号レベルを示したものである。
 さらに、検出信号レベルDAのうちの(γ1×c)は、位置Paにおける点光源PCからの光線による検出信号レベルを示したものである。
 従って、検出信号レベルDAは、位置Paにおける点光源PA,PB,PCの各成分に、それぞれの係数α1,β1,γ1を掛けたものの合成値として表現される。以降、係数α1、β1、γ1を合わせて係数セットと呼ぶこととする。
 同様に、点光源Pbにおける検出信号レベルDBについて、係数セットα2,β2,γ2は、それぞれ点光源PAにおける検出信号レベルDAについての、係数セットα1,β1,γ1に対応するものである。また、点光源Pcにおける検出信号レベルDCについて、係数セットα3,β3,γ3は、それぞれ点光源Paにおける検出信号レベルDAについての、係数セットα1,β1,γ1に対応するものである。
 ただし、位置Pa,Pb,Pcの画素の検出信号レベルについては、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cと係数との積和により表現される値である。このため、これらの検出信号レベルは、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cが入り交じったものとなるので、被写体の像が結像されたものとは異なるものである。尚、この位置Pa,Pb,Pcの画素の検出信号レベルDA,DB,DCからなる画像が、図1の画像G2に対応する。
 すなわち、この係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3と、検出信号レベルDA,DB,DCを用いた連立方程式を構成し、光強度a,b,cを解くことで、図2の右下部で示されるように各位置Pa,Pb,Pcの画素値を求める。これにより画素値の集合である復元画像(最終画像)が再構成されて復元される。尚、この再構成される画像が、図1の画像G3に対応する。
 また、図2の左上部で示される撮像素子32と被写体面G1との距離が変化する場合、係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3は、それぞれ変化することになるが、この係数セットを変化させることで、様々な距離の被写体面の復元画像(最終画像)を再構成させることができる。
 このため、1回の撮像により、係数セットを様々な距離に対応するものに変化させることで、撮像位置から様々な距離の被写体面の画像を再構成することができる。
 結果として、図1の撮像装置11を用いた撮像においては、レンズを用いた撮像装置での撮像において合焦点がずれた状態で撮像される、いわゆる、ピンぼけといった現象を意識する必要がなく、視野内に撮像したい被写体が含まれるように撮像されていれば、距離に応じた係数セットを変化させることで様々な距離の被写体面の画像を、撮像後に再構成することができる。
 尚、図3の右上部で示される検出信号レベルは、被写体の像が結像された画像に対応する検出信号レベルではないので、画素値ではなく、単なる観測値となり、観測値からなる画像が画像G2に相当する。また、図3の右下部で示される検出信号レベルは、被写体の像が結像された画像に対応する画素毎の信号値、すなわち、画像G2に基づいて復元された、復元画像(最終画像)の各画素の値なので、画素値となる。すなわち、この被写体面G1の復元画像(最終画像)が、画像G3に対応する。
 このような構成により、撮像装置11は、いわゆるレンズレスカメラとして機能させることが可能となる。結果として、撮像レンズが必須構成とならないので、撮像装置の低背化、すなわち、撮像機能を実現する構成における光の入射方向に対する厚さを薄くすることが可能になる。また、係数セットを様々に変化させることにより、様々な距離の被写体面における最終画像(復元画像)を再構成して復元することが可能となる。
 尚、以降においては、撮像素子32により撮像された、再構成される前の画像G2に相当する画像を単に撮像画像と称し、撮像画像が信号処理されることにより再構成されて復元される画像G3に相当する画像を最終画像(復元画像)と称する。従って、1枚の撮像画像からは、上述した係数セットを様々に変化させることにより、様々な距離の被写体面G1上の画像を最終画像として再構成させることができる。
 再構成部33は、上述した係数セットを備えており、撮像装置11の撮像位置から被写体面G1までの距離に応じた係数セットを用いて、撮像素子32により撮像された撮像画像(図1の画像G2)に基づいて、最終画像(復元画像)(図1の画像G3)を再構成して出力部34に出力する。
 出力部34は、再構成部33より供給されてきた最終画像に信号処理を加えて画像信号として出力する。
 <図1の撮像装置による撮像処理>
 次に、図3のフローチャートを参照して、図1の撮像装置11による撮像処理について説明する。
 ステップS11において、マスク31は、被写体面G1からの光に変調を掛けて、撮像素子32に入射させる。
 ステップS12において、撮像素子32は、被写体面G1からの光であって、マスク31により変調が掛けられた光からなる像を撮像して、撮像画像(画像G2に相当)として再構成部33に出力する。
 ステップS13において、再構成部33は、撮像素子32より出力される変調された光からなる像が撮像された撮像画像(画像G2に相当)に基づいて、撮像装置11の撮像位置から被写体面G1までの距離に応じた所定の係数セットを用いて、画像を再構成して最終画像(復元画像)(画像G3に相当)として出力部34に出力する。すなわち、撮像画像に対して、上述した式(1)乃至式(3)を参照して説明した係数セットを用いた連立方程式を構成して解くことにより、最終画像(復元画像)が求められることになる。
 ステップS14において、出力部34は、信号処理を施して、画像信号として出力する。
 すなわち、以上の一連の処理により、レンズを用いることなく、マスクを用いて変調を掛けた後、係数セットを用いて最終画像(復元画像)を再構成するようにしたので、低背化を実現すると共に、1回の撮像で様々な距離の画像を再構成することが可能となる。
 本開示の撮像装置は、上述したレンズレス撮像装置の原理を応用して、少なくとも2種類以上の特定の光の成分を透過させるフィルタを、それぞれの光の成分に対する透過領域41と遮光領域42として機能させることにより、特定の光の成分に対して変調を掛けて再構成させる。
 これにより、特定の光の成分からなる最終画像を再構成させることで、画像を撮像する際に含まれてしまう情報を適切に制限できるようにした撮像装置を実現する。
 <<2.第1の実施の形態>>
 <本開示の撮像装置の構成例>
 次に、図4を参照して、本開示の撮像装置の第1の実施の形態の構成例について説明する。
 図4の撮像装置101は、偏光成分からなる画像のみを再構成させ、非偏光成分からなる画像を再構成させないようにして、最終画像を偏光成分のみで構成される画像とすることで、非偏光成分により構成される画像に含まれる情報を制限する。
 より詳細には、撮像装置101は、マスク111、撮像素子112、再構成部113、および出力部114より構成される。尚、マスク111、撮像素子112、再構成部113、および出力部114は、それぞれ図1のマスク31、撮像素子32、再構成部33、および出力部34に対応する構成である。
 マスク111は、図1のマスク31に対応する構成であり、入射光に対して所定の変調を掛けて、撮像素子112に入射させる。
 上述したように、マスク31は、遮光素材からなる板状の構成において、透過領域41と遮光領域42とが形成されることにより、入射光に対して変調を掛ける構成とされている。
 これに対して、マスク111は、図中左側の被写体面121より入射される光のうち、垂直方向の偏光成分を透過させる垂直偏光フィルタ111vと、水平方向の偏光成分を透過させる水平偏光フィルタ111hとが、疑似ランダムパターンで配置された構成とされている。
 垂直偏光フィルタ111vと、水平偏光フィルタ111hとの配置パターンは、疑似ランダムパターン以外のパターンでもよく、例えば、ランダムパターン、URA(Uniformly Redundant Arrays)パターン、およびMURA(Modified Uniformly Redundant Arrays)パターンでもよい。垂直偏光フィルタ111v、および水平偏光フィルタ111hのそれぞれの光の透過率は等しい。
 尚、図4においては、マスク111上の垂直偏光フィルタ111vが配置された領域については、縦縞状の模様が描かれており、水平偏光フィルタ111hが配置された領域については、横縞状の模様が描かれている。
 ここで、被写体面121上には、垂直方向の光の偏光成分からなる垂直偏光成分Lvを発するスマートフォン131、非偏光の光からなる非偏光成分Luを発する人物132、および、水平方向の光の偏光成分からなる水平偏光成分Lhを発するディスプレイ133が存在する場合の例について考える。
 この場合、スマートフォン131が発する垂直偏光成分Lvは、例えば、図5の中央部における白色領域で示されるマスク111の垂直偏光フィルタ111vの領域を透過することにより変調されて撮像素子112に入射する。撮像素子112は、変調された垂直偏光成分Lvよりなる画像を撮像する。再構成部113は、変調された垂直偏光成分Lvよりなる画像に基づいて、垂直偏光成分Lvよりなるスマートフォン131の画像を再構成する。
 また、人物132が発する非偏光成分Luは、図5の左部で示されるように、水平偏光フィルタ111hも、垂直偏光フィルタ111vも透過する。そのため、撮像素子112にはマスク111の全面から透過した光が入射する事となり、上述した画像の再構成処理によって人物132の画像を再構成する事ができない。すなわち、非偏光成分Luは、水平偏光フィルタ111hも、垂直偏光フィルタ111vも透過することにより、あたかもマスク111が存在しない透明な空間を透過するような状態となり、変調されない状態で撮像素子112に入射して、撮像される。換言すれば、非偏光成分Luが、マスク111を透過する際には、マスク111上に透過領域41に相当する領域しかなく、遮光領域42に相当する領域が存在しない状態となるため、非偏光成分Luはマスク111により変調されることがない状態で撮像素子112に入射して、撮像される。このため、再構成部113は、変調されていない入射光である、非偏光成分Luよりなる画像を再構成することができないので、人物132については再構成することができない。
 さらに、ディスプレイ133が発する水平偏光成分Lhは、図5の右部における白色領域で示されるマスク111の水平偏光フィルタ111hの領域を透過することにより変調されて撮像素子112に入射する。撮像素子112は、変調された水平偏光成分Lhよりなる画像を撮像する。再構成部113は、変調された水平偏光成分Lhよりなる画像に基づいて、水平偏光成分Lhよりなるディスプレイ133の画像を再構成する。
 なお、図5の中央部と右部における白色部分と黒色部分とは、相互に対応しており、マスク111の各領域は、水平偏光フィルタ111h、および、垂直偏光フィルタ111vの少なくともいずれかの領域であることが示されている。
 すなわち、図6で示されるように、スマートフォン131、人物132、およびディスプレイ133の像を含む被写体面121からは、非偏光成分Luよりなる画像121u、垂直偏光成分Lvよりなる画像121v、および水平偏光成分Lhよりなる画像121hが組み合わされた状態でマスク111を透過する。
 ここで、図6の垂直偏光成分Lvのみからなる画像121vは、垂直偏光成分Lvを発するスマートフォン131内の表示である気球のみとされ、それ以外は黒色の画像として観測される。
 また、図6の水平偏光成分Lhのみからなる画像121hは、水平偏光成分Lhを発するディスプレイ133内の表示である自動車のみとされ、それ以外は黒色の画像として観測される。
 さらに、図6の非偏光成分Luのみからなる画像121uは、被写体面121より直視するとき認識される、画像121vにおけるスマートフォン131内の表示画像と、画像121hにおけるディスプレイ133内の表示画像とが黒色とされた画像として観測される。
 これにより、被写体面121からの入射光については、人間が直視するときには、図6の被写体面121そのものが画像121uのように視聴されることになるが、マスク111においては、垂直偏光成分Lvと水平偏光成分Lhとが変調された状態で、非偏光成分Luが変調されない状態で、それぞれ撮像素子112に入射する。これにより、垂直偏光成分Lvよりなる画像121vと、水平偏光成分Lhよりなる画像121hとは、撮像素子112により撮像された画像に基づいて再構成部113により再構成される。これに対して、変調されていない非偏光成分Luよりなる画像121uは、再構成部113において再構成されない。
 これらをまとめると以下のようになる。すなわち、図6で示されるように、被写体面121からの光がマスク111を透過して、変調が掛けられることにより、撮像素子112においては、例えば、画像112iのような画像が撮像される。
 画像112iは、変調された垂直偏光成分Lvからなる被写体面121内のスマートフォン131、変調されていない非偏光成分Luからなる人物132、および変調された水平偏光成分Lhからなるディスプレイ133のそれぞれの像が結像されていない状態の画像となるため、図6で示されるように、全体としてぼんやりとした画像となる。
 再構成部113は、撮像素子112より供給される画像112iに基づいて、変調された垂直偏光成分Lvからなる画像121vおよび変調された水平偏光成分Lhからなる121hに対応する画像121v’,121h’を再構成して、出力部114に出力する。このとき、再構成部113は、変調されていない非偏光成分Luについては、再構成できないので、変調されていない非偏光成分Luからなる画像121uに対応する画像は再構成できない。
 ここで、図5を参照して説明したように、マスク111は、水平偏光フィルタ111hと垂直偏光フィルタ111vとがそれぞれ疑似ランダムパターンで配置された構成とされている。
 このため、水平偏光成分Lhが、マスク111を透過する際には、水平偏光フィルタ111hが、図1のマスク31の透過領域41として機能し、垂直偏光フィルタ111vが、図1の遮光領域42として機能することにより、水平偏光成分Lhに変調が掛けられる。
 一方、垂直偏光成分Lvが、マスク111を透過する際には、垂直偏光フィルタ111vが、図1のマスク31の透過領域41として機能し、水平偏光フィルタ111hが、図1の遮光領域42として機能することにより、垂直偏光成分Lvに変調が掛けられる。
 すなわち、撮像素子112においては、水平偏光成分Lhと垂直偏光成分Lvとは、マスク111の垂直偏光フィルタ111vと水平偏光フィルタ111hとのそれぞれの変調が掛けられた状態の光と、変調が掛けられていない非偏光成分の光との観測結果を画像112iとして撮像し、再構成部113に出力する。
 再構成部113は、図7で示されるように、画像112iに対して、マスク111の垂直偏光フィルタ111vと水平偏光フィルタ111hとに対応した係数セットを用いて、垂直偏光成分Lvからなる画像121vに対応する画像121v’と水平偏光成分Lhからなる画像121hに対応する画像121h’とをそれぞれ再構成する。尚、このとき、再構成部113は、非偏光成分Luよりなる画像121uについては、変調が掛けられていない状態で撮像された画像に基づいた処理となるため、再構成することができない。
 出力部114は、再構成部113より供給される垂直偏光成分Lvからなる画像121v’と水平偏光成分Lhからなる画像121h’とを合成して、図4の右部で示されるような画像122を生成して、最終画像として出力する。
 これにより、スマートフォン131により表示される垂直偏光成分Lvよりなる画像121v’と、ディスプレイ133により表示される水平偏光成分Lhよりなる画像121h’とからなる画像122が出力されることになるので、人間の顔などの非偏光成分のみからなる像が含まれないことになる。
 結果として、人物132の、特に顔などのプライバシに係る情報が撮像されないように制限した上で、スマートフォン131やディスプレイ133で表示される画像のみの撮像を実現することが可能となる。
 例えば、スマートフォン131やディスプレイ133上に表示されているQRコード(登録商標)などを撮像(再撮)したい場合、スマートフォン131やディスプレイ133を所持した人物の顔などが撮像視野内に存在しているようなときには、これまでの撮像技術では、QRコードと共に、スマートフォン131やディスプレイ133を所持した人物の顔が映り込んでしまい、プライバシの配慮が難しくなることがあった。
 このような場合でも、本開示の撮像装置101を用いて撮像することで、QRコードが表示された、スマートフォン131やディスプレイ133を所持した人物の顔が撮像視野内に存在しても、非偏光成分からなる人物の顔については、撮像されないことになるので、QRコードのみが撮像されるようになり、プライバシに配慮した適切な撮像の制限を実現することが可能となる。
 <再構成部による再構成について>
 次に、再構成部113による具体的な再構成に係る演算について説明する。
 基本的な再構成に係る演算については、図1を参照したレンズレスカメラにおける係数セットを用いた演算と同様である。
 ここで、被写体面121が、M画素×N画素の矩形状の画像であるものとし、各画素を光源とする光が、垂直偏光成分、水平偏光成分、および非偏光成分から構成される場合の例について考える。
 また、撮像素子112が、P画素×Q画素から構成されるものとし、マスク111においては、擬似ランダムパターンで垂直偏光フィルタ111vおよび水平偏光フィルタ111hが、(M+P-1)×(N+Q-1)のグリッド状に分布するように形成され、撮像素子112の画素の形状およびサイズとほぼ同一であるものとする。被写体面121からの光は、マスク111に形成された垂直偏光フィルタ111vおよび水平偏光フィルタ111hの何れかを透過して、変調が掛けられて撮像素子112に入射する。
 このような関係に基づいて、上述した係数セットを用いることにより、例えば、以下の式(4)で示されるような連立方程式を構成することができる。尚、式(4)は、連立方程式を行列式で表現したものである。
Figure JPOXMLDOC01-appb-M000001
 ここで、piは、撮像素子112の画素値であり、aijは、マスク111の設計に応じて設定される係数であり、ここでは、0が水平偏光フィルタ111hを表し、1が垂直偏光フィルタ111vを表している。si は、垂直偏光フィルタ111vが設けられた位置の入射光の光強度であり、si は、水平偏光フィルタ111hが設けられた位置の入射光の光強度を表している。
 この式(4)で表される連立方程式を解くことで、画像が再構成されることになるが、式(4)の連立方程式を解くため、以下の式(5)のように変形する。
Figure JPOXMLDOC01-appb-M000002
 ここで、Aは、以下の式(6)で表される行列である。
Figure JPOXMLDOC01-appb-M000003
 さらに、siは、以下の式(7)で表される。
Figure JPOXMLDOC01-appb-M000004
 また、siは、上記の式(5)を解くことにより推定される。式(5)の解法は、様々な手法が存在するが、例えば、正規化による擬似逆行列を使用して解くようにしてもよい。
 特に、行列AのランクがMN+1の場合、式(5)は、以下の式(8)で示されるような厳密解として表すことができる。
Figure JPOXMLDOC01-appb-M000005
 しかしながら、現実には、撮像素子112により撮像される画素値には観測エラーが含まれることになるために、以下の式(9)で示されるような正則化解の方が適切な解であるものとみなすこともできる。
Figure JPOXMLDOC01-appb-M000006
 ここで、λ2BTBは、正規化パラメータである。
 式(8)または式(9)で表されるsiは、垂直偏光フィルタ111vが設けられた位置の入射光の光強度si と、水平偏光フィルタ111hが設けられた位置の入射光の光強度si との差(si -si )に凡その値を与えることで求めることができる。
 すなわち、被写体面121を構成する各画素の光が、垂直偏光成分であるか、水平偏光成分であるか、または非偏光成分であるのかの仮定に基づいて、以下の式(10)を用いることにより、結果siを垂直偏光成分、水平偏光成分、および非偏光成分のいずれかに分けることができる。
Figure JPOXMLDOC01-appb-M000007
 ここでδは、再構成される画像に生じるアーティファクトを軽減するために設定される閾値パラメータであり、例えば、ノイズの発生がない理想的な場合、δ=0となる。
 尚、マスク111の垂直偏光フィルタ111v、および水平偏光フィルタ111hは、非偏光成分(透過率50%の成分)に対して同じように作用するため、非偏光成分の画像の情報は、全非偏光成分の強度を推定するためのオフセットとして撮像素子112で記録されることになる。
 このため、非偏光成分からなる画像の情報については、再構成することはできない。また、非偏光成分からなる位置の画素は再構成できないだけでなく、直線偏光度(DoLP:Degree of Linear Polarization)が、1よりも小さい(DoLP<1)、垂直偏光成分、および水平偏光成分の位置における、非偏光成分も再構成できない。
 また、上述した解である式(8),式(9)は、被写体面121を構成する各画素位置の垂直偏光成分と水平偏光成分の差を表す。画素位置siにおいて垂直偏光方向の強度がIiであり、垂直偏光方向に対しての偏光角度がφiであり、線形偏光度(DoLP)がρi(0≦ρi≦1)である場合、マリュス則に基づいて、以下の式(11)が成立する。
Figure JPOXMLDOC01-appb-M000008
 したがって、図4の撮像装置101は、被写体面121における偏光成分を備えた任意の位置の画素を再構成するために使用することができ、(その偏光角度がφi=π/4、またはφi=3π/4でない限り、)どの位置の画素が偏光されていて、偏光方向が垂直方向に近いか、または、水平に近いかを決定することができる。
 さらに、式(11)においては、垂直偏光方向の強度Iiと線形偏光度(DoLP)ρiとを乗じた値が既知でない限り、偏光角度φiを決定することはできない。しかしながら、偏光角度φiが、例えば、cos2φacos2φb<0であるような、2つの角度φa,φb(φi∈{φa,φb})に制限される場合、被写体面121の画素位置siにおける偏光角度と光強度との厳密解は、式(7)で求められるsiの符号と値に基づいて求めることができる。
 <図4の撮像装置による撮像処理>
 次に、図8のフローチャートを参照して、図4の撮像装置101による撮像処理について説明する。
 ステップS31において、マスク111の水平偏光フィルタ111hおよび垂直偏光フィルタ111vは、それぞれ被写体面121からの光の水平偏光成分と垂直偏光成分とに変調を掛けて、撮像素子112に入射させる。尚、非偏光成分は、マスク111により変調されないので、そのままマスク111を透過して撮像素子112に入射する。
 ステップS32において、撮像素子112は、被写体面121からの光であって、マスク111を透過した光を撮像して、撮像画像として再構成部113に出力する。
 ステップS33において、再構成部113は、撮像素子112より出力されるマスク111を透過した光が撮像された撮像画像に基づいて、撮像装置101の撮像位置から被写体面121までの距離に応じた所定の係数セットからなる上述した式(4)を用いて、水平偏光成分からなる最終画像(復元画像)と、垂直偏光成分からなる最終画像(復元画像)とを再構成し、出力部34に出力する。
 ステップS34において、出力部114は、再構成された、水平偏光成分からなる最終画像と、垂直偏光成分からなる最終画像とを合成する。
 ステップS35において、出力部114は、水平偏光成分からなる再構成画像と、垂直偏光成分からなる再構成画像とが合成された画像に対して信号処理を施して、画像信号として出力する。
 以上の一連の処理により、レンズを用いることなく、マスクを用いて変調を掛けた後、係数セットを用いて最終画像(復元画像)を再構成するようにしたので、低背化を実現すると共に、1回の撮像で様々な距離の画像を再構成することが可能となる。
 また、本開示の撮像装置101は、上述したレンズレス撮像装置の原理を応用して、少なくとも2種類以上の特定の光の成分を透過させるフィルタからなるマスク111により、水平偏光成分と垂直偏光成分に対して変調を掛けて再構成させる。このとき、非偏光成分については、変調されないので、再構成されない。
 これにより、水平偏光成分と垂直偏光成分とからなる最終画像を再構成させることで、非偏光成分からなる画像が再構成されないようにすることができる。
 結果として、偏光成分からなる画像のみを撮像しつつ、非偏光成分からなる画像の撮像を制限することが可能となる。例えば、非偏光成分の情報からなる人物の顔画像などのプライバシに係る情報の撮像を適切に制限し、スマートフォンやディスプレイなどの偏光成分の光のみから構成される画像のみを撮像することが可能となる。
 <<3.第2の実施の形態>>
 以上においては、水平偏光フィルタ111hと垂直偏光フィルタ111vとの2種類の偏光フィルタからなるマスク111を用いて入射光に変調を掛けて撮像し、偏光成分からなる画像を再構成するようにした。
 これにより、非偏光成分からなる画像が再構成されない状態になるので、撮像される画像内の情報として制限したいものについては、非偏光成分の情報にすることで、撮像される画像内の情報を制限することが可能となる例について説明してきた。
 しかしながら、マスク111に使用される偏光フィルタの種類は、2種類に限らず、それ以上の種別の偏光フィルタが含まれていてもよい。
 例えば、水平偏光フィルタ、および垂直偏光フィルタに加えて、対角方向(45度方向)の偏光成分を透過させる偏光フィルタを含む3種類の偏光フィルタからマスクが形成されるようにしてもよい。
 図9は、水平偏光フィルタ、および垂直偏光フィルタに加えて、対角方向(45度方向)の偏光成分を透過させる偏光フィルタを含む3種類の偏光フィルタからマスクが形成されるようにした撮像装置の構成例を示している。
 図9の撮像装置201は、マスク211、撮像素子212、再構成部213、および出力部214より構成される。
 マスク211、撮像素子212、再構成部213、および出力部214は、それぞれ基本的には、図4の撮像装置101のマスク111、撮像素子112、再構成部113、および出力部114に対応する機能を備えた構成である。
 ただし、マスク111は、水平偏光フィルタ111h、および垂直偏光フィルタ111vから構成されているのに対して、マスク211は、水平偏光フィルタ211h、および垂直偏光フィルタ211vに加えて、対角方向(45度方向)の偏光成分を透過させるフィルタ(以降、45度偏光フィルタ211sと称する)を備えている。
 すなわち、図4のマスク111は、図中左側の被写体面121より入射される光のうち、垂直方向の偏光成分を透過させる垂直偏光フィルタ111vと、水平方向の偏光成分を透過させる水平偏光フィルタ111hとが、疑似ランダムパターンで配置された構成とされていた。
 これに対して、図9のマスク211は、図中左側の被写体面221より入射される光のうち、垂直方向の偏光成分を透過させる垂直偏光フィルタ211vと、水平方向の偏光成分を透過させる水平偏光フィルタ211hとに加えて、さらに、対角方向(45度方向)の偏光成分を透過させる45度偏光フィルタ211sが、それぞれ疑似ランダムパターンで配置された構成とされている。尚、ここでも、非偏光成分は、垂直偏光フィルタ211v、水平偏光フィルタ211h、および45度偏光フィルタ211sのいずれも透過してしまうので、変調されない状態で透過する。このため、撮像素子212において撮像されても、再構成部213は、非偏光成分の画像を再構成することができない。
 垂直偏光フィルタ211v、水平偏光フィルタ211h、および45度偏光フィルタ211sのそれぞれの配置パターンは、疑似ランダムパターン以外のパターンでもよく、例えば、ランダムパターン、URA(Uniformly Redundant Arrays)パターン、およびMURA(Modified Uniformly Redundant Arrays)パターンでもよい。また、垂直偏光フィルタ211v、水平偏光フィルタ211h、および45度偏光フィルタ211sのそれぞれの光の透過率は等しい。
 尚、図9においては、マスク211上の垂直偏光フィルタ211vが配置された領域については、縦縞状の模様が描かれており、水平偏光フィルタ211hが配置された領域については、横縞状の模様が描かれており、45度偏光フィルタ211sが配置された領域については、対角線方向の縞状の模様が描かれている。
 ここで、図10で示されるように、非偏光成分の光を発する人物231,232、および所定の方向の偏光成分の光を発して画像を表示するスマートフォン233乃至235が存在する被写体面221を撮像する場合について考える。尚、この例においては、スマートフォン233乃至235においては、表示面にQRコードが表示されているときの画像が表示されている。
 この場合、スマートフォン233乃至235が発する偏光成分の光が、マスク211の垂直偏光フィルタ211v、水平偏光フィルタ211h、および45度偏光フィルタ211sの領域を透過することにより変調されて撮像素子212に入射する。
 尚、図10のマスク211においては、黒色部が垂直偏光フィルタ211vの領域を、白色部が水平偏光フィルタ211hの領域を、灰色部が45度偏光フィルタ211sの領域を示している。
 この結果、図10の左下部で示されるように、被写体面221からは、偏光成分、および非偏光成分の全ての光の強度からなる画像221u、直線偏光度(DoLP)よりなる画像221d、および偏光角度よりなる画像221aが組み合わされた状態でマスク211を透過する。
 ここで、画像221dにおいては、各画素について直線偏光度(DoLP)に対応する0乃至1の値に対応した画素値が設定されている。また、画像221aにおいては、各画素について、偏光角度に対応する0乃至π(Rad)に応じた画素値が設定されている。
 すなわち、画像221dにおいては、スマートフォン233乃至235のディスプレイが存在する領域について、直線偏光度(DoLP)に応じた画素値が設定されており、それ以外の領域については、画素値が0に設定されて黒色とされている。
 また、画像221aにおいては、スマートフォン233乃至235のディスプレイが存在する領域について、偏光角度に応じた画素値が設定されており、それ以外の領域については、画素値が0に設定されて黒色とされている。
 これにより、被写体面221からの入射光については、人間が直視するときには、図10の被写体面221そのものが画像221uとして視聴されることになるが、マスク211においては、偏光成分が、マスク211の垂直偏光フィルタ211v、水平偏光フィルタ211h、および45度偏光フィルタ211sを透過することで変調され、非偏光成分が変調されない。これにより、偏光成分からなる画像221d,221aに対応する画像を構成する光が、変調が掛けられた状態で撮像素子に入射され、画像221uの非偏光成分については、変調が掛けられない状態で撮像素子212に入射される。
 図10で示されるようなマスク211を被写体面221からの光が透過して、変調が掛けられた偏光成分と、変調が掛けられていない非偏光成分とが撮像素子212に入射され、撮像素子212においては、例えば、画像212iのような画像が撮像される。
 画像212iは、被写体面221内の人物231,232,およびスマートフォン233乃至235のそれぞれの像が結像されていない状態の変調された偏光成分と、変調されていない非偏光成分とからなる画像となるため、図10で示されるように、全体としてぼんやりとした画像となる。
 再構成部213は、撮像素子212より供給される画像212iに基づいて、変調瀬された偏光成分からなる画像221d,221aを再構成して、出力部224に出力する。
 そこで、再構成部213は、画像212iに対して、マスク211の垂直偏光フィルタ211v、水平偏光フィルタ211h、および45度偏光フィルタ211sとに対応する係数セットを用いて、直線偏光度に光の強度を乗じた画素値からなる画像221d’と偏光角度からなる画像221aとをそれぞれ再構成する。
 出力部214は、図11の右部で示されるように、再構成部213より供給される画像221d’,221aを合成して、画像222を生成して、最終画像として出力する。
 これにより、図9の右部で示されるように、スマートフォン233乃至235により表示される変調成分からなる画像222が出力されることになるので、人間の顔などの非偏光成分のみからなる像が含まれないことになる。
 結果として、人物231,232の、特に顔などのプライバシに係る情報が撮像されないように制限した上で、スマートフォン233乃至235で表示される画像のみの撮像を実現することが可能となる。
 <図9の再構成部による再構成について>
 次に、図9の再構成部213による具体的な再構成に係る演算例について説明する。
 基本的な再構成に係る演算については、図1を参照したレンズレスカメラにおける係数セットを用いた演算と同様である。
 ここで、被写体面221は、M画素×N画素の矩形状の画像であるものとし、各画素を光源とする光は、垂直偏光成分、水平偏光成分、45度偏光成分、および非偏光成分から構成されるものとする。
 撮像素子212は、P画素×Q画素から構成されるものとし、マスク211においては、擬似ランダムパターンで垂直偏光フィルタ211v、水平偏光フィルタ211h、および45度偏光フィルタ211sが、(M+P-1)×(N+Q-1)のグリッド状に分布するように形成され、撮像素子212の画素の形状、サイズ、および透過率が、ほぼ同一であるものとする。被写体面221からの光は、マスク211に形成された垂直偏光フィルタ211v、水平偏光フィルタ211h、および45度偏光フィルタ211sの何れかを透過して、変調が掛けられて撮像素子212に入射する。
 このような関係に基づいて、上述した係数セットを用いることにより、例えば、以下の式(12)で示されるような連立方程式を構成することができる。尚、式(12)は、連立方程式を行列式で表現したものである。
Figure JPOXMLDOC01-appb-M000009
 ここで、A0は、以下の式(13)で表される行列である。
Figure JPOXMLDOC01-appb-M000010
 ここで、piは、撮像素子212の画素値であり、aij,bijは、マスク211の設計に応じて設定される係数であり、ここでは、aijが1のとき、垂直偏光フィルタ211vを表し、bijが1のとき、水平偏光フィルタ211hを表し、aijとbijとがいずれも0のとき、45度偏光フィルタ211sを表している。
 si は、垂直偏光フィルタ211vが設けられた位置の入射光の光強度を表しており、si は、水平偏光フィルタ211hが設けられた位置の入射光の光強度を表しており、si 45は、45度偏光フィルタ211sが設けられた位置の入射光の光強度を表している。
 この式(12)で表される連立方程式を解くことで、画像が再構成されることになるが、式(12)は、連立方程式を解くため、以下の式(14)のように変形することができる。
Figure JPOXMLDOC01-appb-M000011
 ここで、A,Sは、それぞれ以下の式(15)で表される行列である。
Figure JPOXMLDOC01-appb-M000012
 ここで、Sは、上記の式(14)を解くことにより推定される。式(14)の解法は、様々な手法が存在するが、例えば、正規化による擬似逆行列を使用して解くようにしてもよい。
 特に、行列Aのランクが2MN+1の場合、式(14)は、以下の式(16)で示されるような厳密解として表すことができる。
Figure JPOXMLDOC01-appb-M000013
 しかしながら、現実には、撮像素子212により撮像される画素値には観測エラーが含まれることになるために、以下の式(17)で示されるような正則化解の方が適切な解であるものとみなすこともできる。
Figure JPOXMLDOC01-appb-M000014
 ここで、λ2BTBは、正規化パラメータである。
 式(16)または式(17)で表されるSは、垂直偏光フィルタ111vが設けられた位置の入射光の光強度si と、45度偏光フィルタ211sの光強度si 45との差(si -si 45)、および、水平偏光フィルタ111hが設けられた位置の入射光の光強度si と、45度偏光フィルタ211sの光強度si 45とのの差(si -si 45)のそれぞれに凡その値を与えることで求めることができる。
 例えば、被写体面221上の位置siにおける光強度がIiであり、直線偏光度DoLPがρiであり、偏光角度がφiである場合、マリュス則を使用すると、以下の式(18),式(19)のようにパラメータai,biを定義することができる。
Figure JPOXMLDOC01-appb-M000015
Figure JPOXMLDOC01-appb-M000016
 さらに、パラメータai,biの和と差を求めることにより、以下の式(20),式(21)のような関係が求められる。
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
 故に、以下の式(22),式(23)で示されるように、画素位置毎に直線偏光度ρiに対応する光強度Iiρiと偏光角度φiとを求めることができる。
Figure JPOXMLDOC01-appb-M000019
Figure JPOXMLDOC01-appb-M000020
 すなわち、式(14),式(15)で構成される連立方程式を解くことで、被写体面221のすべての点で全ての偏光成分が求められる。さらに、式(22),式(23)が用いられることにより、すべての点で直線偏光度ρiに対応する光強度Iiρiと偏光角度φiを解くことができ、一方で、非偏光成分よりなる画像については再構成できない。
 結果として、図11の光強度Iiに直線偏光度ρiを乗じた画像221d’と、偏光角度φiよりなる画像221aとが再構成されることになり、さらに、再構成された画像221d’、および画像221aが合成されることで、画像222が生成される。
 <図9の撮像装置による撮像処理>
 次に、図12のフローチャートを参照して、図9の撮像装置201による撮像処理について説明する。
 ステップS51において、マスク211の水平偏光フィルタ211h、垂直偏光フィルタ211v、および45度偏光フィルタ211sは、それぞれ被写体面221からの光の水平偏光成分、垂直偏光成分、および45度偏光成分に変調を掛けて、撮像素子212に入射させる。尚、非偏光成分は、マスク211により変調されないので、そのままマスク211を透過して撮像素子212に入射する。
 ステップS52において、撮像素子212は、被写体面221からの光であって、マスク211を透過した光を撮像して、撮像画像として再構成部213に出力する。
 ステップS53において、再構成部213は、撮像素子212より出力されるマスク211を透過した光が撮像された撮像画像に基づいて、撮像装置201の撮像位置から被写体面221までの距離に応じた所定の係数セットからなる上述した式(14)乃至式(23)を用いて、直線偏光度に対応する光強度Iiρiからなる最終画像(復元画像)、および偏光角度φiからなる最終画像(復元画像)を出力部214に出力する。
 ステップS54において、出力部214は、直線偏光度からなる最終画像(復元画像)、および偏光角度からなる最終画像(復元画像)を合成する。
 ステップS55において、出力部214は、直線偏光度に対応する光強度Iiρiからなる最終画像(復元画像)、および偏光角度φiからなる最終画像(復元画像)が合成された画像に対して信号処理を施して、画像信号として出力する。
 以上の一連の処理により、レンズレス撮像装置の原理を応用して、3種類以上の特定の光の成分を透過させるフィルタからなるマスク211により、水平偏光成分、垂直偏光成分、および45度偏光成分に対しては変調を掛けて再構成させ、非偏光成分に対しては、変調を掛けないことにより再構成させない。
 これにより、偏光成分からなる直線偏光度に応じた光強度からなる最終画像と、偏光角度とからなる最終画像が再構成され、非偏光成分からなる画像については再構成されないので、撮像する際に含まれてしまう、非偏光成分からなる人物の顔画像のようなプライバシに係る情報を適切に制限し、スマートフォンやディスプレイなどの偏光成分から構成される画像のみを撮像することが可能となる。
 <<4.第2の実施の形態の応用例>>
 以上においては、水平偏光フィルタ211h、垂直偏光フィルタ211v、および45度偏光フィルタ211sの3種類のフィルタが設けられたマスク211を撮像素子212の前段に設けるようにした例について説明してきた。
 しかしながら、45度偏光フィルタ211sについては、45度以外の角度の偏光フィルタであってもよく、例えば、30度の偏光角の偏光成分のみを透過させる30度偏光フィルタや60度の偏光角の偏光成分のみを透過させる60度偏光フィルタなどでもよい。
 また、所定の偏光角度の偏光成分のみを透過させるフィルタに加えて、例えば、ND(Neutral Density)フィルタなどを用いるようにしてもよい。
 図13は、図9のマスク211における45度偏光フィルタ211sに代えて、NDフィルタを設けるようにしたマスク251の構成例を示している。
 図13においては、マスク251上の垂直偏光フィルタ251vが配置された領域については、縦縞状の模様が描かれており、水平偏光フィルタ251hが配置された領域については、横縞状の模様が描かれており、NDフィルタ251nが配置された領域については、灰色で描かれている。尚、マスク251においても、垂直偏光フィルタ251v、水平偏光フィルタ251h、およびNDフィルタ251nは、それぞれの透過率が等しい。
 <<5.第3の実施の形態>>
 以上においては、複数の偏光方向に応じた偏光成分を透過するフィルタをランダムに配置したマスクを撮像素子の前段に設け、マスクにより入射光に変調を掛けて撮像し、最終画像を再構成することで、入射光の特定の成分のみが像として再構成されるようにすることにより、撮像される画像内の情報を制限する例について説明してきた。
 しかしながら、マスクに形成されるフィルタは、偏光方向に応じたもののみならず、その他の光の特性に応じた成分をフィルタリングする構成であってもよい。
 例えば、マスクに、入射光を構成するRGB(赤色成分、緑色成分、および青色成分)のうち、特定の色成分を透過させるフィルタを疑似ランダムパターンで配置するようにしてもよい。
 図14は、入射光のうち、青色成分と赤色成分を透過させるフィルタを疑似ランダムパターンで配置することにより、青色成分と赤色成分からなる画像のみを再構成させ、青色成分と赤色成分とを均等に含む成分からなる画像を再構成させないようにすることで、例えば、青色成分、赤色成分、および緑色成分を均等に含むグレー成分により構成される画像の情報を制限するようにした撮像装置の構成例である。
 より詳細には、図14の撮像装置301は、マスク311、撮像素子312、再構成部313、および出力部314より構成される。尚、マスク311、撮像素子312、再構成部313、および出力部314は、それぞれ図1のマスク31、撮像素子32、再構成部33、および出力部34に対応する構成である。
 マスク311は、図1のマスク31に対応する構成であり、入射光に対して所定の偏光を掛けて、撮像素子312に入射させる。
 上述したように、マスク31は、遮光素材からなる板状の構成において、透過領域41と遮光領域42とが形成されることにより、入射光に対して変調を掛ける構成とされている。
 これに対して、マスク311は、図中左側の被写体面321より入射される光のうち、青色成分を透過させる青色フィルタ311bと、赤色成分を透過させる赤色フィルタ311rとが、疑似ランダムパターンで配置された構成とされている。
 尚、図14においては、マスク311上の青色フィルタ311bが配置された領域については、薄い灰色領域として描かれており、赤色フィルタ311rが配置された領域については、濃い灰色領域として描かれている。また、マスク311においても、青色フィルタ311b、および赤色フィルタ311rは、それぞれの透過率が等しい。
 ここで、被写体面321上に赤色成分、および青色成分を含む光を発するスマートフォン331、およびディスプレイ333と、白色の紙面に黒色(または灰色)のインクで機密文書が記載された書面332が存在する場合の例について考える。尚、書面332については、例えば、略正面方向から白色の光が投射され、紙面上に記載された機密文書そのものは実質的にグレー成分で発色された状態であることを想定する。
 この場合、スマートフォン331、書面332、およびディスプレイ333のそれぞれが発する光のうちの青色成分は、図中の薄い灰色領域で示されるマスク311の青色フィルタ311bの領域を透過することにより変調されて撮像素子312に入射する。
 また、スマートフォン331、書面332、およびディスプレイ333のそれぞれが発する光のうちの赤色成分は、図中の濃い灰色領域で示されるマスク311の赤色フィルタ311rの領域を透過することにより変調されて撮像素子312に入射する。
 すなわち、図15で示されるように、スマートフォン331、書面332、およびディスプレイ333の像を含む被写体面321からは、赤色成分よりなる画像321r、グレー成分よりなる画像321p、および青色成分よりなる画像321bが組み合わされた状態でマスク311を透過する。
 図15で示されるようなマスク311を被写体面321からの光が透過して、青色成分と赤色成分に対して変調が掛けられ、青色成分と赤色成分とを均等に含むグレー成分に対して変調が掛けられないことにより、例えば、画像312iのような画像が撮像される。すなわち、青色成分と赤色成分とを均等に含むグレー成分については、青色フィルタ311b、および赤色フィルタ311rのいずれも透過することにより、マスク311上の全面が透過領域とされ、遮光領域がない状態となるため、変調が掛けられない。
 画像312iは、被写体面321内のスマートフォン331、書面332、およびディスプレイ333のそれぞれの像が結像されていない状態の変調された光と、変調されていない光からなる画像となるため、図15で示されるように、全体としてぼんやりとした画像となる。
 再構成部313は、撮像素子312より供給される画像312iに基づいて、画像321b,321rを再構成して、出力部314に出力する。
 ここで、図15を参照して説明したように、マスク311は、青色フィルタ311bと赤色フィルタ311rとがそれぞれ疑似ランダムパターンで配置された構成とされている。
 このため、青色成分が、マスク311を透過する際には、青色フィルタ311bが、図1のマスク31の透過領域41として機能し、赤色フィルタ311rが、図1の遮光領域42として機能することにより、青色成分に変調が掛けられる。
 一方、赤色成分が、マスク311を透過する際には、赤色フィルタ311rが、図1のマスク31の透過領域41として機能し、青色フィルタ311bが、図1の遮光領域42として機能することにより、赤色成分に変調が掛けられる。
 すなわち、撮像素子312においては、青色成分と赤色成分とは、マスク311の青色フィルタ311bと赤色フィルタ311rとで変調が掛けられた状態の光の観測結果と、青色成分と赤色成分とを均等に含む、変調が掛けられていないグレー成分からなる光の観測結果を画像312iとして撮像し、再構成部313に出力する。
 そこで、再構成部313は、図16で示されるように、画像312iに対して、マスク311の青色フィルタ311bと赤色フィルタ311rとが、それぞれの係数セットを用いて、青色成分からなる画像321bと赤色成分からなる画像321rとをそれぞれ再構成する。このとき、再構成部313は、青色成分と赤色成分とを均等に含む、変調が掛けられていないグレー成分については、再構成できないので、画像321pに対応する画像を再構成できない。
 出力部314は、再構成部313より供給される青色成分からなる画像321bと赤色成分からなる画像321rとを合成して、図16の右部で示されるような画像322を生成して、最終画像として出力する。
 これにより、青色成分よりなる画像321bと、赤色成分よりなる画像321rとが合成されることにより、例えば、赤色成分と青色成分とからなる表示画像を表示しているスマートフォン331、およびディスプレイ333の表示面部分が合成されて構成され、グレー成分からなる書面332が含まれない画像322が出力されることになる。
 結果として、被写体面321における白色の紙面上に記載される、例えば、機密文書のようなグレー成分よりなる情報のみが撮像されないように制限した上で、画像を撮像することが可能となる。
 <図14の撮像装置による撮像処理>
 次に、図17のフローチャートを参照して、図14の撮像装置101による撮像処理について説明する。
 ステップS71において、マスク311の青色フィルタ311bおよび赤色フィルタ311rは、それぞれ被写体面321からの光の青色成分と赤色成分とに変調を掛けて、撮像素子312に入射させる。このとき、青色成分と赤色成分とを均等に含むグレー成分などは、マスク311を透過しても変調されないので、そのままマスク311を透過して撮像素子312に入射する。
 ステップS72において、撮像素子312は、被写体面321からの光であって、マスク311を透過することにより変調が掛けられた青色成分と赤色成分の光と、変調が掛けられていない青色成分と赤色成分とを均等に含むグレー成分とを含む光からなる画像を撮像して、撮像画像として再構成部313に出力する。
 ステップS73において、再構成部313は、撮像素子312より出力される変調された光が撮像された撮像画像に基づいて、青色成分からなる最終画像(復元画像)と、赤色成分からなる最終画像(復元画像)とを再構成して出力部314に出力する。このとき、変調が掛けられていない、青色成分と赤色成分とを均等に含むグレー成分の画像は再構成されない。
 ステップS74において、出力部314は、赤色成分からなる最終画像と、青色成分からなる最終画像とを合成する。例えば、出力部314は、赤色成分からなる最終画像と、青色成分からなる最終画像との合成結果を出力してもよい。
 ステップS75において、出力部314は、赤色成分からなる再構成画像と、青色成分からなる再構成画像とが合成された画像に対して信号処理を施して、画像信号として出力する。
 以上の一連の処理により、レンズレス撮像装置の原理を応用して、少なくとも2種類の特定の光の成分を透過させるフィルタからなるマスク311により、それぞれの光の成分に対する透過領域41と遮光領域42として機能させることにより、青色成分と赤色成分に対して変調を掛ける。
 これにより、変調が掛けられた青色成分と赤色成分とからなる最終画像を再構成させることで、画像を撮像する際に含まれてしまう、変調が掛けられていないグレー成分の情報を適切に制限し、青色成分と赤色成分の光のみから構成される画像のみを撮像することが可能となる。
 尚、以上においては、青色成分と赤色成分の最終画像を再構成させる例について説明してきたが、その他の成分の最終画像を再構成させるようにしてもよく、例えば、青色成分と緑色成分を透過させるフィルタからなるマスク311を構成することで、青色成分と緑色成分とを変調し、変調された青色成分と緑色成分とを再構成させ、青色成分と緑色成分との双方の成分を均等に含むグレー成分を再構成できないようにしてもよい。また、赤色成分と緑色成分を透過させるフィルタからなるマスク311を構成することで、赤色成分と緑色成分とを変調し、変調された赤色成分と緑色成分とを再構成させ、赤色成分と緑色成分との双方の成分を均等に含むグレー成分を再構成できないようにしてもよい。
 また、上述したように青色成分と赤色成分とを均等に透過させるフィルタからなるマスク311においては、青色成分と赤色成分とを均等に含む色であれば他の色成分も再構成できないので、例えば、青色成分と赤色成分とを均等に含む中間色である紫色成分からなる画像についても再構成させないようにすることができ、紫色成分からなる画像の情報を制限することもできる。同様に、青色成分と緑色成分とを透過させるフィルタからマスク311が構成されるようにすることで、青色成分と緑色成分とを変調し、変調された青色成分と緑色成分とが再構成されるようにして、青色成分と緑色成分との双方の成分を均等に含む他の色成分も再構成できないようにしてもよく、例えば、青色成分と緑色成分との双方の成分を均等に含む中間色であるシアン成分を再構成できないようにしてもよい。さらに、赤色成分と緑色成分とを均等に透過させるフィルタからなるマスク311を構成することで、赤色成分と緑色成分とを変調し、変調された赤色成分と緑色成分とを再構成させ、赤色成分と緑色成分との双方の成分を均等に含む他の色成分も再構成できないようにしてもよく、例えば、赤色成分と緑色成分を均等に含む中間色である黄色成分を再構成できないようにしてもよい。
 また、赤色成分、緑色成分、および青色成分のいずれかのみならず、特定の波長の成分の2種類についてフィルタリングして、特定の波長の2種類の成分の最終画像を再構成させるようにして、特定の2種類のそれぞれの成分を均等に含む波長成分の像が再構成されないように制限してもよい。
 <<6.第3の実施の形態の応用例>>
 以上においては、特定の波長の成分の2種類についてフィルタリングして、特定の波長の2種類の成分の最終画像を再構成させるようにして、特定の波長の双方の成分を均等に含む波長成分の像が再構成されないようにする例について説明してきた。
 しかしながら、RGB成分(赤色成分、緑色成分、青色成分)のそれぞれの成分をフィルタリングして、RGB成分のそれぞれについて最終画像を再構成させるようにして、RGB成分のそれぞれを含むグレー成分については、再構成されないようにしてもよい。
 図18は、RGB成分(赤色成分、緑色成分、青色成分)のそれぞれの成分をフィルタリングして、RGB成分のそれぞれについて最終画像を再構成させるようにして、RGB成分のそれぞれを均等に含む、例えば、グレー成分のような他の成分については、再構成されないようにするマスク351の構成例を示している。
 マスク351は、例えば、図14の撮像装置301において、マスク311に代えて撮像素子312の前段に設けられる。
 マスク351は、赤色成分を透過させる赤色フィルタ351r、緑色成分を透過させる緑色フィルタ351g、および青色成分を透過させる青色フィルタ351bが、それぞれ疑似ランダムパターンで配置されている。
 尚、図18においては、マスク351上の青色フィルタ351bが配置された領域については、濃い灰色領域として描かれており、緑色フィルタ351gが配置された領域については、濃い灰色と薄い灰色の中間の濃度の灰色領域として描かれており、赤色フィルタ351rが配置された領域については、薄い灰色領域として描かれている。また、マスク351においても、青色フィルタ351b、緑色フィルタ351g、および赤色フィルタ351rは、それぞれの透過率が等しい。
 マスク351においては、赤色フィルタ351r、緑色フィルタ351g、および青色フィルタ351bが、それぞれ赤色成分、緑色成分、および青色成分を透過させることで、それぞれに変調を掛けて、撮像素子312に入射させる。
 これにより、再構成部313は、撮像素子312において撮像された変調が掛けられた赤色成分、緑色成分、および青色成分のそれぞれの最終画像を再構成し、出力部314に出力する。
 出力部314は、再構成された赤色成分、緑色成分、および青色成分のそれぞれの最終画像を合成して出力する。
 ここで、例えば、グレー成分のような、赤色成分、緑色成分、および青色成分が均等に合成された成分については、赤色フィルタ351r、緑色フィルタ351g、および青色フィルタ351bのそれぞれにおいて等しく透過する。
 これにより、グレー成分のような、赤色成分、緑色成分、および青色成分が均等に合成された成分については、マスク351を透過しても変調が掛けられない状態で撮像素子312に入射されることになる。
 このため、再構成部313は、撮像素子312で撮像された画像に基づいて、グレー成分のような、赤色成分、緑色成分、および青色成分が均等に合成された成分の最終画像については再構成することができない。
 結果として、マスク351を用いることにより、RGB成分のそれぞれの最終画像を再構成させることが可能になると共に、RGB成分のそれぞれを均等に含む、例えば、グレー成分などの最終画像については、再構成できないので、グレー成分のような、RGB成分が均等に含まれる成分からなる画像の映り込みを制限することが可能となる。
 <<7.ソフトウエアにより実行させる例>>
 ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
 図19は、汎用のコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
 入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブル記憶媒体1011に対してデータを読み書きするドライブ1010が接続されている。
 CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブル記憶媒体1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記憶媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記憶媒体1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 尚、図19におけるCPU1001が、図4の再構成部113、および出力部114、図9の再構成部213、および出力部214、並びに図14の再構成部313、および出力部314の機能を実現させる。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 尚、本開示は、以下のような構成も取ることができる。
<1> 入射光を複数の成分毎に透過させる複数の透過領域が所定のパターンで形成され、前記入射光に前記複数の成分のそれぞれに変調を掛けて透過させるマスクと、
 前記マスクを透過した光からなる透過画像を撮像する撮像素子と、
 前記透過画像に基づいて、前記入射光に対応する画像を再構成する再構成部と
 を備える撮像装置。
<2> 前記複数の透過領域は、疑似ランダムパターンで形成される
 <1>に記載の撮像装置。
<3> 前記複数の透過領域は、それぞれの透過率が等しく形成される
 <1>または<2>に記載の撮像装置。
<4> 前記複数の透過領域は、複数の方向の偏光成分を透過させる直線偏光フィルタより形成される
 <1>乃至<3>のいずれかに記載の撮像装置。
<5> 前記複数の透過領域は、2方向の偏光成分を透過させる直線偏光フィルタより形成される
 <4>に記載の撮像装置。
<6> 前記複数の透過領域は、垂直方向の偏光成分を透過させる直線偏光フィルタ、および水平方向の偏光成分を透過させる水平偏光フィルタより形成される
 <5>に記載の撮像装置。
<7> 前記再構成部は、前記垂直方向の偏光成分よりなる垂直偏光成分画像、および前記水平方向の偏光成分よりなる水平偏光成分画像を再構成する
 <6>に記載の撮像装置。
<8> 前記垂直偏光成分画像、および前記水平偏光成分画像が合成されて出力される
 <7>に記載の撮像装置。
<9> 前記複数の透過領域は、3方向の偏光成分を透過させる直線偏光フィルタより形成される
 <4>に記載の撮像装置。
<10> 前記複数の透過領域は、垂直方向の偏光成分を透過させる直線偏光フィルタ、水平方向の偏光成分を透過させる水平偏光フィルタ、および45度方向の偏光成分を透過させる45度偏光フィルタより形成される
 <9>に記載の撮像装置。
<11> 前記再構成部は、光強度と直線偏光度とが合成された画像、および偏光角度からなる画像を再構成する
 <10>に記載の撮像装置。
<12> 再構成された、前記光強度と前記直線偏光度とが合成された画像、および前記偏光角度からなる画像が合成されて出力される
 <11>に記載の撮像装置。
<13> 前記複数の透過領域は、複数の方向の偏光成分を透過させる直線偏光フィルタと、ND(Neutral Density)フィルタより形成される
 <1>乃至<3>のいずれかに記載の撮像装置。
<14> 前記複数の透過領域は、2方向の偏光成分を透過させる直線偏光フィルタと、前記NDフィルタより形成される
 <13>に記載の撮像装置。
<15> 前記複数の透過領域は、複数の波長成分を透過させる波長フィルタより形成される
 <1>乃至<3>のいずれかに記載の撮像装置。
<16> 前記複数の透過領域は、2種類または3種類の波長成分を透過させる前記波長フィルタより形成される
 <15>に記載の撮像装置。
<17> 前記複数の透過領域は、青色の波長成分を透過させる青色フィルタ、赤色の波長成分を透過させる赤色フィルタ、および緑色の波長成分を透過させる緑色フィルタのうちの前記2種類または3種類の波長成分を透過させる前記波長フィルタより形成される
 <16>に記載の撮像装置。
<18> 前記再構成部は、前記複数の透過領域を形成する前記2種類または3種類の波長成分の画像を再構成する
 <17>に記載の撮像装置。
<19> 再構成された前記2種類または3種類の波長成分の画像が合成されて出力される
 <18>に記載の撮像装置。
<20> 入射光を成分毎に透過させる複数の透過領域が所定のパターンで形成されたマスクと、
 撮像素子と、
 再構成部とを備えた撮像装置の作動方法において、
 前記マスクが、前記入射光の成分のそれぞれに変調を掛けて変調光として透過させ、
 前記撮像素子が、前記マスクを透過した光からなる透過画像を撮像し、
 前記再構成部が、前記透過画像に基づいて、前記入射光に対応する画像を再構成する
 ステップを含む撮像装置の作動方法。
 101 撮像装置, 111 マスク, 111h 水平偏光フィルタ, 111v 垂直偏光フィルタ, 112 撮像素子, 113 再構成部, 114 出力部, 201 撮像装置, 211 マスク, 211h 水平偏光フィルタ, 211v 垂直偏光フィルタ, 211s 45度偏光フィルタ, 212 撮像素子, 213 再構成部, 214 出力部, 221 マスク, 222 光学素子, 223 イメージセンサ, 251 マスク, 251h 水平偏光フィルタ, 251v 垂直偏光フィルタ, 251n NDフィルタ, 301 撮像装置, 311 マスク, 311b 青色フィルタ, 311r 赤色フィルタ, 312 撮像素子, 313 再構成部, 314 出力部

Claims (20)

  1.  入射光を複数の成分毎に透過させる複数の透過領域が所定のパターンで形成され、前記入射光に前記複数の成分のそれぞれに変調を掛けて透過させるマスクと、
     前記マスクを透過した光からなる透過画像を撮像する撮像素子と、
     前記透過画像に基づいて、前記入射光に対応する画像を再構成する再構成部と
     を備える撮像装置。
  2.  前記複数の透過領域は、疑似ランダムパターンで形成される
     請求項1に記載の撮像装置。
  3.  前記複数の透過領域は、それぞれの透過率が等しく形成される
     請求項1に記載の撮像装置。
  4.  前記複数の透過領域は、複数の方向の偏光成分を透過させる直線偏光フィルタより形成される
     請求項1に記載の撮像装置。
  5.  前記複数の透過領域は、2方向の偏光成分を透過させる直線偏光フィルタより形成される
     請求項4に記載の撮像装置。
  6.  前記複数の透過領域は、垂直方向の偏光成分を透過させる直線偏光フィルタ、および水平方向の偏光成分を透過させる水平偏光フィルタより形成される
     請求項5に記載の撮像装置。
  7.  前記再構成部は、前記垂直方向の偏光成分よりなる垂直偏光成分画像、および前記水平方向の偏光成分よりなる水平偏光成分画像を再構成する
     請求項6に記載の撮像装置。
  8.  前記垂直偏光成分画像、および前記水平偏光成分画像が合成されて出力される
     請求項7に記載の撮像装置。
  9.  前記複数の透過領域は、3方向の偏光成分を透過させる直線偏光フィルタより形成される
     請求項4に記載の撮像装置。
  10.  前記複数の透過領域は、垂直方向の偏光成分を透過させる直線偏光フィルタ、水平方向の偏光成分を透過させる水平偏光フィルタ、および45度方向の偏光成分を透過させる45度偏光フィルタより形成される
     請求項9に記載の撮像装置。
  11.  前記再構成部は、光強度と直線偏光度とが合成された画像、および偏光角度からなる画像を再構成する
     請求項10に記載の撮像装置。
  12.  再構成された、前記光強度と前記直線偏光度とが合成された画像、および前記偏光角度からなる画像が合成されて出力される
     請求項11に記載の撮像装置。
  13.  前記複数の透過領域は、複数の方向の偏光成分を透過させる直線偏光フィルタと、ND(Neutral Density)フィルタより形成される
     請求項1に記載の撮像装置。
  14.  前記複数の透過領域は、2方向の偏光成分を透過させる直線偏光フィルタと、前記NDフィルタより形成される
     請求項13に記載の撮像装置。
  15.  前記複数の透過領域は、複数の波長成分を透過させる波長フィルタより形成される
     請求項1に記載の撮像装置。
  16.  前記複数の透過領域は、2種類または3種類の波長成分を透過させる前記波長フィルタより形成される
     請求項15に記載の撮像装置。
  17.  前記複数の透過領域は、青色の波長成分を透過させる青色フィルタ、赤色の波長成分を透過させる赤色フィルタ、および緑色の波長成分を透過させる緑色フィルタのうちの前記2種類または3種類の波長成分を透過させる前記波長フィルタより形成される
     請求項16に記載の撮像装置。
  18.  前記再構成部は、前記複数の透過領域を形成する前記2種類または3種類の波長成分の画像を再構成する
     請求項17に記載の撮像装置。
  19.  再構成された前記2種類または3種類の波長成分の画像が合成されて出力される
     請求項18に記載の撮像装置。
  20.  入射光を成分毎に透過させる複数の透過領域が所定のパターンで形成されたマスクと、
     撮像素子と、
     再構成部とを備えた撮像装置の作動方法において、
     前記マスクが、前記入射光の成分のそれぞれに変調を掛けて透過させ、
     前記撮像素子が、前記マスクを透過した光からなる透過画像を撮像し、
     前記再構成部が、前記透過画像に基づいて、前記入射光に対応する画像を再構成する
     ステップを含む撮像装置の作動方法。
PCT/JP2022/003951 2021-05-12 2022-02-02 撮像装置、および撮像装置の作動方法 WO2022239326A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023520778A JPWO2022239326A1 (ja) 2021-05-12 2022-02-02

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021080935 2021-05-12
JP2021-080935 2021-05-12

Publications (1)

Publication Number Publication Date
WO2022239326A1 true WO2022239326A1 (ja) 2022-11-17

Family

ID=84029058

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003951 WO2022239326A1 (ja) 2021-05-12 2022-02-02 撮像装置、および撮像装置の作動方法

Country Status (2)

Country Link
JP (1) JPWO2022239326A1 (ja)
WO (1) WO2022239326A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110228895A1 (en) * 2008-12-06 2011-09-22 Qinetiq Limited Optically diverse coded aperture imaging
US20170351012A1 (en) * 2016-06-07 2017-12-07 Goodrich Corporation Imaging systems and methods
JP2018107794A (ja) * 2016-12-27 2018-07-05 パナソニックIpマネジメント株式会社 画像生成装置及び撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110228895A1 (en) * 2008-12-06 2011-09-22 Qinetiq Limited Optically diverse coded aperture imaging
US20170351012A1 (en) * 2016-06-07 2017-12-07 Goodrich Corporation Imaging systems and methods
JP2018107794A (ja) * 2016-12-27 2018-07-05 パナソニックIpマネジメント株式会社 画像生成装置及び撮像装置

Also Published As

Publication number Publication date
JPWO2022239326A1 (ja) 2022-11-17

Similar Documents

Publication Publication Date Title
JP4469021B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、画像合成方法、および画像合成装置
JP7259757B2 (ja) 撮像装置、並びに、画像処理装置および方法
Wetzstein et al. Sensor saturation in fourier multiplexed imaging
CN101652798A (zh) 使用全色像素的边缘映射
KR20120017006A (ko) 루미넌스 및 크로미넌스 센서들을 이용한 이미지 캡처
US11336799B2 (en) Imaging device including pixels having individually settable incident angle directivity
JP7192778B2 (ja) 撮像装置および方法、並びに、画像処理装置および方法
CN108243331A (zh) 图像生成装置及拍摄装置
CN106170052A (zh) 双传感器超光谱运动成像系统
JPWO2019188536A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、情報処理システム
CN106507065A (zh) 拍摄装置、拍摄系统、图像生成装置及滤色器
WO2022239326A1 (ja) 撮像装置、および撮像装置の作動方法
CN108696728A (zh) 图像生成装置及拍摄装置
JP2019521599A (ja) 改善された解像度を用いたプレノプティック・サブアパーチャ・ビュー・シャッフリング
US11663708B2 (en) Image processing apparatus, imaging apparatus, and image processing method
Miandji et al. Compressive HDR light field imaging using a single multi-ISO sensor
JP7147841B2 (ja) 撮像装置および方法、画像処理装置および方法、並びに、撮像素子
US20240114254A1 (en) Image processing apparatus, image processing method, and program
Zhao et al. Spectral reconstruction from dispersive blur: A novel light efficient spectral imager
CN113766107B (zh) 用于生成高分辨率图像的方法和设备
Elgendy Image Processing for Quanta Image Sensors
CN115719311A (zh) 处理图像的方法和相关设备
Hel‐Or et al. Camera‐Based Image Forgery Detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22807033

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023520778

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22807033

Country of ref document: EP

Kind code of ref document: A1