WO2021085152A1 - 情報処理装置、情報処理方法、プログラム、及び、情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、及び、情報処理システム Download PDF

Info

Publication number
WO2021085152A1
WO2021085152A1 PCT/JP2020/038857 JP2020038857W WO2021085152A1 WO 2021085152 A1 WO2021085152 A1 WO 2021085152A1 JP 2020038857 W JP2020038857 W JP 2020038857W WO 2021085152 A1 WO2021085152 A1 WO 2021085152A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
view
angle
image
pixels
Prior art date
Application number
PCT/JP2020/038857
Other languages
English (en)
French (fr)
Inventor
佳孝 宮谷
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN202080074259.4A priority Critical patent/CN114586334A/zh
Priority to US17/762,369 priority patent/US20220345630A1/en
Publication of WO2021085152A1 publication Critical patent/WO2021085152A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • This technology relates to an information processing device, an information processing method, a program, and an information processing system, and more particularly to an information processing device using a lensless camera, an information processing method, a program, and an information processing system.
  • the zoom magnification is calculated based on the speed of the moving body, the relative distance of the object to the moving body, and the delay time of the zoom operation, and the zoom lens is driven so as to obtain the calculated zoom magnification, and the object is operated. It has been proposed to set the position to the correction center to perform blur correction (see, for example, Patent Document 1).
  • This technology was made in view of such a situation, and makes it possible to easily obtain an image with an appropriate angle of view.
  • the information processing device on the first aspect of the present technology receives incident light from an incident subject without going through either an image sensor or a pinhole, and shows an output pixel value modulated by the incident angle of the incident light.
  • a pixel to be used is selected from the pixels of the plurality of angles of view based on the information obtained from the detection signal of the image sensor having a plurality of pixels for outputting the detection signal corresponding to any of the plurality of angles of view.
  • a pixel selection unit for performing a predetermined process and a control unit for executing a predetermined process using the selected pixels are provided.
  • the information processing device receives the incident light from the incident subject without passing through either the image pickup lens or the pinhole, and outputs the signal modulated by the incident angle of the incident light. From among the pixels of the plurality of angles of view, based on the information obtained from the detection signals of the image sensor having a plurality of pixels that indicate the pixel values and output the detection signal corresponding to any of the plurality of angles of view. A pixel to be used is selected, and a predetermined process is executed using the selected pixel.
  • the program of the first aspect of the present technology receives incident light from an incident subject without going through either an image sensor or a pinhole, shows output pixel values modulated by the incident angle of the incident light, and exhibits a plurality of output pixel values. Based on the information obtained from the detection signal of the image sensor having a plurality of pixels that output a detection signal corresponding to any one of the angles of view, a pixel to be used is selected from the pixels of the plurality of angles of view. A predetermined process is executed using the selected pixel.
  • the information processing system on the second aspect of the present technology receives incident light from an incident subject without going through either an image sensor or a pinhole, and shows an output pixel value modulated by the incident angle of the incident light.
  • An image sensor including a plurality of pixels for outputting a detection signal corresponding to any one of a plurality of angles of view and an information processing device are provided, and the information processing device is based on the information obtained from the detection signal. It includes a pixel selection unit that selects a pixel to be used from pixels having a plurality of angles of view, and a control unit that executes a predetermined process using the selected pixel.
  • the incident light from the incident subject is received without passing through either the image sensor or the pinhole, and the output pixel value modulated by the incident angle of the incident light is obtained.
  • Pixels used from among the pixels of the plurality of angles of view based on the information obtained from the detection signals of the image sensor having a plurality of pixels for outputting the detection signals corresponding to any of the plurality of angles of view. Is selected, and a predetermined process is executed using the selected pixels.
  • FIG. 1 It is a block diagram which shows the structural example of the control part of FIG. It is a flowchart for demonstrating the 1st Embodiment of a monitoring process. It is a flowchart for demonstrating the detail of image restoration processing. It is a figure for demonstrating the optical axis deviation of the zoom lens type camera. It is a figure which shows the example of the angle of view of an image sensor. It is a figure which shows the example of the aperture setting range of an image sensor. It is a figure which shows the example of the shading pattern of a wide angle of view pixel. It is a figure which shows the example of the shading pattern of a narrow angle of view pixel. It is a figure which shows the arrangement example of the pixel of the pixel array part.
  • FIG. 1 is a block diagram showing a configuration example of an information processing system 11 to which the present technology is applied.
  • the information processing system 11 is a system provided in the vehicle to control the vehicle and the like.
  • the information processing system 11 includes a camera module 21, a communication unit 22, a recognition unit 23, an alert control unit 24, a display unit 25, a display control unit 26, an operation control unit 27, and a control unit 28.
  • the camera module 21, the communication unit 22, the recognition unit 23, the alert control unit 24, the display control unit 26, the operation control unit 27, and the control unit 28 are connected to each other via the bus B1.
  • bus B1 when each part of the information processing system 11 exchanges data via the bus B1 will be omitted.
  • the control unit 28 supplies data to the communication unit 22 via the bus B1
  • the control unit 28 simply supplies the data to the communication unit 22.
  • the camera module 21 takes an image of the front of the vehicle.
  • the camera module 21 includes an imaging unit 41, a camera ECU 42, and an MCU (MicroControlUnit) 43.
  • the image pickup unit 41 is composed of an image pickup lens and an LLC (Lenz Less Camera) that does not use a pinhole.
  • the imaging unit 41 can simultaneously image the front of the vehicle at a plurality of angles of view.
  • the imaging unit 41 supplies the obtained detection images of a plurality of angles of view to the camera ECU 42.
  • the camera ECU 42 performs predetermined image processing on the detected image of each angle of view, and supplies the detected image of each angle of view to the MCU 43.
  • the MCU 43 converts the data supplied from the camera ECU 42 (for example, the detected image) into data in a communication format and outputs the data to the bus B1. Further, the MCU 43 converts the data received from the bus B1 into data in the format for the camera ECU 42 and supplies the data to the camera ECU 42.
  • the communication unit 22 communicates with neighboring vehicles, a portable terminal device owned by a pedestrian, a roadside unit, and an external server by various wireless communications such as vehicle-to-vehicle communication, vehicle-to-vehicle communication, and road-to-vehicle communication. Send and receive information with.
  • the recognition unit 23 performs recognition processing for an object in front of the vehicle based on the restored image restored from the detected image by the control unit 28. For example, the recognition unit 23 performs recognition processing for the position, size, type, movement, and the like of an object. The recognition unit 23 outputs data indicating the recognition result of the object to the bus B1.
  • the detected image is an image in which the image of the subject is not detected and the subject cannot be visually recognized
  • the restored image is an image in which the subject is restored to a visible state from the detected image
  • the alert control unit 24 performs a process of superimposing a warning display calling attention to the dangerous object on the restored image based on the detection result of the dangerous object in front of the vehicle by the control unit 28.
  • the alert control unit 24 outputs the restored image on which the warning display is superimposed to the bus B1.
  • the alert control unit 24 outputs the restored image to the bus B1 as it is without superimposing the warning display.
  • the display unit 25 is composed of, for example, a display such as an organic EL display or a liquid crystal display, and displays a restored image or the like.
  • the display unit 25 is installed, for example, at a position visible to the driver, for example, on the dashboard of the vehicle, in the instrument panel, or the like.
  • the display control unit 26 controls the display process by the display unit 25.
  • the display control unit 26 controls the display of the restored image by the display unit 25.
  • the display control unit 26 controls the display of the warning display by controlling the display of the restored image on which the warning display is superimposed by the display unit 25.
  • the motion control unit 27 controls the motion of the vehicle.
  • the motion control unit 27 controls the speed, traveling direction, brake, and the like of the vehicle so as to avoid dangerous objects detected by the control unit 28.
  • the control unit 28 includes, for example, various processors, controls each unit of the information processing system 11, and executes various processes. For example, the control unit 28 detects a dangerous object that may collide with or come into contact with the vehicle from the objects recognized by the recognition unit 23. Further, the control unit 28 selects a detection image to be used from the detection images of each angle of view generated by the camera module 21 based on the detection result of the dangerous substance. The control unit 28 restores the restored image in which the image of the subject is formed from the selected detected image, and outputs the restored image to the bus B1.
  • FIG. 2 is a block diagram showing a configuration example of the imaging unit 41 of the camera module 21.
  • the image pickup unit 41 includes an image pickup element 121, a control unit 122, a storage unit 123, and a communication unit 124.
  • the control unit 122, the storage unit 123, and the communication unit 124 constitute a signal processing control unit 111 that performs signal processing, control of the imaging unit 41, and the like.
  • the imaging unit 41 does not include an imaging lens (imaging lens free).
  • the image sensor 121, the control unit 122, the storage unit 123, and the communication unit 124 are connected to each other via the bus B2, and data is transmitted / received via the bus B2.
  • the description of the bus B2 when each part of the imaging unit 41 exchanges data via the bus B2 will be omitted.
  • the communication unit 124 supplies data to the control unit 122 via the bus B2
  • the communication unit 124 simply supplies the data to the control unit 122.
  • the image sensor 121 is an image sensor in which the detection sensitivity of each pixel has an incident angle directivity, and outputs an image consisting of a detection signal indicating a detection signal level according to the amount of incident light to the bus B2.
  • the incident angle directivity means that the light receiving sensitivity characteristic according to the incident angle of the incident light to each pixel is different for each pixel.
  • the light-receiving sensitivity characteristics of all the pixels do not have to be completely different, and the light-receiving sensitivity characteristics of some pixels may be the same.
  • the image sensor 121 may have the same basic structure as that of a general image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • CMOS Complementary Metal Oxide Semiconductor
  • the image sensor 121 has a configuration in which each pixel constituting the pixel array unit is different from that of a general one, and has a configuration in which incident angle directivity is provided, for example, as will be described later with reference to FIGS. 4 to 6. doing.
  • the image sensor 121 has different (changes) light receiving sensitivities depending on the incident angle of the incident light for each pixel, and has incident angle directivity with respect to the incident angle of the incident light on a pixel-by-pixel basis.
  • the subject surface 102 of the subject in the upper left of FIG. 3 is composed of a point light source PA to a point light source PC, and the point light source PA to the point light source PC emits a plurality of light rays having a light intensity a to a light intensity c, respectively.
  • the image pickup device 121 includes pixels having different incident angle directivities (hereinafter, referred to as pixel Pa to pixel Pc) at positions Pa to position Pc.
  • light rays of the same light intensity emitted from the same point light source are incident on each pixel of the image sensor 121.
  • light rays having a light intensity a emitted from the point light source PA are incident on the pixels Pa to the pixels Pc of the image sensor 121, respectively.
  • the light rays emitted from the same point light source are incident at different angles of incidence for each pixel.
  • the light rays from the point light source PA are incident on the pixels Pa to the pixels Pc at different angles of incidence.
  • the incident angle directivity of the pixels Pa to Pc is different, light rays of the same light intensity emitted from the same point light source are detected in each pixel with different sensitivities. As a result, light rays having the same light intensity are detected at different detection signal levels for each pixel. For example, the detection signal level for a light ray having a light intensity a from the point light source PA is a different value for each pixel Pa to pixel Pc.
  • the light receiving sensitivity level of each pixel with respect to the light rays from each point light source is obtained by multiplying the light intensity of the light rays by a coefficient indicating the light receiving sensitivity (that is, the incident angle directivity) with respect to the incident angle of the light rays.
  • the detection signal level of the pixel Pa with respect to the light ray from the point light source PA is obtained by multiplying the light intensity a of the light ray of the point light source PA by a coefficient indicating the incident angle directivity of the pixel Pa with respect to the incident angle of the light ray with respect to the pixel Pa. It is required by.
  • the detection signal levels DA, DB, and DC of the pixels Pc, Pb, and Pa are represented by the following equations (1) to (3), respectively.
  • DA ⁇ 1 ⁇ a + ⁇ 1 ⁇ b + ⁇ 1 ⁇ c ⁇ ⁇ ⁇ (1)
  • DB ⁇ 2 ⁇ a + ⁇ 2 ⁇ b + ⁇ 2 ⁇ c ⁇ ⁇ ⁇ (2)
  • DC ⁇ 3 ⁇ a + ⁇ 3 ⁇ b + ⁇ 3 ⁇ c ⁇ ⁇ ⁇ (3)
  • the coefficient ⁇ 1 is a coefficient indicating the incident angle directivity of the pixel Pc with respect to the incident angle of the light ray from the point light source PA to the pixel Pc, and is set according to the incident angle. Further, ⁇ 1 ⁇ a indicates the detection signal level of the pixel Pc with respect to the light beam from the point light source PA.
  • the coefficient ⁇ 1 is a coefficient indicating the incident angle directivity of the pixel Pc with respect to the incident angle of the light ray from the point light source PB to the pixel Pc, and is set according to the incident angle. Further, ⁇ 1 ⁇ b indicates the detection signal level of the pixel Pc with respect to the light beam from the point light source PB.
  • the coefficient ⁇ 1 is a coefficient indicating the incident angle directivity of the pixel Pc with respect to the incident angle of the light ray from the point light source PC to the pixel Pc, and is set according to the incident angle. Further, ⁇ 1 ⁇ c indicates the detection signal level of the pixel Pc with respect to the light beam from the point light source PC.
  • the detection signal level DA of the pixel Pa determines the light intensities a, b, and c of the light rays from the point light sources PA, PB, and PC in the pixel Pc, and the incident angle directivity according to each incident angle. It is obtained by the sum of products with the indicated coefficients ⁇ 1, ⁇ 1 and ⁇ 1.
  • the detection signal level DB of the pixel Pb includes the light intensities a, b, and c of the light rays from the point light sources PA, PB, and PC in the pixel Pb, and their respective incidents. It is obtained by the sum of products with the coefficients ⁇ 2, ⁇ 2, and ⁇ 2 that indicate the incident angle directivity according to the angle.
  • the detection signal level DC of the pixel Pc is the light intensities a, b, c of the light rays from the point light sources PA, PB, and PC in the pixel Pa, and their respective incident angles. It is obtained by the sum of products with the coefficients ⁇ 2, ⁇ 2, and ⁇ 2 indicating the incident angle directivity according to.
  • the detection signal levels DA, DB, and DC of the pixels Pa, Pb, and Pc are the light of light rays emitted from the point light sources PA, PB, and PC, respectively, as shown in the equations (1) to (3).
  • the strengths a, b, and c are mixed. Therefore, as shown in the upper right of FIG. 3, the detection signal level in the image sensor 121 is different from the light intensity of each point light source on the subject surface 102. Therefore, the image obtained by the image sensor 121 is different from the image of the subject surface 102.
  • the light intensity a to the light intensity c of the light rays of each point light source PA or point light source PC can be obtained. Then, by arranging the pixels having the pixel values corresponding to the obtained light intensity a to the light intensity c according to the arrangement (relative position) of the point light source PA to the point light source PC, as shown in the lower right of FIG. , The restored image in which the image of the subject surface 102 is formed is restored.
  • a coefficient set (for example, coefficients ⁇ 1, ⁇ 1, ⁇ 1) in which the coefficients are summarized for each equation constituting the simultaneous equations is referred to as a coefficient set.
  • a set of a plurality of coefficient sets corresponding to a plurality of equations included in the simultaneous equations (for example, coefficient set ⁇ 1, ⁇ 1, ⁇ 1, coefficient set ⁇ 2, ⁇ 2, ⁇ 2, coefficient set ⁇ 3, ⁇ 3, ⁇ 3) is used as a coefficient. Called a set group.
  • the incident angle of the light beam from each point light source of the subject surface 102 to the image sensor 121 is different, so that a different coefficient set is set for each subject distance. A group is needed.
  • a coefficient set group for each distance (subject distance) from the image pickup element 121 to the subject surface is prepared in advance, and the coefficient set group is switched for each subject distance to create simultaneous equations.
  • the coefficient set group is switched for each subject distance to create simultaneous equations.
  • each pixel 121a needs to be set so as to ensure the independence of the simultaneous equations described above.
  • the image output by the image sensor 121 is an image composed of detection signals in which the image of the subject is not formed as shown in the upper right of FIG. 3, the subject cannot be visually recognized. That is, the detection image composed of the detection signals output by the image sensor 121 is a set of pixel signals, but is an image in which the subject cannot be recognized (the subject cannot be visually recognized) even if the user visually recognizes the subject.
  • an image composed of a detection signal in which an image of a subject is not formed, that is, an image captured by the image sensor 121 is referred to as a detection image.
  • incident angle directivity does not necessarily have to be different for each pixel, and pixels having the same incident angle directivity may be included.
  • control unit 122 includes, for example, various processors, controls each unit of the imaging unit 41, and executes various processes.
  • the storage unit 123 includes one or more storage devices such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a flash memory, and stores, for example, a program or data used for processing of the imaging unit 41.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • flash memory stores, for example, a program or data used for processing of the imaging unit 41.
  • the communication unit 124 communicates with the camera ECU 42 by a predetermined communication method.
  • FIG. 4 shows a front view of a part of the pixel array portion of the image sensor 121.
  • FIG. 4 shows an example in which the number of pixels in the pixel array unit is 6 vertical pixels ⁇ 6 horizontal pixels, but the number of pixels in the pixel array unit is not limited to this.
  • the configuration example of the pixel array unit in FIG. 4 is for explaining the first configuration example of the image sensor 121, and the configuration example of the actual pixel array unit will be described later.
  • a light-shielding film 121b which is one of the modulation elements, is provided for each pixel 121a so as to cover a part of the light-receiving region (light-receiving surface) of the photodiode, and each pixel 121a is provided with a light-shielding film 121b.
  • the incident light is optically modulated according to the incident angle. Then, for example, by providing the light-shielding film 121b in a different range for each pixel 121a, the light receiving sensitivity of the incident light with respect to the incident angle becomes different for each pixel 121a, and each pixel 121a has a different incident angle directivity. ..
  • the light-shielding area of the photodiode is different in the light-shielding area (light-shielding area (position)) depending on the light-shielding film 121b-1 and the light-shielding film 121b-2 provided. And at least one of the shaded areas is different). That is, in the pixel 121a-1, a light-shielding film 121b-1 is provided so as to block a part of the left side of the light receiving region of the photodiode by a predetermined width.
  • a light-shielding film 121b-2 is provided so as to block a part of the right side of the light-receiving region by a predetermined width.
  • the width of the light-shielding film 121b-1 to block the light-receiving area of the photodiode and the width of the light-shielding film 121b-2 to block the light-receiving area of the photodiode may be different or the same. ..
  • the light-shielding film 121b is randomly arranged in the pixel array unit so as to block light in a different range of the light-receiving region for each pixel.
  • the upper part of FIG. 5 is a side sectional view of the first configuration example of the image sensor 121
  • the middle part of FIG. 5 is a top view of the first configuration example of the image sensor 121.
  • the side sectional view of the upper part of FIG. 5 is an AB cross section in the middle part of FIG.
  • the lower part of FIG. 5 is an example of a circuit configuration of the image sensor 121.
  • the adjacent pixels 121a-1 and 121a-2 are of a so-called back-illuminated type in which a wiring layer Z12 is provided at the bottom layer in the drawing and a photoelectric conversion layer Z11 is provided above the wiring layer Z12.
  • pixels 121a-1 and 121a-2 when it is not necessary to distinguish between pixels 121a-1 and 121a-2, the description of the number at the end of the code is omitted, and the term is simply referred to as pixel 121a.
  • the numbers and alphabets at the end of the reference numerals may be omitted for other configurations as well.
  • FIG. 5 shows only a side view and a top view of two pixels constituting the pixel array portion of the image sensor 121, and it goes without saying that a larger number of pixels 121a are arranged. Is omitted.
  • the pixels 121a-1 and 121a-2 are provided with photodiodes 121e-1 and 121e-2 as photoelectric conversion elements in the photoelectric conversion layer Z11, respectively. Further, on the photodiodes 121e-1 and 121e-2, on-chip lenses 121c-1, 121c-2 and color filters 121d-1 and 121d-2 are laminated from above, respectively.
  • the on-chip lenses 121c-1 and 121c-2 collect the incident light on the photodiodes 121e-1 and 121e-2.
  • the color filters 121d-1 and 121d-2 are optical filters that transmit light of specific wavelengths such as red, green, blue, infrared and white. In the case of white, the color filters 121d-1 and 121d-2 may or may not be transparent filters.
  • light-shielding films 121g-1 to 121g-3 are formed at the boundaries between the pixels, and as shown in FIG. 5, for example, the incident light It suppresses the occurrence of crosstalk when L is incident on adjacent pixels.
  • the light-shielding films 121b-1 and 121b-2 shield a part of the light-receiving surface S when viewed from the upper surface.
  • the light receiving surface S of the photodiodes 121e-1 and 121e-2 in the pixels 121a-1 and 121a-2 different ranges are shielded by the light-shielding films 121b-1 and 121b-2, whereby different incident angles are obtained.
  • the directivity is set independently for each pixel.
  • the light-shielding range does not have to be different for all the pixels 121a of the image sensor 121, and some pixels 121a may have the same light-shielding range.
  • the light-shielding film 121b-1 and the light-shielding film 121g-1 are connected to each other and are L-shaped when viewed from the side surface.
  • the light-shielding film 121b-2 and the light-shielding film 121g-2 are connected to each other and are formed in an L shape when viewed from the side surface.
  • the light-shielding film 121b-1, the light-shielding film 121b-2, and the light-shielding film 121g-1 to 121g-3 are made of a metal, for example, tungsten (W), aluminum (Al), or Al and copper. It is composed of an alloy with (Cu).
  • the light-shielding film 121b-1, the light-shielding film 121b-2, and the light-shielding film 121g-1 to 121g-3 are simultaneously formed by the same metal as the wiring in the same process as the process in which the wiring is formed in the semiconductor process. It may be done.
  • the film thicknesses of the light-shielding film 121b-1, the light-shielding film 121b-2, and the light-shielding film 121g-1 to 121g-3 do not have to be the same depending on the position.
  • the pixel 121a includes a photodiode 161 (corresponding to the photodiode 121e), a transfer transistor 162, an FD (Floating Diffusion) portion 163, a selection transistor 164, and an amplification transistor 165. , And a reset transistor 166, which is connected to the current source 168 via a vertical signal line 167.
  • the anode electrode of the photodiode 161 is grounded, and the cathode electrode is connected to the gate electrode of the amplification transistor 165 via the transfer transistor 162.
  • the transfer transistor 162 is driven according to the transfer signal TG. For example, when the transfer signal TG supplied to the gate electrode of the transfer transistor 162 becomes high level, the transfer transistor 162 is turned on. As a result, the electric charge stored in the photodiode 161 is transferred to the FD unit 163 via the transfer transistor 162.
  • the FD unit 163 is a floating diffusion region having a charge capacitance C1 provided between the transfer transistor 162 and the amplification transistor 165, and temporarily stores the charge transferred from the photodiode 161 via the transfer transistor 162.
  • the FD unit 163 is a charge detection unit that converts an electric charge into a voltage, and the electric charge stored in the FD unit 163 is converted into a voltage in the amplification transistor 165.
  • the selection transistor 164 is driven according to the selection signal SEL, and turns on when the selection signal SEL supplied to the gate electrode reaches a high level to connect the amplification transistor 165 and the vertical signal line 167.
  • the amplification transistor 165 serves as an input unit of a source follower, which is a readout circuit that reads out a signal obtained by photoelectric conversion in the photodiode 161.
  • a detection signal (pixel signal) at a level corresponding to the electric charge stored in the FD unit 163 is generated.
  • the value of this detection signal (output pixel value) is modulated according to the incident angle of the incident light from the subject, and the characteristics (directivity) differ depending on the incident angle (having incident angle directivity).
  • the reset transistor 166 is driven according to the reset signal RST. For example, the reset transistor 166 is turned on when the reset signal RST supplied to the gate electrode reaches a high level, and the electric charge accumulated in the FD unit 163 is discharged to the power supply VDD to reset the FD unit 163.
  • the shape of the light-shielding film 121b of each pixel 121a is not limited to the example of FIG. 4, and can be set to any shape.
  • the shape extending in the horizontal direction of FIG. 4, the L-shaped shape extending in the vertical and horizontal directions, the shape provided with a rectangular opening, and the like can be used.
  • FIG. 6 is a diagram showing a second configuration example of the image sensor 121.
  • a side sectional view of the pixel 121a of the image sensor 121 which is a second configuration example, is shown in the upper part of FIG. 6, and a top view of the image sensor 121 is shown in the middle part of FIG.
  • the side sectional view of the upper part of FIG. 6 is an AB cross section in the middle part of FIG.
  • the lower part of FIG. 6 is an example of a circuit configuration of the image sensor 121.
  • the image sensor 121 of FIG. 6 four photodiodes 121f-1 to 121f-4 are formed in one pixel 121a, and a light-shielding film 121g is formed in a region for separating the photodiodes 121f-1 to 121f-4.
  • the configuration is different from that of the image sensor 121 of FIG. That is, in the image sensor 121 of FIG. 6, the light-shielding film 121g is formed in a “+” shape when viewed from the upper surface.
  • the common configurations thereof are designated by the same reference numerals as those in FIG. 5, and detailed description thereof will be omitted.
  • the photodiodes 121f-1 to 121f-4 are separated by the light-shielding film 121g, so that electrical and optical crosstalk between the photodiodes 121f-1 to 121f-4 is generated. Be prevented. That is, the light-shielding film 121g of FIG. 6 is for preventing crosstalk like the light-shielding film 121g of the image sensor 121 of FIG. 5, and is not for providing incident angle directivity.
  • one FD unit 163 is shared by four photodiodes 121f-1 to 121f-4.
  • the lower part of FIG. 6 shows an example of a circuit configuration in which one FD unit 163 is shared by four photodiodes 121f-1 to 121f-4. The description of the same configuration as that of the lower part of FIG. 5 in the lower part of FIG. 6 will be omitted.
  • the difference from the circuit configuration in the lower part of FIG. 5 is that the photodiodes 161-1 to 161- are replaced with the photodiode 161 (corresponding to the photodiode 121e in the upper part of FIG. 5) and the transfer transistor 162. 4 (corresponding to photodiodes 121f-1 to 121f-4 in the upper part of FIG. 6) and transfer transistors 162-1 to 162-4 are provided, and the FD unit 163 is shared.
  • the electric charge accumulated in the photodiodes 121f-1 to 121f-4 has a predetermined capacitance provided at the connection portion between the photodiodes 121f-1 to 121f-4 and the gate electrode of the amplification transistor 165. It is transferred to the common FD unit 163. Then, a signal corresponding to the level of the electric charge held in the FD unit 163 is read out as a detection signal (pixel signal).
  • the charges accumulated in the photodiodes 121f-1 to 121f-4 can be selectively contributed to the output of the pixel 121a, that is, the detection signal in various combinations. That is, the configuration is such that the electric charge can be read out independently for each photodiode 121f-1 to 121f-4, and the photodiodes 121f-1 to 121f-4 (photodiodes 121f-1 to 121f-4 output) that contribute to the output. By making the degree of contribution to the diode different from each other, different incident angle directivities can be obtained.
  • the incident angle directivity in the left-right direction can be obtained.
  • the incident angle directivity in the vertical direction can be obtained.
  • the signal obtained based on the electric charge selectively read out independently from the four photodiodes 121f-1 to 121f-4 is a detection signal corresponding to one pixel constituting the detection image.
  • each photodiode 121f charge
  • the contribution of each photodiode 121f (charge) to the detection signal is determined not only by whether or not the charge (detection value) of each photodiode 121f is transferred to the FD unit 163, but also by using the electronic shutter function. It can also be realized by resetting the electric charge accumulated in the photodiode 121f before the transfer to the FD unit 163. For example, if the charge of the photodiode 121f is reset immediately before the transfer to the FD unit 163, the photodiode 121f does not contribute to the detection signal at all. On the other hand, by allowing a time between resetting the charge of the photodiode 121f and transferring the charge to the FD unit 163, the photodiode 121f is in a state of partially contributing to the detection signal.
  • each pixel has a different incident angle directivity.
  • the detection signal output from each pixel 121a of the image sensor 121 in FIG. 6 is a value modulated according to the incident angle of the incident light from the subject (output pixel value), and has characteristics (directivity) depending on the incident angle. Is different (has incident angle directivity).
  • the detection signal is a signal obtained by optical modulation. Absent.
  • the photodiode 121f that does not contribute to the detection signal will also be referred to as a photodiode 121f that does not contribute to the pixel or output.
  • FIG. 6 shows an example in which the light receiving surface of the pixel (pixel 121a) is divided into four equal parts and the photodiode 121f having the same light receiving surface is arranged in each region, that is, the photodiode is divided into four equal parts.
  • the number of divisions and the division position of the photodiode can be set arbitrarily.
  • the division position of the photodiode may be different for each pixel.
  • the incident angle directivity will differ between the pixels.
  • the number of divisions different between the pixels, it becomes possible to set the incident angle directivity more freely.
  • both the number of divisions and the division position may be different between the pixels.
  • both the image pickup device 121 of FIG. 5 and the image pickup device 121 of FIG. 6 have a configuration in which each pixel can independently set the incident angle directivity.
  • the incident angle directivity of each pixel is set at the time of manufacture by the light-shielding film 121b.
  • the number of divisions and the division position of the photodiodes of each pixel are set at the time of manufacture, but the incident angle directivity of each pixel (combination of photodiodes that contributes to output) is used (combination of photodiodes that contribute to output). For example, it can be set at the time of imaging).
  • neither the image pickup device 121 of FIG. 5 nor the image pickup device 121 of FIG. 6 necessarily has a configuration in which all the pixels have an incident angle directivity.
  • the shape of the light-shielding film 121b of each pixel 121a is referred to as a light-shielding pattern.
  • the shape of the region of the photodiode 121f that does not contribute to the output in each pixel 121a is referred to as a light-shielding pattern.
  • the incident angle directivity of each pixel of the image sensor 121 is generated by, for example, the principle shown in FIG. 7.
  • the upper left and upper right parts of FIG. 7 are views for explaining the principle of generation of incident angle directivity in the image sensor 121 of FIG. 5, and the lower left and lower right parts of FIG. 7 are the image sensor 121 of FIG. It is a figure explaining the generation principle of the incident angle directivity.
  • the upper left and upper right pixels of FIG. 7 both include one photodiode 121e.
  • the lower left and lower right pixels of FIG. 7 both include two photodiodes 121f.
  • an example in which one pixel includes two photodiodes 121f is shown here, this is for convenience of explanation, and the number of photodiodes 121f included in one pixel may be another number. ..
  • a light-shielding film 121b-11 is formed so as to block the right half of the light-receiving surface of the photodiode 121e-11. Further, in the upper right pixel of FIG. 7, a light-shielding film 121b-12 is formed so as to block the left half of the light-receiving surface of the photodiode 121e-12.
  • the alternate long and short dash line in the figure is an auxiliary line that passes through the horizontal center of the light receiving surface of the photodiode 121e and is perpendicular to the light receiving surface.
  • the incident light from the upper right direction forming the incident angle ⁇ 1 with respect to the alternate long and short dash line in the figure is not shielded by the light shielding film 121b-11 of the photodiode 121e-11 on the left. It is easy to receive light due to the half range.
  • the incident light from the upper left direction forming the incident angle ⁇ 2 with respect to the alternate long and short dash line in the figure is hard to be received by the range of the left half that is not shielded by the light-shielding film 121b-11 of the photodiode 121e-11. .. Therefore, the pixel in the upper left part of FIG. 7 has an incident angle directivity having a high light receiving sensitivity with respect to the incident light from the upper right in the figure and a low light receiving sensitivity with respect to the incident light from the upper left side. ..
  • the incident light from the upper right direction forming the incident angle ⁇ 1 is received by the left half range shaded by the light shielding film 121b-12 of the photodiode 121e-12. Hateful.
  • the incident light from the upper left direction forming the incident angle ⁇ 2 is easily received by the right half range that is not shielded by the light-shielding film 121b-12 of the photodiode 121e-12. Therefore, the pixel in the upper right part of FIG. 7 has an incident angle directivity having a low light receiving sensitivity with respect to the incident light from the upper right side in the figure and a high light receiving sensitivity with respect to the incident light from the upper left side. ..
  • the lower left pixel of FIG. 7 is provided with photodiodes 121f-11 and 121f-12 on the left and right sides of the drawing, and a light-shielding film 121b is provided by reading out one of the detection signals. It is configured to have incident angle directivity without any problem.
  • the incident angle directivity similar to that of the upper left pixel of FIG. 7 is obtained. Obtainable. That is, the incident light from the upper right direction forming the incident angle ⁇ 1 with respect to the alternate long and short dash line in the figure is incident on the photodiode 121f-11, and the signal corresponding to the amount of received light is read from the photodiode 121f-11. It contributes to the detection signal output from the pixel.
  • the incident light from the upper left direction forming the incident angle ⁇ 2 with respect to the alternate long and short dash line in the figure is incident on the photodiode 121f-12, but is not read from the photodiode 121f-12, and therefore is not read from this pixel. Does not contribute to the output detection signal.
  • the incident light from the upper left direction forming the incident angle ⁇ 2 is incident on the photodiode 121f-14, and the signal corresponding to the amount of received light is read from the photodiode 121f-14, so that the light is output from this pixel. Contributes to the detection signal.
  • the light-shielding range and the non-light-shielding range are separated at the horizontal center position of the pixel (light receiving surface of the photodiode 121e), but they are separated at other positions. You may.
  • the two photodiodes 121f are separated at the horizontal center position of the pixel is shown, but the two photodiodes 121f may be separated at other positions. In this way, different incident angle directivities can be generated by changing the light-shielding range or the position where the photodiode 121f is divided.
  • the upper graph of FIG. 8 shows the incident angle directivity of the pixels in the middle and lower rows of FIG.
  • the horizontal axis represents the incident angle ⁇
  • the vertical axis represents the detection signal level.
  • the incident angle ⁇ is 0 degrees when the direction of the incident light coincides with the alternate long and short dash line on the left side of the middle row in FIG. 8, and the incident angle ⁇ 21 side on the left side of the middle row in FIG. 8 is the positive direction.
  • the incident angle ⁇ 22 on the right side is the negative direction. Therefore, the incident light incident on the on-chip lens 121c from the upper right side has a larger incident angle than the incident light incident on the upper left side. That is, the incident angle ⁇ increases as the traveling direction of the incident light tilts to the left (increases in the positive direction), and decreases as it tilts to the right (increases in the negative direction).
  • the pixels in the middle left part of FIG. 8 are the on-chip lens 121c-11 that collects the incident light and the color filter 121d-11 that transmits the light of a predetermined wavelength to the pixels in the upper left part of FIG. Is added. That is, in this pixel, the on-chip lens 121c-11, the color filter 121d-11, the light-shielding film 121b-11, and the photodiode 121e-11 are laminated in this order from the incident direction of the light in the upper part of the drawing.
  • the middle right pixel of FIG. 8, the lower left pixel of FIG. 8, and the lower right pixel of FIG. 8 are the upper right pixel of FIG. 7 and the lower left pixel of FIG. 7, respectively.
  • the on-chip lens 121c-11 and the color filter 121d-11, or the on-chip lens 121c-12 and the color filter 121d-12 are added to the pixels in the lower right part of FIG.
  • the detection signal level (light receiving sensitivity) of the photodiode 121e-11 changes according to the incident angle ⁇ of the incident light, as shown by the waveform of the solid line in the upper row of FIG. That is, the larger the incident angle ⁇ , which is the angle formed by the incident light with respect to the one-point chain line in the figure (the larger the incident angle ⁇ is in the positive direction (the more it tilts to the right in the figure)), the light-shielding film 121b- By concentrating the light in the range where 11 is not provided, the detection signal level of the photodiode 121e-11 is increased.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ is in the negative direction (the more it tilts to the left in the figure)
  • the more the light is collected in the range where the light-shielding film 121b-11 is provided.
  • the detection signal level of the photodiode 121e-11 becomes smaller.
  • the detection signal level (light receiving sensitivity) of the photodiode 121e-12 changes according to the incident angle ⁇ of the incident light, as shown by the dotted line waveform in the upper row of FIG. To do. That is, the larger the incident angle ⁇ of the incident light (the larger the incident angle ⁇ is in the positive direction), the light is focused in the range where the light-shielding film 121b-12 is provided, so that the photodiode 121e-12 The detection signal level of is reduced.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ is in the negative direction
  • the light is incident in the range where the light-shielding film 121b-12 is not provided, so that the photodiode 121e-12
  • the detection signal level increases.
  • the waveforms of the solid line and the dotted line shown in the upper part of FIG. 8 can be changed according to the range of the light-shielding film 121b. Therefore, depending on the range of the light-shielding film 121b, it is possible to give different incident angle directivity to each pixel.
  • the incident angle directivity is a characteristic of the light receiving sensitivity of each pixel according to the incident angle ⁇ , but this is a characteristic of the light shielding value according to the incident angle ⁇ in the middle pixel of FIG. It can be said that. That is, the light-shielding film 121b shields the incident light in a specific direction at a high level, but cannot sufficiently block the incident light from other directions. This change in the light-shielding level causes different detection signal levels depending on the incident angle ⁇ as shown in the upper part of FIG.
  • each pixel has different incident angle directivity means that, in other words, each pixel has different light-shielding directions. It will have a direction.
  • the signal of only the photodiode 121f-11 in the left part of the figure is used as in the case of the lower left pixel of FIG. 7, so that the middle left of FIG. 8 is used. It is possible to obtain the same incident angle directivity as the pixels of the unit. That is, when the incident angle ⁇ of the incident light increases (when the incident angle ⁇ increases in the positive direction), the light is focused in the range of the photodiode 121f-11 from which the signal is read, so that the detected signal level becomes large. Become.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ is in the negative direction
  • the more the light is focused in the range of the photodiode 121f-12 where the signal is not read, and the detected signal level. Becomes smaller.
  • the signal of only the photodiode 121f-14 in the right part of the drawing is used in the same manner as the lower right pixel of FIG. 7. It is possible to obtain the same incident angle directivity as the pixel on the right side of the middle stage. That is, when the incident angle ⁇ of the incident light increases (when the incident angle ⁇ increases in the positive direction), the light is focused in the range of the photodiode 121f-13 which does not contribute to the output (detection signal), so that the pixel The level of the detection signal of the unit becomes smaller.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ is in the negative direction
  • the more the light is focused in the range of the photodiode 121f-14 that contributes to the output (detection signal).
  • the level of the detection signal for each pixel increases.
  • the center of gravity of the incident angle directivity of the pixel 121a is defined as follows.
  • the center of gravity of the incident angle directivity is the center of gravity of the distribution of the intensity of the incident light incident on the light receiving surface of the pixel 121a.
  • the light receiving surface of the pixel 121a is the light receiving surface of the photodiode 121e in the middle pixel 121a of FIG. 8, and the light receiving surface of the photodiode 121f in the lower pixel 121a of FIG.
  • the detection signal level on the vertical axis of the upper graph of FIG. 8 is a ( ⁇ ), and the ray having an incident angle ⁇ g calculated by the following equation (4) is the center of gravity ray.
  • ⁇ g ⁇ (a ( ⁇ ) ⁇ ⁇ ) / ⁇ a ( ⁇ ) ... (4)
  • each photodiode is provided with directivity with respect to the incident angle of the incident light.
  • an on-chip lens 121c is indispensable for each pixel.
  • the pixel 121a is shaded by the light-shielding film 121b by the width d1 from each end of each of the four sides, and as shown in the lower part of FIG. 9, each of the four sides.
  • FIG. 10 shows an example of the incident angle of the incident light from the subject surface 102 on the center position C1 of the image sensor 121.
  • FIG. 10 shows an example of the incident angle of the incident light in the horizontal direction, the same applies to the vertical direction. Further, on the right side of FIG. 10, pixels 121a and 121a'in FIG. 9 are shown.
  • the pixel 121a of FIG. 9 when the pixel 121a of FIG. 9 is arranged at the center position C1 of the image sensor 121, the range of the incident angle of the incident light from the subject surface 102 to the pixel 121a is an angle as shown in the left part of FIG. It becomes A1. Therefore, the pixel 121a can receive the incident light having a width W1 in the horizontal direction of the subject surface 102.
  • the pixel 121a'of FIG. 9 when the pixel 121a'of FIG. 9 is arranged at the center position C1 of the image sensor 121, the pixel 121a'has a wider light-shielding range than the pixel 121a, so that the subject surface 102 moves to the pixel 121a'.
  • the range of the incident angle of the incident light is the angle A2 ( ⁇ A1) as shown in the left part of FIG. Therefore, the pixel 121a'can receive the incident light having a width W2 ( ⁇ W1) in the horizontal direction of the subject surface 102.
  • the pixel 121a having a narrow light-shielding range is a wide angle-of-view pixel suitable for capturing a wide range on the subject surface 102, whereas the pixel 121a'with a wide light-shielding range is narrow on the subject surface 102. It is a narrow angle-of-view pixel suitable for capturing a range.
  • the wide angle-of-view pixel and the narrow angle-of-view pixel referred to here are expressions for comparing both the pixels 121a and 121a'in FIG. 9, and are not limited to this when comparing pixels with other angles of view.
  • the pixel 121a is used to restore the image I1 of FIG.
  • the image I1 is an image having an angle of view SQ1 corresponding to the subject width W1 including the entire person H101 as the subject in the upper part of FIG.
  • Image I2 is an image of the angle of view SQ2 corresponding to the subject width W2 in which the periphery of the face of the person H101 in the upper row of FIG. 11 is zoomed in.
  • the pixel 121a of FIG. 9 is defined in the range ZA surrounded by the dotted line of the image sensor 121, and the pixel 121a'is defined in the range ZB surrounded by the alternate long and short dash line. It is conceivable to collect and arrange the number of pixels one by one. Then, for example, when restoring the image of the angle of view SQ1 corresponding to the subject width W1, the image of the angle of view SQ1 can be appropriately restored by using the detection signal of each pixel 121a in the range ZA. it can. On the other hand, when restoring the image of the angle of view SQ2 corresponding to the subject width W2, the image of the angle of view SQ2 can be appropriately restored by using the detection signal of each pixel 121a'in the range ZB. ..
  • the angle of view SQ2 is narrower than the angle of view SQ1
  • the image of the angle of view SQ2 is restored rather than the image of the angle of view SQ1. It is possible to obtain a higher quality (higher resolution) restored image.
  • the right part of FIG. 12 shows a configuration example within the range ZA of the image sensor 121 of FIG.
  • the left part of FIG. 12 shows a configuration example of the pixel 121a in the range ZA.
  • the range shown in black is the light-shielding film 121b, and the light-shielding range of each pixel 121a is determined according to, for example, the rule shown on the left side of FIG.
  • the main light-shielding portion Z101 on the left side of FIG. 12 is a range that is commonly shaded by each pixel 121a.
  • the main shading portion Z101 has a width dx1 range from the left side and the right side of the pixel 121a toward the inside of the pixel 121a, and a height from the upper side and the lower side of the pixel 121a toward the inside of the pixel 121a, respectively. It is in the range of dy1.
  • a rectangular opening Z111 that is not shaded by the light-shielding film 121b is provided in the range Z102 inside the main light-shielding portion Z101. Therefore, in each pixel 121a, the range other than the opening Z111 is shielded by the light-shielding film 121b.
  • the openings Z111 of each pixel 121a are regularly arranged. Specifically, the horizontal position of the opening Z111 in each pixel 121a is the same in the pixels 121a in the same vertical row. Further, the vertical position of the opening Z111 in each pixel 121a is the same in the pixel 121a in the same horizontal row.
  • the horizontal position of the opening Z111 in each pixel 121a is deviated at a predetermined interval according to the horizontal position of the pixel 121a. That is, as the position of the pixel 121a advances to the right, the left side of the opening Z111 moves to a position shifted to the right by the widths dx1, dx2, ..., Dxn from the left side of the pixel 121a, respectively.
  • the distance between the width dxn-1 and the width dxn is the length obtained by subtracting the width of the opening Z111 from the horizontal width of the range Z102, respectively. Is divided by the number of pixels n-1 in the horizontal direction.
  • the vertical position of the opening Z111 in each pixel 121a is deviated at a predetermined interval according to the vertical position of the pixel 121a. That is, as the position of the pixel 121a advances downward, the upper side of the opening Z111 moves downward by heights dy1, dy2, ..., Dyn from the upper side of the pixel 121a, respectively.
  • the distance between the height dy1 and the height dy2, the distance between the height dy2 and the height dy3, ..., The distance between the height dyn-1 and the height dyn is the opening Z111 from the vertical height of the range Z102, respectively.
  • the length obtained by subtracting the height of is divided by the number of pixels m-1 in the vertical direction.
  • the right part of FIG. 13 shows a configuration example within the range ZB of the image sensor 121 of FIG.
  • the left part of FIG. 13 shows a configuration example of pixels 121a'in the range ZB.
  • the range shown in black is the light-shielding film 121b', and the light-shielding range of each pixel 121a' is determined according to, for example, the rule shown on the left side of FIG.
  • the main light-shielding portion Z151 on the left side of FIG. 13 is a range that is commonly shaded in each pixel 121a'.
  • the main shading portion Z151 faces the range of the width dx1'from the left side and the right side of the pixel 121a'to the inside of the pixel 121a', and from the upper side and the lower side of the pixel 121a' to the inside of the pixel 121a', respectively.
  • Each is in the range of height dy1'.
  • each pixel 121a' a rectangular opening Z161 that is not shaded by the light-shielding film 121b'is provided in the range Z152 inside the main light-shielding portion Z151. Therefore, in each pixel 121a', the range other than the opening Z161 is shielded by the light-shielding film 121b'.
  • the openings Z161 of each pixel 121a' are regularly arranged in the same manner as the openings Z111 of each pixel 121a in FIG. Specifically, the horizontal position of the opening Z161 in each pixel 121a'is the same in the pixels 121a'in the same vertical row. Further, the vertical position of the opening Z161 in each pixel 121a'is the same in the pixel 121a' in the same horizontal row.
  • the horizontal position of the opening Z161 in each pixel 121a' is deviated at a predetermined interval according to the horizontal position of the pixel 121a'. That is, as the position of the pixel 121a'moves to the right, the left side of the opening Z161 moves to a position shifted to the right by the widths dx1', dx2', ..., Dxn'from the left side of the pixel 121a', respectively. To do.
  • the vertical position of the opening Z161 in each pixel 121a' is deviated at a predetermined interval according to the vertical position of the pixel 121a'. That is, as the position of the pixel 121a'advances downward, the upper side of the opening Z161 is displaced downward by the heights dy1', dy2', ..., Dyn'from the upper side of the pixel 121a', respectively. Moving. The distance between the height dy1'and the height dy2', the distance between the height dy2' and the height dy3', ..., The distance between the height dyn-1'and the height dyn'are in the vertical direction of the range Z152, respectively. The length obtained by subtracting the height of the opening Z161 from the height is divided by the number of pixels m-1 in the vertical direction.
  • the length obtained by subtracting the width of the opening Z111 from the horizontal width of the range Z102 of the pixel 121a in FIG. 12 is the width of the opening Z161 obtained by subtracting the width of the opening Z111 from the horizontal width of the range Z152 of the pixel 121a'in FIG. It will be larger than the drawn width. Therefore, the interval of change of the widths dx1, dx2 ... dxn in FIG. 12 is larger than the interval of change of the widths dx1', dx2'... dxn'in FIG.
  • the length obtained by subtracting the height of the opening Z111 from the vertical height of the range Z102 of the pixel 121a in FIG. 12 is the length of the opening Z161 obtained by subtracting the height of the opening Z111 from the vertical height of the range Z152 of the pixel 121a'in FIG. It is larger than the length minus the height. Therefore, the interval of change of the heights dy1, dy2 ... dyn of FIG. 12 is larger than the interval of the change of the heights dy1', dy2'... dyn'of FIG.
  • the interval between changes in the horizontal and vertical positions of the opening Z111 of the light-shielding film 121b of each pixel 121a in FIG. 12 and the horizontal of the opening Z161 of the light-shielding film 121b'of each pixel 121a' in FIG. It differs from the interval between changes in directional and vertical position.
  • the difference in this interval is the difference in the subject resolution (angle resolution) in the restored image. That is, the interval between changes in the horizontal and vertical positions of the opening Z161 of the light-shielding film 121b'of each pixel 121a'in FIG. 13 is the horizontal of the opening Z111 of the light-shielding film 121b of each pixel 121a of FIG.
  • the restored image restored using the detection signal of each pixel 121a'in FIG. 13 has a higher subject resolution and higher image quality than the restored image restored using the detection signal of each pixel 121a of FIG. High resolution).
  • the image sensor 121 composed of pixels having various angles of view (having various incident angle directivities) is realized. It becomes possible.
  • the pixels 121a and the pixels 121a'are arranged separately in the range ZA and the range ZB is shown, but this is for the sake of simplicity, and the pixels 121a corresponding to different angles of view are the same. It is desirable that they are mixed and arranged in the area.
  • each unit U has wide-angle pixels 121a-W and medium-angle pixels. It is composed of four pixels: pixels 121a-M, pixels 121a-N having a narrow angle of view, and pixels 121a-AN having an extremely narrow angle of view.
  • the number of pixels of all the pixels 121a is X
  • four types of coefficient set groups that are different for each angle of view are used, and restored images with different angles of view are restored by four different simultaneous equations.
  • the image of the angle of view in the middle of the four types of angles of view and the images of the angles of view before and after the angle of view may be interpolated and generated from the images of the four types of angles of view, and images of various angles of view are seamlessly generated. By doing so, a pseudo optical zoom may be realized.
  • all the wide angle of view pixels may be used, or a part of the wide angle of view pixels may be used.
  • all the narrow angle of view pixels may be used, or a part of the narrow angle of view pixels may be used.
  • the image sensor 121 includes pixels 121a and pixels 121a', and as shown in FIG. 11, has a wide angle of view (for example, an angle of view SQ1) and a narrow angle of view.
  • a wide angle of view for example, an angle of view SQ1
  • a narrow angle of view for example, an angle of view SQ2
  • detection images of two types of angles of view for example, angle of view SQ2
  • the pixel 121a is referred to as a wide angle of view pixel
  • the pixel 121a' is referred to as a narrow angle of view pixel.
  • FIG. 15 shows a configuration example of the function of the control unit 28 of FIG.
  • the control unit 28 includes a dangerous substance detection unit 201, a pixel selection unit 202, a restoration unit 203, and a storage unit 204.
  • the dangerous goods detection unit 201 performs the dangerous goods detection process based on the recognition result of the object in front of the vehicle by the recognition unit 23.
  • the pixel selection unit 202 selects a pixel to be used for monitoring the front of the vehicle based on the information obtained from the detection signal output from each pixel 121a among the pixels 121a of the image sensor 121. Specifically, the pixel selection unit 202 selects whether to use the wide angle of view pixel or the narrow angle of view pixel for monitoring the front of the vehicle based on the detection result of the dangerous material by the dangerous material detection unit 201. To do. In other words, the pixel selection unit 202 reconstructs the wide angle of view restoration image corresponding to the wide angle of view pixel and the narrow angle of view restoration corresponding to the narrow angle of view pixel based on the detection result of the dangerous object by the dangerous object detection unit 201 and the like. Select which image of the image to use for monitoring the front of the vehicle.
  • the restoration unit 203 corresponds to, for example, the pixels selected by the pixel selection unit 202 and the subject distance corresponding to the distance from the image sensor 121 in FIG. 3 to the subject surface 102 (subject surface corresponding to the restored image).
  • the coefficient set group corresponding to the above-mentioned coefficients ⁇ 1 to ⁇ 3, ⁇ 1 to ⁇ 3, ⁇ 1 to ⁇ 3 is acquired from the storage unit 204.
  • the restoration unit 203 is represented by the above equations (1) to (3) using the detection signal level of each pixel of the detection image output from the image sensor 121 and the acquired coefficient set group. Create simultaneous equations.
  • the restoration unit 203 obtains the pixel value of each pixel constituting the image in which the image of the subject shown in the lower right of FIG. 3 is formed by solving the created simultaneous equations.
  • the restored image in which the user can visually recognize the subject is restored from the detected image.
  • the restored image is not an image that can identify the subject like a normal image, but in this case as well, the restored image It is called.
  • a restored image which is an image in which an image of a subject is formed, and an image before color separation or simultaneous processing such as demosaic processing is referred to as a RAW image, and is detected by the image sensor 121.
  • the image is distinguished as an image that follows the arrangement of color filters but is not a RAW image.
  • the number of pixels of the image sensor 121 and the number of pixels of the pixels constituting the restored image do not necessarily have to be the same.
  • the restoration unit 203 performs demosaic processing, ⁇ correction, white balance adjustment, conversion processing to a predetermined compression format, etc. on the restored image as necessary. Then, the restoration unit 203 outputs the restored image to the bus B2.
  • the storage unit 204 includes one or more storage devices such as a ROM, a RAM, and a flash memory, and stores, for example, a program, data, or the like used for processing by the control unit 28.
  • the storage unit 204 stores a set of coefficients corresponding to the above-mentioned coefficients ⁇ 1 to ⁇ 3, ⁇ 1 to ⁇ 3, ⁇ 1 to ⁇ 3 in association with various subject distances and angles of view. More specifically, for example, the storage unit 204 includes a coefficient for each pixel 121a of the image sensor 121 for each point light source set for each subject surface 102 at each subject distance and for each angle of view on the subject surface 102.
  • the coefficient set group is stored.
  • This process starts when the power of the vehicle equipped with the information processing system 11 is turned on, and ends when the vehicle is turned off.
  • step S1 the image sensor 121 takes an image of the front of the vehicle.
  • a detection signal indicating the detection signal level according to the amount of incident light from the subject is output from each pixel of the image sensor 121 having different angles of view directivity, and a wide angle of view pixel detection signal is output.
  • An angle-of-view detection image and a narrow-angle-of-view detection image composed of detection signals of each narrow-angle pixel can be obtained.
  • the image sensor 121 supplies a wide angle of view detection image and a narrow angle of view detection image to the control unit 28 via the communication unit 124, the camera ECU 42, and the MCU 43.
  • step S2 the pixel selection unit 202 selects an image to use a wide angle of view image. That is, the pixel selection unit 202 selects the wide angle-of-view restored image restored from the wide-angle-of-view detection image as the image used for monitoring the front of the vehicle. As a result, the wide angle of view pixel is selected as the pixel of the image sensor 121 used for monitoring, and the wide angle of view detection image composed of the detection signals output from each wide angle of view pixel is selected as the restoration target of the process of step S3. To.
  • step S3 the restoration unit 203 executes the image restoration process.
  • the details of the image restoration process will be described later with reference to FIG. 17, but this process restores the wide angle of view restored image from the wide angle of view detected image.
  • step S4 the information processing system 11 monitors using the wide angle of view restored image.
  • the recognition unit 23 performs object recognition processing on the wide angle of view restored image, and recognizes the position, size, type, movement, etc. of the object in front of the vehicle.
  • the recognition unit 23 supplies the wide angle of view restored image and data indicating the recognition result of the object to the dangerous goods detection unit 201.
  • the dangerous goods detection unit 201 collides with or contacts the vehicle based on the current position, speed, and moving direction of the vehicle, and the position, size, type, movement, and the like of the object recognized by the recognition unit 23. Detect dangerous goods that may be dangerous.
  • the dangerous goods detection unit 201 is an object (a predetermined threshold or more for the vehicle) in which the distance to the vehicle in front of the vehicle is within a predetermined range and the relative speed in the direction approaching the vehicle is equal to or more than a predetermined threshold. (Objects approaching at speed) are detected as dangerous goods.
  • the dangerous goods detection unit 201 is an object that is on the travel planning route of the vehicle and whose relative speed in the direction of approaching the vehicle is equal to or higher than a predetermined threshold value (an object that is approaching the vehicle at a speed equal to or higher than a predetermined threshold value). ) Is detected as a dangerous substance.
  • the dangerous goods detection unit 201 supplies the wide angle of view restored image and data indicating the detection result of the dangerous goods to the alert control unit 24 and the operation control unit 27.
  • the alert control unit 24 performs a process of superimposing a warning display calling attention to the dangerous object on the wide angle of view restored image based on the detection result of the dangerous object in front of the vehicle. For example, in order to emphasize dangerous objects in the wide angle-of-view restored image, a display effect such as surrounding with a frame is applied.
  • the alert control unit 24 supplies the wide angle of view restored image on which the warning display is superimposed to the display control unit 26.
  • the alert control unit 24 supplies the wide angle of view restored image to the display control unit 26 as it is without superimposing the warning display.
  • the display unit 25 displays the wide angle of view restored image under the control of the display control unit 26. At this time, if a dangerous substance is detected, a warning is displayed on the wide angle of view restored image. This allows the driver to quickly and reliably recognize the presence of dangerous goods in front of the vehicle.
  • step S5 the dangerous goods detection unit 201 determines whether or not there is a dangerous goods based on the result of the process in step S4. If it is determined that there is no dangerous substance, the process returns to step S1.
  • step S5 the processes of steps S1 to S5 are repeatedly executed until it is determined that a dangerous substance exists. That is, when no dangerous substance is detected, monitoring using the wide angle of view restored image is repeatedly executed.
  • step S5 if it is determined in step S5 that a dangerous substance exists, the process proceeds to step S6.
  • step S6 the image in front of the vehicle is taken in the same manner as in the process of step S1. As a result, a wide angle of view detection image and a narrow angle of view detection image can be obtained.
  • step S7 the pixel selection unit 202 selects an image to use a narrow angle of view image. That is, the pixel selection unit 202 selects the narrow angle of view restored image restored from the narrow angle of view detection image as the image used for monitoring the front of the vehicle. As a result, the narrow angle of view pixel is selected as the pixel of the image sensor 121 used for monitoring, and the narrow angle of view detection image composed of the detection signals output from each narrow angle of view pixel is selected as the restoration target of the process of step S8. To.
  • step S8 the restoration unit 203 executes the image restoration process.
  • the details of the image restoration process will be described later with reference to FIG. 17, but this process restores the narrow angle of view restoration image from the narrow angle of view detection image.
  • the recognition unit 23 performs a dangerous object recognition process using the narrow angle of view restored image. Specifically, the recognition unit 23 performs an object recognition process on the narrow angle of view restored image, and recognizes the position, size, type, movement, etc. of the dangerous object detected in the process of step S4 in more detail. To do. That is, the narrow angle of view restored image has the same center as the wide angle of view restored image, the angle of view is narrower than that of the wide angle of view restored image, and the image quality (high resolution) is high. Therefore, the position, size, type, movement, and the like of the dangerous substance are recognized in more detail as compared with the process of step S3. The recognition unit 23 supplies data indicating the recognition result of the dangerous substance to the operation control unit 27.
  • step S10 the motion control unit 27 performs an avoidance action. Specifically, the motion control unit 27 controls the traveling direction, speed, brake, etc. of the vehicle so as not to collide with or contact the dangerous object based on the recognition result of the dangerous object based on the narrow angle of view restored image. ..
  • the restoration unit 203 obtains a coefficient used for image restoration. Specifically, the restoration unit 203 sets the distance to the subject surface 102 to be restored, that is, the subject distance. Any method can be adopted as the method for setting the subject distance. For example, the restoration unit 203 sets the subject distance set by the user or the subject distance detected by various sensors to the distance to the subject surface 102 to be restored.
  • the restoration unit 203 reads out the coefficient set group associated with the set subject distance from the storage unit 123. At this time, the restoration unit 203 reads out the coefficient set group for the wide angle of view detection image from the storage unit 123 when restoring the wide angle of view restored image, and when restoring the narrow angle of view restored image, the narrow angle of view.
  • the coefficient set group for the detected image is read from the storage unit 123.
  • step S52 the restoration unit 203 restores the image using the detected image and the coefficient.
  • the restoration unit 203 refers to the above equations (1) to (3) by using the detection signal level of each pixel of the detected image and the coefficient set group acquired in the process of step S51. Create the simultaneous equations described in.
  • the restoration unit 203 calculates the light intensity of each point light source on the subject surface 102 corresponding to the set subject distance by solving the created simultaneous equations.
  • the restoration unit 203 generates a restoration image in which the image of the subject is formed by arranging the pixels having the pixel values corresponding to the calculated light intensity according to the arrangement of the light sources at each point on the subject surface 102.
  • step S53 the imaging unit 41 performs various processes on the restored image.
  • the restoration unit 203 performs demosaic processing, ⁇ correction, white balance adjustment, conversion processing to a predetermined compression format, and the like on the restored image, if necessary. Further, the restoration unit 203 supplies the obtained restored image to the camera ECU 42 via the communication unit 124.
  • the recognition accuracy of dangerous goods is improved by performing the dangerous goods recognition processing using not only the wide angle of view restored image but also the narrow angle of view restored image. As a result, it becomes possible to avoid dangerous substances more safely and appropriately.
  • each pixel 121a of the image sensor 121 is further subdivided as compared with the first embodiment.
  • FIG. 19 shows an example of the angle of view of the image sensor 121.
  • the image sensor 121 is provided with 36 types of pixels 121a corresponding to the angle of view W and any of the angles of view N1 to N35.
  • the angle of view N1 to N35 is an angle of view obtained by dividing an angle of view of a predetermined size into 7 columns vertically and 5 rows horizontally.
  • the angle of view N1 to the angle of view N7 are arranged from left to right in the first row.
  • the angle of view N8 to the angle of view N14 are arranged from left to right in the second row.
  • the angle of view N15 to the angle of view N21 are arranged from left to right in the third row.
  • the angle of view N22 to the angle of view N28 are arranged from left to right in the fourth row.
  • the angle of view N29 to the angle of view N35 are arranged from left to right in the fifth row.
  • the angle of view W is wider than the combined angle of view N1 to N35.
  • the pixel 121a having an angle of view W will be referred to as a wide angle of view pixel Pw
  • the pixel 121a having an angle of view N1 to N35 will be referred to as a narrow angle of view pixel Pn1 to a narrow angle of view pixel Pn35, respectively.
  • the detection image consisting of the detection signals output from each wide angle of view pixel Pw is referred to as the wide angle of view detection image IDw
  • the detection consisting of the detection signals output from each narrow angle of view pixel Pn1 to each narrow angle of view pixel Pn35 The images are referred to as narrow angle of view detection image IDn1 to narrow angle of view detection image IDn35, respectively.
  • the restored image restored from the wide angle-of-view detection image IDw is referred to as a wide-angle-of-view restoration image IRw
  • the restored images restored from the narrow-angle-of-view detection image IDn1 to the narrow-angle-of-view detection image IDn35 are respectively narrow-angle-of-view restoration. It is referred to as an image IRn1 to a narrow angle of view restored image IRn35.
  • the angle of view N when it is not necessary to individually distinguish the angle of view N1 to the angle of view N35, it is simply referred to as the angle of view N.
  • narrow angle of view pixels Pn when it is not necessary to individually distinguish the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35, they are simply referred to as narrow angle of view pixels Pn.
  • narrow angle of view detection image IDn1 when it is not necessary to individually distinguish the narrow angle of view detection image IDn1 to the narrow angle of view detection image IDn35, it is simply referred to as a narrow angle of view detection image IDn.
  • a narrow angle of view restored image IRn1 to the narrow angle of view restored image IRn35 when it is not necessary to individually distinguish the narrow angle of view restored image IRn1 to the narrow angle of view restored image IRn35, it is simply referred to as a narrow angle of view restored image IRn.
  • FIG. 20 to 22 show an embodiment of a light-shielding pattern of the pixel array portion of the image sensor 121.
  • FIG. 20 shows an example of the aperture setting range Rw and the aperture setting range Rn1 to the aperture setting range Rn35 of the wide angle-of-view pixel Pw and the narrow angle-of-view pixel Pn1 to the narrow angle-of-view pixel Pn35.
  • FIG. 21 shows an example of a light-shielding pattern of wide-angle pixel Pw.
  • FIG. 22 shows an example of a light-shielding pattern of the narrow angle-of-view pixel Pn1.
  • the aperture setting range Rw is wider than the combined region of the aperture setting range Rn1 and the aperture setting range Rn35.
  • the arrangement of the aperture setting range Rn1 to the aperture setting range Rn35 is point-symmetrical with respect to the arrangement of the corresponding angle of view N1 to N35 (FIG. 19).
  • the aperture setting range Rn1 corresponding to the angle of view N1 in the upper left corner is arranged in the lower right corner of the pixel 121a
  • the aperture setting range Rn35 corresponding to the angle of view N35 in the lower right corner is arranged in the upper left corner of the pixel 121a.
  • the opening Aw of the light-shielding film Sw of each wide-angle pixel Pw is set within the rectangular opening setting range Rw shown by the dotted line. Therefore, the region other than the opening setting range Rw of the light-shielding film Sw of each wide-angle pixel Pw becomes the main light-shielding portion of the light-shielding film Sw.
  • the size, shape, and position of the aperture setting range Rw are common to each wide angle of view pixel Pw.
  • the aperture setting range Rw occupies most of the wide angle of view pixels Pw. Further, the center of gravity of the aperture setting range Rw substantially coincides with the center of the wide angle of view pixel Pw.
  • the shape and size of the rectangular opening Aw are common to each wide angle of view pixel Pw. Further, the opening Aw is arranged within the opening setting range Rw of each wide angle of view pixel Pw according to the same rule as the above-mentioned rule with reference to FIGS. 12 and 13.
  • the opening Aw is arranged in the upper left corner of the opening setting range Rw in the wide angle of view pixel Pw arranged at the position closest to the upper left corner of the pixel array portion. Then, the opening Aw shifts to the right in the opening setting range Rw as the position of the wide angle of view pixel Pw advances to the right in the pixel array portion. The opening Aw shifts downward in the opening setting range Rw as the position of the wide angle-of-view pixel Pw advances downward in the pixel array portion. As a result, the opening setting range Rw is covered by the opening Aw of each wide angle of view pixel Pw. That is, the region where the openings Aw of each wide angle of view pixel Pw are overlapped becomes equal to the opening setting range Rw.
  • the arrangement pattern of the openings Aw is not limited to the above configuration, and any arrangement may be used as long as the area where the openings Aw are overlapped is equal to the opening setting range Rw.
  • the openings Aw may be randomly arranged within the opening setting range Rw.
  • each wide angle of view pixel Pw substantially coincides with the center of gravity of the opening Aw of each wide angle of view pixel Pw. Therefore, the average of the center of gravity of the incident angle directivity of each wide angle of view pixel Pw substantially coincides with the center of the wide angle of view pixel Pw. That is, the average of the incident angles of the centroid rays of each wide angle of view pixel Pw substantially coincides with the normal direction of the light receiving surface of the pixel array portion.
  • the opening An1 of the light-shielding film Sn1 of each narrow angle-of-view pixel Pn1 is set within the rectangular opening setting range Rn1 shown by the dotted line. Therefore, the region other than the aperture setting range Rn1 of the light-shielding film Sn1 of each narrow angle-of-view pixel Pn1 becomes the main light-shielding portion of the light-shielding film Sn1.
  • the size, shape, and position of the aperture setting range Rn1 are common to each narrow angle of view pixel Pn1.
  • the aperture setting range Rn1 is very small as compared with the aperture setting range Rw of the wide angle of view pixel Pw. Further, the aperture setting range Rn1 is biased in the narrow angle of view pixel Pn1 in the diagonally downward right direction. Therefore, the center of gravity of the aperture setting range Rn1 is biased diagonally downward to the right from the center of the narrow angle of view pixel Pn1.
  • the shape and size of the rectangular opening An1 are common to each narrow angle of view pixel Pn1. Further, the opening An1 is arranged within the opening setting range Rn1 of each narrow angle of view pixel Pn1 according to the same rule as the above-mentioned rule with reference to FIGS. 12 and 13.
  • the opening An1 is arranged in the upper left corner of the opening setting range Rn1 in the narrow angle of view pixel Pn1 arranged at the position closest to the upper left corner of the pixel array portion. Then, the opening An1 shifts to the right in the opening setting range Rn1 as the position of the narrow angle of view pixel Pn1 advances to the right in the pixel array portion. The opening An1 shifts downward in the opening setting range Rn1 as the position of the narrow angle-of-view pixel Pn1 advances downward in the pixel array portion. As a result, the opening setting range Rn1 is covered by the opening An1 of each narrow angle of view pixel Pn1. That is, the region where the openings An1 of the narrow angle-of-view pixels Pn1 are overlapped becomes equal to the opening setting range Rn1.
  • the arrangement pattern of the opening An1 is not limited to the above configuration, and any arrangement can be made as long as the area where the openings An1 of each narrow angle of view pixel Pn1 are overlapped is equal to the opening setting range Rn1. You may. For example, the openings An1 may be randomly arranged within the opening setting range Rn1.
  • each narrow angle of view pixel Pn1 substantially coincides with the center of gravity of the opening An1 of each narrow angle of view pixel Pn1 and is biased diagonally downward to the right from the center of each narrow angle of view pixel Pn1. .. Therefore, the average of the center of gravity of the incident angle directivity of each narrow angle of view pixel Pn1 is biased diagonally downward to the right from the center of the narrow angle of view pixel Pn1. Further, the average incident angle of the center of gravity light rays of each narrow angle of view pixel Pn1 is inclined diagonally upward to the left with respect to the normal direction of the light receiving surface of the pixel array portion. Therefore, each narrow angle of view pixel Pn1 enables imaging at the angle of view N1 of FIG.
  • the opening Aw of the wide angle of view pixels Pw is the opening of the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35. It is set larger than the portion An1 to the opening An35. Further, the openings An1 to An35 of the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35 are all set to the same size.
  • the narrow angle of view restored image IRn1 to the narrow angle of view restored image IRn35 has a narrow angle of view.
  • the image quality is higher than that of the wide angle-of-view restored image IRw with a wide angle of view.
  • 23 and 24 show the arrangement of the wide angle of view pixels Pw and the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35 when the numbers of the wide angle of view pixels Pw and the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35 are the same. An example is shown.
  • the wide angle of view pixel Pw and the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35 are periodically arranged at predetermined intervals. Specifically, the wide angle of view pixel Pw and the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35 are repeatedly arranged in a predetermined order in each row of the pixel array unit.
  • the wide angle of view pixel Pw and the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35 are respectively firmly arranged.
  • a region in which the wide angle of view pixels Pw are arranged two-dimensionally is arranged in the upper left corner, and a region in which the narrow angle of view pixels Pn1 are arranged in two dimensions is arranged on the left side thereof.
  • 36 regions in which the wide angle of view pixel Pw and the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35 are arranged in two dimensions are arranged in 6 rows vertically and 6 columns horizontally in the pixel array unit. There is.
  • This process starts when the power of the vehicle equipped with the information processing system 11 is turned on, and ends when the vehicle is turned off.
  • step S101 the image sensor 121 takes an image of the front of the vehicle.
  • the wide angle of view detection image IDw consisting of the detection signals of the wide angle of view pixels Pw and the narrow angle of view detection image IDn1 to the narrow angle of view detection images consisting of the detection signals of the narrow angle of view pixels Pn1 to the narrow angle of view pixels Pn35.
  • IDn35 is obtained.
  • the image sensor 121 supplies the wide angle of view detection image IDw and the narrow angle of view detection image IDn1 to the narrow angle of view detection image IDn35 to the control unit 28 via the communication unit 124, the camera ECU 42, and the MCU 43.
  • the pixel selection unit 202 selects an image to use a wide angle of view image. That is, the pixel selection unit 202 selects the wide angle of view restored image IRw restored from the wide angle of view detection image IDw as the image to be used for monitoring the front of the vehicle. As a result, the wide angle of view pixel Pw is selected as the pixel of the image sensor 121 used for monitoring, and the wide angle of view detection image IDw composed of the detection signals output from each wide angle of view pixel Pw is to be restored in the process of step S103. Is selected.
  • step S103 the restoration unit 203 executes the above-mentioned image restoration process with reference to FIG. As a result, the wide angle of view restored image IRw is restored from the wide angle of view detected image IDw.
  • step S104 monitoring is performed using the wide angle of view restored image IRw in the same manner as in the process of step S4 of FIG.
  • step S105 it is determined whether or not a dangerous substance exists, as in the process of step S5 of FIG. If it is determined that there are no dangerous goods, the process returns to step S101.
  • step S105 the processes of steps S101 to S105 are repeatedly executed until it is determined that a dangerous substance exists. That is, when no dangerous substance is detected, monitoring using the wide angle of view restored image IRw is repeatedly executed.
  • step S105 determines whether a dangerous substance exists. If it is determined in step S105 that a dangerous substance exists, the process proceeds to step S106.
  • step S106 the image of the front of the vehicle is taken in the same manner as in the process of step S101.
  • the wide angle of view detection image IDw and the narrow angle of view detection image IDn1 to the narrow angle of view detection image IDn35 can be obtained.
  • step S107 the pixel selection unit 202 selects an image to be used based on the detection result of the dangerous substance. For example, the pixel selection unit 202 selects the narrow angle of view restored image IRn to be used for monitoring based on the position and size of the dangerous object detected in the wide angle of view restored image IRw.
  • the pixel selection unit 202 when only one dangerous object is detected, the pixel selection unit 202 produces a narrow angle of view restored image IRn in which the angle of view N overlaps with at least a part of the region where the dangerous object exists in the wide angle of view restored image IRw. select.
  • the angle of view N19 to N21 and the angle of view N21 and the angle of view are detected.
  • N26 to the angle of view N28 include at least a part of the vehicle 301-6.
  • the pixel selection unit 202 may select the narrow angle of view restored image IRn used for monitoring based on all the dangerous objects, or a part of them. The selection may be based on the dangerous goods of.
  • the pixel selection unit 202 selects the narrow angle of view restored image IRn in which the angle of view N overlaps with at least a part of the region where any dangerous object exists in the wide angle of view restored image IRw.
  • the angle N21 and the angle of view N24 to the angle of view N28 include at least a part of at least one of the vehicle 301-1 and the vehicle 301-6.
  • the pixel selection unit 202 sets the priority of each dangerous substance based on a predetermined condition.
  • the priority is set based on the distance to the vehicle. For example, the closer the distance to the vehicle is, the higher the priority is set, and the farther the distance to the vehicle is, the lower the priority is set.
  • the priority is set based on the size of the dangerous object in the wide angle of view restored image. For example, the larger the dangerous goods, the higher the priority is set, and the smaller the dangerous goods, the lower the priority is set.
  • the priority is set based on the type of dangerous goods. For example, when the dangerous material is a person, the priority is set higher than when the dangerous material is another object such as a vehicle.
  • the pixel selection unit 202 selects one or more dangerous goods as monitoring targets based on the priority. For example, the pixel selection unit 202 selects a dangerous substance having the highest priority, a predetermined number of dangerous substances having a higher priority, or a dangerous substance having a priority equal to or higher than a threshold value as a monitoring target.
  • the pixel selection unit 202 selects the narrow angle of view restored image IRn in which the angle of view N overlaps with at least a part of the region where any of the dangerous substances selected as the monitoring target exists in the wide angle of view restored image IRw. ..
  • the narrow angle of view pixels Pn corresponding to the angle of view N that overlaps with at least a part of the region where any of the dangerous substances to be monitored exists is selected. Further, as the restoration target of the process in step S108, the narrow angle of view detection image IDn composed of the detection signals output from each of the selected narrow angle of view pixels Pn is selected.
  • step S108 the restoration unit 203 executes the image restoration process described above with reference to FIG. By this process, the narrow angle of view restored image IRn is restored from the narrow angle of view detected image IDn selected in the process of step S107.
  • step S109 similarly to the process of step S9 of FIG. 16, the dangerous object recognition process is performed using the narrow angle of view restored image IRn selected in the process of step S107.
  • step S110 the avoidance action is performed in the same manner as the process of step S10 of FIG.
  • the angle of view to be imaged is further classified as compared with the first embodiment, so that an image having a more appropriate angle of view can be easily obtained. it can.
  • the recognition accuracy of the dangerous substance is further improved, and it becomes possible to avoid the dangerous substance more safely and appropriately.
  • each angle of view N is considerably narrower than the angle of view W. Therefore, even if the number of narrow angle of view pixels Pn corresponding to each angle of view N is smaller than the number of wide angle of view pixels Pw, the image quality of each narrow angle of view restored image PRn is higher than that of the wide angle of view restored image PRw. Can be high. In this way, by reducing the number of narrow angle-of-view pixels Pn corresponding to each angle of view N, the image restoration process in step S108 can be reduced.
  • the pixel selection unit 202 has shown an example of selecting the pixel 121a (restored image based on the detection signal from) to be used based on the detection result of the dangerous substance, but based on other conditions, The pixel 121a to be used may be selected.
  • the pixel selection unit 202 may select the pixel 121a to be used based on an object other than the dangerous substance that needs to be monitored, as in the case of the dangerous substance.
  • Objects that require monitoring other than dangerous goods include, for example, road signs, license plates, and the like.
  • the pixel selection unit 202 may select the pixel 121a to be used based on the situation around the vehicle.
  • the pixel selection unit 202 selects the pixel 121a having a narrow angle of view in a situation where monitoring in the vicinity of the vehicle is required or monitoring in the distance is not so necessary.
  • monitoring in the vicinity of the vehicle for example, it is assumed that the vehicle is traveling in an urban area, is traveling near an intersection, or has a large amount of traffic in the surrounding area.
  • distant monitoring for example, it is assumed that the surroundings are dark or the visibility is poor due to fog or the like, and it is not possible to see far.
  • the pixel selection unit 202 selects the pixel 121a having a wide angle of view in a situation where monitoring in the vicinity of the vehicle is not so necessary or monitoring in the distance is required. Situations where monitoring in the vicinity of the vehicle is not very necessary, or where monitoring in the distance is necessary, for example, when driving in the suburbs, when driving on a highway or a motorway, the traffic volume around It is assumed that there are few.
  • the pixel 121a to be used may be selected based on the speed of the vehicle. For example, the pixel selection unit 202 selects the pixel 121a having a wide angle of view because the higher the speed of the vehicle, the greater the need for distant monitoring. On the other hand, for example, the pixel selection unit 202 selects the pixel 121a having a narrow angle of view because the slower the speed of the vehicle, the greater the need for monitoring in the vicinity of the vehicle.
  • step S9 of the monitoring process of FIG. 16 an example is shown in which the narrow angle of view restored image of the frame next to the wide angle of view restored image used in the process of step S4 is used.
  • the imaging process in step S6 may be omitted, and in step S9, a narrow angle of view restored image having the same frame as the wide angle of view restored image may be used. This makes it possible to quickly execute a detailed recognition process for dangerous goods.
  • step S109 of the monitoring process of FIG. 25 an example of using the narrow angle of view restored image IRn of the frame next to the wide angle of view restored image IRw used in the process of step S104 is shown.
  • the imaging process in step S106 may be omitted, and the narrow angle of view restored image IRn of the same frame as the wide angle of view restored image IRw may be used in step S109. This makes it possible to quickly execute a detailed recognition process for dangerous goods.
  • the example in which the pixel 121a whose angle of view overlaps with the dangerous object is selected but the pixel 121a having the angle of view around it may be further selected.
  • the pixels Pa of the angle of view N19 to N21 of FIG. 26 and the angle of view N around the angle of view N26 to N28 may be further selected.
  • the pixel 121a having a small angle of view in the area overlapping the dangerous object may not be selected.
  • the angle of view N19 and the angle of view N26 of FIG. 26 have a very small region overlapping with the vehicle 301-6, which is a dangerous object. Therefore, the narrow angle of view pixel Pn19 having an angle of view N19 and the narrow angle of view pixel Pn26 having an angle of view N26 may not be selected.
  • ⁇ Modification example of image sensor 121> The size and type of the angle of view of each pixel 121a of the image sensor 121 described above are an example thereof and can be changed.
  • the image sensor 121 is provided with pixels having a two-step angle of view, that is, a pixel having a wide angle of view and a pixel having a narrow angle of view. You may.
  • the angles of view N1 to N35 are all set to the same size, but they may be set to different sizes.
  • the angle of view of the central and lower regions where there is a high probability that a dangerous substance having a high risk of collision or contact with the vehicle may be present may be narrowed.
  • the angle of view may be widened in the upper left corner and the upper right corner region where the probability of the presence of a dangerous object having a high risk of collision or contact with the vehicle is low.
  • the image sensor 121 always outputs the detected images of all the angles of view, but only the detected images corresponding to the restored images used for monitoring may be output.
  • the image sensor 121 may output only the detection signal of the pixel 121a having the angle of view selected by the pixel selection unit 202 under the control of the control unit 122. As a result, the processing of the image sensor 121 is reduced.
  • a drive unit for independently driving the pixels 121a of each angle of view may be provided so that imaging by the pixels 121a of each angle of view can be performed simultaneously or individually. Then, for example, only the pixel 121a corresponding to the restored image used for monitoring may be imaged. As a result, the processing of the image sensor 121 is reduced.
  • FIG. 5 shows an example in which a light-shielding film 121b is used as a modulation element or a combination of photodiodes contributing to output is changed to give different incident angle directivity to each pixel.
  • an optical filter 902 that covers the light receiving surface of the image pickup device 901 as a modulation element so that each pixel has an incident angle directivity.
  • the optical filter 902 is arranged so as to cover the entire surface of the light receiving surface 901A at a predetermined distance from the light receiving surface 901A of the image sensor 901.
  • the light from the subject surface 102 is modulated by the optical filter 902 and then enters the light receiving surface 901A of the image sensor 901.
  • optical filter 902BW having a black and white grid pattern shown in FIG. 29.
  • a white pattern portion that transmits light and a black pattern portion that blocks light are randomly arranged.
  • the size of each pattern is set independently of the size of the pixels of the image sensor 901.
  • FIG. 30 shows the light receiving sensitivity characteristics of the image sensor 901 with respect to the light from the point light source PA and the point light source PB on the subject surface 102 when the optical filter 902BW is used.
  • the light from the point light source PA and the point light source PB is modulated by the optical filter 902BW, and then enters the light receiving surface 901A of the image sensor 901.
  • the light receiving sensitivity characteristic of the image sensor 901 with respect to the light from the point light source PA is as in the waveform Sa. That is, since shadows are generated by the black pattern portion of the optical filter 902BW, a shading pattern is generated in the image on the light receiving surface 901A with respect to the light from the point light source PA.
  • the light receiving sensitivity characteristic of the image sensor 901 with respect to the light from the point light source PB is as in the waveform Sb. That is, since shadows are generated by the black pattern portion of the optical filter 902BW, a shading pattern is generated in the image on the light receiving surface 901A with respect to the light from the point light source PB.
  • each pixel of the image sensor 901 has incident angle directivity with respect to each point light source of the subject surface 102.
  • the optical filter 902HW shown in FIG. 31 may be used instead of the black pattern portion of the optical filter 902BW.
  • the optical filter 902HW includes a linear polarizing element 911A, a linear polarizing element 911B, and a 1/2 wave plate 912 having the same polarization direction, and the 1/2 wave plate 912 is located between the linear polarizing element 911A and the linear polarizing element 911B. It is sandwiched.
  • the 1/2 wavelength plate 912 is provided with a polarizing portion indicated by diagonal lines instead of the black pattern portion of the optical filter 902BW, and the white pattern portion and the polarizing portion are randomly arranged.
  • the linearly polarized light element 911A transmits only the light in the predetermined polarization direction among the almost unpolarized light emitted from the point light source PA.
  • the linearly polarizing element 911A transmits only light whose polarization direction is parallel to the drawing.
  • the polarized light transmitted through the linearly polarizing element 911A the polarized light transmitted through the polarizing portion of the 1/2 wave plate 912 changes its polarization direction to a direction perpendicular to the drawing due to the rotation of the polarizing surface.
  • the linearly polarized light element 911A transmits the polarized light transmitted through the white pattern portion and hardly transmits the polarized light transmitted through the polarized light portion. Therefore, the amount of polarized light transmitted through the polarized light portion is smaller than that of the polarized light transmitted through the white pattern portion. As a result, a pattern of shading similar to that when the optical filter BW is used is generated on the light receiving surface 901A of the image sensor 901.
  • the optical interference mask can be used as the optical filter 902LF.
  • the light emitted from the point light sources PA and PB of the subject surface 102 is applied to the light receiving surface 901A of the image sensor 901 via the optical filter 902LF.
  • the light incident surface of the optical filter 902LF is provided with irregularities of about wavelength.
  • the optical filter 902LF maximizes the transmission of light of a specific wavelength irradiated from the vertical direction.
  • the optical path length changes.
  • the intensity of the transmitted light having a specific wavelength emitted from the point light sources PA and PB and transmitted through the optical filter 902LF is modulated according to the incident angle with respect to the optical filter 902LF and is modulated by the image pickup element 901. It is incident on the light receiving surface 901A of. Therefore, the detection signal output from each pixel of the image sensor 901 is a signal obtained by synthesizing the modulated light intensity of each point light source for each pixel.
  • the processing of the recognition unit 23 can be executed by the control unit 28, the imaging unit 41, or the camera ECU 42.
  • the processing of the alert control unit 24 can be executed by the recognition unit 23, the control unit 28, or the camera ECU 42.
  • the processing of the dangerous substance detection unit 201 can be executed by the recognition unit 23, the imaging unit 41, or the camera ECU 42.
  • the processing of the pixel selection unit 202 can be executed by the image pickup unit 41 or the camera ECU 42.
  • the processing of the restoration unit 203 can be executed by the image pickup unit 41 or the camera ECU 42.
  • This technology can also be applied to an image pickup device or an image sensor that captures light having a wavelength other than visible light such as infrared light.
  • the restored image is not an image in which the user can visually recognize the subject, but an image in which the user cannot visually recognize the subject.
  • the image quality of the restored image is improved with respect to an image processing device or the like capable of recognizing the subject. Since it is difficult for a normal imaging lens to transmit far-infrared light, this technique is effective, for example, when imaging far-infrared light. Therefore, the restored image may be an image of far-infrared light, and is not limited to far-infrared light, and may be an image of other visible light or non-visible light.
  • the narrow angle of view restored image is displayed on the display unit 25 instead of the wide angle of view restored image. It may be. Further, for example, an image in which the narrow angle of view restored image is superimposed on the wide angle of view restored image may be displayed on the display unit 25. This allows the driver to see in more detail the area where the dangerous goods are present.
  • the warning display may be controlled according to the control of the operation of the vehicle by the operation control unit 27. For example, when an avoidance operation is performed by the operation control unit 27, a warning display may be performed. As a result, it is possible to notify the passenger such as the driver of the reason why the avoidance operation is performed, and it is possible to give the passenger a sense of security.
  • machine learning such as deep learning
  • the accuracy of image recognition using the detected image before restoration is improved.
  • the image quality of the detected image before restoration is improved.
  • the case of monitoring the front of the vehicle has been taken as an example, but the present technology is also applicable to the case of monitoring in any direction (for example, rear, side, etc.) around the vehicle. can do.
  • This technology can also be applied when monitoring the surroundings of moving objects other than vehicles.
  • a moving body for example, a moving body such as a motorcycle, a bicycle, a personal mobility, an airplane, a ship, a construction machine, and an agricultural machine (tractor) is assumed.
  • the moving body to which the present technology can be applied includes, for example, a moving body such as a drone or a robot that the user moves without boarding.
  • the series of processes described above can be executed by hardware or software.
  • the programs constituting the software are installed on the computer.
  • the computer includes a computer (for example, a control unit 122 or the like) incorporated in dedicated hardware.
  • the program executed by the computer can be provided by recording it on a recording medium such as a package medium. Programs can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting.
  • the program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
  • this technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and processed jointly.
  • each step described in the above flowchart can be executed by one device or shared by a plurality of devices.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • a pixel selection unit that selects a pixel to be used from the pixels having a plurality of angles of view based on information obtained from the detection signal of an image sensor having a plurality of pixels for outputting a signal.
  • An information processing device including a control unit that executes a predetermined process using selected pixels.
  • the information processing device (3) The information processing device according to (2) above, wherein the pixel selection unit selects pixels to be used based on the result of object recognition.
  • the recognition unit recognizes an object by using the first detection image based on the detection signal of the pixel of the first angle of view.
  • the information processing device (3) above, wherein the pixel selection unit selects pixels to be used based on the result of object recognition using the first detected image.
  • the pixel selection unit selects a pixel having a second angle of view narrower than the first angle of view.
  • the information processing apparatus according to (4), wherein the resolution of the second detection image based on the detection signal of the pixel of the second angle of view is higher than that of the first detection image.
  • the control unit It also has a restoration unit that restores the restored image from the detected image.
  • the information processing device according to any one of (2) to (9) above, wherein the recognition unit recognizes an object using the restored image.
  • the display control unit further controls a warning display based on the result of object recognition.
  • the information processing device according to any one of (2) to (12) above, further comprising an operation control unit that controls the operation of a moving body based on the result of object recognition.
  • the information processing device according to (13), further comprising a display control unit that controls a warning display in response to control of the operation of the moving body.
  • a pixel to be used is selected from the pixels having a plurality of angles of view.
  • An information processing method that executes a predetermined process using selected pixels. (18) It receives incident light from an incident subject without going through either an image sensor or a pinhole, shows an output pixel value modulated by the incident angle of the incident light, and detects one of a plurality of angles of view. Based on the information obtained from the detection signal of the image sensor having a plurality of pixels for outputting a signal, a pixel to be used is selected from the pixels having a plurality of angles of view.
  • a program that causes a computer to execute a process that executes a predetermined process using the selected pixels (19) It receives incident light from an incident subject without going through either an image sensor or a pinhole, shows an output pixel value modulated by the incident angle of the incident light, and detects one of a plurality of angles of view.
  • An image sensor equipped with multiple pixels that output signals, Equipped with an information processing device The information processing device A pixel selection unit that selects a pixel to be used from the pixels having a plurality of angles of view based on the information obtained from the detection signal.
  • An information processing system including a control unit that executes a predetermined process using selected pixels.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

本技術は、適切な画角の画像を容易に得ることができるようにする情報処理装置、情報処理方法、プログラム、及び、情報処理システムに関する。 情報処理装置は、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択する画素選択部と、選択された画素を用いて、所定の処理を実行する制御部とを備える。本技術は、例えば、車載システムに適用できる。

Description

情報処理装置、情報処理方法、プログラム、及び、情報処理システム
 本技術は、情報処理装置、情報処理方法、プログラム、及び、情報処理システムに関し、特に、レンズレスカメラを用いた情報処理装置、情報処理方法、プログラム、及び、情報処理システムに関する。
 従来、移動体の速度、移動体に対する物体の相対距離、及び、ズーム動作の遅延時間に基づいて、ズーム倍率を算出し、算出したズーム倍率になるように、ズームレンズを駆動するとともに、物体の位置を補正中心に設定してブレ補正を行うことが提案されている(例えば、特許文献1参照)。
特開2015-195569号公報
 このように、移動体から周囲を撮像する場合、ズームレンズの駆動に時間を要するため、適切な画角の画像を得るために、移動体の速度等を考慮して複雑な制御を行う必要があった。
 本技術は、このような状況に鑑みてなされたものであり、適切な画角の画像を容易に得ることができるようにするものである。
 本技術の第1の側面の情報処理装置は、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択する画素選択部と、選択された画素を用いて、所定の処理を実行する制御部とを備える。
 本技術の第1の側面の情報処理方法は、情報処理装置が、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択し、選択された画素を用いて、所定の処理を実行する。
 本技術の第1の側面のプログラムは、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択し、選択された画素を用いて、所定の処理を実行する。
 本技術の第2の側面の情報処理システムは、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子と、情報処理装置とを備え、前記情報処理装置は、前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択する画素選択部と、選択された画素を用いて、所定の処理を実行する制御部とを備える。
 本技術の第1の側面又は第2の側面においては、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素が選択され、選択された画素を用いて、所定の処理が実行される。
本技術を適用した情報処理システムの構成例を示すブロック図である。 図1の情報処理システムの撮像部の構成例を示すブロック図である。 図2の撮像素子における撮像の原理を説明する図である。 図2の撮像素子の画素アレイ部の構成例を示す図である。 図2の撮像素子の第1の構成例を説明する図である。 図2の撮像素子の第2の構成例を説明する図である。 入射角指向性の発生の原理を説明する図である。 オンチップレンズを利用した入射角指向性の変化を説明する図である。 狭画角画素と広画角画素との関係を説明する図である。 狭画角画素と広画角画素との関係を説明する図である。 狭画角画素と広画角画素との関係を説明する図である。 狭画角画素と広画角画素の画質の違いを説明するための図である。 狭画角画素と広画角画素の画質の違いを説明するための図である。 複数の画角の画素を組み合わせる例を説明する図である。 図1の制御部の構成例を示すブロック図である。 モニタリング処理の第1の実施の形態を説明するためのフローチャートである。 画像復元処理の詳細を説明するためのフローチャートである。 ズームレンズ方式のカメラの光軸ズレを説明するための図である。 撮像素子の画角の例を示す図である。 撮像素子の開口設定範囲の例を示す図である。 広画角画素の遮光パターンの例を示す図である。 狭画角画素の遮光パターンの例を示す図である。 画素アレイ部の画素の配置例を示す図である。 画素アレイ部の画素の配置例を示す図である。 モニタリング処理の第1の実施の形態を説明するためのフローチャートである。 画素の選択方法を説明するための図である。 画素の選択方法を説明するための図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。
 以下に添付図面を参照しながら、本技術の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を適宜省略する。
 また、以下の順序で説明を行う。
  1.第1の実施の形態
  2.第2の実施の形態
  3.変形例
  4.その他
 <<1.第1の実施の形態>>
 まず、図1乃至図18を参照して、本技術の第1の実施の形態について説明する。
  <情報処理システム11の構成例>
 図1は、本技術を適用した情報処理システム11の構成例を示すブロック図である。
 情報処理システム11は、車両に設けられ、車両の制御等を行うシステムである。
 情報処理システム11は、カメラモジュール21、通信ユニット22、認識部23、アラート制御部24、表示部25、表示制御部26、動作制御部27、及び、制御部28を備える。カメラモジュール21、通信ユニット22、認識部23、アラート制御部24、表示制御部26、動作制御部27、及び、制御部28は、バスB1を介して相互に接続されている。
 なお、以下、説明を簡単にするために、情報処理システム11の各部がバスB1を介してデータの授受等を行う場合のバスB1の記載を省略する。例えば、制御部28が、バスB1を介して通信ユニット22にデータを供給する場合、単に制御部28が通信ユニット22にデータを供給すると記載する。
 カメラモジュール21は、車両の前方の撮像を行う。カメラモジュール21は、撮像部41、カメラECU42、及び、MCU(Micro Control Unit)43を備える。
 撮像部41は、後述するように、撮像レンズ及びピンホールを用いないLLC(Lenz Less Camera)により構成される。撮像部41は、車両の前方を複数の画角で同時に撮像することが可能である。撮像部41は、得られた複数の画角の検出画像をカメラECU42に供給する。
 カメラECU42は、各画角の検出画像に対して所定の画像処理を行い、各画角の検出画像をMCU43に供給する。
 MCU43は、カメラECU42から供給されるデータ(例えば、検出画像)を、通信用の形式のデータに変換し、バスB1に出力する。また、MCU43は、バスB1から受信したデータを、カメラECU42用の形式のデータに変換し、カメラECU42に供給する。
 通信ユニット22は、例えば、車車間通信、車歩間通信、路車間通信等の各種の無線通信により、周辺車両や、歩行者が所持する携帯型端末装置、路側機、外部のサーバとの間で情報の送受信を行う。
 認識部23は、制御部28により検出画像から復元された復元画像に基づいて、車両の前方の物体の認識処理を行う。例えば、認識部23は、物体の位置、大きさ、種類、動き等の認識処理を行う。認識部23は、物体の認識結果を示すデータをバスB1に出力する。
 なお、後述するように、検出画像は、被写体の像が検出されておらず、被写体を視認できない画像であり、復元画像は、検出画像から被写体を視認可能な状態に復元した画像である。
 アラート制御部24は、制御部28による車両の前方の危険物の検出結果に基づいて、危険物に対する注意を促す警告表示を復元画像に重畳する処理を行う。アラート制御部24は、警告表示を重畳した復元画像をバスB1に出力する。なお、アラート制御部24は、危険物が検出されていない場合、警告表示を重畳せずに、そのまま復元画像をバスB1に出力する。
 表示部25は、例えば、有機ELディスプレイ、液晶ディスプレイ等のディスプレイにより構成され、復元画像等の表示を行う。表示部25は、例えば、運転者から見える位置、例えば、車両のダッシュボードの上、又は、インストルメントパネル内等に設置される。
 表示制御部26は、表示部25による表示処理の制御を行う。例えば、表示制御部26は、表示部25による復元画像の表示を制御する。また、例えば、表示制御部26は、表示部25による警告表示が重畳された復元画像の表示を制御することにより、警告表示の表示を制御する。
 動作制御部27は、車両の動作の制御を行う。例えば、動作制御部27は、制御部28により検出された危険物を回避するように、車両の速度、進行方向、ブレーキ等の制御を行う。
 制御部28は、例えば、各種のプロセッサを備え、情報処理システム11の各部を制御したり、各種の処理を実行したりする。例えば、制御部28は、認識部23により認識された物体の中から、車両に衝突又は接触する危険性のある危険物を検出する。また、制御部28は、危険物の検出結果に基づいて、カメラモジュール21により生成される各画角の検出画像の中から、使用する検出画像を選択する。制御部28は、選択した検出画像から被写体の像が結像された復元画像を復元し、復元画像をバスB1に出力する。
  <撮像部41の構成例>
 図2は、カメラモジュール21の撮像部41の構成例を示すブロック図である。
 撮像部41は、撮像素子121、制御部122、記憶部123、及び、通信部124を備える。また、制御部122、記憶部123、及び、通信部124により、信号処理や撮像部41の制御等を行う信号処理制御部111が構成される。なお、撮像部41は、撮像レンズを含まない(撮像レンズフリー)。
 また、撮像素子121、制御部122、記憶部123、及び、通信部124は、バスB2介して相互に接続されており、バスB2を介してデータの送受信等を行う。
 なお、以下、説明を簡単にするために、撮像部41の各部がバスB2を介してデータの授受等を行う場合のバスB2の記載を省略する。例えば、通信部124がバスB2を介して制御部122にデータを供給する場合、単に通信部124が制御部122にデータを供給すると記載する。
 撮像素子121は、各画素の検出感度に入射角指向性を持たせた撮像素子であり、入射光の光量に応じた検出信号レベルを示す検出信号からなる画像をバスB2に出力する。各画素の検出感度に入射角指向性を持たせるとは、各画素への入射光の入射角度に応じた受光感度特性を画素毎に異なるものとすることである。ただし、全ての画素の受光感度特性が完全に異なるものである必要はなく、一部の画素の受光感度特性が同一であってもよい。
 より具体的には、撮像素子121は、基本的な構造において、一般の、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子からなるものと同様のものであっても良い。ただし、撮像素子121は、画素アレイ部を構成する各画素の構成が一般のものと異なり、例えば、図4乃至図6を参照して後述するように、入射角指向性を持たせる構成を有している。そして、撮像素子121は、画素毎に入射光の入射角度に応じて受光感度が異なり(変化し)、画素単位で入射光の入射角度に対する入射角指向性を有している。
 ここで、例えば、全ての被写体は点光源の集合であり、各点光源からあらゆる方向に光が出射されているものとする。例えば、図3の左上の被写体の被写体面102が、点光源PA乃至点光源PCにより構成され、点光源PA乃至点光源PCが、それぞれ光強度a乃至光強度cの複数の光線を周囲に発しているものとする。また、以下、撮像素子121が、位置Pa乃至位置Pcに入射角指向性がそれぞれ異なる画素(以下、画素Pa乃至画素Pcと称する)を備えるものとする。
 この場合、図3の左上に示されるように、同一の点光源より発せられた同一の光強度の光線が、撮像素子121の各画素に入射される。例えば、点光源PAから発せられた光強度aの光線が、撮像素子121の画素Pa乃至画素Pcにそれぞれ入射される。一方、同一の点光源より発せられた光線は、画素毎にそれぞれ異なる入射角度で入射される。例えば、点光源PAからの光線は、画素Pa乃至画素Pcにそれぞれ異なる入射角度で入射される。
 これに対して、画素Pa乃至画素Pcの入射角指向性がそれぞれ異なるため、同一の点光源より発せられた同一の光強度の光線が、各画素で異なる感度で検出される。その結果、同一の光強度の光線が画素毎に異なる検出信号レベルで検出される。例えば、点光源PAからの光強度aの光線に対する検出信号レベルが、画素Pa乃至画素Pcでそれぞれ異なる値になる。
 そして、各点光源からの光線に対する各画素の受光感度レベルは、その光線の光強度に、その光線の入射角度に対する受光感度(すなわち、入射角指向性)を示す係数を乗じることにより求められる。例えば、点光源PAからの光線に対する画素Paの検出信号レベルは、点光源PAの光線の光強度aに、当該光線の画素Paへの入射角度に対する画素Paの入射角指向性を示す係数を乗じることにより求められる。
 従って、画素Pc,Pb,Paの検出信号レベルDA,DB,DCは、それぞれ以下の式(1)乃至式(3)で表される。
 DA=α1×a+β1×b+γ1×c ・・・(1)
 DB=α2×a+β2×b+γ2×c ・・・(2)
 DC=α3×a+β3×b+γ3×c ・・・(3)
 ここで、係数α1は、点光源PAから画素Pcへの光線の入射角度に対する画素Pcの入射角指向性を示す係数であり、当該入射角度に応じて設定される。また、α1×aは、点光源PAからの光線に対する画素Pcの検出信号レベルを示している。
 係数β1は、点光源PBから画素Pcへの光線の入射角度に対する画素Pcの入射角指向性を示す係数であり、当該入射角度に応じて設定される。また、β1×bは、点光源PBからの光線に対する画素Pcの検出信号レベルを示している。
 係数γ1は、点光源PCから画素Pcへの光線の入射角度に対する画素Pcの入射角指向性を示す係数であり、当該入射角度に応じて設定される。また、γ1×cは、点光源PCからの光線に対する画素Pcの検出信号レベルを示している。
 このように、画素Paの検出信号レベルDAは、画素Pcにおける点光源PA,PB,PCからの光線のそれぞれの光強度a,b,cと、それぞれの入射角度に応じた入射角指向性を示す係数α1,β1,γ1との積和により求められる。
 同様に、画素Pbの検出信号レベルDBは、式(2)に示されるように、画素Pbにおける点光源PA,PB,PCからの光線のそれぞれの光強度a,b,cと、それぞれの入射角度に応じた入射角指向性を示す係数α2,β2,γ2との積和により求められる。また、画素Pcの検出信号レベルDCは、式(3)に示されるように、画素Paにおける点光源PA,PB,PCからの光線のそれぞれの光強度a,b,cと、それぞれの入射角度に応じた入射角指向性を示す係数α2,β2,γ2との積和により求められる。
 ただし、画素Pa,Pb,Pcの検出信号レベルDA、DB、DCは、式(1)乃至式(3)に示されるように、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cが入り交じっている。従って、図3の右上に示されるように、撮像素子121における検出信号レベルは、被写体面102上の各点光源の光強度とは異なる。従って、撮像素子121により得られる画像は、被写体面102の像が結像されたものとは異なるものとなる。
 一方、式(1)乃至式(3)からなる連立方程式を作成し、作成した連立方程式を解くことにより、各点光源PA乃至点光源PCの光線の光強度a乃至光強度cが求められる。そして、求めた光強度a乃至光強度cに応じた画素値を有する画素を点光源PA乃至点光源PCの配置(相対位置)に合わせて並べることにより、図3の右下に示されるように、被写体面102の像が結像された復元画像が復元される。
 このようにして、撮像レンズ及びピンホールを必要とせず、各画素において入射角指向性を有する撮像素子121を実現することが可能となる。
 以下、連立方程式を構成する式毎に係数をまとめたもの(例えば、係数α1、β1、γ1)を係数セットと称する。以下、連立方程式に含まれる複数の式に対応する複数の係数セットをまとめたもの(例えば、係数セットα1、β1、γ1、係数セットα2、β2、γ2、係数セットα3、β3、γ3)を係数セット群と称する。
 ここで、被写体面102から撮像素子121の受光面までの被写体距離が異なると、被写体面102の各点光源からの光線の撮像素子121への入射角が異なるため、被写体距離毎に異なる係数セット群が必要となる。
 従って、制御部28においては、撮像素子121からの被写体面までの距離(被写体距離)毎の係数セット群を予め用意しておき、被写体距離毎に係数セット群を切り替えて連立方程式を作成し、作成した連立方程式を解くことで、1個の検出画像に基づいて、様々な被写体距離の被写体面の復元画像を得ることが可能となる。例えば、検出画像を1回撮像し、記録した後、記録した検出画像を用いて、被写体面までの距離に応じて係数セット群を切り替えて、復元画像を復元することにより、任意の被写体距離の被写体面の復元画像を生成することが可能である。
 また、同じ被写体距離の被写体面102であっても、設定する点光源の数や配置が異なると、各点光源からの光線の撮像素子121への入射角が異なる。従って、同じ被写体距離の被写体面102に対して、複数の係数セット群が必要となる場合がある。さらに、各画素121aの入射角指向性は、上述した連立方程式の独立性を確保できるように設定する必要がある。
 また、撮像素子121が出力する画像は、図3の右上に示されるように被写体の像が結像されていない検出信号により構成される画像となるので、目視により被写体を認識することができない。すなわち、撮像素子121が出力する検出信号からなる検出画像は、画素信号の集合ではあるが、ユーザが目視しても被写体を認識できない(被写体を視認不可能な)画像である。
 そこで、以下、図3の右上に示されるように被写体の像が結像されていない検出信号より構成される画像、すなわち、撮像素子121により撮像される画像を、検出画像と称する。
 なお、入射角指向性は必ずしも画素単位で全て異なる必要はなく、入射角指向性が同じ画素を含んでいてもよい。
 図2に戻り、制御部122は、例えば、各種のプロセッサを備え、撮像部41の各部を制御したり、各種の処理を実行したりする。
 記憶部123は、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の記憶装置を1つ以上備え、例えば、撮像部41の処理に用いられるプログラムやデータ等を記憶する。
 通信部124は、所定の通信方式により、カメラECU42と通信を行う。
  <撮像素子121の第1の構成例>
 次に、図4及び図5を参照して、図2の撮像部41の撮像素子121の第1の構成例について説明する。
 図4は、撮像素子121の画素アレイ部の一部の正面図を示している。なお、図4においては、画素アレイ部の画素数が縦6画素×横6画素である場合の例を示しているが、画素アレイ部の画素数は、これに限るものではない。また、図4の画素アレイ部の構成例は、撮像素子121の第1の構成例を説明するためのものであり、実際の画素アレイ部の構成例については後述する。
 図4の撮像素子121では、画素121a毎に、そのフォトダイオードの受光領域(受光面)の一部を覆うように変調素子の1つである遮光膜121bが設けられており、各画素121aに入射する入射光が、入射角度に応じて光学的に変調される。そして、例えば、画素121a毎に異なる範囲に遮光膜121bを設けることにより、画素121a毎に入射光の入射角度に対する受光感度が異なるものとなり、各画素121aが異なる入射角指向性を有するようになる。
 例えば、画素121a-1と画素121a-2とでは、設けられている遮光膜121b-1と遮光膜121b-2とによりフォトダイオードの受光領域を遮光する範囲が異なる(遮光する領域(位置)、及び、遮光する面積の少なくともいずれかが異なる)。すなわち、画素121a-1においては、フォトダイオードの受光領域の左側の一部を所定の幅だけ遮光するように遮光膜121b-1が設けられている。一方、画素121a-2においては、受光領域の右側の一部を所定の幅だけ遮光するように遮光膜121b-2が設けられている。なお、遮光膜121b-1がフォトダイオードの受光領域を遮光する幅と、遮光膜121b-2がフォトダイオードの受光領域を遮光する幅とは、異なっていてもよいし、同じであってもよい。その他の画素121aにおいても、同様に、遮光膜121bが、画素毎に受光領域の異なる範囲を遮光するように、画素アレイ部内でランダムに配置されている。
 図5の上段は、撮像素子121の第1の構成例における側面断面図であり、図5の中段は、撮像素子121の第1の構成例における上面図である。また、図5の上段の側面断面図は、図5の中段におけるAB断面となる。さらに、図5の下段は、撮像素子121の回路構成例である。
 図5の上段の撮像素子121においては、図中の上方から下方に向けて入射光が入射する。隣接する画素121a-1,121a-2は、それぞれ図中の最下層に配線層Z12が設けられており、その上に光電変換層Z11が設けられている、いわゆる、裏面照射型である。
 なお、以下、画素121a-1,121a-2を区別する必要がない場合、符号の末尾の数字の記載を省略し、単に、画素121aと称する。以下、明細書内において、他の構成についても、同様に符号の末尾の数字やアルファベットを省略する場合がある。
 また、図5は、撮像素子121の画素アレイ部を構成する2画素分の側面図および上面図のみを示しており、いうまでもなく、これ以上の数の画素121aが配置されているが図示が省略されている。
 さらに、画素121a-1,121a-2は、それぞれ光電変換層Z11に光電変換素子としてフォトダイオード121e-1,121e-2を備えている。また、フォトダイオード121e-1,121e-2の上には、それぞれ上からオンチップレンズ121c-1,121c-2、およびカラーフィルタ121d-1,121d-2が積層されている。
 オンチップレンズ121c-1,121c-2は、入射光をフォトダイオード121e-1,121e-2上に集光させる。
 カラーフィルタ121d-1,121d-2は、例えば、赤色、緑色、青色、赤外および白色等の特定の波長の光を透過させる光学フィルタである。なお、白色の場合、カラーフィルタ121d-1,121d-2は、透明のフィルタでもよいし、無くてもよい。
 画素121a-1,121a-2の光電変換層Z11における、それぞれ画素間の境界には、遮光膜121g-1乃至121g-3が形成されており、例えば、図5に示されるように、入射光Lが隣接する画素に入射し、クロストークが発生するのを抑制する。
 また、図5の上段及び中段に示されるように、遮光膜121b-1,121b-2が、上面から見て受光面Sの一部を遮光している。画素121a-1,121a-2におけるフォトダイオード121e-1,121e-2の受光面Sにおいては、遮光膜121b-1,121b-2により、それぞれ異なる範囲が遮光されており、これにより異なる入射角指向性が画素毎に独立に設定される。ただし、遮光される範囲は、撮像素子121の全画素121aで異なっている必要はなく、一部で同一の範囲が遮光される画素121aが存在していてもよい。
 なお、図5の上段に示されるように、遮光膜121b-1と遮光膜121g-1とは互いに接続されており、側面から見てL字型に構成されている。同様に、遮光膜121b-2と遮光膜121g-2とは互いに接続されており、側面から見てL字型に構成されている。また、遮光膜121b-1、遮光膜121b-2、及び、遮光膜121g-1乃至121g-3は、金属により構成されており、例えば、タングステン(W)、アルミニウム(Al)、またはAlと銅(Cu)との合金により構成される。また、遮光膜121b-1、遮光膜121b-2、及び、遮光膜121g-1乃至121g-3は、半導体プロセスにおける配線が形成されるプロセスと同一のプロセスで、配線と同一の金属により同時に形成されるようにしてもよい。なお、遮光膜121b-1、遮光膜121b-2、及び、遮光膜121g-1乃至121g-3の膜厚は、位置に応じて同一の厚さにしなくてもよい。
 また、図5の下段に示されるように、画素121aは、フォトダイオード161(フォトダイオード121eに対応する)、転送トランジスタ162、FD(Floating Diffusion:フローティングディフュージョン)部163、選択トランジスタ164、増幅トランジスタ165、およびリセットトランジスタ166を備え、垂直信号線167を介して電流源168に接続されている。
 フォトダイオード161は、アノード電極が接地され、カソード電極が、転送トランジスタ162を介して増幅トランジスタ165のゲート電極に接続されている。
 転送トランジスタ162は、転送信号TGに従って駆動する。例えば、転送トランジスタ162のゲート電極に供給される転送信号TGがハイレベルになると、転送トランジスタ162はオンとなる。これにより、フォトダイオード161に蓄積されている電荷が転送トランジスタ162を介してFD部163に転送される。
 FD部163は、転送トランジスタ162と増幅トランジスタ165との間に設けられる電荷容量C1を有する浮遊拡散領域であり、転送トランジスタ162を介してフォトダイオード161から転送される電荷を一時的に蓄積する。FD部163は、電荷を電圧に変換する電荷検出部であって、FD部163に蓄積されている電荷が増幅トランジスタ165において電圧に変換される。
 選択トランジスタ164は、選択信号SELに従って駆動し、ゲート電極に供給される選択信号SELがハイレベルになるとオンとなって、増幅トランジスタ165と垂直信号線167とを接続する。
 増幅トランジスタ165は、フォトダイオード161での光電変換によって得られる信号を読み出す読出し回路であるソースフォロワの入力部となり、FD部163に蓄積されている電荷に応じたレベルの検出信号(画素信号)を垂直信号線167に出力する。すなわち、増幅トランジスタ165は、ドレイン端子が電源VDDに接続され、ソース端子が選択トランジスタ164を介して垂直信号線167に接続されることで、垂直信号線167の一端に接続される電流源168とソースフォロワを構成する。この検出信号の値(出力画素値)は、被写体からの入射光の入射角に応じて変調されており、入射角により特性(指向性)が異なる(入射角指向性を有する)。
 リセットトランジスタ166は、リセット信号RSTに従って駆動する。例えば、リセットトランジスタ166は、ゲート電極に供給されるリセット信号RSTがハイレベルになるとオンとなり、FD部163に蓄積されている電荷を電源VDDに排出して、FD部163をリセットする。
 なお、各画素121aの遮光膜121bの形状は、図4の例に限定されるものではなく、任意の形状に設定することが可能である。例えば、図4の水平方向に延びる形状、垂直方向及び水平方向に延びるL字型の形状、矩形の開口部が設けられた形状等にすることが可能である。
  <撮像素子121の第2の構成例>
 図6は、撮像素子121の第2の構成例を示す図である。図6の上段には、第2の構成例である撮像素子121の画素121aの側面断面図が示されており、図6の中段には、撮像素子121の上面図が示されている。また、図6の上段の側面断面図は、図6の中段におけるAB断面となる。さらに、図6の下段は、撮像素子121の回路構成例である。
 図6の撮像素子121は、1つの画素121aに4つのフォトダイオード121f-1乃至121f-4が形成され、遮光膜121gがフォトダイオード121f-1乃至121f-4同士を分離する領域に形成されている点で、図5の撮像素子121と異なる構成となっている。即ち、図6の撮像素子121では、遮光膜121gは、上面から見て「+」形状に形成されている。なお、それらの共通の構成については図5と同一の符号を付しており、詳細な説明は省略する。
 図6の撮像素子121では、遮光膜121gによりフォトダイオード121f-1乃至121f-4が分離されることによって、フォトダイオード121f-1乃至121f-4間の電気的および光学的なクロストークの発生が防止される。すなわち、図6の遮光膜121gは、図5の撮像素子121の遮光膜121gと同様にクロストークを防止するためのものであって、入射角指向性を与えるためのものではない。
 また、図6の撮像素子121では、1個のFD部163が4個のフォトダイオード121f-1乃至121f-4で共有される。図6の下段は、1個のFD部163を4個のフォトダイオード121f-1乃至121f-4で共有するようにした回路構成例を示している。なお、図6の下段において、図5の下段と同一の構成については、その説明を省略する。
 図6の下段において、図5の下段の回路構成と異なる点は、フォトダイオード161(図5の上段におけるフォトダイオード121eに対応する)および転送トランジスタ162に代えて、フォトダイオード161-1乃至161-4(図6の上段におけるフォトダイオード121f-1乃至121f-4に対応する)および転送トランジスタ162-1乃至162-4を設け、FD部163を共有する構成としている点である。
 このような構成により、フォトダイオード121f-1乃至121f-4に蓄積された電荷は、フォトダイオード121f-1乃至121f-4と増幅トランジスタ165のゲート電極との接続部に設けられる所定の容量を有する共通のFD部163に転送される。そして、FD部163に保持されている電荷のレベルに応じた信号が検出信号(画素信号)として読み出される。
 このため、フォトダイオード121f-1乃至121f-4で蓄積された電荷を様々な組み合わせで選択的に画素121aの出力、すなわち検出信号に寄与させることができる。すなわち、フォトダイオード121f-1乃至121f-4毎に独立して電荷を読み出すことができる構成とし、出力に寄与するフォトダイオード121f-1乃至121f-4(フォトダイオード121f-1乃至121f-4が出力に寄与する度合い)を互いに異ならせることで、異なる入射角指向性を得ることができる。
 例えば、フォトダイオード121f-1とフォトダイオード121f-3の電荷をFD部163に転送し、それぞれを読み出して得られる信号を加算することにより、左右方向の入射角指向性を得ることができる。同様に、フォトダイオード121f-1とフォトダイオード121f-2の電荷をFD部163に転送し、それぞれを読み出して得られる信号を加算することにより、上下方向の入射角指向性を得ることができる。
 また、4つのフォトダイオード121f-1乃至121f-4から独立して選択的に読み出される電荷に基づいて得られる信号は、検出画像を構成する1画素分に相当する検出信号となる。
 なお、各フォトダイオード121f(の電荷)の検出信号への寄与は、例えば、各フォトダイオード121fの電荷(検出値)をFD部163に転送するか否かだけでなく、電子シャッタ機能を用いてFD部163への転送前にフォトダイオード121fに蓄積された電荷をリセットすること等でも実現することができる。例えば、FD部163への転送直前にフォトダイオード121fの電荷をリセットすれば、そのフォトダイオード121fは、検出信号に全く寄与しない状態となる。一方、フォトダイオード121fの電荷をリセットとFD部163への電荷の転送との間に時間を持たせることにより、そのフォトダイオード121fは、部分的に検出信号に寄与する状態となる。
 以上のように、図6の撮像素子121の場合、4つのフォトダイオード121f-1乃至121f-4のうち、検出信号に用いるものの組み合わせを変更することで、画素毎に異なる入射角指向性を持たせることができる。また、図6の撮像素子121の各画素121aから出力される検出信号は、被写体からの入射光の入射角に応じて変調された値(出力画素値)となり、入射角により特性(指向性)が異なる(入射角指向性を有する)。
 なお、図6の撮像素子121では、入射光が光学的に変調されずに全てのフォトダイオード121f-1乃至121f-4に入射されるため、検出信号は、光学的な変調により得られる信号ではない。また、以降において、検出信号に寄与しないフォトダイオード121fのことを、画素又は出力に寄与しないフォトダイオード121fとも称する。
 また、図6には、画素(画素121a)の受光面を4等分して、各領域にそれぞれ受光面が同じ大きさのフォトダイオード121fを配置した例、すなわち、フォトダイオードを4等分した例を示しているが、フォトダイオードの分割数や分割位置は任意に設定することが可能である。
 例えば、フォトダイオードを必ずしも等分する必要はなく、画素毎にフォトダイオードの分割位置を異ならせてもよい。これにより、例えば、複数の画素間で同じ位置のフォトダイオード121fを出力に寄与させるようにしたとしても、画素間で入射角指向性が異なるようになる。また、例えば、画素間で分割数を異なるものとすることにより、より自由に入射角指向性を設定することが可能になる。さらに、例えば、画素間で分割数及び分割位置の両方を異ならせるようにしてもよい。
 また、図5の撮像素子121及び図6の撮像素子121のいずれも、各画素が入射角指向性を独立に設定可能な構成を有している。なお、図5の撮像素子121では、各画素の入射角指向性が、遮光膜121bにより製造時に設定される。一方、図6の撮像素子121では、各画素のフォトダイオードの分割数や分割位置は製造時に設定されるが、各画素の入射角指向性(出力に寄与させるフォトダイオードの組合せ)は使用時(例えば、撮像時)に設定することができる。なお、図5の撮像素子121及び図6の撮像素子121のいずれにおいても、必ずしも全ての画素が、入射角指向性を持たせる構成を備える必要はない。
 なお、以下、図5の撮像素子121において、各画素121aの遮光膜121bの形状を遮光パターンと称する。また、以下、図6の撮像素子121において、各画素121a内の出力に寄与しないフォトダイオード121fの領域の形状を遮光パターンと称する。
  <撮像素子121の基本特性等について>
 次に、図7乃至図14を参照して、撮像素子121の基本特性等について説明する。
   <入射角指向性を生じさせる原理について>
 撮像素子121の各画素の入射角指向性は、例えば、図7に示されるような原理により発生する。なお、図7の左上部および右上部は、図5の撮像素子121における入射角指向性の発生原理を説明する図であり、図7の左下部および右下部は、図6の撮像素子121における入射角指向性の発生原理を説明する図である。
 図7の左上部および右上部の画素は、いずれも1個のフォトダイオード121eを備える。これに対して、図7の左下部および右下部の画素は、いずれも2個のフォトダイオード121fを備える。なお、ここでは、1画素が2個のフォトダイオード121fを備える例を示しているが、これは説明の便宜上であり、1画素が備えるフォトダイオード121fの数は、その他の個数であってもよい。
 図7の左上部の画素においては、フォトダイオード121e-11の受光面の右半分を遮光するように遮光膜121b-11が形成されている。また、図7の右上部の画素においては、フォトダイオード121e-12の受光面の左半分を遮光するように遮光膜121b-12が形成されている。なお、図中の一点鎖線は、フォトダイオード121eの受光面の水平方向の中心を通り、受光面に対して垂直な補助線である。
 例えば、図7の左上部の画素においては、図中の一点鎖線に対して入射角θ1を成す右上方向からの入射光は、フォトダイオード121e-11の遮光膜121b-11により遮光されていない左半分の範囲により受光され易い。これに対して、図中の一点鎖線に対して入射角θ2を成す左上方向からの入射光は、フォトダイオード121e-11の遮光膜121b-11により遮光されていない左半分の範囲により受光されにくい。したがって、図7の左上部の画素は、図中の右上方からの入射光に対して受光感度が高く、左上方からの入射光に対して受光感度が低い入射角指向性を備えることになる。
 一方、例えば、図7の右上部の画素においては、入射角θ1を成す右上方向からの入射光は、フォトダイオード121e-12の遮光膜121b-12により遮光されている左半分の範囲により受光されにくい。これに対して、入射角θ2を成す左上方向からの入射光は、フォトダイオード121e-12の遮光膜121b-12により遮光されていない右半分の範囲により受光され易い。したがって、図7の右上部の画素は、図中の右上方からの入射光に対して受光感度が低く、左上方からの入射光に対して受光感度が高い入射角指向性を備えることになる。
 また、図7の左下部の画素は、図中の左右にフォトダイオード121f-11,121f-12が設けられており、いずれか一方の検出信号を読み出すようにすることで、遮光膜121bを設けることなく入射角指向性を有する構成とされている。
 すなわち、図7の左下部の画素では、図中の左側に設けられたフォトダイオード121f-11の信号のみを読み出すようにすることで、図7の左上部の画素と同様の入射角指向性を得ることができる。すなわち、図中の一点鎖線に対して入射角θ1を成す右上方向からの入射光は、フォトダイオード121f-11に入射し、受光量に対応する信号がフォトダイオード121f-11から読み出されるため、この画素から出力される検出信号に寄与する。これに対して、図中の一点鎖線に対して入射角θ2を成す左上方向からの入射光は、フォトダイオード121f-12に入射するが、フォトダイオード121f-12から読み出されないため、この画素から出力される検出信号に寄与しない。
 同様に、図7の右下部の画素のように、2個のフォトダイオード121f-13,121f-14を備える場合、図中の右側に設けられたフォトダイオード121f-14の信号のみを読み出すようにすることで、図7の右上部の画素と同様の入射角指向性を得ることができる。すなわち、入射角θ1を成す右上方向からの入射光は、フォトダイオード121f-13に入射するが、フォトダイオード121f-13から信号が読み出されないため、この画素から出力される検出信号に寄与しない。これに対して、入射角θ2を成す左上方向からの入射光は、フォトダイオード121f-14に入射し、受光量に対応する信号がフォトダイオード121f-14から読み出されるため、この画素から出力される検出信号に寄与する。
 なお、図7の上部の画素においては、画素(フォトダイオード121eの受光面)の水平方向の中心位置で遮光される範囲と遮光されない範囲が分かれる例を示したが、その他の位置で分かれるようにしてもよい。また、図7の下部の画素においては、画素の水平方向の中心位置で、2つのフォトダイオード121fが分かれる例を示したが、その他の位置で分かれるようにしてもよい。このように、遮光範囲又はフォトダイオード121fが分かれる位置を変えることにより、異なる入射角指向性を生じさせることができる。
   <オンチップレンズを含む構成における入射角指向性について>
 次に、図8を参照して、オンチップレンズ121cを含めた構成における入射角指向性について説明する。
 図8の上段のグラフは、図8の中段及び下段の画素の入射角指向性を示している。なお、横軸が入射角度θであり、縦軸が検出信号レベルを示している。なお、入射角度θは、入射光の方向が、図8の中段左側の一点鎖線と一致する場合を0度とし、図8の中段左側の入射角度θ21側を正の方向とし、図8の中段右側の入射角度θ22側を負の方向とする。したがって、オンチップレンズ121cに対して、右上方より入射する入射光については、左上方より入射する入射光よりも入射角度が大きくなる。すなわち入射角度θは、入射光の進行方向が左に傾くほど大きくなり(正の方向に大きくなり)、右に傾くほど小さくなる(負の方向に大きくなる)。
 また、図8の中段左部の画素は、図7の上段左部の画素に、入射光を集光するオンチップレンズ121c-11、及び、所定の波長の光を透過させるカラーフィルタ121d-11を追加したものである。すなわち、この画素では、オンチップレンズ121c-11、カラーフィルタ121d-11、遮光膜121b-11、フォトダイオード121e-11が、図中上方の光の入射方向から順に積層されている。
 同様に、図8の中段右部の画素、図8の下段左部の画素、及び、図8の下段右部の画素は、それぞれ、図7の上段右部の画素、図7の下段左部の画素、及び、図7の下段右部の画素に、オンチップレンズ121c-11及びカラーフィルタ121d-11、又は、オンチップレンズ121c-12及びカラーフィルタ121d-12を追加したものである。
 図8の中段左部の画素では、図8の上段の実線の波形で示されるように、入射光の入射角度θに応じてフォトダイオード121e-11の検出信号レベル(受光感度)が変化する。すなわち、図中の一点鎖線に対して入射光のなす角である入射角度θが大きいほど(入射角度θが正の方向に大きいほど(図中の右方向に傾くほど))、遮光膜121b-11が設けられていない範囲に光が集光されることで、フォトダイオード121e-11の検出信号レベルが大きくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど(図中の左方向に傾くほど))、遮光膜121b-11が設けられている範囲に光が集光されることで、フォトダイオード121e-11の検出信号レベルが小さくなる。
 また、図8の中段右部の画素では、図8の上段の点線の波形で示されるように、入射光の入射角度θに応じてフォトダイオード121e-12の検出信号レベル(受光感度)が変化する。すなわち、入射光の入射角度θが大きいほど(入射角度θが正の方向に大きいほど)、遮光膜121b-12が設けられている範囲に光が集光されることで、フォトダイオード121e-12の検出信号レベルが小さくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど)、遮光膜121b-12が設けられていない範囲に光が入射することで、フォトダイオード121e-12の検出信号レベルが大きくなる。
 この図8の上段に示される実線および点線の波形は、遮光膜121bの範囲に応じて変化させることができる。従って、遮光膜121bの範囲により、画素単位で相互に異なる入射角指向性を持たせることが可能となる。
 上述したように、入射角指向性とは、入射角度θに応じた各画素の受光感度の特性であるが、これは、図8の中段の画素では、入射角度θに応じた遮光値の特性であるとも言える。すなわち、遮光膜121bは、特定の方向の入射光は高いレベルで遮光するが、それ以外の方向からの入射光は十分に遮光できない。この遮光できるレベルの変化が、図8の上段に示されるような入射角度θに応じた異なる検出信号レベルを生じさせる。したがって、各画素において最も高いレベルで遮光可能な方向を各画素の遮光方向と定義すると、画素単位で相互に異なる入射角指向性を持つということは、換言すれば、画素単位で相互に異なる遮光方向を持つということになる。
 また、図8の下段左部の画素では、図7の下段左部の画素と同様に、図中左部のフォトダイオード121f-11のみの信号を用いるようにすることで、図8の中段左部の画素と同様の入射角指向性を得ることができる。すなわち、入射光の入射角度θが大きくなると(入射角度θが正の方向に大きくなると)、信号が読み出されるフォトダイオード121f-11の範囲に光が集光されることで、検出信号レベルが大きくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど)、信号が読み出されないフォトダイオード121f-12の範囲に光が集光されることで、検出信号レベルが小さくなる。
 また、同様に、図8の下段右部の画素では、図7の下段右部の画素と同様に、図中右部のフォトダイオード121f-14のみの信号を用いるようにすることで、図8の中段右部の画素と同様の入射角指向性を得ることができる。すなわち、入射光の入射角度θが大きくなると(入射角度θが正の方向に大きくなると)、出力(検出信号)に寄与しないフォトダイオード121f-13の範囲に光が集光されることで、画素単位の検出信号のレベルが小さくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど)、出力(検出信号)に寄与するフォトダイオード121f-14の範囲に光が集光されることで、画素単位の検出信号のレベルが大きくなる。
 ここで、画素121aの入射角指向性の重心を以下のように定義する。
 入射角指向性の重心は、画素121aの受光面に入射する入射光の強度の分布の重心である。画素121aの受光面は、図8の中段の画素121aでは、フォトダイオード121eの受光面となり、図8の下段の画素121aでは、フォトダイオード121fの受光面となる。
 例えば、図8の上段のグラフの縦軸の検出信号レベルをa(θ)とし、次式(4)により算出される入射角θgの光線を重心光線とする。
 θg=Σ(a(θ)×θ)/Σa(θ) ・・・(4)
 そして、重心光線が画素121aの受光面と交わる点が、画素121aの入射角指向性の重心となる。
 また、図8の下段の画素のように、画素内に複数のフォトダイオードを設け、出力に寄与するフォトダイオードを変更可能な画素において、各フォトダイオードに入射光の入射角に対する指向性を持たせ、画素単位での入射角指向性を生じさせるために、各画素にオンチップレンズ121cが必須構成となる。
 なお、以下の説明では、図5の画素121aのように、遮光膜121bを用いて入射角指向性を実現する画素121aを用いる場合の例を中心に説明する。ただし、遮光膜121bが必須となる場合を除いて、基本的にフォトダイオードを分割して入射角指向性を実現する画素121aを用いることも可能である。
   <遮光範囲と画角の関係について>
 次に、図9及び図14を参照して、画素121aの遮光範囲と画角の関係について説明する。
 例えば、図9の上段に示されるように、4辺のそれぞれの端部から幅d1だけ遮光膜121bにより遮光されている画素121aと、図9の下段に示されるように、4辺のそれぞれの端部から幅d2(>d1)だけ遮光膜121bにより遮光されている画素121a’とを考える。
 図10は、撮像素子121の中心位置C1への被写体面102からの入射光の入射角度の例を示している。なお、図10においては、水平方向の入射光の入射角度の例を示しているが、垂直方向についてもほぼ同様となる。また、図10の右部には、図9における画素121a,121a’が示されている。
 例えば、図9の画素121aが撮像素子121の中心位置C1に配置されている場合、被写体面102から画素121aへの入射光の入射角の範囲は、図10の左部に示されるように角度A1となる。従って、画素121aは、被写体面102の水平方向の幅W1分の入射光を受光することができる。
 これに対して、図9の画素121a’が撮像素子121の中心位置C1に配置されている場合、画素121a’は画素121aよりも遮光される範囲が広いため、被写体面102から画素121a’への入射光の入射角の範囲は、図10の左部に示されるように角度A2(<A1)となる。従って、画素121a’は、被写体面102の水平方向の幅W2(<W1)分の入射光を受光することができる。
 つまり、遮光範囲が狭い画素121aは、被写体面102上の広い範囲を撮像するのに適した広画角画素であるのに対して、遮光範囲が広い画素121a’は、被写体面102上の狭い範囲を撮像するのに適した狭画角画素である。なお、ここでいう広画角画素および狭画角画素は、図9の画素121a,121a’の両者を比較する表現であって、その他の画角の画素を比較する上ではこの限りではない。
 従って、例えば、画素121aは、図9の画像I1を復元するために用いられる。画像I1は、図11の上段の被写体となる人物H101の全体を含み、被写体幅W1に対応する画角SQ1の画像である。これに対して、例えば、画素121a’は、図9の画像I2を復元するために用いられる。画像I2は、図11の上段の人物H101の顔の周辺がズームアップされた被写体幅W2に対応する画角SQ2の画像である。
 また、例えば、図11の下段に示されるように、撮像素子121の点線で囲まれた範囲ZAに、図9の画素121aを、一点鎖線で囲まれた範囲ZBに画素121a’を、それぞれ所定画素数ずつ集めて配置することが考えられる。そして、例えば、被写体幅W1に対応する画角SQ1の画像を復元するときには、範囲ZA内の各画素121aの検出信号を用いるようにすることで、適切に画角SQ1の画像を復元することができる。一方、被写体幅W2に対応する画角SQ2の画像を復元するときには、範囲ZB内の各画素121a’の検出信号を用いるようにすることで、適切に画角SQ2の画像を復元することができる。
 なお、画角SQ2は、画角SQ1よりも狭いので、画角SQ2と画角SQ1の画像を同一の画素数で復元する場合、画角SQ1の画像よりも、画角SQ2の画像を復元する方が、より高画質な(高解像度の)復元画像を得ることができる。
 つまり、同一画素数を用いて復元画像を得ることを考えた場合、より画角の狭い画像を復元する方が、より高画質な復元画像を得ることができる。
 例えば、図12の右部は、図11の撮像素子121の範囲ZA内の構成例を示している。図12の左部は、範囲ZA内の画素121aの構成例を示している。
 図12において、黒色で示された範囲が遮光膜121bであり、各画素121aの遮光範囲は、例えば、図12の左部に示される規則に従って決定される。
 図12の左部の主遮光部Z101(図12の左部の黒色部)は、各画素121aにおいて共通に遮光される範囲である。具体的には、主遮光部Z101は、画素121aの左辺及び右辺から画素121a内に向かって、それぞれ幅dx1の範囲、並びに、画素121aの上辺及び下辺から画素121a内に向かって、それぞれ高さdy1の範囲である。そして、各画素121aにおいて、主遮光部Z101の内側の範囲Z102内に、遮光膜121bにより遮光されない矩形の開口部Z111が設けられる。従って、各画素121aにおいて、開口部Z111以外の範囲が、遮光膜121bにより遮光される。
 ここで、各画素121aの開口部Z111は規則的に配置されている。具体的には、各画素121a内における開口部Z111の水平方向の位置は、同じ垂直方向の列の画素121a内において同一になる。また、各画素121a内における開口部Z111の垂直方向の位置は、同じ水平方向の行の画素121a内において同一になる。
 一方、各画素121a内における開口部Z111の水平方向の位置は、画素121aの水平方向の位置に応じて所定の間隔でずれている。すなわち、画素121aの位置が右方向に進むに従って、開口部Z111の左辺が、画素121aの左辺からそれぞれ幅dx1、dx2、・・・、dxnだけ右方向にずれた位置に移動する。幅dx1と幅dx2の間隔、幅dx2と幅dx3の間隔、・・・、幅dxn-1と幅dxnの間隔は、それぞれ範囲Z102の水平方向の幅から開口部Z111の幅を引いた長さを水平方向の画素数n-1で割った値となる。
 また、各画素121a内における開口部Z111の垂直方向の位置は、画素121aの垂直方向の位置に応じて所定の間隔でずれている。すなわち、画素121aの位置が下方向に進むに従って、開口部Z111の上辺が、画素121aの上辺からそれぞれ高さdy1、dy2、・・・、dynだけ下方向にずれた位置に移動する。高さdy1と高さdy2の間隔、高さdy2と高さdy3の間隔、・・・、高さdyn-1と高さdynの間隔は、それぞれ範囲Z102の垂直方向の高さから開口部Z111の高さを引いた長さを垂直方向の画素数m-1で割った値となる。
 図13の右部は、図11の撮像素子121の範囲ZB内の構成例を示している。図13の左部は、範囲ZB内の画素121a’の構成例を示している。
 図13において、黒色で示された範囲が遮光膜121b’であり、各画素121a’の遮光範囲は、例えば、図13の左部に示される規則に従って決定される。
 図13の左部の主遮光部Z151(図13に左部の黒色部)は、各画素121a’において共通に遮光される範囲である。具体的には、主遮光部Z151は、画素121a’の左辺及び右辺から画素121a’内に向かって、それぞれ幅dx1’の範囲、並びに、画素121a’の上辺及び下辺から画素121a’内に向かって、それぞれ高さdy1’の範囲である。そして、各画素121a’において、主遮光部Z151の内側の範囲Z152内に、遮光膜121b’により遮光されない矩形の開口部Z161が設けられる。従って、各画素121a’において、開口部Z161以外の範囲が、遮光膜121b’により遮光される。
 ここで、各画素121a’の開口部Z161は、図12の各画素121aの開口部Z111と同様に、規則的に配置されている。具体的には、各画素121a’内における開口部Z161の水平方向の位置は、同じ垂直方向の列の画素121a’内において同一になる。また、各画素121a’内における開口部Z161の垂直方向の位置は、同じ水平方向の行の画素121a’内において同一になる。
 一方、各画素121a’内における開口部Z161の水平方向の位置は、画素121a’の水平方向の位置に応じて所定の間隔でずれている。すなわち、画素121a’の位置が右方向に進むに従って、開口部Z161の左辺が、画素121a’の左辺からそれぞれ幅dx1’、dx2’、・・・、dxn’だけ右方向にずれた位置に移動する。幅dx1’と幅dx2’の間隔、幅dx2’と幅dx3’の間隔、・・・、幅dxn-1’と幅dxn’の間隔は、それぞれ範囲Z152の水平方向の幅から開口部Z161の幅を引いた長さを水平方向の画素数n-1で割った値となる。
 また、各画素121a’内における開口部Z161の垂直方向の位置は、画素121a’の垂直方向の位置に応じて所定の間隔でずれている。すなわち、画素121a’の位置が下方向に進むに従って、開口部Z161の上辺が、画素121a’の上辺からそれぞれ高さdy1’,dy2’、・・・、dyn’だけ下方向にずれた位置に移動する。高さdy1’と高さdy2’の間隔、高さdy2’と高さdy3’の間隔、・・・、高さdyn-1’と高さdyn’の間隔は、それぞれ範囲Z152の垂直方向の高さから開口部Z161の高さを引いた長さを垂直方向の画素数m-1で割った値となる。
 ここで、図12の画素121aの範囲Z102の水平方向の幅から開口部Z111の幅を引いた長さは、図13の画素121a’の範囲Z152の水平方向の幅から開口部Z161の幅を引いた幅より大きくなる。従って、図12の幅dx1、dx2・・・dxnの変化の間隔は、図13の幅dx1’、dx2’・・・dxn’の変化の間隔より大きくなる。
 また、図12の画素121aの範囲Z102の垂直方向の高さから開口部Z111の高さを引いた長さは、図13の画素121a’の範囲Z152の垂直方向の高さから開口部Z161の高さを引いた長さより大きくなる。従って、図12の高さdy1、dy2・・・dynの変化の間隔は、図13の高さdy1’、dy2’・・・dyn’の変化の間隔より大きくなる。
 このように、図12の各画素121aの遮光膜121bの開口部Z111の水平方向および垂直方向の位置の変化の間隔と、図13の各画素121a’の遮光膜121b’の開口部Z161の水平方向および垂直方向の位置の変化の間隔とは異なる。そして、この間隔の違いが、復元画像における被写体分解能(角度分解能)の違いとなる。すなわち、図13の各画素121a’の遮光膜121b’の開口部Z161の水平方向および垂直方向の位置の変化の間隔の方が、図12の各画素121aの遮光膜121bの開口部Z111の水平方向および垂直方向の位置の変化の間隔より狭くなる。従って、図13の各画素121a’の検出信号を用いて復元される復元画像は、図12の各画素121aの検出信号を用いて復元される復元画像より、被写体分解能が高くなり、高画質(高解像度)となる。
 このように、主遮光部の遮光範囲と開口部の開口範囲との組み合わせを変化させることで、様々な画角の(様々な入射角指向性を持った)画素からなる撮像素子121を実現することが可能となる。
 なお、以上においては、画素121aと画素121a’を範囲ZAと範囲ZBに分けて配置する例を示したが、これは説明を簡単にするためであり、異なる画角に対応する画素121aが同じ領域内に混在して配置されることが望ましい。
 例えば、図14に示されるように、点線で示される2画素×2画素からなる4画素を1個の単位Uとして、それぞれの単位Uが、広画角の画素121a-W、中画角の画素121a-M、狭画角の画素121a-N、極狭画角の画素121a-ANの4画素から構成されるようにする。
 この場合、例えば、全画素121aの画素数がXである場合、4種類の画角ごとにX/4画素ずつの検出画像を用いて復元画像を復元することが可能となる。この際、画角毎に異なる4種類の係数セット群が使用されて、4種類の異なる連立方程式により、それぞれ異なる画角の復元画像が復元される。
 従って、復元する復元画像の画角の撮像に適した画素から得られる検出画像を用いて復元画像を復元することで、4種類の画角に応じた適切な復元画像を得ることが可能となる。
 また、4種類の画角の中間の画角や、その前後の画角の画像を、4種類の画角の画像から補間生成するようにしてもよく、様々な画角の画像をシームレスに生成することで、疑似的な光学ズームを実現するようにしてもよい。
 なお、例えば、画角の広い画像を復元画像として得る場合、広画角画素を全て用いるようにしてもよいし、広画角画素の一部を用いるようにしてもよい。また、例えば、画角の狭い画像を復元画像として得る場合、狭画角画素を全て用いるようにしてもよいし、狭画角画素の一部を用いるようにしてもよい。
 なお、以下、本技術の第1の実施の形態においては、撮像素子121が、画素121aと画素121a’を備え、図11に示されるように、広画角(例えば、画角SQ1)及び狭画角(例えば、画角SQ2)の2種類の画角の検出画像の撮像が可能な例について説明する。また、以下、画素121aを広画角画素と称し、画素121a’を狭画角画素と称する。
  <制御部28の構成例>
 図15は、図1の制御部28の機能の構成例を示している。制御部28は、危険物検出部201、画素選択部202、復元部203、及び、記憶部204を備える。
 危険物検出部201は、認識部23による車両の前方の物体の認識結果に基づいて、危険物の検出処理を行う。
 画素選択部202は、撮像素子121の画素121aのうち、各画素121aから出力される検出信号から得られる情報に基づいて、車両の前方のモニタリングに使用する画素を選択する。具体的には、画素選択部202は、危険物検出部201による危険物の検出結果等に基づいて、広画角画素又は狭画角画素のいずれを車両の前方のモニタリングに使用するかを選択する。換言すれば、画素選択部202は、危険物検出部201による危険物の検出結果等に基づいて、広画角画素に対応する広画角復元画像及び狭画角画素に対応する狭画角復元画像のいずれの画像を、車両の前方のモニタリングに使用するかを選択する。
 復元部203は、例えば、画素選択部202により選択された画素、及び、図3における撮像素子121から被写体面102(復元画像に対応する被写体面)までの距離に相当する被写体距離に対応し、上述した係数α1乃至α3,β1乃至β3,γ1乃至γ3に相当する係数セット群を記憶部204から取得する。また、復元部203は、撮像素子121から出力される検出画像の各画素の検出信号レベルと、取得した係数セット群とを用いて、上述した式(1)乃至式(3)で示されるような連立方程式を作成する。そして、復元部203は、作成した連立方程式を解くことにより、図3の右下に示される被写体の像が結像された画像を構成する各画素の画素値を求める。これにより、ユーザが目視して被写体を認識できる(被写体を視認可能な)復元画像が検出画像から復元される。
 なお、撮像素子121が紫外線などの視認可能な波長帯域以外の光のみに感度を有する場合、復元画像も通常の画像のように被写体を識別できるような画像とはならないが、この場合も復元画像と称する。
 また、以下、被写体の像が結像された状態の画像である復元画像であって、デモザイク処理等の色分離や同時化処理前の画像をRAW画像と称し、撮像素子121により撮像された検出画像については、色フィルタの配列に従った画像ではあるが、RAW画像ではないものとして区別する。
 なお、撮像素子121の画素数と、復元画像を構成する画素の画素数とは、必ずしも同一である必要はない。
 また、復元部203は、必要に応じて、復元画像に対してデモザイク処理、γ補正、ホワイトバランス調整、所定の圧縮形式への変換処理等を行う。そして、復元部203は、復元画像をバスB2に出力する。
 記憶部204は、ROM、RAM、フラッシュメモリ等の記憶装置を1つ以上備え、例えば、制御部28の処理に用いられるプログラムやデータ等を記憶する。例えば、記憶部204は、様々な被写体距離及び画角に対応付けて、上述した係数α1乃至α3,β1乃至β3,γ1乃至γ3に相当する係数セット群を記憶している。より具体的には、例えば、記憶部204は、各被写体距離における被写体面102毎に、被写体面102上の各画角毎に設定した各点光源に対する撮像素子121の各画素121aに対する係数を含む係数セット群を記憶している。
  <モニタリング処理>
 次に、図16のフローチャートを参照して、情報処理システム11により実行されるモニタリング処理について説明する。
 この処理は、例えば、情報処理システム11を備える車両の電源がオンされたとき開始され、オフされたとき終了する。
 ステップS1において、撮像素子121は、車両の前方の撮像を行う。これにより、異なる入射角指向性を備える撮像素子121の各画素から、被写体からの入射光の光量に応じた検出信号レベルを示す検出信号が出力され、各広画角画素の検出信号からなる広画角検出画像、及び、各狭画角画素の検出信号からなる狭画角検出画像が得られる。撮像素子121は、通信部124、カメラECU42、及び、MCU43を介して、広画角検出画像及び狭画角検出画像を制御部28に供給する。
 ステップS2において、画素選択部202は、広画角画像を使用する画像に選択する。すなわち、画素選択部202は、広画角検出画像から復元される広画角復元画像を、車両の前方のモニタリングに使用する画像に選択する。これにより、モニタリングに用いる撮像素子121の画素として広画角画素が選択され、ステップS3の処理の復元対象として、各広画角画素から出力される検出信号からなる広画角検出画像が選択される。
 ステップS3において、復元部203は、画像復元処理を実行する。画像復元処理の詳細は、図17を参照して後述するが、この処理により、広画角検出画像から広画角復元画像が復元される。
 ステップS4において、情報処理システム11は、広画角復元画像を用いてモニタリングを行う。
 具体的には、認識部23は、広画角復元画像に対して物体認識処理を行い、車両の前方の物体の位置、大きさ、種類、動き等を認識する。認識部23は、広画角復元画像、及び、物体の認識結果を示すデータを危険物検出部201に供給する。
 危険物検出部201は、車両の現在位置、速度、及び、移動方向、並びに、認識部23により認識された物体の位置、大きさ、種類、及び、動き等に基づいて、車両に衝突又は接触する危険性がある危険物の検出を行う。
 例えば、危険物検出部201は、車両の前方において車両との間の距離が所定の範囲内であり、車両に接近する方向の相対速度が所定の閾値以上の物体(車両に所定の閾値以上の速度で接近している物体)を危険物として検出する。
 又は、例えば、危険物検出部201は、車両の走行計画ルート上にあり、車両に接近する方向の相対速度が所定の閾値以上の物体(車両に所定の閾値以上の速度で接近している物体)を危険物として検出する。
 危険物検出部201は、広画角復元画像、並びに、危険物の検出結果を示すデータをアラート制御部24及び動作制御部27に供給する。
 アラート制御部24は、車両の前方の危険物の検出結果に基づいて、危険物に対する注意を促す警告表示を広画角復元画像に重畳する処理を行う。例えば、広画角復元画像内の危険物を強調するために、枠で囲む等の表示効果が施される。アラート制御部24は、警告表示を重畳した広画角復元画像を表示制御部26に供給する。
 なお、アラート制御部24は、危険物が検出されていない場合、警告表示を重畳せずに、そのまま広画角復元画像を表示制御部26に供給する。
 表示部25は、表示制御部26の制御の下に、広画角復元画像を表示する。このとき、危険物が検出されている場合、広画角復元画像において警告表示が行われる。これにより、運転者は、車両の前方の危険物の存在を迅速かつ確実に認識することができる。
 ステップS5において、危険物検出部201は、ステップS4の処理の結果に基づいて、危険物が存在するか否かを判定する。危険物が存在しないと判定された場合、処理はステップS1に戻る。
 その後、ステップS5において、危険物が存在すると判定されるまで、ステップS1乃至ステップS5の処理が繰り返し実行される。すなわち、危険物が検出されない場合、広画角復元画像を用いたモニタリングが繰り返し実行される。
 一方、ステップS5において、危険物が存在すると判定された場合、処理はステップS6に進む。
 ステップS6において、ステップS1の処理と同様に、車両の前方の撮像が行われる。これにより、広画角検出画像及び狭画角検出画像が得られる。
 ステップS7において、画素選択部202は、狭画角画像を使用する画像に選択する。すなわち、画素選択部202は、狭画角検出画像から復元される狭画角復元画像を、車両の前方のモニタリングに使用する画像に選択する。これにより、モニタリングに用いる撮像素子121の画素として狭画角画素が選択され、ステップS8の処理の復元対象として、各狭画角画素から出力される検出信号からなる狭画角検出画像が選択される。
 ステップS8において、復元部203は、画像復元処理を実行する。画像復元処理の詳細は、図17を参照して後述するが、この処理により、狭画角検出画像から狭画角復元画像が復元される。
 ステップS9において、認識部23は、狭画角復元画像を用いて、危険物の認識処理を行う。具体的には、認識部23は、狭画角復元画像に対して物体認識処理を行い、ステップS4の処理で検出された危険物の位置、大きさ、種類、動き等を、さらに詳細に認識する。すなわち、狭画角復元画像は、広画角復元画像と中心が一致し、広画角復元画像より画角が狭く、高画質(高解像度)である。従って、ステップS3の処理と比較して、危険物の位置、大きさ、種類、動き等が、さらに詳細に認識される。認識部23は、危険物の認識結果を示すデータを動作制御部27に供給する。
 ステップS10において、動作制御部27は、回避行動を行う。具体的には、動作制御部27は、狭画角復元画像に基づく危険物の認識結果に基づいて、危険物に衝突及び接触しないように、車両の進行方向、速度、ブレーキ等の制御を行う。
 その後、処理はステップS1に戻り、ステップS1乃至ステップS10の処理が繰り返し実行される。
  <画像復元処理>
 次に、図17のフローチャートを参照して、図16のステップS3及びステップS8の処理に対応する画像復元処理の詳細について説明する。
 ステップS51において、復元部203は、画像の復元に用いる係数を求める。具体的には、復元部203は、復元対象となる被写体面102までの距離、すなわち被写体距離を設定する。なお、被写体距離の設定方法には、任意の方法を採用することができる。例えば、復元部203は、ユーザにより設定された被写体距離、又は、各種のセンサにより検出された被写体距離を、復元対象となる被写体面102までの距離に設定する。
 次に、復元部203は、設定した被写体距離に対応付けられている係数セット群を記憶部123から読み出す。このとき、復元部203は、広画角復元画像の復元を行う場合、広画角検出画像用の係数セット群を記憶部123から読み出し、狭画角復元画像の復元を行う場合、狭画角検出画像用の係数セット群を記憶部123から読み出す。
 ステップS52において、復元部203は、検出画像及び係数を用いて、画像の復元を行う。具体的には、復元部203は、検出画像の各画素の検出信号レベルと、ステップS51の処理で取得した係数セット群とを用いて、上述した式(1)乃至式(3)を参照して説明した連立方程式を作成する。次に、復元部203は、作成した連立方程式を解くことにより、設定した被写体距離に対応する被写体面102上の各点光源の光強度を算出する。そして、復元部203は、算出した光強度に応じた画素値を有する画素を被写体面102の各点光源の配置に従って並べることにより、被写体の像が結像された復元画像を生成する。
 ステップS53において、撮像部41は、復元画像に対して各種の処理を行う。例えば、復元部203は、必要に応じて、復元画像に対して、デモザイク処理、γ補正、ホワイトバランス調整、所定の圧縮形式への変換処理等を行う。また、復元部203は、得られた復元画像を、通信部124を介してカメラECU42に供給する。
 その後、画像復元処理は終了する。
 以上のように、広画角復元画像だけでなく、狭画角復元画像を用いて危険物の認識処理を行うことにより、危険物の認識精度が向上する。その結果、より安全かつ適切に危険物を回避することが可能になる。
 また、従来のズームレンズ方式のカメラでは、広画角の画像を撮像した後、狭画角の画像を撮像するまでに、ズームレンズを駆動する必要があり、時間を要する。さらに、図18に模式的に示されるように、広画角F1の状態における光軸A1と、狭画角F2の状態における光軸A2との間にズレが生じるため、適切な画角の画像が得られずに、危険物を見失う恐れがある。
 一方、撮像部41では、ズームレンズを駆動する必要がないため、適切な画角の画像(狭画角復元画像)を迅速かつ容易に得ることができる。また、撮像部41では、広画角復元画像と狭画角復元画像との間で、光軸のズレがほぼ発生しない。従って、使用する画像を切り替えても、危険物を見失う可能性は低くなる。
 <<2.第2の実施の形態>>
 次に、図19乃至図25を参照して、本技術の第2の実施の形態について説明する。
  <撮像素子121の画素アレイ部の構成例>
 まず、図19乃至図24を参照して、第2の実施の形態における撮像素子121の画素アレイ部の構成例について説明する。
 この第2の実施の形態では、第1の実施の形態と比較して、撮像素子121の各画素121aの画角が、さらに細かく分けられている。
 図19は、撮像素子121の画角の例を示している。
 撮像素子121においては、画角W、及び、画角N1乃至画角N35のいずれかに対応する36種類の画素121aが設けられている。
 画角N1乃至画角N35は、所定の大きさの画角を縦7列×横5行に35等分した画角である。画角N1乃至画角N7は、1行目の左から右に並んでいる。画角N8乃至画角N14は、2行目の左から右に並んでいる。画角N15乃至画角N21は、3行目の左から右に並んでいる。画角N22乃至画角N28は、4行目の左から右に並んでいる。画角N29乃至画角N35は、5行目の左から右に並んでいる。
 画角Wは、画角N1乃至画角N35を合わせた画角より広くなっている。
 なお、以下、画角Wの画素121aを広画角画素Pwと称し、画角N1乃至画角N35の画素121aをそれぞれ狭画角画素Pn1乃至狭画角画素Pn35と称する。以下、各広画角画素Pwから出力される検出信号からなる検出画像を広画角検出画像IDwと称し、各狭画角画素Pn1乃至各狭画角画素Pn35から出力される検出信号からなる検出画像をそれぞれ狭画角検出画像IDn1乃至狭画角検出画像IDn35と称する。以下、広画角検出画像IDwから復元される復元画像を広画角復元画像IRwと称し、狭画角検出画像IDn1乃至狭画角検出画像IDn35から復元される復元画像を、それぞれ狭画角復元画像IRn1乃至狭画角復元画像IRn35と称する。
 また、以下、画角N1乃至画角N35を個々に区別する必要がない場合、単に画角Nと称する。以下、狭画角画素Pn1乃至狭画角画素Pn35を個々に区別する必要がない場合、単に狭画角画素Pnと称する。以下、狭画角検出画像IDn1乃至狭画角検出画像IDn35を個々に区別する必要がない場合、単に狭画角検出画像IDnと称する。以下、狭画角復元画像IRn1乃至狭画角復元画像IRn35を個々に区別する必要がない場合、単に狭画角復元画像IRnと称する。
 図20乃至図22は、撮像素子121の画素アレイ部の遮光パターンの実施の形態を示している。図20は、広画角画素Pw及び狭画角画素Pn1乃至狭画角画素Pn35の開口設定範囲Rw及び開口設定範囲Rn1乃至開口設定範囲Rn35の例を示している。図21は、広画角画素Pwの遮光パターンの例を示している。図22は、狭画角画素Pn1の遮光パターンの例を示している。
 図20に示されるように、開口設定範囲Rwは、開口設定範囲Rn1乃至開口設定範囲Rn35を合わせた領域より広くなっている。また、開口設定範囲Rn1乃至開口設定範囲Rn35の配置は、それぞれ対応する画角N1乃至画角N35の配置(図19)に対して点対称になっている。例えば、左上隅の画角N1に対応する開口設定範囲Rn1は、画素121aの右下隅に配置され、右下隅の画角N35に対応する開口設定範囲Rn35は、画素121aの左上隅に配置されている。
 図21に示されるように、各広画角画素Pwの遮光膜Swの開口部Awは、点線で示される矩形の開口設定範囲Rw内に設定される。従って、各広画角画素Pwの遮光膜Swの開口設定範囲Rw以外の領域が、遮光膜Swの主遮光部となる。
 開口設定範囲Rwの大きさ、形、及び、位置は、各広画角画素Pwで共通である。開口設定範囲Rwは、広画角画素Pwの大部分を占めている。また、開口設定範囲Rwの重心は、広画角画素Pwの中心と略一致する。
 矩形の開口部Awの形及び大きさは、各広画角画素Pwで共通である。また、開口部Awは、図12及び図13を参照して上述した規則と同様の規則に従って、各広画角画素Pwの開口設定範囲Rw内に配置される。
 例えば、開口部Awは、画素アレイ部の最も左上隅に近い位置に配置されている広画角画素Pwにおいて、開口設定範囲Rwの左上隅に配置される。そして、開口部Awは、広画角画素Pwの位置が画素アレイ部内において右に進むにつれて、開口設定範囲Rw内において右方向にシフトする。開口部Awは、広画角画素Pwの位置が画素アレイ部内において下に進むにつれて、開口設定範囲Rw内において下方向にシフトする。その結果、各広画角画素Pwの開口部Awにより、開口設定範囲Rwがカバーされる。すなわち、各広画角画素Pwの開口部Awを重ね合わせた領域が、開口設定範囲Rwと等しくなる。
 なお、開口部Awの配置パターンについては、上述の構成に限定されず、各開口部Awを重ね合わせた領域が、開口設定範囲Rwと等しくなればどのような配置であっても良い。例えば、各広画角画素Pwにおいて、開口部Awが開口設定範囲Rw内においてランダムに配置されても良い。
 ここで、各広画角画素Pwの入射角指向性の重心は、各広画角画素Pwの開口部Awの重心と略一致する。従って、各広画角画素Pwの入射角指向性の重心の平均が、広画角画素Pwの中心と略一致する。すなわち、各広画角画素Pwの重心光線の入射角の平均が、画素アレイ部の受光面の法線方向と略一致する。
 図22に示されるように、各狭画角画素Pn1の遮光膜Sn1の開口部An1は、点線で示される矩形の開口設定範囲Rn1内に設定される。従って、各狭画角画素Pn1の遮光膜Sn1の開口設定範囲Rn1以外の領域が、遮光膜Sn1の主遮光部となる。
 開口設定範囲Rn1の大きさ、形、及び、位置は、各狭画角画素Pn1で共通である。開口設定範囲Rn1は、広画角画素Pwの開口設定範囲Rwと比較して非常に小さい。また、開口設定範囲Rn1は、狭画角画素Pn1内の右斜め下方向に偏っている。従って、開口設定範囲Rn1の重心は、狭画角画素Pn1の中心から右斜め下方向に偏っている。
 矩形の開口部An1の形及び大きさは、各狭画角画素Pn1で共通である。また、開口部An1は、図12及び図13を参照して上述した規則と同様の規則に従って、各狭画角画素Pn1の開口設定範囲Rn1内に配置される。
 例えば、開口部An1は、画素アレイ部の最も左上隅に近い位置に配置されている狭画角画素Pn1において、開口設定範囲Rn1の左上隅に配置される。そして、開口部An1は、狭画角画素Pn1の位置が画素アレイ部内において右に進むにつれて、開口設定範囲Rn1内において右方向にシフトする。開口部An1は、狭画角画素Pn1の位置が画素アレイ部内において下に進むにつれて、開口設定範囲Rn1内において下方向にシフトする。その結果、各狭画角画素Pn1の開口部An1により、開口設定範囲Rn1がカバーされる。すなわち、各狭画角画素Pn1の開口部An1を重ね合わせた領域が、開口設定範囲Rn1と等しくなる。
 なお、開口部An1の配置パターンについては、上述の構成に限定されず、各狭画角画素Pn1の開口部An1を重ね合わせた領域が、開口設定範囲Rn1と等しくなればどのような配置であっても良い。例えば、開口部An1が開口設定範囲Rn1内においてランダムに配置されても良い。
 ここで、各狭画角画素Pn1の入射角指向性の重心は、各狭画角画素Pn1の開口部An1の重心と略一致し、各狭画角画素Pn1の中心から右斜め下方向に偏る。従って、各狭画角画素Pn1の入射角指向性の重心の平均が、狭画角画素Pn1の中心から右斜め下方向に偏る。また、各狭画角画素Pn1の重心光線の入射角の平均が、画素アレイ部の受光面の法線方向に対して左斜め上方向に傾く。従って、各狭画角画素Pn1により図19の画角N1での撮像が可能になる。
 なお、図示及び詳細な説明は省略するが、各狭画角画素Pni(i=2乃至35)においても、各狭画角画素Pn1と同様に、開口設定範囲Rni(i=2乃至35)をカバーするように、開口部Ani(i=2乃至35)が設定される。
 なお、広画角画素Pw及び狭画角画素Pn1乃至狭画角画素Pn35の数がそれぞれ同じ場合、広画角画素Pwの開口部Awは、狭画角画素Pn1乃至狭画角画素Pn35の開口部An1乃至開口部An35より大きく設定される。また、狭画角画素Pn1乃至狭画角画素Pn35の開口部An1乃至開口部An35は、全て同じ大きさに設定される。さらに、上述したように、広画角画素Pw及び狭画角画素Pn1乃至狭画角画素Pn35の数がそれぞれ同じ場合、画角の狭い狭画角復元画像IRn1乃至狭画角復元画像IRn35の方が、画角の広い広画角復元画像IRwより高画質(高解像度)となる。
 図23及び図24は、広画角画素Pw及び狭画角画素Pn1乃至狭画角画素Pn35の数がそれぞれ同じ場合の広画角画素Pw及び狭画角画素Pn1乃至狭画角画素Pn35の配置例を示している。
 図23の例では、広画角画素Pw及び狭画角画素Pn1乃至狭画角画素Pn35が、所定の間隔を空けて周期的に配置されている。具体的には、広画角画素Pw及び狭画角画素Pn1乃至狭画角画素Pn35は、画素アレイ部の各行において、所定の順番で繰り返し配置されている。広画角画素Pwは、画素アレイ部の1+36j(j=0,1,2,・・・)列に配置され、狭画角画素Pni(i=1乃至35)は、画素アレイ部の1+i+36j列に配置されている。
 図24の例では、広画角画素Pw及び狭画角画素Pn1乃至狭画角画素Pn35が、それぞれ固めて配置されている。例えば、画素アレイ部において、広画角画素Pwを2次元に配置した領域が左上隅に配置され、その左に、狭画角画素Pn1を2次元に配置した領域が配置されている。このように、広画角画素Pw及び狭画角画素Pn1乃至狭画角画素Pn35をそれぞれ2次元に配置した36個の領域が、画素アレイ部内において、縦6行×横6列に配置されている。
  <モニタリング処理>
 次に、図25のフローチャートを参照して、情報処理システム11により実行されるモニタリング処理の第2の実施の形態について説明する。
 この処理は、例えば、情報処理システム11を備える車両の電源がオンされたとき開始され、オフされたとき終了する。
 ステップS101において、撮像素子121は、車両の前方の撮像を行う。これにより、広画角画素Pwの検出信号からなる広画角検出画像IDw、及び、狭画角画素Pn1乃至狭画角画素Pn35の検出信号からなる狭画角検出画像IDn1乃至狭画角検出画像IDn35が得られる。撮像素子121は、通信部124、カメラECU42、及び、MCU43を介して、広画角検出画像IDw、及び、狭画角検出画像IDn1乃至狭画角検出画像IDn35を制御部28に供給する。
 ステップS102において、画素選択部202は、広画角画像を使用する画像に選択する。すなわち、画素選択部202は、広画角検出画像IDwから復元される広画角復元画像IRwを、車両の前方のモニタリングに使用する画像に選択する。これにより、モニタリングに用いる撮像素子121の画素として広画角画素Pwが選択され、ステップS103の処理の復元対象として、各広画角画素Pwから出力される検出信号からなる広画角検出画像IDwが選択される。
 ステップS103において、復元部203は、図17を参照して上述した画像復元処理を実行する。これにより、広画角検出画像IDwから広画角復元画像IRwが復元される。
 ステップS104において、図16のステップS4の処理と同様に、広画角復元画像IRwを用いてモニタリングが行われる。
 ステップS105において、図16のステップS5の処理と同様に、危険物が存在するか否かが判定される。危険物が存在しないと判定された場合、処理はステップS101に戻る。
 その後、ステップS105において、危険物が存在すると判定されるまで、ステップS101乃至ステップS105の処理が繰り返し実行される。すなわち、危険物が検出されない場合、広画角復元画像IRwを用いたモニタリングが繰り返し実行される。
 一方、ステップS105において、危険物が存在すると判定された場合、処理はステップS106に進む。
 ステップS106において、ステップS101の処理と同様に、車両の前方の撮像が行われる。これにより、広画角検出画像IDw、及び、狭画角検出画像IDn1乃至狭画角検出画像IDn35が得られる。
 ステップS107において、画素選択部202は、危険物の検出結果に基づいて、使用する画像を選択する。例えば、画素選択部202は、広画角復元画像IRwにおいて検出された危険物の位置及び大きさに基づいて、モニタリングに用いる狭画角復元画像IRnを選択する。
 例えば、画素選択部202は、危険物が1つのみ検出されている場合、広画角復元画像IRwにおいて危険物が存在する領域の少なくとも一部と画角Nが重なる狭画角復元画像IRnを選択する。
 例えば、図26の広画角復元画像IRwにおいて、前方の車両301-1乃至車両301-6のうち車両301-6が危険物として検出されている場合、画角N19乃至画角N21及び画角N26乃至画角N28が車両301-6の少なくとも一部を含む。この場合、画角N19乃至画角N21及び画角N26乃至画角N28にそれぞれ対応する狭画角復元画像IRn19乃至狭画角復元画像IRn21及び狭画角復元画像IRn26乃至狭画角復元画像IRn28が選択される。
 また、例えば、画素選択部202は、複数の危険物が検出されている場合、モニタリングに用いる狭画角復元画像IRnを、全ての危険物に基づいて選択するようにしてもよいし、一部の危険物に基づいて選択するようにしてもよい。
 前者の場合、例えば、画素選択部202は、広画角復元画像IRwにおいて、いずれかの危険物が存在する領域の少なくとも一部と画角Nが重なる狭画角復元画像IRnを選択する。
 例えば、図27の広画角復元画像IRwにおいて、前方の車両301-1乃至車両301-6のうち車両301-1及び車両301-6が危険物として検出されている場合、画角N17乃至画角N21及び画角N24乃至画角N28が、車両301-1及び車両301-6の少なくとも一方の少なくとも一部を含む。この場合、画角N17乃至画角N21及び画角N24乃至画角N28にそれぞれ対応する狭画角復元画像IRn17乃至狭画角復元画像IRn21及び狭画角復元画像IRn24乃至狭画角復元画像IRn28が選択される。
 後者の場合、例えば、まず、画素選択部202は、所定の条件に基づいて、各危険物の優先度を設定する。
 例えば、優先度は、車両との間の距離に基づいて設定される。例えば、車両との間の距離が近い危険物ほど、優先度が高く設定され、車両との間の距離が遠い危険物ほど、優先度が低く設定される。
 例えば、優先度は、広画角復元画像内の危険物の大きさに基づいて設定される。例えば、危険物が大きくなるほど、優先度が高く設定され、危険物が小さくなるほど、優先度が低く設定される。
 例えば、優先度は、危険物の種類に基づいて設定される。例えば、危険物が人である場合、危険物が車両等の他の物体である場合と比較して、優先度が高く設定される。
 次に、画素選択部202は、優先度に基づいて、1つ以上の危険物をモニタリング対象に選択する。例えば、画素選択部202は、最も優先度の高い危険物、又は、優先度が上位の所定の数の危険物、又は、優先度が閾値以上の危険物を、モニタリング対象に選択する。
 次に、画素選択部202は、広画角復元画像IRwにおいて、モニタリング対象に選択した危険物のいずれかが存在する領域の少なくとも一部と画角Nが重なる狭画角復元画像IRnを選択する。
 これにより、モニタリングに用いる撮像素子121の画素として、モニタリング対象となる危険物のいずれかが存在する領域の少なくとも一部と重なる画角Nに対応する狭画角画素Pnが選択される。また、ステップS108の処理の復元対象として、選択された各狭画角画素Pnから出力される検出信号からなる狭画角検出画像IDnが選択される。
 ステップS108において、復元部203は、図17を参照して上述した画像復元処理を実行する。この処理により、ステップS107の処理で選択された狭画角検出画像IDnから狭画角復元画像IRnが復元される。
 ステップS109において、図16のステップS9の処理と同様に、ステップS107の処理で選択された狭画角復元画像IRnを用いて、危険物の認識処理が行われる。
 ステップS110において、図16のステップS10の処理と同様に、回避行動が行われる。
 その後、処理はステップS101に戻り、ステップS101乃至ステップS110の処理が繰り返し実行される。
 以上のように、第2の実施の形態では、第1の実施の形態と比較して、撮像される画角がさらに細かく分類されるため、より適切な画角の画像を容易に得ることができる。その結果、危険物の認識精度がさらに向上し、より安全かつ適切に危険物を回避することが可能になる。
 なお、各画角Nは、画角Wと比較して、かなり狭い。従って、各画角Nにそれぞれ対応する狭画角画素Pnの数を、広画角画素Pwの数より少なくしても、各狭画角復元画像PRnの画質を、広画角復元画像PRwより高くすることができる。このように、各画角Nにそれぞれ対応する狭画角画素Pnの数を削減することにより、ステップS108の画像復元処理を軽減することができる。
 <<3.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
  <画素の選択方法に関する変形例>
 以上の説明では、画素選択部202が、危険物の検出結果に基づいて、使用する画素121a(からの検出信号に基づく復元画像)を選択する例を示したが、その他の条件に基づいて、使用する画素121a選択するようにしてもよい。
 例えば、画素選択部202は、危険物以外のモニタリングが必要な物体に基づいて、危険物の場合と同様に、使用する画素121aを選択するようにしてもよい。危険物以外のモニタリングが必要な物体としては、例えば、道路標識、ナンバープレート等が想定される。
 また、例えば、画素選択部202は、車両の周囲の状況に基づいて、使用する画素121aを選択するようにしてもよい。
 例えば、画素選択部202は、車両の近辺のモニタリングが必要な状況、又は、遠方のモニタリングがあまり必要でない状況において、狭画角の画素121aを選択する。車両の近辺のモニタリングが必要な状況としては、例えば、市街地を走行している場合、交差点付近を走行している場合、周囲の交通量が多い場合等が想定される。遠方のモニタリングがあまり必要でない状況としては、例えば、周囲が暗かったり、霧等で視界不良のため、遠くまで見通せない場合が想定される。
 一方、例えば、画素選択部202は、車両の近辺のモニタリングがあまり必要でない状況、又は、遠方のモニタリングが必要な状況において、広画角の画素121aを選択する。車両の近辺のモニタリングがあまり必要でない状況、又は、遠方のモニタリングが必要な状況としては、例えば、郊外を走行している場合、高速道や自動車専用道を走行している場合、周囲の交通量が少ない場合等が想定される。
 さらに、例えば、車両の速度に基づいて、使用する画素121aを選択するようにしてもよい。例えば、画素選択部202は、車両の速度が速くなるほど、遠方のモニタリングの必要性が高くなるため、広画角の画素121aを選択する。一方、例えば、画素選択部202は、車両の速度が遅くなるほど、車両の近辺のモニタリングの必要性が高くなるため、狭画角の画素121aを選択する。
 また、例えば、図16のモニタリング処理のステップS9において、ステップS4の処理で用いた広画角復元画像の次のフレームの狭画角復元画像を用いる例を示した。これに対して、例えば、ステップS6の撮像処理を省略し、ステップS9において、広画角復元画像と同じフレームの狭画角復元画像を用いるようにしてもよい。これにより、危険物の詳細な認識処理を迅速に実行することが可能になる。
 同様に、例えば、図25のモニタリング処理のステップS109において、ステップS104の処理で用いた広画角復元画像IRwの次のフレームの狭画角復元画像IRnを用いる例を示した。これに対して、例えば、ステップS106の撮像処理を省略し、ステップS109において、広画角復元画像IRwと同じフレームの狭画角復元画像IRnを用いるようにしてもよい。これにより、危険物の詳細な認識処理を迅速に実行することが可能になる。
 また、図26及び図27の例では、危険物に画角が重なる画素121aが選択される例を示したが、さらにその周囲の画角の画素121aが選択されるようにしてもよい。例えば、図26の画角N19乃至画角N21及び画角N26乃至画角N28の周囲の画角Nの画素Paがさらに選択されるようにしてもよい。
 逆に、危険物に重なる領域が小さい画角の画素121aが選択されないようにしてもよい。例えば、図26の画角N19及び画角N26は、危険物である車両301-6と重なる領域が非常に小さい。従って、画角N19の狭画角画素Pn19及び画角N26の狭画角画素Pn26が選択されないようにしてもよい。
  <撮像素子121に関する変形例>
 上述した撮像素子121の各画素121aの画角の大きさや種類は、その一例であり、変更することが可能である。
 例えば、以上の説明では、広画角の画素と狭画角の画素の2段階の画角の画素を撮像素子121に設ける例を示したが、3段階以上の画角の画素を設けるようにしてもよい。
 例えば、図19の例では、画角N1乃至画角N35が全て同じ大きさに設定されているが、異なる大きさに設定するようにしてもよい。例えば、車両に衝突又は接触する危険性が高い危険物が存在する確率が高い中央及び下方の領域の画角を狭くするようにしてもよい。逆に、例えば、車両に衝突又は接触する危険性が高い危険物が存在する確率が低い左上隅及び右上隅の領域における画角を広くするようにしてもよい。
 また、以上の説明では、撮像素子121が、常に全ての画角の検出画像を出力する例を示したが、モニタリングに用いる復元画像に対応する検出画像のみ出力するようにしてもよい。例えば、撮像素子121は、制御部122の制御の下に、画素選択部202が選択した画角の画素121aの検出信号のみを出力するようにしてもよい。これにより、撮像素子121の処理が軽減される。
 さらに、例えば、各画角の画素121aをそれぞれ独立に駆動させる駆動部を設け、各画角の画素121aによる撮像を同時に行ったり、個別に行ったりすることができるようにしてもよい。そして、例えば、モニタリングに用いる復元画像に対応する画素121aのみ撮像を行うようにしてもよい。これにより、撮像素子121の処理が軽減される。
 また、図5では、変調素子として遮光膜121bを用いたり、出力に寄与するフォトダイオードの組合せを変更したりすることにより画素毎に異なる入射角指向性を持たせる例を示したが、本技術では、例えば、図28に示されるように、撮像素子901の受光面を覆う光学フィルタ902を変調素子として用いて、各画素に入射角指向性を持たせるようにすることも可能である。
 具体的には、光学フィルタ902は、撮像素子901の受光面901Aから所定の間隔を空けて、受光面901Aの全面を覆うように配置されている。被写体面102からの光は、光学フィルタ902で変調されてから、撮像素子901の受光面901Aに入射する。
 例えば、光学フィルタ902には、図29に示される白黒の格子状のパターンを有する光学フィルタ902BWを用いることが可能である。光学フィルタ902BWには、光を透過する白パターン部と光を遮光する黒パターン部がランダムに配置されている。各パターンのサイズは、撮像素子901の画素のサイズとは独立して設定されている。
 図30は、光学フィルタ902BWを用いた場合の被写体面102上の点光源PA及び点光源PBからの光に対する撮像素子901の受光感度特性を示している。点光源PA及び点光源PBからの光は、それぞれ光学フィルタ902BWで変調されてから、撮像素子901の受光面901Aに入射する。
 例えば、点光源PAからの光に対する撮像素子901の受光感度特性は、波形Saのようになる。すなわち、光学フィルタ902BWの黒パターン部により影が生じるため、点光源PAからの光に対する受光面901A上の像に濃淡のパターンが生じる。同様に、点光源PBからの光に対する撮像素子901の受光感度特性は、波形Sbのようになる。すなわち、光学フィルタ902BWの黒パターン部により影が生じるため、点光源PBからの光に対する受光面901A上の像に濃淡のパターンが生じる。
 なお、点光源PAからの光と点光源PBからの光とは、光学フィルタ902BWの各白パターン部に対する入射角度が異なるため、受光面に対する濃淡のパターンの現れ方にズレが生じる。従って、撮像素子901の各画素は、被写体面102の各点光源に対して入射角指向性を持つようになる。
 この方式の詳細は、例えば、「M. Salman Asif、他4名、“Flatcam: Replacing lenses with masks and computation”、“2015 IEEE International Conference on Computer Vision Workshop (ICCVW)”、2015年、663-666ページ」に開示されている。
 なお、光学フィルタ902BWの黒パターン部の代わりに、図31の光学フィルタ902HWを用いるようにしてもよい。光学フィルタ902HWは、偏光方向が等しい直線偏光素子911Aと直線偏光素子911B、及び、1/2波長板912を備え、1/2波長板912は、直線偏光素子911Aと直線偏光素子911Bの間に挟まれている。1/2波長板912には、光学フィルタ902BWの黒パターン部の代わりに、斜線で示される偏光部が設けられ、白パターン部と偏光部がランダムに配置されている。
 直線偏光素子911Aは、点光源PAから出射されたほぼ無偏光の光のうち、所定の偏光方向の光のみを透過する。以下、直線偏光素子911Aが、偏光方向が図面に平行な光のみを透過するものとする。直線偏光素子911Aを透過した偏光光のうち、1/2波長板912の偏光部を透過した偏光光は、偏光面が回転されることにより、偏光方向が図面に垂直な方向に変化する。一方、直線偏光素子911Aを透過した偏光光のうち、1/2波長板912の白パターン部を透過した偏光光は、偏光方向が図面に平行な方向のまま変化しない。そして、直線偏光素子911Bは、白パターン部を透過した偏光光を透過し、偏光部を透過した偏光光をほとんど透過しない。従って、偏光部を透過した偏光光は、白パターン部を透過した偏光光より光量が減少する。これにより、光学フィルタBWを用いた場合とほぼ同様の濃淡のパターンが、撮像素子901の受光面901A上に生じる。
 また、図32のAに示されるように、光干渉マスクを光学フィルタ902LFとして用いることが可能である。被写体面102の点光源PA,PBから出射された光は、光学フィルタ902LFを介して撮像素子901の受光面901Aに照射される。図32のAの下方の拡大図に示されるように、光学フィルタ902LFの例えば光入射面には、波長程度の凹凸が設けられている。また、光学フィルタ902LFは、鉛直方向から照射された特定波長の光の透過が最大となる。被写体面102の点光源PA,PBから出射された特定波長の光の光学フィルタ902LFに対する入射角の変化(鉛直方向に対する傾き)が大きくなると光路長が変化する。ここで、光路長が半波長の奇数倍であるときは光が弱めあい、半波長の偶数倍であるときは光が強めあう。すなわち、点光源PA,PBから出射されて光学フィルタ902LFを透過した特定波長の透過光の強度は、図32のBに示すように、光学フィルタ902LFに対する入射角に応じて変調されて撮像素子901の受光面901Aに入射する。したがって、撮像素子901の各画素から出力される検出信号は、画素毎に各点光源の変調後の光強度を合成した信号となる。
 この方式の詳細は、例えば、特表2016-510910号公報に開示されている。
  <情報処理システム11の処理の分担に関する変形例>
 情報処理システム11の処理の分担は、適宜変更することが可能である。
 例えば、認識部23の処理は、制御部28、撮像部41、又は、カメラECU42で実行することも可能である。
 例えば、アラート制御部24の処理は、認識部23、制御部28、又は、カメラECU42で実行することも可能である。
 例えば、危険物検出部201の処理は、認識部23、撮像部41、又は、カメラECU42で実行することも可能である。
 例えば、画素選択部202の処理は、撮像部41又はカメラECU42で実行することが可能である。
 例えば、復元部203の処理は、撮像部41又はカメラECU42で実行することも可能である。
  <その他の変形例>
 本技術は、赤外光等の可視光以外の波長の光の撮像を行う撮像装置や撮像素子にも適用することが可能である。この場合、復元画像は、ユーザが目視して被写体を認識できる画像とはならず、ユーザが被写体を視認できない画像となる。この場合も、本技術を用いることにより、被写体を認識可能な画像処理装置等に対して、復元画像の画質が向上する。なお、通常の撮像レンズは遠赤外光を透過することが困難であるため、本技術は、例えば、遠赤外光の撮像を行う場合に有効である。したがって、復元画像は遠赤外光の画像であっても良く、また、遠赤外光に限らず、その他の可視光や非可視光の画像であっても良い。
 また、例えば、危険物が検出され、狭画角復元画像を用いて物体の認識処理が行われる場合、広画角復元画像の代わりに、狭画角復元画像が表示部25に表示されるようにしてもよい。また、例えば、広画角復元画像に狭画角復元画像が重畳された画像が表示部25に表示されるようにしてもよい。これにより、運転者は、危険物が存在する領域をより詳細に視認することが可能になる。
 さらに、例えば、動作制御部27による車両の動作の制御に応じて、警告表示が制御されるようにしてもよい。例えば、動作制御部27により回避動作が行われた場合、警告表示が行われるようにしてもよい。これにより、回避動作が行われた理由を運転者等の搭乗者に通知することができ、搭乗者に安心感を与えることができる。
 また、例えば、ディープラーニング等の機械学習を適用することにより、復元後の復元画像を用いずに、復元前の検出画像を用いて物体認識等を行うようにすることも可能である。この場合も、本技術を用いることにより、復元前の検出画像を用いた画像認識の精度が向上する。換言すれば、復元前の検出画像の画質が向上する。
 さらに、以上の説明では、車両の前方のモニタリングを行う場合を例に挙げたが、本技術は、車両の周囲のいずれの方向(例えば、後方、側方等)のモニタリングを行う場合にも適用することができる。
 また、本技術は、車両以外の移動体の周囲のモニタリングを行う場合にも適用することができる。そのような移動体として、例えば、自動二輪車、自転車、パーソナルモビリティ、飛行機、船舶、建設機械、農業機械(トラクター)等の移動体が想定される。また、本技術が適用可能な移動体には、例えば、ドローン、ロボット等のユーザが搭乗せずに移動する移動体も含まれる。
 <<4.その他>>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータ(例えば、制御部122等)などが含まれる。
 コンピュータが実行するプログラムは、例えば、パッケージメディア等としての記録媒体に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 さらに、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本技術は、以下のような構成も取ることができる。
(1)
 撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択する画素選択部と、
 選択された画素を用いて、所定の処理を実行する制御部と
 を備える情報処理装置。
(2)
 前記制御部は、
  選択された画素の前記検出信号に基づく検出画像を用いて、物体認識を行う認識部を
 備える前記(1)に記載の情報処理装置。
(3)
 前記画素選択部は、物体認識の結果に基づいて、使用する画素を選択する
 前記(2)に記載の情報処理装置。
(4)
 前記認識部は、第1の画角の画素の前記検出信号に基づく第1の検出画像を用いて、物体認識を行い、
 前記画素選択部は、前記第1の検出画像を用いた物体認識の結果に基づいて、使用する画素を選択する
 前記(3)に記載の情報処理装置。
(5)
 前記画素選択部は、前記第1の画角より狭い第2の画角の画素を選択し、
 前記第2の画角の画素の前記検出信号に基づく第2の検出画像の解像度が、前記第1の検出画像より高い
 前記(4)に記載の情報処理装置。
(6)
 前記画素選択部は、前のフレームの前記検出画像を用いた物体認識の結果に基づいて、使用する画素を選択する
 前記(3)乃至(5)のいずれかに記載の情報処理装置。
(7)
 前記画素選択部は、認識された物体のうちの1つ以上に基づいて、使用する画素を選択する
 前記(3)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記画素選択部は、前記物体の少なくとも一部と画角が重なる画素を選択する
 前記(7)に記載の情報処理装置。
(9)
 前記画素選択部は、認識された物体の中から所定の条件に基づいて選択した物体に基づいて、使用する画素を選択する
 前記(7)又は(8)に記載の情報処理装置。
(10)
 前記制御部は、
  前記検出画像から復元画像を復元する復元部を
 さらに備え、
 前記認識部は、前記復元画像を用いて、物体認識を行う
 前記(2)乃至(9)のいずれかに記載の情報処理装置。
(11)
 前記復元画像の表示を制御する表示制御部を
 さらに備える前記(10)に記載の情報処理装置。
(12)
 前記表示制御部は、物体認識の結果に基づく警告表示の制御をさらに行う
 前記(11)に記載の情報処理装置。
(13)
 物体認識の結果に基づいて、移動体の動作の制御を行う動作制御部を
 さらに備える前記(2)乃至(12)のいずれかに記載の情報処理装置。
(14)
 前記移動体の動作の制御に応じて、警告表示の制御を行う表示制御部を
 さらに備える前記(13)に記載の情報処理装置。
(15)
 前記画素選択部は、前記移動体の速度、及び、前記移動体の周囲の状況のうち少なくとも1つに基づいて、使用する画素を選択する
 前記(13)又は(14)に記載の情報処理装置。
(16)
 前記制御部は、
  選択された画素の前記検出信号の前記撮像素子からの出力を制御する出力制御部を
 備える前記(1)乃至(15)のいずれかに記載の情報処理装置。
(17)
 情報処理装置が、
 撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択し、
 選択された画素を用いて、所定の処理を実行する
 情報処理方法。
(18)
 撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択し、
 選択された画素を用いて、所定の処理を実行する
 処理をコンピュータに実行させるためのプログラム。
(19)
 撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子と、
 情報処理装置と
 を備え、
 前記情報処理装置は、
  前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択する画素選択部と、
  選択された画素を用いて、所定の処理を実行する制御部と
 を備える
 情報処理システム。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 11 情報処理システム, 21 カメラモジュール, 23 認識部, 24 アラート制御部, 25 表示部, 26 表示制御部, 27 動作制御部, 28 制御部, 41 撮像部, 121 撮像素子, 121a 画素, 122 制御部, 201 危険物検出部, 202 画素選択部, 203 復元部

Claims (19)

  1.  撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択する画素選択部と、
     選択された画素を用いて、所定の処理を実行する制御部と
     を備える情報処理装置。
  2.  前記制御部は、
      選択された画素の前記検出信号に基づく検出画像を用いて、物体認識を行う認識部を
     備える請求項1に記載の情報処理装置。
  3.  前記画素選択部は、物体認識の結果に基づいて、使用する画素を選択する
     請求項2に記載の情報処理装置。
  4.  前記認識部は、第1の画角の画素の前記検出信号に基づく第1の検出画像を用いて、物体認識を行い、
     前記画素選択部は、前記第1の検出画像を用いた物体認識の結果に基づいて、使用する画素を選択する
     請求項3に記載の情報処理装置。
  5.  前記画素選択部は、前記第1の画角より狭い第2の画角の画素を選択し、
     前記第2の画角の画素の前記検出信号に基づく第2の検出画像の解像度が、前記第1の検出画像より高い
     請求項4に記載の情報処理装置。
  6.  前記画素選択部は、前のフレームの前記検出画像を用いた物体認識の結果に基づいて、使用する画素を選択する
     請求項3に記載の情報処理装置。
  7.  前記画素選択部は、認識された物体のうちの1つ以上に基づいて、使用する画素を選択する
     請求項3に記載の情報処理装置。
  8.  前記画素選択部は、前記物体の少なくとも一部と画角が重なる画素を選択する
     請求項7に記載の情報処理装置。
  9.  前記画素選択部は、認識された物体の中から所定の条件に基づいて選択した物体に基づいて、使用する画素を選択する
     請求項7に記載の情報処理装置。
  10.  前記制御部は、
      前記検出画像から復元画像を復元する復元部を
     さらに備え、
     前記認識部は、前記復元画像を用いて、物体認識を行う
     請求項2に記載の情報処理装置。
  11.  前記復元画像の表示を制御する表示制御部を
     さらに備える請求項10に記載の情報処理装置。
  12.  前記表示制御部は、物体認識の結果に基づく警告表示の制御をさらに行う
     請求項11に記載の情報処理装置。
  13.  物体認識の結果に基づいて、移動体の動作の制御を行う動作制御部を
     さらに備える請求項2に記載の情報処理装置。
  14.  前記移動体の動作の制御に応じて、警告表示の制御を行う表示制御部を
     さらに備える請求項13に記載の情報処理装置。
  15.  前記画素選択部は、前記移動体の速度、及び、前記移動体の周囲の状況のうち少なくとも1つに基づいて、使用する画素を選択する
     請求項13に記載の情報処理装置。
  16.  前記制御部は、
      選択された画素の前記検出信号の前記撮像素子からの出力を制御する出力制御部を
     備える請求項1に記載の情報処理装置。
  17.  情報処理装置が、
     撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択し、
     選択された画素を用いて、所定の処理を実行する
     情報処理方法。
  18.  撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子の前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択し、
     選択された画素を用いて、所定の処理を実行する
     処理をコンピュータに実行させるためのプログラム。
  19.  撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示し、複数の画角のうちのいずれかに対応する検出信号を出力する画素を複数備える撮像素子と、
     情報処理装置と
     を備え、
     前記情報処理装置は、
      前記検出信号から得られる情報に基づいて、前記複数の画角の画素の中から使用する画素を選択する画素選択部と、
      選択された画素を用いて、所定の処理を実行する制御部と
     を備える
     情報処理システム。
PCT/JP2020/038857 2019-10-29 2020-10-15 情報処理装置、情報処理方法、プログラム、及び、情報処理システム WO2021085152A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080074259.4A CN114586334A (zh) 2019-10-29 2020-10-15 信息处理装置、信息处理方法、程序和信息处理系统
US17/762,369 US20220345630A1 (en) 2019-10-29 2020-10-15 Information processing apparatus, information processing method, program, and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019196352 2019-10-29
JP2019-196352 2019-10-29

Publications (1)

Publication Number Publication Date
WO2021085152A1 true WO2021085152A1 (ja) 2021-05-06

Family

ID=75715928

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/038857 WO2021085152A1 (ja) 2019-10-29 2020-10-15 情報処理装置、情報処理方法、プログラム、及び、情報処理システム

Country Status (3)

Country Link
US (1) US20220345630A1 (ja)
CN (1) CN114586334A (ja)
WO (1) WO2021085152A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11312300A (ja) * 1998-04-27 1999-11-09 Matsushita Electric Ind Co Ltd 車載カメラ
JP2007288444A (ja) * 2006-04-14 2007-11-01 Toyota Motor Corp 車載カメラ制御装置および車載カメラ制御方法。
JP2008254710A (ja) * 2007-04-09 2008-10-23 Fujitsu Ten Ltd 障害物検知装置
WO2019106999A1 (ja) * 2017-11-30 2019-06-06 ソニー株式会社 撮像装置および方法、並びに、撮像素子

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8125559B2 (en) * 2008-05-25 2012-02-28 Avistar Communications Corporation Image formation for large photosensor array surfaces
JP6547292B2 (ja) * 2014-02-05 2019-07-24 株式会社リコー 画像処理装置、機器制御システム、および画像処理プログラム
US10984287B2 (en) * 2018-05-14 2021-04-20 Panasonic Intellectual Property Management Co., Ltd. Learning device, learning method, and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11312300A (ja) * 1998-04-27 1999-11-09 Matsushita Electric Ind Co Ltd 車載カメラ
JP2007288444A (ja) * 2006-04-14 2007-11-01 Toyota Motor Corp 車載カメラ制御装置および車載カメラ制御方法。
JP2008254710A (ja) * 2007-04-09 2008-10-23 Fujitsu Ten Ltd 障害物検知装置
WO2019106999A1 (ja) * 2017-11-30 2019-06-06 ソニー株式会社 撮像装置および方法、並びに、撮像素子

Also Published As

Publication number Publication date
US20220345630A1 (en) 2022-10-27
CN114586334A (zh) 2022-06-03

Similar Documents

Publication Publication Date Title
US11888004B2 (en) Imaging apparatus having phase difference detection pixels receiving light transmitted through a same color filter
JP2018201015A (ja) 固体撮像装置、及び電子機器
JP7370413B2 (ja) 固体撮像装置、及び電子機器
WO2018221443A1 (ja) 固体撮像装置、及び電子機器
US20230402475A1 (en) Imaging apparatus and electronic device
US11863892B2 (en) Imaging unit and electronic apparatus with first and second light blocking films
JP2017157804A (ja) 撮像装置
US11928848B2 (en) Light receiving device, solid-state imaging apparatus, electronic equipment, and information processing system
WO2021085173A1 (ja) 撮像素子、表示装置、及び、撮像システム
US10708556B2 (en) Imaging device and imaging system
WO2020218074A1 (ja) 撮像システム及び撮像素子
WO2021085152A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、情報処理システム
JP7484904B2 (ja) 撮像素子、信号処理装置、信号処理方法、プログラム、及び、撮像装置
WO2021020156A1 (ja) 撮像素子、撮像装置、信号処理装置、及び、信号処理方法
CN108989716A (zh) 成像装置、信号处理装置和移动体
JP7005331B2 (ja) 撮像装置及び撮像システム
JP2024000625A (ja) 固体撮像装置および電子機器
JP2023027703A (ja) 撮像装置、電子機器及び情報処理方法
JP2023027618A (ja) 撮像装置及び電子機器
CN113169198A (zh) 摄像器件和电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20880761

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20880761

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP