WO2021085173A1 - 撮像素子、表示装置、及び、撮像システム - Google Patents

撮像素子、表示装置、及び、撮像システム Download PDF

Info

Publication number
WO2021085173A1
WO2021085173A1 PCT/JP2020/039053 JP2020039053W WO2021085173A1 WO 2021085173 A1 WO2021085173 A1 WO 2021085173A1 JP 2020039053 W JP2020039053 W JP 2020039053W WO 2021085173 A1 WO2021085173 A1 WO 2021085173A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
image
light
vehicle
pixels
Prior art date
Application number
PCT/JP2020/039053
Other languages
English (en)
French (fr)
Inventor
佳孝 宮谷
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP20882261.9A priority Critical patent/EP4054170A4/en
Priority to JP2021554362A priority patent/JP7444174B2/ja
Priority to KR1020227012326A priority patent/KR20220088693A/ko
Priority to CN202080074164.2A priority patent/CN114586342A/zh
Priority to US17/769,764 priority patent/US20220377275A1/en
Publication of WO2021085173A1 publication Critical patent/WO2021085173A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/778Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/006Side-view mirrors, e.g. V-shaped mirrors located at the front or rear part of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/25Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the sides of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/955Computational photography systems, e.g. light-field imaging systems for lensless imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1238Mirror assemblies combined with other articles, e.g. clocks with vanity mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/82Camera processing pipelines; Components thereof for controlling camera response irrespective of the scene brightness, e.g. gamma correction
    • H04N23/83Camera processing pipelines; Components thereof for controlling camera response irrespective of the scene brightness, e.g. gamma correction specially adapted for colour signals

Definitions

  • the present technology relates to an image pickup device, a display device, and an image pickup system, and more particularly to an image pickup element, a display device, and an image pickup system suitable for use in realizing an electronic side mirror of a vehicle.
  • the electronic side mirror is a system in which a camera captures a range similar to the range reflected by a conventional side mirror (diagonally behind the vehicle) and displays the obtained image on a monitor installed in the vehicle (for example, Patent Documents). See 1 and 2).
  • Patent Documents 1 and 2 the camera is installed at the same position as the conventional door mirror installation position, and the camera protrudes in the left-right direction of the vehicle body outside the vehicle. Therefore, as with the conventional door mirror, there is a risk that the camera will be hindered when passing through a narrow place, or that it will be damaged by contact or the like.
  • the imaging direction will face the side of the vehicle, making it difficult to image diagonally behind the vehicle.
  • This technology was made in view of such a situation, and is intended to increase the degree of freedom in installing the image pickup device used for the electronic side mirror.
  • the image sensor on the first side surface of the present technology receives incident light from an incident subject without going through either the image pickup lens or the pinhole, and a detection signal indicating an output pixel value modulated by the incident angle of the incident light.
  • the pixels are provided so that the light receiving surface faces the side of the vehicle, and the average of the center of gravity of the incident angle directional indicating the directivity of the plurality of pixels with respect to the incident angle is the pixel. It is biased in one direction from the center of.
  • the display device on the second side surface of the present technology is provided inside the vehicle diagonally to the left or diagonally to the right of the driver, and is provided on a display surface in which a plurality of display elements are arranged and on the display surface for imaging. It includes a plurality of pixels that receive incident light from an incident subject without going through either a lens or a pinhole and output a detection signal indicating an output pixel value modulated by the incident angle of the incident light.
  • the image pickup system on the third aspect of the present technology receives incident light from an incident subject without going through either an imaging lens or a pinhole, and a detection signal indicating an output pixel value modulated by the incident angle of the incident light.
  • the pixels are provided so that the light receiving surface faces the side of the vehicle, and the average of the center of gravity of the incident angle directional indicating the directivity of the plurality of pixels with respect to the incident angle is the pixel. It includes an image pickup element that is biased in one direction from the center of the pixel, and a display unit that displays a restored image restored from a detected image based on the detection signals of the plurality of pixels.
  • a direction biased from the side of the vehicle is imaged.
  • an image is displayed by a plurality of display elements provided on the display surface, and images are displayed from the plurality of pixels provided on the display surface without using an imaging lens or a pinhole.
  • the incident light from the incident subject is received, and detection signals indicating output pixel values modulated by the incident angle of the incident light are output.
  • a biased direction is imaged from the side of the vehicle, and a restored image restored from the detected image obtained as a result of the imaging is displayed.
  • FIG. 1 It is a block diagram which shows the structural example of the driver recognition part of the vehicle-mounted system of FIG. It is a figure which shows the configuration example of the hardware of a camera module. It is a figure which shows the installation example of a camera module, a display part, and an image pickup part. It is a figure which shows the example of the mounting method of a camera module. It is a figure which shows the 1st Embodiment of the pixel array part of the image pickup device of FIG. It is a figure which shows the example of the shading pattern of the pixel of FIG. It is a flowchart for demonstrating 1st Embodiment of an electronic side mirror display control process. It is a flowchart for demonstrating the 2nd Embodiment of the electronic side mirror display control processing.
  • FIG. 1 is a block diagram showing a configuration example of an in-vehicle system 11 to which the present technology is applied.
  • the in-vehicle system 11 is a system provided in the vehicle to control the electronic side mirrors and the like.
  • the in-vehicle system 11 includes a camera module 21L, a camera module 21R, a communication unit 22, a driver recognition unit 23, an alert control unit 24, a display unit 25L, a display unit 25R, a display control unit 26, and a control unit 27.
  • the camera module 21L, the camera module 21R, the communication unit 22, the driver recognition unit 23, the alert control unit 24, the display control unit 26, and the control unit 27 are connected to each other via the bus B1.
  • the camera module 21L performs processing such as imaging and image recognition on the left side and the rear of the vehicle, as will be described later.
  • the camera module 21L includes an imaging unit 41L, a camera ECU 42L, and an MCU (MicroControlUnit) 43L.
  • the image pickup unit 41L is composed of an image pickup lens and an LLC (Lens Less Camera) that does not use a pinhole.
  • the imaging unit 41L captures images on the left side and the rear of the vehicle, and restores a restored image in which an image of the subject is formed from the obtained detected image.
  • the imaging unit 41L supplies a restored image (hereinafter, referred to as a left side image) to the camera ECU 42L as a sensing image that senses the left side and the rear side of the vehicle.
  • the camera ECU 42L performs image quality adjustment processing such as gain adjustment, white balance adjustment, HDR (High Dynamic Range) processing, and traffic signal flicker correction processing on the left side image.
  • image quality adjustment process is not limited to being executed by the camera ECU 42L, and may be executed inside the image pickup unit 41L.
  • the camera ECU 42L performs object recognition processing on the left side image and detects dangerous objects (for example, pedestrians, bicycles, motorcycles, vehicles, etc.) on the left side and the rear side of the vehicle.
  • the camera ECU 42L supplies the MCU 43L with a left side image and data indicating a detection result of a dangerous substance.
  • the MCU43L converts the data supplied from the camera ECU 42L into data in a communication format and outputs the data to the bus B1. Further, the MCU 43L converts the data received from the bus B1 into data in the format for the camera ECU 42L and supplies the data to the camera ECU 42L.
  • the camera module 21R performs processing such as imaging and image recognition on the right side and the rear side of the vehicle, as will be described later.
  • the camera module 21R includes an imaging unit 41R, a camera ECU 42R, and an MCU (MicroControlUnit) 43R.
  • the image pickup unit 41R is composed of an image pickup lens and an LLC (Lens Less Camera) that does not use a pinhole.
  • the imaging unit 41R captures images on the right side and the rear of the vehicle, and restores a restored image in which an image of the subject is formed from the obtained detected image.
  • the imaging unit 41R supplies a restored image (hereinafter, referred to as a right side image) to the camera ECU 42R as a sensing image that senses the right side and the rear side of the vehicle.
  • the camera ECU 42R performs image quality adjustment processing such as gain adjustment, white balance adjustment, HDR (High Dynamic Range) processing, and traffic signal flicker correction processing on the right side image.
  • image quality adjustment process is not limited to being executed by the camera ECU 42R, and may be executed inside the image pickup unit 41R.
  • the camera ECU 42R performs object recognition processing on the right side image and detects dangerous objects (for example, pedestrians, bicycles, motorcycles, vehicles, etc.) on the right side and the rear side of the vehicle.
  • the camera ECU 42R supplies the MCU 43R with a right side image and data showing a detection result of a dangerous substance.
  • the MCU43R converts the data supplied from the camera ECU 42R into data in a communication format and outputs the data to the bus B1. Further, the MCU 43R converts the data received from the bus B1 into data in the format for the camera ECU 42R and supplies the data to the camera ECU 42R.
  • the camera module 21 when it is not necessary to distinguish between the camera module 21L and the camera module 21R, it is simply referred to as the camera module 21.
  • the imaging unit 41 when it is not necessary to distinguish between the imaging unit 41L and the imaging unit 41R, it is simply referred to as the imaging unit 41.
  • the camera ECU 42 when it is not necessary to distinguish between the camera ECU 42L and the camera ECU 42R, it is simply referred to as the camera ECU 42.
  • MCU43L and MCU43R when it is not necessary to distinguish between MCU43L and MCU43R, it is simply referred to as MCU43.
  • a side image when it is not necessary to distinguish between the left side image and the right side image.
  • the communication unit 22 communicates with neighboring vehicles, a portable terminal device owned by a pedestrian, a roadside unit, and an external server by various wireless communications such as vehicle-to-vehicle communication, vehicle-to-vehicle communication, and road-to-vehicle communication. Send and receive information with.
  • the driver recognition unit 23 recognizes the state of the driver who drives the vehicle (monitors the driver), and outputs data indicating the recognition result to the bus B1.
  • the alert control unit 24 performs a process of superimposing a warning display calling attention to the dangerous substance on the left side image based on the detection result of the dangerous substance on the left side and the rear of the vehicle by the camera ECU 42L.
  • the alert control unit 24 outputs the left side image on which the warning display is superimposed to the bus B1.
  • the alert control unit 24 performs a process of superimposing a warning display calling attention to the dangerous substance on the right side image based on the detection result of the dangerous substance on the right side and the rear of the vehicle by the camera ECU 42R.
  • the alert control unit 24 outputs the right side image on which the warning display is superimposed to the bus B1.
  • the alert control unit 24 outputs the left side image and the right side image to the bus B1 as they are without superimposing the warning display.
  • the display unit 25L is composed of, for example, a display such as an organic EL display or a liquid crystal display, and displays a left side image.
  • the display unit 25R is composed of, for example, a display such as an organic EL display or a liquid crystal display, and displays a right side image.
  • the display unit 25 when it is not necessary to distinguish between the display unit 25L and the display unit 25R, it is simply referred to as the display unit 25.
  • the display control unit 26 controls the display process by the display unit 25L and the display unit 25R.
  • the display control unit 26 controls the display range of the left side image by the display unit 25L.
  • the display control unit 26 controls the display of the warning display by controlling the display of the left side image on which the warning display is superimposed by the display unit 25.
  • the display control unit 26 controls the display range of the right side image by the display unit 25R.
  • the display control unit 26 controls the display of the warning display by controlling the display of the right side image on which the warning display is superimposed by the display unit 25.
  • the control unit 27 includes, for example, various processors, controls each unit of the in-vehicle system 11, and executes various processes.
  • FIG. 2 is a block diagram showing a configuration example of the imaging unit 41 of the camera module 21.
  • the image pickup unit 41 includes an image pickup element 121, a restoration unit 122, a control unit 123, a storage unit 124, and a communication unit 125. Further, the restoration unit 122, the control unit 123, the storage unit 124, and the communication unit 125 form a signal processing control unit 111 that performs signal processing, control of the imaging unit 41, and the like.
  • the imaging unit 41 does not include an imaging lens (imaging lens free).
  • the image sensor 121, the restoration unit 122, the control unit 123, the storage unit 124, and the communication unit 125 are connected to each other via the bus B2, and data is transmitted / received via the bus B2.
  • the description of the bus B2 when each part of the imaging unit 41 transmits / receives data via the bus B2 will be omitted.
  • the communication unit 125 supplies data to the control unit 123 via the bus B2, the communication unit 125 supplies the data to the control unit 123.
  • the image sensor 121 is an image sensor in which the detection sensitivity of each pixel has an incident angle directivity, and outputs an image composed of a detection signal indicating a detection signal level according to the amount of incident light to the restoration unit 122 or the bus B2.
  • the incident angle directivity means that the light receiving sensitivity characteristic according to the incident angle of the incident light to each pixel is different for each pixel.
  • the light-receiving sensitivity characteristics of all the pixels do not have to be completely different, and the light-receiving sensitivity characteristics of some pixels may be the same.
  • the image sensor 121 may have the same basic structure as that of a general image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • CMOS Complementary Metal Oxide Semiconductor
  • the image sensor 121 has a configuration in which each pixel constituting the pixel array unit is different from that of a general one, and has a configuration in which incident angle directivity is provided, for example, as will be described later with reference to FIGS. 4 to 6. doing.
  • the image sensor 121 has different (changes) light receiving sensitivities depending on the incident angle of the incident light for each pixel, and has incident angle directivity with respect to the incident angle of the incident light on a pixel-by-pixel basis.
  • the subject surface 102 of the subject in the upper left of FIG. 3 is composed of a point light source PA to a point light source PC, and the point light source PA to the point light source PC emits a plurality of light rays having a light intensity a to a light intensity c, respectively.
  • the image pickup device 121 includes pixels having different incident angle directivities (hereinafter, referred to as pixel Pa to pixel Pc) at positions Pa to position Pc.
  • light rays of the same light intensity emitted from the same point light source are incident on each pixel of the image sensor 121.
  • light rays having a light intensity a emitted from the point light source PA are incident on the pixels Pa to the pixels Pc of the image sensor 121, respectively.
  • the light rays emitted from the same point light source are incident at different angles of incidence for each pixel.
  • the light rays from the point light source PA are incident on the pixels Pa to the pixels Pc at different angles of incidence.
  • the incident angle directivity of the pixels Pa to Pc is different, light rays of the same light intensity emitted from the same point light source are detected in each pixel with different sensitivities. As a result, light rays having the same light intensity are detected at different detection signal levels for each pixel. For example, the detection signal level for a light ray having a light intensity a from the point light source PA is a different value for each pixel Pa to pixel Pc.
  • the light receiving sensitivity level of each pixel with respect to the light rays from each point light source is obtained by multiplying the light intensity of the light rays by a coefficient indicating the light receiving sensitivity (that is, the incident angle directivity) with respect to the incident angle of the light rays.
  • the detection signal level of the pixel Pa with respect to the light ray from the point light source PA is obtained by multiplying the light intensity a of the light ray of the point light source PA by a coefficient indicating the incident angle directivity of the pixel Pa with respect to the incident angle of the light ray with respect to the pixel Pa. It is required by.
  • the detection signal levels DA, DB, and DC of the pixels Pc, Pb, and Pa are represented by the following equations (1) to (3), respectively.
  • DA ⁇ 1 ⁇ a + ⁇ 1 ⁇ b + ⁇ 1 ⁇ c ⁇ ⁇ ⁇ (1)
  • DB ⁇ 2 ⁇ a + ⁇ 2 ⁇ b + ⁇ 2 ⁇ c ⁇ ⁇ ⁇ (2)
  • DC ⁇ 3 ⁇ a + ⁇ 3 ⁇ b + ⁇ 3 ⁇ c ⁇ ⁇ ⁇ (3)
  • the coefficient ⁇ 1 is a coefficient indicating the incident angle directivity of the pixel Pc with respect to the incident angle of the light ray from the point light source PA to the pixel Pc, and is set according to the incident angle. Further, ⁇ 1 ⁇ a indicates the detection signal level of the pixel Pc with respect to the light beam from the point light source PA.
  • the coefficient ⁇ 1 is a coefficient indicating the incident angle directivity of the pixel Pc with respect to the incident angle of the light ray from the point light source PB to the pixel Pc, and is set according to the incident angle. Further, ⁇ 1 ⁇ b indicates the detection signal level of the pixel Pc with respect to the light beam from the point light source PB.
  • the coefficient ⁇ 1 is a coefficient indicating the incident angle directivity of the pixel Pc with respect to the incident angle of the light ray from the point light source PC to the pixel Pc, and is set according to the incident angle. Further, ⁇ 1 ⁇ c indicates the detection signal level of the pixel Pc with respect to the light beam from the point light source PC.
  • the detection signal level DA of the pixel Pa determines the light intensities a, b, and c of the light rays from the point light sources PA, PB, and PC in the pixel Pc, and the incident angle directivity according to each incident angle. It is obtained by the sum of products with the indicated coefficients ⁇ 1, ⁇ 1 and ⁇ 1.
  • the detection signal level DB of the pixel Pb includes the light intensities a, b, and c of the light rays from the point light sources PA, PB, and PC in the pixel Pb, and their respective incidents. It is obtained by the sum of products with the coefficients ⁇ 2, ⁇ 2, and ⁇ 2 that indicate the incident angle directivity according to the angle.
  • the detection signal level DC of the pixel Pc is the light intensities a, b, c of the light rays from the point light sources PA, PB, and PC in the pixel Pa, and their respective incident angles. It is obtained by the sum of products with the coefficients ⁇ 2, ⁇ 2, and ⁇ 2 indicating the incident angle directivity according to.
  • the detection signal levels DA, DB, and DC of the pixels Pa, Pb, and Pc are the light of light rays emitted from the point light sources PA, PB, and PC, respectively, as shown in the equations (1) to (3).
  • the strengths a, b, and c are mixed. Therefore, as shown in the upper right of FIG. 3, the detection signal level in the image sensor 121 is different from the light intensity of each point light source on the subject surface 102. Therefore, the image obtained by the image sensor 121 is different from the image of the subject surface 102.
  • the light intensity a to the light intensity c of the light rays of each point light source PA or point light source PC can be obtained. Then, by arranging the pixels having the pixel values corresponding to the obtained light intensity a to the light intensity c according to the arrangement (relative position) of the point light source PA to the point light source PC, as shown in the lower right of FIG. , The restored image in which the image of the subject surface 102 is formed is restored.
  • a coefficient set (for example, coefficients ⁇ 1, ⁇ 1, ⁇ 1) in which the coefficients are summarized for each equation constituting the simultaneous equations is referred to as a coefficient set.
  • a set of a plurality of coefficient sets corresponding to a plurality of equations included in the simultaneous equations (for example, coefficient set ⁇ 1, ⁇ 1, ⁇ 1, coefficient set ⁇ 2, ⁇ 2, ⁇ 2, coefficient set ⁇ 3, ⁇ 3, ⁇ 3) is used as a coefficient. Called a set group.
  • the incident angle of the light beam from each point light source of the subject surface 102 to the image sensor 121 is different, so that a different coefficient set is set for each subject distance. A group is needed.
  • a coefficient set group for each distance (subject distance) from the image pickup element 121 to the subject surface is prepared in advance, and the coefficient set group is switched for each subject distance to create simultaneous equations.
  • the coefficient set group is switched for each subject distance to create simultaneous equations.
  • each pixel 121a needs to be set so as to ensure the independence of the simultaneous equations described above.
  • the image output by the image sensor 121 is an image composed of detection signals in which the image of the subject is not formed as shown in the upper right of FIG. 3, the subject cannot be visually recognized. That is, the detection image composed of the detection signals output by the image sensor 121 is a set of pixel signals, but is an image in which the subject cannot be recognized (the subject cannot be visually recognized) even if the user visually recognizes the subject.
  • an image composed of a detection signal in which an image of a subject is not formed, that is, an image captured by the image sensor 121 is referred to as a detection image.
  • incident angle directivity does not necessarily have to be different for each pixel, and pixels having the same incident angle directivity may be included.
  • the restoration unit 122 corresponds to, for example, the subject distance corresponding to the distance from the image sensor 121 in FIG. 3 to the subject surface 102 (subject surface corresponding to the restored image), and the coefficients ⁇ 1 to ⁇ 3 described above.
  • a coefficient set group corresponding to ⁇ 1 to ⁇ 3 and ⁇ 1 to ⁇ 3 is acquired from the storage unit 124.
  • the restoration unit 122 is represented by the above equations (1) to (3) using the detection signal level of each pixel of the detection image output from the image sensor 121 and the acquired coefficient set group. Create simultaneous equations.
  • the restoration unit 122 obtains the pixel value of each pixel constituting the image in which the image of the subject shown in the lower right of FIG. 3 is formed by solving the created simultaneous equations. As a result, an image in which the user can visually recognize the subject (the subject can be visually recognized) is restored from the detected image.
  • the image restored from this detected image will be referred to as a restored image.
  • the restored image is not an image that can identify the subject like a normal image, but in this case as well, the restored image It is called.
  • a restored image which is an image in which an image of a subject is formed, and an image before color separation or simultaneous processing such as demosaic processing is referred to as a RAW image, and is detected by the image sensor 121.
  • the image is distinguished as an image that follows the arrangement of color filters but is not a RAW image.
  • the number of pixels of the image sensor 121 and the number of pixels of the pixels constituting the restored image do not necessarily have to be the same.
  • the restoration unit 122 performs demosaic processing, ⁇ correction, white balance adjustment, conversion processing to a predetermined compression format, etc. on the restored image as necessary. Then, the restoration unit 122 outputs the restored image to the bus B2.
  • the control unit 123 includes, for example, various processors, controls each unit of the imaging unit 41, and executes various processes.
  • the storage unit 124 includes one or more storage devices such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a flash memory, and stores, for example, a program or data used for processing of the imaging unit 41.
  • the storage unit 124 stores a set of coefficients corresponding to the above-mentioned coefficients ⁇ 1 to ⁇ 3, ⁇ 1 to ⁇ 3, ⁇ 1 to ⁇ 3 in association with various subject distances. More specifically, for example, the storage unit 124 stores a coefficient set group including a coefficient for each pixel 121a of the image sensor 121 for each point light source set on the subject surface 102 for each subject surface 102 at each subject distance. doing.
  • the communication unit 125 communicates with the camera ECU 42L by a predetermined communication method.
  • FIG. 4 shows a front view of a part of the pixel array portion of the image sensor 121.
  • FIG. 4 shows an example in which the number of pixels in the pixel array unit is 6 vertical pixels ⁇ 6 horizontal pixels, but the number of pixels in the pixel array unit is not limited to this.
  • the configuration example of the pixel array unit in FIG. 4 is for explaining the first configuration example of the image sensor 121, and the configuration example of the actual pixel array unit will be described later.
  • a light-shielding film 121b which is one of the modulation elements, is provided for each pixel 121a so as to cover a part of the light-receiving region (light-receiving surface) of the photodiode, and each pixel 121a is provided with a light-shielding film 121b.
  • the incident light is optically modulated according to the incident angle. Then, for example, by providing the light-shielding film 121b in a different range for each pixel 121a, the light receiving sensitivity of the incident light with respect to the incident angle becomes different for each pixel 121a, and each pixel 121a has a different incident angle directivity. ..
  • the light-shielding area of the photodiode is different in the light-shielding area (light-shielding area (position)) depending on the light-shielding film 121b-1 and the light-shielding film 121b-2 provided. And at least one of the shaded areas is different). That is, in the pixel 121a-1, a light-shielding film 121b-1 is provided so as to block a part of the left side of the light receiving region of the photodiode by a predetermined width.
  • a light-shielding film 121b-2 is provided so as to block a part of the right side of the light-receiving region by a predetermined width.
  • the width of the light-shielding film 121b-1 to block the light-receiving area of the photodiode and the width of the light-shielding film 121b-2 to block the light-receiving area of the photodiode may be different or the same. ..
  • the light-shielding film 121b is randomly arranged in the pixel array unit so as to block light in a different range of the light-receiving region for each pixel.
  • the upper part of FIG. 5 is a side sectional view of the first configuration example of the image sensor 121
  • the middle part of FIG. 5 is a top view of the first configuration example of the image sensor 121.
  • the side sectional view of the upper part of FIG. 5 is an AB cross section in the middle part of FIG.
  • the lower part of FIG. 5 is an example of a circuit configuration of the image sensor 121.
  • the adjacent pixels 121a-1 and 121a-2 are of a so-called back-illuminated type in which a wiring layer Z12 is provided at the bottom layer in the drawing and a photoelectric conversion layer Z11 is provided above the wiring layer Z12.
  • pixels 121a-1 and 121a-2 when it is not necessary to distinguish between pixels 121a-1 and 121a-2, the description of the number at the end of the code is omitted, and the term is simply referred to as pixel 121a.
  • the numbers and alphabets at the end of the reference numerals may be omitted for other configurations as well.
  • FIG. 5 shows only a side view and a top view of two pixels constituting the pixel array portion of the image sensor 121, and it goes without saying that a larger number of pixels 121a are arranged. Is omitted.
  • the pixels 121a-1 and 121a-2 are provided with photodiodes 121e-1 and 121e-2 as photoelectric conversion elements in the photoelectric conversion layer Z11, respectively. Further, on the photodiodes 121e-1 and 121e-2, on-chip lenses 121c-1, 121c-2 and color filters 121d-1 and 121d-2 are laminated from above, respectively.
  • the on-chip lenses 121c-1 and 121c-2 collect the incident light on the photodiodes 121e-1 and 121e-2.
  • the color filters 121d-1 and 121d-2 are optical filters that transmit light of specific wavelengths such as red, green, blue, infrared and white. In the case of white, the color filters 121d-1 and 121d-2 may or may not be transparent filters.
  • light-shielding films 121g-1 to 121g-3 are formed at the boundaries between the pixels, and as shown in FIG. 5, for example, the incident light It suppresses the occurrence of crosstalk when L is incident on adjacent pixels.
  • the light-shielding films 121b-1 and 121b-2 shield a part of the light-receiving surface S when viewed from the upper surface.
  • the light receiving surface S of the photodiodes 121e-1 and 121e-2 in the pixels 121a-1 and 121a-2 different ranges are shielded by the light-shielding films 121b-1 and 121b-2, whereby different incident angles are obtained.
  • the directivity is set independently for each pixel.
  • the light-shielding range does not have to be different for all the pixels 121a of the image sensor 121, and some pixels 121a may have the same light-shielding range.
  • the light-shielding film 121b-1 and the light-shielding film 121g-1 are connected to each other and are L-shaped when viewed from the side surface.
  • the light-shielding film 121b-2 and the light-shielding film 121g-2 are connected to each other and are formed in an L shape when viewed from the side surface.
  • the light-shielding film 121b-1, the light-shielding film 121b-2, and the light-shielding film 121g-1 to 121g-3 are made of a metal, for example, tungsten (W), aluminum (Al), or Al and copper. It is composed of an alloy with (Cu).
  • the light-shielding film 121b-1, the light-shielding film 121b-2, and the light-shielding film 121g-1 to 121g-3 are simultaneously formed by the same metal as the wiring in the same process as the process in which the wiring is formed in the semiconductor process. It may be done.
  • the film thicknesses of the light-shielding film 121b-1, the light-shielding film 121b-2, and the light-shielding film 121g-1 to 121g-3 do not have to be the same depending on the position.
  • the pixel 121a includes a photodiode 161 (corresponding to the photodiode 121e), a transfer transistor 162, an FD (Floating Diffusion) portion 163, a selection transistor 164, and an amplification transistor 165. , And a reset transistor 166, which is connected to the current source 168 via a vertical signal line 167.
  • the anode electrode of the photodiode 161 is grounded, and the cathode electrode is connected to the gate electrode of the amplification transistor 165 via the transfer transistor 162.
  • the transfer transistor 162 is driven according to the transfer signal TG. For example, when the transfer signal TG supplied to the gate electrode of the transfer transistor 162 becomes high level, the transfer transistor 162 is turned on. As a result, the electric charge stored in the photodiode 161 is transferred to the FD unit 163 via the transfer transistor 162.
  • the FD unit 163 is a floating diffusion region having a charge capacitance C1 provided between the transfer transistor 162 and the amplification transistor 165, and temporarily stores the charge transferred from the photodiode 161 via the transfer transistor 162.
  • the FD unit 163 is a charge detection unit that converts an electric charge into a voltage, and the electric charge stored in the FD unit 163 is converted into a voltage in the amplification transistor 165.
  • the selection transistor 164 is driven according to the selection signal SEL, and turns on when the selection signal SEL supplied to the gate electrode reaches a high level to connect the amplification transistor 165 and the vertical signal line 167.
  • the amplification transistor 165 serves as an input unit of a source follower, which is a readout circuit that reads out a signal obtained by photoelectric conversion in the photodiode 161.
  • a detection signal (pixel signal) at a level corresponding to the electric charge stored in the FD unit 163 is generated.
  • the value of this detection signal (output pixel value) is modulated according to the incident angle of the incident light from the subject, and the characteristics (directivity) differ depending on the incident angle (having incident angle directivity).
  • the reset transistor 166 is driven according to the reset signal RST. For example, the reset transistor 166 is turned on when the reset signal RST supplied to the gate electrode reaches a high level, and the electric charge accumulated in the FD unit 163 is discharged to the power supply VDD to reset the FD unit 163.
  • the shape of the light-shielding film 121b of each pixel 121a is not limited to the example of FIG. 4, and can be set to any shape.
  • the shape extending in the horizontal direction of FIG. 4, the L-shaped shape extending in the vertical and horizontal directions, the shape provided with a rectangular opening, and the like can be used.
  • FIG. 6 is a diagram showing a second configuration example of the image sensor 121.
  • a side sectional view of the pixel 121a of the image sensor 121 which is a second configuration example, is shown in the upper part of FIG. 6, and a top view of the image sensor 121 is shown in the middle part of FIG.
  • the side sectional view of the upper part of FIG. 6 is an AB cross section in the middle part of FIG.
  • the lower part of FIG. 6 is an example of a circuit configuration of the image sensor 121.
  • the image sensor 121 of FIG. 6 four photodiodes 121f-1 to 121f-4 are formed in one pixel 121a, and a light-shielding film 121g is formed in a region for separating the photodiodes 121f-1 to 121f-4.
  • the configuration is different from that of the image sensor 121 of FIG. That is, in the image sensor 121 of FIG. 6, the light-shielding film 121g is formed in a “+” shape when viewed from the upper surface.
  • the common configurations thereof are designated by the same reference numerals as those in FIG. 5, and detailed description thereof will be omitted.
  • the photodiodes 121f-1 to 121f-4 are separated by the light-shielding film 121g, so that electrical and optical crosstalk between the photodiodes 121f-1 to 121f-4 is generated. Be prevented. That is, the light-shielding film 121g of FIG. 6 is for preventing crosstalk like the light-shielding film 121g of the image sensor 121 of FIG. 5, and is not for providing incident angle directivity.
  • one FD unit 163 is shared by four photodiodes 121f-1 to 121f-4.
  • the lower part of FIG. 6 shows an example of a circuit configuration in which one FD unit 163 is shared by four photodiodes 121f-1 to 121f-4. The description of the same configuration as that of the lower part of FIG. 5 in the lower part of FIG. 6 will be omitted.
  • the difference from the circuit configuration in the lower part of FIG. 5 is that the photodiodes 161-1 to 161- are replaced with the photodiode 161 (corresponding to the photodiode 121e in the upper part of FIG. 5) and the transfer transistor 162. 4 (corresponding to photodiodes 121f-1 to 121f-4 in the upper part of FIG. 6) and transfer transistors 162-1 to 162-4 are provided, and the FD unit 163 is shared.
  • the electric charge accumulated in the photodiodes 121f-1 to 121f-4 has a predetermined capacitance provided at the connection portion between the photodiodes 121f-1 to 121f-4 and the gate electrode of the amplification transistor 165. It is transferred to the common FD unit 163. Then, a signal corresponding to the level of the electric charge held in the FD unit 163 is read out as a detection signal (pixel signal).
  • the charges accumulated in the photodiodes 121f-1 to 121f-4 can be selectively contributed to the output of the pixel 121a, that is, the detection signal in various combinations. That is, the configuration is such that the electric charge can be read out independently for each photodiode 121f-1 to 121f-4, and the photodiodes 121f-1 to 121f-4 (photodiodes 121f-1 to 121f-4 output) that contribute to the output. By making the degree of contribution to the diode different from each other, different incident angle directivities can be obtained.
  • the incident angle directivity in the left-right direction can be obtained.
  • the incident angle directivity in the vertical direction can be obtained.
  • the signal obtained based on the electric charge selectively read out independently from the four photodiodes 121f-1 to 121f-4 is a detection signal corresponding to one pixel constituting the detection image.
  • each photodiode 121f charge
  • the contribution of each photodiode 121f (charge) to the detection signal is determined not only by whether or not the charge (detection value) of each photodiode 121f is transferred to the FD unit 163, but also by using the electronic shutter function. It can also be realized by resetting the electric charge accumulated in the photodiode 121f before the transfer to the FD unit 163. For example, if the charge of the photodiode 121f is reset immediately before the transfer to the FD unit 163, the photodiode 121f does not contribute to the detection signal at all. On the other hand, by allowing a time between resetting the charge of the photodiode 121f and transferring the charge to the FD unit 163, the photodiode 121f is in a state of partially contributing to the detection signal.
  • each pixel has a different incident angle directivity.
  • the detection signal output from each pixel 121a of the image sensor 121 in FIG. 6 is a value modulated according to the incident angle of the incident light from the subject (output pixel value), and has characteristics (directivity) depending on the incident angle. Is different (has incident angle directivity).
  • the detection signal is a signal obtained by optical modulation. Absent.
  • the photodiode 121f that does not contribute to the detection signal will also be referred to as a photodiode 121f that does not contribute to the pixel or output.
  • FIG. 6 shows an example in which the light receiving surface of the pixel (pixel 121a) is divided into four equal parts and the photodiode 121f having the same light receiving surface is arranged in each region, that is, the photodiode is divided into four equal parts.
  • the number of divisions and the division position of the photodiode can be set arbitrarily.
  • the division position of the photodiode may be different for each pixel.
  • the incident angle directivity will differ between the pixels.
  • the number of divisions different between the pixels, it becomes possible to set the incident angle directivity more freely.
  • both the number of divisions and the division position may be different between the pixels.
  • both the image pickup device 121 of FIG. 5 and the image pickup device 121 of FIG. 6 have a configuration in which each pixel can independently set the incident angle directivity.
  • the incident angle directivity of each pixel is set at the time of manufacture by the light-shielding film 121b.
  • the number of divisions and the division position of the photodiodes of each pixel are set at the time of manufacture, but the incident angle directivity of each pixel (combination of photodiodes that contributes to output) is used (combination of photodiodes that contribute to output). For example, it can be set at the time of imaging).
  • neither the image pickup device 121 of FIG. 5 nor the image pickup device 121 of FIG. 6 necessarily has a configuration in which all the pixels have an incident angle directivity.
  • the shape of the light-shielding film 121b of each pixel 121a is referred to as a light-shielding pattern.
  • the shape of the region of the photodiode 121f that does not contribute to the output in each pixel 121a is referred to as a light-shielding pattern.
  • the incident angle directivity of each pixel of the image sensor 121 is generated by, for example, the principle shown in FIG. 7.
  • the upper left and upper right parts of FIG. 7 are views for explaining the principle of generation of incident angle directivity in the image sensor 121 of FIG. 5, and the lower left and lower right parts of FIG. 7 are the image sensor 121 of FIG. It is a figure explaining the generation principle of the incident angle directivity.
  • the upper left and upper right pixels of FIG. 7 both include one photodiode 121e.
  • the lower left and lower right pixels of FIG. 7 both include two photodiodes 121f.
  • an example in which one pixel includes two photodiodes 121f is shown here, this is for convenience of explanation, and the number of photodiodes 121f included in one pixel may be another number. ..
  • a light-shielding film 121b-11 is formed so as to block the right half of the light-receiving surface of the photodiode 121e-11. Further, in the upper right pixel of FIG. 7, a light-shielding film 121b-12 is formed so as to block the left half of the light-receiving surface of the photodiode 121e-12.
  • the alternate long and short dash line in the figure is an auxiliary line that passes through the horizontal center of the light receiving surface of the photodiode 121e and is perpendicular to the light receiving surface.
  • the incident light from the upper right direction forming the incident angle ⁇ 1 with respect to the alternate long and short dash line in the figure is not shielded by the light shielding film 121b-11 of the photodiode 121e-11 on the left. It is easy to receive light due to the half range.
  • the incident light from the upper left direction forming the incident angle ⁇ 2 with respect to the alternate long and short dash line in the figure is hard to be received by the range of the left half that is not shielded by the light-shielding film 121b-11 of the photodiode 121e-11. .. Therefore, the pixel in the upper left part of FIG. 7 has an incident angle directivity having a high light receiving sensitivity with respect to the incident light from the upper right in the figure and a low light receiving sensitivity with respect to the incident light from the upper left side. ..
  • the incident light from the upper right direction forming the incident angle ⁇ 1 is received by the left half range shaded by the light shielding film 121b-12 of the photodiode 121e-12. Hateful.
  • the incident light from the upper left direction forming the incident angle ⁇ 2 is easily received by the right half range that is not shielded by the light-shielding film 121b-12 of the photodiode 121e-12. Therefore, the pixel in the upper right part of FIG. 7 has an incident angle directivity having a low light receiving sensitivity with respect to the incident light from the upper right side in the figure and a high light receiving sensitivity with respect to the incident light from the upper left side. ..
  • the lower left pixel of FIG. 7 is provided with photodiodes 121f-11 and 121f-12 on the left and right sides of the drawing, and a light-shielding film 121b is provided by reading out one of the detection signals. It is configured to have incident angle directivity without any problem.
  • the incident angle directivity similar to that of the upper left pixel of FIG. 7 is obtained. Obtainable. That is, the incident light from the upper right direction forming the incident angle ⁇ 1 with respect to the alternate long and short dash line in the figure is incident on the photodiode 121f-11, and the signal corresponding to the amount of received light is read from the photodiode 121f-11. It contributes to the detection signal output from the pixel.
  • the incident light from the upper left direction forming the incident angle ⁇ 2 with respect to the alternate long and short dash line in the figure is incident on the photodiode 121f-12, but is not read from the photodiode 121f-12, and therefore is not read from this pixel. Does not contribute to the output detection signal.
  • the incident light from the upper left direction forming the incident angle ⁇ 2 is incident on the photodiode 121f-14, and the signal corresponding to the amount of received light is read from the photodiode 121f-14, so that the light is output from this pixel. Contributes to the detection signal.
  • the light-shielding range and the non-light-shielding range are separated at the horizontal center position of the pixel (light receiving surface of the photodiode 121e), but they are separated at other positions. You may.
  • the two photodiodes 121f are separated at the horizontal center position of the pixel is shown, but the two photodiodes 121f may be separated at other positions. In this way, different incident angle directivities can be generated by changing the light-shielding range or the position where the photodiode 121f is divided.
  • the upper graph of FIG. 8 shows the incident angle directivity of the pixels in the middle and lower rows of FIG.
  • the horizontal axis represents the incident angle ⁇
  • the vertical axis represents the detection signal level.
  • the incident angle ⁇ is 0 degrees when the direction of the incident light coincides with the alternate long and short dash line on the left side of the middle row in FIG. 8, and the incident angle ⁇ 21 side on the left side of the middle row in FIG. 8 is the positive direction.
  • the incident angle ⁇ 22 on the right side is the negative direction. Therefore, the incident light incident on the on-chip lens 121c from the upper right side has a larger incident angle than the incident light incident on the upper left side. That is, the incident angle ⁇ increases as the traveling direction of the incident light tilts to the left (increases in the positive direction), and decreases as it tilts to the right (increases in the negative direction).
  • the pixels in the middle left part of FIG. 8 are the on-chip lens 121c-11 that collects the incident light and the color filter 121d-11 that transmits the light of a predetermined wavelength to the pixels in the upper left part of FIG. Is added. That is, in this pixel, the on-chip lens 121c-11, the color filter 121d-11, the light-shielding film 121b-11, and the photodiode 121e-11 are laminated in this order from the incident direction of the light in the upper part of the drawing.
  • the middle right pixel of FIG. 8, the lower left pixel of FIG. 8, and the lower right pixel of FIG. 8 are the upper right pixel of FIG. 7 and the lower left pixel of FIG. 7, respectively.
  • the on-chip lens 121c-11 and the color filter 121d-11, or the on-chip lens 121c-12 and the color filter 121d-12 are added to the pixels in the lower right part of FIG.
  • the detection signal level (light receiving sensitivity) of the photodiode 121e-11 changes according to the incident angle ⁇ of the incident light, as shown by the waveform of the solid line in the upper row of FIG. That is, the larger the incident angle ⁇ , which is the angle formed by the incident light with respect to the one-point chain line in the figure (the larger the incident angle ⁇ is in the positive direction (the more it tilts to the right in the figure)), the light-shielding film 121b- By concentrating the light in the range where 11 is not provided, the detection signal level of the photodiode 121e-11 is increased.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ is in the negative direction (the more it tilts to the left in the figure)
  • the more the light is collected in the range where the light-shielding film 121b-11 is provided.
  • the detection signal level of the photodiode 121e-11 becomes smaller.
  • the detection signal level (light receiving sensitivity) of the photodiode 121e-12 changes according to the incident angle ⁇ of the incident light, as shown by the dotted line waveform in the upper row of FIG. To do. That is, the larger the incident angle ⁇ of the incident light (the larger the incident angle ⁇ is in the positive direction), the light is focused in the range where the light-shielding film 121b-12 is provided, so that the photodiode 121e-12 The detection signal level of is reduced.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ is in the negative direction
  • the light is incident in the range where the light-shielding film 121b-12 is not provided, so that the photodiode 121e-12
  • the detection signal level increases.
  • the waveforms of the solid line and the dotted line shown in the upper part of FIG. 8 can be changed according to the range of the light-shielding film 121b. Therefore, depending on the range of the light-shielding film 121b, it is possible to give different incident angle directivity to each pixel.
  • the incident angle directivity is a characteristic of the light receiving sensitivity of each pixel according to the incident angle ⁇ , but this is a characteristic of the light shielding value according to the incident angle ⁇ in the middle pixel of FIG. It can be said that. That is, the light-shielding film 121b shields the incident light in a specific direction at a high level, but cannot sufficiently block the incident light from other directions. This change in the light-shielding level causes different detection signal levels depending on the incident angle ⁇ as shown in the upper part of FIG.
  • each pixel has different incident angle directivity means that, in other words, each pixel has different light-shielding directions. It will have a direction.
  • the signal of only the photodiode 121f-11 in the left part of the figure is used as in the case of the lower left pixel of FIG. 7, so that the middle left of FIG. 8 is used. It is possible to obtain the same incident angle directivity as the pixels of the unit. That is, when the incident angle ⁇ of the incident light increases (when the incident angle ⁇ increases in the positive direction), the light is focused in the range of the photodiode 121f-11 from which the signal is read, so that the detected signal level becomes large. Become.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ is in the negative direction
  • the more the light is focused in the range of the photodiode 121f-12 where the signal is not read, and the detected signal level. Becomes smaller.
  • the signal of only the photodiode 121f-14 in the right part of the drawing is used in the same manner as the lower right pixel of FIG. 7. It is possible to obtain the same incident angle directivity as the pixel on the right side of the middle stage. That is, when the incident angle ⁇ of the incident light increases (when the incident angle ⁇ increases in the positive direction), the light is focused in the range of the photodiode 121f-13 which does not contribute to the output (detection signal), so that the pixel The level of the detection signal of the unit becomes smaller.
  • the smaller the incident angle ⁇ of the incident light the larger the incident angle ⁇ is in the negative direction
  • the more the light is focused in the range of the photodiode 121f-14 that contributes to the output (detection signal).
  • the level of the detection signal for each pixel increases.
  • the center of gravity of the incident angle directivity of the pixel 121a is defined as follows.
  • the center of gravity of the incident angle directivity is the center of gravity of the distribution of the intensity of the incident light incident on the light receiving surface of the pixel 121a.
  • the light receiving surface of the pixel 121a is the light receiving surface of the photodiode 121e in the middle pixel 121a of FIG. 8, and the light receiving surface of the photodiode 121f in the lower pixel 121a of FIG.
  • the detection signal level on the vertical axis of the upper graph of FIG. 8 is a ( ⁇ ), and the ray having an incident angle ⁇ g calculated by the following equation (4) is the center of gravity ray.
  • ⁇ g ⁇ (a ( ⁇ ) ⁇ ⁇ ) / ⁇ a ( ⁇ ) ... (4)
  • each photodiode is provided with directivity with respect to the incident angle of the incident light.
  • an on-chip lens 121c is indispensable for each pixel.
  • the pixel 121a is shaded by the light-shielding film 121b by the width d1 from each end of each of the four sides, and as shown in the lower part of FIG. 9, each of the four sides.
  • FIG. 10 shows an example of the incident angle of the incident light from the subject surface 102 on the center position C1 of the image sensor 121.
  • FIG. 10 shows an example of the incident angle of the incident light in the horizontal direction, the same applies to the vertical direction. Further, on the right side of FIG. 10, pixels 121a and 121a'in FIG. 9 are shown.
  • the pixel 121a of FIG. 9 when the pixel 121a of FIG. 9 is arranged at the center position C1 of the image sensor 121, the range of the incident angle of the incident light from the subject surface 102 to the pixel 121a is an angle as shown in the left part of FIG. It becomes A1. Therefore, the pixel 121a can receive the incident light having a width W1 in the horizontal direction of the subject surface 102.
  • the pixel 121a'of FIG. 9 when the pixel 121a'of FIG. 9 is arranged at the center position C1 of the image sensor 121, the pixel 121a'has a wider light-shielding range than the pixel 121a, so that the subject surface 102 moves to the pixel 121a'.
  • the range of the incident angle of the incident light is the angle A2 ( ⁇ A1) as shown in the left part of FIG. Therefore, the pixel 121a'can receive the incident light having a width W2 ( ⁇ W1) in the horizontal direction of the subject surface 102.
  • the pixel 121a having a narrow light-shielding range is a wide angle-of-view pixel suitable for capturing a wide range on the subject surface 102, whereas the pixel 121a'with a wide light-shielding range is narrow on the subject surface 102. It is a narrow angle-of-view pixel suitable for capturing a range.
  • the wide angle-of-view pixel and the narrow angle-of-view pixel referred to here are expressions for comparing both the pixels 121a and 121a'in FIG. 9, and are not limited to this when comparing pixels with other angles of view.
  • the pixel 121a is used to restore the image I1 of FIG.
  • the image I1 is an image having an angle of view SQ1 corresponding to the subject width W1 including the entire person H101 as the subject in the upper part of FIG.
  • Image I2 is an image of the angle of view SQ2 corresponding to the subject width W2 in which the periphery of the face of the person H101 in the upper row of FIG. 11 is zoomed in.
  • the pixel 121a of FIG. 9 is defined in the range ZA surrounded by the dotted line of the image sensor 121, and the pixel 121a'is defined in the range ZB surrounded by the alternate long and short dash line. It is conceivable to collect and arrange the number of pixels one by one. Then, for example, when restoring the image of the angle of view SQ1 corresponding to the subject width W1, the image of the angle of view SQ1 can be appropriately restored by using the detection signal of each pixel 121a in the range ZA. it can. On the other hand, when restoring the image of the angle of view SQ2 corresponding to the subject width W2, the image of the angle of view SQ2 can be appropriately restored by using the detection signal of each pixel 121a'in the range ZB. ..
  • the angle of view SQ2 is narrower than the angle of view SQ1
  • the image of the angle of view SQ2 is restored rather than the image of the angle of view SQ1. It is possible to obtain a higher quality (higher resolution) restored image.
  • the right part of FIG. 12 shows a configuration example within the range ZA of the image sensor 121 of FIG.
  • the left part of FIG. 12 shows a configuration example of the pixel 121a in the range ZA.
  • the range shown in black is the light-shielding film 121b, and the light-shielding range of each pixel 121a is determined according to, for example, the rule shown on the left side of FIG.
  • the main light-shielding portion Z101 on the left side of FIG. 12 is a range that is commonly shaded by each pixel 121a.
  • the main shading portion Z101 has a width dx1 range from the left side and the right side of the pixel 121a toward the inside of the pixel 121a, and a height from the upper side and the lower side of the pixel 121a toward the inside of the pixel 121a, respectively. It is in the range of dy1.
  • a rectangular opening Z111 that is not shaded by the light-shielding film 121b is provided in the range Z102 inside the main light-shielding portion Z101. Therefore, in each pixel 121a, the range other than the opening Z111 is shielded by the light-shielding film 121b.
  • the openings Z111 of each pixel 121a are regularly arranged. Specifically, the horizontal position of the opening Z111 in each pixel 121a is the same in the pixels 121a in the same vertical row. Further, the vertical position of the opening Z111 in each pixel 121a is the same in the pixel 121a in the same horizontal row.
  • the horizontal position of the opening Z111 in each pixel 121a is deviated at a predetermined interval according to the horizontal position of the pixel 121a. That is, as the position of the pixel 121a advances to the right, the left side of the opening Z111 moves to a position shifted to the right by the widths dx1, dx2, ..., Dxn from the left side of the pixel 121a, respectively.
  • the distance between the width dxn-1 and the width dxn is the length obtained by subtracting the width of the opening Z111 from the horizontal width of the range Z102, respectively. Is divided by the number of pixels n-1 in the horizontal direction.
  • the vertical position of the opening Z111 in each pixel 121a is deviated at a predetermined interval according to the vertical position of the pixel 121a. That is, as the position of the pixel 121a advances downward, the upper side of the opening Z111 moves downward by heights dy1, dy2, ..., Dyn from the upper side of the pixel 121a, respectively.
  • the distance between the height dy1 and the height dy2, the distance between the height dy2 and the height dy3, ..., The distance between the height dyn-1 and the height dyn is the opening Z111 from the vertical height of the range Z102, respectively.
  • the length obtained by subtracting the height of is divided by the number of pixels m-1 in the vertical direction.
  • the right part of FIG. 13 shows a configuration example within the range ZB of the image sensor 121 of FIG.
  • the left part of FIG. 13 shows a configuration example of pixels 121a'in the range ZB.
  • the range shown in black is the light-shielding film 121b', and the light-shielding range of each pixel 121a' is determined according to, for example, the rule shown on the left side of FIG.
  • the main light-shielding portion Z151 on the left side of FIG. 13 is a range that is commonly shaded in each pixel 121a'.
  • the main shading portion Z151 faces the range of the width dx1'from the left side and the right side of the pixel 121a'to the inside of the pixel 121a', and from the upper side and the lower side of the pixel 121a' to the inside of the pixel 121a', respectively.
  • Each is in the range of height dy1'.
  • each pixel 121a' a rectangular opening Z161 that is not shaded by the light-shielding film 121b'is provided in the range Z152 inside the main light-shielding portion Z151. Therefore, in each pixel 121a', the range other than the opening Z161 is shielded by the light-shielding film 121b'.
  • the openings Z161 of each pixel 121a' are regularly arranged in the same manner as the openings Z111 of each pixel 121a in FIG. Specifically, the horizontal position of the opening Z161 in each pixel 121a'is the same in the pixels 121a'in the same vertical row. Further, the vertical position of the opening Z161 in each pixel 121a'is the same in the pixel 121a' in the same horizontal row.
  • the horizontal position of the opening Z161 in each pixel 121a' is deviated at a predetermined interval according to the horizontal position of the pixel 121a'. That is, as the position of the pixel 121a'moves to the right, the left side of the opening Z161 moves to a position shifted to the right by the widths dx1', dx2', ..., Dxn'from the left side of the pixel 121a', respectively. To do.
  • the vertical position of the opening Z161 in each pixel 121a' is deviated at a predetermined interval according to the vertical position of the pixel 121a'. That is, as the position of the pixel 121a'advances downward, the upper side of the opening Z161 is displaced downward by the heights dy1', dy2', ..., Dyn'from the upper side of the pixel 121a', respectively. Moving. The distance between the height dy1'and the height dy2', the distance between the height dy2' and the height dy3', ..., The distance between the height dyn-1'and the height dyn'are in the vertical direction of the range Z152, respectively. The length obtained by subtracting the height of the opening Z161 from the height is divided by the number of pixels m-1 in the vertical direction.
  • the length obtained by subtracting the width of the opening Z111 from the horizontal width of the range Z102 of the pixel 121a in FIG. 12 is the width of the opening Z161 obtained by subtracting the width of the opening Z111 from the horizontal width of the range Z152 of the pixel 121a'in FIG. It will be larger than the drawn width. Therefore, the interval of change of the widths dx1, dx2 ... dxn in FIG. 12 is larger than the interval of change of the widths dx1', dx2'... dxn'in FIG.
  • the length obtained by subtracting the height of the opening Z111 from the vertical height of the range Z102 of the pixel 121a in FIG. 12 is the length of the opening Z161 obtained by subtracting the height of the opening Z111 from the vertical height of the range Z152 of the pixel 121a'in FIG. It is larger than the length minus the height. Therefore, the interval of change of the heights dy1, dy2 ... dyn of FIG. 12 is larger than the interval of the change of the heights dy1', dy2'... dyn'of FIG.
  • the interval between changes in the horizontal and vertical positions of the opening Z111 of the light-shielding film 121b of each pixel 121a in FIG. 12 and the horizontal of the opening Z161 of the light-shielding film 121b'of each pixel 121a' in FIG. It differs from the interval between changes in directional and vertical position.
  • the difference in this interval is the difference in the subject resolution (angle resolution) in the restored image. That is, the interval between changes in the horizontal and vertical positions of the opening Z161 of the light-shielding film 121b'of each pixel 121a'in FIG. 13 is the horizontal of the opening Z111 of the light-shielding film 121b of each pixel 121a of FIG.
  • the restored image restored using the detection signal of each pixel 121a'in FIG. 13 has a higher subject resolution and higher image quality than the restored image restored using the detection signal of each pixel 121a of FIG. High resolution).
  • the image sensor 121 composed of pixels having various angles of view (having various incident angle directivities) is realized. It becomes possible.
  • the pixels 121a and the pixels 121a'are arranged separately in the range ZA and the range ZB is shown, but this is for the sake of simplicity, and the pixels 121a corresponding to different angles of view are the same. It is desirable that they are mixed and arranged in the area.
  • each unit U has wide-angle pixels 121a-W and medium-angle pixels. It is composed of four pixels: pixels 121a-M, pixels 121a-N having a narrow angle of view, and pixels 121a-AN having an extremely narrow angle of view.
  • the number of pixels of all the pixels 121a is X
  • four types of coefficient set groups that are different for each angle of view are used, and restored images with different angles of view are restored by four different simultaneous equations.
  • the image of the angle of view in the middle of the four types of angles of view and the images of the angles of view before and after the angle of view may be interpolated and generated from the images of the four types of angles of view, and images of various angles of view are seamlessly generated. By doing so, a pseudo optical zoom may be realized.
  • all the wide angle of view pixels may be used, or a part of the wide angle of view pixels may be used.
  • all the narrow angle of view pixels may be used, or a part of the narrow angle of view pixels may be used.
  • FIG. 15 is a block diagram showing a configuration example of the driver recognition unit 23 of FIG.
  • the driver recognition unit 23 includes an image pickup unit 181, an instruction motion detection unit 182, a learning unit 183, a storage unit 184, and a transmission unit 185.
  • the imaging unit 181 is installed at a position where the driver in the vehicle can be imaged.
  • the image pickup unit 181 takes an image of the driver and supplies the obtained image (hereinafter, referred to as a driver image) to the instruction motion detection unit 182 and the learning unit 183.
  • the instruction motion detection unit 182 is a driver's action (hereinafter,) instructing the change of the display range of the side image displayed on the display unit 25 based on the driver image and the detection conditions stored in the storage unit 184. , Display change instruction operation) is detected.
  • the display change instruction operation is performed, for example, by the driver moving one or more of the hand, the head, the line of sight, and the like.
  • the instruction operation detection unit 182 When the instruction operation detection unit 182 detects the display change instruction operation, the instruction operation detection unit 182 supplies data indicating the instruction content to the transmission unit 185. Further, the instruction operation detection unit 182 supplies data indicating the detection result of the display change instruction operation to the learning unit 183.
  • the learning unit 183 gives an instruction to change the display range of the driver image, the detection result of the display change instruction operation, and the side image displayed on the display unit 25 input by the driver or the like via an input unit (not shown). Based on, the detection condition of the display change instruction operation is learned.
  • the learning unit 183 stores the detection conditions obtained by learning in the storage unit 184.
  • the transmission unit 185 converts the data indicating the instruction content supplied from the instruction operation detection unit 182 into data in a communication format and outputs the data to the bus B1.
  • FIG. 16 shows a configuration example of the hardware of the camera module 21.
  • the LLC chip 202 is a semiconductor chip including the imaging unit 41 of FIG.
  • the signal processing chip 203 is a semiconductor chip including the camera ECU 42 and the MCU 43 of FIG.
  • the flexible substrate becomes unnecessary and unnecessary radiation is reduced.
  • FIG. 17 is a schematic view of the front half of the vehicle 221 provided with the in-vehicle system 11 as viewed from above.
  • the camera module 21L is attached to the side window 232L of the passenger seat (front seat on the left side) of the vehicle 221.
  • the angle of view (FOV (Field Of View)) FL1 of the image sensor 121L of the camera module 21L passes through the center of the FL1 and the image pickup direction AL2 faces diagonally rearward to the left of the vehicle 221. Rear imaging is possible.
  • FOV Field Of View
  • the camera module 21R is attached to the side window 232R of the driver's seat (front seat on the right side) of the vehicle 221.
  • the image pickup direction AR2 passing through the center of the angle of view (FOV) FR1 of the image sensor 121R of the camera module 21R faces diagonally rearward to the right of the vehicle 221. Is.
  • the display unit 25L is diagonally to the left of the driver 222, in front of the windshield 231 in the vehicle, and near the left end on the dashboard (not shown), the display surface is slightly in the direction of the driver 222, that is, It is installed so as to face diagonally rearward to the right of the vehicle 221.
  • the display unit 25L displays the left side image obtained by the camera module 21L.
  • the display unit 25R is diagonally to the right of the driver 222, in front of the windshield 231 in the vehicle, and near the right end on the dashboard (not shown), the display surface is slightly in the direction of the driver 222, that is, It is installed so as to face diagonally to the left and rear of the vehicle 221.
  • the display unit 25R displays the right side image obtained by the camera module 21R.
  • the display unit 25L is provided so that the angle of incidence ⁇ L1 of the driver 222's line of sight AL1 on the display surface of the display unit 25L and the angle ⁇ L2 of the image pickup direction AL2 of the image sensor 121L with respect to the display surface of the display unit 25L are as close as possible. And it is desirable that the camera module 21L is installed. Similarly, the display unit so that the incident angle ⁇ R1 of the driver 222's line of sight AR1 on the display surface of the display unit 25R and the angle ⁇ R2 of the image pickup direction AR2 of the image sensor 121R with respect to the display surface of the display unit 25R are as close as possible. It is desirable that 25R and camera module 21R be installed.
  • the image pickup direction indicates the average of the incident angles of the center-of-gravity rays of each pixel 121a of the image pickup element 121, and passes through the center of the angle of view of the image pickup element 121.
  • the image pickup direction AL2 indicates the average of the incident angles of the center-of-gravity rays of each pixel 121a of the image pickup element 121L, and passes through the center of the angle of view FL1 of the image pickup element 121L.
  • the image pickup direction AR2 indicates the average of the incident angles of the center-of-gravity rays of each pixel 121a of the image pickup element 121R, and passes through the center of the angle of view FR1 of the image pickup element 121R.
  • the relationship between the line-of-sight direction of the driver 222 and the display range of the side image displayed on each display unit 25 becomes natural, and it is possible to prevent the driver 222 from feeling uncomfortable.
  • the driver 222 can check diagonally behind the vehicle 221 without moving his / her line of sight so much.
  • the image pickup unit 181 of the driver recognition unit 23 in FIG. 15 is installed in front of the windshield 231 in the vehicle and near the center on the dashboard (not shown).
  • the image pickup unit 181 takes an image of the vicinity of the driver 222.
  • FIG. 18 is a schematic view of the side window 232L to which the camera module 21L is attached as viewed from above.
  • the camera module 21L is detachably attached using the bracket 251 so that the surface on which the LLC chip 202 is mounted is along the inner surface of the side window 232L.
  • the light receiving surface of the image sensor 121L provided on the surface of the LLC chip 202 faces the inner surface of the vehicle of the side window 232L and faces the left side of the vehicle 221 and is in contact with or close to the vehicle.
  • the side window 232L is substantially parallel to the inner surface of the vehicle.
  • the space between the light receiving surface of the image sensor 121 and the side window 232L disappears or becomes very narrow.
  • the reflection of the side window 232L due to the reflection of the incident light and the occurrence of dew condensation between the light receiving surface of the image sensor 121 and the side window 232L are prevented.
  • the camera module 21L is connected to the bus B1 of the in-vehicle system 11 via the cable 252.
  • the camera module 21R is also attached to the side window 232R using a bracket in the same manner as the camera module 21L.
  • the light receiving surface of the image sensor 121R provided on the surface of the LLC chip 202 faces the inner surface of the side window 232R and faces the right side of the vehicle 221 and comes into contact with or close to the vehicle 221.
  • the side window 232R is substantially parallel to the inner surface of the vehicle.
  • a space for storing the camera module 21L and the bracket 251 is provided in the storage portion for storing the side window 232L when the side window 232L is opened.
  • a space for accommodating the camera module 21R and the bracket in the accommodating portion for accommodating the side window 232R when the side window 232R is opened is provided.
  • each camera module 21 is provided inside the vehicle, it is possible to prevent the camera module 21 from obstructing passage or being damaged by contact outside the vehicle. Further, it is not necessary to provide a drive structure for opening and closing the camera module 21 to the left and right. Furthermore, it becomes possible to take an image without being affected by the surroundings such as the weather.
  • FIG. 19 shows a first embodiment of a light-shielding pattern of the pixel array portion of the image sensor 121L of the image pickup unit 41L of the camera module 21L.
  • FIG. 20 shows an example of a light-shielding pattern of the pixel PLa, which is the first embodiment of the pixel 121a constituting the pixel array portion of FIG.
  • the opening ALa of the light-shielding film SLa of each pixel PLa is set within the rectangular opening setting range RLa indicated by the dotted line. Therefore, the region other than the opening setting range RLa of the light-shielding film SLa of each pixel PLa becomes the main light-shielding portion of the light-shielding film SLa.
  • the size, shape, and position of the aperture setting range RLa are common to each pixel PLa.
  • the height of the aperture setting range RLa in the vertical direction is slightly smaller than the height of the pixel PLa, and the width in the horizontal direction is approximately 1/2 of the width of the pixel PLa.
  • the aperture setting range RLa is set at the center of the pixel PLa in the vertical direction and at a position biased to the left in the horizontal direction. Therefore, the center of gravity of the aperture setting range RLa is biased to the left from the center of the pixel PLa. Further, as described above with reference to FIG. 17, when the camera module 21L is attached to the side window 232L, the center of gravity of the opening setting range RLa is biased from the center of the pixel PLa to the front of the vehicle 211.
  • the shape and size of the rectangular opening ALa are common to each pixel PLa. Further, the opening ALa is arranged in the opening setting range RLa of each pixel PLa according to the same rule as the above-mentioned rule with reference to FIGS. 12 and 13.
  • the opening ALa is arranged at the left end of the opening setting range RLa in the pixel PLa in the leftmost column of the pixel array portion, and is the upper end of the opening setting range RLa in the pixel PLa in the upper end row of the pixel array portion. Is placed in. Then, the opening ALa shifts to the right at equal intervals within the opening setting range RLa as the position of the pixel PLa advances to the right, and the right end of the opening setting range RLa in the pixel PLa in the rightmost row of the pixel array portion. Is placed in.
  • the opening ALa shifts downward at equal intervals within the opening setting range RLa, and the lower end of the opening setting range RLa in the pixel PLa in the lower end row of the pixel array portion. Is placed in.
  • the horizontal positions of the openings ALa are the same within the pixels PLa in the same vertical row. Also, the vertical positions of the openings ALa are the same within the pixels PLa in the same horizontal row. Therefore, the position of the opening ALa in each pixel PLa, that is, the position where the incident light is incident on each pixel PLa is different for each pixel PLa, and as a result, the incident angle directivity of each pixel PLa is different.
  • the opening setting range RLa is covered by the opening ALa of each pixel PLa. That is, the region where the openings ALa of each pixel PLa are overlapped becomes equal to the opening setting range RLa.
  • the arrangement pattern of the opening ALa is not limited to the above configuration, and any arrangement may be used as long as the area where the openings ALa are overlapped is equal to the opening setting range RLa.
  • the openings ALa may be randomly arranged within the opening setting range RLa.
  • the center of gravity of the incident angle directivity of each pixel PLa substantially coincides with the center of gravity of the opening ALa of each pixel PLa, and is biased to the left from the center of each pixel PLa in most of the pixel PLa. Therefore, the average of the center of gravity of the incident angle directivity of each pixel PLa is biased to the left from the center of the pixel PLa. Further, the average of the incident angles of the center-of-gravity rays of each pixel PLa is inclined to the right (rear of the vehicle 221) with respect to the normal direction of the light receiving surface of the pixel array portion.
  • the LLC chip 202 is installed parallel to the side window 232L, and the light receiving surface of the pixel array portion of the image sensor 121L faces the left side of the vehicle 221. It is possible to image the angle of view FL1 on the left side and the rear side of the vehicle 221.
  • the position of the aperture setting range RLa that is, the offset amount of the center of gravity of the aperture setting range RLa from the center of the pixel PLa, and the shape and size of the aperture setting range RLa are based on, for example, the angle of view FL1 to be imaged. Set.
  • the LLC chip 202L (light receiving surface of the image sensor 121L) is not directed diagonally to the left and rear of the vehicle 221, it is possible to image the left side and the rear of the vehicle 221 without the need for an image pickup lens. Therefore, as described above with reference to FIG. 16, the LLC chip 202L and the signal processing chip 203L are mounted on the same substrate, and the mounting surface of the LLC chip 202L of the camera module 21L is mounted in contact with or close to the side window 232L. be able to.
  • the light-shielding pattern of the pixel array portion of the image sensor 121R of the image pickup unit 41R of the camera module 21R is also set in the same manner as in the above-described example with reference to FIGS. 19 and 20. ..
  • the center of gravity of the aperture setting range RRa of each pixel PRa of the image sensor 121R is biased to the right (rear of the vehicle 221) from the center of the pixel PRa, contrary to the aperture setting range RLa of each pixel PLa of the image sensor 121L. ..
  • This process starts when the power of the vehicle 221 is turned on and ends when the power of the vehicle 221 is turned off, for example.
  • step S1 the image sensor 121L images the surroundings of the vehicle 221.
  • each pixel PLa of the image sensor 121L having different incident angle directivity outputs a detection signal indicating the detection signal level according to the amount of incident light from the subject, and the image sensor 121L detects each pixel PLa.
  • the detected image composed of the signal is supplied to the restoration unit 122L.
  • the restoration unit 122L obtains a coefficient used for image restoration. Specifically, the restoration unit 122L sets the distance to the subject surface 102 to be restored, that is, the subject distance. Any method can be adopted as the method for setting the subject distance. For example, the restoration unit 122L sets the subject distance set by the user or the subject distance detected by various sensors to the distance to the subject surface 102 to be restored.
  • the restoration unit 122L reads out the coefficient set group associated with the set subject distance from the storage unit 124L.
  • step S3 the restoration unit 122L restores the image using the detected image and the coefficient.
  • the restoration unit 122L refers to the above equations (1) to (3) by using the detection signal level of each pixel of the detected image and the coefficient set group acquired in the process of step S2. Create the simultaneous equations described in.
  • the restoration unit 122L calculates the light intensity of each point light source on the subject surface 102 corresponding to the set subject distance by solving the created simultaneous equations.
  • the restoration unit 122L generates a restoration image in which the image of the subject is formed by arranging the pixels having the pixel values corresponding to the calculated light intensity according to the arrangement of the light sources at each point on the subject surface 102.
  • step S4 the restoration unit 122L performs various processes on the restored image. For example, the restoration unit 122L performs demosaic processing, ⁇ correction, white balance adjustment, conversion processing to a predetermined compression format, and the like on the restored image, if necessary. Further, the restoration unit 122L supplies the obtained restoration image (left side image) to the display control unit 26 via the communication unit 125, the camera ECU 42L, and the MCU 43L.
  • step S5 the display unit 25L displays the restored image, that is, the left side image under the control of the display control unit 26.
  • the left side image is displayed on the display unit 25L
  • the right side image is displayed on the display unit 25R, whereby the electronic side mirror is realized.
  • This process starts when the power of the vehicle 221 is turned on and ends when the power of the vehicle 221 is turned off, for example.
  • steps S51 to S53 the same processing as in steps S1 to S3 of FIG. 21 is executed.
  • step S54 the restoration unit 122L performs various processes on the restored image. For example, the restoration unit 122L performs demosaic processing, ⁇ correction, white balance adjustment, conversion processing to a predetermined compression format, and the like on the restored image, if necessary. Further, the restoration unit 122L supplies the obtained restoration image (left side image) to the camera ECU 42L via the communication unit 125.
  • step S55 the driver recognition unit 23 performs the detection process of the driver's instruction operation. Specifically, the image pickup unit 181 takes an image of the driver and supplies the obtained driver image to the instruction motion detection unit 182.
  • the instruction operation detection unit 182 performs display change instruction operation detection processing based on the driver image and the detection conditions stored in the storage unit 184. When the display change instruction operation is detected, the instruction operation detection unit 182 supplies data indicating the instruction content to the display control unit 26 via the transmission unit 185.
  • step S56 the camera ECU 42L performs a dangerous substance detection process.
  • the camera ECU 42L performs object recognition processing on the left side image of a dangerous object (for example, a pedestrian, a bicycle, a motorcycle, a vehicle, etc.) that may collide with or come into contact with the vehicle on the left side and the rear of the vehicle. Perform detection.
  • the camera ECU 42L supplies the left side image and data indicating the detection result of the dangerous substance to the alert control unit 24 and the display control unit 26 via the MCU 43L.
  • an object whose relative speed in the direction of approaching the vehicle is equal to or higher than a predetermined threshold value, that is, an object approaching the vehicle at a predetermined speed or higher is detected as a dangerous substance.
  • a predetermined threshold value that is, an object approaching the vehicle at a predetermined speed or higher is detected as a dangerous substance.
  • an object whose distance from the vehicle is equal to or less than a predetermined threshold value is detected as a dangerous substance.
  • step S57 the alert control unit 24 determines whether or not a dangerous substance has been detected based on the result of the processing of the camera ECU 42L in step S56. If it is determined that a dangerous substance has been detected, the process proceeds to step S58.
  • step S58 the alert control unit 24 superimposes the warning display on the restored image. Specifically, the alert control unit 24 superimposes a warning display calling attention to a dangerous object on the left side image. For example, in order to emphasize dangerous objects in the left side image, a display effect such as surrounding with a frame is applied. The alert control unit 24 supplies the display control unit 26 with a left side image on which a warning display is superimposed.
  • step S57 determines whether dangerous goods have been detected. If it is determined in step S57 that no dangerous goods have been detected, the process of step S58 is skipped and the process proceeds to step S59.
  • step S59 the display control unit 26 sets the display range based on the driver's instruction operation and the detection result of the dangerous substance.
  • 23 and 24 show an example of setting the display range based on the instruction operation depending on the direction of the driver's line of sight.
  • FIG. 23 shows an example of the display range DL1 set within the angle of view FL1 with respect to the line of sight AL11 of the driver 222.
  • the display range DL1 is set so that the angle of incidence ⁇ L11 of the line of sight AL11 on the display surface of the display unit 25L and the angle ⁇ L12 of the center AL12 of the display range DL1 with respect to the display surface of the display unit 25L are as close as possible. ..
  • FIG. 24 shows an example of the display range DL2 set within the angle of view FL1 with respect to the line of sight AL13 of the driver 222.
  • the display range DL2 is set so that the angle of incidence ⁇ L13 of the line of sight AL13 on the display surface of the display unit 25L and the angle ⁇ L14 of the center AL14 of the display range DL2 with respect to the display surface of the display unit 25L are as close as possible. ..
  • the display range of the left side image displayed on the display unit 25L moves in the front direction of the vehicle 221.
  • the display range of the left side image displayed on the display unit 25L moves toward the rear of the vehicle 221.
  • the display range of the right side image displayed on the display unit 25R also moves based on the driver's line-of-sight direction.
  • FIGS. 25 to 27 show an example of setting the display range based on the detection result of the dangerous substance.
  • the display range of the left side image displayed on the display unit 25L is moved to the range DL3 including the dangerous goods 301.
  • the display range of the left side image displayed on the display unit 25L is expanded to the same range DL4 as the angle of view FL1.
  • the dangerous goods 301 can be displayed on the display unit 25L, and the driver can quickly recognize the existence of the dangerous goods 301.
  • the arrow AL15 indicates the line-of-sight direction of the driver 222.
  • the arrow AL16 indicates the direction of the center of the display range DL3.
  • the arrow AL17 indicates the direction of the center of the display range DL4.
  • step S60 the display unit 25L displays the restored image under the control of the display control unit 26. That is, the left side image of the display range set in the process of step S59 is displayed on the display unit 25L.
  • a warning is displayed, for example, as shown in FIG. 28.
  • a warning is displayed, for example, as shown in FIG. 28.
  • the left side image an example in which the motorcycle 321 is detected as a dangerous object is shown diagonally to the left of the vehicle 221.
  • a frame 322 surrounding the motorcycle 321 is displayed, and characters and symbols calling attention are displayed around the frame 322.
  • the driver 222 can quickly and surely recognize the existence of the motorcycle 321 which is a dangerous substance.
  • warning display may be displayed to notify it.
  • a warning display for dangerous goods may be displayed only under specific conditions (for example, while traveling on a curve, when departing, etc.).
  • the display range of the side image is appropriately set, and the driver 222 can check the side and the rear of the vehicle 221 without feeling a sense of discomfort. In addition, the driver can be notified of the presence of dangerous goods quickly and reliably.
  • the second embodiment has a different light-shielding pattern from the pixel array portion of the image sensor 121 as compared with the first embodiment.
  • FIG. 29 shows a second embodiment of the light-shielding pattern of the pixel array portion of the image sensor 121L of the image pickup unit 41L of the camera module 21L.
  • FIG. 30 shows an example of a light-shielding pattern of the pixel PLb and the pixel PLc, which is the second embodiment of the pixel 121a constituting the pixel array portion of FIG. 29.
  • the pixel PLb is arranged in an odd number row of the pixel array part, and the pixel PLc is arranged in an even number row of the pixel array part.
  • the position of the aperture setting range is different between the pixel PLb and the pixel PLc.
  • the shape and size of the aperture setting range RLb of the light-shielding film SLb of the pixel PLb and the opening setting range RLc of the light-shielding film SLc of the pixel PLc are the same as the opening setting range RLa of the light-shielding film SLa of the pixel PLa in FIG. It is the same.
  • the aperture setting range RLb is set at a position shifted to the right in the pixel PLb from the aperture setting range RLa.
  • the center of gravity of the opening setting range RLb is biased to the left (front of the vehicle 221) from the center of the pixel PLb, similarly to the opening setting range RLa.
  • the aperture setting range RLc is set at a position shifted to the left in the pixel PLc from the aperture setting range RLa.
  • the opening setting range RLb and the opening setting range RLc are different in the horizontal direction (front-rear direction of the vehicle 221) in the pixel.
  • the opening ALb of the pixel PLb has the same shape and size as the opening ALa of the pixel PLa, and is arranged in the opening setting range RLb according to the same rules as those described above with reference to FIGS. 12 and 13. Will be done.
  • the opening ALb is arranged at the left end of the opening setting range RLb in the pixel PLb in the leftmost column of the pixel array portion, and is the upper end of the opening setting range RLb in the pixel PLb in the upper end row of the pixel array portion. Is placed in. Then, as the position of the pixel PLb advances to the right, the opening ALb shifts to the right at equal intervals within the opening setting range RLb, and in the pixel PLb in the second row from the right of the pixel array portion, the opening setting range RLb. It is placed at the right end of.
  • the opening ALb shifts downward at equal intervals within the opening setting range RLb, and the lower end of the opening setting range RLb in the pixel PLb in the lower end row of the pixel array portion. Is placed in.
  • the horizontal positions of the openings ALb in each pixel PLb are the same in the pixels PLb in the same vertical row. Further, the vertical position of the opening ALb in each pixel PLb is the same in the pixel PLb in the same horizontal row. Therefore, the position of the opening ALb in each pixel PLb, that is, the position where the incident light is incident on each pixel PLb is different for each pixel PLb, and as a result, the incident angle directivity of each pixel PLa is different.
  • the opening setting range RLb is covered by the opening ALb of each pixel PLb. That is, the region where the openings ALb of each pixel PLb are overlapped becomes equal to the opening setting range RLb.
  • the arrangement pattern of the opening ALb is not limited to the above configuration, and any arrangement may be used as long as the area where the openings ALb are overlapped is equal to the opening setting range RLb.
  • the openings ALb may be randomly arranged within the opening setting range RLb.
  • the opening ALc of the pixel PLc has the same shape and size as the opening ALa of the pixel PLa, and is arranged in the opening setting range RLc according to the same rules as those described above with reference to FIGS. 12 and 13. Will be done.
  • the opening ALc is arranged at the left end of the opening setting range RLc in the pixel PLc in the second column from the left of the pixel array portion, and in the pixel PLc in the upper end row of the pixel array portion, the opening setting range RLc. Placed at the top of. Then, the opening ALc shifts to the right at equal intervals within the opening setting range RLc as the position of the pixel PLc advances to the right, and the right end of the opening setting range RLc in the pixel PLc in the rightmost column of the pixel array portion. Is placed in.
  • the opening ALc shifts downward at equal intervals within the opening setting range RLc, and the lower end of the opening setting range RLc in the pixel PLc in the lower end row of the pixel array portion. Is placed in.
  • the horizontal position of the opening ALc in each pixel PLc is the same in the pixel PLc of the same vertical row. Further, the vertical position of the opening ALc in each pixel PLc is the same in the pixel PLc in the same horizontal row. Therefore, the position of the opening ALc in each pixel PLc, that is, the position where the incident light is incident on each pixel PLc is different for each pixel PLc, and as a result, the incident angle directivity of each pixel PLc is different.
  • the opening setting range RLc is covered by the opening ALc of each pixel PLc. That is, the region where the openings ALc of each pixel PLc are overlapped becomes equal to the opening setting range RLc.
  • the arrangement pattern of the opening ALc is not limited to the above configuration, and any arrangement may be used as long as the region where the openings ALc are overlapped is equal to the opening setting range RLc.
  • the openings ALc may be randomly arranged within the opening setting range RLc.
  • the center of gravity of the incident angle directivity of each pixel PLb substantially coincides with the center of gravity of the opening ALb of each pixel PLb, and is biased to the left (front of the vehicle 221) from the center of the pixel PLb in most of the pixel PLb. .. Therefore, the average of the center of gravity of the incident angle directivity of each pixel PLb is biased to the left from the center of the pixel PLb. Further, the average of the incident angles of the center-of-gravity rays of each pixel PLb is inclined to the right (rear of the vehicle 221) with respect to the normal direction of the light receiving surface of the pixel array portion.
  • the center of gravity of the incident angle directivity of each pixel PLc substantially coincides with the center of gravity of the opening ALc of each pixel PLc, and is biased to the left (front of the vehicle 221) from the center of the pixel PLc in most of the pixel PLc. Therefore, the average of the center of gravity of the incident angle directivity of each pixel PLc is biased to the left from the center of the pixel PLc. Further, the average of the incident angles of the center-of-gravity rays of each pixel PLc is inclined to the right (rear of the vehicle 221) with respect to the normal direction of the light receiving surface of the pixel array portion.
  • the offset amount from the center of the pixel PLc of the opening setting range RLc is larger than the offset amount from the center of the pixel PLb of the opening setting range RLb. Therefore, the average of the incident angles of the center-of-gravity rays of each pixel PLc is inclined to the right (rear of the vehicle 221) from the average of the incident angles of the center-of-gravity rays of each pixel PLb.
  • the pixel PLb and the pixel PLc of the image sensor 121 enable imaging of different angles of view FL21 and FL22 in the front-rear direction of the vehicle 221.
  • FIG. 31 shows the angle of view FL21 imaged by each pixel PLb of the image sensor 121L.
  • the arrow AL21 indicates the line-of-sight direction of the driver 222
  • the arrow AL22 indicates the imaging direction of each pixel PLb of the image sensor 121L.
  • the angle ⁇ L21 indicates the angle of incidence of the driver 222's line of sight AL21 on the display surface of the display unit 25L.
  • the angle ⁇ L22 indicates the angle of the imaging direction AL22 with respect to the display surface of the display unit 25L.
  • FIG. 32 shows the angle of view FL22 imaged by each pixel PLv of the image sensor 121L.
  • the arrow AL23 indicates the line-of-sight direction of the driver 222
  • the arrow AL24 indicates the imaging direction of each pixel PLc of the image sensor 121L.
  • the angle ⁇ L23 indicates the angle of incidence of the driver 222's line of sight AL23 on the display surface of the display unit 25L.
  • the angle ⁇ L24 indicates the angle of the imaging direction AL24 with respect to the display surface of the display unit 25L.
  • the angle of view FL 22 is shifted from the angle of view FL 21 toward the rear of the vehicle 221.
  • the image sensor 121 of the camera module 21R can also image the different angles of view FR21 (FIG. 31) and the angle of view FL22 (FIG. 32) in the front-rear direction of the vehicle 221.
  • Kind of pixels are provided.
  • This process starts when the power of the vehicle 221 is turned on and ends when the power of the vehicle 221 is turned off, for example.
  • step S101 the surroundings of the vehicle 221 are imaged in the same manner as in the process of step S1 of FIG.
  • step S102 the detection process of the driver's instruction operation is performed in the same manner as the process of step S55 of FIG.
  • step S103 the restoration unit 122L selects pixels and coefficients to be used for image restoration.
  • the angle of the imaging direction of the display unit 25L with respect to the display surface among the pixel PLb and the pixel PLc is determined by the display unit.
  • the pixel closer to the angle of incidence of the driver 222's line of sight on the 25L display surface is selected.
  • the angle ⁇ L22 of the image pickup direction AL22 by each pixel PLb of the image pickup device 121L of FIG. 31 is the line of sight of the driver 222 of FIG. 31 from the angle ⁇ L24 of the image pickup direction AL24 by each pixel PLc of the image pickup element 121L of FIG. It is close to the incident angle ⁇ L21 of AL21. Therefore, the pixel PLb is selected with respect to the line of sight AL21 of the driver 222.
  • the angle ⁇ L24 of the image pickup direction AL24 by each pixel PLc of the image pickup device 121L of FIG. 32 is larger than the angle ⁇ L22 of the image pickup direction AL22 by each pixel PLb of the image pickup element 121L of FIG.
  • the line of sight AL23 is close to the incident angle ⁇ L23. Therefore, the pixel PLc is selected with respect to the line of sight AL23 of the driver 222.
  • the restoration unit 122L sets the distance to the subject surface 102 to be restored, that is, the subject distance. Any method can be adopted as the method for setting the subject distance. For example, the restoration unit 122L sets the subject distance set by the user or the subject distance detected by various sensors to the distance to the subject surface 102 to be restored.
  • the restoration unit 122L reads out the selected pixel and the coefficient set group associated with the set subject distance from the storage unit 124L.
  • steps S104 to S105 the same processing as in steps S3 to S4 of FIG. 21 is executed.
  • step S106 the display unit 25L displays the restored image under the control of the display control unit 26. That is, the left side image of the angle of view selected in the process of step S103 is displayed on the display unit 25L. As a result, the angle of view (display range) of the left side image displayed on the display unit 25L is appropriately changed based on the instruction operation of the driver 222.
  • the angle of view (imaging range and display range) of the side image is appropriately set, and the driver 222 can check the side and the rear of the vehicle 221 without feeling any discomfort.
  • the angle of view of the side image may be changed based on the detection result of the dangerous substance.
  • the camera module 21 is attached to the inner surface of the side window of the vehicle 221.
  • the camera module 21 may be attached to the outer surface of the side window of the vehicle 221.
  • the camera module 21 may be attached to the outer side surface of the vehicle 221.
  • the camera module 21 may be attached to the outer surface of the pillar or door.
  • the imaging direction of the camera module 21 can be adjusted by the light-shielding pattern of the image sensor 121, the degree of freedom of the installation position with respect to the angle of view to be imaged is high. Further, the imaging direction of the image sensor 121L of the camera module 21L and the imaging direction of the image sensor 121R of the camera module 21R can be set individually. Therefore, for example, as shown in FIG. 34, the camera module 21L and the camera module 21R do not necessarily have to be mounted at symmetrical positions on both sides of the vehicle 221.
  • the camera module 21L is mounted on the left side surface of the vehicle 221 at substantially the same position as the driver 222 in the front-rear direction.
  • the camera module 21R is mounted on the right side surface of the vehicle 221 at substantially the same position as the rear end of the driver's seat 351 in the front-rear direction. Therefore, the camera module 21L is attached before the camera module 21R in the front-rear direction of the vehicle 221.
  • the image pickup unit 41 and the camera ECU 42 and the MCU 43 are provided on two different semiconductor chips, but other configurations may be adopted.
  • the image sensor 121 of the image sensor 41, the signal processing control unit 111 of the image sensor 41, the camera ECU 42, and the MCU 43 may be provided on two different semiconductor chips, or the signal processing control of the image sensor 121 and the image sensor 41 may be provided.
  • the unit 111 and the camera ECU 42 and the MCU 43 may be provided on three different semiconductor chips.
  • the image pickup unit 41, the camera ECU 42, and the MCU 43 may be provided on one semiconductor chip.
  • the camera module 21 may be realized by a semiconductor chip in which the LLC chip 202 and the signal processing chip 203 of FIG. 16 are laminated.
  • the image pickup unit 41 or the image pickup element 121 may be provided in the vehicle separately from the other parts of the camera module 21. As a result, the degree of freedom in the installation position of the image pickup unit 41 or the image pickup element 121 is improved.
  • the camera modules can be provided at the same positions as in the examples of FIGS. 17 and 34. , Not only the outside of the vehicle but also the inside of the vehicle may be imaged.
  • a lensless camera capable of capturing images on both the front and back sides.
  • a lensless camera capable of double-sided imaging in which a CMOS image sensor having a predetermined pattern formed by drilling is bonded and each image sensor captures a pattern provided on the other image sensor as a shading pattern is used.
  • the details of this type of lensless camera are described in, for example, “Tomoya Nakamura, 4 others," Super Field-of-View Lensless Camera by Coded Image Sensors ", 2019".
  • the imaging outside and inside the vehicle may be switched for each frame.
  • the frequency of imaging the outside of the vehicle may be greater than the frequency of imaging the inside of the vehicle.
  • the installation position of the display unit 25 is not limited to the above-mentioned example, and can be changed.
  • the display unit 25R may be provided on the inner surface of the pillar 233R at the right end of the windshield 231 of the vehicle 221.
  • the display unit 25L may be provided on the inner surface of the leftmost pillar 233L of the windshield 231 of the vehicle 221.
  • the camera module 21R may be provided on the outer surface of the pillar 233R, and the pillar 233R captures an image in the direction of the blind spot of the driver 222 by the camera module 21R and displays it on the display unit 25R.
  • a camera module 21L is provided on the outer surface of the pillar 233L, and the pillar 233L captures an image of the driver 222 in the blind spot direction by the camera module 21L and displays it on the display unit 25L. You may do so.
  • the display unit 25 instead of dividing the display unit 25 into left and right, for example, one is provided in the center of the front surface of the dashboard of the vehicle 221 so that the left side image and the right side image are displayed separately on the left and right on one display unit. May be good.
  • the display unit 401L and the display unit 401R are provided at substantially the same positions as the display unit 25L and the display unit 25R. You may.
  • the display unit 401L displays the left side image, images the driver, and supplies the obtained driver image to the driver recognition unit 23.
  • the driver recognition unit 23 monitors the driver based on the acquired driver image, detects the direction of the line of sight, and the like.
  • the display unit 401R displays the right side image, images the driver, and supplies the obtained driver image to the driver recognition unit 23.
  • the driver recognition unit 23 monitors the driver based on the acquired driver image, detects the direction of the line of sight, and the like.
  • the driver when the driver looks at the display unit 401L or the display unit 401R, the driver can be imaged from the direction in which the driver directs the line of sight, and the detection accuracy of the driver's line of sight direction is improved.
  • the display unit 401 is simply referred to as the display unit 401.
  • 37 and 38 show a configuration example of the display surface of the display unit 401 when the display unit 401 is composed of a micro LED display having a micro LED as a display element.
  • the pixels including the micro LED 411 shown by the white frame and the pixels including the image sensor 412 shown by the frame of the diagonal line pattern are alternately arranged in an array every other row.
  • the image sensor 412 is the same image sensor as the image sensor 121.
  • the image sensor 412 is provided at the four corners of the region where the pixels including the micro LED 411 are arranged in a two-dimensional array.
  • the area occupied by the micro LED 411 which is a light source, is very small in each pixel of the display unit 401. Therefore, the image sensor 412 can be easily arranged in the gap between the adjacent micro LEDs 411. Thereby, the driver can be imaged by using the image sensor 412 while displaying the side image by using the micro LED 411.
  • the display element is not limited to the micro LED.
  • it may be an organic EL element.
  • the learning unit 183 learns the detection conditions that serve as the reference for detecting the display change instruction operation. This prevents, for example, an operation that the driver does not intend is erroneously detected as a display change instruction operation, the display range of the side image is changed, stress is applied to the driver, and the desired area cannot be monitored. Will be done. For example, a driver who moves his or her eyes to see a person sitting in the passenger seat or a car navigation device, looks back to see a person sitting in the back seat, or raises his or her hand to touch the head. It is prevented that the operation is erroneously detected as a display change instruction operation.
  • each driver has a habit of movement (for example, large movements, many behaviors, etc.), it is desirable that the detection conditions be learned for each driver.
  • the default detection conditions are initially used, and the detection conditions are learned and updated based on the driver's reaction when the display range of the side image is changed. For example, if the driver does not respond, it is determined that the change in the display range is appropriate (correct answer), and if the driver performs an action to change the display range, the change in the display range is inappropriate (inappropriate). It is judged that the answer was correct).
  • a new display change instruction operation, a manual operation using a button, or the like is assumed.
  • the display change instruction operation may be detected in consideration of conditions other than the driver's operation, for example.
  • the display change instruction operation may be detected in consideration of conditions such as the speed of the vehicle, the traveling route, and the traveling state.
  • the detection conditions may be relaxed so that the display change instruction operation can be easily detected.
  • the detection conditions may be changed so that the time required for detecting the display change instruction operation is shortened.
  • the detection conditions may be learned not only for the driver but also for each region (for example, country), each vehicle, and each type of vehicle (for example, large vehicle, trailer, small vehicle, etc.).
  • the display range of the side image may be changed based on the above-mentioned driver's display change instruction operation and conditions other than the detection result of the dangerous substance.
  • the display range of the side image may be changed based on the driving operation.
  • the display range of the side image may be changed due to sudden start, sudden braking, sudden turning, retreat, parking, or the like.
  • the display range of the side image is changed so that the detected object is displayed as soon as possible. It may be.
  • the display range of the side image may be changed based on the situation around the vehicle.
  • the display range of the side image may be changed based on the width of the road on which the vehicle is traveling, the weather, the brightness of the surroundings, and the like.
  • the display range of the side image may be changed based on the planned route of the vehicle.
  • the display range of the side image may be changed by a manual operation such as a button operation or a voice command.
  • FIG. 29 shows an example in which two types of aperture setting ranges are set in the image sensor 121, three or more types of aperture setting ranges may be set.
  • three or more types of opening setting ranges having different horizontal positions may be set.
  • two or more types of opening setting ranges in which at least one of the height and the width is different may be set.
  • the image sensor 121 may be provided with pixels having an opening setting range capable of imaging not only the obliquely rearward portion of the vehicle but also the obliquely frontward portion of the vehicle.
  • a drive unit for independently driving the pixels 121a of each angle of view may be provided so that imaging by the pixels 121a of each angle of view can be performed simultaneously or individually. Then, for example, only the pixel 121a corresponding to the restored image used for displaying the electronic side mirror may be imaged. As a result, the processing of the image sensor 121 is reduced.
  • FIG. 5 shows an example in which a light-shielding film 121b is used as a modulation element or a combination of photodiodes contributing to output is changed to give different incident angle directivity to each pixel.
  • an optical filter 902 that covers the light receiving surface of the image pickup device 901 as a modulation element so that each pixel has an incident angle directivity.
  • the optical filter 902 is arranged so as to cover the entire surface of the light receiving surface 901A at a predetermined distance from the light receiving surface 901A of the image sensor 901.
  • the light from the subject surface 102 is modulated by the optical filter 902 and then enters the light receiving surface 901A of the image sensor 901.
  • optical filter 902BW having a black and white grid pattern shown in FIG. 40.
  • a white pattern portion that transmits light and a black pattern portion that blocks light are randomly arranged.
  • the size of each pattern is set independently of the size of the pixels of the image sensor 901.
  • FIG. 41 shows the light receiving sensitivity characteristics of the image sensor 901 with respect to the light from the point light source PA and the point light source PB on the subject surface 102 when the optical filter 902BW is used.
  • the light from the point light source PA and the point light source PB is modulated by the optical filter 902BW, and then enters the light receiving surface 901A of the image sensor 901.
  • the light receiving sensitivity characteristic of the image sensor 901 with respect to the light from the point light source PA is as in the waveform Sa. That is, since shadows are generated by the black pattern portion of the optical filter 902BW, a shading pattern is generated in the image on the light receiving surface 901A with respect to the light from the point light source PA.
  • the light receiving sensitivity characteristic of the image sensor 901 with respect to the light from the point light source PB is as in the waveform Sb. That is, since shadows are generated by the black pattern portion of the optical filter 902BW, a shading pattern is generated in the image on the light receiving surface 901A with respect to the light from the point light source PB.
  • each pixel of the image sensor 901 has incident angle directivity with respect to each point light source of the subject surface 102.
  • the optical filter 902HW of FIG. 42 may be used instead of the black pattern portion of the optical filter 902BW.
  • the optical filter 902HW includes a linear polarizing element 911A, a linear polarizing element 911B, and a 1/2 wave plate 912 having the same polarization direction, and the 1/2 wave plate 912 is located between the linear polarizing element 911A and the linear polarizing element 911B. It is sandwiched.
  • the 1/2 wavelength plate 912 is provided with a polarizing portion indicated by diagonal lines instead of the black pattern portion of the optical filter 902BW, and the white pattern portion and the polarizing portion are randomly arranged.
  • the linearly polarized light element 911A transmits only the light in the predetermined polarization direction among the almost unpolarized light emitted from the point light source PA.
  • the linearly polarizing element 911A transmits only light whose polarization direction is parallel to the drawing.
  • the polarized light transmitted through the linearly polarizing element 911A the polarized light transmitted through the polarizing portion of the 1/2 wave plate 912 changes its polarization direction to a direction perpendicular to the drawing due to the rotation of the polarizing surface.
  • the linearly polarized light element 911A transmits the polarized light transmitted through the white pattern portion and hardly transmits the polarized light transmitted through the polarized light portion. Therefore, the amount of polarized light transmitted through the polarized light portion is smaller than that of the polarized light transmitted through the white pattern portion. As a result, a pattern of shading similar to that when the optical filter BW is used is generated on the light receiving surface 901A of the image sensor 901.
  • the optical interference mask can be used as the optical filter 902LF.
  • the light emitted from the point light sources PA and PB of the subject surface 102 is applied to the light receiving surface 901A of the image sensor 901 via the optical filter 902LF.
  • the light incident surface of the optical filter 902LF is provided with irregularities of about wavelength.
  • the optical filter 902LF maximizes the transmission of light of a specific wavelength irradiated from the vertical direction.
  • the optical path length changes.
  • the optical path length is an odd multiple of a half wavelength
  • the light weakens each other
  • the optical path length is an even multiple of the half wavelength
  • the light strengthens each other. That is, as shown in FIG. 43B, the intensity of the transmitted light of a specific wavelength emitted from the point light sources PA and PB and transmitted through the optical filter 902LF is modulated according to the incident angle with respect to the optical filter 902LF and is modulated by the image pickup element 901. It is incident on the light receiving surface 901A of. Therefore, the detection signal output from each pixel of the image sensor 901 is a signal obtained by synthesizing the modulated light intensity of each point light source for each pixel.
  • the process of the driver recognition unit 23 can be executed by the control unit 27.
  • the processing of the alert control unit 24 can be executed by the control unit 27 or the camera ECU 42.
  • the processing of the restoration unit 122 can be executed by the camera ECU 42 or the control unit 27.
  • This technology can also be applied to an image pickup device or an image sensor that captures light having a wavelength other than visible light such as infrared light.
  • the restored image is not an image in which the user can visually recognize the subject, but an image in which the user cannot visually recognize the subject.
  • the image quality of the restored image is improved with respect to an image processing device or the like capable of recognizing the subject. Since it is difficult for a normal imaging lens to transmit far-infrared light, this technique is effective, for example, when imaging far-infrared light. Therefore, the restored image may be an image of far-infrared light, and is not limited to far-infrared light, and may be an image of other visible light or non-visible light.
  • machine learning such as deep learning
  • the accuracy of image recognition using the detected image before restoration is improved.
  • the image quality of the detected image before restoration is improved.
  • the camera ECU 42L and the camera ECU 42R in FIG. 1 perform image recognition using the detected image.
  • the series of processes described above can be executed by hardware or software.
  • the programs that make up the software are installed on the computer.
  • the computer includes a computer (for example, a control unit 123, etc.) incorporated in dedicated hardware.
  • the program executed by the computer can be provided by recording it on a recording medium such as a package medium. Programs can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting.
  • the program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
  • this technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and processed jointly.
  • each step described in the above flowchart can be executed by one device or shared by a plurality of devices.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • An image sensor that is mounted so as to face the side of the pixel and whose average of the center of gravity of the incident angle directional indicating the directivity of the incident light of the plurality of pixels with respect to the incident angle is biased in one direction from the center of the pixel. ..
  • the image pickup device which includes a plurality of first pixels.
  • Each of the plurality of pixels One photoelectric conversion element and A light-shielding film that blocks a part of the incident light from being incident on the photoelectric conversion element is provided.
  • the image pickup device according to (2), wherein the openings of the light-shielding film of the plurality of first pixels are arranged at different positions within the first range.
  • the plurality of pixels are a range in which the center of gravity is deviated from the center of the pixels in the front-rear direction of the vehicle when the image sensor is attached to the vehicle, and is a range different from the first range.
  • the image pickup device further including a plurality of second pixels in which openings of the light-shielding film are arranged at different positions within the second range.
  • the image sensor according to any one of (1) to (4) above, wherein the average of the center of gravity of the incident angle directivity is biased to the front of the vehicle when the image sensor is attached to the vehicle.
  • the image pickup device according to any one of (1) to (5), which is attached to both sides of the vehicle.
  • the image pickup device wherein the light receiving surface is attached so as to face, contact, or approach the inner surface of the side window of the vehicle.
  • the image pickup device which is attached to the outer side surface of the vehicle.
  • An image sensor that is mounted so as to face the side of the pixel and whose average of the center of gravity of the incident angle directional indicating the directivity of the incident light of the plurality of pixels with respect to the incident angle is biased in one direction from the center of the pixel.
  • An imaging system including a display unit that displays a restored image restored from a detected image based on the detection signals of the plurality of pixels.
  • a plurality of first pixels and different positions within a second range which is a range in which the center of gravity is deviated from the center of the pixels in the front-rear direction of the vehicle and is a range different from the first range.
  • the imaging system according to (14) above which includes a plurality of second pixels into which the incident light is incident.
  • (16) The display of the restored image restored from the detected image based on the detection signal from the first pixel and the restored image restored from the detected image based on the detection signal from the second pixel by the display unit.
  • the restored image displayed by the display unit is changed based on the operation of the driver of the vehicle and at least one of the detection results of dangerous substances. Imaging system.
  • the display control unit further includes a display control unit that controls the range of the restored image displayed by the display unit based on the operation of the driver of the vehicle and at least one of the detection results of the dangerous substance (14).
  • the imaging system according to any one of (17).
  • the display unit A display surface in which multiple display elements are arranged, and A plurality of detection signals provided on the display surface, which receive incident light from an incident subject without passing through either an imaging lens or a pinhole, and output detection signals indicating output pixel values modulated by the incident angle of the incident light.
  • the imaging system according to any one of (14) to (18) above, which comprises the pixels of the above.
  • (20) The imaging system according to (19), wherein the detection signals of the plurality of pixels of the display unit are used for detecting the line-of-sight direction of the driver of the vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

本技術は、電子サイドミラーに用いる撮像装置の設置の自由度を高めることができるようにする撮像素子、表示装置、及び、撮像システムに関する。 撮像素子は、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を出力する画素を複数備え、受光面が車両の側方を向くように取り付けられ、前記複数の画素の前記入射光の入射角に対する指向性を示す入射角指向性の重心の平均が、前記画素の中心から一方の方向に偏っている。本技術は、例えば、電子サイドミラーに適用できる。

Description

撮像素子、表示装置、及び、撮像システム
 本技術は、撮像素子、表示装置、及び、撮像システムに関し、特に、車両の電子サイドミラーを実現するのに用いて好適な撮像素子、表示装置、及び、撮像システムに関する。
 近年、従来のサイドミラーの代わりに電子サイドミラーを搭載した車両の普及が進んでいる。電子サイドミラーとは、従来のサイドミラーに映る範囲と同様の範囲(車両の斜め後方)をカメラにより撮像し、得られた画像を車内に設置したモニタに表示するシステムである(例えば、特許文献1、2参照)。
特開2012-113605号公報 特表2016-523204号公報
 特許文献1、2では、従来のドアミラーの設置位置と同様の位置にカメラが設置されており、カメラが車外において車体の左右方向に突出している。従って、従来のドアミラーと同様に、カメラが狭い場所を通行する場合の妨げになったり、接触等により破損したりするおそれがある。
 これに対して、カメラを車内に設置しようとした場合、サイドミラーと同様の範囲を撮像するためには、カメラを車両のサイドウインドウに対して斜めに設置する必要がある。この場合、カメラのレンズとサイドウインドウとの間に空間ができるため、サイドウインドウへの映り込みが発生するおそれがある。
 一方、映り込みを防止するために、カメラのレンズをサイドウインドウに近接させると、撮像方向が車両の側方を向いてしまい、車両の斜め後方の撮像が困難になる。
 本技術は、このような状況に鑑みてなされたものであり、電子サイドミラーに用いる撮像装置の設置の自由度を高めるようにするものである。
 本技術の第1の側面の撮像素子は、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を出力する画素を複数備え、受光面が車両の側方を向くように取り付けられ、前記複数の画素の前記入射光の入射角に対する指向性を示す入射角指向性の重心の平均が、前記画素の中心から一方の方向に偏っている。
 本技術の第2の側面の表示装置は、車両の内部において運転者の左斜め前又は右斜め前に設けられ、複数の表示素子が並べられた表示面と、前記表示面に設けられ、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号をそれぞれ出力する複数の画素とを備える。
 本技術の第3の側面の撮像システムは、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を出力する画素を複数備え、受光面が車両の側方を向くように取り付けられ、前記複数の画素の前記入射光の入射角に対する指向性を示す入射角指向性の重心の平均が、前記画素の中心から一方の方向に偏っている撮像素子と、前記複数の画素の前記検出信号に基づく検出画像から復元される復元画像を表示する表示部とを備える。
 本技術の第1の側面においては、車両の側方から偏った方向が撮像される。
 本技術の第2の側面においては、表示面に設けられている複数の表示素子により画像が表示され、前記表示面に設けられている複数の画素から、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光が受光され、前記入射光の入射角によって変調された出力画素値を示す検出信号がそれぞれ出力される。
 本技術の第3の側面においては、車両の側方から偏った方向が撮像され、撮像の結果得られた検出画像から復元された復元画像が表示される。
本技術を適用した車載システムの構成例を示すブロック図である。 図1の車載システムの撮像部の構成例を示すブロック図である。 図2の撮像素子における撮像の原理を説明する図である。 図2の撮像素子の画素アレイ部の構成例を示す図である。 図2の撮像素子の第1の構成例を説明する図である。 図2の撮像素子の第2の構成例を説明する図である。 入射角指向性の発生の原理を説明する図である。 オンチップレンズを利用した入射角指向性の変化を説明する図である。 狭画角画素と広画角画素との関係を説明する図である。 狭画角画素と広画角画素との関係を説明する図である。 狭画角画素と広画角画素との関係を説明する図である。 狭画角画素と広画角画素の画質の違いを説明するための図である。 狭画角画素と広画角画素の画質の違いを説明するための図である。 複数の画角の画素を組み合わせる例を説明する図である。 図1の車載システムの運転者認識部の構成例を示すブロック図である。 カメラモジュールのハードウエアの構成例を示す図である。 カメラモジュール、表示部、及び、撮像部の設置例を示す図である。 カメラモジュールの取付方法の例を示す図である。 図2の撮像素子の画素アレイ部の第1の実施の形態を示す図である。 図19の画素の遮光パターンの例を示す図である。 電子サイドミラー表示制御処理の第1の実施の形態を説明するためのフローチャートである。 電子サイドミラー表示制御処理の第2の実施の形態を説明するためのフローチャートである。 電子サイドミラーの表示範囲の変更方法を説明するための図である。 電子サイドミラーの表示範囲の変更方法を説明するための図である。 電子サイドミラーの表示範囲の変更方法を説明するための図である。 電子サイドミラーの表示範囲の変更方法を説明するための図である。 電子サイドミラーの表示範囲の変更方法を説明するための図である。 警告表示の例を示す図である。 図2の撮像素子の画素アレイ部の第2の実施の形態を示す図である。 図29の画素の遮光パターンの例を示す図である。 撮像範囲の変更方法を説明するための図である。 撮像範囲の変更方法を説明するための図である。 電子サイドミラー表示制御処理の第2の実施の形態を説明するためのフローチャートである。 カメラモジュールの設置例を示す図である。 カメラモジュール及び表示部の設置例を示す図である。 表示部の変形例を示す図である。 マイクロLEDディスプレイに撮像素子を設けた例を示す図である。 マイクロLEDディスプレイに撮像素子を設けた例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。 撮像素子の変形例を示す図である。
 以下に添付図面を参照しながら、本技術の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を適宜省略する。
 また、以下の順序で説明を行う。
  1.第1の実施の形態
  2.第2の実施の形態
  3.変形例
  4.その他
 <<1.第1の実施の形態>>
 まず、図1乃至図28を参照して、本技術の第1の実施の形態について説明する。
  <車載システム11の構成例>
 図1は、本技術を適用した車載システム11の構成例を示すブロック図である。
 車載システム11は、車両に設けられ、電子サイドミラーの制御等を行うシステムである。車載システム11は、カメラモジュール21L、カメラモジュール21R、通信ユニット22、運転者認識部23、アラート制御部24、表示部25L、表示部25R、表示制御部26、及び、制御部27を備える。カメラモジュール21L、カメラモジュール21R、通信ユニット22、運転者認識部23、アラート制御部24、表示制御部26、及び、制御部27は、バスB1を介して相互に接続されている。
 なお、以下、説明を簡単にするために、車載システム11の各部がバスB1を介してデータの授受等を行う場合のバスB1の記載を省略する。例えば、制御部27が、バスB1を介して通信ユニット22にデータを供給する場合、単に制御部27が通信ユニット22にデータを供給すると記載する。
 カメラモジュール21Lは、後述するように、車両の左側方及び後方の撮像、画像認識等の処理を行う。カメラモジュール21Lは、撮像部41L、カメラECU42L、及び、MCU(Micro Control Unit)43Lを備える。
 撮像部41Lは、後述するように、撮像レンズ及びピンホールを用いないLLC(Lens Less Camera)により構成される。撮像部41Lは、後述するように、車両の左側方及び後方の撮像を行い、得られた検出画像から被写体の像が結像された復元画像を復元する。撮像部41Lは、車両の左側方及び後方をセンシングしたセンシング画像として復元画像(以下、左サイド画像と称する)をカメラECU42Lに供給する。
 カメラECU42Lは、左サイド画像に対して、例えばゲイン調整やホワイトバランス調整、HDR(High Dynamic Range)処理、交通信号のフリッカ補正処理などの画質調整処理を行う。なお、画質調整処理は、カメラECU42Lで実行されることに限定されず、撮像部41L内部で実行されてもよい。
 また、カメラECU42Lは、左サイド画像に対して物体認識処理を行い、車両の左側方及び後方の危険物(例えば、歩行者、自転車、バイク、車両等)の検出を行う。カメラECU42Lは、左サイド画像、及び、危険物の検出結果を示すデータを、MCU43Lに供給する。
 MCU43Lは、カメラECU42Lから供給されるデータを、通信用の形式のデータに変換し、バスB1に出力する。また、MCU43Lは、バスB1から受信したデータを、カメラECU42L用の形式のデータに変換し、カメラECU42Lに供給する。
 カメラモジュール21Rは、後述するように、車両の右側方及び後方の撮像、画像認識等の処理を行う。カメラモジュール21Rは、撮像部41R、カメラECU42R、及び、MCU(Micro Control Unit)43Rを備える。
 撮像部41Rは、後述するように、撮像レンズ及びピンホールを用いないLLC(Lens Less Camera)により構成される。撮像部41Rは、後述するように、車両の右側方及び後方の撮像を行い、得られた検出画像から被写体の像が結像された復元画像を復元する。撮像部41Rは、車両の右側方及び後方をセンシングしたセンシング画像として復元画像(以下、右サイド画像と称する)をカメラECU42Rに供給する。
 カメラECU42Rは、右サイド画像に対して、例えばゲイン調整やホワイトバランス調整、HDR(High Dynamic Range)処理、交通信号のフリッカ補正処理などの画質調整処理を行う。なお、画質調整処理は、カメラECU42Rで実行されることに限定されず、撮像部41R内部で実行されてもよい。
 また、カメラECU42Rは、右サイド画像に対して物体認識処理を行い、車両の右側方及び後方の危険物(例えば、歩行者、自転車、バイク、車両等)の検出を行う。カメラECU42Rは、右サイド画像、及び、危険物の検出結果を示すデータを、MCU43Rに供給する。
 MCU43Rは、カメラECU42Rから供給されるデータを、通信用の形式のデータに変換し、バスB1に出力する。また、MCU43Rは、バスB1から受信したデータを、カメラECU42R用の形式のデータに変換し、カメラECU42Rに供給する。
 なお、以下、カメラモジュール21Lとカメラモジュール21Rとを区別する必要がない場合、単にカメラモジュール21と称する。以下、撮像部41Lと撮像部41Rとを区別する必要がない場合、単に撮像部41と称する。以下、カメラECU42LとカメラECU42Rとを区別する必要がない場合、単にカメラECU42と称する。以下、MCU43LとMCU43Rとを区別する必要がない場合、単にMCU43と称する。以下、左サイド画像と右サイド画像とを区別する必要がない場合、単にサイド画像と称する。
 逆に、以下、カメラモジュール21Lの各部とカメラモジュール21Rの各部とを区別する必要がある場合、カメラモジュール21Lの各部の符号の後ろに”L”の文字を付し、カメラモジュール21Rの各部の符号の後ろに”R”の文字を付すものとする。
 通信ユニット22は、例えば、車車間通信、車歩間通信、路車間通信等の各種の無線通信により、周辺車両や、歩行者が所持する携帯型端末装置、路側機、外部のサーバとの間で情報の送受信を行う。
 運転者認識部23は、車両を運転する運転者の状態を認識し(運転者のモニタリングを行い)、認識結果を示すデータをバスB1に出力する。
 アラート制御部24は、カメラECU42Lによる車両の左側方及び後方の危険物の検出結果に基づいて、危険物に対する注意を促す警告表示を左サイド画像に重畳する処理を行う。アラート制御部24は、警告表示を重畳した左サイド画像をバスB1に出力する。同様に、アラート制御部24は、カメラECU42Rによる車両の右側方及び後方の危険物の検出結果に基づいて、危険物に対する注意を促す警告表示を右サイド画像に重畳する処理を行う。アラート制御部24は、警告表示を重畳した右サイド画像をバスB1に出力する。
 なお、アラート制御部24は、危険物が検出されていない場合、警告表示を重畳せずに、そのまま左サイド画像及び右サイド画像をバスB1に出力する。
 表示部25Lは、例えば、有機ELディスプレイ、液晶ディスプレイ等のディスプレイにより構成され、左サイド画像の表示を行う。
 表示部25Rは、例えば、有機ELディスプレイ、液晶ディスプレイ等のディスプレイにより構成され、右サイド画像の表示を行う。
 なお、以下、表示部25Lと表示部25Rとを区別する必要がない場合、単に表示部25と称する。
 表示制御部26は、表示部25L及び表示部25Rによる表示処理の制御を行う。例えば、表示制御部26は、表示部25Lによる左サイド画像の表示範囲を制御する。また、例えば、表示制御部26は、表示部25による警告表示が重畳された左サイド画像の表示を制御することにより、警告表示の表示を制御する。同様に、例えば、表示制御部26は、表示部25Rによる右サイド画像の表示範囲を制御する。また、例えば、表示制御部26は、表示部25による警告表示が重畳された右サイド画像の表示を制御することにより、警告表示の表示を制御する。
 制御部27は、例えば、各種のプロセッサを備え、車載システム11の各部を制御したり、各種の処理を実行したりする。
  <撮像部41の構成例>
 図2は、カメラモジュール21の撮像部41の構成例を示すブロック図である。
 撮像部41は、撮像素子121、復元部122、制御部123、記憶部124、及び、通信部125を備える。また、復元部122、制御部123、記憶部124、及び、通信部125により、信号処理や撮像部41の制御等を行う信号処理制御部111が構成される。なお、撮像部41は、撮像レンズを含まない(撮像レンズフリー)。
 また、撮像素子121、復元部122、制御部123、記憶部124、及び、通信部125は、バスB2介して相互に接続されており、バスB2を介してデータの送受信等を行う。なお、以下、説明を簡単にするために、撮像部41の各部がバスB2を介してデータの送受信等を行う場合のバスB2の記載を省略する。例えば、通信部125がバスB2を介して制御部123にデータを供給する場合、通信部125が制御部123にデータを供給すると記載する。
 撮像素子121は、各画素の検出感度に入射角指向性を持たせた撮像素子であり、入射光の光量に応じた検出信号レベルを示す検出信号からなる画像を復元部122又はバスB2に出力する。各画素の検出感度に入射角指向性を持たせるとは、各画素への入射光の入射角度に応じた受光感度特性を画素毎に異なるものとすることである。ただし、全ての画素の受光感度特性が完全に異なるものである必要はなく、一部の画素の受光感度特性が同一であってもよい。
 より具体的には、撮像素子121は、基本的な構造において、一般の、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子からなるものと同様のものであっても良い。ただし、撮像素子121は、画素アレイ部を構成する各画素の構成が一般のものと異なり、例えば、図4乃至図6を参照して後述するように、入射角指向性を持たせる構成を有している。そして、撮像素子121は、画素毎に入射光の入射角度に応じて受光感度が異なり(変化し)、画素単位で入射光の入射角度に対する入射角指向性を有している。
 ここで、例えば、全ての被写体は点光源の集合であり、各点光源からあらゆる方向に光が出射されているものとする。例えば、図3の左上の被写体の被写体面102が、点光源PA乃至点光源PCにより構成され、点光源PA乃至点光源PCが、それぞれ光強度a乃至光強度cの複数の光線を周囲に発しているものとする。また、以下、撮像素子121が、位置Pa乃至位置Pcに入射角指向性がそれぞれ異なる画素(以下、画素Pa乃至画素Pcと称する)を備えるものとする。
 この場合、図3の左上に示されるように、同一の点光源より発せられた同一の光強度の光線が、撮像素子121の各画素に入射される。例えば、点光源PAから発せられた光強度aの光線が、撮像素子121の画素Pa乃至画素Pcにそれぞれ入射される。一方、同一の点光源より発せられた光線は、画素毎にそれぞれ異なる入射角度で入射される。例えば、点光源PAからの光線は、画素Pa乃至画素Pcにそれぞれ異なる入射角度で入射される。
 これに対して、画素Pa乃至画素Pcの入射角指向性がそれぞれ異なるため、同一の点光源より発せられた同一の光強度の光線が、各画素で異なる感度で検出される。その結果、同一の光強度の光線が画素毎に異なる検出信号レベルで検出される。例えば、点光源PAからの光強度aの光線に対する検出信号レベルが、画素Pa乃至画素Pcでそれぞれ異なる値になる。
 そして、各点光源からの光線に対する各画素の受光感度レベルは、その光線の光強度に、その光線の入射角度に対する受光感度(すなわち、入射角指向性)を示す係数を乗じることにより求められる。例えば、点光源PAからの光線に対する画素Paの検出信号レベルは、点光源PAの光線の光強度aに、当該光線の画素Paへの入射角度に対する画素Paの入射角指向性を示す係数を乗じることにより求められる。
 従って、画素Pc,Pb,Paの検出信号レベルDA,DB,DCは、それぞれ以下の式(1)乃至式(3)で表される。
 DA=α1×a+β1×b+γ1×c ・・・(1)
 DB=α2×a+β2×b+γ2×c ・・・(2)
 DC=α3×a+β3×b+γ3×c ・・・(3)
 ここで、係数α1は、点光源PAから画素Pcへの光線の入射角度に対する画素Pcの入射角指向性を示す係数であり、当該入射角度に応じて設定される。また、α1×aは、点光源PAからの光線に対する画素Pcの検出信号レベルを示している。
 係数β1は、点光源PBから画素Pcへの光線の入射角度に対する画素Pcの入射角指向性を示す係数であり、当該入射角度に応じて設定される。また、β1×bは、点光源PBからの光線に対する画素Pcの検出信号レベルを示している。
 係数γ1は、点光源PCから画素Pcへの光線の入射角度に対する画素Pcの入射角指向性を示す係数であり、当該入射角度に応じて設定される。また、γ1×cは、点光源PCからの光線に対する画素Pcの検出信号レベルを示している。
 このように、画素Paの検出信号レベルDAは、画素Pcにおける点光源PA,PB,PCからの光線のそれぞれの光強度a,b,cと、それぞれの入射角度に応じた入射角指向性を示す係数α1,β1,γ1との積和により求められる。
 同様に、画素Pbの検出信号レベルDBは、式(2)に示されるように、画素Pbにおける点光源PA,PB,PCからの光線のそれぞれの光強度a,b,cと、それぞれの入射角度に応じた入射角指向性を示す係数α2,β2,γ2との積和により求められる。また、画素Pcの検出信号レベルDCは、式(3)に示されるように、画素Paにおける点光源PA,PB,PCからの光線のそれぞれの光強度a,b,cと、それぞれの入射角度に応じた入射角指向性を示す係数α2,β2,γ2との積和により求められる。
 ただし、画素Pa,Pb,Pcの検出信号レベルDA、DB、DCは、式(1)乃至式(3)に示されるように、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cが入り交じっている。従って、図3の右上に示されるように、撮像素子121における検出信号レベルは、被写体面102上の各点光源の光強度とは異なる。従って、撮像素子121により得られる画像は、被写体面102の像が結像されたものとは異なるものとなる。
 一方、式(1)乃至式(3)からなる連立方程式を作成し、作成した連立方程式を解くことにより、各点光源PA乃至点光源PCの光線の光強度a乃至光強度cが求められる。そして、求めた光強度a乃至光強度cに応じた画素値を有する画素を点光源PA乃至点光源PCの配置(相対位置)に合わせて並べることにより、図3の右下に示されるように、被写体面102の像が結像された復元画像が復元される。
 このようにして、撮像レンズ及びピンホールを必要とせず、各画素において入射角指向性を有する撮像素子121を実現することが可能となる。
 以下、連立方程式を構成する式毎に係数をまとめたもの(例えば、係数α1、β1、γ1)を係数セットと称する。以下、連立方程式に含まれる複数の式に対応する複数の係数セットをまとめたもの(例えば、係数セットα1、β1、γ1、係数セットα2、β2、γ2、係数セットα3、β3、γ3)を係数セット群と称する。
 ここで、被写体面102から撮像素子121の受光面までの被写体距離が異なると、被写体面102の各点光源からの光線の撮像素子121への入射角が異なるため、被写体距離毎に異なる係数セット群が必要となる。
 従って、撮像部41においては、撮像素子121からの被写体面までの距離(被写体距離)毎の係数セット群を予め用意しておき、被写体距離毎に係数セット群を切り替えて連立方程式を作成し、作成した連立方程式を解くことで、1個の検出画像に基づいて、様々な被写体距離の被写体面の復元画像を得ることが可能となる。例えば、検出画像を1回撮像し、記録した後、記録した検出画像を用いて、被写体面までの距離に応じて係数セット群を切り替えて、復元画像を復元することにより、任意の被写体距離の被写体面の復元画像を生成することが可能である。
 また、同じ被写体距離の被写体面102であっても、設定する点光源の数や配置が異なると、各点光源からの光線の撮像素子121への入射角が異なる。従って、同じ被写体距離の被写体面102に対して、複数の係数セット群が必要となる場合がある。さらに、各画素121aの入射角指向性は、上述した連立方程式の独立性を確保できるように設定する必要がある。
 また、撮像素子121が出力する画像は、図3の右上に示されるように被写体の像が結像されていない検出信号により構成される画像となるので、目視により被写体を認識することができない。すなわち、撮像素子121が出力する検出信号からなる検出画像は、画素信号の集合ではあるが、ユーザが目視しても被写体を認識できない(被写体を視認不可能な)画像である。
 そこで、以下、図3の右上に示されるように被写体の像が結像されていない検出信号より構成される画像、すなわち、撮像素子121により撮像される画像を、検出画像と称する。
 なお、入射角指向性は必ずしも画素単位で全て異なる必要はなく、入射角指向性が同じ画素を含んでいてもよい。
 図2に戻り、復元部122は、例えば、図3における撮像素子121から被写体面102(復元画像に対応する被写体面)までの距離に相当する被写体距離に対応し、上述した係数α1乃至α3,β1乃至β3,γ1乃至γ3に相当する係数セット群を記憶部124から取得する。また、復元部122は、撮像素子121から出力される検出画像の各画素の検出信号レベルと、取得した係数セット群とを用いて、上述した式(1)乃至式(3)で示されるような連立方程式を作成する。そして、復元部122は、作成した連立方程式を解くことにより、図3の右下に示される被写体の像が結像された画像を構成する各画素の画素値を求める。これにより、ユーザが目視して被写体を認識できる(被写体を視認可能な)画像が検出画像から復元される。
 以下、この検出画像から復元される画像を復元画像と称する。ただし、撮像素子121が紫外線などの視認可能な波長帯域以外の光のみに感度を有する場合、復元画像も通常の画像のように被写体を識別できるような画像とはならないが、この場合も復元画像と称する。
 また、以下、被写体の像が結像された状態の画像である復元画像であって、デモザイク処理等の色分離や同時化処理前の画像をRAW画像と称し、撮像素子121により撮像された検出画像については、色フィルタの配列に従った画像ではあるが、RAW画像ではないものとして区別する。
 なお、撮像素子121の画素数と、復元画像を構成する画素の画素数とは、必ずしも同一である必要はない。
 また、復元部122は、必要に応じて、復元画像に対してデモザイク処理、γ補正、ホワイトバランス調整、所定の圧縮形式への変換処理等を行う。そして、復元部122は、復元画像をバスB2に出力する。
 制御部123は、例えば、各種のプロセッサを備え、撮像部41の各部を制御したり、各種の処理を実行したりする。
 記憶部124は、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の記憶装置を1つ以上備え、例えば、撮像部41の処理に用いられるプログラムやデータ等を記憶する。例えば、記憶部124は、様々な被写体距離に対応付けて、上述した係数α1乃至α3,β1乃至β3,γ1乃至γ3に相当する係数セット群を記憶している。より具体的には、例えば、記憶部124は、各被写体距離における被写体面102毎に、被写体面102上に設定した各点光源に対する撮像素子121の各画素121aに対する係数を含む係数セット群を記憶している。
 通信部125は、所定の通信方式により、カメラECU42Lと通信を行う。
  <撮像素子121の第1の構成例>
 次に、図4及び図5を参照して、図2の撮像部41の撮像素子121の第1の構成例について説明する。
 図4は、撮像素子121の画素アレイ部の一部の正面図を示している。なお、図4においては、画素アレイ部の画素数が縦6画素×横6画素である場合の例を示しているが、画素アレイ部の画素数は、これに限るものではない。また、図4の画素アレイ部の構成例は、撮像素子121の第1の構成例を説明するためのものであり、実際の画素アレイ部の構成例については後述する。
 図4の撮像素子121では、画素121a毎に、そのフォトダイオードの受光領域(受光面)の一部を覆うように変調素子の1つである遮光膜121bが設けられており、各画素121aに入射する入射光が、入射角度に応じて光学的に変調される。そして、例えば、画素121a毎に異なる範囲に遮光膜121bを設けることにより、画素121a毎に入射光の入射角度に対する受光感度が異なるものとなり、各画素121aが異なる入射角指向性を有するようになる。
 例えば、画素121a-1と画素121a-2とでは、設けられている遮光膜121b-1と遮光膜121b-2とによりフォトダイオードの受光領域を遮光する範囲が異なる(遮光する領域(位置)、及び、遮光する面積の少なくともいずれかが異なる)。すなわち、画素121a-1においては、フォトダイオードの受光領域の左側の一部を所定の幅だけ遮光するように遮光膜121b-1が設けられている。一方、画素121a-2においては、受光領域の右側の一部を所定の幅だけ遮光するように遮光膜121b-2が設けられている。なお、遮光膜121b-1がフォトダイオードの受光領域を遮光する幅と、遮光膜121b-2がフォトダイオードの受光領域を遮光する幅とは、異なっていてもよいし、同じであってもよい。その他の画素121aにおいても、同様に、遮光膜121bが、画素毎に受光領域の異なる範囲を遮光するように、画素アレイ部内でランダムに配置されている。
 図5の上段は、撮像素子121の第1の構成例における側面断面図であり、図5の中段は、撮像素子121の第1の構成例における上面図である。また、図5の上段の側面断面図は、図5の中段におけるAB断面となる。さらに、図5の下段は、撮像素子121の回路構成例である。
 図5の上段の撮像素子121においては、図中の上方から下方に向けて入射光が入射する。隣接する画素121a-1,121a-2は、それぞれ図中の最下層に配線層Z12が設けられており、その上に光電変換層Z11が設けられている、いわゆる、裏面照射型である。
 なお、以下、画素121a-1,121a-2を区別する必要がない場合、符号の末尾の数字の記載を省略し、単に、画素121aと称する。以下、明細書内において、他の構成についても、同様に符号の末尾の数字やアルファベットを省略する場合がある。
 また、図5は、撮像素子121の画素アレイ部を構成する2画素分の側面図および上面図のみを示しており、いうまでもなく、これ以上の数の画素121aが配置されているが図示が省略されている。
 さらに、画素121a-1,121a-2は、それぞれ光電変換層Z11に光電変換素子としてフォトダイオード121e-1,121e-2を備えている。また、フォトダイオード121e-1,121e-2の上には、それぞれ上からオンチップレンズ121c-1,121c-2、およびカラーフィルタ121d-1,121d-2が積層されている。
 オンチップレンズ121c-1,121c-2は、入射光をフォトダイオード121e-1,121e-2上に集光させる。
 カラーフィルタ121d-1,121d-2は、例えば、赤色、緑色、青色、赤外および白色等の特定の波長の光を透過させる光学フィルタである。なお、白色の場合、カラーフィルタ121d-1,121d-2は、透明のフィルタでもよいし、無くてもよい。
 画素121a-1,121a-2の光電変換層Z11における、それぞれ画素間の境界には、遮光膜121g-1乃至121g-3が形成されており、例えば、図5に示されるように、入射光Lが隣接する画素に入射し、クロストークが発生するのを抑制する。
 また、図5の上段及び中段に示されるように、遮光膜121b-1,121b-2が、上面から見て受光面Sの一部を遮光している。画素121a-1,121a-2におけるフォトダイオード121e-1,121e-2の受光面Sにおいては、遮光膜121b-1,121b-2により、それぞれ異なる範囲が遮光されており、これにより異なる入射角指向性が画素毎に独立に設定される。ただし、遮光される範囲は、撮像素子121の全画素121aで異なっている必要はなく、一部で同一の範囲が遮光される画素121aが存在していてもよい。
 なお、図5の上段に示されるように、遮光膜121b-1と遮光膜121g-1とは互いに接続されており、側面から見てL字型に構成されている。同様に、遮光膜121b-2と遮光膜121g-2とは互いに接続されており、側面から見てL字型に構成されている。また、遮光膜121b-1、遮光膜121b-2、及び、遮光膜121g-1乃至121g-3は、金属により構成されており、例えば、タングステン(W)、アルミニウム(Al)、またはAlと銅(Cu)との合金により構成される。また、遮光膜121b-1、遮光膜121b-2、及び、遮光膜121g-1乃至121g-3は、半導体プロセスにおける配線が形成されるプロセスと同一のプロセスで、配線と同一の金属により同時に形成されるようにしてもよい。なお、遮光膜121b-1、遮光膜121b-2、及び、遮光膜121g-1乃至121g-3の膜厚は、位置に応じて同一の厚さにしなくてもよい。
 また、図5の下段に示されるように、画素121aは、フォトダイオード161(フォトダイオード121eに対応する)、転送トランジスタ162、FD(Floating Diffusion:フローティングディフュージョン)部163、選択トランジスタ164、増幅トランジスタ165、およびリセットトランジスタ166を備え、垂直信号線167を介して電流源168に接続されている。
 フォトダイオード161は、アノード電極が接地され、カソード電極が、転送トランジスタ162を介して増幅トランジスタ165のゲート電極に接続されている。
 転送トランジスタ162は、転送信号TGに従って駆動する。例えば、転送トランジスタ162のゲート電極に供給される転送信号TGがハイレベルになると、転送トランジスタ162はオンとなる。これにより、フォトダイオード161に蓄積されている電荷が転送トランジスタ162を介してFD部163に転送される。
 FD部163は、転送トランジスタ162と増幅トランジスタ165との間に設けられる電荷容量C1を有する浮遊拡散領域であり、転送トランジスタ162を介してフォトダイオード161から転送される電荷を一時的に蓄積する。FD部163は、電荷を電圧に変換する電荷検出部であって、FD部163に蓄積されている電荷が増幅トランジスタ165において電圧に変換される。
 選択トランジスタ164は、選択信号SELに従って駆動し、ゲート電極に供給される選択信号SELがハイレベルになるとオンとなって、増幅トランジスタ165と垂直信号線167とを接続する。
 増幅トランジスタ165は、フォトダイオード161での光電変換によって得られる信号を読み出す読出し回路であるソースフォロワの入力部となり、FD部163に蓄積されている電荷に応じたレベルの検出信号(画素信号)を垂直信号線167に出力する。すなわち、増幅トランジスタ165は、ドレイン端子が電源VDDに接続され、ソース端子が選択トランジスタ164を介して垂直信号線167に接続されることで、垂直信号線167の一端に接続される電流源168とソースフォロワを構成する。この検出信号の値(出力画素値)は、被写体からの入射光の入射角に応じて変調されており、入射角により特性(指向性)が異なる(入射角指向性を有する)。
 リセットトランジスタ166は、リセット信号RSTに従って駆動する。例えば、リセットトランジスタ166は、ゲート電極に供給されるリセット信号RSTがハイレベルになるとオンとなり、FD部163に蓄積されている電荷を電源VDDに排出して、FD部163をリセットする。
 なお、各画素121aの遮光膜121bの形状は、図4の例に限定されるものではなく、任意の形状に設定することが可能である。例えば、図4の水平方向に延びる形状、垂直方向及び水平方向に延びるL字型の形状、矩形の開口部が設けられた形状等にすることが可能である。
  <撮像素子121の第2の構成例>
 図6は、撮像素子121の第2の構成例を示す図である。図6の上段には、第2の構成例である撮像素子121の画素121aの側面断面図が示されており、図6の中段には、撮像素子121の上面図が示されている。また、図6の上段の側面断面図は、図6の中段におけるAB断面となる。さらに、図6の下段は、撮像素子121の回路構成例である。
 図6の撮像素子121は、1つの画素121aに4つのフォトダイオード121f-1乃至121f-4が形成され、遮光膜121gがフォトダイオード121f-1乃至121f-4同士を分離する領域に形成されている点で、図5の撮像素子121と異なる構成となっている。即ち、図6の撮像素子121では、遮光膜121gは、上面から見て「+」形状に形成されている。なお、それらの共通の構成については図5と同一の符号を付しており、詳細な説明は省略する。
 図6の撮像素子121では、遮光膜121gによりフォトダイオード121f-1乃至121f-4が分離されることによって、フォトダイオード121f-1乃至121f-4間の電気的および光学的なクロストークの発生が防止される。すなわち、図6の遮光膜121gは、図5の撮像素子121の遮光膜121gと同様にクロストークを防止するためのものであって、入射角指向性を与えるためのものではない。
 また、図6の撮像素子121では、1個のFD部163が4個のフォトダイオード121f-1乃至121f-4で共有される。図6の下段は、1個のFD部163を4個のフォトダイオード121f-1乃至121f-4で共有するようにした回路構成例を示している。なお、図6の下段において、図5の下段と同一の構成については、その説明を省略する。
 図6の下段において、図5の下段の回路構成と異なる点は、フォトダイオード161(図5の上段におけるフォトダイオード121eに対応する)および転送トランジスタ162に代えて、フォトダイオード161-1乃至161-4(図6の上段におけるフォトダイオード121f-1乃至121f-4に対応する)および転送トランジスタ162-1乃至162-4を設け、FD部163を共有する構成としている点である。
 このような構成により、フォトダイオード121f-1乃至121f-4に蓄積された電荷は、フォトダイオード121f-1乃至121f-4と増幅トランジスタ165のゲート電極との接続部に設けられる所定の容量を有する共通のFD部163に転送される。そして、FD部163に保持されている電荷のレベルに応じた信号が検出信号(画素信号)として読み出される。
 このため、フォトダイオード121f-1乃至121f-4で蓄積された電荷を様々な組み合わせで選択的に画素121aの出力、すなわち検出信号に寄与させることができる。すなわち、フォトダイオード121f-1乃至121f-4毎に独立して電荷を読み出すことができる構成とし、出力に寄与するフォトダイオード121f-1乃至121f-4(フォトダイオード121f-1乃至121f-4が出力に寄与する度合い)を互いに異ならせることで、異なる入射角指向性を得ることができる。
 例えば、フォトダイオード121f-1とフォトダイオード121f-3の電荷をFD部163に転送し、それぞれを読み出して得られる信号を加算することにより、左右方向の入射角指向性を得ることができる。同様に、フォトダイオード121f-1とフォトダイオード121f-2の電荷をFD部163に転送し、それぞれを読み出して得られる信号を加算することにより、上下方向の入射角指向性を得ることができる。
 また、4つのフォトダイオード121f-1乃至121f-4から独立して選択的に読み出される電荷に基づいて得られる信号は、検出画像を構成する1画素分に相当する検出信号となる。
 なお、各フォトダイオード121f(の電荷)の検出信号への寄与は、例えば、各フォトダイオード121fの電荷(検出値)をFD部163に転送するか否かだけでなく、電子シャッタ機能を用いてFD部163への転送前にフォトダイオード121fに蓄積された電荷をリセットすること等でも実現することができる。例えば、FD部163への転送直前にフォトダイオード121fの電荷をリセットすれば、そのフォトダイオード121fは、検出信号に全く寄与しない状態となる。一方、フォトダイオード121fの電荷をリセットとFD部163への電荷の転送との間に時間を持たせることにより、そのフォトダイオード121fは、部分的に検出信号に寄与する状態となる。
 以上のように、図6の撮像素子121の場合、4つのフォトダイオード121f-1乃至121f-4のうち、検出信号に用いるものの組み合わせを変更することで、画素毎に異なる入射角指向性を持たせることができる。また、図6の撮像素子121の各画素121aから出力される検出信号は、被写体からの入射光の入射角に応じて変調された値(出力画素値)となり、入射角により特性(指向性)が異なる(入射角指向性を有する)。
 なお、図6の撮像素子121では、入射光が光学的に変調されずに全てのフォトダイオード121f-1乃至121f-4に入射されるため、検出信号は、光学的な変調により得られる信号ではない。また、以降において、検出信号に寄与しないフォトダイオード121fのことを、画素又は出力に寄与しないフォトダイオード121fとも称する。
 また、図6には、画素(画素121a)の受光面を4等分して、各領域にそれぞれ受光面が同じ大きさのフォトダイオード121fを配置した例、すなわち、フォトダイオードを4等分した例を示しているが、フォトダイオードの分割数や分割位置は任意に設定することが可能である。
 例えば、フォトダイオードを必ずしも等分する必要はなく、画素毎にフォトダイオードの分割位置を異ならせてもよい。これにより、例えば、複数の画素間で同じ位置のフォトダイオード121fを出力に寄与させるようにしたとしても、画素間で入射角指向性が異なるようになる。また、例えば、画素間で分割数を異なるものとすることにより、より自由に入射角指向性を設定することが可能になる。さらに、例えば、画素間で分割数及び分割位置の両方を異ならせるようにしてもよい。
 また、図5の撮像素子121及び図6の撮像素子121のいずれも、各画素が入射角指向性を独立に設定可能な構成を有している。なお、図5の撮像素子121では、各画素の入射角指向性が、遮光膜121bにより製造時に設定される。一方、図6の撮像素子121では、各画素のフォトダイオードの分割数や分割位置は製造時に設定されるが、各画素の入射角指向性(出力に寄与させるフォトダイオードの組合せ)は使用時(例えば、撮像時)に設定することができる。なお、図5の撮像素子121及び図6の撮像素子121のいずれにおいても、必ずしも全ての画素が、入射角指向性を持たせる構成を備える必要はない。
 なお、以下、図5の撮像素子121において、各画素121aの遮光膜121bの形状を遮光パターンと称する。また、以下、図6の撮像素子121において、各画素121a内の出力に寄与しないフォトダイオード121fの領域の形状を遮光パターンと称する。
  <撮像素子121の基本特性等について>
 次に、図7乃至図14を参照して、撮像素子121の基本特性等について説明する。
   <入射角指向性を生じさせる原理について>
 撮像素子121の各画素の入射角指向性は、例えば、図7に示されるような原理により発生する。なお、図7の左上部および右上部は、図5の撮像素子121における入射角指向性の発生原理を説明する図であり、図7の左下部および右下部は、図6の撮像素子121における入射角指向性の発生原理を説明する図である。
 図7の左上部および右上部の画素は、いずれも1個のフォトダイオード121eを備える。これに対して、図7の左下部および右下部の画素は、いずれも2個のフォトダイオード121fを備える。なお、ここでは、1画素が2個のフォトダイオード121fを備える例を示しているが、これは説明の便宜上であり、1画素が備えるフォトダイオード121fの数は、その他の個数であってもよい。
 図7の左上部の画素においては、フォトダイオード121e-11の受光面の右半分を遮光するように遮光膜121b-11が形成されている。また、図7の右上部の画素においては、フォトダイオード121e-12の受光面の左半分を遮光するように遮光膜121b-12が形成されている。なお、図中の一点鎖線は、フォトダイオード121eの受光面の水平方向の中心を通り、受光面に対して垂直な補助線である。
 例えば、図7の左上部の画素においては、図中の一点鎖線に対して入射角θ1を成す右上方向からの入射光は、フォトダイオード121e-11の遮光膜121b-11により遮光されていない左半分の範囲により受光され易い。これに対して、図中の一点鎖線に対して入射角θ2を成す左上方向からの入射光は、フォトダイオード121e-11の遮光膜121b-11により遮光されていない左半分の範囲により受光されにくい。したがって、図7の左上部の画素は、図中の右上方からの入射光に対して受光感度が高く、左上方からの入射光に対して受光感度が低い入射角指向性を備えることになる。
 一方、例えば、図7の右上部の画素においては、入射角θ1を成す右上方向からの入射光は、フォトダイオード121e-12の遮光膜121b-12により遮光されている左半分の範囲により受光されにくい。これに対して、入射角θ2を成す左上方向からの入射光は、フォトダイオード121e-12の遮光膜121b-12により遮光されていない右半分の範囲により受光され易い。したがって、図7の右上部の画素は、図中の右上方からの入射光に対して受光感度が低く、左上方からの入射光に対して受光感度が高い入射角指向性を備えることになる。
 また、図7の左下部の画素は、図中の左右にフォトダイオード121f-11,121f-12が設けられており、いずれか一方の検出信号を読み出すようにすることで、遮光膜121bを設けることなく入射角指向性を有する構成とされている。
 すなわち、図7の左下部の画素では、図中の左側に設けられたフォトダイオード121f-11の信号のみを読み出すようにすることで、図7の左上部の画素と同様の入射角指向性を得ることができる。すなわち、図中の一点鎖線に対して入射角θ1を成す右上方向からの入射光は、フォトダイオード121f-11に入射し、受光量に対応する信号がフォトダイオード121f-11から読み出されるため、この画素から出力される検出信号に寄与する。これに対して、図中の一点鎖線に対して入射角θ2を成す左上方向からの入射光は、フォトダイオード121f-12に入射するが、フォトダイオード121f-12から読み出されないため、この画素から出力される検出信号に寄与しない。
 同様に、図7の右下部の画素のように、2個のフォトダイオード121f-13,121f-14を備える場合、図中の右側に設けられたフォトダイオード121f-14の信号のみを読み出すようにすることで、図7の右上部の画素と同様の入射角指向性を得ることができる。すなわち、入射角θ1を成す右上方向からの入射光は、フォトダイオード121f-13に入射するが、フォトダイオード121f-13から信号が読み出されないため、この画素から出力される検出信号に寄与しない。これに対して、入射角θ2を成す左上方向からの入射光は、フォトダイオード121f-14に入射し、受光量に対応する信号がフォトダイオード121f-14から読み出されるため、この画素から出力される検出信号に寄与する。
 なお、図7の上部の画素においては、画素(フォトダイオード121eの受光面)の水平方向の中心位置で遮光される範囲と遮光されない範囲が分かれる例を示したが、その他の位置で分かれるようにしてもよい。また、図7の下部の画素においては、画素の水平方向の中心位置で、2つのフォトダイオード121fが分かれる例を示したが、その他の位置で分かれるようにしてもよい。このように、遮光範囲又はフォトダイオード121fが分かれる位置を変えることにより、異なる入射角指向性を生じさせることができる。
   <オンチップレンズを含む構成における入射角指向性について>
 次に、図8を参照して、オンチップレンズ121cを含めた構成における入射角指向性について説明する。
 図8の上段のグラフは、図8の中段及び下段の画素の入射角指向性を示している。なお、横軸が入射角度θであり、縦軸が検出信号レベルを示している。なお、入射角度θは、入射光の方向が、図8の中段左側の一点鎖線と一致する場合を0度とし、図8の中段左側の入射角度θ21側を正の方向とし、図8の中段右側の入射角度θ22側を負の方向とする。したがって、オンチップレンズ121cに対して、右上方より入射する入射光については、左上方より入射する入射光よりも入射角度が大きくなる。すなわち入射角度θは、入射光の進行方向が左に傾くほど大きくなり(正の方向に大きくなり)、右に傾くほど小さくなる(負の方向に大きくなる)。
 また、図8の中段左部の画素は、図7の上段左部の画素に、入射光を集光するオンチップレンズ121c-11、及び、所定の波長の光を透過させるカラーフィルタ121d-11を追加したものである。すなわち、この画素では、オンチップレンズ121c-11、カラーフィルタ121d-11、遮光膜121b-11、フォトダイオード121e-11が、図中上方の光の入射方向から順に積層されている。
 同様に、図8の中段右部の画素、図8の下段左部の画素、及び、図8の下段右部の画素は、それぞれ、図7の上段右部の画素、図7の下段左部の画素、及び、図7の下段右部の画素に、オンチップレンズ121c-11及びカラーフィルタ121d-11、又は、オンチップレンズ121c-12及びカラーフィルタ121d-12を追加したものである。
 図8の中段左部の画素では、図8の上段の実線の波形で示されるように、入射光の入射角度θに応じてフォトダイオード121e-11の検出信号レベル(受光感度)が変化する。すなわち、図中の一点鎖線に対して入射光のなす角である入射角度θが大きいほど(入射角度θが正の方向に大きいほど(図中の右方向に傾くほど))、遮光膜121b-11が設けられていない範囲に光が集光されることで、フォトダイオード121e-11の検出信号レベルが大きくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど(図中の左方向に傾くほど))、遮光膜121b-11が設けられている範囲に光が集光されることで、フォトダイオード121e-11の検出信号レベルが小さくなる。
 また、図8の中段右部の画素では、図8の上段の点線の波形で示されるように、入射光の入射角度θに応じてフォトダイオード121e-12の検出信号レベル(受光感度)が変化する。すなわち、入射光の入射角度θが大きいほど(入射角度θが正の方向に大きいほど)、遮光膜121b-12が設けられている範囲に光が集光されることで、フォトダイオード121e-12の検出信号レベルが小さくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど)、遮光膜121b-12が設けられていない範囲に光が入射することで、フォトダイオード121e-12の検出信号レベルが大きくなる。
 この図8の上段に示される実線および点線の波形は、遮光膜121bの範囲に応じて変化させることができる。従って、遮光膜121bの範囲により、画素単位で相互に異なる入射角指向性を持たせることが可能となる。
 上述したように、入射角指向性とは、入射角度θに応じた各画素の受光感度の特性であるが、これは、図8の中段の画素では、入射角度θに応じた遮光値の特性であるとも言える。すなわち、遮光膜121bは、特定の方向の入射光は高いレベルで遮光するが、それ以外の方向からの入射光は十分に遮光できない。この遮光できるレベルの変化が、図8の上段に示されるような入射角度θに応じた異なる検出信号レベルを生じさせる。したがって、各画素において最も高いレベルで遮光可能な方向を各画素の遮光方向と定義すると、画素単位で相互に異なる入射角指向性を持つということは、換言すれば、画素単位で相互に異なる遮光方向を持つということになる。
 また、図8の下段左部の画素では、図7の下段左部の画素と同様に、図中左部のフォトダイオード121f-11のみの信号を用いるようにすることで、図8の中段左部の画素と同様の入射角指向性を得ることができる。すなわち、入射光の入射角度θが大きくなると(入射角度θが正の方向に大きくなると)、信号が読み出されるフォトダイオード121f-11の範囲に光が集光されることで、検出信号レベルが大きくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど)、信号が読み出されないフォトダイオード121f-12の範囲に光が集光されることで、検出信号レベルが小さくなる。
 また、同様に、図8の下段右部の画素では、図7の下段右部の画素と同様に、図中右部のフォトダイオード121f-14のみの信号を用いるようにすることで、図8の中段右部の画素と同様の入射角指向性を得ることができる。すなわち、入射光の入射角度θが大きくなると(入射角度θが正の方向に大きくなると)、出力(検出信号)に寄与しないフォトダイオード121f-13の範囲に光が集光されることで、画素単位の検出信号のレベルが小さくなる。逆に、入射光の入射角度θが小さいほど(入射角度θが負の方向に大きいほど)、出力(検出信号)に寄与するフォトダイオード121f-14の範囲に光が集光されることで、画素単位の検出信号のレベルが大きくなる。
 ここで、画素121aの入射角指向性の重心を以下のように定義する。
 入射角指向性の重心は、画素121aの受光面に入射する入射光の強度の分布の重心である。画素121aの受光面は、図8の中段の画素121aでは、フォトダイオード121eの受光面となり、図8の下段の画素121aでは、フォトダイオード121fの受光面となる。
 例えば、図8の上段のグラフの縦軸の検出信号レベルをa(θ)とし、次式(4)により算出される入射角θgの光線を重心光線とする。
 θg=Σ(a(θ)×θ)/Σa(θ) ・・・(4)
 そして、重心光線が画素121aの受光面と交わる点が、画素121aの入射角指向性の重心となる。
 また、図8の下段の画素のように、画素内に複数のフォトダイオードを設け、出力に寄与するフォトダイオードを変更可能な画素において、各フォトダイオードに入射光の入射角に対する指向性を持たせ、画素単位での入射角指向性を生じさせるために、各画素にオンチップレンズ121cが必須構成となる。
 なお、以下の説明では、図5の画素121aのように、遮光膜121bを用いて入射角指向性を実現する画素121aを用いる場合の例を中心に説明する。ただし、遮光膜121bが必須となる場合を除いて、基本的にフォトダイオードを分割して入射角指向性を実現する画素121aを用いることも可能である。
   <遮光範囲と画角の関係について>
 次に、図9及び図14を参照して、画素121aの遮光範囲と画角の関係について説明する。
 例えば、図9の上段に示されるように、4辺のそれぞれの端部から幅d1だけ遮光膜121bにより遮光されている画素121aと、図9の下段に示されるように、4辺のそれぞれの端部から幅d2(>d1)だけ遮光膜121bにより遮光されている画素121a’とを考える。
 図10は、撮像素子121の中心位置C1への被写体面102からの入射光の入射角度の例を示している。なお、図10においては、水平方向の入射光の入射角度の例を示しているが、垂直方向についてもほぼ同様となる。また、図10の右部には、図9における画素121a,121a’が示されている。
 例えば、図9の画素121aが撮像素子121の中心位置C1に配置されている場合、被写体面102から画素121aへの入射光の入射角の範囲は、図10の左部に示されるように角度A1となる。従って、画素121aは、被写体面102の水平方向の幅W1分の入射光を受光することができる。
 これに対して、図9の画素121a’が撮像素子121の中心位置C1に配置されている場合、画素121a’は画素121aよりも遮光される範囲が広いため、被写体面102から画素121a’への入射光の入射角の範囲は、図10の左部に示されるように角度A2(<A1)となる。従って、画素121a’は、被写体面102の水平方向の幅W2(<W1)分の入射光を受光することができる。
 つまり、遮光範囲が狭い画素121aは、被写体面102上の広い範囲を撮像するのに適した広画角画素であるのに対して、遮光範囲が広い画素121a’は、被写体面102上の狭い範囲を撮像するのに適した狭画角画素である。なお、ここでいう広画角画素および狭画角画素は、図9の画素121a,121a’の両者を比較する表現であって、その他の画角の画素を比較する上ではこの限りではない。
 従って、例えば、画素121aは、図9の画像I1を復元するために用いられる。画像I1は、図11の上段の被写体となる人物H101の全体を含み、被写体幅W1に対応する画角SQ1の画像である。これに対して、例えば、画素121a’は、図9の画像I2を復元するために用いられる。画像I2は、図11の上段の人物H101の顔の周辺がズームアップされた被写体幅W2に対応する画角SQ2の画像である。
 また、例えば、図11の下段に示されるように、撮像素子121の点線で囲まれた範囲ZAに、図9の画素121aを、一点鎖線で囲まれた範囲ZBに画素121a’を、それぞれ所定画素数ずつ集めて配置することが考えられる。そして、例えば、被写体幅W1に対応する画角SQ1の画像を復元するときには、範囲ZA内の各画素121aの検出信号を用いるようにすることで、適切に画角SQ1の画像を復元することができる。一方、被写体幅W2に対応する画角SQ2の画像を復元するときには、範囲ZB内の各画素121a’の検出信号を用いるようにすることで、適切に画角SQ2の画像を復元することができる。
 なお、画角SQ2は、画角SQ1よりも狭いので、画角SQ2と画角SQ1の画像を同一の画素数で復元する場合、画角SQ1の画像よりも、画角SQ2の画像を復元する方が、より高画質な(高解像度の)復元画像を得ることができる。
 つまり、同一画素数を用いて復元画像を得ることを考えた場合、より画角の狭い画像を復元する方が、より高画質な復元画像を得ることができる。
 例えば、図12の右部は、図11の撮像素子121の範囲ZA内の構成例を示している。図12の左部は、範囲ZA内の画素121aの構成例を示している。
 図12において、黒色で示された範囲が遮光膜121bであり、各画素121aの遮光範囲は、例えば、図12の左部に示される規則に従って決定される。
 図12の左部の主遮光部Z101(図12の左部の黒色部)は、各画素121aにおいて共通に遮光される範囲である。具体的には、主遮光部Z101は、画素121aの左辺及び右辺から画素121a内に向かって、それぞれ幅dx1の範囲、並びに、画素121aの上辺及び下辺から画素121a内に向かって、それぞれ高さdy1の範囲である。そして、各画素121aにおいて、主遮光部Z101の内側の範囲Z102内に、遮光膜121bにより遮光されない矩形の開口部Z111が設けられる。従って、各画素121aにおいて、開口部Z111以外の範囲が、遮光膜121bにより遮光される。
 ここで、各画素121aの開口部Z111は規則的に配置されている。具体的には、各画素121a内における開口部Z111の水平方向の位置は、同じ垂直方向の列の画素121a内において同一になる。また、各画素121a内における開口部Z111の垂直方向の位置は、同じ水平方向の行の画素121a内において同一になる。
 一方、各画素121a内における開口部Z111の水平方向の位置は、画素121aの水平方向の位置に応じて所定の間隔でずれている。すなわち、画素121aの位置が右方向に進むに従って、開口部Z111の左辺が、画素121aの左辺からそれぞれ幅dx1、dx2、・・・、dxnだけ右方向にずれた位置に移動する。幅dx1と幅dx2の間隔、幅dx2と幅dx3の間隔、・・・、幅dxn-1と幅dxnの間隔は、それぞれ範囲Z102の水平方向の幅から開口部Z111の幅を引いた長さを水平方向の画素数n-1で割った値となる。
 また、各画素121a内における開口部Z111の垂直方向の位置は、画素121aの垂直方向の位置に応じて所定の間隔でずれている。すなわち、画素121aの位置が下方向に進むに従って、開口部Z111の上辺が、画素121aの上辺からそれぞれ高さdy1、dy2、・・・、dynだけ下方向にずれた位置に移動する。高さdy1と高さdy2の間隔、高さdy2と高さdy3の間隔、・・・、高さdyn-1と高さdynの間隔は、それぞれ範囲Z102の垂直方向の高さから開口部Z111の高さを引いた長さを垂直方向の画素数m-1で割った値となる。
 図13の右部は、図11の撮像素子121の範囲ZB内の構成例を示している。図13の左部は、範囲ZB内の画素121a’の構成例を示している。
 図13において、黒色で示された範囲が遮光膜121b’であり、各画素121a’の遮光範囲は、例えば、図13の左部に示される規則に従って決定される。
 図13の左部の主遮光部Z151(図13に左部の黒色部)は、各画素121a’において共通に遮光される範囲である。具体的には、主遮光部Z151は、画素121a’の左辺及び右辺から画素121a’内に向かって、それぞれ幅dx1’の範囲、並びに、画素121a’の上辺及び下辺から画素121a’内に向かって、それぞれ高さdy1’の範囲である。そして、各画素121a’において、主遮光部Z151の内側の範囲Z152内に、遮光膜121b’により遮光されない矩形の開口部Z161が設けられる。従って、各画素121a’において、開口部Z161以外の範囲が、遮光膜121b’により遮光される。
 ここで、各画素121a’の開口部Z161は、図12の各画素121aの開口部Z111と同様に、規則的に配置されている。具体的には、各画素121a’内における開口部Z161の水平方向の位置は、同じ垂直方向の列の画素121a’内において同一になる。また、各画素121a’内における開口部Z161の垂直方向の位置は、同じ水平方向の行の画素121a’内において同一になる。
 一方、各画素121a’内における開口部Z161の水平方向の位置は、画素121a’の水平方向の位置に応じて所定の間隔でずれている。すなわち、画素121a’の位置が右方向に進むに従って、開口部Z161の左辺が、画素121a’の左辺からそれぞれ幅dx1’、dx2’、・・・、dxn’だけ右方向にずれた位置に移動する。幅dx1’と幅dx2’の間隔、幅dx2’と幅dx3’の間隔、・・・、幅dxn-1’と幅dxn’の間隔は、それぞれ範囲Z152の水平方向の幅から開口部Z161の幅を引いた長さを水平方向の画素数n-1で割った値となる。
 また、各画素121a’内における開口部Z161の垂直方向の位置は、画素121a’の垂直方向の位置に応じて所定の間隔でずれている。すなわち、画素121a’の位置が下方向に進むに従って、開口部Z161の上辺が、画素121a’の上辺からそれぞれ高さdy1’,dy2’、・・・、dyn’だけ下方向にずれた位置に移動する。高さdy1’と高さdy2’の間隔、高さdy2’と高さdy3’の間隔、・・・、高さdyn-1’と高さdyn’の間隔は、それぞれ範囲Z152の垂直方向の高さから開口部Z161の高さを引いた長さを垂直方向の画素数m-1で割った値となる。
 ここで、図12の画素121aの範囲Z102の水平方向の幅から開口部Z111の幅を引いた長さは、図13の画素121a’の範囲Z152の水平方向の幅から開口部Z161の幅を引いた幅より大きくなる。従って、図12の幅dx1、dx2・・・dxnの変化の間隔は、図13の幅dx1’、dx2’・・・dxn’の変化の間隔より大きくなる。
 また、図12の画素121aの範囲Z102の垂直方向の高さから開口部Z111の高さを引いた長さは、図13の画素121a’の範囲Z152の垂直方向の高さから開口部Z161の高さを引いた長さより大きくなる。従って、図12の高さdy1、dy2・・・dynの変化の間隔は、図13の高さdy1’、dy2’・・・dyn’の変化の間隔より大きくなる。
 このように、図12の各画素121aの遮光膜121bの開口部Z111の水平方向および垂直方向の位置の変化の間隔と、図13の各画素121a’の遮光膜121b’の開口部Z161の水平方向および垂直方向の位置の変化の間隔とは異なる。そして、この間隔の違いが、復元画像における被写体分解能(角度分解能)の違いとなる。すなわち、図13の各画素121a’の遮光膜121b’の開口部Z161の水平方向および垂直方向の位置の変化の間隔の方が、図12の各画素121aの遮光膜121bの開口部Z111の水平方向および垂直方向の位置の変化の間隔より狭くなる。従って、図13の各画素121a’の検出信号を用いて復元される復元画像は、図12の各画素121aの検出信号を用いて復元される復元画像より、被写体分解能が高くなり、高画質(高解像度)となる。
 このように、主遮光部の遮光範囲と開口部の開口範囲との組み合わせを変化させることで、様々な画角の(様々な入射角指向性を持った)画素からなる撮像素子121を実現することが可能となる。
 なお、以上においては、画素121aと画素121a’を範囲ZAと範囲ZBに分けて配置する例を示したが、これは説明を簡単にするためであり、異なる画角に対応する画素121aが同じ領域内に混在して配置されることが望ましい。
 例えば、図14に示されるように、点線で示される2画素×2画素からなる4画素を1個の単位Uとして、それぞれの単位Uが、広画角の画素121a-W、中画角の画素121a-M、狭画角の画素121a-N、極狭画角の画素121a-ANの4画素から構成されるようにする。
 この場合、例えば、全画素121aの画素数がXである場合、4種類の画角ごとにX/4画素ずつの検出画像を用いて復元画像を復元することが可能となる。この際、画角毎に異なる4種類の係数セット群が使用されて、4種類の異なる連立方程式により、それぞれ異なる画角の復元画像が復元される。
 従って、復元する復元画像の画角の撮像に適した画素から得られる検出画像を用いて復元画像を復元することで、4種類の画角に応じた適切な復元画像を得ることが可能となる。
 また、4種類の画角の中間の画角や、その前後の画角の画像を、4種類の画角の画像から補間生成するようにしてもよく、様々な画角の画像をシームレスに生成することで、疑似的な光学ズームを実現するようにしてもよい。
 なお、例えば、画角の広い画像を復元画像として得る場合、広画角画素を全て用いるようにしてもよいし、広画角画素の一部を用いるようにしてもよい。また、例えば、画角の狭い画像を復元画像として得る場合、狭画角画素を全て用いるようにしてもよいし、狭画角画素の一部を用いるようにしてもよい。
  <運転者認識部23の構成例>
 図15は、図1の運転者認識部23の構成例を示すブロック図である。運転者認識部23は、撮像部181、指示動作検出部182、学習部183、記憶部184、及び、送信部185を備える。
 撮像部181は、車内の運転者を撮像可能な位置に設置される。撮像部181は、運転者の撮像を行い、得られた画像(以下、運転者画像と称する)を指示動作検出部182及び学習部183に供給する。
 指示動作検出部182は、運転者画像、及び、記憶部184に記憶されている検出条件に基づいて、表示部25に表示されるサイド画像の表示範囲の変更を指示する運転者の動作(以下、表示変更指示動作と称する)を検出する処理を行う。表示変更指示動作は、例えば、運転者が手、頭部、視線等の1つ以上を動かすことにより行われる。
 指示動作検出部182は、表示変更指示動作を検出した場合、指示内容を示すデータを、送信部185に供給する。また、指示動作検出部182は、表示変更指示動作の検出結果を示すデータを学習部183に供給する。
 学習部183は、運転者画像、表示変更指示動作の検出結果、及び、図示せぬ入力部を介して運転者等により入力される表示部25に表示されるサイド画像の表示範囲の変更の指示に基づいて、表示変更指示動作の検出条件の学習を行う。学習部183は、学習により得られた検出条件を記憶部184に記憶させる。
 送信部185は、指示動作検出部182から供給される指示内容を示すデータを、通信用の形式のデータに変換し、バスB1に出力する。
  <カメラモジュール21のハードウエア構成例>
 図16は、カメラモジュール21のハードウエアの構成例を示している。
 図16のカメラモジュール21では、LLCチップ202及び信号処理チップ203の2つの半導体チップが、同じ基板201上に実装されている。
 LLCチップ202は、図1の撮像部41を備える半導体チップである。
 信号処理チップ203は、図1のカメラECU42及びMCU43を備える半導体チップである。
 このように、LLCチップ202と信号処理チップ203を同一の基板201に配置することにより、フレキシブル基板が不要となり、不要輻射が低減される。
  <カメラモジュール21、表示部25、及び、撮像部181の設置例>
 次に、図17及び図18を参照して、カメラモジュール21、表示部25、及び、撮像部181の設置例について説明する。
 図17は、車載システム11が設けられている車両221の前半分を上から見た模式図である。
 カメラモジュール21Lは、車両221の助手席(左側の前席)のサイドウインドウ232Lに貼付されている。カメラモジュール21Lの撮像素子121Lの画角(FOV(Field Of View))FL1の中心を通る撮像方向AL2は、車両221の左斜め後方を向いており、撮像素子121Lは、車両221の左側方及び後方の撮像が可能である。
 カメラモジュール21Rは、車両221の運転席(右側の前席)のサイドウインドウ232Rに貼付されている。カメラモジュール21Rの撮像素子121Rの画角(FOV)FR1の中心を通る撮像方向AR2は、車両221の右斜め後方を向いており、撮像素子121Rは、車両221の右側方及び後方の撮像が可能である。
 表示部25Lは、運転者222の左斜め前であって、車内のウインドシールド231の手前、かつ、ダッシュボード(不図示)上の左端付近に、表示面がやや運転者222の方向、すなわち、車両221の右斜め後方を向くように設置されている。表示部25Lは、カメラモジュール21Lにより得られる左サイド画像を表示する。
 表示部25Rは、運転者222の右斜め前であって、車内のウインドシールド231の手前、かつ、ダッシュボード(不図示)上の右端付近に、表示面がやや運転者222の方向、すなわち、車両221の左斜め後方を向くように設置されている。表示部25Rは、カメラモジュール21Rにより得られる右サイド画像を表示する。
 なお、表示部25Lの表示面への運転者222の視線AL1の入射角θL1と、表示部25Lの表示面に対する撮像素子121Lの撮像方向AL2の角度θL2とができるだけ近くなるように、表示部25L及びカメラモジュール21Lが設置されることが望ましい。同様に、表示部25Rの表示面への運転者222の視線AR1の入射角θR1と、表示部25Rの表示面に対する撮像素子121Rの撮像方向AR2の角度θR2とができるだけ近くなるように、表示部25R及びカメラモジュール21Rが設置されることが望ましい。
 なお、撮像方向は、撮像素子121の各画素121aの重心光線の入射角の平均を示し、撮像素子121の画角の中心を通る。例えば、撮像方向AL2は、撮像素子121Lの各画素121aの重心光線の入射角の平均を示し、撮像素子121Lの画角FL1の中心を通る。例えば、撮像方向AR2は、撮像素子121Rの各画素121aの重心光線の入射角の平均を示し、撮像素子121Rの画角FR1の中心を通る。
 これにより、運転者222の視線方向と、各表示部25に表示されるサイド画像の表示範囲との関係が自然なものとなり、運転者222に違和感を与えることが防止される。また、運転者222は、視線をあまり動かさずに、車両221の斜め後方の確認が可能になる。
 図15の運転者認識部23の撮像部181は、車内のウインドシールド231の手前、かつ、ダッシュボード(不図示)上の中央付近に設置されている。撮像部181は、運転者222付近の撮像を行う。
 図18は、カメラモジュール21Lが取り付けられたサイドウインドウ232Lを上から見た模式図である。
 カメラモジュール21Lは、ブラケット251を用いて、LLCチップ202が実装されている面がサイドウインドウ232Lの車内側の面に沿うように、脱着可能に取り付けられている。これにより、LLCチップ202の表面に設けられている撮像素子121Lの受光面が、サイドウインドウ232Lの車内側の面に対向し、かつ、車両221の左側方を向き、かつ、接触又は近接し、サイドウインドウ232Lの車内側の面に対して略平行になる。
 従って、撮像素子121の受光面とサイドウインドウ232Lとの間の空間がなくなるか、又は、非常に狭くなる。その結果、入射光の反射によるサイドウインドウ232Lの映り込みや、撮像素子121の受光面とサイドウインドウ232Lとの間の結露の発生が防止される。
 また、カメラモジュール21Lは、ケーブル252を介して、車載システム11のバスB1に接続される。
 なお、図示及び詳細な説明は省略するが、カメラモジュール21Rも、カメラモジュール21Lと同様に、ブラケットを用いてサイドウインドウ232Rに貼付される。これにより、LLCチップ202の表面に設けられている撮像素子121Rの受光面が、サイドウインドウ232Rの車内側の面に対向し、かつ、車両221の右側方を向き、かつ、接触又は近接し、サイドウインドウ232Rの車内側の面に対して略平行になる。
 また、車両221において、サイドウインドウ232Lを開けたときにサイドウインドウ232Lを収納する収納部において、カメラモジュール21L及びブラケット251を収納するスペースが設けられる。同様に、車両221において、サイドウインドウ232Rを開けたときにサイドウインドウ232Rを収納する収納部において、カメラモジュール21R及びブラケットを収納するスペースが設けられる。
 以上のように、カメラモジュール21L及びカメラモジュール21Rをそれぞれサイドウインドウ232L及びサイドウインドウ232Rに取り付けることにより、電子サイドミラー用の撮像装置が場所を取ることが防止され、車内の空間効率が向上する。
 また、各カメラモジュール21は車内に設けられるため、カメラモジュール21が通行の妨げになったり、車外の接触等により破損したりすることが防止される。また、カメラモジュール21を左右に開閉する等の駆動構造を設ける必要がなくなる。さらに、天候等の周囲の影響を受けずに撮像することが可能になる。
  <撮像素子121の画素アレイ部の第1の実施の形態>
 次に、図19及び図20を参照して、撮像素子121の画素アレイ部の第1の実施の形態について説明する。
 図19は、カメラモジュール21Lの撮像部41Lの撮像素子121Lの画素アレイ部の遮光パターンの第1の実施の形態を示している。図20は、図19の画素アレイ部を構成する画素121aの第1の実施の形態である画素PLaの遮光パターンの例を示している。
 各画素PLaの遮光膜SLaの開口部ALaは、点線で示される矩形の開口設定範囲RLa内に設定される。従って、各画素PLaの遮光膜SLaの開口設定範囲RLa以外の領域が、遮光膜SLaの主遮光部となる。
 開口設定範囲RLaの大きさ、形、及び、位置は、各画素PLaで共通である。開口設定範囲RLaの垂直方向の高さは、画素PLaの高さより若干小さくなっており、水平方向の幅は、画素PLaの幅の略1/2である。また、開口設定範囲RLaは、画素PLa内の垂直方向の中央、かつ、水平方向において左方向に偏った位置に設定されている。従って、開口設定範囲RLaの重心は、画素PLaの中心から左方向に偏っている。また、図17を参照して上述したように、カメラモジュール21Lをサイドウインドウ232Lに貼付した場合、開口設定範囲RLaの重心は、画素PLaの中心から車両211の前方に偏る。
 矩形の開口部ALaの形及び大きさは、各画素PLaで共通である。また、開口部ALaは、図12及び図13を参照して上述した規則と同様の規則に従って、各画素PLaの開口設定範囲RLa内に配置される。
 具体的には、開口部ALaは、画素アレイ部の左端の列の画素PLaにおいて、開口設定範囲RLaの左端に配置され、画素アレイ部の上端の行の画素PLaにおいて、開口設定範囲RLaの上端に配置される。そして、開口部ALaは、画素PLaの位置が右に進むにつれて、開口設定範囲RLa内において等間隔に右方向にシフトし、画素アレイ部の右端の列の画素PLaにおいて、開口設定範囲RLaの右端に配置される。また、開口部ALaは、画素PLaの位置が下に進むにつれて、開口設定範囲RLa内において等間隔に下方向にシフトし、画素アレイ部の下端の行の画素PLaにおいて、開口設定範囲RLaの下端に配置される。
 従って、開口部ALaの水平方向の位置は、同じ垂直方向の列の画素PLa内において同一になる。また、開口部ALaの垂直方向の位置は、同じ水平方向の行の画素PLa内において同一になる。従って、各画素PLa内における開口部ALaの位置、すなわち、各画素PLaに入射光が入射する位置が画素PLa毎に異なり、その結果、各画素PLaの入射角指向性は、それぞれ異なる。
 また、各画素PLaの開口部ALaにより、開口設定範囲RLaがカバーされる。すなわち、各画素PLaの開口部ALaを重ね合わせた領域が、開口設定範囲RLaと等しくなる。なお、開口部ALaの配置パターンについては、上述の構成に限定されず、開口部ALaを重ね合わせた領域が、開口設定範囲RLaと等しくなればどのような配置であっても良い。例えば、開口部ALaが開口設定範囲RLa内においてランダムに配置されても良い。
 ここで、各画素PLaの入射角指向性の重心は、各画素PLaの開口部ALaの重心と略一致し、大部分の画素PLaにおいて各画素PLaの中心から左方向に偏る。従って、各画素PLaの入射角指向性の重心の平均が、画素PLaの中心から左方向に偏る。また、各画素PLaの重心光線の入射角の平均が、画素アレイ部の受光面の法線方向に対して右方向(車両221の後方)に傾く。
 従って、LLCチップ202がサイドウインドウ232Lに対して平行に設置され、撮像素子121Lの画素アレイ部の受光面が車両221の左側方を向いているにも関わらず、図17に示されるように、車両221の左側方及び後方の画角FL1の撮像が可能になる。
 なお、開口設定範囲RLaの位置、すなわち、開口設定範囲RLaの重心の画素PLaの中心からのオフセット量、並びに、開口設定範囲RLaの形及び大きさは、例えば、撮像したい画角FL1に基づいて設定される。
 また、LLCチップ202L(撮像素子121Lの受光面)を車両221の左斜め後方に向けなくても、車両221の左側方及び後方の撮像が可能であり、撮像レンズが不要である。従って、図16を参照して上述したように、LLCチップ202Lと信号処理チップ203Lを同一の基板に実装し、カメラモジュール21LのLLCチップ202Lの実装面をサイドウインドウ232Lに接触又は近接させて取り付けることができる。
 なお、図示及び詳細な説明は省略するが、カメラモジュール21Rの撮像部41Rの撮像素子121Rの画素アレイ部の遮光パターンも、図19及び図20を参照して上述した例と同様に設定される。ただし、撮像素子121Rの各画素PRaの開口設定範囲RRaの重心は、撮像素子121Lの各画素PLaの開口設定範囲RLaとは逆に、画素PRaの中心から右方向(車両221の後方)に偏る。
  <電子サイドミラー表示制御処理の第1の実施の形態>
 次に、図21のフローチャートを参照して、車載システム11により実行される電子サイドミラー表示制御処理の第1の実施の形態について説明する。
 この処理は、例えば、車両221の電源がオンされたとき開始され、オフされたとき終了する。
 なお、以下、カメラモジュール21Lにより得られる左サイド画像を表示部25Lに表示する処理について説明するが、カメラモジュール21Rにより得られる右サイド画像を表示部25Rに表示する場合も同様の処理が行われる。
 ステップS1において、撮像素子121Lは、車両221の周囲の撮像を行う。これにより、異なる入射角指向性を備える撮像素子121Lの各画素PLaから、被写体からの入射光の光量に応じた検出信号レベルを示す検出信号が出力され、撮像素子121Lは、各画素PLaの検出信号からなる検出画像を復元部122Lに供給する。
 ステップS2において、復元部122Lは、画像の復元に用いる係数を求める。具体的には、復元部122Lは、復元対象となる被写体面102までの距離、すなわち被写体距離を設定する。なお、被写体距離の設定方法には、任意の方法を採用することができる。例えば、復元部122Lは、ユーザにより設定された被写体距離、又は、各種のセンサにより検出された被写体距離を、復元対象となる被写体面102までの距離に設定する。
 次に、復元部122Lは、設定した被写体距離に対応付けられている係数セット群を記憶部124Lから読み出す。
 ステップS3において、復元部122Lは、検出画像及び係数を用いて、画像の復元を行う。具体的には、復元部122Lは、検出画像の各画素の検出信号レベルと、ステップS2の処理で取得した係数セット群とを用いて、上述した式(1)乃至式(3)を参照して説明した連立方程式を作成する。次に、復元部122Lは、作成した連立方程式を解くことにより、設定した被写体距離に対応する被写体面102上の各点光源の光強度を算出する。そして、復元部122Lは、算出した光強度に応じた画素値を有する画素を被写体面102の各点光源の配置に従って並べることにより、被写体の像が結像された復元画像を生成する。
 ステップS4において、復元部122Lは、復元画像に対して各種の処理を行う。例えば、復元部122Lは、必要に応じて、復元画像に対して、デモザイク処理、γ補正、ホワイトバランス調整、所定の圧縮形式への変換処理等を行う。また、復元部122Lは、得られた復元画像(左サイド画像)を、通信部125、カメラECU42L、及び、MCU43Lを介して、表示制御部26に供給する。
 ステップS5において、表示部25Lは、表示制御部26の制御の下に、復元画像、すなわち、左サイド画像を表示する。
 その後、処理はステップS1に戻り、ステップS1乃至ステップS5の処理が繰り返し実行される。
 以上のようにして、表示部25Lに左サイド画像が表示され、表示部25Rに右サイド画像が表示されることにより、電子サイドミラーが実現される。
  <電子サイドミラー表示制御処理の第2の実施の形態>
 次に、図22のフローチャートを参照して、車載システム11により実行される電子サイドミラー表示制御処理の第2の実施の形態について説明する。
 この処理は、例えば、車両221の電源がオンされたとき開始され、オフされたとき終了する。
 なお、以下、カメラモジュール21Lにより得られる左サイド画像を表示部25Lに表示する処理について説明するが、カメラモジュール21Rにより得られる右サイド画像を表示部25Rに表示する場合も同様の処理が行われる。
 ステップS51乃至ステップS53において、図21のステップS1乃至ステップS3と同様の処理が実行される。
 ステップS54において、復元部122Lは、復元画像に対して各種の処理を行う。例えば、復元部122Lは、必要に応じて、復元画像に対して、デモザイク処理、γ補正、ホワイトバランス調整、所定の圧縮形式への変換処理等を行う。また、復元部122Lは、得られた復元画像(左サイド画像)を、通信部125を介して、カメラECU42Lに供給する。
 ステップS55において、運転者認識部23は、運転者の指示動作の検出処理を行う。具体的には、撮像部181は、運転者の撮像を行い、得られた運転者画像を指示動作検出部182に供給する。
 指示動作検出部182は、運転者画像、及び、記憶部184に記憶されている検出条件に基づいて、表示変更指示動作の検出処理を行う。指示動作検出部182は、表示変更指示動作を検出した場合、指示内容を示すデータを、送信部185を介して、表示制御部26に供給する。
 ステップS56において、カメラECU42Lは、危険物の検出処理を行う。カメラECU42Lは、左サイド画像に対して物体認識処理を行い、車両の左側方及び後方において、車両に衝突又は接触する危険性のある危険物(例えば、歩行者、自転車、バイク、車両等)の検出を行う。カメラECU42Lは、左サイド画像、及び、危険物の検出結果を示すデータを、MCU43Lを介して、アラート制御部24及び表示制御部26に供給する。
 なお、危険物の検出条件は、任意に設定することができる。
 例えば、車両に接近する方向における相対速度が所定の閾値以上の物体、すなわち、所定の速度以上で車両に接近している物体が、危険物として検出される。例えば、車両と間の距離が所定の閾値以下の物体が、危険物として検出される。
 また、例えば、上記の条件を満たす物体が検出されても、当該物体が車両に衝突又は接触しても問題が生じない場合、当該物体は危険物として検出されない。そのような物体として、例えば、ビニル袋等が想定される。
 ステップS57において、アラート制御部24は、ステップS56におけるカメラECU42Lの処理の結果に基づいて、危険物が検出されたか否かを判定する。危険物が検出されたと判定された場合、処理はステップS58に進む。
 ステップS58において、アラート制御部24は、警告表示を復元画像に重畳する。具体的には、アラート制御部24は、危険物に対する注意を促す警告表示を左サイド画像に重畳する。例えば、左サイド画像内の危険物を強調するために、枠で囲む等の表示効果が施される。アラート制御部24は、警告表示を重畳した左サイド画像を表示制御部26に供給する。
 その後、処理はステップS59に進む。
 一方、ステップS57において、危険物が検出されていないと判定された場合、ステップS58の処理はスキップされ、処理はステップS59に進む。
 ステップS59において、表示制御部26は、運転者の指示動作、及び、危険物の検出結果に基づいて、表示範囲を設定する。
 ここで、図23乃至図27を参照して、表示範囲の設定方法について説明する。
 図23及び図24は、運転者の視線の向きによる指示動作に基づいて、表示範囲を設定する例を示している。
 図23は、運転者222の視線AL11に対して、画角FL1内において設定される表示範囲DL1の例を示している。この場合、表示部25Lの表示面への視線AL11の入射角θL11と、表示部25Lの表示面に対する表示範囲DL1の中心AL12の角度θL12とができるだけ近くなるように、表示範囲DL1が設定される。
 図24は、運転者222の視線AL13に対して、画角FL1内において設定される表示範囲DL2の例を示している。この場合、表示部25Lの表示面への視線AL13の入射角θL13と、表示部25Lの表示面に対する表示範囲DL2の中心AL14の角度θL14とができるだけ近くなるように、表示範囲DL2が設定される。
 従って、運転者222が表示部25Lの表示面の右側に視線を動かした場合、表示部25Lに表示される左サイド画像の表示範囲は車両221の前方向に移動する。一方、運転者222が表示部25Lの表示面の左側に視線を動かした場合、表示部25Lに表示される左サイド画像の表示範囲は車両221の後ろ方向に移動する。
 このように、運転者222の視線の向きに基づいて、左サイド画像の表示範囲を動かすことにより、運転者が確認したい方向の画像を、運転者に違和感を与えずに表示することができる。
 なお、詳細な説明は省略するが、運転者の視線方向に基づいて、表示部25Rに表示される右サイド画像の表示範囲も同様に移動する。
 図25乃至図27は、危険物の検出結果に基づいて、表示範囲を設定する例を示している。
 例えば、図23の例と同様に、左サイド画像の表示範囲が範囲DL1に設定されている場合に、図25に示されるように、範囲DL1より車両221の後方であって、画角FL1内において、危険物301が検出されたとする。
 この場合、例えば、図26に示されるように、表示部25Lに表示される左サイド画像の表示範囲が、危険物301を含む範囲DL3に動かされる。
 或いは、例えば、図27に示されるように、表示部25Lに表示される左サイド画像の表示範囲が、画角FL1と同じ範囲DL4に広げられる。
 これにより、表示部25Lに危険物301が表示されるようになり、運転者が迅速に危険物301の存在を認識することができる。
 なお、図26及び図27において、矢印AL15は、運転者222の視線方向を示している。図26において、矢印AL16は、表示範囲DL3の中心の方向を示している。図27において、矢印AL17は、表示範囲DL4の中心の方向を示している。
 図22に戻り、ステップS60において、表示部25Lは、表示制御部26の制御の下に、復元画像を表示する。すなわち、ステップS59の処理で設定された表示範囲の左サイド画像が、表示部25Lに表示される。
 なお、危険物が検出されている場合、例えば、図28に示されるように、警告表示が行われる。ここでは、左サイド画像において、車両221の左斜め後方において、バイク321が危険物として検出されている例が示されている。そして、バイク321を囲む枠322が表示されるとともに、注意を促す文字及び記号が枠322の周囲に表示されている。これにより、運転者222は、危険物であるバイク321の存在を迅速かつ確実に認識することができる。
 なお、危険物が検出されていない場合でも、例えば、経路中に事故が多発しているエリアやポイント等が存在する場合、それを通知するための警告表示が行われるようにしてもよい。
 また、例えば、特定の条件下(例えば、カーブを走行中、発車時等)においてのみ、危険物に対する警告表示が行われるようにしてもよい。
 その後、処理はステップS51に戻り、ステップS51乃至ステップS60の処理が繰り返し実行される。
 以上のようにして、サイド画像の表示範囲が適切に設定され、運転者222は、違和感を覚えることなく、車両221の側方及び後方を確認することができる。また、運転者に危険物の存在を迅速かつ確実に通知することができる。
 <<2.第2の実施の形態>>
 次に、図29乃至図33を参照して、本技術の第2の実施の形態について説明する。
 第2の実施の形態は、第1の実施の形態と比較して、撮像素子121の画素アレイ部の遮光パターンが異なる。
 図29は、カメラモジュール21Lの撮像部41Lの撮像素子121Lの画素アレイ部の遮光パターンの第2の実施の形態を示している。図30は、図29の画素アレイ部を構成する画素121aの第2の実施の形態である画素PLb及び画素PLcの遮光パターンの例を示している。
 画素PLbは、画素アレイ部の奇数列に配置され、画素PLcは、画素アレイ部の偶数列に配置されている。
 画素PLbと画素PLcとは、開口設定範囲の位置が異なる。具体的には、画素PLbの遮光膜SLbの開口設定範囲RLb及び画素PLcの遮光膜SLcの開口設定範囲RLcの形及び大きさは、図20の画素PLaの遮光膜SLaの開口設定範囲RLaと同じである。
 一方、開口設定範囲RLbは、開口設定範囲RLaより、画素PLb内において右方向にシフトした位置に設定されている。ただし、開口設定範囲RLbの重心は、開口設定範囲RLaと同様に、画素PLbの中心より左方向(車両221の前方)に偏っている。また、開口設定範囲RLcは、開口設定範囲RLaより、画素PLc内において左方向にシフトした位置に設定されている。このように、開口設定範囲RLbと開口設定範囲RLcとは、画素内における水平方向(車両221の前後方向)の位置が異なる。
 そして、画素PLbの開口部ALbは、画素PLaの開口部ALaと同じ形及び大きさであり、図12及び図13を参照して上述した規則と同様の規則に従って、開口設定範囲RLb内に配置される。
 具体的には、開口部ALbは、画素アレイ部の左端の列の画素PLbにおいて、開口設定範囲RLbの左端に配置され、画素アレイ部の上端の行の画素PLbにおいて、開口設定範囲RLbの上端に配置される。そして、開口部ALbは、画素PLbの位置が右に進むにつれて、開口設定範囲RLb内において等間隔に右方向にシフトし、画素アレイ部の右から2列目の画素PLbにおいて、開口設定範囲RLbの右端に配置される。また、開口部ALbは、画素PLbの位置が下に進むにつれて、開口設定範囲RLb内において等間隔に下方向にシフトし、画素アレイ部の下端の行の画素PLbにおいて、開口設定範囲RLbの下端に配置される。
 従って、各画素PLb内における開口部ALbの水平方向の位置は、同じ垂直方向の列の画素PLb内において同一になる。また、各画素PLb内における開口部ALbの垂直方向の位置は、同じ水平方向の行の画素PLb内において同一になる。従って、各画素PLb内における開口部ALbの位置、すなわち、各画素PLbに入射光が入射する位置が画素PLb毎に異なり、その結果、各画素PLaの入射角指向性は、それぞれ異なる。
 また、各画素PLbの開口部ALbにより、開口設定範囲RLbがカバーされる。すなわち、各画素PLbの開口部ALbを重ね合わせた領域が、開口設定範囲RLbと等しくなる。なお、開口部ALbの配置パターンについては、上述の構成に限定されず、開口部ALbを重ね合わせた領域が、開口設定範囲RLbと等しくなればどのような配置であっても良い。例えば、開口部ALbが開口設定範囲RLb内においてランダムに配置されても良い。
 さらに、画素PLcの開口部ALcは、画素PLaの開口部ALaと同じ形及び大きさであり、図12及び図13を参照して上述した規則と同様の規則に従って、開口設定範囲RLc内に配置される。
 具体的には、開口部ALcは、画素アレイ部の左から2列目の画素PLcにおいて、開口設定範囲RLcの左端に配置され、画素アレイ部の上端の行の画素PLcにおいて、開口設定範囲RLcの上端に配置される。そして、開口部ALcは、画素PLcの位置が右に進むにつれて、開口設定範囲RLc内において等間隔に右方向にシフトし、画素アレイ部の右端の列の画素PLcにおいて、開口設定範囲RLcの右端に配置される。また、開口部ALcは、画素PLcの位置が下に進むにつれて、開口設定範囲RLc内において等間隔に下方向にシフトし、画素アレイ部の下端の行の画素PLcにおいて、開口設定範囲RLcの下端に配置される。
 従って、各画素PLc内における開口部ALcの水平方向の位置は、同じ垂直方向の列の画素PLc内において同一になる。また、各画素PLc内における開口部ALcの垂直方向の位置は、同じ水平方向の行の画素PLc内において同一になる。従って、各画素PLc内における開口部ALcの位置、すなわち、各画素PLcに入射光が入射する位置が画素PLc毎に異なり、その結果、各画素PLcの入射角指向性は、それぞれ異なる。
 また、各画素PLcの開口部ALcにより、開口設定範囲RLcがカバーされる。すなわち、各画素PLcの開口部ALcを重ね合わせた領域が、開口設定範囲RLcと等しくなる。なお、開口部ALcの配置パターンについては、上述の構成に限定されず、開口部ALcを重ね合わせた領域が、開口設定範囲RLcと等しくなればどのような配置であっても良い。例えば、開口部ALcが開口設定範囲RLc内においてランダムに配置されても良い。
 ここで、各画素PLbの入射角指向性の重心は、各画素PLbの開口部ALbの重心と略一致し、大部分の画素PLbにおいて画素PLbの中心から左方向(車両221の前方)に偏る。従って、各画素PLbの入射角指向性の重心の平均が、画素PLbの中心から左方向に偏る。また、各画素PLbの重心光線の入射角の平均が、画素アレイ部の受光面の法線方向に対して右方向(車両221の後方)に傾く。
 さらに、各画素PLcの入射角指向性の重心は、各画素PLcの開口部ALcの重心と略一致し、大部分の画素PLcにおいて画素PLcの中心から左方向(車両221の前方)に偏る。従って、各画素PLcの入射角指向性の重心の平均が、画素PLcの中心から左方向に偏る。また、各画素PLcの重心光線の入射角の平均が、画素アレイ部の受光面の法線方向に対して右方向(車両221の後方)に傾く。
 一方、開口設定範囲RLcの画素PLcの中心からのオフセット量は、開口設定範囲RLbの画素PLbの中心からのオフセット量より大きい。従って、各画素PLcの重心光線の入射角の平均は、各画素PLbの重心光線の入射角の平均より右方向(車両221の後方)に傾く。
 従って、図31及び図32に示されるように、撮像素子121の画素PLb及び画素PLcにより、車両221の前後方向に異なる画角FL21及び画角FL22の撮像が可能になる。
 具体的には、図31は、撮像素子121Lの各画素PLbにより撮像される画角FL21を示している。なお、矢印AL21は、運転者222の視線方向を示し、矢印AL22は、撮像素子121Lの各画素PLbによる撮像方向を示している。角度θL21は、表示部25Lの表示面への運転者222の視線AL21の入射角を示している。角度θL22は、表示部25Lの表示面に対する撮像方向AL22の角度を示している。
 図32は、撮像素子121Lの各画素PLvにより撮像される画角FL22を示している。なお、矢印AL23は、運転者222の視線方向を示し、矢印AL24は、撮像素子121Lの各画素PLcによる撮像方向を示している。角度θL23は、表示部25Lの表示面への運転者222の視線AL23の入射角を示している。角度θL24は、表示部25Lの表示面に対する撮像方向AL24の角度を示している。画角FL22は、画角FL21より、車両221の後ろ方向にシフトしている。
 なお、詳細な説明は省略するが、カメラモジュール21Rの撮像素子121についても同様に、車両221の前後方向に異なる画角FR21(図31)及び画角FL22(図32)の撮像が可能な2種類の画素が設けられる。
  <電子サイドミラー表示制御処理>
 次に、図33のフローチャートを参照して、本技術の第2の実施の形態において、車載システム11により実行される電子サイドミラー表示制御処理について説明する。
 この処理は、例えば、車両221の電源がオンされたとき開始され、オフされたとき終了する。
 なお、以下、カメラモジュール21Lにより得られる左サイド画像を表示部25Lに表示する処理について説明するが、カメラモジュール21Rにより得られる右サイド画像を表示部25Rに表示する場合も同様の処理が行われる。
 ステップS101において、図21のステップS1の処理と同様に、車両221の周囲の撮像が行われる。
 ステップS102において、図22のステップS55の処理と同様に、運転者の指示動作の検出処理が行われる。
 ステップS103において、復元部122Lは、画像の復元に用いる画素及び係数を選択する。
 例えば、運転者の視線の向きによる指示動作に基づいて、画像の復元に用いる画素が選択される場合、画素PLb及び画素PLcのうち、表示部25Lの表示面に対する撮像方向の角度が、表示部25Lの表示面への運転者222の視線の入射角に近い方の画素が選択される。
 例えば、図31の撮像素子121Lの各画素PLbによる撮像方向AL22の角度θL22の方が、図32の撮像素子121Lの各画素PLcによる撮像方向AL24の角度θL24より、図31の運転者222の視線AL21の入射角θL21に近い。従って、運転者222の視線AL21に対して、画素PLbが選択される。
 一方、例えば、図32の撮像素子121Lの各画素PLcによる撮像方向AL24の角度θL24の方が、図31の撮像素子121Lの各画素PLbによる撮像方向AL22の角度θL22より、図32の運転者222の視線AL23の入射角θL23に近い。従って、運転者222の視線AL23に対して、画素PLcが選択される。
 また、復元部122Lは、復元対象となる被写体面102までの距離、すなわち被写体距離を設定する。なお、被写体距離の設定方法には、任意の方法を採用することができる。例えば、復元部122Lは、ユーザにより設定された被写体距離、又は、各種のセンサにより検出された被写体距離を、復元対象となる被写体面102までの距離に設定する。
 次に、復元部122Lは、選択した画素、及び、設定した被写体距離に対応付けられている係数セット群を記憶部124Lから読み出す。
 ステップS104乃至ステップS105において、図21のステップS3乃至ステップS4と同様の処理が実行される。
 ステップS106において、表示部25Lは、表示制御部26の制御の下に、復元画像を表示する。すなわち、ステップS103の処理で選択された画角の左サイド画像が、表示部25Lに表示される。これにより、運転者222の指示動作に基づいて、表示部25Lに表示される左サイド画像の画角(表示範囲)が、適切に変更される。
 その後、処理はステップS101に戻り、ステップS101乃至ステップS106の処理が実行される。
 以上のようにして、サイド画像の画角(撮像範囲及び表示範囲)が適切に設定され、運転者222は、違和感を覚えることなく、車両221の側方及び後方を確認することができる。
 なお、上述した第1の実施の形態と同様に、危険物の検出結果に基づいて、サイド画像の画角を変更するようにしてもよい。
 <<3.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
  <カメラモジュール21に関する変形例>
 以上の説明では、カメラモジュール21を車両221のサイドウインドウの車内側の面に取り付ける例を示したが、例えば、サイドウインドウの車外側の面に取り付けるようにしてもよい。
 また、例えば、カメラモジュール21を車両221の外側の側面に取り付けるようにしてもよい。例えば、カメラモジュール21を、ピラーやドアの外側の面に取り付けるようにしてもよい。
 さらに、上述したように、カメラモジュール21の撮像方向は、撮像素子121の遮光パターンにより調整可能であるため、撮像したい画角に対する設置位置の自由度が高い。また、カメラモジュール21Lの撮像素子121Lの撮像方向と、カメラモジュール21Rの撮像素子121Rの撮像方向とは、個別に設定することが可能である。従って、例えば、図34に示されるように、カメラモジュール21Lとカメラモジュール21Rとは、必ずしも車両221の両側方の左右対称な位置に取り付ける必要はない。
 この例では、カメラモジュール21Lは、車両221の左側面において、前後方向において運転者222と略同じ位置に取り付けられている。カメラモジュール21Rは、車両221の右側面において、前後方向において運転席351の後端と略同じ位置に取り付けられている。従って、車両221の前後方向において、カメラモジュール21Lの方がカメラモジュール21Rより前に取り付けられている。
 また、以上の説明では、撮像部41とカメラECU42及びMCU43とを異なる2つの半導体チップに設ける例を示したが、これ以外の構成をとることも可能である。例えば、撮像部41の撮像素子121と、撮像部41の信号処理制御部111、カメラECU42、及び、MCU43とを異なる2つの半導体チップに設けたり、撮像素子121と、撮像部41の信号処理制御部111と、カメラECU42及びMCU43とを3つの異なる半導体チップに設けるようにしてもよい。また、例えば、撮像部41、カメラECU42、及び、MCU43を1つの半導体チップに設けるようにしてもよい。
 さらに、例えば、カメラモジュール21を、図16のLLCチップ202と信号処理チップ203とを積層した半導体チップにより実現するようにしてもよい。
 また、例えば、撮像部41又は撮像素子121をカメラモジュール21の他の部分とは別に車両に設けるようにしてもよい。これにより、撮像部41又は撮像素子121の設置位置の自由度が向上する。
 さらに、例えば、受光面が互いに逆方向を向くように2つのカメラモジュール21を貼り合わせることにより両面の撮像が可能なカメラモジュールを、図17、図34等の例と同様の位置に設けることにより、車外だけでなく車内も撮像できるようにしてもよい。
 これにより、例えば、助手席及び後部座席に座っている搭乗者をモニタリングすることが可能になる。例えば、安全性を考慮して、運転席の後ろにチャイルドシートが設置されることがあるが、この場合、チャイルドシートが運転者から見にくくなる。これに対して、例えば、上述した両面の撮像が可能なカメラモジュールを、上述した図34のカメラモジュール21Rと同じ位置に設けることにより、運転席の後ろのチャイルドシートに座っている子供を撮像し、モニタリングすることが可能になる。
 なお、カメラモジュール21を貼り合わせたモジュール以外にも、裏表の両面の撮像が可能なレンズレスカメラを用いることも可能である。例えば、穴あけ加工により所定のパターンを施したCMOSイメージセンサを貼り合わせ、各イメージセンサが、他方のイメージセンサに設けられたパターンを遮光パターンとして撮像する方式の両面撮像可能なレンズレスカメラを用いることも可能である。この方式のレンズレスカメラは、例えば、「Tomoya Nakamura、他4名、"Super Field-of-View Lensless Camera by Coded Image Sensors"、2019年」に詳細が記載されている。
 また、両面の撮像が可能なカメラモジュールが、一度に片方の画像の復元しかできない場合には、車外及び車内の撮像をフレーム毎に切り替えるようにしてもよい。この場合、車外のモニタリングの方がより重要なので、車外を撮像する頻度を、車内を撮像する頻度より大きくするようにしてもよい。
  <表示部に関する変形例>
 表示部25の設置位置は、上述した例に限定されず、変更することが可能である。
 例えば、図35に示されるように、車両221のウインドシールド231の右端のピラー233Rの車内側の面に表示部25Rを設けるようにしてもよい。また、同様に、図示は省略するが、車両221のウインドシールド231の左端のピラー233Lの車内側の面に表示部25Lを設けるようにしてもよい。
 この場合、例えば、ピラー233Rの車外側の面にカメラモジュール21Rを設け、ピラー233Rにより運転者222の死角になる方向の画像をカメラモジュール21Rにより撮像し、表示部25Rに表示するようにしてもよい。同様に、図示は省略するが、ピラー233Lの車外側の面にカメラモジュール21Lを設け、ピラー233Lにより運転者222の死角になる方向の画像をカメラモジュール21Lにより撮像し、表示部25Lに表示するようにしてもよい。
 また、表示部25を左右に分けずに、例えば、車両221のダッシュボードの前面の中央に1つ設け、1つの表示部に左サイド画像及び右サイド画像を左右に分けて表示するようにしてもよい。
 さらに、例えば、上述した図17の例において、運転者222は、表示部25L又は表示部25Rを見る場合、撮像部181には視線を向けない。従って、撮像部181により撮像された運転者画像では、運転者の視線方向の検出精度が低下する可能性がある。
 これに対して、例えば、図36に示されるように、表示部25L及び表示部25Rの代わりに、表示部401L及び表示部401Rを、表示部25L及び表示部25Rと略同じ位置に設けるようにしてもよい。
 表示部401Lは、左サイド画像を表示するとともに、運転者の撮像を行い、得られた運転者画像を運転者認識部23に供給する。運転者認識部23は、取得した運転者画像に基づいて、運転者のモニタリングを行い、視線方向の検出等を行う。
 同様に、表示部401Rは、右サイド画像を表示するとともに、運転者の撮像を行い、得られた運転者画像を運転者認識部23に供給する。運転者認識部23は、取得した運転者画像に基づいて、運転者のモニタリングを行い、視線方向の検出等を行う。
 これにより、運転者が表示部401L又は表示部401Rを見る場合に、運転者が視線を向ける方向から運転者を撮像することができ、運転者の視線方向の検出精度が向上する。
 なお、以下、表示部401Lと表示部401Rを個々に区別する必要がない場合、単に表示部401と称する。
 図37及び図38は、表示部401が、マイクロLEDを表示素子とするマイクロLEDディスプレイにより構成される場合の表示部401の表示面の構成例を示している。
 図37の例では、白色の枠で示されるマイクロLED411を備える画素と、斜線のパターンの枠で示される撮像素子412を備える画素とが、1列おきに交互にアレイ状に配置されている。
 なお、撮像素子412は、撮像素子121と同様の撮像素子である。
 図38の例では、マイクロLED411を備える画素が2次元のアレイ状に配置されている領域の四隅に、撮像素子412が設けられている。
 ここで、表示部401の各画素において、光源であるマイクロLED411が占める面積は非常に小さい。従って、隣接するマイクロLED411の隙間等に、容易に撮像素子412を配置することができる。これにより、マイクロLED411を用いてサイド画像を表示しながら、撮像素子412を用いて、運転者を撮像することができる。
 なお、表示素子であればマイクロLEDには限られない。例えば、有機EL素子であってもよい。
  <サイド画像の表示範囲の変更方法に関する変形例>
 上述したように、学習部183は、表示変更指示動作を検出する基準となる検出条件の学習を行う。これにより、例えば、運転者が意図しない動作が表示変更指示動作として誤検出され、サイド画像の表示範囲が変更され、運転者にストレスを与えたり、所望の領域をモニタリングできなくなったりすることが防止される。例えば、助手席に座っている人やカーナビゲーション装置を見る目的で視線を移動させたり、後部座席に座っている人を見る目的で振り返ったり、頭を触る目的で手を振り上げたりする運転者の動作が、表示変更指示動作として誤検出されることが防止される。
 なお、運転者毎に動きに癖(例えば、動作が大きい、挙動が多い等)があるため、検出条件は運転者毎に学習されることが望ましい。例えば、最初はデフォルトの検出条件が用いられ、サイド画像の表示範囲が変更された場合の運転者の反応に基づいて、検出条件が学習され、更新される。例えば、運転者が無反応の場合は、表示範囲の変更が適切(正解)であったと判定され、運転者が表示範囲を変更させる動作を行った場合は、表示範囲の変更が不適切(不正解)であったと判定される。運転者が表示範囲を変更させる動作としては、例えば、新たな表示変更指示動作、ボタン等を用いたマニュアル操作等が想定される。
 また、表示変更指示動作が、例えば、運転者の動作以外の条件も加味して検出されるようにしてもよい。例えば、表示変更指示動作が、車両の速度、走行経路、走行状態等の条件も加味して検出されるようにしてもよい。
 具体的には、例えば、カーブに差し掛かったときには、サイド画像の表示範囲は広い方が望ましいと考えられるため、検出条件を緩くし、表示変更指示動作が検出されやすくするようにしてもよい。
 また、例えば、高速走行時や高速道路に合流する場合、運転者は前方に細心の注意を払うため、サイド画像を見る時間が非常に短くなる。従って、表示変更指示動作の検出に要する時間が短くなるように検出条件が変更されるようにしてもよい。
 また、検出条件が、運転者以外にも、例えば、地域(例えば、国)毎、車両毎、車両の種類(例えば、大型車、トレーラ、小型車等)毎に学習されるようにしてもよい。
 さらに、例えば、上述した運転者の表示変更指示動作、及び、危険物の検出結果以外の条件に基づいて、サイド画像の表示範囲が変更されるようにしてもよい。
 例えば、運転操作に基づいて、サイド画像の表示範囲が変更されるようにしてもよい。例えば、急発進、急ブレーキ、急旋回、後退、駐車等により、サイド画像の表示範囲が変更されるようにしてもよい。
 また、例えば、他のセンサにより後方から注意すべき物体が接近していることが検出された場合に、検出された物体がなるべく早く表示されるように、サイド画像の表示範囲が変更されるようにしてもよい。
 さらに、例えば、車両の周囲の状況に基づいて、サイド画像の表示範囲が変更されるようにしてもよい。例えば、車両が走行している道路の幅、天候、周囲の明るさ等に基づいて、サイド画像の表示範囲が変更されるようにしてもよい。
 また、例えば、車両の予定経路に基づいて、サイド画像の表示範囲が変更されるようにしてもよい。
 さらに、ボタン操作等によるマニュアル操作や、音声コマンド等により、サイド画像の表示範囲が変更されるようにしてもよい。
  <撮像素子121に関する変形例>
 図29では、撮像素子121に2種類の開口設定範囲を設定する例を示したが、3種類以上の開口設定範囲を設定するようにしてもよい。
 例えば、水平方向の位置が異なる3種類以上の開口設定範囲を設定するようにしてもよい。
 また、例えば、高さ及び幅のうち少なくとも一方が異なる2種類以上の開口設定範囲を設定するようにしてもよい。
 さらに、例えば、車両の斜め後方だけでなく、車両の斜め前方を撮像可能な開口設定範囲を有する画素を撮像素子121に設けるようにしてもよい。
 また、例えば、各画角の画素121aをそれぞれ独立に駆動させる駆動部を設け、各画角の画素121aによる撮像を同時に行ったり、個別に行ったりすることができるようにしてもよい。そして、例えば、電子サイドミラーの表示に用いる復元画像に対応する画素121aのみ撮像を行うようにしてもよい。これにより、撮像素子121の処理が軽減される。
 さらに、図5では、変調素子として遮光膜121bを用いたり、出力に寄与するフォトダイオードの組合せを変更したりすることにより画素毎に異なる入射角指向性を持たせる例を示したが、本技術では、例えば、図39に示されるように、撮像素子901の受光面を覆う光学フィルタ902を変調素子として用いて、各画素に入射角指向性を持たせるようにすることも可能である。
 具体的には、光学フィルタ902は、撮像素子901の受光面901Aから所定の間隔を空けて、受光面901Aの全面を覆うように配置されている。被写体面102からの光は、光学フィルタ902で変調されてから、撮像素子901の受光面901Aに入射する。
 例えば、光学フィルタ902には、図40に示される白黒の格子状のパターンを有する光学フィルタ902BWを用いることが可能である。光学フィルタ902BWには、光を透過する白パターン部と光を遮光する黒パターン部がランダムに配置されている。各パターンのサイズは、撮像素子901の画素のサイズとは独立して設定されている。
 図41は、光学フィルタ902BWを用いた場合の被写体面102上の点光源PA及び点光源PBからの光に対する撮像素子901の受光感度特性を示している。点光源PA及び点光源PBからの光は、それぞれ光学フィルタ902BWで変調されてから、撮像素子901の受光面901Aに入射する。
 例えば、点光源PAからの光に対する撮像素子901の受光感度特性は、波形Saのようになる。すなわち、光学フィルタ902BWの黒パターン部により影が生じるため、点光源PAからの光に対する受光面901A上の像に濃淡のパターンが生じる。同様に、点光源PBからの光に対する撮像素子901の受光感度特性は、波形Sbのようになる。すなわち、光学フィルタ902BWの黒パターン部により影が生じるため、点光源PBからの光に対する受光面901A上の像に濃淡のパターンが生じる。
 なお、点光源PAからの光と点光源PBからの光とは、光学フィルタ902BWの各白パターン部に対する入射角度が異なるため、受光面に対する濃淡のパターンの現れ方にズレが生じる。従って、撮像素子901の各画素は、被写体面102の各点光源に対して入射角指向性を持つようになる。
 この方式の詳細は、例えば、「M. Salman Asif、他4名、“Flatcam: Replacing lenses with masks and computation”、“2015 IEEE International Conference on Computer Vision Workshop (ICCVW)”、2015年、663-666ページ」に開示されている。
 なお、光学フィルタ902BWの黒パターン部の代わりに、図42の光学フィルタ902HWを用いるようにしてもよい。光学フィルタ902HWは、偏光方向が等しい直線偏光素子911Aと直線偏光素子911B、及び、1/2波長板912を備え、1/2波長板912は、直線偏光素子911Aと直線偏光素子911Bの間に挟まれている。1/2波長板912には、光学フィルタ902BWの黒パターン部の代わりに、斜線で示される偏光部が設けられ、白パターン部と偏光部がランダムに配置されている。
 直線偏光素子911Aは、点光源PAから出射されたほぼ無偏光の光のうち、所定の偏光方向の光のみを透過する。以下、直線偏光素子911Aが、偏光方向が図面に平行な光のみを透過するものとする。直線偏光素子911Aを透過した偏光光のうち、1/2波長板912の偏光部を透過した偏光光は、偏光面が回転されることにより、偏光方向が図面に垂直な方向に変化する。一方、直線偏光素子911Aを透過した偏光光のうち、1/2波長板912の白パターン部を透過した偏光光は、偏光方向が図面に平行な方向のまま変化しない。そして、直線偏光素子911Bは、白パターン部を透過した偏光光を透過し、偏光部を透過した偏光光をほとんど透過しない。従って、偏光部を透過した偏光光は、白パターン部を透過した偏光光より光量が減少する。これにより、光学フィルタBWを用いた場合とほぼ同様の濃淡のパターンが、撮像素子901の受光面901A上に生じる。
 また、図43のAに示されるように、光干渉マスクを光学フィルタ902LFとして用いることが可能である。被写体面102の点光源PA,PBから出射された光は、光学フィルタ902LFを介して撮像素子901の受光面901Aに照射される。図43のAの下方の拡大図に示されるように、光学フィルタ902LFの例えば光入射面には、波長程度の凹凸が設けられている。また、光学フィルタ902LFは、鉛直方向から照射された特定波長の光の透過が最大となる。被写体面102の点光源PA,PBから出射された特定波長の光の光学フィルタ902LFに対する入射角の変化(鉛直方向に対する傾き)が大きくなると光路長が変化する。ここで、光路長が半波長の奇数倍であるときは光が弱めあい、半波長の偶数倍であるときは光が強めあう。すなわち、点光源PA,PBから出射されて光学フィルタ902LFを透過した特定波長の透過光の強度は、図43のBに示すように、光学フィルタ902LFに対する入射角に応じて変調されて撮像素子901の受光面901Aに入射する。したがって、撮像素子901の各画素から出力される検出信号は、画素毎に各点光源の変調後の光強度を合成した信号となる。
 この方式の詳細は、例えば、特表2016-510910号公報に開示されている。
  <車載システム11の処理の分担に関する変形例>
 車載システム11の処理の分担は、適宜変更することが可能である。
 例えば、運転者認識部23の処理は、制御部27で実行することも可能である。
 例えば、アラート制御部24の処理は、制御部27、又は、カメラECU42で実行することも可能である。
 例えば、復元部122の処理は、カメラECU42又は制御部27で実行することも可能である。
  <その他の変形例>
 本技術は、赤外光等の可視光以外の波長の光の撮像を行う撮像装置や撮像素子にも適用することが可能である。この場合、復元画像は、ユーザが目視して被写体を認識できる画像とはならず、ユーザが被写体を視認できない画像となる。この場合も、本技術を用いることにより、被写体を認識可能な画像処理装置等に対して、復元画像の画質が向上する。なお、通常の撮像レンズは遠赤外光を透過することが困難であるため、本技術は、例えば、遠赤外光の撮像を行う場合に有効である。したがって、復元画像は遠赤外光の画像であっても良く、また、遠赤外光に限らず、その他の可視光や非可視光の画像であっても良い。
 また、例えば、ディープラーニング等の機械学習を適用することにより、復元後の復元画像を用いずに、復元前の検出画像を用いて画像認識等を行うようにすることも可能である。この場合も、本技術を用いることにより、復元前の検出画像を用いた画像認識の精度が向上する。換言すれば、復元前の検出画像の画質が向上する。
 この場合、例えば、図1のカメラECU42L及びカメラECU42Rが、検出画像を用いた画像認識を行う。
 <<4.その他>>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータ(例えば、制御部123等)などが含まれる。
 コンピュータが実行するプログラムは、例えば、パッケージメディア等としての記録媒体に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 さらに、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本技術は、以下のような構成も取ることができる。
(1)
 撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を出力する画素を複数備え、受光面が車両の側方を向くように取り付けられ、前記複数の画素の前記入射光の入射角に対する指向性を示す入射角指向性の重心の平均が、前記画素の中心から一方の方向に偏っている
 撮像素子。
(2)
 前記複数の画素は、前記撮像素子が前記車両に取り付けられた状態において、前記画素の中心から前記車両の前方に重心が偏っている第1の範囲内のそれぞれ異なる位置に前記入射光が入射する複数の第1の画素を含む
 前記(1)に記載の撮像素子。
(3)
 前記複数の画素のそれぞれは、
  1つの光電変換素子と、
  前記入射光の一部の前記光電変換素子への入射を遮る遮光膜と
 を備え、
 前記複数の第1の画素の前記遮光膜の開口部が、前記第1の範囲内のそれぞれ異なる位置に配置されている
 前記(2)に記載の撮像素子。
(4)
 前記複数の画素は、前記撮像素子が前記車両に取り付けられた状態において、前記画素の中心から前記車両の前後方向に重心が偏っている範囲であって、前記第1の範囲と異なる範囲である第2の範囲内のそれぞれ異なる位置に前記遮光膜の開口部がそれぞれ配置されている複数の第2の画素をさらに含む
 前記(3)に記載の撮像素子。
(5)
 前記撮像素子が前記車両に取り付けられた状態において、前記入射角指向性の重心の平均が前記車両の前方に偏っている
 前記(1)乃至(4)のいずれかに記載の撮像素子。
(6)
 前記車両の両側方に取り付けられる
 前記(1)乃至(5)のいずれかに記載の撮像素子。
(7)
 前記受光面が前記車両のサイドウインドウの車内側の面に対向し、かつ、接触又は近接するように取り付けられる
 前記(6)に記載の撮像素子。
(8)
 前記車両の外側の側面に取り付けられる
 前記(6)に記載の撮像素子。
(9)
 前記車両の一方の側方において、前記車両の他方の側方に取り付けられている他の撮像素子と前記車両の前後方向において異なる位置に取り付けられる
 前記(6)乃至(8)のいずれかに記載の撮像素子。
(10)
 前記複数の画素の前記検出信号に基づく検出画像から復元される復元画像が、前記車両の電子サイドミラーに用いられる
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(11)
 車両の内部において運転者の左斜め前又は右斜め前に設けられ、
 複数の表示素子が並べられた表示面と、
 前記表示面に設けられ、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号をそれぞれ出力する複数の画素と
 を備える表示装置。
(12)
 前記車両の側方及び後方の画像を表示する
 前記(11)に記載の表示装置。
(13)
 前記複数の画素の前記検出信号が、前記運転者の視線方向の検出に用いられる
 前記(11)又は(12)に記載の表示装置。
(14)
 撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を出力する画素を複数備え、受光面が車両の側方を向くように取り付けられ、前記複数の画素の前記入射光の入射角に対する指向性を示す入射角指向性の重心の平均が、前記画素の中心から一方の方向に偏っている撮像素子と、
 前記複数の画素の前記検出信号に基づく検出画像から復元される復元画像を表示する表示部と
 を備える撮像システム。
(15)
 前記複数の画素は、前記撮像素子が前記車両に取り付けられた状態において、前記画素の中心から前記車両の前方に重心が偏っている第1の範囲内のそれぞれ異なる位置に前記入射光が入射する複数の第1の画素、及び、前記画素の中心から前記車両の前後方向に重心が偏っている範囲であって、前記第1の範囲とは異なる範囲である第2の範囲内のそれぞれ異なる位置に前記入射光が入射する複数の第2の画素を含む
 前記(14)に記載の撮像システム。
(16)
 前記第1の画素からの前記検出信号に基づく検出画像から復元される復元画像、及び、前記第2の画素からの前記検出信号に基づく検出画像から復元される復元画像の前記表示部による表示を制御する表示制御部を
 さらに備える前記(15)に記載の撮像システム。
(17)
 前記表示制御部は、前記車両の運転者の動作、及び、危険物の検出結果のうちの少なくとも1つに基づいて、前記表示部が表示する前記復元画像を変更する
 前記(16)に記載の撮像システム。
(18)
 前記車両の運転者の動作、及び、危険物の検出結果のうちの少なくとも1つに基づいて、前記表示部により表示される前記復元画像の範囲を制御する表示制御部を
 さらに備える前記(14)乃至(17)のいずれかに記載の撮像システム。
(19)
 前記表示部は、
  複数の表示素子が並べられた表示面と、
  前記表示面に設けられ、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号をそれぞれ出力する複数の画素と
 を備える前記(14)乃至(18)のいずれかに記載の撮像システム。
(20)
 前記表示部の前記複数の画素の前記検出信号が、前記車両の運転者の視線方向の検出に用いられる
 前記(19)に記載の撮像システム。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 11 車載システム, 21L,21R カメラモジュール, 23 運転者認識部, 24 アラート制御部, 25L,25R 表示部, 26 表示制御部, 27 制御部, 41L,41R 撮像部, 42L,42R カメラECU, 121 撮像素子, 121a 画素, 122 復元部, 123 制御部, 181 撮像部, 182 指示動作検出部, 201 基板, 202 LLCチップ, 221 車両, 222 運転者, 232L,232R サイドウインドウ

Claims (20)

  1.  撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を出力する画素を複数備え、受光面が車両の側方を向くように取り付けられ、前記複数の画素の前記入射光の入射角に対する指向性を示す入射角指向性の重心の平均が、前記画素の中心から一方の方向に偏っている
     撮像素子。
  2.  前記複数の画素は、前記撮像素子が前記車両に取り付けられた状態において、前記画素の中心から前記車両の前方に重心が偏っている第1の範囲内のそれぞれ異なる位置に前記入射光が入射する複数の第1の画素を含む
     請求項1に記載の撮像素子。
  3.  前記複数の画素のそれぞれは、
      1つの光電変換素子と、
      前記入射光の一部の前記光電変換素子への入射を遮る遮光膜と
     を備え、
     前記複数の第1の画素の前記遮光膜の開口部が、前記第1の範囲内のそれぞれ異なる位置に配置されている
     請求項2に記載の撮像素子。
  4.  前記複数の画素は、前記撮像素子が前記車両に取り付けられた状態において、前記画素の中心から前記車両の前後方向に重心が偏っている範囲であって、前記第1の範囲と異なる範囲である第2の範囲内のそれぞれ異なる位置に前記遮光膜の開口部がそれぞれ配置されている複数の第2の画素をさらに含む
     請求項3に記載の撮像素子。
  5.  前記撮像素子が前記車両に取り付けられた状態において、前記入射角指向性の重心の平均が前記車両の前方に偏っている
     請求項1に記載の撮像素子。
  6.  前記車両の両側方に取り付けられる
     請求項1に記載の撮像素子。
  7.  前記受光面が前記車両のサイドウインドウの車内側の面に対向し、かつ、接触又は近接するように取り付けられる
     請求項6に記載の撮像素子。
  8.  前記車両の外側の側面に取り付けられる
     請求項6に記載の撮像素子。
  9.  前記車両の一方の側方において、前記車両の他方の側方に取り付けられている他の撮像素子と前記車両の前後方向において異なる位置に取り付けられる
     請求項6に記載の撮像素子。
  10.  前記複数の画素の前記検出信号に基づく検出画像から復元される復元画像が、前記車両の電子サイドミラーに用いられる
     請求項1に記載の撮像素子。
  11.  車両の内部において運転者の左斜め前又は右斜め前に設けられ、
     複数の表示素子が並べられた表示面と、
     前記表示面に設けられ、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号をそれぞれ出力する複数の画素と
     を備える表示装置。
  12.  前記車両の側方及び後方の画像を表示する
     請求項11に記載の表示装置。
  13.  前記複数の画素の前記検出信号が、前記運転者の視線方向の検出に用いられる
     請求項11に記載の表示装置。
  14.  撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号を出力する画素を複数備え、受光面が車両の側方を向くように取り付けられ、前記複数の画素の前記入射光の入射角に対する指向性を示す入射角指向性の重心の平均が、前記画素の中心から一方の方向に偏っている撮像素子と、
     前記複数の画素の前記検出信号に基づく検出画像から復元される復元画像を表示する表示部と
     を備える撮像システム。
  15.  前記複数の画素は、前記撮像素子が前記車両に取り付けられた状態において、前記画素の中心から前記車両の前方に重心が偏っている第1の範囲内のそれぞれ異なる位置に前記入射光が入射する複数の第1の画素、及び、前記画素の中心から前記車両の前後方向に重心が偏っている範囲であって、前記第1の範囲とは異なる範囲である第2の範囲内のそれぞれ異なる位置に前記入射光が入射する複数の第2の画素を含む
     請求項14に記載の撮像システム。
  16.  前記第1の画素からの前記検出信号に基づく検出画像から復元される復元画像、及び、前記第2の画素からの前記検出信号に基づく検出画像から復元される復元画像の前記表示部による表示を制御する表示制御部を
     さらに備える請求項15に記載の撮像システム。
  17.  前記表示制御部は、前記車両の運転者の動作、及び、危険物の検出結果のうちの少なくとも1つに基づいて、前記表示部が表示する前記復元画像を変更する
     請求項16に記載の撮像システム。
  18.  前記車両の運転者の動作、及び、危険物の検出結果のうちの少なくとも1つに基づいて、前記表示部により表示される前記復元画像の範囲を制御する表示制御部を
     さらに備える請求項14に記載の撮像システム。
  19.  前記表示部は、
      複数の表示素子が並べられた表示面と、
      前記表示面に設けられ、撮像レンズ及びピンホールのいずれも介さず入射する被写体からの入射光を受光し、前記入射光の入射角によって変調された出力画素値を示す検出信号をそれぞれ出力する複数の画素と
     を備える請求項14に記載の撮像システム。
  20.  前記表示部の前記複数の画素の前記検出信号が、前記車両の運転者の視線方向の検出に用いられる
     請求項19に記載の撮像システム。
PCT/JP2020/039053 2019-10-30 2020-10-16 撮像素子、表示装置、及び、撮像システム WO2021085173A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP20882261.9A EP4054170A4 (en) 2019-10-30 2020-10-16 IMAGING DEVICE, DISPLAY DEVICE AND IMAGING SYSTEM
JP2021554362A JP7444174B2 (ja) 2019-10-30 2020-10-16 撮像素子、表示装置、及び、撮像システム
KR1020227012326A KR20220088693A (ko) 2019-10-30 2020-10-16 촬상 소자, 표시 장치 및 촬상 시스템
CN202080074164.2A CN114586342A (zh) 2019-10-30 2020-10-16 成像设备、显示设备以及成像系统
US17/769,764 US20220377275A1 (en) 2019-10-30 2020-10-16 Imaging device, display device, and imaging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-197022 2019-10-30
JP2019197022 2019-10-30

Publications (1)

Publication Number Publication Date
WO2021085173A1 true WO2021085173A1 (ja) 2021-05-06

Family

ID=75716269

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/039053 WO2021085173A1 (ja) 2019-10-30 2020-10-16 撮像素子、表示装置、及び、撮像システム

Country Status (6)

Country Link
US (1) US20220377275A1 (ja)
EP (1) EP4054170A4 (ja)
JP (1) JP7444174B2 (ja)
KR (1) KR20220088693A (ja)
CN (1) CN114586342A (ja)
WO (1) WO2021085173A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020182139A (ja) * 2019-04-26 2020-11-05 ソニー株式会社 撮像システム及び撮像素子
JP7140819B2 (ja) * 2020-12-25 2022-09-21 本田技研工業株式会社 撮像装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012113605A (ja) 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp 運転支援装置及び運転支援方法
WO2017145348A1 (ja) * 2016-02-26 2017-08-31 株式会社日立製作所 撮像装置
WO2019054092A1 (ja) * 2017-09-12 2019-03-21 パナソニックIpマネジメント株式会社 画像生成装置及び画像生成方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006004802B4 (de) * 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
JP6814040B2 (ja) 2013-06-26 2021-01-13 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH ミラー代替手段、並びに、車両
US9503698B2 (en) * 2013-08-01 2016-11-22 Harvest Imaging bvba Image sensor with shading detection
DE102014212104A1 (de) * 2014-06-24 2015-12-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur relativen positionierung einer multiaperturoptik mit mehreren optischen kanälen relativ zu einem bildsensor
JP6447011B2 (ja) * 2014-10-29 2019-01-09 株式会社デンソー 運転情報表示装置および運転情報表示方法
CN113489904B (zh) * 2016-07-13 2023-07-21 索尼公司 成像装置、成像器件和图像处理装置
US20180035046A1 (en) * 2016-07-29 2018-02-01 Xin Yuan Block-based lensless compressive image acquisition
CN106653802B (zh) * 2016-11-11 2019-07-30 京东方科技集团股份有限公司 显示面板及其制作方法、显示设备
GB2567164A (en) * 2017-10-04 2019-04-10 Continental Automotive Gmbh Display system in a vehicle
KR20200094741A (ko) * 2017-11-30 2020-08-07 소니 주식회사 촬상 장치, 촬상 방법 및 촬상 소자
US10885674B1 (en) * 2018-08-21 2021-01-05 Perceive Corporation Training network for compressive sensing based image processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012113605A (ja) 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp 運転支援装置及び運転支援方法
WO2017145348A1 (ja) * 2016-02-26 2017-08-31 株式会社日立製作所 撮像装置
WO2019054092A1 (ja) * 2017-09-12 2019-03-21 パナソニックIpマネジメント株式会社 画像生成装置及び画像生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Flatcam: Replacing lenses with masks and computation", 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOP (ICCVW, 2015, pages 663 - 666

Also Published As

Publication number Publication date
EP4054170A4 (en) 2023-05-24
JPWO2021085173A1 (ja) 2021-05-06
US20220377275A1 (en) 2022-11-24
CN114586342A (zh) 2022-06-03
KR20220088693A (ko) 2022-06-28
JP7444174B2 (ja) 2024-03-06
EP4054170A1 (en) 2022-09-07

Similar Documents

Publication Publication Date Title
US11888004B2 (en) Imaging apparatus having phase difference detection pixels receiving light transmitted through a same color filter
JP2018201015A (ja) 固体撮像装置、及び電子機器
KR102661039B1 (ko) 촬상 소자 및 촬상 장치
WO2021085173A1 (ja) 撮像素子、表示装置、及び、撮像システム
TWI822909B (zh) 固態攝像裝置及電子機器
JP6981410B2 (ja) 固体撮像装置、電子機器、レンズ制御方法および車両
WO2020195825A1 (ja) 撮像装置および電子機器
WO2018221443A1 (ja) 固体撮像装置、及び電子機器
KR102590054B1 (ko) 고체 촬상 장치 및 전자 기기
EP3648454B1 (en) Solid-state imaging device and electronic equipment
WO2019026718A1 (en) IMAGING APPARATUS AND ELECTRONIC DEVICE
WO2020218074A1 (ja) 撮像システム及び撮像素子
JPWO2019078291A1 (ja) 撮像装置
US11469518B2 (en) Array antenna, solid-state imaging device, and electronic apparatus
WO2021085152A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、情報処理システム
JP7484904B2 (ja) 撮像素子、信号処理装置、信号処理方法、プログラム、及び、撮像装置
CN114666469A (zh) 图像处理装置、方法及具有该图像处理装置的镜头模组
WO2021020156A1 (ja) 撮像素子、撮像装置、信号処理装置、及び、信号処理方法
JP2003274422A (ja) イメージセンサ
WO2021090537A1 (ja) 固体撮像素子、および、撮像装置
WO2023243252A1 (ja) 光検出装置
WO2023248827A1 (en) Solid-state imaging device and electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20882261

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021554362

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020882261

Country of ref document: EP

Effective date: 20220530