WO2024090098A1 - カメラモジュール - Google Patents

カメラモジュール Download PDF

Info

Publication number
WO2024090098A1
WO2024090098A1 PCT/JP2023/034889 JP2023034889W WO2024090098A1 WO 2024090098 A1 WO2024090098 A1 WO 2024090098A1 JP 2023034889 W JP2023034889 W JP 2023034889W WO 2024090098 A1 WO2024090098 A1 WO 2024090098A1
Authority
WO
WIPO (PCT)
Prior art keywords
liquid crystal
crystal panel
lens
camera module
light
Prior art date
Application number
PCT/JP2023/034889
Other languages
English (en)
French (fr)
Inventor
良朗 青木
博人 仲戸川
仁 田中
Original Assignee
株式会社ジャパンディスプレイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジャパンディスプレイ filed Critical 株式会社ジャパンディスプレイ
Publication of WO2024090098A1 publication Critical patent/WO2024090098A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1343Electrodes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • G03B11/04Hoods or caps for eliminating unwanted light from lenses, viewfinders or focusing aids
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Definitions

  • An embodiment of the present invention relates to a camera module.
  • LiDAR is expensive, and equipping a car with LiDAR increases the price of the car significantly. For this reason, there is a demand for alternatives to LiDAR as a means of grasping information about the surrounding environment.
  • the problem that this invention aims to solve is to provide a camera module that can grasp information about the surrounding environment.
  • the camera module comprises an image sensor, a liquid crystal panel, a lens, and a controller.
  • the liquid crystal panel includes an aperture pattern that allows light to be incident on the image sensor, and comprises a liquid crystal layer and a driver that drives the liquid crystal layer to form the aperture pattern.
  • the lens is located between the image sensor and the liquid crystal panel.
  • the controller calculates the distance to a subject in an image based on the light that has passed through the aperture pattern of the liquid crystal panel and the lens and is incident on the image sensor.
  • the liquid crystal panel is arranged to surround the lens.
  • the camera module comprises an imaging element, a liquid crystal panel, a lens, and a controller.
  • the liquid crystal panel includes an aperture pattern that allows light to be incident on the imaging element, and comprises a liquid crystal layer and a driver that drives the liquid crystal layer to form the aperture pattern.
  • the lens is located between the imaging element and the liquid crystal panel.
  • the controller calculates the distance to a subject in an image based on the light that has passed through the aperture pattern of the liquid crystal panel and the lens and is incident on the imaging element.
  • the liquid crystal panel is positioned to cover the lens along the surface of the lens.
  • FIG. 1 is a perspective view showing an example of a configuration of a camera module according to an embodiment.
  • FIG. 2 is a cross-sectional view showing an example of the configuration of a camera module.
  • FIG. 3 is a plan view showing an example of an incident light control region.
  • FIG. 4 is a plan view showing another example of the incident light control region.
  • FIG. 5 is a diagram for explaining an overview of a camera module used to calculate the distance to a subject.
  • FIG. 6 is a diagram for explaining an overview of a camera module used to calculate the distance to a subject.
  • FIG. 7 is a diagram for explaining blur information added to an image captured by a camera module.
  • FIG. 8 is a diagram for explaining blur information added to an image captured by a camera module.
  • FIG. 1 is a perspective view showing an example of a configuration of a camera module according to an embodiment.
  • FIG. 2 is a cross-sectional view showing an example of the configuration of a camera module.
  • FIG. 3 is a
  • FIG. 9 is a diagram showing an example of installation of a camera module.
  • FIG. 10 is a diagram showing an example of the configuration of a distance measuring device according to a comparative example.
  • FIG. 11 is a cross-sectional view for explaining the positional relationship between the liquid crystal panel and the lens.
  • FIG. 12 is a perspective view showing a configuration example of a camera module according to a modified example.
  • FIG. 13 is a cross-sectional view showing a configuration example of a camera module according to a modified example.
  • a camera module that can use an image of a subject captured by a camera to calculate the distance from the camera to the subject in the image (hereinafter simply referred to as the distance to the subject).
  • coded aperture technology As a technique for calculating the distance to a subject from an image, for example, coded aperture technology can be used. A detailed explanation is omitted as this is a known technology, but coded aperture technology is a technique for calculating the distance to a subject by analyzing the blur that occurs in an image depending on the position of the subject.
  • the coded aperture technology described above it is possible to calculate the distance to a subject based on an image and create a depth map that represents the distance to the subject.
  • the process of calculating the distance to the subject and the process of creating a depth map are included in the camera module and are executed by a controller (CPU) that controls the operation of the camera module.
  • FIG. 1 is a perspective view showing an example of the configuration of a camera module 1 according to this embodiment
  • FIG. 2 is a cross-sectional view showing an example of the configuration of a camera module 1 according to this embodiment.
  • direction X, direction Y, and direction Z are mutually orthogonal, but may intersect at an angle other than 90 degrees.
  • the camera module 1 includes a camera 11 (e.g., a spherical camera) and a liquid crystal panel PNL arranged to surround the camera 11.
  • the liquid crystal panel PNL may be called a liquid crystal shutter.
  • the liquid crystal panel PNL includes a first substrate (array substrate), a second substrate (opposing substrate) opposed to the first substrate, a liquid crystal layer disposed between the first substrate and the second substrate and sealed by a sealant, and a driver for driving the liquid crystal layer. Note that the liquid crystal panel PNL does not have to display a visible image, and therefore does not include a color filter or backlight.
  • the liquid crystal panel PNL has an aperture pattern including a large number of incident light control areas PCA. Details will be described later, but the incident light control area PCA has at least a light-shielding area LSA located at the outermost periphery and having a circular shape, and a light-transmitting area TA surrounded by and in contact with the light-shielding area LSA.
  • the liquid crystal panel PNL forms an aperture pattern by forming light-transmitting areas TA and light-shielding areas LSA in each of the large number of incident light control areas PCA when the liquid crystal layer is driven by a driver. This allows the liquid crystal panel PNL to function as a liquid crystal shutter with an incident light control function that controls the amount of light transmitted to the camera 11.
  • an opening pattern including the light-transmitting area TA is formed. This allows light that has passed through the light-transmitting area TA to be incident on the camera 11, allowing the camera 11 to capture an image.
  • the light transmission area TA is not formed, and therefore the opening pattern is also not formed. In other words, the light to the camera 11 can be blocked.
  • the liquid crystal panel PNL is of a normally black type, in which the liquid crystal layer transmits light when it is in the on state and blocks light when it is in the off state.
  • the liquid crystal panel PNL may be of a normally white type, in which the liquid crystal layer blocks light when it is in the on state and transmits light when it is in the off state.
  • the camera 11 includes an optical system 12 that includes at least one lens, an image sensor 13, and a case (housing) 14.
  • the case 14 houses the optical system 12 and the image sensor 13.
  • the case 14 has a main surface 14A, and the liquid crystal panel PNL is arranged on the main surface 14A so as to surround the optical system 12.
  • the optical system 12 is located between the image sensor 13 and the liquid crystal panel PNL.
  • the optical system 12 has a light entrance surface 12A, which does not overlap with the liquid crystal panel PNL in a planar view.
  • the image sensor 13 has an image surface 13A, which overlaps with the light entrance surface 12A of the optical system 12 in a planar view. In other words, the image surface 13A of the image sensor 13 also does not overlap with the liquid crystal panel PNL in a planar view.
  • the imaging element 13 of the camera 11 receives light through the liquid crystal panel PNL and the optical system 12.
  • the imaging element 13 is configured to convert the incident light that has passed through the aperture pattern formed on the liquid crystal panel PNL and the optical system 12 into an image (data).
  • the camera 11 imaging element 13 is configured to convert visible light (e.g., light in a wavelength range of 400 nm to 700 nm) that has passed through the liquid crystal panel PNL and the optical system 12 into an image, but may also be configured to convert infrared light (e.g., light in a wavelength range of 800 nm to 1500 nm) into an image.
  • a light shielding portion LS is disposed on the liquid crystal panel PNL.
  • the light shielding portion LS overlaps and faces the light entrance surface 12A of the optical system 12 and the imaging surface 13A of the image sensor 13 in a plan view.
  • the light shielding portion LS blocks light from a direction perpendicular to the light entrance surface 12A and the imaging surface 13A.
  • FIGS. 3 and 4 are plan views showing an example of an incident light control area PCA of a liquid crystal panel PNL.
  • the first area A1 of the incident light control area PCA is set to a non-transmitting state
  • the areas of the incident light control area PCA other than the light-shielding area LSA and the first area A1 are set to a transmitting state (i.e., light-transmitting area TA).
  • a transmitting state i.e., light-transmitting area TA
  • the second area A2 of the incident light control area PCA is set to a non-transmitting state, and the areas of the incident light control area PCA other than the light-shielding area LSA and the second area A2 are set to a transmitting state (i.e., light-transmitting area TA).
  • the liquid crystal panel PNL is formed with an aperture pattern including a large number of incident light control areas PCA as shown in Figures 3 and 4. As a result, light that has passed through the aperture pattern formed on the liquid crystal panel PNL is incident on the image sensor 13, so blur information can be added to the captured image.
  • the incident light control area PCA has been described as being circular, but this is not limiting, and the shape of the incident light control area PCA may be other than circular (for example, rectangular, etc.).
  • Figures 3 and 4 are shown as examples of the incident light control area PCA, but this is not limiting, and which areas of the incident light control area PCA are set to a transparent state and which areas are set to a non-transparent state (i.e., which areas of the incident light control area PCA excluding the light blocking area LSA are set to the light transmitting area TA) may be set and changed appropriately depending on the shooting scene.
  • the camera module 1 is equipped with a camera 11 (optical system 12 including a lens and an image sensor 13) for photographing a subject, and a liquid crystal panel PNL for controlling the light entering the camera 11.
  • the lens 12B included in the optical system 12 is a lens capable of including a wide range in its photographing range, preferably a lens capable of including 360 degrees in the horizontal direction in its photographing range, such as a fisheye lens.
  • FIG. 5 shows the positional relationship between the camera module 1 and the subject 100A.
  • the distance from the camera 11 (camera module 1) to the subject 100A, which is located relatively far away, is calculated.
  • the camera 11 for example, by changing the distance between the lens 12B included in the optical system 12 and the image sensor 13, the subject 100A can be photographed while the subject 100A is in focus.
  • the subject 100A is photographed while the subject 100A is not in focus, a misalignment occurs between the focal position and the imaging surface 13A of the image sensor 13, and the image based on the light incident on the image sensor 13 becomes blurred.
  • an aperture pattern including an incident light control area PCA having a light transmission area TA and a light blocking area LSA can add blur information to an image, and the coded aperture technology described above can calculate the distance to the subject 100A based on the blur that occurs in the image.
  • Figure 7 is a diagram for explaining the blur information added to an image captured by the camera module 1 according to this embodiment.
  • the camera module 1 according to this embodiment is equipped with a fisheye lens that can include 360 degrees horizontally in its shooting range, so the image captured by the camera module 1 is a circular, full-circle image, as shown in Figure 8.
  • the image captured by the camera module 1 has blur information added based on a PSF (Point Spread Function) that is set according to the aperture pattern. This makes it possible to calculate the distance to a subject in an image using the coded aperture technology described above.
  • PSF Point Spread Function
  • the camera module 1 divides the shooting range (panoramic image) into multiple concentric regions A11-A14, and by changing the aperture pattern of the liquid crystal panel PNL for each of the regions A11-A14, a PSF is set for each of the regions A11-A14, and different blur information is added for each of the regions A11-A14, making it possible to calculate the distance to the subject with high accuracy.
  • FIG. 7 illustrates an example in which the panoramic image is divided into multiple concentric regions A11 to A14
  • the manner in which the panoramic image is divided into multiple regions is not limited to the manner illustrated in FIG. 7.
  • the panoramic image may be divided into even finer regions, and the aperture pattern of the liquid crystal panel PNL may be changed for each of the regions A21 to A33, so that a different PSF may be set for each of the regions A21 to A33.
  • FIG. 9 is a diagram showing an example of installation of the camera module 1 according to this embodiment.
  • the camera module 1 is installed, for example, on the roof of a vehicle.
  • the camera module 1 captures images of a subject across 360 degrees in the horizontal direction, and calculates the distance to the subject based on the captured images.
  • the camera modules 1 may be installed in a total of four locations, for example, near the front light and near the rear light of the vehicle, and the four camera modules 1 may capture images of the subject across 360 degrees in the horizontal direction, and the distance to the subject may be calculated.
  • the vehicle is shown here as being an automobile, this is not limited thereto, and the vehicle may be a motorcycle, a drone, etc.
  • the effects of the camera module 1 according to this embodiment will be explained using a comparative example.
  • the comparative example is intended to explain some of the effects that can be achieved by the camera module 1 according to this embodiment, and does not exclude effects common to the comparative example and this embodiment from the scope of the present invention.
  • FIG. 10 is a diagram showing an example of the configuration of a distance measuring device 200 according to a comparative example.
  • the distance measuring device 200 according to the comparative example includes a distance measuring unit 201 called LiDAR (Laser Imaging Detection and Ranging) and a rotation mechanism 202 for rotating the distance measuring unit 201.
  • the distance measuring unit 201 includes a laser emitting unit 201A that emits laser light and a laser receiving unit 201B that receives the laser light reflected by an object.
  • the distance measuring unit 201 measures the time it takes for the laser light emitted from the laser emitting unit 201A to be reflected by the object and received by the laser receiving unit 201B, and measures the distance and direction to the object.
  • the distance measuring device 200 is provided with a rotation mechanism 202 for rotating the distance measuring unit 201. This allows the laser transmitter 201A included in the distance measurement unit 201 to emit laser light over the range in which the rotation mechanism 202 can rotate (i.e., it can emit laser light in multiple directions), making it possible to perform the above-mentioned measurements over that range.
  • the distance measuring device 200 according to the comparative example requires the rotation mechanism 202 for rotating the distance measuring unit 201.
  • moving parts such as the rotation mechanism 202 are generally prone to damage, and devices having such moving parts have the problem of lacking reliability as devices.
  • the LiDAR 201 constituting the distance measuring device 200 according to the comparative example is very expensive, and there is also the problem that the vehicle models in which the distance measuring device 200 can be installed are limited to high-end models (models with high vehicle prices).
  • the camera module 1 according to this embodiment does not require the provision of a rotation mechanism 202 as in the comparative example, making it less susceptible to damage and enabling the reliability of the device described above to be increased. Furthermore, the camera module 1 according to this embodiment does not require expensive parts such as the laser transmitter 201A and laser receiver 201B included in the LiDAR 201 constituting the distance measuring device 200 according to the comparative example, making it possible to produce it at a low price, and making it possible to mount the camera module 1 on a wide variety of vehicles, not just the high-end models described above.
  • the distance measuring device 200 there is a distance measuring device that uses two cameras (stereo cameras) to measure the distance to an object.
  • the camera module 1 according to this embodiment only needs to be equipped with one camera 11, so it is possible to reduce the number of parts compared to the distance measuring device using the stereo camera described above.
  • the camera module 1 includes a liquid crystal panel PNL arranged to surround the optical system 12.
  • the liquid crystal panel PNL has an incident light control function that forms an aperture pattern by driving the liquid crystal layer with a driver, and controls the amount of light transmitted to the camera 11 (optical system 12 and image sensor 13).
  • the optical system 12 includes a lens, such as a fisheye lens, that can include 360 degrees horizontally in the shooting range.
  • the camera module 1 allows light L1 that has passed through the aperture pattern formed on the liquid crystal panel PNL to be incident on the optical system 12 and the image sensor 13, making it possible to capture an image of 360 degrees in the horizontal direction based on the light L1 at once.
  • the captured image is supplemented with blur information based on the PSF that is set according to the aperture pattern formed on the liquid crystal panel PNL, making it possible for the camera module 1 to calculate the distance to the subject included in the image using the coded aperture technology described above.
  • the camera module 1 described above also includes a light-shielding portion LS provided at a position that overlaps the light entrance surface 12A of the optical system 12 and the imaging surface 13A of the image sensor 13 in a plan view. This makes it possible to block light from a direction perpendicular to the light entrance surface 12A and the imaging surface 13A, so that subjects located above the camera module 1 are not captured in the image, eliminating the need to calculate the distance to subjects located above the camera module 1. In other words, the amount of calculations in the CPU of the camera module 1 can be reduced, and the processing load on the CPU can be reduced.
  • a liquid crystal panel having a function similar to that of the liquid crystal panel PNL described above may be disposed in place of the light shielding portion LS described above. In this case, in addition to the distance to subjects located across 360 degrees in the horizontal direction of the camera module 1, it is also possible to calculate the distance to a subject located above the camera module 1.
  • the liquid crystal panel PNL is arranged in a cylindrical shape so as to surround the optical system 12, but this is not limited thereto, and the liquid crystal panel PNL may be arranged in a prismatic shape so as to surround the optical system 12. Even in this case, the liquid crystal panel PNL is arranged so as to surround the optical system 12, the liquid crystal panel PNL has an incident light control function, and the optical system 12 includes a lens that can include 360 degrees in the horizontal direction in the shooting range, so it is possible to obtain the same effect as described above.
  • the liquid crystal panel PNL is disposed so as to surround the optical system 12, but as shown in FIG. 11, the lens 12B included in the optical system 12 is curved, and therefore the distance between the liquid crystal panel PNL and the lens 12B is not constant. For this reason, the light passing through the portion where the liquid crystal panel PNL and the lens 12B are separated is more likely to be in focus on the liquid crystal panel PNL than the light passing through other portions (i.e., portions where the liquid crystal panel PNL and the lens 12B are not separated). As a result, the opening pattern formed on the liquid crystal panel PNL may be reflected as noise in an image based on the light passing through the portion where the liquid crystal panel PNL and the lens 12B are separated.
  • the liquid crystal panel PNL may be disposed so as to cover the lens 12B along the surface of the lens 12B included in the optical system 12, as shown in Figures 12 and 13.
  • the liquid crystal panel PNL overlaps the light entrance surface 12A of the optical system 12 and the imaging surface 13A of the image sensor 13 in a plan view, as shown in Figures 12 and 13.
  • a single liquid crystal panel PNL is arranged to surround the optical system 12 or to cover the lens 12B along the surface of the lens 12B of the optical system 12, but this is not limited to the above, and multiple liquid crystal panels may be divided and arranged around the optical system 12. Even in this case, the multiple liquid crystal panels are still arranged to surround the optical system 12 or to cover the lens 12B along the surface of the lens 12B of the optical system 12, so it is possible to obtain the same effect as described above.
  • a camera module 1 that is capable of grasping information about the surrounding environment (distance to the subject).
  • Any display device that can be implemented by a person skilled in the art through appropriate design modifications based on the camera module described above as an embodiment of the present invention also falls within the scope of the present invention as long as it includes the gist of the present invention.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Nonlinear Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Diaphragms For Cameras (AREA)

Abstract

周囲環境の情報を把握することが可能なカメラモジュールを提供すること。 一実施形態によれば、カメラモジュールは、撮像素子と、液晶パネルと、レンズと、コントローラと、を備える。液晶パネルは、撮像素子に光を入射させる開口パターンを含み、液晶層と、開口パターンを形成するように液晶層を駆動するドライバと、を備える。レンズは、撮像素子と液晶パネルとの間に位置する。コントローラは、液晶パネルの開口パターンとレンズとを透過し、撮像素子に入射された光に基づく画像中の被写体までの距離を計算する。液晶パネルは、レンズを囲むように配置される。

Description

カメラモジュール
 本発明の実施形態は、カメラモジュールに関する。
 近年、自動車の自動運転技術が注目されている。このような自動運転技術においては、周囲環境の情報(例えば、周囲に位置する物体の形状、周囲に位置する物体までの距離、等)を正確に把握する必要がある。このため、周囲環境の情報を把握するための手段として、LiDAR(Laser Imaging Detection and Ranging)を利用することが試案されている。
 しかしながら、LiDARは高価であり、自動車にLiDARを搭載してしまうと当該自動車の価格が大きく上昇してしまうといった問題がある。このため、周囲環境の情報を把握するための手段として、LiDARに代わる手段が求められている。
特表2021-509238号公報
 本発明が解決しようとする課題は、周囲環境の情報を把握することが可能なカメラモジュールを提供することである。
 一実施形態によれば、カメラモジュールは、撮像素子と、液晶パネルと、レンズと、コントローラと、を具備する。前記液晶パネルは、前記撮像素子に光を入射させる開口パターンを含み、液晶層と、前記開口パターンを形成するように前記液晶層を駆動するドライバと、を備える。前記レンズは、前記撮像素子と前記液晶パネルとの間に位置する。前記コントローラは、前記液晶パネルの前記開口パターンと前記レンズとを透過し、前記撮像素子に入射された光に基づく画像中の被写体までの距離を計算する。前記液晶パネルは、前記レンズを囲むように配置される。
 一実施形態によれば、カメラモジュールは、撮像素子と、液晶パネルと、レンズと、コントローラと、を具備する。前記液晶パネルは、前記撮像素子に光を入射させる開口パターンを含み、液晶層と、前記開口パターンを形成するように前記液晶層を駆動するドライバと、を備える。前記レンズは、前記撮像素子と前記液晶パネルとの間に位置する。前記コントローラは、前記液晶パネルの前記開口パターンと前記レンズとを透過し、前記撮像素子に入射された光に基づく画像中の被写体までの距離を計算する。前記液晶パネルは、前記レンズの表面に沿って前記レンズを覆うように配置される。
図1は、一実施形態に係るカメラモジュールの一構成例を示す斜視図である。 図2は、カメラモジュールの一構成例を示す断面図である。 図3は、入射光制御領域の一例を示す平面図である。 図4は、入射光制御領域の別の例を示す平面図である。 図5は、被写体の距離を計算するために用いられるカメラモジュールの概要について説明するための図である。 図6は、被写体の距離を計算するために用いられるカメラモジュールの概要について説明するための図である。 図7は、カメラモジュールによって撮影される画像に対して付加されるぼけの情報を説明するための図である。 図8は、カメラモジュールによって撮影される画像に対して付加されるぼけの情報を説明するための図である。 図9は、カメラモジュールの一設置例を示す図である。 図10は、比較例に係る測距装置の一構成例を示す図である。 図11は、液晶パネルとレンズとの位置関係を説明するための断面図である。 図12は、変形例に係るカメラモジュールの一構成例を示す斜視図である。 図13は、変形例に係るカメラモジュールの一構成例を示す断面図である。
 以下、図面を参照して、実施形態について説明する。
 なお、開示はあくまで一例にすぎず、当業者において、発明の主旨を保っての適宜変更について容易に想到し得るものについては、当然に本発明の範囲に含有されるものである。また、図面は説明をより明確にするために、実施の態様に比べ、各部の幅、厚さ、形状等について模式的に表される場合があるが、あくまで一例であって、本発明の解釈を限定するものではない。また、本明細書と各図において、既出の図に関して前述したものと同様の要素には、同一の符号を付して、詳細な説明を適宜省略することがある。
 本実施形態においては、カメラによって撮影された被写体の画像を利用して、当該カメラから当該画像中の被写体までの距離(以下、単に被写体までの距離と表記する)を計算することが可能なカメラモジュールについて説明する。
 被写体までの距離を画像から計算する技術としては、例えば符号化開口技術を利用することができる。詳しい説明については既知の技術のため省略するが、符号化開口技術は、被写体の位置に応じて画像に生じるぼけを解析することによって当該被写体までの距離を計算する技術である。
 すなわち、上記した符号化開口技術を利用すれば、画像に基づいて被写体までの距離を計算し、当該被写体までの距離を表すデプスマップを作成することができる。なお、被写体までの距離を計算する処理およびデプスマップを作成する処理等は、カメラモジュールに含まれ、当該カメラモジュールの動作を制御するコントローラ(CPU)によって実行される。
 図1は、本実施形態に係るカメラモジュール1の一構成例を示す斜視図であり、図2は、本実施形態に係るカメラモジュール1の一構成例を示す断面図である。図1に示すように、方向X、方向Yおよび方向Zは、互いに直交しているが、90度以外の角度で交差していてもよい。
 図1および図2に示すように、カメラモジュール1は、カメラ11(例えば、全天球カメラ)と、当該カメラ11の周囲を囲むように配置された液晶パネルPNLと、を備えている。液晶パネルPNLは、液晶シャッターと称されてもよい。詳細な説明は省略するが、液晶パネルPNLは、第1基板(アレイ基板)と、当該第1基板に対向する第2基板(対向基板)と、第1基板と第2基板の間に配置され、シール材によって封止される液晶層と、液晶層を駆動するドライバと、を備えている。なお、液晶パネルPNLには、視認可能な画像を表示する必要はないため、カラーフィルタやバックライトは設けられていない。
 液晶パネルPNLは、多数の入射光制御領域PCAを含む開口パターンを有している。詳細については後述するが、入射光制御領域PCAは、少なくとも最外周に位置し円環の形状を有する遮光領域LSAと、当該遮光領域LSAで囲まれ遮光領域LSAに接した光透過領域TAとを有している。液晶パネルPNLは、ドライバにより液晶層が駆動されることで、多数の入射光制御領域PCAのそれぞれに光透過領域TAおよび遮光領域LSAを形成して開口パターンを形成する。これによれば、液晶パネルPNLは、カメラ11への光の透過量を制御する入射光制御機能を有した液晶シャッターとして機能することができる。
 液晶パネルPNLの液晶層に対して所定の電圧が印加され、液晶層がオン状態の場合(つまり、入射光制御機能がオン状態の場合)、光透過領域TAを含む開口パターンが形成される。これによれば、光透過領域TAを透過した光をカメラ11に入射させることができるため、カメラ11は画像を撮影することができる。
 一方、液晶パネルPNLの液晶層に対して所定の電圧が印加されずに、液晶層がオフ状態の場合(つまり、入射光制御機能がオフ状態の場合)、光透過領域TAが形成されないため、開口パターンもまた形成されない。つまり、カメラ11への光を遮断することができる。
 なお、本実施形態では、液晶パネルPNLが、液晶層がオン状態の時に光を透過し、オフ状態の時に光を遮断するノーマリーブラック方式である場合を想定しているが、液晶パネルPNLは、液晶層がオン状態の時に光を遮断し、オフ状態の時に光を透過するノーマリーホワイト方式であっても構わない。
 カメラ11は、図1および図2に示すように、少なくとも1つのレンズを含む光学系12と、撮像素子(イメージセンサ)13と、ケース(筐体)14と、を備えている。
 ケース14は、光学系12および撮像素子13を収容している。ケース14は主面14Aを有し、当該主面14Aには、光学系12を囲むように液晶パネルPNLが配置されている。光学系12は、撮像素子13と液晶パネルPNLとの間に位置している。光学系12は入光面12Aを有し、当該入光面12Aは液晶パネルPNLと平面視において重ならない。撮像素子13は撮像面13Aを有し、当該撮像面13Aは光学系12の入光面12Aと平面視において重なっている。つまり、撮像素子13の撮像面13Aもまた、液晶パネルPNLと平面視において重ならない。
 カメラ11の撮像素子13は、液晶パネルPNLおよび光学系12を介して受光する。撮像素子13は、液晶パネルPNLに形成された開口パターンと、光学系12とを透過した入射光を画像(データ)に変換するように構成されている。なお、カメラ11(撮像素子13)は、例えば液晶パネルPNLおよび光学系12を透過した可視光(例えば400nm~700nmの波長範囲の光)を画像に変換するように構成されているが、さらに、赤外光(例えば、800nm~1500nmの波長範囲の光)を画像に変換するように構成されていてもよい。
 液晶パネルPNLの上には、遮光部LSが配置されている。遮光部LSは、光学系12の入光面12Aおよび撮像素子13の撮像面13Aと平面視において重なり、対向している。遮光部LSは、入光面12Aおよび撮像面13Aに対して垂直な方向からの光を遮断する。
 図3および図4は、液晶パネルPNLの入射光制御領域PCAの一例を示す平面図である。図3に示す例では、入射光制御領域PCAのうち、第1領域A1が非透過状態に設定され、入射光制御領域PCAのうち、遮光領域LSAおよび第1領域A1以外の領域が透過状態(つまり、光透過領域TA)に設定されている。一方、図4に示す例では、入射光制御領域PCAのうち、第2領域A2が非透過状態に設定され、入射光制御領域PCAのうち、遮光領域LSAおよび第2領域A2以外の領域が透過状態(つまり、光透過領域TA)に設定されている。
 液晶パネルPNLには、図3および図4に示すような入射光制御領域PCAを多数含む開口パターンが形成される。これによれば、撮像素子13には液晶パネルPNLに形成された開口パターンを透過した光が入射されるため、撮影画像にぼけの情報を付加することができる。
 なお、本実施形態においては、入射光制御領域PCAが円形状であるものとして説明したが、これに限定されず、入射光制御領域PCAの形状は円形状以外(例えば、矩形状等)であってもよい。また、本実施形態においては、入射光制御領域PCAの一例として、図3および図4を示したが、これに限定されず、入射光制御領域PCAのどの領域を透過状態に設定し、どの領域を非透過状態に設定するかは(つまり、入射光制御領域PCAから遮光領域LSAを除いた領域のうちのどこを光透過領域TAに設定するかは)、撮影シーンに応じて適宜設定・変更されて構わない。
 ここで、図5および図6を参照して、上記した被写体までの距離を計算するために用いられるカメラモジュール1の概要について説明する。なお、上記したように、本実施形態においてカメラモジュール1とは、被写体を撮影するためのカメラ11(レンズを含む光学系12および撮像素子13)と、カメラ11に入射する光を制御するための液晶パネルPNLとを備えたものであるとする。また、光学系12に含まれるレンズ12Bは、広範囲を撮影範囲に含めることが可能なレンズであり、好ましくは水平方向360度を撮影範囲に含めることが可能なレンズであり、例えば魚眼レンズ等であるとする。
 図5は、カメラモジュール1と被写体100Aとの位置関係を示している。図5においては、カメラ11(カメラモジュール1)から比較的遠い位置にいる被写体100Aまでの距離を計算する場合を想定する。カメラ11においては例えば光学系12に含まれるレンズ12Bと撮像素子13との間の距離を変化させることによって被写体100Aにピントが合っている状態で当該被写体100Aを撮影することができるが、図5に示すように、当該被写体100Aにピントが合っていない状態で当該被写体100Aを撮影した場合には、焦点位置と撮像素子13の撮像面13Aとにずれが生じるため、撮像素子13に入射した光に基づく画像にぼけが生じる。
 図5に示すように、光透過領域TAおよび遮光領域LSAを有した入射光制御領域PCAを含む開口パターンは、画像にぼけの情報を付加することが可能であり、上記した符号化開口技術によれば、画像に生じているぼけに基づいて被写体100Aまでの距離を計算することができる。
 次に、カメラ11(カメラモジュール1)から比較的近い位置にいる被写体100Bまでの距離を計算する場合を想定する。被写体100Bまでの距離を計算する場合には、当該被写体100Bにピントが合っていない状態で当該被写体100Bを撮影するが、図5に示すように、カメラ11から被写体100Bまでの距離が近い場合、液晶パネルPNLに形成された開口パターンおよびレンズ12Bを透過した光の一部が撮像素子13に入射しない。この場合、撮像素子13に入射した光に基づく画像から被写体100Bまでの距離が計算されたとしても、撮像素子13に入射しない光(ぼけの情報)を当該被写体100Bまでの距離の計算に利用することができないため、当該距離には誤差が生じる(つまり、当該距離の精度が低くなる)ことが考えられる。
 この場合、図6に示すように、光透過領域TAのサイズ(開口パターンのサイズ)を小さくすることによって、当該光透過領域TAおよびレンズ12Bを透過した光の全てを撮像素子13に入射させるようにすることができる。これによれば、上記した図5に示した光透過領域TAのサイズが大きい場合と比較して、被写体100Bまでの距離の精度を向上させることができる。
 図7は、本実施形態に係るカメラモジュール1によって撮影される画像に対して付加されるぼけの情報を説明するための図である。上記したように、本実施形態に係るカメラモジュール1は、水平方向360度を撮影範囲に含めることが可能な魚眼レンズを備えているため、当該カメラモジュール1によって撮影された画像は、図8に示すように、円形状の全周囲画像となる。カメラモジュール1によって撮影された画像には、開口パターンに応じて設定されるPSF(Point Spread Function、点広がり関数)に基づくぼけの情報が付加されている。これによれば、上記した符号化開口技術により画像中の被写体までの距離を計算することが可能である。
 しかしながら、魚眼レンズは、レンズ中央部と、レンズ端部とで厚みが異なっているため、円形状の全周囲画像の全ての領域に対して一様なPSFが設定され、当該全周囲画像に対して一様にぼけの情報が付加されたとしても、当該全周囲画像中の被写体までの距離を精度良く計算することができないことが考えられる。このため、本実施形態に係るカメラモジュール1は、撮影範囲(全周囲画像)を同心円状の複数の領域A11~A14に分割し、領域A11~A14毎に液晶パネルPNLの開口パターンを変化させることで、領域A11~A14毎にPSFを設定し、領域A11~A14毎に異なるぼけの情報を付加することで、上記した被写体までの距離を精度良く計算することを可能にしている。
 なお、図7では、全周囲画像を同心円状の複数の領域A11~A14に分割する場合を例示したが、全周囲画像を複数の領域に分割する形態は図7に示した形態に限られず、例えば図8に示すように、全周囲画像をさらに細かく分割し、領域A21~A33毎に液晶パネルPNLの開口パターンを変化させ、領域A21~A33毎に異なるPSFを設定してもよい。
 図9は、本実施形態に係るカメラモジュール1の一設置例を示す図である。図9(a)に示すように、カメラモジュール1は、例えば車両のルーフに設置される。カメラモジュール1は、水平方向360度に亘って被写体を撮影し、当該撮影された画像に基づいて当該被写体までの距離を計算する。あるいは、図9(b)に示すように、カメラモジュール1は、例えば車両の前方ライト付近と、車両の後方ライト付近との計4か所に設置され、4つのカメラモジュール1により水平方向360度分の被写体を撮影し、当該被写体までの距離を計算してもよい。なお、ここでは、車両が自動車である場合を示したが、これに限定されず、車両はオートバイやドローン等であってもよい。
 ここで、比較例を用いて、本実施形態に係るカメラモジュール1の効果について説明する。なお、比較例は、本実施形態に係るカメラモジュール1が奏し得る効果の一部を説明するためのものであって、比較例と本実施形態とで共通する効果を本願発明の範囲から除外するものではない。
 図10は、比較例に係る測距装置200の一構成例を示す図である。比較例に係る測距装置200は、LiDAR(Laser Imaging Detection and Ranging)と称される測距部201と、当該測距部201を回転させるための回転機構202とを備えている。測距部201は、図10に示すように、レーザー光を発信するレーザー発信部201Aと、対象物により反射されたレーザー光を受信するレーザー受信部201Bとを含んでいる。測距部201は、レーザー発信部201Aから発信されたレーザー光が対象物により反射され、レーザー受信部201Bにより受信されるまでの時間を計測し、当該対象物までの距離や方向を測定する。測距部201に含まれるレーザー発信部201Aは、一方向にしかレーザー光を発信することができないため、測距装置200には、当該測距部201を回転させるための回転機構202が設けられている。これによれば、測距部201に含まれるレーザー発信部201Aは、回転機構202が回転可能な範囲に亘ってレーザー光を発信することができ(つまり、複数方向に対してレーザー光を発信することができ)、当該範囲に亘って上記した測定を行うことが可能となる。
 比較例に係る測距装置200においては、上記したように、測距部201を回転させるための回転機構202が必要である。しかしながら、一般的に、回転機構202のような可動部は破損し易く、当該可動部を有する装置は、装置としての信頼性に欠けるという問題がある。また、比較例に係る測距装置200を構成するLiDAR201は、非常に高価であり、当該測距装置200を搭載可能な車種がハイエンドモデル(車両価格が高いモデル)に限定されてしまうという問題もある。
 これに対し、本実施形態に係るカメラモジュール1によれば、比較例のような回転機構202を設ける必要がないため、破損しにくく、上記した装置としての信頼性を高めることが可能である。また、本実施形態に係るカメラモジュール1は、比較例に係る測距装置200を構成するLiDAR201に含まれるレーザー発信部201Aおよびレーザー受信部201Bのような高価な部品が不要なため、低価格で生産することが可能であり、上記したハイエンドモデルに限らず、種々様々な車両に対して当該カメラモジュール1を搭載することが可能となる。
 また、比較例に係る測距装置200とは別に、2つのカメラ(ステレオカメラ)を用いて対象物までの距離を測定する測距装置があるが、本実施形態に係るカメラモジュール1は、1つのカメラ11を備えていればよいため、上記したステレオカメラを用いた測距装置に比べて、部品数を減らすことが可能である。
 以上説明したように、本実施形態に係る構成においては、カメラモジュール1は、光学系12を囲むように配置された液晶パネルPNLを備えている。液晶パネルPNLは、ドライバにより液晶層を駆動することで開口パターンを形成し、カメラ11(光学系12および撮像素子13)への光の透過量を制御する入射光制御機能を有している。光学系12は、例えば魚眼レンズ等、水平方向360度を撮影範囲に含めることが可能なレンズを含んでいる。
 これによれば、図11に示すように、カメラモジュール1は、液晶パネルPNLに形成された開口パターンを透過した光L1を光学系12および撮像素子13に入射させ、当該光L1に基づく水平方向360度の画像を一度に撮影することが可能となる。撮影された画像には、液晶パネルPNLに形成された開口パターンに応じて設定されるPSFに基づいたぼけの情報が付加されるため、カメラモジュール1は、上記した符号化開口技術により、当該画像に含まれる被写体までの距離を計算することが可能である。
 また、以上説明したカメラモジュール1は、光学系12の入光面12Aと撮像素子13の撮像面13Aと平面視において重なる位置に設けられた遮光部LSを備えている。これによれば、入光面12Aおよび撮像面13Aに対して垂直な方向からの光を遮断することができるため、カメラモジュール1の上方に位置する被写体は画像に写らず、カメラモジュール1の上方に位置する被写体までの距離を計算する必要がなくなる。つまり、カメラモジュール1のCPUにおける演算量を減らすことができ、当該CPUにかかる処理負荷を減らすことが可能である。
 なお、カメラモジュール1の上方に位置する被写体までの距離を計算したい場合、上記した遮光部LSに代えて、上記した液晶パネルPNLと同様な機能を有する液晶パネルが配置されてもよい。この場合、カメラモジュール1の水平方向360度に亘って位置する被写体までの距離に加えて、当該カメラモジュール1の上方に位置する被写体までの距離も計算することが可能となる。
 本実施形態においては、液晶パネルPNLが光学系12を囲むように円柱状に配置される場合を示したが、これに限定されず、液晶パネルPNLは光学系12を囲むように角柱状に配置されるとしてもよい。この場合であっても、光学系12を囲むように液晶パネルPNLが配置される点、当該液晶パネルPNLが入射光制御機能を有している点、光学系12が水平方向360度を撮影範囲に含めることが可能なレンズを含んでいる点、は変わらないため、上記した効果と同様な効果を得ることが可能である。
 本実施形態においては、液晶パネルPNLが光学系12を囲むように配置されている場合を示したが、図11に示すように、光学系12に含まれるレンズ12Bは湾曲しているため、液晶パネルPNLとレンズ12Bとの間の距離は一定にはなっていない。このため、液晶パネルPNLとレンズ12Bとが離れている部分を通過する光ほど、他の部分(つまり、液晶パネルPNLとレンズ12Bとが離れていない部分)を通過する光に比べて、液晶パネルPNLにピントが合った状態になり易い。これによれば、液晶パネルPNLとレンズ12Bとが離れている部分を通過する光に基づく画像には、液晶パネルPNLに形成された開口パターンがノイズとして写り込んでしまう可能性がある。
 このため、液晶パネルPNLは、図12および図13に示すように、光学系12に含まれるレンズ12Bの表面に沿って当該レンズ12Bを覆うように配置されても構わない。この構成の場合、液晶パネルPNLは、図12および図13に示すように、光学系12の入光面12Aと撮像素子13の撮像面13Aと平面視において重なる。この構成によれば、液晶パネルPNLとレンズ12Bとの間の距離を一定にすることが可能なため、液晶パネルPNLに形成される開口パターンがノイズとして画像に写り込んでしまうことを抑制することが可能であり、被写体までの距離をより高精度に計算することが可能である。
 以上説明した本実施形態においては、1つの液晶パネルPNLが光学系12を囲むように、あるいは、光学系12のレンズ12Bの表面に沿って当該レンズ12Bを覆うように配置される場合を示したが、これに限定されず、複数の液晶パネルが光学系12の周囲に分割されて配置されてもよい。この場合であっても、複数の液晶パネルが光学系12を囲むように、あるいは、光学系12のレンズ12Bの表面に沿って当該レンズ12Bを覆うように配置される点に変わりはないため、上記した効果と同様な効果を得ることが可能である。
 以上説明した一実施形態によれば、周囲環境の情報(被写体までの距離)を把握することが可能なカメラモジュール1を提供することが可能である。
 以上、本発明の実施形態として説明したカメラモジュールを基にして、当業者が適宜設計変更して実施して実施し得る全ての表示装置も、本発明の要旨を包含する限り、本発明の範囲に属する。
 本発明の思想の範疇において、当業者であれば、各種の変形例に想到し得るものであり、それら変形例についても本発明の範囲に属するものと解される。例えば、上述の実施形態に対して、当業者が適宜、構成要素の追加、削除、若しくは設計変更を行ったもの、または、工程の追加、省略若しくは条件変更を行ったものも、本発明の要旨を備えている限り、本発明の範囲に含まれる。
 また、上述の実施形態において述べた態様によりもたらされる他の作用効果について、本明細書の記載から明らかなもの、または当業者において適宜想到し得るものについては、当然に本発明によりもたらされるものと解される。
 1…カメラモジュール、11…カメラ、12…光学系、13…撮像素子、14…ケース、PNL…液晶パネル。

Claims (8)

  1.  撮像素子と、
     前記撮像素子に光を入射させる開口パターンを含み、液晶層と、前記開口パターンを形成するように前記液晶層を駆動するドライバと、を備える液晶パネルと、
     前記撮像素子と前記液晶パネルとの間に位置したレンズと、
     前記液晶パネルの前記開口パターンと前記レンズとを透過し、前記撮像素子に入射された光に基づく画像中の被写体までの距離を計算するコントローラと、を具備し、
     前記液晶パネルは、前記レンズを囲むように配置される、
     カメラモジュール。
  2.  前記レンズは、水平方向360度を撮影範囲に含む、
     請求項1に記載のカメラモジュール。
  3.  前記液晶パネルは、平面視において、前記レンズおよび前記撮像素子と重ならない、
     請求項1に記載のカメラモジュール。
  4.  前記液晶パネルの上に配置され、平面視において、前記レンズおよび前記撮像素子と重なる遮光部をさらに具備する、
     請求項1に記載のカメラモジュール。
  5.  撮像素子と、
     前記撮像素子に光を入射させる開口パターンを含み、液晶層と、前記開口パターンを形成するように前記液晶層を駆動するドライバと、を備える液晶パネルと、
     前記撮像素子と前記液晶パネルとの間に位置したレンズと、
     前記液晶パネルの前記開口パターンと前記レンズとを透過し、前記撮像素子に入射された光に基づく画像中の被写体までの距離を計算するコントローラと、を具備し、
     前記液晶パネルは、前記レンズの表面に沿って前記レンズを覆うように配置される、
     カメラモジュール。
  6.  前記レンズは、水平方向360度を撮影範囲に含む、
     請求項5に記載のカメラモジュール。
  7.  前記液晶パネルは、平面視において、前記レンズおよび前記撮像素子と重なる、
     請求項5に記載のカメラモジュール。
  8.  前記液晶パネルの上に配置され、平面視において、前記レンズおよび前記撮像素子と重なる遮光部をさらに具備する、
     請求項5に記載のカメラモジュール。
PCT/JP2023/034889 2022-10-27 2023-09-26 カメラモジュール WO2024090098A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-172428 2022-10-27
JP2022172428 2022-10-27

Publications (1)

Publication Number Publication Date
WO2024090098A1 true WO2024090098A1 (ja) 2024-05-02

Family

ID=90830585

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/034889 WO2024090098A1 (ja) 2022-10-27 2023-09-26 カメラモジュール

Country Status (1)

Country Link
WO (1) WO2024090098A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020065231A (ja) * 2018-10-19 2020-04-23 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2022059279A1 (ja) * 2020-09-18 2022-03-24 株式会社ジャパンディスプレイ カメラモジュール

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020065231A (ja) * 2018-10-19 2020-04-23 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2022059279A1 (ja) * 2020-09-18 2022-03-24 株式会社ジャパンディスプレイ カメラモジュール

Similar Documents

Publication Publication Date Title
CN111149040B (zh) 尤其用于车辆的显示装置以及带有这种显示装置的车辆
US11235706B2 (en) Display system
CN109219769B (zh) 成像系统
CN204256268U (zh) 光学成像装置
JP4973921B2 (ja) ヘッドアップディスプレイ装置
CN110023817B (zh) 平视显示装置
WO2015162836A1 (ja) ヘッドアップディスプレイ装置
US20210389551A1 (en) Camera actuator and camera module comprising same
EP3092788B1 (en) Imaging device
JP2019014286A (ja) 車載用撮像装置及び車両
JP2008243515A (ja) 車両用カメラ一体型ライトユニット
CN112622767A (zh) 显示系统、以及具备该显示系统的电子后视镜系统
WO2016002401A1 (ja) 表示装置、車両
WO2024090098A1 (ja) カメラモジュール
US9327655B2 (en) Image capturing apparatus for close and distant objects
WO2024090099A1 (ja) カメラモジュール
KR102105657B1 (ko) 차량용 사이드 전방위 카메라 장치
WO2020129278A1 (ja) 移動体周辺監視装置
CN207225252U (zh) 一种摄像模组及车辆环视系统
US11082663B2 (en) Imaging system
CN115685654A (zh) 投影装置、交通工具和显示设备
JP2007322898A (ja) 焦点検出装置およびカメラ
WO2019142431A1 (ja) マイクロレンズアレイユニット及び表示装置
JP2001318398A (ja) 車両周辺視認装置
JP3231083U (ja) 超広角アクティブアライメントモジュールおよびアクティブアライメント設備