WO2021235255A1 - 画像表示モジュール - Google Patents

画像表示モジュール Download PDF

Info

Publication number
WO2021235255A1
WO2021235255A1 PCT/JP2021/017670 JP2021017670W WO2021235255A1 WO 2021235255 A1 WO2021235255 A1 WO 2021235255A1 JP 2021017670 W JP2021017670 W JP 2021017670W WO 2021235255 A1 WO2021235255 A1 WO 2021235255A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
display module
light
eye
Prior art date
Application number
PCT/JP2021/017670
Other languages
English (en)
French (fr)
Inventor
薫 草深
昭典 佐藤
直 橋本
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to CN202180035789.2A priority Critical patent/CN115668031A/zh
Priority to US17/925,799 priority patent/US20230244081A1/en
Priority to EP21807834.3A priority patent/EP4155811A1/en
Publication of WO2021235255A1 publication Critical patent/WO2021235255A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/40Instruments specially adapted for improving the visibility thereof to the user, e.g. fogging prevention or anti-reflection arrangements
    • B60K35/405Fogging prevention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/31Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers involving active parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/176Camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/336Light guides
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/741Instruments adapted for user detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0129Head-up displays characterised by optical features comprising devices for correcting parallax
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Definitions

  • This disclosure relates to an image display module.
  • Patent Document 1 An example of the prior art is described in Patent Document 1.
  • the image display module is used for a head-up display.
  • the image display module includes a housing, a display unit, a barrier unit, and a camera.
  • the housing includes an opening that defines the eyebox.
  • the display unit is located inside the housing and is configured to display parallax images projected onto the user's first and second eyes.
  • the barrier portion is located in the housing and is configured to define the image light of the parallax image and give parallax to the first eye and the second eye.
  • the camera is located inside the housing and is configured to image the user's eyes.
  • the image pickup direction of the camera is along the light ray direction of the image light.
  • the image display module is used for a head-up display.
  • the image display module includes a housing, a display unit, a barrier unit, a camera, and a control unit.
  • the housing includes an opening that defines the eyebox.
  • the display unit is located inside the housing and is configured to display parallax images projected onto the user's first and second eyes.
  • the barrier portion is located in the housing and is configured to define the image light of the parallax image and give parallax to the first eye and the second eye.
  • the camera is located inside the housing and is configured to image the user's eyes. The imaging direction of the camera is different from the light ray direction of the image light.
  • the control unit corrects the distortion of the captured image captured by the camera with reference to the light ray direction of the parallax image.
  • the image display device mounted on the vehicle has a configuration in which the driver's face is photographed by a camera and the image is displayed according to information such as the driver's eyes or line of sight. It has been known.
  • the three-dimensional projection device 12 is mounted on the moving body 10.
  • the "mobile body” in the present disclosure may include, for example, a vehicle, a ship, an aircraft, and the like.
  • Vehicles may include, for example, automobiles, industrial vehicles, railroad vehicles, living vehicles, fixed-wing aircraft traveling on runways, and the like.
  • Automobiles may include, for example, passenger cars, trucks, buses, motorcycles, trolley buses and the like.
  • Industrial vehicles may include, for example, industrial vehicles for agriculture and construction.
  • Industrial vehicles may include, for example, forklifts, golf carts and the like.
  • Industrial vehicles for agriculture may include, for example, tractors, cultivators, porting machines, binders, combines, lawnmowers and the like.
  • Industrial vehicles for construction may include, for example, bulldozers, scrapers, excavators, mobile cranes, dump trucks, road rollers and the like.
  • the vehicle may include a vehicle that travels manually.
  • the classification of vehicles is not limited to the above examples.
  • an automobile may include an industrial vehicle capable of traveling on a road.
  • the same vehicle may be included in multiple categories.
  • Vessels may include, for example, marine jets, boats, tankers and the like.
  • Aircraft may include, for example, fixed-wing aircraft, rotorcraft, and the like.
  • the three-dimensional projection device 12 includes a three-dimensional display device 17 and a camera 11.
  • the three-dimensional projection device 12 may further include an optical element 18.
  • the three-dimensional projection device 12 is also referred to as an image display module.
  • the three-dimensional display device 17 includes a backlight 19, a display unit 20 having a display surface 20a, a barrier unit 21, and a control unit 24.
  • the three-dimensional display device 17 may further include a communication unit 22.
  • the three-dimensional display device 17 may further include a storage unit 23.
  • the three-dimensional projection device 12 may include, for example, a housing 120.
  • the three-dimensional display device 17, the camera 11, and the optical element 18 are housed in the housing 120.
  • the main configuration of the three-dimensional projection device 12 is housed in the housing 120, and it is easy to handle even when it is mounted on a vehicle. This is the same whether the three-dimensional projection device 12 is retrofitted to the vehicle or assembled at the time of manufacturing the vehicle.
  • the camera 11 is also housed in the housing 120, and the arrangement position is predetermined. When the camera 11 is attached to the vehicle outside the housing 120 and independently of other configurations, it is necessary to align the camera 11. If the camera 11 is also housed in the housing 120 as in the three-dimensional projection device 12 of the present disclosure, the camera 11 is attached to the vehicle at the same time as the attachment of the three-dimensional projection device 12 to the vehicle.
  • the position of the three-dimensional projection device 12 is arbitrary inside and outside the moving body 10. For example, the 3D projection device 12 may be located within the dashboard of the moving body 10.
  • the three-dimensional projection device 12 emits image light toward the windshield 15. The image light may be emitted, for example, through an opening 121 provided in the housing 120.
  • the windshield 15 reflects the image light emitted from the three-dimensional projection device 12.
  • the image light reflected by the windshield 15 reaches the eyebox 16.
  • the eye box 16 is an area in real space where the eyes 5 of the driver 13 are assumed to exist in consideration of, for example, the physique, posture, and changes in the posture of the driver 13.
  • the shape of the eye box 16 is arbitrary.
  • the eyebox 16 may include a planar or three-dimensional region.
  • the opening 121 provided in the housing 120 defines the eyebox 16.
  • the solid arrow shown in FIG. 1 indicates a path through which at least a part of the image light emitted from the three-dimensional projection device 12 reaches the eye box 16.
  • the path through which the image light travels is also called an optical path.
  • the driver 13 can visually recognize the virtual image 14 by the image light reaching the eye box 16.
  • the virtual image 14 is located on the line indicated by the alternate long and short dash line, which extends the path from the windshield 15 to the eye 5 forward.
  • the three-dimensional projection device 12 can function as a head-up display by allowing the driver 13 to visually recognize the virtual image 14.
  • the direction in which the eyes 5 of the driver 13 are lined up corresponds to the x-axis direction.
  • the vertical direction corresponds to the y-axis direction.
  • the imaging range of the camera 11 includes the eye box 16.
  • the optical element 18 may include a first mirror 18a and a second mirror 18b. At least one of the first mirror 18a and the second mirror 18b may have optical power. In the present embodiment, the first mirror 18a is a concave mirror having optical power. It is assumed that the second mirror 18b is a plane mirror.
  • the optical element 18 may function as a magnifying optical system for enlarging the image displayed on the three-dimensional display device 17.
  • the one-dot chain line arrow shown in FIG. 2 indicates that at least a part of the image light emitted from the three-dimensional display device 17 is reflected by the first mirror 18a and the second mirror 18b and emitted to the outside of the three-dimensional projection device 12. Shows the route to be done.
  • the image light emitted to the outside of the three-dimensional projection device 12 reaches the windshield 15, is reflected by the windshield 15, and reaches the driver 13's eye 5. As a result, the driver 13 can visually recognize the image displayed on the three-dimensional display device 17.
  • the optical element 18 and the windshield 15 allow the image light emitted from the three-dimensional display device 17 to reach the eye 5 of the driver 13.
  • the optical element 18 and the windshield 15 may form an optical system 30.
  • the optical system 30 includes an optical element 18 and a windshield 15.
  • the optical system 30 causes the image light emitted from the three-dimensional display device 17 to reach the driver 13's eye 5 along the optical path indicated by the alternate long and short dash line.
  • the optical system 30 may control the traveling direction of the image light so that the image visually recognized by the driver 13 is enlarged or reduced.
  • the optical system 30 may control the traveling direction of the image light so as to deform the shape of the image visually recognized by the driver 13 based on a predetermined matrix.
  • the optical element 18 is not limited to the illustrated configuration.
  • the mirror may be a concave mirror, a convex mirror, or a plane mirror.
  • the shape may include at least a spherical shape or at least a part aspherical shape.
  • the number of elements constituting the optical element 18 is not limited to two, and may be one or three or more.
  • the optical element 18 is not limited to the mirror and may include a lens.
  • the lens may be a concave lens or a convex lens.
  • the shape of the lens may include a spherical shape at least in part, or may include an aspherical shape in at least a part.
  • the backlight 19 is located on the optical path of the image light on the side farther from the display unit 20 and the barrier unit 21 when viewed from the driver 13.
  • the backlight 19 emits light toward the barrier unit 21 and the display unit 20. At least a part of the light emitted by the backlight 19 travels along the optical path indicated by the alternate long and short dash line and reaches the eye 5 of the driver 13.
  • the backlight 19 may include a light emitting element such as an LED (Light Emission Diode) or an organic EL or an inorganic EL.
  • the backlight 19 may be configured so that the emission intensity and its distribution can be controlled.
  • the display unit 20 includes a display panel.
  • the display unit 20 may be, for example, a liquid crystal device such as an LCD (Liquid Crystal Display).
  • the display unit 20 includes a transmissive liquid crystal display panel.
  • the display unit 20 is not limited to this example, and may include various display panels.
  • the display unit 20 has a plurality of pixels, controls the transmittance of the light incident from the backlight 19 in each pixel, and emits the incident light as image light reaching the eye 5 of the driver 13.
  • the driver 13 visually recognizes an image composed of image light emitted from each pixel of the display unit 20.
  • the image composed of the image light includes a parallax image projected onto the first and second eyes of the driver 13.
  • the barrier unit 21 defines the traveling direction of the incident light.
  • the barrier unit 21 blocks or attenuates a part of the light emitted from the backlight 19 and transmits the other part toward the display unit 20.
  • the display unit 20 emits incident light traveling in the direction defined by the barrier unit 21 as it is as image light traveling in the same direction.
  • the barrier unit 21 blocks or attenuates a part of the image light emitted from the display unit 20, and transmits the other part toward the eye 5 of the driver 13.
  • the barrier unit 21 can control the traveling direction of the image light regardless of whether the display unit 20 or the barrier unit 21 is located closer to the driver 13.
  • the barrier unit 21 causes a part of the image light emitted from the display unit 20 to reach either the left eye (first eye) 5L or the right eye (second eye) 5R (see FIG. 4) of the driver 13.
  • the other part of the image light reaches the other of the left eye 5L and the right eye 5R of the driver 13.
  • the barrier portion 21 divides at least a part of the traveling direction of the image light into the left eye 5L and the right eye 5R of the driver 13.
  • the left eye 5L and the right eye 5R are also referred to as the first eye and the second eye, respectively.
  • the barrier unit 21 is located between the backlight 19 and the display unit 20. That is, the light emitted from the backlight 19 first incidents on the barrier portion 21, and then incidents on the display portion 20.
  • the camera 11 is housed in the housing 120 like the three-dimensional display device 17.
  • the camera 11 does not directly capture the face and eyes 5 of the driver 13, but captures images from a subject traveling along the same optical path as the image light emitted from the three-dimensional projection device 12.
  • the light used by the camera 11 for imaging is the reflected light from the driver 13 which is the subject, and travels in the direction opposite to the direction in which the image light travels.
  • the camera 11 may be configured to image the driver 13's eyes 5 through the windshield 15.
  • the camera 11 is inside the housing 120 and is configured to capture the eyes 5 of the driver 13 of the mobile body 10.
  • the image pickup direction of the camera 11 may be along the light ray direction of the image light emitted from the display unit 20.
  • the image pickup direction of the camera 11 is a direction along the optical axis direction of the camera 11 and is a direction toward the subject.
  • the imaging direction is a direction along the optical axis direction of the camera 11 and is a direction opposite to the incident light.
  • the camera 11 may be a visible light camera or an infrared camera.
  • the camera 11 may have the functions of both a visible light camera and an infrared camera.
  • the camera 11 may include an image sensor (image sensor) such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the captured image captured by the camera 11 is output to the three-dimensional display device 17.
  • the control unit 24 detects the position of the eye 5 of the driver 13 based on the captured image output from the camera 11.
  • the control unit 24 may control the parallax image to be projected based on the detected information regarding the position of the eye 5.
  • the control unit 24 may control the display unit 20 and the barrier unit 21 based on the information regarding the position of the eye 5.
  • the camera 11 may be housed in the housing 120 like the three-dimensional display device 17, and the image pickup direction of the camera 11 may be different from the ray direction of the image light.
  • the image pickup direction of the camera 11 is not along the ray direction of the image light
  • the image captured by the camera 11 is an image including distortion.
  • the control unit 24 executes a process of correcting distortion of the captured image output from the camera 11 with reference to the light ray direction of the image light.
  • a known correction process may be used for the distortion correction process of the captured image.
  • the control unit 24 may detect the position of the eye 5 of the driver 13 based on the corrected captured image after performing the distortion correction processing on the captured image.
  • the display unit 20 has a left eye viewing area 201L visually recognized by the driver 13's left eye 5L and a right eye visually recognized by the driver 13's right eye 5R on the display surface 20a. Includes the viewing area 201R.
  • the display unit 20 displays a parallax image including a left eye image visually recognized by the left eye 5L of the driver 13 and a right eye image visually recognized by the right eye 5R of the driver 13.
  • the parallax image is an image projected on each of the left eye 5L and the right eye 5R of the driver 13, and is an image that gives parallax to both eyes of the driver 13.
  • the display unit 20 displays the left eye image in the left eye viewing area 201L and displays the right eye image in the right eye viewing area 201R.
  • the pitch in which the left eye visual recognition area 201L and the right eye visual recognition area 201R are alternately arranged is also referred to as a parallax image pitch.
  • the left eye visual recognition area 201L and the right eye visual recognition area 201R may be located at intervals or may be adjacent to each other.
  • the display unit 20 may further have a display area for displaying a flat image on the display surface 20a. It is assumed that the planar image is an image that does not give parallax to the eyes 5 of the driver 13 and is not stereoscopically viewed.
  • the barrier unit 21 is located on the optical path of the image light on the side farther from the display unit 20 when viewed from the driver 13.
  • the barrier unit 21 controls the transmittance of light incident on the display unit 20 from the backlight 19.
  • the opening region 21b transmits light incident on the display unit 20 from the backlight 19.
  • the light-shielding surface 21a blocks the light incident on the display unit 20 from the backlight 19. By doing so, the traveling direction of the light incident on the display unit 20 is limited to a predetermined direction.
  • a part of the image light can be controlled by the barrier portion 21 to reach the driver 13's left eye 5L.
  • the other part of the image light can be controlled by the barrier portion 21 to reach the driver 13's right eye 5R.
  • the barrier portion 21 may be composed of a liquid crystal shutter.
  • the liquid crystal shutter can control the transmittance of light based on the applied voltage.
  • the liquid crystal shutter is composed of a plurality of pixels, and the transmittance of light in each pixel may be controlled.
  • the liquid crystal shutter can form a region having a high light transmittance or a region having a low light transmittance into an arbitrary shape.
  • the opening region 21b may have a transmittance of a first predetermined value or more.
  • the light-shielding surface 21a may have a transmittance of a second predetermined value or less.
  • the first predetermined value may be set to a value higher than the second predetermined value.
  • the ratio of the second predetermined value to the first predetermined value may be set to 1/100 in one example.
  • the ratio of the second predetermined value to the first predetermined value may be set to 1/1000 in another example.
  • the barrier portion 21 having a shape-changeable shape between the opening region 21b and the light-shielding surface 21a is also referred to as an active barrier.
  • the light transmitted through the opening region 21b of the barrier unit 21 is emitted from the display surface 20a of the display unit 20 to become image light, and reaches the optical member 15 via the optical element 18.
  • the image light is reflected by the optical member 15 and reaches the eye 5 of the user 13.
  • the second virtual image 14b corresponds to the image displayed by the display surface 20a.
  • the opening region 21b and the light-shielding surface 21a of the barrier portion 21 form a first virtual image 14a in front of the optical member 15 and on the side in the negative direction of the z-axis of the second virtual image 14b.
  • the user 13 visually recognizes the image as if the display unit 20 exists at the position of the second virtual image 14b and the barrier unit 21 exists at the position of the first virtual image 14a. Can be done.
  • the image light related to the image displayed on the display surface 20a is emitted from the three-dimensional display device 17 in the direction defined by the barrier unit 21.
  • the optical element 18 reflects or refracts the image light and emits it toward the windshield 15.
  • the windshield 15 reflects the image light and advances it toward the eye 5 of the driver 13.
  • the driver 13 visually recognizes the parallax image as a virtual image 14.
  • the driver 13 can see stereoscopically by visually recognizing the virtual image 14.
  • the image corresponding to the parallax image among the virtual images 14 is also referred to as a parallax virtual image. It can be said that the parallax virtual image is a parallax image projected via the optical system 30.
  • the image corresponding to the plane image among the virtual images 14 is also referred to as a plane virtual image. It can be said that the planar virtual image is a planar image projected via the optical system 30.
  • the control unit 24 controls the display unit 20.
  • the control unit 24 may control the barrier unit 21.
  • the control unit 24 may control the backlight 19.
  • the control unit 24 may acquire information regarding the position of the eye 5 of the driver 13 from the camera 11 and control the display unit 20, the barrier unit 21, or the backlight 19 based on the information.
  • the control unit 24 may receive the image output from the camera 11 and detect the eye 5 of the driver 13 from the received image.
  • the control unit 24 may control the display unit 20, the barrier unit 21, or the backlight 19 based on the detected position of the eye 5.
  • the control unit 24 is configured as, for example, a processor.
  • the control unit 24 may include one or more processors.
  • the processor may include a general-purpose processor that loads a specific program and performs a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • the processor may include a programmable logic device (PLD).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the control unit 24 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).
  • the electric connector may include a connector corresponding to the S terminal specified in EIAJ CP-121aA or a connector corresponding to the D terminal specified in EIAJ RC-5237.
  • the electrical connector may include a connector conforming to the HDMI® standard or a connector corresponding to a coaxial cable including a BNC (British Naval Connector or Baby-series N Connector, etc.).
  • the optical connector may include various connectors conforming to IEC 61754.
  • the wireless communication device may include a wireless communication device conforming to each standard including Bluetooth (registered trademark) and IEEE8021a.
  • the wireless communication device includes at least one antenna.
  • the storage unit 23 may store various information, a program for operating each component of the three-dimensional display device 17, and the like.
  • the storage unit 23 may be composed of, for example, a semiconductor memory or the like.
  • the storage unit 23 may function as a work memory of the control unit 24.
  • the storage unit 23 may be included in the control unit 24.
  • the camera 11 may be in the housing 120 and at a reference position in the parallax direction with respect to the display unit 20.
  • a display area 200 on which a visible image is displayed is set on the display surface 20a of the display unit 20.
  • the reference position with respect to the display unit 20 is, for example, in the display area 200, on a virtual line L passing through the center thereof and along the vertical direction of the display surface 20a.
  • the camera 11 may be on the virtual line L when the display unit 20 is viewed from the light ray direction of the image light.
  • the position of the camera 11 may be defined by, for example, the optical axis of the camera 11.
  • the fact that the camera 11 is on the virtual line L means that the camera 11 is positioned so that the optical axis of the camera 11 intersects the virtual line L.
  • the camera 11 may be on the virtual line L and may be on either side in the direction perpendicular to the display unit 20.
  • the camera 11 may be on one side in the direction perpendicular to the display unit 20.
  • the camera 11 may be located above the display unit 20.
  • the camera 11 may be on the other side in the direction perpendicular to the display unit 20.
  • the camera 11 may be located below the display unit 20.
  • the camera 11 is on the virtual line L and is located above the display unit 20. Since the camera 11 captures the eye 5 of the driver 13 by using the reflected light reflected by the second mirror 18b, it may be a reference position and may be located in the vicinity of the display unit 20. It is easier to miniaturize the three-dimensional projection device 12 when the camera 11 is located near the display unit 20 as compared with the case where the camera 11 is located far from the display unit 20. The same applies when the camera 11 is located below the display unit 20.
  • the camera 11 may be configured to be capable of taking an image from within the display area 200 of the display unit 20.
  • it may have a so-called notch structure in which a notch is provided at the edge of the display area 200 and the camera 11 is configured to be able to take an image from this notch.
  • it may be a so-called punch structure in which a through hole is provided in the display area 200 and the camera 11 is configured to be able to take an image from the through hole.
  • the camera 11 may be located on the reference position, that is, on the virtual line L, and may be located on the back side of the display unit 20.
  • the camera 11 may be configured to be capable of taking an image from the back surface side of the display unit 20 through a notch or a through hole.
  • the embodiment shown in FIG. 5A has a punch structure in which a through hole 25 is provided in the display area 200 so that the camera 11 can take an image from the through hole 25.
  • the through hole 25 provided in the display unit 20 is located at the center of the display area 200.
  • the through hole 25 provided in the display unit 20 may be located away from the center of the display area.
  • the through hole 25 includes the display unit 20, the barrier unit 21, and the back as shown in the cross-sectional view of FIG. 5B. It may penetrate the light 19.
  • the camera 11 may be located on the back side of the display device, that is, on the back side of the backlight 19, and may be configured to be capable of taking an image through a through hole 25 penetrating the entire display device.
  • a through hole 25 is provided in the display unit 20, and the camera 11 is located between the display unit 20 and the barrier unit 21 and penetrates. It may be configured so that an image can be taken through the hole 25.
  • a through hole 25 may be provided in the display unit 20 and the barrier unit 21, and the camera 11 may be configured to be located between the barrier unit 21 and the backlight 19 so that an image can be taken through the through hole 25.
  • the display unit 20 may be configured to display a planar image projected on the driver 13's eyes 5 (left eye 5L and right eye 5R).
  • the display surface 20a of the display unit 20 may have a first region 201 for displaying a parallax image and a second region 202 for displaying a planar image.
  • the display area 200 includes a first area 201 and a second area 202.
  • the first area 201 for displaying the parallax image includes the left eye viewing area 201L and the right eye viewing area 201R described above.
  • the through hole 25 provided in the display unit 20 may be located in the display area 200 and between the first area 201 and the second area 202.
  • the through hole 25 may be located on a virtual line (same as the virtual line) that passes through the center of the display area 200 and is along the vertical direction.
  • a virtual line (same as the virtual line) that passes through the center of the display area 200 and is along the vertical direction.
  • the distance from the center C of the display area 200 to the intersection of the outer periphery of the display area 200 and the virtual line is d0
  • the distance from the center C of the display area 200 to the through hole 25 is d1.
  • the distance d0 is half the height (vertical length) of the display area 200.
  • the through hole 25 may be positioned so that the distance d1 is 60% or less of the distance d0.
  • the through hole 25 may be located at the center C of the display area 200.
  • the through hole 25 may be located between the first region 201 and the second region 202 so that the distance d1 is 60% or less of the distance d0.
  • the through hole 25 may be located in the first region 201 with the distance d1 being 60% or less of the distance d0.
  • the through hole 25 may be located within the second region 202 with the distance d1 being 60% or less of the distance d0.
  • FIG. 6 shows the internal structure of the camera 11 in a simplified manner.
  • the camera 11 may include a lens 110.
  • the camera 11 includes an image pickup element 111 such as a CCD as described above, and the lens 110 collects light incident on the effective diameter (including reflected light from the subject), and the image pickup element 111 collects the light. Receive light and record the image.
  • the hole diameter of the through hole 25 may be smaller than the effective aperture of the lens 110 of the camera 11.
  • the effective aperture of the lens 110 of the camera 11 may be larger than the hole diameter of the through hole 25.
  • the camera 11 takes an image through the through hole 25 provided in the display unit 20
  • the camera 11 is located at least on the back side of the display unit 20, and the light passing through the through hole 25 is the camera 11.
  • the light is focused on the image pickup device 111 through the lens 110 of the above.
  • the hole diameter of the through hole 25 is smaller than the effective aperture of the lens 110, the range of light collected by the image pickup device 111 and received is small.
  • FIG. 7 schematically shows the light focused on the image sensor 111.
  • minute light receiving elements 111a are arranged in a matrix.
  • the light receiving element 111a capable of receiving light when transmitted through the lens 110 is, for example, the light receiving element 111a in the first range 112.
  • the number of pixels received and recorded by the light receiving element 111a in the first range 112 is called the so-called effective number of pixels of the image pickup element 111.
  • the light receiving element 111a that can be received by the image pickup element 111 when the light passing through the through hole 25 passes through the lens 110.
  • the total number of light receiving elements 111a in the second range 113 may be, for example, 50% or less of the number of effective pixels.
  • the captured image captured by the camera 11 is output to the control unit 24 for detecting the eye 5 of the driver 13.
  • the camera 11 may output a group of pixels recorded by the light receiving element 111a that receives light transmitted through the through hole 25 and passed through the lens 110 as an image to be captured.
  • the amount of data of the captured image output from the camera 11 is smaller than that of the captured image output by the number of effective pixels of the image pickup element 111. Since the control unit 24 executes image processing such as detection of the eye 5 on the captured image having a small amount of data, the amount of calculation required for the image processing can be reduced and the calculation can be speeded up.
  • the configuration according to the present disclosure is not limited to the embodiments described above, and can be modified or changed in many ways.
  • the functions and the like included in each component and the like can be rearranged so as not to be logically inconsistent, and a plurality of components and the like can be combined or divided into one.
  • the image pickup direction of the camera 11 may be along the light ray direction of the display unit 20 image light, which is different from the light ray direction of the display unit 20 image light. You may be.
  • the descriptions such as “first” and “second” are identifiers for distinguishing the configuration.
  • the configurations distinguished by the descriptions such as “first” and “second” in the present disclosure can exchange numbers in the configurations.
  • the first eye can exchange the identifiers “first” and “second” with the second eye.
  • the exchange of identifiers takes place at the same time.
  • the configuration is distinguished.
  • the identifier may be deleted.
  • Configurations with the identifier removed are distinguished by a code. Based solely on the description of identifiers such as "1st” and “2nd” in the present disclosure, it shall not be used as an interpretation of the order of the configurations or as a basis for the existence of identifiers with smaller numbers.
  • the x-axis, y-axis, and z-axis are provided for convenience of explanation and may be interchanged with each other.
  • the configuration according to the present disclosure has been described using a Cartesian coordinate system composed of x-axis, y-axis, and z-axis.
  • the positional relationship of each configuration according to the present disclosure is not limited to being orthogonal.
  • the image display module is used for a head-up display.
  • the image display module includes a housing, a display unit, a barrier unit, and a camera.
  • the housing includes an opening that defines the eyebox.
  • the display unit is located inside the housing and is configured to display parallax images projected onto the user's first and second eyes.
  • the barrier portion is located in the housing and is configured to define the image light of the parallax image and give parallax to the first eye and the second eye.
  • the camera is located inside the housing and is configured to image the user's eyes.
  • the image pickup direction of the camera is along the light ray direction of the image light.
  • the image display module is used for a head-up display.
  • the image display module includes a housing, a display unit, a barrier unit, a camera, and a control unit.
  • the housing includes an opening that defines the eyebox.
  • the display unit is located inside the housing and is configured to display parallax images projected onto the user's first and second eyes.
  • the barrier portion is located in the housing and is configured to define the image light of the parallax image and give parallax to the first eye and the second eye.
  • the camera is located inside the housing and is configured to image the user's eyes. The imaging direction of the camera is different from the light ray direction of the image light.
  • the control unit corrects the distortion of the captured image captured by the camera with reference to the light ray direction of the parallax image.
  • the image display module according to the embodiment of the present disclosure can be miniaturized because the display unit and the camera are located in the housing. Since the image display module can be installed on a moving body or the like together with the housing, it is easy to handle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本発明の3次元投影装置(12)は、3次元表示装置(17)と、カメラ(11)とを備える。3次元表示装置(17)は、バックライト(19)と、表示面(20a)を有する表示部(20)と、バリア部(21)と、制御部(24)とを備える。カメラ(11)の撮像方向は、表示部(20)から射出される画像光の光線方向に沿っていてよく、異なっていてもよい。カメラ(11)の撮像方向が、画像光の光線方向と異なっている場合は、制御部(24)が、カメラ(11)から出力された撮像画像に対して、画像光の光線方向を基準として、歪を補正する処理を実行する。

Description

画像表示モジュール
 本開示は、画像表示モジュールに関する。
 従来技術の一例は、特許文献1に記載されている。
特開平6-230132号公報
 本開示の一実施形態に係る画像表示モジュールは、ヘッドアップディスプレイに利用される。画像表示モジュールは、筐体と、表示部と、バリア部と、カメラとを含む。筐体は、アイボックスを規定する開口を含む。表示部は、前記筐体内に位置し、利用者の第1眼および第2眼に対して投影される視差画像を表示するように構成される。バリア部は、前記筐体内に位置し、前記視差画像の画像光を規定して前記第1眼および前記第2眼に視差を与えるように構成される。カメラは、前記筐体内に位置し、利用者の眼を撮像するように構成される。前記カメラの撮像方向は、前記画像光の光線方向に沿っている。
 本開示の一実施形態に係る画像表示モジュールは、ヘッドアップディスプレイに利用される。画像表示モジュールは、筐体と、表示部と、バリア部と、カメラと、制御部とを含む。筐体は、アイボックスを規定する開口を含む。表示部は、前記筐体内に位置し、利用者の第1眼および第2眼に対して投影される視差画像を表示するように構成される。バリア部は、前記筐体内に位置し、前記視差画像の画像光を規定して前記第1眼および前記第2眼に視差を与えるように構成される。カメラは、前記筐体内に位置し、利用者の眼を撮像するように構成される。前記カメラの撮像方向は、前記画像光の光線方向と異なっている。制御部は、前記視差画像の光線方向を基準として、前記カメラで撮像した撮像画像の歪を補正する。
 本開示の目的、特色、および利点は、下記の詳細な説明と図面とからより明確になるであろう。
3次元投影装置が搭載された移動体の概略構成の一例を示す図である。 3次元投影装置の概略構成の一例を示す図である。 運転者の眼と表示部とバリア部との関係を示す模式図である。 カメラの配置位置を示す概略図である。 カメラの配置位置を示す概略図である。 カメラの配置位置を示す概略断面図である。 カメラの配置位置を示す概略図である。 カメラの内部構造を簡略化して示す模式図である。 撮像素子に集光される光を示す模式図である。
 本開示の画像表示モジュールの基礎となる構成として、車両に搭載された画像表示装置では、カメラで運転者の顔を撮影し、運転者の眼または視線などの情報に応じて画像を表示する構成が知られている。
 以下、本開示の実施形態について、図面を参照しながら詳細に説明がされる。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
 図1に示されるように、本開示の一実施形態に係る3次元投影装置12は、移動体10に搭載されている。本開示における「移動体」は、例えば車両、船舶、及び航空機等を含んでよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、及び滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、及びトロリーバス等を含んでよい。産業車両は、例えば農業及び建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフト及びゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。船舶は、例えばマリンジェット、ボート、及びタンカー等を含んでよい。航空機は、例えば固定翼機及び回転翼機等を含んでよい。
 以下では、移動体10が、乗用車である場合を例として説明する。移動体10は、乗用車に限らず、上記例のいずれかであってよい。図2に示されるように、3次元投影装置12は、3次元表示装置17と、カメラ11とを備える。3次元投影装置12は、さらに光学素子18を備えてよい。3次元投影装置12は、画像表示モジュールとも称される。3次元表示装置17は、バックライト19と、表示面20aを有する表示部20と、バリア部21と、制御部24とを備える。3次元表示装置17は、通信部22をさらに備えてよい。3次元表示装置17は、記憶部23をさらに備えてよい。3次元投影装置12は、例えば、筐体120を備えてよい。筐体120内には、3次元表示装置17と、カメラ11と、光学素子18とが収容される。
 3次元投影装置12は、主な構成が筐体120内に収容されており、車両への取り付けにおいても取り扱いが容易である。これは、車両に3次元投影装置12を後付けする場合でも、車両の製造時に組み立てする場合でも同様である。カメラ11も筐体120内に収容されており、予め配置位置が定められている。カメラ11を筐体120外で、他の構成と独立して車両に取り付ける場合は、カメラ11の位置合わせが必要である。本開示の3次元投影装置12のようにカメラ11も筐体120内に収容されていれば、3次元投影装置12の車両への取り付けと同時にカメラ11の車両への取り付けも行われる。3次元投影装置12の位置は、移動体10の内部及び外部において任意である。例えば、3次元投影装置12は、移動体10のダッシュボード内に位置してよい。3次元投影装置12は、ウインドシールド15に向けて画像光を射出する。画像光は、例えば、筐体120に設けられた開口121を通って射出されてよい。
 ウインドシールド15は、3次元投影装置12から射出された画像光を反射する。ウインドシールド15で反射された画像光は、アイボックス16に到達する。アイボックス16は、例えば運転者13の体格、姿勢、及び姿勢の変化等を考慮して、運転者13の眼5が存在しうると想定される実空間上の領域である。アイボックス16の形状は任意である。アイボックス16は、平面的又は立体的な領域を含んでよい。筐体120に設けられた開口121は、アイボックス16を規定する。図1に示されている実線の矢印は、3次元投影装置12から射出される画像光の少なくとも一部がアイボックス16まで到達する経路を示す。画像光が進む経路は、光路とも称される。運転者13の眼5がアイボックス16内に位置する場合、運転者13は、アイボックス16に到達する画像光によって、虚像14を視認可能である。虚像14は、ウインドシールド15から眼5に到達する経路を前方に延長した、一点鎖線で示されている線の上に位置する。3次元投影装置12は、運転者13に虚像14を視認させることによって、ヘッドアップディスプレイとして機能しうる。図1において、運転者13の眼5が並ぶ方向は、x軸方向に対応する。鉛直方向は、y軸方向に対応する。カメラ11の撮像範囲は、アイボックス16を含む。
 光学素子18は、第1ミラー18aと、第2ミラー18bとを含んでよい。第1ミラー18a及び第2ミラー18bの少なくとも一方は、光学的なパワーを有してよい。本実施形態において、第1ミラー18aは、光学的なパワーを有する凹面鏡であるとする。第2ミラー18bは、平面鏡であるとする。光学素子18は、3次元表示装置17に表示された画像を拡大する拡大光学系として機能してよい。図2に示される一点鎖線の矢印は、3次元表示装置17から射出される画像光の少なくとも一部が、第1ミラー18a及び第2ミラー18bによって反射され、3次元投影装置12の外部に射出される経路を示す。3次元投影装置12の外部に射出された画像光は、ウインドシールド15に到達し、ウインドシールド15で反射されて運転者13の眼5に到達する。その結果、運転者13は、3次元表示装置17に表示された画像を視認できる。
 光学素子18とウインドシールド15とは、3次元表示装置17から射出させる画像光を運転者13の眼5に到達させる。光学素子18とウインドシールド15とは、光学系30を構成してよい。言い換えれば、光学系30は、光学素子18とウインドシールド15とを含む。光学系30は、3次元表示装置17から射出される画像光を一点鎖線で示されている光路に沿って運転者13の眼5に到達させる。光学系30は、運転者13に視認させる画像が拡大したり縮小したりするように、画像光の進行方向を制御してよい。光学系30は、運転者13に視認させる画像の形状を所定の行列に基づいて変形させるように、画像光の進行方向を制御してよい。
 光学素子18は、例示される構成に限られない。ミラーは、凹面鏡であってよいし、凸面鏡であってよいし、平面鏡であってよい。ミラーが凹面鏡又は凸面鏡である場合、その形状は、少なくとも一部に球面形状を含んでよいし、少なくとも一部に非球面形状を含んでよい。光学素子18を構成する要素の数は、2つに限られず、1つであってよいし、3つ以上であってよい。光学素子18は、ミラーに限られずレンズを含んでよい。レンズは、凹面レンズであってよいし、凸面レンズであってよい。レンズの形状は、少なくとも一部に球面形状を含んでよいし、少なくとも一部に非球面形状を含んでよい。
 バックライト19は、画像光の光路上において、運転者13から見て、表示部20及びバリア部21よりも遠い側に位置する。バックライト19は、バリア部21と表示部20とに向けて光を射出する。バックライト19が射出した光の少なくとも一部は、一点鎖線で示されている光路に沿って進行し、運転者13の眼5に到達する。バックライト19は、LED(Light Emission Diode)又は有機EL若しくは無機EL等の発光素子を含んでよい。バックライト19は、発光強度、及び、その分布を制御可能に構成されてよい。
 表示部20は、表示パネルを含む。表示部20は、例えば、LCD(Liquid Crystal Display)等の液晶デバイスであってよい。本実施形態において、表示部20は、透過型の液晶表示パネルを含むとする。表示部20は、この例に限られず、種々の表示パネルを含んでよい。
 表示部20は、複数の画素を有し、各画素においてバックライト19から入射する光の透過率を制御し、入射した光を運転者13の眼5に到達する画像光として射出する。運転者13は、表示部20の各画素から射出される画像光によって構成される画像を視認する。画像光によって構成される画像は、運転者13の第1眼および第2眼に対して投影される視差画像を含む。
 バリア部21は、入射してくる光の進行方向を規定する。バリア部21が表示部20よりもバックライト19に近い側に位置する場合、バックライト19から射出される光は、バリア部21に入射し、さらに表示部20に入射する。この場合、バリア部21は、バックライト19から射出される光の一部を遮ったり減衰させたりし、他の一部を表示部20に向けて透過させる。表示部20は、バリア部21によって規定された方向に進行する入射光を、同じ方向に進行する画像光としてそのまま射出する。表示部20がバリア部21よりもバックライト19に近い側に位置する場合、バックライト19から射出される光は、表示部20に入射し、さらにバリア部21に入射する。この場合、バリア部21は、表示部20から射出される画像光の一部を遮ったり減衰させたりし、他の一部を運転者13の眼5に向けて透過させる。
 表示部20とバリア部21とのどちらが運転者13の近くに位置するかにかかわらず、バリア部21は、画像光の進行方向を制御できる。バリア部21は、表示部20から射出される画像光の一部を運転者13の左眼(第1眼)5L及び右眼(第2眼)5R(図4参照)のいずれかに到達させ、画像光の他の一部を運転者13の左眼5L及び右眼5Rの他方に到達させる。つまり、バリア部21は、画像光の少なくとも一部の進行方向を運転者13の左眼5Lと右眼5Rとに分ける。左眼5L及び右眼5Rはそれぞれ、第1眼及び第2眼ともいう。本実施形態において、バリア部21は、バックライト19と表示部20との間に位置する。つまり、バックライト19から射出される光は、先にバリア部21に入射し、次に表示部20に入射する。
 バリア部21によって画像光の進行方向が規定されることによって、運転者13の左眼5L及び右眼5Rそれぞれに異なる画像光が到達しうる。その結果、運転者13は、左眼5L及び右眼5Rそれぞれで異なる画像を視認しうる。
 上記のようにカメラ11は、3次元表示装置17と同様に筐体120内に収容されている。カメラ11は、運転者13の顔および眼5を直接撮像するのではなく、3次元投影装置12から射出される画像光と同じ光路を辿って進行する被写体からの光によって撮像する。カメラ11が撮像に利用する光は、被写体である運転者13からの反射光であって、画像光が進行する方向とは逆向きに進行する。カメラ11は、ウインドシールド15を介して運転者13の眼5を撮像するように構成されてよい。
 このようにカメラ11は、筐体120内にあって、移動体10の運転者13の眼5を撮像するように構成される。本実施形態の3次元投影装置12は、カメラ11の撮像方向は、表示部20から射出される画像光の光線方向に沿っていてよい。カメラ11の撮像方向は、カメラ11の光軸方向に沿う方向であって、被写体に向かう方向である。言い換えると、撮像方向は、カメラ11の光軸方向に沿う方向であって、入射光と反対向きの方向である。
 カメラ11は、可視光カメラまたは赤外線カメラであってよい。カメラ11は、可視光カメラと赤外線カメラの両方の機能を有していてよい。カメラ11は、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサ(撮像素子)を含んでよい。
 カメラ11で撮像された撮像画像は、3次元表示装置17に出力される。3次元表示装置17では、制御部24が、カメラ11から出力された撮像画像に基づいて、運転者13の眼5の位置を検出する。制御部24は、検出した眼5の位置に関する情報に基づいて、投影する視差画像を制御してよい。制御部24は、眼5の位置に関する情報に基づいて、表示部20およびバリア部21を制御してよい。
 カメラ11は、3次元表示装置17と同様に筐体120内に収容されていればよく、カメラ11の撮像方向は、画像光の光線方向と異なっていてよい。この場合、カメラ11の撮像方向が、画像光の光線方向に沿っておらず、カメラ11で撮像される撮像画像は、歪みを含む画像となる。制御部24は、カメラ11から出力された撮像画像に対して、画像光の光線方向を基準として、歪を補正する処理を実行する。撮像画像の歪補正処理は、公知の補正処理を用いればよい。制御部24は、撮像画像に対する歪補正処理を実行したのち、補正後の撮像画像に基づいて運転者13の眼5の位置を検出してよい。
 図3に示されるように、表示部20は、表示面20a上に、運転者13の左眼5Lで視認される左眼視認領域201Lと、運転者13の右眼5Rで視認される右眼視認領域201Rとを含む。表示部20は、運転者13の左眼5Lに視認させる左眼画像と、運転者13の右眼5Rに視認させる右眼画像とを含む視差画像を表示する。視差画像は、運転者13の左眼5L及び右眼5Rそれぞれに投影される画像であって、運転者13の両眼に視差を与える画像であるとする。表示部20は、左眼視認領域201Lに左眼画像を表示し、右眼視認領域201Rに右眼画像を表示する。つまり、表示部20は、左眼視認領域201Lと右眼視認領域201Rとに視差画像を表示する。左眼視認領域201Lと右眼視認領域201Rとは、視差方向を表すu軸方向に並んでいるとする。左眼視認領域201L及び右眼視認領域201Rは、視差方向に直交するv軸方向に沿って延在してよいし、v軸方向に対して所定角度で傾斜する方向に延在してよい。つまり、左眼視認領域201L及び右眼視認領域201Rは、視差方向の成分を含む所定方向に沿って交互に並んでいてよい。左眼視認領域201Lと右眼視認領域201Rとが交互に並ぶピッチは、視差画像ピッチともいう。左眼視認領域201Lと右眼視認領域201Rとは、間隔をあけて位置していてよいし、互いに隣接していてよい。表示部20は、表示面20a上に、平面画像を表示する表示領域をさらに有していてよい。平面画像は、運転者13の眼5に視差を与えず、立体視されない画像であるとする。
 本実施形態では、バリア部21は、画像光の光路上において、運転者13から見て表示部20よりも遠い側に位置している。バリア部21は、バックライト19から表示部20に向けて入射する光の透過率を制御する。開口領域21bは、バックライト19から表示部20に向けて入射する光を透過させる。遮光面21aは、バックライト19から表示部20に入射する光を遮る。このようにすることで、表示部20に入射する光の進行方向が所定方向に限定される。その結果、画像光の一部は、バリア部21によって運転者13の左眼5Lに到達するように制御されうる。画像光の他の一部は、バリア部21によって運転者13の右眼5Rに到達するように制御されうる。
 バリア部21は、液晶シャッターで構成されてよい。液晶シャッターは、印加する電圧に基づいて光の透過率を制御しうる。液晶シャッターは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッターは、光の透過率が高い領域又は光の透過率が低い領域を任意の形状に形成しうる。バリア部21が液晶シャッターで構成される場合、開口領域21bは、第1所定値以上の透過率を有してよい。バリア部21が液晶シャッターで構成される場合、遮光面21aは、第2所定値以下の透過率を有してよい。第1所定値は、第2所定値より高い値に設定されてよい。第1所定値に対する第2所定値の比率は、一例では、1/100に設定されてよい。第1所定値に対する第2所定値の比率は、他の例では、1/1000に設定されてもよい。開口領域21bと遮光面21aとの形状が変更可能に構成されるバリア部21は、アクティブバリアとも称される。
 バリア部21の開口領域21bを透過した光は、表示部20の表示面20aから射出されて画像光となり、光学素子18を介して光学部材15に到達する。画像光は、光学部材15で反射されて利用者13の眼5に到達する。これにより、利用者13の眼5は、光学部材15よりz軸の負の方向の側に位置する第2虚像14bを視認できる。第2虚像14bは、表示面20aが表示している画像に対応する。バリア部21の開口領域21bと遮光面21aとは、光学部材15の前方であって第2虚像14bのz軸の負の方向の側に第1虚像14aをつくる。図1に示すように、利用者13は、見かけ上、第2虚像14bの位置に表示部20が存在し、第1虚像14aの位置にバリア部21が存在するかのように、画像を視認しうる。
 表示面20aに表示される画像に係る画像光は、バリア部21によって規定される方向に向けて、3次元表示装置17から射出される。光学素子18は、画像光を反射したり屈折させたりし、ウインドシールド15に向けて射出する。ウインドシールド15は、画像光を反射し、運転者13の眼5に向けて進行させる。画像光が運転者13の眼5に入射することによって、運転者13は、視差画像を虚像14として視認する。運転者13は、虚像14を視認することによって立体視できる。虚像14のうち視差画像に対応する画像は、視差虚像とも称される。視差虚像は、光学系30を介して投影される視差画像であるともいえる。虚像14のうち平面画像に対応する画像は、平面虚像とも称される。平面虚像は、光学系30を介して投影される平面画像であるともいえる。
 制御部24は、表示部20を制御する。バリア部21がアクティブバリアである場合、制御部24は、バリア部21を制御してよい。制御部24は、バックライト19を制御してよい。制御部24は、カメラ11から運転者13の眼5の位置に関する情報を取得し、その情報に基づいて表示部20、バリア部21、又はバックライト19を制御してよい。制御部24は、カメラ11から出力された画像を受信し、受信した画像から運転者13の眼5を検出してよい。制御部24は、検出した眼5の位置に基づいて表示部20、バリア部21、又はバックライト19を制御してよい。制御部24は、例えばプロセッサとして構成される。制御部24は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、及び特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部24は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。
 通信部22は、外部装置と通信可能なインタフェースを含んでよい。外部装置は、例えばカメラ11を含んでよい。通信部22は、カメラ11から情報を取得し、制御部24に出力してよい。本開示における「通信可能なインタフェース」は、例えば物理コネクタ、及び無線通信機を含んでよい。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、及び電磁波による伝送に対応した電磁コネクタを含んでよい。電気コネクタは、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、又はRCA端子に対応するコネクタを含んでよい。電気コネクタは、EIAJ CP-121aAに規定されるS端子に対応するコネクタ、又はEIAJ RC-5237に規定されるD端子に対応するコネクタを含んでよい。電気コネクタは、HDMI(登録商標)規格に準拠するコネクタ、又はBNC(British Naval Connector又はBaby-series N Connector等)を含む同軸ケーブルに対応するコネクタを含んでよい。光コネクタは、IEC 61754に準拠する種々のコネクタを含んでよい。無線通信機は、Bluetooth(登録商標)、及びIEEE8021aを含む各規格に準拠する無線通信機を含んでよい。無線通信機は、少なくとも1つのアンテナを含む。
 記憶部23は、各種情報、又は3次元表示装置17の各構成部を動作させるためのプログラム等を格納してよい。記憶部23は、例えば半導体メモリ等で構成されてよい。記憶部23は、制御部24のワークメモリとして機能してよい。記憶部23は、制御部24に含まれてよい。
 カメラ11は、筐体120内であって、表示部20に対して、視差方向における基準位置にあってよい。表示部20の表示面20aには、視認可能な画像が表示される表示領域200が設定される。表示部20に対する基準位置は、例えば、表示領域200において、その中心を通り、表示面20aの垂直方向に沿った仮想線L上にある。カメラ11は、表示部20を、画像光の光線方向から見たときに、この仮想線L上にあればよい。カメラ11の位置は、例えば、カメラ11の光軸によって規定されてよい。カメラ11が、仮想線L上にあるとは、カメラ11の光軸が仮想線Lと交差するようにカメラ11が位置していることを言う。カメラ11は、仮想線L上であって、表示部20に対して垂直方向のいずれかの側にあってよい。例えば、カメラ11は、表示部20に対して、垂直方向の一方側にあってよい。言い換えれば、カメラ11は、表示部20の上方に位置してよい。例えば、カメラ11は、表示部20に対して、垂直方向の他方側にあってよい。言い換えれば、カメラ11は、表示部20の下方に位置してよい。
 図4に示す実施形態では、カメラ11は、仮想線L上にあって、表示部20の上方に位置する。カメラ11は、第2ミラー18bで反射された反射光を利用して運転者13の眼5を撮像するので、基準位置であって、表示部20の近傍に位置してよい。カメラ11が、表示部20から離れて位置する場合に比べて、表示部20の近傍に位置する方が、3次元投影装置12を小型化し易い。カメラ11が表示部20の下方に位置する場合も同様である。
 カメラ11は、表示部20の表示領域200内から撮像可能に構成されてよい。例えば、表示領域200の縁に切り欠きを設け、カメラ11がこの切り欠きから撮像可能に構成される、いわゆるノッチ構造であってよい。例えば、表示領域200内に貫通孔を設け、カメラ11がこの貫通孔から撮像可能に構成される、いわゆるパンチ構造であってよい。このような構成では、カメラ11は、基準位置すなわち仮想線L上にあって、表示部20の背面側に位置してよい。カメラ11は、表示部20の背面側から切り欠きまたは貫通孔を通して撮像可能に構成されてよい。
 図5Aに示す実施形態は、表示領域200内に貫通孔25を設け、カメラ11がこの貫通孔25から撮像可能に構成されるパンチ構造である。本実施形態では、表示部20に設けられた貫通孔25は、表示領域200の中心に位置している。表示部20に設けられた貫通孔25は、表示領域の中心から離れて位置してよい。表示部20とバリア部21とバックライト19が一体化された表示装置を構成している場合は、図5Bの断面図に示すように、貫通孔25は、表示部20とバリア部21とバックライト19を貫通してよい。カメラ11は、表示装置の背面側、すなわちバックライト19の背面側に位置し、表示装置全体を貫通する貫通孔25を通して撮像可能に構成されてよい。表示部20とバリア部21とバックライト19が一体化されていない場合は、例えば、貫通孔25が表示部20に設けられ、カメラ11は、表示部20とバリア部21との間にあって、貫通孔25を通して撮像可能に構成されてよい。例えば、貫通孔25が表示部20とバリア部21とに設けられ、カメラ11は、バリア部21とバックライト19との間にあって、貫通孔25を通して撮像可能に構成されてよい。
 表示部20は、運転者13の眼5(左眼5Lおよび右眼5R)に投影される平面画像を表示するように構成されてよい。表示部20の表示面20aは、視差画像を表示する第1領域201と平面画像を表示する第2領域202とを有してよい。表示領域200は、第1領域201と第2領域202とを含む。視差画像を表示する第1領域201は、前述の左眼視認領域201Lと右眼視認領域201Rとを含む。表示部20に設けられた貫通孔25は、表示領域200内であって、第1領域201と第2領域202との間に位置してよい。
 貫通孔25は、表示領域200の中心を通り垂直方向に沿った仮想線(仮想線と同じ)上に位置してよい。ここで、表示領域200の中心Cから表示領域200の外周と仮想線との交差位置までの距離をd0とし、表示領域200の中心Cから貫通孔25までの距離をd1とする。距離d0は、表示領域200の高さ(垂直方向長さ)の半分の長さである。貫通孔25は、距離d1が距離d0の60%以下となるように位置してよい。貫通孔25は、表示領域200の中心Cに位置してよい。貫通孔25は、距離d1が距離d0の60%以下であって、第1領域201と第2領域202との間に位置してよい。貫通孔25は、距離d1が距離d0の60%以下であって、第1領域201内に位置してよい。貫通孔25は、距離d1が距離d0の60%以下であって、第2領域202内に位置してよい。
 図6に、カメラ11の内部構造を簡略化して示す。カメラ11は、レンズ110を含んでいてよい。カメラ11は、例えば、前述のようにCCDなどの撮像素子111を備え、レンズ110は、有効口径内に入射する光(被写体からの反射光を含む)を集光し、撮像素子111でこれを受光して画像を記録する。カメラ11のレンズ110の有効口径より、貫通孔25の孔径が、小さくてよい。カメラ11のレンズ110は、その有効口径が、貫通孔25の孔径より大きくてよい。上記のように、カメラ11が、表示部20に設けられた貫通孔25を通して撮像する場合、カメラ11は、少なくとも表示部20の背面側に位置し、貫通孔25を通過した光が、カメラ11のレンズ110を通って撮像素子111に集光される。貫通孔25の孔径が、レンズ110の有効口径より小さいと、撮像素子111に集光され、受光される光の範囲が小さくなる。
 図7に、撮像素子111に集光される光を模式的に示す。撮像素子111は、例えば、微小な受光素子111aがマトリクス状に配列される。このような撮像素子111において、レンズ110を透過したときに受光可能な受光素子111aは、例えば、第1範囲112内の受光素子111aである。このような第1範囲112内の受光素子111aで受光されて記録される画素数は、いわゆる撮像素子111の有効画素数と呼ばれる。上記のように、本実施形態では、貫通孔25の孔径がレンズ110の有効口径より小さいので、貫通孔25を通った光がレンズ110を透過したときに撮像素子111において受光可能な受光素子111aは、第1範囲112より小さい第2範囲113内の受光素子111aである。第2範囲113内の受光素子111aの総数は、例えば、有効画素数の50%以下であってよい。
 カメラ11で撮像された撮像画像は、運転者13の眼5の検出のために制御部24に出力される。カメラ11は、貫通孔25を通りレンズ110を透過した光を受光した受光素子111aで記録された画素群を撮像画像として出力してよい。このとき、撮像素子111の有効画素数で出力される撮像画像に比べて、カメラ11から出力される撮像画像のデータ量は小さい。制御部24では、データ量が小さい撮像画像を対象に眼5の検出などの画像処理を実行するので、画像処理に要する演算量を低減し、演算を高速化できる。
 本開示に係る構成は、以上説明してきた実施形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。例えば、カメラ11が貫通孔25を通して撮像可能に構成されている場合に、カメラ11の撮像方向は、表示部20画像光の光線方向に沿っていてよく、表示部20画像光の光線方向と異なっていてよい。
 本開示に係る構成を説明する図は、模式的なものである。図面上の寸法比率等は、現実のものと必ずしも一致しない。
 本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1眼は、第2眼と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 本開示において、x軸、y軸、及びz軸は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、x軸、y軸、及びz軸によって構成される直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。
 本開示は次の実施の形態が可能である。
 本開示の一実施形態に係る画像表示モジュールは、ヘッドアップディスプレイに利用される。画像表示モジュールは、筐体と、表示部と、バリア部と、カメラとを含む。筐体は、アイボックスを規定する開口を含む。表示部は、前記筐体内に位置し、利用者の第1眼および第2眼に対して投影される視差画像を表示するように構成される。バリア部は、前記筐体内に位置し、前記視差画像の画像光を規定して前記第1眼および前記第2眼に視差を与えるように構成される。カメラは、前記筐体内に位置し、利用者の眼を撮像するように構成される。前記カメラの撮像方向は、前記画像光の光線方向に沿っている。
 本開示の一実施形態に係る画像表示モジュールは、ヘッドアップディスプレイに利用される。画像表示モジュールは、筐体と、表示部と、バリア部と、カメラと、制御部とを含む。筐体は、アイボックスを規定する開口を含む。表示部は、前記筐体内に位置し、利用者の第1眼および第2眼に対して投影される視差画像を表示するように構成される。バリア部は、前記筐体内に位置し、前記視差画像の画像光を規定して前記第1眼および前記第2眼に視差を与えるように構成される。カメラは、前記筐体内に位置し、利用者の眼を撮像するように構成される。前記カメラの撮像方向は、前記画像光の光線方向と異なっている。制御部は、前記視差画像の光線方向を基準として、前記カメラで撮像した撮像画像の歪を補正する。
 本開示の一実施形態に係る画像表示モジュールは、表示部とカメラとが筐体内に位置しているので、小型化が可能である。画像表示モジュールは、移動体などに筐体ごと設置することができるので、取り扱いが容易である。
 以上、本開示の実施形態について詳細に説明したが、また、本開示は上述の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲内において、種々の変更、改良等が可能である。上記各実施形態をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。
 5 眼(5L:左眼、5R:右眼)
 10 移動体
 11 カメラ
 12 3次元投影装置(画像表示モジュール)
 13 運転者
 14 虚像(14a:第1虚像、14b:第2虚像)
 15 ウインドシールド
 16 アイボックス
 17 3次元表示装置
 18 光学素子(18a:第1ミラー、18b:第2ミラー)
 19 バックライト
 20 表示部(20a:表示面)
 201L 左眼視認領域
 201R 右眼視認領域
 21 バリア部(21a:遮光面、21b:開口領域)
 22 通信部
 23 記憶部
 24 制御部
 25 貫通孔
 30 光学系
 40,41 鏡
 50 カメラ装置
 110 レンズ
 111 撮像素子
 111a 受光素子
 112 第1範囲
 113 第2範囲
 120 筐体
 121 開口
 200 表示領域
 201 第1領域
 201L 左眼視認領域
 201R 右眼視認領域
 202 第2領域

Claims (11)

  1.  ヘッドアップディスプレイに利用される画像表示モジュールであって、
     アイボックスを規定する開口を含む筐体と、
     前記筐体内に位置し、利用者の第1眼および第2眼に対して投影される視差画像を表示するように構成される表示部と、
     前記筐体内に位置し、前記視差画像の画像光を規定して前記第1眼および前記第2眼に視差を与えるように構成されるバリア部と、
     前記筐体内に位置し、利用者の眼を撮像するように構成されるカメラと、を含み、
     前記カメラの撮像方向は、前記画像光の光線方向に沿っている、画像表示モジュール。
  2.  ヘッドアップディスプレイに利用される画像表示モジュールであって、
     アイボックスを規定する開口を含む筐体と、
     前記筐体内に位置し、利用者の第1眼および第2眼に対して投影される視差画像を表示するように構成される表示部と、
     前記筐体内に位置し、前記視差画像の画像光を規定して前記第1眼および前記第2眼に視差を与えるように構成されるバリア部と、
     前記筐体内に位置し、利用者の眼を撮像するように構成されるカメラと、を含み、
     前記カメラの撮像方向は、前記画像光の光線方向と異なっており、
     前記画像光の光線方向を基準として、前記カメラで撮像した撮像画像の歪を補正する制御部を含む、画像表示モジュール。
  3.  請求項1または2記載の画像表示モジュールであって、
     前記カメラは、前記表示部に対して、視差方向における基準位置にある、画像表示モジュール。
  4.  請求項3記載の画像表示モジュールであって、
     前記カメラは、前記表示部に対して、垂直方向のいずれかの側にある、画像表示モジュール。
  5.  請求項1または2記載の画像表示モジュールであって、
     前記カメラは、前記表示部の表示領域内から撮像可能に構成される、画像表示モジュール。
  6.  請求項5記載の画像表示モジュールであって、
     前記表示部は、前記表示領域内に貫通孔を有し、
     前記カメラは、前記貫通孔を通して撮像可能に構成される、画像表示モジュール。
  7.  請求項6記載の画像表示モジュールであって、
     前記表示部は、前記第1眼および前記第2眼に投影される平面画像を表示するように構成されており、前記視差画像を表示する第1領域と前記平面画像を表示する第2領域とを有し、
     前記貫通孔は、前記第1領域と前記第2領域との間に位置する、画像表示モジュール。
  8.  請求項6または7記載の画像表示モジュールであって、
     前記貫通孔は、前記表示領域の中心を通り前記垂直方向に沿った仮想線上に位置し、
     前記表示領域の中心から前記貫通孔までの距離が、前記表示領域の中心から、前記表示領域の外周と前記仮想線との交差位置までの距離の60%以下である、画像表示モジュール。
  9.  請求項6~8のいずれか1つに記載の画像表示モジュールであって、
     前記カメラは、レンズを含み、
     前記レンズの有効口径より前記貫通孔の孔径が小さい、画像表示モジュール。
  10.  前記カメラの撮像素子において、前記レンズを透過した光を受光可能な受光素子の総数が、有効画素数の50%以下である、画像表示モジュール。
  11.  前記カメラは、前記受光素子で記録された画素群を前記撮像画像として出力する、画像表示モジュール。
PCT/JP2021/017670 2020-05-20 2021-05-10 画像表示モジュール WO2021235255A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180035789.2A CN115668031A (zh) 2020-05-20 2021-05-10 图像显示模块
US17/925,799 US20230244081A1 (en) 2020-05-20 2021-05-10 Image display module
EP21807834.3A EP4155811A1 (en) 2020-05-20 2021-05-10 Image display module

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-088396 2020-05-20
JP2020088396A JP7461215B2 (ja) 2020-05-20 2020-05-20 画像表示モジュール

Publications (1)

Publication Number Publication Date
WO2021235255A1 true WO2021235255A1 (ja) 2021-11-25

Family

ID=78606496

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/017670 WO2021235255A1 (ja) 2020-05-20 2021-05-10 画像表示モジュール

Country Status (5)

Country Link
US (1) US20230244081A1 (ja)
EP (1) EP4155811A1 (ja)
JP (1) JP7461215B2 (ja)
CN (1) CN115668031A (ja)
WO (1) WO2021235255A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134735A (ja) * 2008-12-05 2010-06-17 Panasonic Corp 虹彩認証装置
JP2015095161A (ja) * 2013-11-13 2015-05-18 株式会社デンソー 視線方向検知装置
US20160209647A1 (en) * 2015-01-19 2016-07-21 Magna Electronics Inc. Vehicle vision system with light field monitor
JP2017188766A (ja) * 2016-04-05 2017-10-12 レノボ・シンガポール・プライベート・リミテッド カメラを備える電子機器、撮影映像の補正方法および記憶媒体
JP2019128389A (ja) * 2018-01-22 2019-08-01 三菱電機株式会社 ヘッドアップディスプレイ装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5353734B2 (ja) * 2010-01-28 2013-11-27 トヨタ自動車株式会社 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134735A (ja) * 2008-12-05 2010-06-17 Panasonic Corp 虹彩認証装置
JP2015095161A (ja) * 2013-11-13 2015-05-18 株式会社デンソー 視線方向検知装置
US20160209647A1 (en) * 2015-01-19 2016-07-21 Magna Electronics Inc. Vehicle vision system with light field monitor
JP2017188766A (ja) * 2016-04-05 2017-10-12 レノボ・シンガポール・プライベート・リミテッド カメラを備える電子機器、撮影映像の補正方法および記憶媒体
JP2019128389A (ja) * 2018-01-22 2019-08-01 三菱電機株式会社 ヘッドアップディスプレイ装置

Also Published As

Publication number Publication date
CN115668031A (zh) 2023-01-31
EP4155811A1 (en) 2023-03-29
JP2021182123A (ja) 2021-11-25
JP7461215B2 (ja) 2024-04-03
US20230244081A1 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
WO2021177315A1 (ja) カメラ装置、ウインドシールドおよび画像表示モジュール
WO2021235255A1 (ja) 画像表示モジュール
CN113614619B (zh) 图像显示模块、图像显示系统、移动体、图像显示方法以及图像显示程序
CN113614618B (zh) 图像显示模块、移动体、以及凹面镜
WO2021235287A1 (ja) 視点検出装置および表示装置
WO2022024814A1 (ja) カメラシステムおよび運転支援システム
WO2022131137A1 (ja) 3次元表示装置、画像表示システムおよび移動体
JP7332764B2 (ja) 画像表示モジュール
WO2021220833A1 (ja) 画像表示システム
WO2022186189A1 (ja) 撮像装置および3次元表示装置
JP2022021866A (ja) カメラシステムおよび画像表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21807834

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021807834

Country of ref document: EP

Effective date: 20221220