WO2021106664A1 - ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体 - Google Patents

ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体 Download PDF

Info

Publication number
WO2021106664A1
WO2021106664A1 PCT/JP2020/042682 JP2020042682W WO2021106664A1 WO 2021106664 A1 WO2021106664 A1 WO 2021106664A1 JP 2020042682 W JP2020042682 W JP 2020042682W WO 2021106664 A1 WO2021106664 A1 WO 2021106664A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
display panel
head
controller
Prior art date
Application number
PCT/JP2020/042682
Other languages
English (en)
French (fr)
Inventor
薫 草深
村田 充弘
橋本 直
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to EP20893077.6A priority Critical patent/EP4067150A4/en
Priority to US17/779,990 priority patent/US11961429B2/en
Priority to CN202080082040.9A priority patent/CN114728587A/zh
Publication of WO2021106664A1 publication Critical patent/WO2021106664A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/40Instruments specially adapted for improving the visibility thereof to the user, e.g. fogging prevention or anti-reflection arrangements
    • B60K35/405Fogging prevention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/31Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers involving active parallax barriers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/32Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers characterised by the geometry of the parallax barriers, e.g. staggered barriers, slanted parallax arrays or parallax arrays of varying shape or size
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/172Driving mode indication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/23Optical features of instruments using reflectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/25Optical features of instruments using filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/347Optical elements for superposition of display information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0136Head-up displays characterised by optical features comprising binocular systems with a single image source for both eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • This disclosure relates to a head-up display, a head-up display system, and a mobile body.
  • Patent Document 1 An example of the prior art is described in Patent Document 1.
  • the head-up display includes a display panel, a reflective optical element, a controller, and an acquisition unit.
  • the display panel is configured to display a first image.
  • the reflective optical element is configured to reflect the image light of the first image displayed by the display panel.
  • the controller is configured to control the position on which the first image is displayed on the display panel.
  • the acquisition unit is configured to be able to acquire the position of the user's eyes as position information.
  • the controller is configured to change the position where the first image is displayed on the display panel according to the position information.
  • the head-up display system includes a head-up display and a detection device.
  • the detection device is configured to detect the position of the user's eye as position information.
  • the head-up display includes a display panel, a reflective optical element, a controller, and an acquisition unit.
  • the display panel is configured to display a first image.
  • the reflective optical element is configured to reflect the image light of the first image displayed by the display panel.
  • the controller is configured to control the position on which the first image is displayed on the display panel.
  • the acquisition unit is configured so that the position information can be acquired from the detection device.
  • the controller is configured to change the position where the first image is displayed on the display panel according to the position information.
  • the mobile body includes a head-up display system.
  • the head-up display system includes a head-up display and a detection device.
  • the detection device is configured to detect the position of the user's eye as position information.
  • the head-up display includes a display panel, a reflective optical element, a controller, and an acquisition unit.
  • the display panel is configured to display a first image.
  • the reflective optical element is configured to reflect the image light of the first image displayed by the display panel.
  • the controller is configured to control the position on which the first image is displayed on the display panel.
  • the acquisition unit is configured so that the position information can be acquired from the detection device.
  • the controller is configured to change the position where the first image is displayed on the display panel according to the position information.
  • FIG. 4 It is a schematic block diagram which shows an example of the head-up display system mounted on the moving body. It is a figure which shows an example of the display by the head-up display system of FIG. It is a figure explaining the image display when the position of the eye of a user is lower than the case of FIG. It is a schematic block diagram which shows another example of the head-up display system mounted on the moving body. It is a figure which shows the arrangement of the area of the display panel of FIG. It is a figure which shows the example which looked at the display panel shown in FIG. 4 from the depth direction. It is a figure which shows the example which looked at the parallax optical element shown in FIG. 4 from the depth direction. It is a figure for demonstrating the relationship between the virtual image shown in FIG.
  • head-up display which is a basic configuration of the head-up display of the present disclosure
  • an image having parallax is propagated to the left and right eyes of the user, and the image is visually recognized as a three-dimensional image having depth in the user's field of view.
  • Head-up displays that project virtual images are known.
  • the head-up display mounted on a moving body such as a vehicle, if the position of the eyes differs due to the difference in the sitting posture and sitting height of the user, it may be difficult for the user to see the image. It is preferable that the head-up display can provide an image that is easy to see according to the position of the user's eyes.
  • the head-up display system 1 As shown in FIG. 1, the head-up display system 1 according to the embodiment of the present disclosure includes a head-up display 2 and a detection device 3.
  • the head-up display system 1 is hereinafter referred to as a HUD (Head Up Display) system 1.
  • the HUD system 1 may be mounted on the moving body 20.
  • the HUD system 1 mounted on the mobile body 20 displays an image to the user 30 boarding the mobile body 20.
  • the interocular direction which is the direction of a straight line passing through the left eye 31l and the right eye 31r of the user 30, is represented as the x-axis direction.
  • the front-back direction of the user 30 is represented as the z-axis direction.
  • the height direction perpendicular to the x-axis direction and the z-axis direction is represented as the y-axis direction.
  • the "moving body” in the present disclosure includes vehicles, ships, and aircraft.
  • Vehicles in the present disclosure include, but are not limited to, automobiles and industrial vehicles, and may include railroad vehicles, living vehicles, and fixed-wing aircraft traveling on runways.
  • Automobiles include, but are not limited to, passenger cars, trucks, buses, motorcycles, trolley buses and the like, and may include other vehicles traveling on the road.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include, but are not limited to, forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combines, and lawnmowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, mobile cranes, dump trucks, and road rollers. Vehicles include those that run manually. The classification of vehicles is not limited to the above. For example, an automobile may include an industrial vehicle that can travel on the road and may include the same vehicle in multiple categories. Ships in the present disclosure include marine jets, boats and tankers. Aircraft in the present disclosure include fixed-wing aircraft and rotary-wing aircraft.
  • the detection device 3 detects the positions of the left eye 31l and the right eye 31r of the user 30.
  • the detection device 3 outputs the positions of the left eye 31l and the right eye 31r of the detected user 30 to the acquisition unit 7.
  • the detection device 3 may include an image pickup device or a sensor.
  • the detection device 3 may be mounted in various places such as a rearview mirror, an instrument panel, a steering wheel, and a dashboard.
  • the image pickup device is configured to acquire an image of the subject and generate an image of the subject.
  • the image pickup device includes an image pickup device.
  • the image sensor may include, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the image pickup device is arranged so that the face of the user 30 is located on the subject side.
  • the detection device 3 may be configured to detect the displacement direction and the amount of displacement of the positions of the left eye 31l and the right eye 31r from the origin with a predetermined position as the origin.
  • the detection device 3 may be configured to detect at least one position of the left eye 31l and the right eye 31r as coordinates in three-dimensional space by using two or more imaging devices.
  • the detection device 3 is not provided with an image pickup device and may be connected to an image pickup device outside the device.
  • the detection device 3 may include an input terminal configured to input a signal from an image pickup device outside the device.
  • the imaging device outside the device may be directly connected to the input terminal.
  • the imaging device outside the device may be indirectly connected to the input terminal via a shared network.
  • the senor may be an ultrasonic sensor, an optical sensor, or the like.
  • the head-up display 2 includes a reflection optical element 4, a controller 5, a display panel 6, and an acquisition unit 7.
  • the display panel 6 is a device that displays an image according to an instruction from the controller 5.
  • the display panel 6 includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL (Electro-Luminescence) display, an inorganic EL display, a plasma display (PDP: Plasma Display Panel), a field emission display (FED: Field Emission Display), and the like.
  • LCD Liquid Crystal Display
  • organic EL Electro-Luminescence
  • inorganic EL display an inorganic EL display
  • PDP Plasma Display Panel
  • FED Field Emission Display
  • Various flat panel displays such as an electrophoretic display and a twisted ball display can be adopted.
  • a backlight may be provided on the back surface of the display panel 6.
  • the reflective optical element 4 is an optical member configured to reflect the image light of the first image displayed on the display panel 6 at least partially.
  • the reflection optical element 4 is configured to reflect the image light of the first image emitted from the display panel 6 toward the left eye 31l and the right eye 31r of the user 30.
  • the HUD system 1 mounted on the moving body 20 which is a vehicle may also use the windshield of the vehicle as the reflection optical element 4.
  • the display panel 6 is configured to directly project the image light onto the reflecting optical element 4 as shown in FIG.
  • the image light reflected by the reflecting optical element 4 is incident on the left eye 31l and the right eye 31r of the user 30.
  • the user 30 visually recognizes the virtual image V1 of the display panel 6 reflected by the reflecting optical element 4.
  • the controller 5 is connected to each component of the head-up display 2 and is configured to control each component.
  • the controller 5 is configured as, for example, a processor.
  • the controller 5 may include one or more processors.
  • the processor may include a general-purpose processor configured to load a specific program and perform a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • the processor may include a programmable logic device (PLD).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the controller 5 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).
  • the Controller 5 includes memory.
  • the memory is composed of an arbitrary storage device such as a RAM (RandomAccessMemory) and a ROM (ReadOnlyMemory).
  • the memory may be configured to store programs, information, and the like for various processes.
  • the memory may include display content to be displayed as the first image.
  • the display content may include characters, figures, animations combining them, and the like.
  • the controller 5 is configured to be able to control the content and display position of the image displayed by the display panel 6.
  • the controller 5 is configured to be able to acquire the position information of the left eye 31l and the right eye 31r of the user 30 from the detection device 3 via the acquisition unit 7.
  • the controller 5 is configured to be able to change the position where the first image is displayed on the display panel 6 according to the position information acquired from the acquisition unit 7.
  • the acquisition unit 7 is configured to be able to acquire the position information of the left eye 31l and the right eye 31r of the user 30 detected by the detection device 3.
  • the detection device 3 and the acquisition unit 7 are connected by wire and / or wireless communication.
  • the detection device 3 and the acquisition unit 7 may be connected to each other via a vehicle network such as CAN (Control Area Network).
  • the acquisition unit 7 may include connectors such as an electric connector and an optical connector that support wired communication.
  • the acquisition unit 7 may include an antenna corresponding to wireless communication.
  • the head-up display 2 can further have an input unit 8 for acquiring information from the outside.
  • the input unit 8 can acquire information from the ECU (Electronic Control Unit) 9 of the moving body 20.
  • the ECU 9 is a computer that electronically controls various devices mounted on the mobile body 20.
  • the ECU 9 may include, for example, an engine control system, a navigation system, a system for controlling the inter-vehicle distance, and the like.
  • the input unit 8 can receive the input of the speed of the moving body 20 by receiving the vehicle speed signal representing the vehicle speed from the ECU 9.
  • the head-up display 2 is configured to be able to display the first image 11 within the field of view of the user 30.
  • the first image 11 is displayed on the image display area 12.
  • the image display area 12 is an area on the reflection optical element 4 on which the image light of the image displayed on the display panel 6 can be projected.
  • the controller 5 is configured so that the position where the first image is displayed on the display panel 6 can be changed according to the position information of the left eye 31l and the right eye 31r. By changing the position where the first image is displayed on the display panel 6, the display position of the first image 11 in the image display area 12 changes.
  • the reflection optical element 4 may include a first reflection region 4a configured to reflect a part of the incident image light and transmit the other part.
  • the display panel 6 may be configured to project at least a part of the first image 11 onto the first reflection region 4a. As a result, the portion of the first image 11 that overlaps the first reflection region 4a is superimposed on the background on the opposite side of the reflection optical element 4 from the user 30, and is displayed in the field of view of the user 30.
  • the reflection optical element 4 may include a second reflection region 4b configured to reflect a part of the incident image light and substantially block the other part.
  • the first image 11 projected onto the second reflection region 4b is displayed as a clear image in the field of view of the user 30 without overlapping the background on the side opposite to the user 30 of the reflection optical element 4.
  • the display panel 6 may be configured to project a portion of the first image 11 onto the second reflection region 4b.
  • the first image 11 can independently display information that is not related to the background information.
  • the second reflection region 4b can be a black part under the windshield.
  • the black part at the bottom of the windshield is sometimes called black ceramic.
  • the second reflection region 4b of the moving body 20 can be used to display information on instruments such as a speedometer, a tachometer, and a direction indicator, which have been conventionally arranged in the meter panel of the moving body.
  • the position of the first image 11 that can be seen by the user 30 changes due to the difference in the positions of the left eye 31l and the right eye 31r of the user 30 in the y direction.
  • the controller 5 controls the display panel 6 to display the first image 11 at a position in the display area that is easy for the user 30 to see. For example, as shown in FIG. 3, when the left eye 31l and the right eye 31r of the user 30 are lower than the example shown in FIG. 1 due to the sitting height and / or posture of the user 30, one of the image lights.
  • the optical path of the part may interfere with the structure inside the moving body 20. In such a case, a part of the image display area 12 located at the lower part of the reflection optical element 4 becomes invisible to the user 30.
  • the controller 5 is configured to limit the position where the first image 11 is displayed on the display panel 6 to a range in which the user 30 can see the first image 11.
  • the controller 5 may set a lower limit of the position where the first image 11 is displayed in the image display area 12 from a range that can be visually recognized by the user 30 on the reflection optical element 4.
  • the controller 5 may control the display position of the first image on the display panel 6 so that the first image 11 is displayed at a position exceeding this lower limit value of the image display area 12.
  • the controller 5 may be configured to change the position where the first image 11 is displayed on the display panel 6 according to the position information of the left eye 31l and the right eye 31r of the user 30.
  • the controller 5 can clearly display the image by displaying the specific first image 11 in the second reflection region 4b.
  • the controller 5 can display the first image 11 by superimposing it on the target background.
  • the HUD system 1 can provide an image that is easy to see regardless of the position of the eyes of the user 30.
  • the head-up display 2 can receive the input of the speed of the moving body 20 from the input unit 8.
  • the controller 5 may be configured to change the position where the first image 11 is displayed on the display panel 6 according to the speed of the moving body 20 in addition to the position information of the left eye 31l and the right eye 31r of the user 30. ..
  • the controller 5 changes the position of displaying the first image 11 on the display panel 6 so that the first image 11 is visually recognized on the upper side in the field of view of the user 30. It's okay.
  • the controller 5 changes the position of displaying the first image 11 on the display panel 6 so that the first image 11 can be visually recognized in the field of view of the user 30. Good.
  • the direction of the line of sight of the user 30 is high.
  • the user 30 can see the first image 11 without moving his / her line of sight.
  • the visible position of the first image 11 is set to the lower side, the user 30 can see the first image 11 without moving his / her line of sight.
  • the controller 5 displays, for example, a speedometer as the first image 11.
  • the HUD system 1A includes a head-up display 2A and a detection device 3.
  • the head-up display 2A of the HUD system 1A includes a reflection optical element 4A, a controller 5A, a display panel 6A, an acquisition unit 7A, an input unit 8A, a parallax optical element 13, and an optical system 14.
  • the catoptric element 4A, the controller 5A, the display panel 6A, the acquisition unit 7A, and the input unit 8A are similar to the catoptric element 4, the controller 5, the display panel 6, the acquisition unit 7, and the input unit 8 in FIG. 1, respectively. Therefore, the differences will be explained.
  • the display panel 6A includes a first area 51 and a second area 52 on the active area A extending in a plane shape.
  • the first region 51 is located near the lower end of the reflective optical element 4A.
  • the first area 51 is an area in which a two-dimensional image can be displayed.
  • the second area 52 is an area capable of displaying a parallax image visually recognized as a three-dimensional image by the user 30.
  • the parallax image includes a left eye image and a right eye image, which will be described later.
  • the right eye image has parallax with respect to the left eye image.
  • the head-up display 2A projects the second image displayed in the first area 51 and the third image displayed in the second area 52 onto the reflecting optical element 4A, respectively, within the field of view of the user 30. To display.
  • the second image and the third image are included in the first image.
  • the head-up display 2A can display the second image in the field of view of the user 30 as in the head-up display 2 of FIG.
  • the display of the third image by the head-up display 2A will be described below.
  • the display panel 6 has a plurality of compartmentalized areas on the active area A extending in a plane shape.
  • FIG. 6 shows a second area 52 of the active area A.
  • each of the plurality of compartmentalized regions is a region partitioned in the u-axis direction and the v-axis direction orthogonal to the u-axis direction.
  • the direction orthogonal to the u-axis direction and the v-axis direction is referred to as the w-axis direction.
  • the u-axis direction may be referred to as the horizontal direction.
  • the v-axis direction may be referred to as the vertical direction.
  • the w-axis direction may be referred to as the depth direction.
  • the u-axis direction is a direction corresponding to the parallax direction of the user 30.
  • the active area A includes a plurality of sub-pixels arranged in a grid along the u-axis direction and the v-axis direction.
  • Each sub-pixel corresponds to any color of R (Red), G (Green), and B (Blue), and one pixel can be composed of three sub-pixels of R, G, and B as a set. ..
  • the plurality of sub-pixels to be one pixel is not limited to three, and may be any other number including four.
  • the plurality of sub-pixels, which are one pixel are not limited to the combination of R, G, and B.
  • One pixel can be referred to as one pixel.
  • a plurality of sub-pixels constituting one pixel can be arranged in the horizontal direction, for example. Multiple sub-pixels of the same color can be aligned vertically, for example.
  • the plurality of sub-pixels arranged in the second region 52 of the active area A constitute a plurality of sub-pixel group Pg under the control of the controller 5.
  • the plurality of sub-pixel groups Pg are repeatedly arranged in the u-axis direction.
  • the plurality of sub-pixel groups Pg can be arranged in the same column in the v-axis direction and can be arranged in the same row in the v-axis direction.
  • a plurality of sub-pixel groups Pg can be repeatedly arranged adjacent to positions shifted by one sub-pixel in the u-axis direction in the v-axis direction.
  • the plurality of sub-pixel group Pg includes a plurality of sub-pixels having a predetermined number of rows and columns.
  • a plurality of sub-pixel groups Pg are continuously arranged (2 ⁇ n ⁇ ) in b (b rows) in the v-axis direction and 2 ⁇ n (2 ⁇ n columns) in the u-axis direction.
  • N 2 ⁇ n ⁇ b.
  • a plurality of subpixel groups Pg including 12 subpixels P1 to P12 arranged consecutively, one in the v-axis direction and 12 in the u-axis direction, are arranged. ..
  • only a part of the sub-pixel group Pg is coded.
  • the plurality of sub-pixel groups Pg is the smallest unit that the controller 5 controls to display an image.
  • the same period includes simultaneous and substantially simultaneous.
  • Contemporaneous control includes control based on the generation of the same one clock, and control at the same frame.
  • the controller 5 when the controller 5 switches the image to be displayed on the plurality of subpixels P1 from the left eye image to the right eye image, the controller 5 displays the image to be displayed on the plurality of subpixels P1 in all the subpixel groups Pg from the left eye image to the right eye. It can be controlled to switch to the image at the same time.
  • the parallax optical element 13 is arranged along the display panel 6A as shown in FIG.
  • the parallax optical element 13 is separated from the second region 52 of the display panel 6A by the distance of the gap g.
  • the parallax optical element 13 may be located on the reflection optical element 4A side with respect to the display panel 6A.
  • the parallax optical element 13 is an optical element configured so as to define the propagation direction of image light emitted from a plurality of sub-pixels.
  • the parallax optical element 13 is configured to be able to substantially define the parallax 32 of the parallax image.
  • the visual range 32 is a spatial range in which the left eye 31l and the right eye 31r of the user 30 can see the parallax image as a three-dimensional image.
  • the parallax optical element 13 can be configured as a liquid crystal shutter as shown in FIG.
  • the liquid crystal shutter is composed of a plurality of pixels P similar to the display panel 6.
  • the parallax optical element 13 which is a liquid crystal shutter is configured to be able to control the light transmittance in each pixel P.
  • Each pixel P of the parallax optical element 13 can switch the state between a state in which the light transmittance is high and a state in which the light transmittance is low.
  • a plurality of pixels P having high light transmittance may be referred to as open pixels.
  • the plurality of pixels P of the parallax optical element 13 may correspond to the plurality of sub-pixels of the display panel 6.
  • the plurality of pixels P of the parallax optical element 13 are different from the sub-pixels of the display panel 6 in that they do not have a color component.
  • the parallax optical element 13 has a plurality of translucent regions 13a and a plurality of dimming regions 13b under the control of the controller 5.
  • the parallax optical element 13 is a liquid crystal shutter
  • the light transmitting region 13a is composed of pixels P having high light transmittance.
  • the dimming region 13b is composed of pixels P having a low light transmittance.
  • the plurality of dimming regions 13b are a plurality of strip-shaped regions extending in a predetermined direction in the plane of the parallax optical element 13.
  • the plurality of dimming regions 13b define a translucent region 13a between two dimming regions 13b adjacent to each other.
  • the plurality of translucent regions 13a and the plurality of dimming regions 13b extend in a predetermined direction along the active area A and are repeatedly and alternately arranged in a direction orthogonal to the predetermined direction.
  • the plurality of translucent regions 13a have a higher light transmittance than the plurality of dimmed regions 13b.
  • the light transmittance of the plurality of light transmitting regions 13a can be 10 times or more, preferably 100 times or more, and more preferably 1000 times or more the light transmittance of the plurality of dimming regions 13b.
  • the plurality of dimming regions 13b have a lower light transmittance than the plurality of translucent regions 13a.
  • the plurality of dimming regions 13b may block the image light.
  • the extending direction of the plurality of translucent regions 13a and the plurality of dimming regions 13b can be the direction in which the plurality of sub-pixel groups Pg of the display panel 6A are arranged.
  • a plurality of sub-pixels identified by the same identification code P1 to P12 of a plurality of different sub-pixel groups Pg simultaneously transmit light and transmit light. It is controlled to be dimmed.
  • the optical system 14 propagates the image light of the third image emitted from the second region 52 of the display panel 6A toward the reflecting optical element 4A.
  • the optical system 14 may have a predetermined positive refractive index. Since the optical system 14 has a positive refractive index, the third image of the second region 52 is projected as a magnified virtual image located farther than the reflection optical element 4A in the field of view of the user 30.
  • Optical system 14 may include a convex lens and / or a concave mirror.
  • a part of the image light of the third image emitted from the second region 52 of the display panel 6A passes through the plurality of translucent regions 13a and reaches the reflecting optical element 4A via the optical system 14.
  • the image light that has reached the reflecting optical element 4A is reflected by the reflecting optical element 4A and reaches the left eye 31l and the right eye 31r of the user 30.
  • the left eye 31l and the right eye 31r of the user 30 can recognize the second virtual image V2, which is a virtual image of the image displayed in the second region 52 in front of the reflecting optical element 4A.
  • the user 30 apparently displays an image as if the third virtual image V3, which is a virtual image of the parallax optical element 13, defines the direction of the image light from the second virtual image V2. recognize.
  • the user 30 apparently recognizes the third image as if the second virtual image V2 is visually recognized via the third virtual image V3.
  • the third virtual image V3, which is a virtual image of the parallax optical element 13, is not visually recognized.
  • the third virtual image V3 is apparently at a position where the virtual image of the parallax optical element 13 is formed, and is described as being regarded as defining the propagation direction of the image light from the second virtual image V2. ..
  • the region in the second virtual image V2 that can be visually recognized by the user 30 by the image light propagating to the position of the left eye 31l of the user 30 is referred to as a left visible region VaL.
  • the region in the second virtual image V2 that can be visually recognized by the user 30 by the image light propagating to the position of the right eye 31r of the user 30 is referred to as a right visible region VaR.
  • the virtual image barrier pitch VBp and the virtual image gap Vg shown in FIG. 8 are defined so that the following equations (1) and (2) using the appropriate viewing distance Vd hold.
  • Vd (n ⁇ VHp): Vg equation (1)
  • Vd: VBp (Vdv + Vg): (2 ⁇ n ⁇ VHp) Equation (2)
  • the virtual image barrier pitch VBp is an arrangement interval in the x-axis direction corresponding to the u-axis direction of the plurality of dimming regions 12b projected as the third virtual image V3.
  • the virtual image gap Vg is the distance between the third virtual image V3 and the second virtual image V2.
  • the suitable viewing distance Vd is the distance between the positions of the left eye 31l and the right eye 31r of the user 30 and the third virtual image V3 which is a virtual image of the parallax optical element 13.
  • the intereye distance E is the distance between the left eye 31l and the right eye 31r.
  • the intereye distance E may be, for example, 61.1 mm to 64.4 mm, which is a value calculated by research by the National Institute of Advanced Industrial Science and Technology.
  • VHp is the horizontal length of the virtual image of the plurality of subpixels.
  • VHp is the length of the virtual image of one subpixel in the second virtual image V2 in the direction corresponding to the x-axis direction.
  • the left visible region VaL shown in FIG. 8 is left of the user 30 when the image light transmitted through the plurality of translucent regions 13a of the parallax optical element 13 reaches the left eye 31l of the user 30.
  • the right visible region VaR is visually recognized by the right eye 31r of the user 30 when the image light transmitted through the plurality of translucent regions 13a of the parallax optical element 13 reaches the right eye 31r of the user 30.
  • FIG. 9 shows the arrangement of a plurality of subpixels of the second virtual image V2 as seen from the left eye 31l of the user 30.
  • the virtual images of the plurality of subpixels on the second virtual image V2 are designated by the same identification codes P1 to P12 as the plurality of subpixels shown in FIG.
  • the plurality of translucent regions 13a and the plurality of dimming regions 13b of the parallax optical element 13 have equal widths in the interocular direction (x-axis direction).
  • a part of the second virtual image V2 is dimmed by the third virtual image V3 to form a plurality of left dimming regions VbL.
  • the plurality of left dimming regions VbL are regions in which the left eye 31l of the user 30 is difficult to see because the image light is dimmed by the plurality of dimming regions 13b of the parallax optical element 13.
  • a part of the second virtual image V2 is a plurality of right dimming regions VbR dimmed by the third virtual image V3.
  • the plurality of right dimming regions VbR are regions that are difficult for the right eye 31r of the user 30 to see because the image light is dimmed by the plurality of dimming regions 13b of the parallax optical element 13.
  • the plurality of left visible regions VaL can correspond to the plurality of right dimming regions VbR.
  • the plurality of right visible regions VaR may correspond to the plurality of left dimming regions VbL.
  • the aperture ratio of the parallax optical element 13 is less than 50%, the plurality of left visible regions VaL may be included in the plurality of right dimming regions VbR.
  • the plurality of right visible regions VaR may be included in the plurality of left dimming regions VbL. Therefore, the plurality of right visible regions VaR are difficult to see from the left eye 31l.
  • the plurality of left visible regions VaL are difficult to see from the right eye 31r.
  • the left visible region VaL includes virtual images of a plurality of sub-pixels P1 to P6 arranged in the second region 52. It is difficult for the left eye 31l of the user 30 to visually recognize the virtual images of the plurality of sub-pixels P7 to P12 arranged in the second region 52.
  • the right visible region VaR includes virtual images of a plurality of subpixels P7 to P12 arranged in the second region 52. It is difficult for the right eye 31r of the user 30 to visually recognize the virtual images of the plurality of sub-pixels P1 to P6 arranged in the second region 52.
  • the controller 5 can display the left eye image on a plurality of sub-pixels P1 to P6.
  • the controller 5 can display the right eye image on the plurality of sub-pixels P7 to P12. By doing so, the left eye 31l of the user 30 visually recognizes a virtual image of the left eye image of the plurality of left visible regions VaL.
  • the right eye 31r of the user 30 visually recognizes a virtual image of the right eye image of a plurality of right visible regions VaR.
  • the right eye image and the left eye image are parallax images having parallax with each other. Therefore, the user 30 can visually recognize the right eye image and the left eye image as three-dimensional images.
  • the controller 5 is configured to be able to acquire the position information of the left eye 31l and the right eye 31r of the user 30 detected by the detection device 3 via the acquisition unit 7A.
  • the controller 5 controls the parallax optical element 13 so that the plurality of sub-pixels P1 to P6 displaying the left-eye image can be visually recognized from the left-eye 31l according to the position of the left-eye 31l of the user 30.
  • the controller 5 controls the parallax optical element 13 so that the plurality of sub-pixels P7 to P12 displaying the right-eye image can be visually recognized by the right eye 31r according to the position of the right eye 31r of the user 30.
  • FIG. 11 shows a second virtual image V2 visually recognized by the user 30 when the left eye 31l of the user 30 moves to the left from the state of FIG. 7.
  • the plurality of left visible regions VaL and the plurality of left dimming regions VbL move to the right.
  • the entire plurality of sub-pixels P2 to P6 and a part of the plurality of sub-pixels P1 and P7 are included in the plurality of left visible regions VaL.
  • All of the plurality of sub-pixels P8 to P12 and a part of the plurality of sub-pixels P7 and P1 are included in the right visible region VaR.
  • the controller 5 controls the parallax optical element 13 so that the most portions of the plurality of sub-pixels P1 to P6 displaying the left-eye image are located in the plurality of left visible regions VaL. For example, from the state of FIG.
  • the controller 5 may switch the open pixel P of the parallax optical element 13.
  • the controller 5 switches the pixel with low light transmittance of the parallax optical element 13 in which the virtual image is located adjacent to the left side of the left visible region VaL to the opened pixel.
  • the controller 5 switches the open pixel of the parallax optical element 13 in which the virtual image is located adjacent to the left side of the left dimming region VbL to a pixel having a low light transmittance.
  • the controller 5 By switching the open pixels P, the controller 5 maintains a state in which the sub-pixels P1 to P6 displaying the left-eye image are best visible to the left-eye 30l of the user 30.
  • the controller 5 also controls the parallax optical element 13 with respect to the right eye 31r in the same manner.
  • the aperture ratio of the parallax optical element 13 may be lower than 50%.
  • the controller 5 when one subpixel group Pg of the second region 52 is composed of 12 subpixels P1 to P12, the controller 5 has a light transmittance in one subpixel group Pg. You may control the number of high subpixels to always be five. In that case, the controller 5 controls the parallax optical element 13 so as to dimm the image light from the sub-pixel P7 from the state as shown in FIG. 11, and dims each pixel P having a low light transmittance to the left. One more may be placed on the left side of the region VbL.
  • the head-up display 2A provides the user 30 with a first state of displaying the third image as a three-dimensional image and a second state of displaying the third image as a two-dimensional image as described above. It may be configured to be switchable.
  • the controller 5 displays the parallax image on the display panel 6A, and causes the parallax optical element 13 to display the translucent region 13a and the dimming region 13b that define the propagation direction of the image light.
  • the controller 5 causes the display panel 6A to display a two-dimensional image expressing the two-dimensional image, and makes the parallax optical element 13 a translucent state as a whole to uniformly transmit the image light.
  • the controller 5 controls the switching of the states of the display panel 6A and the parallax optical element 13 in synchronization with each other.
  • the head-up display 2A can appropriately select and display either a two-dimensional image or a three-dimensional image as the third image to the user 30.
  • the HUD system 1A can display the second image 61 and the third image 62 on the reflection optical element 4A as seen from the user 30 as shown in FIG.
  • the second image 61 is displayed as a two-dimensional image in the first display area 63 corresponding to the first area 51 of the display panel 6A.
  • the third image 62 is displayed as a three-dimensional image in the second display area 64 corresponding to the second area 52 of the display panel 6A.
  • the third image 62 can also be switched between a two-dimensional image and a three-dimensional image.
  • the controller 5 can change the position for displaying the second image 61 and the third image 62 according to the position information of the left eye 31l and the right eye 31r of the user 30 acquired from the acquisition unit 7A.
  • the controller 5 may change the display position of only one of the second image 61 and the third image 62 according to the position information of the left eye 31l and the right eye 31r of the user 30.
  • the controller 5 changes the position of displaying the second image 61 on the display panel 6A according to the position information of the left eye 31l and the right eye 31r of the user 30, and displays the third image 62 on the display panel 6A. It is also possible not to change the position to do.
  • the controller 5 can change the position where the second image 61 and the third image 62 are displayed according to the speed of the moving body 20 that receives the input from the input unit 8A.
  • the controller 5 may change the display position of only one of the second image 61 and the third image 62 according to the speed of the moving body 20.
  • the controller 5 can change the position where the second image 61 is displayed on the display panel 6A and do not change the position where the third image 62 is displayed on the display panel 6A according to the speed. By doing so, when the speed of the moving body 20 becomes faster, the position of only the second image 61 located on the lower side when viewed from the user 30 is changed to the upper side according to the line-of-sight direction of the user. Can be done.
  • a liquid crystal shutter is used as the parallax optical element.
  • the parallax optical element is not limited to the liquid crystal shutter, and other optical elements capable of substantially defining the parallax range of the parallax image can be used.
  • a plate-shaped parallax barrier in which a plurality of slit-shaped openings are arranged in parallel can be used as the parallax optical element. The plurality of slit-shaped openings allow the right eye image of the parallax image to be transmitted in the direction of the optical path toward the right eye, and the left eye image to be transmitted toward the left eye.
  • the controller displays a plurality of subs that display the left eye image of the second display panel according to the movement of the user's head. You can switch between pixels and multiple sub-pixels that display the right-eye image. By doing so, the controller can continue to display the three-dimensional image to the user regardless of the movement of the position of the user's eyes.
  • an optical member in which a plurality of lenticular lenses are arranged in parallel in a plane can be used.
  • the plurality of lenticular lenses can deflect the left-eye image and the right-eye image of the parallax images alternately displayed on the second display panel toward the optical paths toward the right eye and the left eye, respectively.
  • the head-up display includes a display panel, a reflective optical element, a controller, and an acquisition unit.
  • the display panel is configured to display a first image.
  • the reflective optical element is configured to reflect the image light of the first image displayed by the display panel.
  • the controller is configured to control the position on which the first image is displayed on the display panel.
  • the acquisition unit is configured to be able to acquire the position of the user's eyes as position information.
  • the controller is configured to change the position where the first image is displayed on the display panel according to the position information.
  • the head-up display system includes a head-up display and a detection device.
  • the detection device is configured to detect the position of the user's eye as position information.
  • the head-up display includes a display panel, a reflective optical element, a controller, and an acquisition unit.
  • the display panel is configured to display a first image.
  • the reflective optical element is configured to reflect the image light of the first image displayed by the display panel.
  • the controller is configured to control the position on which the first image is displayed on the display panel.
  • the acquisition unit is configured so that the position information can be acquired from the detection device.
  • the controller is configured to change the position where the first image is displayed on the display panel according to the position information.
  • the mobile body includes a head-up display system.
  • the head-up display system includes a head-up display and a detection device.
  • the detection device is configured to detect the position of the user's eye as position information.
  • the head-up display includes a display panel, a reflective optical element, a controller, and an acquisition unit.
  • the display panel is configured to display a first image.
  • the reflective optical element is configured to reflect the image light of the first image displayed by the display panel.
  • the controller is configured to control the position on which the first image is displayed on the display panel.
  • the acquisition unit is configured so that the position information can be acquired from the detection device.
  • the controller is configured to change the position where the first image is displayed on the display panel according to the position information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Instrument Panels (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ヘッドアップディスプレイは、表示パネルと、反射光学素子と、コントローラと、取得部とを含む。表示パネルは、第1画像を表示するように構成される。反射光学素子は、表示パネルが表示する第1画像の画像光を反射するように構成される。コントローラは、表示パネル上の第1画像を表示する位置を制御するように構成される。取得部は、利用者の眼の位置を位置情報として取得可能に構成される。コントローラは、位置情報に応じて、表示パネルに前記第1画像を表示する位置を変更するように構成されている。

Description

ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
 本開示は、ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体に関する。
 従来技術の一例は、特許文献1に記載されている。
特開2009-008722号公報
 本開示の一実施形態に係るヘッドアップディスプレイは、表示パネルと、反射光学素子と、コントローラと、取得部とを含む。前記表示パネルは、第1画像を表示するように構成される。前記反射光学素子は、前記表示パネルが表示する前記第1画像の画像光を反射するように構成される。前記コントローラは、前記表示パネル上の前記第1画像を表示する位置を制御するように構成される。前記取得部は、利用者の眼の位置を位置情報として取得可能に構成される。前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成されている。
 本開示の一実施形態に係るヘッドアップディスプレイシステムは、ヘッドアップディスプレイと、検出装置とを備える。前記検出装置は、利用者の眼の位置を位置情報として検出するように構成される。前記ヘッドアップディスプレイは、表示パネルと、反射光学素子と、コントローラと、取得部とを含む。前記表示パネルは、第1画像を表示するように構成される。前記反射光学素子は、前記表示パネルが表示する前記第1画像の画像光を反射するように構成される。前記コントローラは、前記表示パネル上の前記第1画像を表示する位置を制御するように構成される。前記取得部は、前記位置情報を前記検出装置から取得可能に構成される。前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成されている。
 本開示の一実施形態に係る移動体は、ヘッドアップディスプレイシステムを備える。前記ヘッドアップディスプレイシステムは、ヘッドアップディスプレイと、検出装置とを備える。前記検出装置は、利用者の眼の位置を位置情報として検出するように構成される。前記ヘッドアップディスプレイは、表示パネルと、反射光学素子と、コントローラと、取得部とを含む。前記表示パネルは、第1画像を表示するように構成される。前記反射光学素子は、前記表示パネルが表示する前記第1画像の画像光を反射するように構成される。前記コントローラは、前記表示パネル上の前記第1画像を表示する位置を制御するように構成される。前記取得部は、前記位置情報を前記検出装置から取得可能に構成される。前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成されている。
 本開示の目的、特色、および利点は、下記の詳細な説明と図面とからより明確になるであろう。
移動体に搭載されたヘッドアップディスプレイシステムの一例を示す概略構成図である。 図1のヘッドアップディスプレイシステムによる表示の一例を示す図である。 利用者の眼の位置が図1の場合より下方にある場合の画像表示を説明する図である。 移動体に搭載されたヘッドアップディスプレイシステムの他の一例を示す概略構成図である。 図4の表示パネルの領域の配置を示す図である。 図4に示す表示パネルを奥行方向から見た例を示す図である。 図4に示す視差光学素子を奥行方向から見た例を示す図である。 図4に示す虚像と利用者の眼との関係を説明するための図である。 表示パネルの虚像における左眼から視認可能な領域を示す図である。 表示パネルの虚像における右眼から視認可能な領域を示す図である。 利用者の眼の位置の変化に伴う視差光学素子の切り替えを説明する図である。 図4のヘッドアップディスプレイシステムによる表示の一例を示す図である。
 本開示のヘッドアップディスプレイの基礎となる構成であるヘッドアップディスプレイとして、利用者の左右の眼に互いに視差を有する画像を伝播させ、利用者の視野内に奥行きを有する3次元画像として視認される虚像を投影するヘッドアップディスプレイが知られている。
 車両等の移動体に搭載されるヘッドアップディスプレイにおいて、利用者の着座姿勢及び座高等の違いにより眼の位置が異なると、利用者が画像を見難くなる場合がある。ヘッドアップディスプレイは、利用者の眼の位置に応じて見易い画像を提供できることが好ましい。
 以下、本開示の実施形態について、図面を参照して説明する。以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
(ヘッドアップディスプレイシステム)
 本開示の一実施形態にかかるヘッドアップディスプレイシステム1は、図1に示すように、ヘッドアップディスプレイ2と、検出装置3とを含んで構成される。ヘッドアップディスプレイシステム1は、以下にHUD(Head Up Display)システム1と表記される。HUDシステム1は、移動体20に搭載されてよい。移動体20に搭載されたHUDシステム1は、移動体20に搭乗する利用者30に対して、画像を表示する。
 移動体20に搭載されたHUDシステム1を示す図1において、利用者30の左眼31l及び右眼31rを通る直線の方向である眼間方向はx軸方向として表される。利用者30の前後方向はz軸方向として表される。x軸方向及びz軸方向に垂直な高さ方向はy軸方向として表される。
 本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む
(検出装置の構成)
 検出装置3は、利用者30の左眼31l及び右眼31rの位置を検出する。検出装置3は、検出した利用者30の左眼31l及び右眼31rの位置を取得部7に対して出力する。検出装置3は、撮像装置又はセンサを含んでよい。HUDシステム1が車両である移動体20に搭載される場合、検出装置3は、ルームミラー、インスツルメントパネル、ステアリングホイール、ダッシュボード等種々の場所に取付けられてよい。
 検出装置3が撮像装置を含む場合、撮像装置は、被写体の像を取得して被写体の画像を生成するように構成される。撮像装置は、撮像素子を含む。撮像素子は、例えばCCD(Charge Coupled Device)撮像素子又はCMOS(Complementary Metal Oxide Semiconductor)撮像素子を含んでよい。撮像装置は、被写体側に利用者30の顔が位置するように配置される。例えば、検出装置3は、所定の位置を原点とし、原点からの左眼31l及び右眼31rの位置の変位方向及び変位量を検出するように構成されてよい。検出装置3は、2台以上の撮像装置を用いて、左眼31l及び右眼31rの少なくとも一方の位置を3次元空間の座標として検出するように構成されてよい。
 検出装置3は、撮像装置を備えず、装置外の撮像装置に接続されていてよい。検出装置3は、装置外の撮像装置からの信号を入力するように構成される入力端子を備えてよい。装置外の撮像装置は、入力端子に直接的に接続されてよい。装置外の撮像装置は、共有のネットワークを介して入力端子に間接的に接続されてよい。
 検出装置3がセンサを備える場合、センサは、超音波センサ又は光センサ等であってよい。
(ヘッドアップディスプレイの構成)
 ヘッドアップディスプレイ2は、反射光学素子4と、コントローラ5と、表示パネル6と取得部7とを含んで構成される。
 表示パネル6は、コントローラ5からの指示に従い、画像を表示する装置である。表示パネル6には、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイ、無機ELディスプレイ、プラズマディスプレイ(PDP:Plasma Display Panel)、電界放出ディスプレイ(FED:Field Emission Display)、電気泳動ディスプレイ、ツイストボールディスプレイ等の種々のフラットパネルディスプレイを採用しうる。表示パネル6が、透過型の液晶ディスプレイの場合、表示パネル6の背面には、バックライトを有してよい。
 反射光学素子4は、表示パネル6に表示される第1画像の画像光を、少なくとも部分的に反射するように構成された光学部材である。反射光学素子4は、表示パネル6から射出された第1画像の画像光を、利用者30の左眼31l及び右眼31rに向けて反射させるように構成される。車両である移動体20に搭載されたHUDシステム1は、車両のウインドシールドを反射光学素子4として兼用してよい。
 複数の実施形態の一つにおいて、表示パネル6は、図1に示すように画像光を直接的に反射光学素子4に投光するように構成される。反射光学素子4により反射された画像光は、利用者30の左眼31l及び右眼31rに入射する。これにより、利用者30は、反射光学素子4により反射された表示パネル6の虚像V1を視認する。
 コントローラ5は、ヘッドアップディスプレイ2の各構成要素に接続され、各構成要素を制御するように構成される。コントローラ5は、例えばプロセッサとして構成される。コントローラ5は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行するように構成された汎用のプロセッサ、及び特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ5は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。
 コントローラ5は、メモリを含む。メモリは、例えばRAM(Random Access Memory)及びROM(Read Only Memory)など、任意の記憶デバイスにより構成される。メモリは、種々の処理のためのプログラム及び情報等を記憶するように構成されうる。例えば、メモリは、第1画像として表示する表示コンテンツを含んでよい。表示コンテンツは、文字、図形及びそれらを組み合わせたアニメーション等を含んでよい。
 コントローラ5は、表示パネル6が表示する画像の内容及び表示位置を制御することができるように構成される。コントローラ5は、取得部7を介して検出装置3から利用者30の左眼31l及び右眼31rの位置情報を取得可能に構成される。コントローラ5は、取得部7から取得した位置情報に応じて、表示パネル6に第1画像を表示する位置を変更可能に構成される。
 取得部7は、検出装置3によって検出される利用者30の左眼31l及び右眼31rの位置情報を取得可能に構成される。検出装置3と取得部7との間は、有線及び/又は無線通信により接続される。移動体20が車両の場合、検出装置3と取得部7との間は、CAN(Control Area Network)等の車両のネットワークを介して接続されてよい。取得部7は、有線通信に対応した、電気コネクタ及び光コネクタ等のコネクタを含みうる。取得部7は、無線通信に対応したアンテナを含みうる。
 ヘッドアップディスプレイ2は、さらに、外部から情報を取得する入力部8を有することができる。HUDシステム1が移動体20に搭載される場合、入力部8は、移動体20のECU(Electronic Control Unit)9から情報を取得することができる。ECU9は、移動体20に搭載される種々の装置を電子制御するコンピュータである。ECU9には、例えば、エンジン制御システム、ナビゲーション・システム、または、車間距離を制御するシステム等を含みうる。入力部8は、ECU9から車両速度を表す車速信号を受信することにより、移動体20の速度の入力を受けることができる。
 ヘッドアップディスプレイ2は、図2に示すように、利用者30の視界内に第1画像11を表示することができるように構成される。第1画像11は、画像表示領域12上に表示される。画像表示領域12は、表示パネル6に表示される画像の画像光が投光可能な反射光学素子4上の領域である。コントローラ5は、左眼31l及び右眼31rの位置情報に応じて、表示パネル6に第1画像を表示する位置を変更可能に構成されている。表示パネル6上の第1画像を表示する位置が変更されることにより画像表示領域12内の第1画像11の表示位置が変化する。
(ヘッドアップディスプレイの表示)
 図2に示すように、反射光学素子4は、入射した画像光の一部を反射し、他の一部を透過するように構成された第1反射領域4aを含んでよい。表示パネル6は、第1反射領域4aに第1画像11の少なくとも一部を投光するように構成されてよい。これにより、第1画像11の第1反射領域4aに重なる部分は、反射光学素子4の利用者30と反対側の背景と重ね合わされて、利用者30の視界内に表示される。
 反射光学素子4は、入射した画像光の一部を反射し、他の一部を実質的に遮光するように構成された第2反射領域4bを含んでよい。これによって、第2反射領域4bに投光された第1画像11は、反射光学素子4の利用者30と反対側の背景と重なること無く、利用者30の視野内に鮮明な画像として表示されることができる。例えば、表示パネル6は、第2反射領域4bに第1画像11の一部を投影するように構成されてよい。これにより、第1画像11には、背景の情報と関連しない情報を独立して表示させることができる。
 車両である移動体20に搭載されるHUDシステム1において、第2反射領域4bはウインドシールド下部の黒い部分としうる。ウインドシールド下部の黒い部分は、黒セラミックとよばれることがある。移動体20の第2反射領域4bは、従来移動体のメーターパネル内に配置されてきたスピードメータ、タコメータ及び方向指示器等の計器類の情報を表示するために使用することができる。
 利用者30の左眼31l及び右眼31rのy方向の位置の違いにより、利用者30が見ることができる第1画像11の位置が変化する。コントローラ5は、表示パネル6を制御して、表示領域内の利用者30から見易い位置に第1画像11を表示させる。例えば、図3に示すように、利用者30の座高及び/又は姿勢により、利用者30の左眼31l及び右眼31rが図1に示した例よりも低い位置にある場合、画像光の一部の光路が移動体20内部の構造物と干渉することがある。そのような場合、反射光学素子4の下部に位置する画像表示領域12の一部が利用者30から視認できなくなる。そのため、コントローラ5は、表示パネル6に第1画像11を表示する位置を利用者30が第1画像11を視認可能な範囲に限定するように構成される。コントローラ5は、反射光学素子4上で利用者30が視認できる範囲から、画像表示領域12内の第1画像11が表示される位置の下限を設定してよい。コントローラ5は、画像表示領域12のこの下限値を上回る位置に第1画像11が表示されるように、表示パネル6上での第1画像の表示位置を制御してよい。
 利用者30の左眼31l及び右眼31rの位置が変化すると、利用者30から視認することのできる、表示パネル6上の位置と、反射光学素子4上の位置との位置関係が変化する。例えば、利用者30の左眼31l及び右眼31rの位置が高い場合に利用者30から見て第2反射領域4bに表示される画像が、利用者30の左眼31l及び右眼31rの位置が低い場合、第2反射領域4bに表示されないことがある。このため、コントローラ5は、利用者30の左眼31l及び右眼31rの位置情報に応じて、表示パネル6上で第1画像11を表示する位置を変更するように構成されてよい。コントローラ5は、特定の第
1画像11を第2反射領域4bに表示させることにより、画像を鮮明に表示させることができる。コントローラ5は、他の特定の第1画像11を第1反射領域4aに表示させることにより、当該第1画像11を狙った背景と重ね合わせて表示することができる。
 以上説明したように、本開示に係るHUDシステム1は、利用者30の眼の位置に関わらず見易い画像を提供できることができる。
(速度に応じた表示位置)
 前述のように、ヘッドアップディスプレイ2は、入力部8から移動体20の速度の入力を受けることができる。コントローラ5は、利用者30の左眼31l及び右眼31rの位置情報に加え、移動体20の速度に応じて、表示パネル6に第1画像11を表示する位置を変更するように構成されうる。例えば、移動体20の速度が速いほど、コントローラ5は、利用者30の視野内で第1画像11が上側に視認されるように、表示パネル6に第1画像11を表示させる位置を変更してよい。移動体20の速度が遅いほど、コントローラ5は、利用者30の視野内で第1画像11が下側に視認されるように、表示パネル6に第1画像11を表示させる位置を変更してよい。
 移動体20の速度が速くなるほど、利用者30は、視線をより遠くに向ける。そのため、利用者30の視線の方向は高くなる。第1画像11の視認される位置をより上側にすることにより、利用者30は視線を動かさずに第1画像11を見ることが可能になる。移動体20の速度が遅くなるほど、利用者30は視線を路面等のより近くの対象に向ける。そのため、利用者30の視線の方向は低くなることがある。第1画像11の視認される位置をより下側にすることにより、利用者30は視線を動かさずに第1画像11を見ることが可能になる。
 コントローラ5は、第1画像11として、例えばスピードメータを表示させる。速度が速いほど第1画像11が上側に表示され、速度が低いほど第1画像11が下側に表示されることにより、利用者30は第1画像11の詳細を見なくとも、およその速度を知覚することができる。
(マルチ画像表示可能なヘッドアップディスプレイシステム)
 複数の画像を表示することが可能な、本開示に係るHUDシステム1Aが、図4に示される。HUDシステム1Aは、ヘッドアップディスプレイ2Aと検出装置3とを含む。HUDシステム1Aのヘッドアップディスプレイ2Aは、反射光学素子4Aと、コントローラ5Aと、表示パネル6Aと、取得部7Aと、入力部8Aと、視差光学素子13と、光学系14とを含んで構成される。反射光学素子4A、コントローラ5A、表示パネル6A、取得部7A、及び、入力部8Aは、それぞれ図1の反射光学素子4、コントローラ5、表示パネル6、取得部7、及び、入力部8と類似するので、異なる点について説明する。
 表示パネル6Aは、図5に示すように、面状に広がるアクティブエリアA上に第1領域51と第2領域52とを含む。第1領域51は、反射光学素子4Aの下端に近い側に位置する。第1領域51は、2次元画像を表示可能な領域である。第2領域52は、利用者30に3次元画像として視認される視差画像を表示可能な領域である。視差画像は、後述する左眼画像と、右眼画像とを含む。右眼画像は、左眼画像に対して視差を有する。ヘッドアップディスプレイ2Aは、第1領域51に表示される第2画像と、第2領域52に表示される第3画像とを、それぞれ反射光学素子4Aに投光して、利用者30の視野内に表示させる。第2画像及び第3画像は、第1画像に含まれる。
 ヘッドアップディスプレイ2Aは、図1のヘッドアップディスプレイ2と同様に、利用者30の視野内に第2画像を表示することができる。以下に、ヘッドアップディスプレイ2Aによる第3画像の表示について説明する。
 表示パネル6は、図6に示すように面状に広がるアクティブエリアA上に複数の区画領域を有する。図6は、アクティブエリアAのうち、第2領域52を示す。図6において複数の区画領域の各々は、u軸方向及びu軸方向に直交するv軸方向に区画された領域である。u軸方向及びv軸方向に直交する方向はw軸方向と称される。u軸方向は水平方向と称されてよい。v軸方向は鉛直方向と称されてよい。w軸方向は奥行方向と称されてよい。u軸方向は、利用者30の視差方向に対応する方向である。
 複数の区画領域の各々には、1つのサブピクセルが対応する。アクティブエリアAは、u軸方向及びv軸方向に沿って格子状に配列された複数のサブピクセルを備える。各サブピクセルは、R(Red),G(Green),B(Blue)のいずれかの色に対応し、R,G,Bの3つのサブピクセルを一組として1ピクセルを構成することができる。1ピクセルとなる複数のサブピクセルは、3つに限られず、4つを含む他の数であってよい。1ピクセルとなる複数のサブピクセルは、R,G,Bの組み合わせに限られない。1ピクセルは、1画素と称されうる。1ピクセルを構成する複数のサブピクセルは、例えば、水平方向に並びうる。同じ色の複数のサブピクセルは、例えば、鉛直方向に並びうる。
 アクティブエリアAの第2領域52に配列された複数のサブピクセルは、コントローラ5の制御により、複数のサブピクセル群Pgを構成する。複数のサブピクセル群Pgは、u軸方向に繰り返して配列される。複数のサブピクセル群Pgは、v軸方向に同じ列に配列すること、及び、v軸方向にずらして配列することができる。例えば、複数のサブピクセル群Pgは、v軸方向においては、u軸方向に1サブピクセル分ずれた位置に隣接して繰り返して配列することができる。複数のサブピクセル群Pgは、所定の行数及び列数の複数のサブピクセルを含む。具体的には、複数のサブピクセル群Pgは、v軸方向にb個(b行)、u軸方向に2×n個(2×n列)、連続して配列された(2×n×b)個のサブピクセルP1~PN(N=2×n×b)を含む。図6に示す例では、n=6、b=1である。図6の第2領域52には、v軸方向に1個、u軸方向に12個、連続して配列された12個のサブピクセルP1~P12を含む複数のサブピクセル群Pgが配置される。図3に示す例では、一部のサブピクセル群Pgにのみ符号を付している。
 複数のサブピクセル群Pgは、コントローラ5が画像を表示するための制御を行う最小単位である。複数のサブピクセル群Pgに含まれる各サブピクセルは、識別符号P1~PN(N=2×n×b)で識別される。全てのサブピクセル群Pgの同じ識別符号を有する複数のサブピクセルP1~PN(N=2×n×b)は、コントローラ5によって同時期に制御される。同時期は、同時及び実質的同時を含む。同時期の制御は、同一の1のクロックの発生に基づく制御、および同じフレームでの制御を含む。例えば、コントローラ5は、複数のサブピクセルP1に表示させる画像を左眼画像から右眼画像に切り替える場合、全てのサブピクセル群Pgにおける複数のサブピクセルP1に表示させる画像を左眼画像から右眼画像に同時期に切り替えるように制御しうる。
 視差光学素子13は、図4に示すように、表示パネル6Aに沿って配置される。視差光学素子13は、表示パネル6Aの第2領域52からギャップgの距離だけ離れている。視差光学素子13は、表示パネル6Aに対して反射光学素子4A側に位置してよい。
 視差光学素子13は、複数のサブピクセルから射出される画像光の伝播方向を規定しうるように構成される光学素子である。視差光学素子13は、視差画像の視域32を実質的に規定することが可能に構成される。視域32は、利用者30の左眼31l及び右眼31rが、視差画像を3次元画像として見ることができる、空間的な範囲である。一例として、視差光学素子13は、図7に示すように、液晶シャッタとして構成することができる。液晶シャッタは、表示パネル6と類似に複数の画素Pで構成される。液晶シャッタである視差光学素子13は、各画素Pにおける光の透過率を制御可能に構成される。視差光学素子13の各画素Pは、光の透過率の高い状態と光の透過率の低い状態との間で、状態を切り替えることができる。以下において、光の透過率が高い複数の画素Pを、開口した画素とよぶことがある。視差光学素子13の複数の画素Pは、表示パネル6の複数のサブピクセルに対応してよい。視差光学素子13の複数の画素Pは、色成分を有していない点で表示パネル6のサブピクセルとは異なる。
 視差光学素子13は、コントローラ5の制御により、複数の透光領域13aと複数の減光領域13bとを有する。視差光学素子13が液晶シャッタの場合、透光領域13aは、光の透過率の高い画素Pにより構成される。減光領域13bは、光の透過率の低い画素Pにより構成される。複数の減光領域13bは、視差光学素子13の面内の所定方向に伸びる複数の帯状領域である。複数の減光領域13bは互いに隣接する2つの減光領域13bの間に、透光領域13aを画定する。複数の透光領域13aと複数の減光領域13bとは、アクティブエリアAに沿う所定方向に延び、所定方向と直交する方向に繰り返し交互に配列される。複数の透光領域13aは、複数の減光領域13bに比べて光透過率が高い。複数の透光領域13aの光透過率は、複数の減光領域13bの光透過率の10倍以上、好適には100倍以上、より好適には1000倍以上としうる。複数の減光領域13bは、複数の透光領域13aに比べて光透過率が低い。複数の減光領域13bは、画像光を遮光してよい。
 複数の透光領域13a及び複数の減光領域13bの延びる方向は、表示パネル6Aの複数のサブピクセル群Pgの並ぶ方向とすることができる。視差光学素子13は、利用者30の左眼31l及び右眼31rから見たとき、異なる複数のサブピクセル群Pgの同じ識別符号P1~P12で識別される複数のサブピクセルが、同時に透光及び減光されるように制御される。
 光学系14は、表示パネル6Aの第2領域52を出射した第3画像の画像光を、反射光学素子4Aに向けて伝播させる。光学系14は、所定の正の屈折率を有してよい。光学系14が正の屈折率を有することにより、第2領域52の第3画像は、利用者30の視野内に反射光学素子4Aより遠くに位置する拡大虚像として投影される。光学系14は凸レンズ及び/又は凹面鏡を含んでよい。
 表示パネル6Aの第2領域52から射出された第3画像の画像光の一部は、複数の透光領域13aを透過し、光学系14を介して反射光学素子4Aに到達する。反射光学素子4Aに到達した画像光は反射光学素子4Aに反射されて利用者30の左眼31l及び右眼31rに到達する。これにより、利用者30の左眼31l及び右眼31rは、反射光学素子4Aの前方に第2領域52に表示された画像の虚像である第2虚像V2を認識することができる。図8に示したように、利用者30は、見かけ上、視差光学素子13の虚像である第3虚像V3が、第2虚像V2からの画像光の方向を規定しているかのごとく、画像を認識する。
 このように、利用者30は、見かけ上、第3虚像V3を介して第2虚像V2を視認するかのごとく第3画像を認識している。実際には視差光学素子13の虚像である第3虚像V3は、視認されない。しかし、以降においては、第3虚像V3は、見かけ上、視差光学素子13の虚像が形成される位置にあり、第2虚像V2からの画像光の伝播方向を規定するとみなされるものとして説明される。以降において、利用者30の左眼31lの位置に伝播する画像光によって利用者30が視認しうる第2虚像V2内の領域は左可視領域VaLと称される。利用者30の右眼31rの位置に伝播する画像光によって利用者30が視認しうる第2虚像V2内の領域は右可視領域VaRと称される。
 図8に示される虚像バリアピッチVBp及び虚像ギャップVgは、適視距離Vdを用いた次の式(1)及び式(2)が成り立つように規定される。
 E:Vd=(n×VHp):Vg            式(1)
 Vd:VBp=(Vdv+Vg):(2×n×VHp)  式(2)
 虚像バリアピッチVBpは、第3虚像V3として投影された複数の減光領域12bのu軸方向に対応するx軸方向の配置間隔である。虚像ギャップVgは、第3虚像V3と第2虚像V2との間の距離である。適視距離Vdは、利用者30の左眼31l及び右眼31rそれぞれの位置と視差光学素子13の虚像である第3虚像V3との間の距離である。眼間距離Eは、左眼31lと右眼31rとの間の距離である。眼間距離Eは、例えば、産業技術総合研究所の研究によって算出された値である61.1mm~64.4mmであってよい。VHpは、複数のサブピクセルの虚像の水平方向の長さである。VHpは、第2虚像V2における1つのサブピクセルの虚像の、x軸方向に対応する方向の長さである。
 図8に示す左可視領域VaLは、上述のように、視差光学素子13の複数の透光領域13aを透過した画像光が利用者30の左眼31lに到達することによって、利用者30の左眼31lが視認する第2虚像V2の領域である。右可視領域VaRは、上述のように、視差光学素子13の複数の透光領域13aを透過した画像光が利用者30の右眼31rに到達することによって、利用者30の右眼31rが視認する第2虚像V2の領域である。
 一例として、視差光学素子13の開口率が50%の場合、利用者30の左眼31lから見た第2虚像V2の複数のサブピクセルの虚像の配置を図9に示す。第2虚像V2上の複数のサブピクセルの虚像には、図6で示した複数のサブピクセルと同じ識別符号P1からP12を付している。開口率が50%のとき、視差光学素子13の複数の透光領域13aと複数の減光領域13bとは、等しい眼間方向(x軸方向)の幅を有する。第2虚像V2の一部は第3虚像V3により減光され複数の左減光領域VbLとなっている。複数の左減光領域VbLは、視差光学素子13の複数の減光領域13bによって画像光が減光されることによって、利用者30の左眼31lが視認し難い領域である。
 利用者30の左眼31lからみて左可視領域VaL及び左減光領域VbLが図9のように位置する場合、利用者30の右眼31rから見た第2虚像V2の複数のサブピクセルの配置を図10に示す。第2虚像V2の一部は第3虚像V3により減光された複数の右減光領域VbRとなっている。複数の右減光領域VbRは、視差光学素子13の複数の減光領域13bによって画像光が減光されることによって、利用者30の右眼31rが視認し難い領域である。
 視差光学素子13の開口率が50%の場合、複数の左可視領域VaLは複数の右減光領域VbRに一致しうる。複数の右可視領域VaRは複数の左減光領域VbLに一致しうる
。視差光学素子13の開口率が50%未満の場合、複数の左可視領域VaLは複数の右減光領域VbRに含まれうる。複数の右可視領域VaRは複数の左減光領域VbLに含まれうる。このため、複数の右可視領域VaRは、左眼31lからは見えづらい。複数の左可視領域VaLは、右眼31rからは見えづらい。
 図9および図10の例では、左可視領域VaLには、第2領域52に配列された複数のサブピクセルP1からP6の虚像が含まれる。利用者30の左眼31lは、第2領域52に配列された複数のサブピクセルP7からP12の虚像を視認し難い。右可視領域VaRには、第2領域52に配列された複数のサブピクセルP7からP12の虚像が含まれる。利用者30の右眼31rは、第2領域52に配列された複数のサブピクセルP1からP6の虚像を視認し難い。コントローラ5は、複数のサブピクセルP1からP6に左眼画像を表示させることができる。コントローラ5は、複数のサブピクセルP7からP12に右眼画像を表示させることができる。このようにすることによって、利用者30の左眼31lは、複数の左可視領域VaLの左眼画像の虚像を視認する。利用者30の右眼31rは、複数の右可視領域VaRの右眼画像の虚像を視認する。上述したように、右眼画像及び左眼画像は互いに視差を有する視差画像である。そのため、利用者30は、右眼画像及び左眼画像を3次元画像として視認することができる。
 利用者30の眼31の位置が変化すると、利用者30の左眼31l及び右眼31rから虚像を視認することができる複数のサブピクセルP1からP12の範囲は変化する。コントローラ5は、取得部7Aを介して、検出装置3により検出された利用者30の左眼31l及び右眼31rの位置情報を取得することができるように構成されている。コントローラ5は、利用者30の左眼31lの位置に応じて、左眼画像を表示する複数のサブピクセルP1からP6が、左眼31lから視認されるように、視差光学素子13を制御する。コントローラ5は、利用者30の右眼31rの位置に応じて、右眼画像を表示する複数のサブピクセルP7からP12が、右眼31rから視認されるように、視差光学素子13を制御する。
 例えば、図9及び図10に示すように第2虚像V2を観察している状態において、利用者30の左眼31l及び右眼31rが相対的に左に移動した場合、視差光学素子13の虚像である第3虚像V3は、見かけ上右へ移動する。図11は、図7の状態から利用者30の左眼31lが左に移動した場合の、利用者30から視認される第2虚像V2を示している。利用者30の左眼30lの位置が左に移動することにより、複数の左可視領域VaL及び複数の左減光領域VbLは、右に移動する。
 図11の場合、複数のサブピクセルP2からP6の全体と、複数のサブピクセルP1及びP7の一部が、複数の左可視領域VaLに含まれる。複数のサブピクセルP8からP12の全部と複数のサブピクセルP7及びP1の一部が右可視領域VaRに含まれる。コントローラ5は、左眼画像を表示する複数のサブピクセルP1~P6の最も多くの部分が、複数の左可視領域VaLに位置するように、視差光学素子13を制御する。例えば、図11の状態から、利用者30の左眼30lが更に左に移動し、複数のサブピクセルP1より複数のサブピクセルP7の部分がより多く複数の左可視領域VaLに含まれると、コントローラ5は視差光学素子13の開口している画素Pを切り替えてよい。この場合、コントローラ5は、左可視領域VaLの左側に隣接して虚像が位置している視差光学素子13の光の透過率が低い画素を、開口した画素に切り替える。コントローラ5は、左減光領域VbLの左側に隣接して虚像が位置している視差光学素子13の開口した画素を、光の透過率が低い画素に切り替える。コントローラ5は、開口している画素Pを切り替えることにより、左眼画像を表示するサブピクセルP1~P6が、利用者30の左眼30lに最もよく視認される状態を維持する。コントローラ5は、右眼31rに関しても、視差光学素子13に対して同様な制御を行う。
 他の実施形態において、視差光学素子13の開口率は50%より低くてもよい。例えば、図6のように、第2領域52の1つのサブピクセル群Pgが12のサブピクセルP1~P12より構成される場合、コントローラ5は、1つのサブピクセル群Pg中の光の透過率が高いサブピクセルの数が常に5つになるように制御してよい。その場合、コントローラ5は、図11のような状態から、サブピクセルP7からの画像光を減光するように、視差光学素子13を制御して光の透過率の低い画素Pを各左減光領域VbLの左側にさらに1つ配置しうる。
 複数の実施形態の一つにおいて、ヘッドアップディスプレイ2Aは、利用者30に対して上述の如く第3画像を3次元画像として表示する第1状態と、2次元画像として表示する第2状態とを切り替え可能に構成されてよい。第1状態において、コントローラ5は、表示パネル6Aに視差画像を表示させるとともに、視差光学素子13に画像光の伝播方向を規定する透光領域13a及び減光領域13bを表示させる。第2状態において、コントローラ5は、表示パネル6Aに2次元の画像を表現する2次元画像を表示させるとともに、視差光学素子13を全体に透光状態として画像光を均一に透過させる。コントローラ5は、表示パネル6Aと視差光学素子13との状態の切り替えを同期させて制御する。これにより、ヘッドアップディスプレイ2Aは、利用者30に対して、第3画像として、適宜2次元画像と3次元画像との何れかを選択して表示することが可能になる。
 以上のような構成により、HUDシステム1Aは、図12に示すように、利用者30から見て反射光学素子4A上に、第2画像61と第3画像62とを表示することができる。第2画像61は、表示パネル6Aの第1領域51に対応する第1表示領域63に、2次元画像として表示される。第3画像62は、表示パネル6Aの第2領域52に対応する第2表示領域64に、3次元画像として表示される。第3画像62は、2次元画像と3次元画像との間で切り替えることもできる。
 コントローラ5は、取得部7Aから取得する利用者30の左眼31l及び右眼31rの位置情報に応じて、第2画像61及び第3画像62を表示する位置を変更することができる。コントローラ5は、利用者30の左眼31l及び右眼31rの位置情報に応じて、第2画像61と第3画像62の何れか一方のみの表示する位置を変更してよい。例えば、コントローラ5は、利用者30の左眼31l及び右眼31rの位置情報に応じて、表示パネル6Aに第2画像61を表示する位置を変更し、表示パネル6Aに第3画像62を表示する位置を変更しないことも可能である。このようにすることによって、利用者30の左眼31l及び右眼31rの位置が低くなった場合、利用者30から見て下側に位置する第2画像61のみの位置が、利用者の視認可能な位置に変更されることができる。
 コントローラ5は、入力部8Aから入力を受ける移動体20の速度に応じて、第2画像61及び第3画像62を表示する位置を変更することができる。コントローラ5は、移動体20の速度に応じて、第2画像61と第3画像62の何れか一方のみの表示する位置を変更してよい。例えば、コントローラ5は、速度に応じて、表示パネル6Aに第2画像61を表示する位置を変更し、表示パネル6Aに第3画像62を表示する位置を変更しないことも可能である。このようにすることによって、移動体20の速度が速くなった場合、利用者30から見て下側に位置する第2画像61のみの位置が、利用者の視線方向に合わせてより上側に変更されることができる。
 上述の実施形態は代表的な例として説明したが、本開示の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本開示は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形および変更が可能である。例えば、実施形態および実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。
 本開示の実施形態では、視差光学素子として液晶シャッタを用いた。視差光学素子は、液晶シャッタに限られず、視差画像の視域を実質的に規定することが可能な他の光学素子を使用することができる。例えば、視差光学素子として、複数のスリット状の開口部が平行に配列された板状のパララックスバリアを用いることができる。複数のスリット状の開口部は、視差画像の右眼画像を右眼に向かう光路の方向に透過させ、左眼画像を左眼に向けて透過させる。視差光学素子として、上述のような開口部が固定されたパララックスバリアを使用する場合、コントローラは、利用者の頭の動きに応じて、第2表示パネルの左眼画像を表示する複数のサブピクセルと右眼画像を表示する複数のサブピクセルを切り替えることができる。そのようにすることにより、コントローラは、利用者の眼の位置の動きに関わらず、利用者に対して3次元画像を表示し続けることができる。
 視差光学素子としては、複数のレンチキュラレンズが平行に平面状に配列された光学部材を用いることができる。複数のレンチキュラレンズは、第2表示パネル上に交互に表示される視差画像の左眼画像と右眼画像とを、それぞれ右眼と左眼とに向かう光路に向けて偏向することができる。
 本開示は次の実施の形態が可能である。
 本開示の一実施形態に係るヘッドアップディスプレイは、表示パネルと、反射光学素子と、コントローラと、取得部とを含む。前記表示パネルは、第1画像を表示するように構成される。前記反射光学素子は、前記表示パネルが表示する前記第1画像の画像光を反射するように構成される。前記コントローラは、前記表示パネル上の前記第1画像を表示する位置を制御するように構成される。前記取得部は、利用者の眼の位置を位置情報として取得可能に構成される。前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成されている。
 本開示の一実施形態に係るヘッドアップディスプレイシステムは、ヘッドアップディスプレイと、検出装置とを備える。前記検出装置は、利用者の眼の位置を位置情報として検出するように構成される。前記ヘッドアップディスプレイは、表示パネルと、反射光学素子と、コントローラと、取得部とを含む。前記表示パネルは、第1画像を表示するように構成される。前記反射光学素子は、前記表示パネルが表示する前記第1画像の画像光を反射するように構成される。前記コントローラは、前記表示パネル上の前記第1画像を表示する位置を制御するように構成される。前記取得部は、前記位置情報を前記検出装置から取得可能に構成される。前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成されている。
 本開示の一実施形態に係る移動体は、ヘッドアップディスプレイシステムを備える。前記ヘッドアップディスプレイシステムは、ヘッドアップディスプレイと、検出装置とを備える。前記検出装置は、利用者の眼の位置を位置情報として検出するように構成される。前記ヘッドアップディスプレイは、表示パネルと、反射光学素子と、コントローラと、取得部とを含む。前記表示パネルは、第1画像を表示するように構成される。前記反射光学素子は、前記表示パネルが表示する前記第1画像の画像光を反射するように構成される。前記コントローラは、前記表示パネル上の前記第1画像を表示する位置を制御するように構成される。前記取得部は、前記位置情報を前記検出装置から取得可能に構成される。前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成されている。
 本開示の実施形態によれば、利用者の眼の位置に応じて見易い画像を提供できることができる。
 以上、本開示の実施形態について詳細に説明したが、また、本開示は上述の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲内において、種々の変更、改良等が可能である。上記各実施形態をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。
 1、1A ヘッドアップディスプレイシステム(HUDシステム)
 2、2A ヘッドアップディスプレイ
 3   検出装置
 4,4A 反射光学素子
 4a  第1反射領域
 4b  第2反射領域
 5   コントローラ
 6   表示パネル
 7、7A 取得部
 8、8A 入力部
 9   ECU
 11  第1画像
 12  画像表示領域
 13  視差光学素子
 13a 透光領域
 13b 減光領域
 14  光学系
 20  移動体
 30  利用者
 31L 左眼
 31R 右眼
 32  視域
 51  第1領域
 52  第2領域
 61  第2画像
 62  第3画像
 63  第1表示領域
 74  第2表示領域
 A   アクティブエリア
 P   画素
 Pg  サブピクセル群
 V1  第1虚像
 V2  第2虚像
 V3  第3虚像
VaL  左可視領域
VbL  左減光領域
VaR  右可視領域
VbR  右減光領域

Claims (13)

  1.  第1画像を表示するように構成された表示パネルと、
     前記表示パネルが表示する前記第1画像の画像光を反射するように構成された反射光学素子と、
     前記表示パネル上の前記第1画像を表示する位置を制御するように構成されるコントローラと、
     利用者の眼の位置を位置情報として取得可能に構成された取得部と、を含み、
     前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成されている、ヘッドアップディスプレイ。
  2.  前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を前記利用者が前記第1画像を視認可能な範囲に限定するように構成されている、請求項1に記載のヘッドアップディスプレイ。
  3.  移動体に搭載されるヘッドアップディスプレイであって、前記移動体の速度の入力を受ける入力部をさらに備え、前記コントローラは、前記速度に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成される、請求項1または2に記載のヘッドアップディスプレイ。
  4.  前記コントローラは、前記速度が速いほど前記利用者の視野内で前記第1画像が上側に視認されるように、前記表示パネルに前記第1画像を表示する位置を変更するように構成される、請求項3に記載のヘッドアップディスプレイ。
  5.  前記コントローラは、前記速度が遅いほど前記利用者の視野内で前記第1画像が下側に視認されるように、前記表示パネルに前記第1画像を表示する位置を変更するように構成される、請求項3または4に記載のヘッドアップディスプレイ。
  6.  前記第1画像は、第2画像と、第3画像とを含み、
     前記コントローラは、
      前記速度に応じて、前記表示パネルに前記第2画像を表示する位置を変更し、
      前記速度に応じて、前記表示パネルに前記第3画像を表示する位置を変更しないように構成される、請求項3から5の何れか一項に記載のヘッドアップディスプレイ。
  7.  前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第2画像を表示する位置を変更するように構成される、請求項6に記載のヘッドアップディスプレイ。
  8.  前記反射光学素子は、入射した画像光の一部を反射し、当該画像光の他の一部を透過するように構成された第1反射領域を含む、請求項1から7の何れか一項に記載のヘッドアップディスプレイ。
  9.  前記コントローラは、前記第1反射領域に、前記第1画像の少なくとも一部を投光するように制御可能に構成されている、請求項8に記載のヘッドアップディスプレイ。
  10.  前記反射光学素子は、入射した画像光の一部を反射し、当該画像光の他の一部を実質的に遮光するように構成された第2反射領域を含む、請求項1から9の何れか一項に記載のヘッドアップディスプレイ。
  11.  前記コントローラは、前記第2反射領域に、前記第1画像の少なくとも一部を投光するように制御可能に構成されている、請求項10に記載のヘッドアップディスプレイ。
  12.  ヘッドアップディスプレイと、
     利用者の眼の位置を位置情報として検出するように構成される検出装置と、
    を備え、
     前記ヘッドアップディスプレイは、
      第1画像を表示するように構成された表示パネルと、
      前記表示パネルが表示する前記第1画像の画像光を反射するように構成された反射光学素子と、
      前記表示パネル上の前記第1画像を表示する位置を制御するように構成されるコントローラと、
      前記位置情報を前記検出装置から取得可能に構成された取得部と、を含み、
     前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成されている、ヘッドアップディスプレイシステム。
  13.  ヘッドアップディスプレイと、利用者の眼の位置を位置情報として検出するように構成される検出装置とを含み、前記ヘッドアップディスプレイは、第1画像を表示するように構成された表示パネルと、前記表示パネルが表示する前記第1画像の画像光を反射するように構成された反射光学素子と、前記表示パネル上の前記第1画像を表示する位置を制御するように構成されるコントローラと、前記位置情報を前記検出装置から取得可能に構成された取得部とを有し、前記コントローラは、前記位置情報に応じて、前記表示パネルに前記第1画像を表示する位置を変更するように構成されている、ヘッドアップディスプレイシステムを備える移動体。
PCT/JP2020/042682 2019-11-27 2020-11-16 ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体 WO2021106664A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20893077.6A EP4067150A4 (en) 2019-11-27 2020-11-16 HEAD-UP DISPLAY, HEAD-UP DISPLAY SYSTEM AND MOVING BODY
US17/779,990 US11961429B2 (en) 2019-11-27 2020-11-16 Head-up display, head-up display system, and movable body
CN202080082040.9A CN114728587A (zh) 2019-11-27 2020-11-16 平视显示器、平视显示器系统以及移动体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019214703A JP7250666B2 (ja) 2019-11-27 2019-11-27 ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
JP2019-214703 2019-11-27

Publications (1)

Publication Number Publication Date
WO2021106664A1 true WO2021106664A1 (ja) 2021-06-03

Family

ID=76086751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/042682 WO2021106664A1 (ja) 2019-11-27 2020-11-16 ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体

Country Status (5)

Country Link
US (1) US11961429B2 (ja)
EP (1) EP4067150A4 (ja)
JP (1) JP7250666B2 (ja)
CN (1) CN114728587A (ja)
WO (1) WO2021106664A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06144082A (ja) * 1992-11-13 1994-05-24 Yazaki Corp 車両用表示装置
JPH0891094A (ja) * 1994-09-26 1996-04-09 Asahi Glass Co Ltd 乗り物用表示システム
JP2009008722A (ja) 2007-06-26 2009-01-15 Univ Of Tsukuba 3次元ヘッドアップディスプレイ装置
JP2016170052A (ja) * 2015-03-13 2016-09-23 日本精機株式会社 目検出装置及び車両用表示システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4886751B2 (ja) 2008-09-25 2012-02-29 株式会社東芝 車載用表示システム及び表示方法
JP2010143520A (ja) * 2008-12-22 2010-07-01 Toshiba Corp 車載用表示システム及び表示方法
JP6292320B2 (ja) * 2014-12-25 2018-03-14 株式会社Jvcケンウッド 表示システム
EP3415373B1 (en) * 2016-02-10 2020-10-07 Ricoh Company, Ltd. Information providing device
JP6643969B2 (ja) * 2016-11-01 2020-02-12 矢崎総業株式会社 車両用表示装置
JP6987341B2 (ja) * 2017-10-24 2021-12-22 マクセル株式会社 情報表示装置およびその空間センシング装置
JP6928570B2 (ja) * 2018-03-22 2021-09-01 マクセル株式会社 情報表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06144082A (ja) * 1992-11-13 1994-05-24 Yazaki Corp 車両用表示装置
JPH0891094A (ja) * 1994-09-26 1996-04-09 Asahi Glass Co Ltd 乗り物用表示システム
JP2009008722A (ja) 2007-06-26 2009-01-15 Univ Of Tsukuba 3次元ヘッドアップディスプレイ装置
JP2016170052A (ja) * 2015-03-13 2016-09-23 日本精機株式会社 目検出装置及び車両用表示システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4067150A4

Also Published As

Publication number Publication date
CN114728587A (zh) 2022-07-08
EP4067150A4 (en) 2023-12-27
US11961429B2 (en) 2024-04-16
JP7250666B2 (ja) 2023-04-03
EP4067150A1 (en) 2022-10-05
JP2021084523A (ja) 2021-06-03
US20230005399A1 (en) 2023-01-05

Similar Documents

Publication Publication Date Title
JP7100523B2 (ja) 表示装置、表示システムおよび移動体
WO2021106688A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2021106690A1 (ja) ヘッドアップディスプレイシステムおよび移動体
WO2021106689A1 (ja) ヘッドアップディスプレイシステム及び移動体
WO2021059997A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、移動体及びヘッドアップディスプレイの設計方法
WO2021106664A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
JP7336782B2 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
WO2021106663A1 (ja) ヘッドアップディスプレイモジュール、ヘッドアップディスプレイシステム及び移動体
WO2021106665A1 (ja) ヘッドアップディスプレイシステムおよび移動体
WO2022149599A1 (ja) 3次元表示装置
WO2021060011A1 (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
WO2021060012A1 (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
WO2022019154A1 (ja) 3次元表示装置
JP2021056255A (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
JP2022055171A (ja) 3次元表示装置、3次元表示方法、3次元表示システム、および移動体
CN114667475A (zh) 平视显示器以及移动体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20893077

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020893077

Country of ref document: EP

Effective date: 20220627