WO2020021823A1 - ヘッドアップディスプレイ - Google Patents

ヘッドアップディスプレイ Download PDF

Info

Publication number
WO2020021823A1
WO2020021823A1 PCT/JP2019/019533 JP2019019533W WO2020021823A1 WO 2020021823 A1 WO2020021823 A1 WO 2020021823A1 JP 2019019533 W JP2019019533 W JP 2019019533W WO 2020021823 A1 WO2020021823 A1 WO 2020021823A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
camera
display
head
Prior art date
Application number
PCT/JP2019/019533
Other languages
English (en)
French (fr)
Inventor
長平 小野
昭央 三沢
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to US17/261,182 priority Critical patent/US11280999B2/en
Priority to CN201980049245.4A priority patent/CN112470060A/zh
Priority to JP2020532175A priority patent/JP7024088B2/ja
Publication of WO2020021823A1 publication Critical patent/WO2020021823A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/23
    • B60K35/60
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/08Mirrors
    • G02B5/10Mirrors with curved faces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/18Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
    • G02B7/182Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • B60K2360/149
    • B60K2360/21
    • B60K2360/23
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • G02B2027/012Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility comprising devices for attenuating parasitic image effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to a head-up display.
  • a vehicle such as an automobile
  • information such as a vehicle speed and an engine speed is displayed on an instrument panel (instrument panel) in a dashboard.
  • a screen such as a car navigation system is incorporated in a dashboard or displayed on a display installed on the dashboard. Since it is necessary for the driver to move his or her line of sight greatly when visually recognizing such information, as a technology for reducing the amount of movement of the line of sight, information such as vehicle speed and information such as instructions related to car navigation are provided on a windshield.
  • Wind Shield a head-up display (Head @ Up ⁇ Display, hereinafter sometimes referred to as "HUD" that projects and displays on a combiner or the like are already known.
  • HUD head-up display
  • Patent Literature 1 discloses that a head-up display device includes an eyeball position detecting unit that detects a user's eyeball position, and a first eyeball position detected by the eyeball position detecting unit.
  • Control means for calculating an image forming position of a display image based on the calculated light amount, an optical path adjusting means for adjusting an emission direction of visible light based on a calculation result of the control means, and storing the first eyeball position as a reference eyeball position.
  • a control unit wherein the control unit determines that the second eyeball position detected by the eyeball position detection unit after the time at which the first eyeball position is detected is equal to the reference eyeball position.
  • the imaging position of the display image is calculated based on the second eyeball position, and the optical path adjusting unit is driven based on the calculation result (summary) Excerpt) "HUD is open It is.
  • the viewpoint detection camera is installed near the ceiling near the dashboard or windshield. However, when the viewpoint detection camera is arranged on the dashboard, the image is taken at a position looking up at the driver, while when the camera is installed near the ceiling, the image is taken at a position looking down at the driver. It is desirable that the face image used for the viewpoint detection is a front image of the driver's face, but it is not preferable to dispose the viewpoint detection camera in front of the driver because the view is obstructed.
  • Patent Document 1 does not consider bringing the face image of the viewpoint detection camera close to the front image, and there is room for further improvement in the accuracy of viewpoint detection.
  • the present invention has been made in view of the above circumstances, and has as its object to provide a HUD capable of controlling a virtual image display position by improving viewpoint detection accuracy.
  • a head-up display that displays a virtual image in front of a vehicle, including a light source and a display element, displays a display object on the display element, and emits image light including the display object.
  • a display device a virtual image optical system that magnifies and projects the image light by changing the emission direction toward the projection target member, a housing that houses the image display device and the virtual image optical system, and is provided in the housing, A housing opening through which the image light is emitted from the housing; an anti-glare plate that covers the housing opening and transmits the image light; and a camera that images a face area including eyes of a driver of the vehicle.
  • a viewpoint detection device that detects the viewpoint of the driver based on the image captured by the camera, the video display device, the virtual image optical system, a main control device connected to each of the viewpoint detection device, Be prepared
  • the camera captures an image of a region including a face including the driver's eyes on the anti-glare plate at a position retreated from an optical path from which the image light is emitted from the housing opening outside the housing.
  • the main control device performs control to adjust the emission direction of the image light to the virtual image optical system based on a driver's viewpoint position detected by the viewpoint detection device.
  • FIG. 1 Schematic configuration diagram of HUD Enlarged configuration diagram of mirror drive unit Diagram showing the angle of view of the camera HUD system configuration diagram The figure which shows the relationship between a viewpoint and the reflection position in the windshield of the image light L, and a virtual image position. The flowchart which shows the flow of a process by HUD.
  • FIG. 1 Schematic configuration diagram of HUD Enlarged configuration diagram of mirror drive unit Diagram showing the angle of view of the camera HUD system configuration diagram The figure which shows the relationship between a viewpoint and the reflection position in the windshield of the image light L, and a virtual image position.
  • the flowchart which shows the flow of a process by HUD.
  • FIG. 7 is a diagram illustrating an image captured in a state where illuminance is different and a histogram showing a distribution of luminance values of each image; Diagram showing a state in which a concave mirror is rotated at a light blocking angle
  • Diagram showing the three-dimensional space coordinate system inside a vehicle Illustration of the amount of viewpoint movement accompanying the movement of the head by the driver Illustration of the amount of viewpoint movement accompanying the movement of the head by the driver Illustration of the amount of viewpoint movement accompanying the movement of the head by the driver Overview view showing the mounting position of the shutter in the HUD
  • Enlarged explanatory view of the shutter unit Diagram showing the state where the shutter is at the light blocking position
  • Diagram showing the state where the shutter is at the retracted position
  • the figure which shows another embodiment provided with the reflection member in the anti-glare plate.
  • FIG. 1 is a schematic configuration diagram of the HUD1.
  • a concave mirror 43 included in a virtual image optical system and a mirror driving unit 44 for rotating the concave mirror 43 are used as a light shielding member for opening and closing the optical path of the image light L.
  • the HUD 1 is provided in a dashboard 4 provided in the vehicle 2.
  • the dashboard 4 has a dashboard opening 7 for passing the image light L emitted from the HUD 1.
  • the video light L emitted from the HUD 1 passes through the dashboard opening 7 and reaches the windshield 3 as a projection member, is reflected by the windshield 3 and enters the eyes of the driver 5.
  • the driver 5 visually recognizes the virtual image 100 by the image light L further forward than the windshield 3.
  • the member to be projected is not limited to the windshield 3, and other members such as a combiner may be used as long as the image light L is projected.
  • the HUD 1 enlarges the housing 50, the HUD control device 20 (corresponding to a main control device) housed or mounted in the housing 50, the video display device 30, and the video light L emitted from the video display device 30. And a virtual image optical system 40 for projection.
  • a housing opening 51 serving as an exit of the image light L is formed on the upper surface of the housing 50.
  • the housing opening 51 is covered with an anti-glare plate (glare trap) 52 for preventing dust and dust from entering the housing 50.
  • the anti-glare plate 52 is formed of a member that transmits visible light.
  • the video display device 30 is configured using an LCD (Liquid Crystal Display) and operates according to a control signal from the HUD control device 20. More specifically, the video display device 30 is formed to include a light source 31, an illumination optical system 32, and a display element 33 that displays a display object and has transparency. When the light emitted from the light source 31 passes through the display element 33, the image light L including the display object is emitted from the image display device 30 (see FIG. 4).
  • LCD Liquid Crystal Display
  • the virtual image optical system 40 is configured by arranging a lens unit 41, a return mirror 42, and a concave mirror 43 along the emission direction of the image light L in order from a position near the image display device 30. Further, the virtual image optical system 40 includes a mirror driving unit 44 for rotating the concave mirror 43.
  • the lens unit 41 is an aggregate of at least one lens for adjusting the optical distance from the image display device 30 to the turning mirror 42.
  • the return mirror 42 is a mirror that returns the optical path of the image light L emitted from the lens unit 41 toward the concave mirror 43.
  • the concave mirror 43 is a member that reflects the image light L reflected by the folding mirror 42 toward the housing opening 51.
  • the concave mirror 43 is rotated by a mirror driving unit 44.
  • FIG. 2 is an enlarged configuration diagram of the mirror driving unit 44.
  • the mirror driving unit 44 includes a mirror motor 44a, a rotating shaft 44b of the mirror motor 44a, a mirror cover 45 that is connected to the tip of the rotating shaft 44b, and houses the concave mirror 43, and a mirror holder that is a bearing member for the rotating shaft 44b. 46.
  • the mirror motor 44a is connected to the HUD control device 20 via the bus 61. Then, the mirror motor 44a is driven according to a control signal from the HUD control device 20. When the mirror motor 44a is driven, the rotating shaft 44b rotates, and the mirror cover 45 connected to the rotating shaft 44b rotates. As a result, the concave mirror 43 rotates integrally with the mirror cover 45.
  • the reflection angle of the image light L can be changed and reflected toward the windshield 3.
  • the reflection position of the image light L on the windshield 3 changes, and the optical path length of the image light L can be changed.
  • the optical path length By changing the optical path length, the distance of the virtual image plane on which the virtual image 100 is displayed changes, and by changing the reflection position, the display height of the virtual image plane changes.
  • the dashboard 4 is provided with a light-shielding hood 10 at an end of the dashboard opening 7 on the windshield side to block direct sunlight from entering the HUD 1.
  • the camera 70 is installed in the light shielding hood 10 at a position and an orientation that include the anti-glare plate 52 in the angle of view.
  • the camera 70 is connected to the HUD control device 20 via the communication line 62, and an image captured by the camera 70 is output to a viewpoint detection device 700 (see FIG. 4) described later.
  • a viewpoint detection device 700 see FIG. 4 described later.
  • the image from the camera 70 is used for both the viewpoint detection process of the driver 5 and the process of monitoring the amount of direct sunlight incident on the HUD 1. Therefore, it is necessary that both the image of the driver 5 and the anti-glare plate 52 be captured in the image. Therefore, in the present embodiment, as shown in FIG. 3, the lens of the camera 70 is directed to the anti-glare plate 52, and the light reflected on the face surface including the eyes of the driver 5 is reflected by the windshield 3 to prevent the glare.
  • the light is mounted on the light-shielding hood 10 at the mounting position where the light reaches the plate 52 and is reflected on the surface of the anti-glare plate 52 to enter the lens of the camera 70 and the direction (angle of view) of the lens.
  • the mounting position of the camera 70 with respect to the anti-glare plate 52 and the orientation of the lens are one of the features of the HUD 1 according to the present embodiment.
  • the camera 70 is equipped with a near-infrared light source 70a such as an LED that emits near-infrared light and a CMOS 70b as an image sensor that detects light from near-infrared light to visible light.
  • a near-infrared light source 70a such as an LED that emits near-infrared light
  • CMOS 70b as an image sensor that detects light from near-infrared light to visible light.
  • Near infrared light is used for the viewpoint detection processing. That is, the near-infrared light generated from the near-infrared light source 70a mounted on the camera 70 reaches the face surface (face area) including the eyes of the driver 5 and is reflected, and the reflected near-infrared light is prevented. The light reaches the glare plate 52, is reflected again toward the CMOS 70b, and enters the CMOS 70b.
  • the camera 70 generates and outputs a face image of the driver 5 based on a near-infrared light image based on the output from the CMOS 70b.
  • the viewpoint of the driver 5 can be detected, for example, even at night, in a tunnel, or in an underground parking lot.
  • visible light is used for monitoring the amount of sunlight incident.
  • the visible light reaching the anti-glare plate 52 enters the CMOS 70b from the anti-glare plate 52. Based on the output from the CMOS 70b, the camera 70 generates and outputs an outer surface image of the anti-glare plate 52 using a visible light image.
  • FIG. 3 is a diagram showing the angle of view of the camera 70.
  • the line of sight of the driver 5 who views the virtual image 100 has a depression angle (for example, 1 ° to 5 °) with respect to the horizontal direction. Therefore, when the driver 5 is imaged by aligning the optical axis of the camera 70 with the optical path of the image light L, the driver 5 is imaged in a prone state, and the coordinates of the eyes are compared with the case where the line of sight is directed horizontally. Detection accuracy decreases.
  • the camera 70 is configured to image the face surface including the eyes at an angle close to the horizontal (an angle closer to the horizontal than the image of the eyes along the optical axis of the image light L).
  • the camera 70 is installed in the direction and position where the optical axis of the camera is aligned.
  • the camera 70 is installed such that the optical axis of the camera 70 is incident toward the center of the eye point of the driver 5 at an angle within an allowable range that can be regarded as horizontal with respect to the horizontal axis.
  • the driver's 5 eyes can be imaged in a direction close to the horizontal direction, and an image close to the front image can be output. Therefore, an improvement in the accuracy of the viewpoint detection processing in step S20 described below can be expected.
  • FIG. 4 is a system configuration diagram of the HUD1.
  • the HUD control device 20 includes a first ECU (Electric Control Unit) 21 and a first nonvolatile memory 22, a first memory 23, a light source adjustment unit 24, a distortion correction unit 25, and a display element connected to the first ECU 21 via a system bus. It includes a driving unit 26, a first CAN communication unit 27 (CAN: Controller Area Network), a mirror adjustment unit 28, and a timer 29.
  • the first CAN communication unit 27 is connected to the viewpoint detection device 700 via the CAN.
  • the light source adjusting unit 24 is connected to the light source 31, the display element driving unit 26 is connected to the display element 33, and the mirror adjusting unit 28 is connected to the mirror motor 44a.
  • the first ECU 21 acquires the vehicle information 9 such as the speed and the engine speed from the first CAN communication unit 27 via the CAN provided in the vehicle 2, and displays a display object including the vehicle information 9 as a virtual image 100.
  • the viewpoint detection device 700 includes a second ECU 701, a camera control unit 702, a second CAN communication unit 703, a second nonvolatile memory 704, and a second memory 705.
  • the input stage of the second ECU 701 is connected to the output stage of the camera 70, and the image of the camera 70 is transmitted from the second CAN communication unit 703 to the HUD control device 20 via the second ECU 701.
  • the second ECU 701 is connected to each of the camera control unit 702, the second nonvolatile memory 704, and the second memory 705.
  • FIG. 5 is a diagram illustrating a relationship between a viewpoint and a reflection position of the image light L on the windshield 3 and a virtual image position.
  • the viewpoint detection device 700 detects the viewpoint using the image of the camera 70, controls the rotation angle (inclination angle) of the concave mirror 43 in accordance with the detected viewpoint of the driver 5, and The control for adjusting the display position of the virtual image 100 projected on the windshield 3 is performed.
  • the rotation (inclination) position of the concave mirror 43, the projection position of the virtual image 100 on the windshield 3, and the driver 5 correspond to the viewpoint positions A, B, and C of the driver 5. Are shown by A, B, and C, respectively.
  • the above control is realized, for example, by the second CAN communication unit 703 of the viewpoint detection device 700 notifying the HUD control device 20 of the viewpoint information, and the HUD control device 20 rotating the concave mirror 43.
  • this viewpoint detection device 700 acquisition of information from the camera 70 is performed under the control of the second ECU 701.
  • the HUD control device 20 the acquisition of the vehicle information 9, the control of the video display device 30, and the driving of the concave mirror 43 are performed under the control of the first ECU 21.
  • the present invention is not necessarily limited to these, and another type of device may be provided.
  • FIG. 6 is a flowchart showing the flow of processing by HUD1.
  • One feature of the HUD1 is that the image of the camera 70 is used for the process of adjusting the virtual image position in accordance with the viewpoint of the driver 5 and the process of monitoring the amount of sunlight incident on the HUD1.
  • the camera 70 starts imaging (S11), and outputs the captured image to the viewpoint detection device 700.
  • This image shows the emission region 52a of the image light L on the anti-glare plate 52 (see FIG. 15), and the whole or a part of the face including the eyes of the driver 5 reflected in the emission region 52a of the image light L Is also included as a subject.
  • the near-infrared light reflected from the face surface of the driver 5 reaches a position different from the emission region 52a in the anti-glare plate 52, the area where the near-infrared light reaches is included in the angle of view of the camera 70, Take an image.
  • the second ECU 701 of the viewpoint detection device 700 acquires an image from the camera 70 and performs a viewpoint detection process (S20). The details will be described later.
  • the second ECU 701 calculates a viewpoint movement amount that is a difference between the viewpoint position obtained in step S20 and the viewpoint position used when the display position of the virtual image 100 is determined in the current HUD1 (S21), and the HUD control device 20 Send to The details will be described later.
  • the second ECU 701 calculates the luminance value of the image of the camera 70 (S30).
  • the second ECU 701 calculates the luminance value of the entire image as an example. It may be detected.
  • FIG. 7 is a diagram showing images captured in a state where the illuminance is different and a histogram showing a distribution of luminance values of each image.
  • the second histogram indicating the distribution of the brightness values of the image.
  • Reference numeral 222 indicates that the peak value is not large and the luminance value is dispersed.
  • the area of the second histogram 222 (colored portion in the figure) indicates the total number of pixels of the image, and the area of each of the first histogram 221 and the third histogram 223 described later is the area of the second histogram 222. Same as area.
  • the first histogram 221 showing the distribution of the luminance values of the first image 211 captured in a dark place has a large number of pixels with dark luminance values.
  • the second ECU 701 obtains the luminance value of each image as an integrated value of (luminance value ⁇ frequency), and outputs the integral value to the HUD control device 20.
  • FIG. 8 is a view showing a state in which the concave mirror 43 is rotated to a light shielding angle.
  • the image light L is no longer emitted toward the anti-glare plate 52, so that the display of the virtual image 100 disappears.
  • the sunlight Sb incident from the anti-glare plate 52 passes through the concave mirror 43 and the folding mirror 42, and the image display device.
  • the light path reaching 30 can also be blocked.
  • the concave mirror 43 is rotating at the light-blocking angle, that is, when the luminance value of the image is already at or above the light-blocking threshold, (S44 / Yes), the first ECU 21 causes the mirror adjustment unit 28 to return (return) the mirror surface of the concave mirror 43 to the optical path of the image light L (S45).
  • step S45 or when the concave mirror 43 is not rotating at the light blocking angle (S44 / No), that is, when the mirror surface of the concave mirror 43 is on the optical path of the image light L, or when the elapsed time t is less than the time threshold (S42 / No), the first ECU 21 compares the movement amount of the viewpoint with a predetermined movement amount threshold or more (S46).
  • the first ECU 21 executes a mirror adjustment process (S47) for the mirror adjustment unit 28 to adjust the virtual image position to the viewpoint. More specifically, the mirror adjustment unit 28 outputs to the mirror motor 44a a signal for rotating the concave mirror 43 in accordance with the amount of movement of the viewpoint calculated in S21. Thereby, a virtual image can be displayed in accordance with the position of the viewpoint detected by the viewpoint detection device 700.
  • the first ECU 21 After the mirror adjustment processing (S47), or when the movement amount of the viewpoint is less than the movement amount threshold value (S46 / No), the first ECU 21 performs the distortion correction of the display object displayed as the virtual image 100 in the distortion correction unit 25, and The drive unit 26 displays the display object after the distortion correction on the display element 33. At the same time, the first ECU 21 causes the light source adjustment unit 24 to execute the lighting process of the light source 31 and causes the display element 33 to emit the image light L including the display object. The image light L is magnified in the virtual image optical system 40 and is projected on the windshield 3, and enters the eyes of the driver 5, whereby the virtual image 100 is displayed (S48).
  • FIG. 9 is a diagram showing a three-dimensional space coordinate system inside the vehicle 2.
  • the camera 70 is fixedly arranged inside the vehicle 2 at a position where the face (viewpoint) of the driver 5 can be imaged, in this embodiment, inside the light shielding hood 10 (see FIG. 3). At this time, the camera 70 is arranged at the center in the three-dimensional space coordinates inside the vehicle 2, the x axis is in the length direction of the vehicle 2 (the traveling direction of the vehicle), the y axis is in the vehicle width direction, and the z axis is Set in the height (vertical) direction.
  • FIG. 9 shows this state as viewed from above.
  • the camera 70 captures an image including the face (viewpoint) from the front of the driver 5 in a three-dimensional space in the vehicle around the camera 70.
  • reference numeral 71 indicates a shooting range of the camera 70.
  • the second ECU 701 detects an eye (viewpoint) from the two-dimensional camera image captured by the camera 70. Subsequently, the second ECU 701 obtains a straight line from the camera 70 (the origin of the three-dimensional space) toward the eyes (viewpoint) 5 of the driver 5 (that is, connecting the camera 70 and the viewpoint). Accordingly, it is possible to specify a straight line directed toward the eyes (viewpoint) of the driver 5 when viewed from the origin of the three-dimensional space that is the camera 70. In other words, if one point on the camera image (two-dimensional) (in the above description, the position of the eyes of the driver 5) is specified from the relationship between the installation direction of the camera 70 and the angle of view, Can be obtained in a three-dimensional space connecting. However, where the eye is located on the straight line cannot be limited.
  • a three-dimensional vertical plane (zx plane) passing through the center of the seat is obtained.
  • the viewpoint position is the eye of the driver 5.
  • a three-dimensional vertical plane (zx plane) passing through the center of the seat is separated from the camera 70 (origin) by the distance from the camera 70 (origin) to the center of the seat in the width direction of the vehicle 2 (y axis). The distance can be determined by presetting or measuring when the camera 70 is disposed inside the vehicle 2.
  • the second ECU 701 obtains the viewpoint coordinates (x d , y d , z d ) of the driver 5 by the above-described viewpoint detection processing based on the driver 5's face imaged by the camera 70, and obtains the second nonvolatile data. Stored in the memory 704. Then, the image is used for the viewpoint movement amount calculation processing (S21) using the image of the camera 70 photographed in the next sampling cycle.
  • FIG. 10A, FIG. 10B, and FIG. 10C are explanatory diagrams of the viewpoint movement amount accompanying the movement of the driver's head.
  • the direction of the face of the driver 5 (in three directions of roll, pitch, and yaw as indicated by arrows in the figure) is estimated based on the image captured by the camera 70, and the face is estimated. Is determined to be facing the front of the vehicle, the display position of the virtual image 100 is adjusted by adjusting the angle of the concave mirror 43 according to the viewpoint coordinates (x d , y d , z d ) of the driver 5 determined above. Execute Further, as shown in FIGS. 10B and 10C, when the face of the driver 5 is out of the front of the vehicle, the display position of the virtual image 100 is not adjusted by adjusting the angle of the concave mirror 43.
  • the 2ECU701 Since the display position of the virtual image 100, especially fit tremor head of the driver 5 in the present embodiment to suppress the change frequent, the 2ECU701 the previous viewpoint detection position (x dt, y dt, z dt) When this viewpoint detection position (x dt + 1, y dt + 1, z dt + 1) and the difference ( ⁇ x d, ⁇ y d, ⁇ z d) seek, ⁇ x d, ⁇ y d, either Delta] z d is When a predetermined moving amount threshold ⁇ x dth , ⁇ y dth , ⁇ z dth or more is set in order to determine that the head of the driver 5 has moved, the viewpoint moving amount information including ( ⁇ x d , ⁇ y d , ⁇ z d ) is HUD. Output to the control device 20.
  • the viewpoint of the driver 5 is detected and the display position of the virtual image 100 is adjusted according to the result, the visibility of the virtual image 100 can be improved.
  • the camera 70 used for the viewpoint detection is installed in the visual sense generated by the light shielding hood 10 as viewed from the driver 5, the aesthetic appearance in the vehicle 2 is improved.
  • the camera 70 captures the face of the driver 5 reflected on the anti-glare plate 52, the face image can be captured from almost the front, and the viewpoint can be detected with high accuracy.
  • the camera 70 can realize a function as a monitoring camera of the amount of sunlight incident on the HUD 1 and can reduce the number of parts as compared with a case where a monitoring member is separately prepared.
  • the camera 70 is provided at a position retracted from the optical path of the image light L of the HUD1, the incident amount of sunlight can be monitored even after the incident amount of sunlight becomes excessive and the optical path of the image light L is blocked, and the incident amount of sunlight can be monitored. Is less than the light-blocking threshold, the optical path of the image light L can be restored again.
  • a structure for shielding the optical path of the image light L a structure in which the mirror surface of the concave mirror 43 is retracted from the optical path of the image light L (the mirror surface of the concave mirror 43 is rotated at a light shielding angle from the optical path of the image light L).
  • 11 to 14 show a shutter structure as a light shielding structure for the image light L.
  • FIG. 11 is a schematic view showing a mounting position of the shutter 306 in the HUD 1a.
  • FIG. 12 is an enlarged explanatory view of the shutter unit 300.
  • FIG. 13 is a diagram illustrating a state in which the shutter 306 is at the light blocking position.
  • FIG. 14 is a diagram illustrating a state where the shutter 306 is at the retracted position.
  • the HUD 1a illustrated in FIG. 11 includes a shutter unit 300 that arranges or retracts the shutter 306 in front of the emission surface (the surface on the lens unit 41 side) of the image light L in the image display device 30.
  • the shutter unit 300 is connected to the HUD control device 20 via a bus 61. Then, the HUD control device 20 drives and controls the shutter unit 300 so that the shutter 306 is located at the light blocking position (see FIG. 13) in step S43 and the shutter 306 is located in the retracted position (see FIG. 14) in step S45. I do.
  • the shutter unit 300 includes a shutter 306 and a moving mechanism of the shutter 306, specifically, a shutter motor 301, a gear train 302, a lead screw 303, a shutter holder 304, a lead screw holder 305, and a sliding mechanism.
  • a guide 307 is provided.
  • the shutter motor 301 is communicatively connected to the HUD control device 20 via the bus 61.
  • the lead screw holder 305 and the sliding guide 307 are attached to the housing 50.
  • the rotation shaft of the shutter motor 301 is connected to the gear train 302, and one end of the lead screw 303 is connected to the gear train 302.
  • the other end of the lead screw 303 is held by the lead screw holder 305.
  • the surface of the lead screw 303 is threaded.
  • the shutter holder 304 holds the shutter 306.
  • a thread groove is formed at a position of the shutter holder 304 facing the lead screw 303. The thread of the lead screw 303 and the thread of the shutter holder 304 are engaged.
  • the sliding guide 307 is installed facing the lead screw 303 via the shutter 306.
  • a groove shape is provided on a surface of the sliding guide 307 facing the shutter holder 304.
  • the end of the shutter holder 304 facing the sliding guide 307 is inserted into the groove of the sliding guide 307, and the shutter holder 304 is moved when the shutter 306 moves from the retracted position to the light shielding position or from the light shielding position to the retracted position.
  • the wobble of the shutter 306 is suppressed, and stable movement can be performed.
  • the shutter motor 301 rotates forward or reverse accordingly.
  • the rotation axis of the shutter motor 301 rotates forward or backward
  • the lead screw 303 rotates forward or backward via the gear train 302.
  • the shutter holder 304 moves from the retracted position to the light shielding position or from the light shielding position to the retracted position along the thread of the lead screw 303.
  • the shutter 306 moves from the retracted position to the light shielding position or from the light shielding position to the retracted position.
  • the shutter unit 300 is disposed in front of the video display device 30.
  • the shutter unit 300 may be provided on the optical path of the video light L in the HUD 1a, and is not limited to the position in front of the video display device 30.
  • the mirror adjusting unit 28 drives the mirror driving unit 44 in step S45, but only the process of storing a flag indicating that the mirror surface is rotating at the light-shielding angle may be performed. Then, at the time of controlling the virtual image position in step S47, the concave mirror 43 may be returned at the same time. Thus, the number of times of driving the concave mirror 43 can be reduced.
  • the virtual image display process is performed.
  • the concave mirror 43 is rotated at a light shielding angle.
  • the generation of the image light L after rotating the concave mirror 43 at the light-shielding angle is a wasteful process that does not lead to the display of the virtual image 100. Therefore, after the step S43, the process of turning off the virtual image display, for example, turning off the light source 31 or the like. Alternatively, a process of hiding the display object on the display element 33 may be added. In that case, when the virtual image is displayed next time in step S48, the process of turning on the light source 31 and displaying the display object on the display element 33 is restarted.
  • FIG. 15 is a view showing another embodiment in which the anti-glare plate 52 is provided with the reflection member 52b.
  • a reflection member 52b that reflects natural light is provided in a region of the anti-glare plate 52 different from the emission region 52a of the image light L. Then, the reflection member 52 b reflects the natural light that has been reflected on the face surface of the driver 5 and reached the anti-glare plate 52 via the windshield 3 toward the camera 70.
  • the reflection member 52b may be, for example, an aluminum plate or a mirror. Thereby, the face image of the driver 5 can be more clearly captured by the camera 70.
  • HUD 2 Vehicle 3: Windshield 4: Dashboard 5: Driver 7: Dashboard opening 10: Light shielding hood 20: HUD control device 30: Video display device 40: Virtual image optical system 43: Concave mirror 44: mirror drive unit 50: housing 51: housing opening 52: anti-glare plate 70: camera 100: virtual image 700: viewpoint detection device

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Instrument Panels (AREA)

Abstract

ヘッドアップディスプレイは、映像表示装置と、虚像光学系と、映像表示装置及び前記虚像光学系を収容する筐体と、筐体開口部と、筐体開口部を覆い映像光を透過する防眩板と、乗り物の運転者の目を含む顔領域を撮像するカメラと、カメラが撮像した画像に基づいて運転者の視点を検出する視点検出装置と、主制御装置と、を備える。カメラは、筐体の外側にあり、かつ筐体開口部から映像光が出射する光路から退避した位置に防眩板に運転者の目を含む顔が写った領域を撮像する向きで設置される。主制御装置は、視点検出装置が検出した運転者の視点位置に基づいて、映像光の出射方向を調整する制御を虚像光学系に対して行う。

Description

ヘッドアップディスプレイ
 本発明は、ヘッドアップディスプレイに関する。
 例えば、自動車等の車両において、通常は、車速やエンジン回転数等の情報は、ダッシュボード内の計器盤(インパネ)に表示される。また、カーナビゲーション等の画面は、ダッシュボードに組み込まれ、もしくはダッシュボード上に設置されたディスプレイに表示される。運転者がこれらの情報を視認する場合に視線を大きく移動させることが必要となることから、視線の移動量を低減させる技術として、車速等の情報やカーナビゲーションに係る指示等の情報をフロントガラス(ウィンドシールド)やコンバイナ等に投射して表示するヘッドアップディスプレイ(Head Up Display、以下では「HUD」と記載する場合がある)が既に知られている。
 HUDに関する技術として、特許文献1には「ヘッドアップディスプレイ装置は、利用者の目球位置を検出する目球位置検出手段と、前記目球位置検出手段によって検出された第一の目球位置に基づいて表示像の結像位置を算出する制御手段と、制御手段の算出結果に基づいて可視光の出射方向を調整する光路調整手段と、前記第一の目球位置を基準目球位置として記憶する記憶手段と、を備え、制御手段は、前記第一の目球位置を検出した時刻よりも後に前記目球位置検出手段によって検出された第二の目球位置が前記基準目球位置と所定距離あるいは所定角度以上の差があると判定される場合に、前記第二の目球位置に基づいて表示像の結像位置を算出し、この算出結果に基づいて光路調整手段を駆動させる(要約抜粋)」HUDが開示されている。
特開2008-155720号公報
 視点検出カメラはダッシュボードやウィンドシールド近くの天井付近に設置される。しかし、視点検出カメラをダッシュボードに配置すると運転者を見上げる位置で撮像することとなる一方、天井付近に設置すると運転者を見下ろす位置で撮像することとなる。視点検出に用いる顔画像は運転者の顔の正面画像であることが望ましいが、運転者の正面に視点検出カメラを配置すると視界を遮るので好ましくない。
 この点に関し、特許文献1では、視点検出カメラの顔画像を正面画像に近づけることについては考慮されておらず、視点検出の精度向上については更なる工夫の余地がある。
 本発明は上記実情に鑑みてなされたものであり、視点検出精度を向上させて虚像表示位置の制御が行えるHUDを提供することを目的とする。
 上記課題を解決するために、本発明は、請求の範囲に記載の構成を備える。その一例をあげるならば、虚像を乗り物の前方に表示するヘッドアップディスプレイであって、光源及び表示素子を含み、前記表示素子に表示オブジェクトを表示し、当該表示オブジェクトを含む映像光を出射する映像表示装置と、前記映像光を被投射部材に向けて出射方向を変えて拡大投射する虚像光学系と、前記映像表示装置及び前記虚像光学系を収容する筐体と、前記筐体に設けられ、前記筐体から前記映像光が出射する筐体開口部と、前記筐体開口部を覆い、前記映像光を透過する防眩板と、前記乗り物の運転者の目を含む顔領域を撮像するカメラと、前記カメラが撮像した画像に基づいて前記運転者の視点を検出する視点検出装置と、前記映像表示装置、前記虚像光学系、前記視点検出装置の其々に接続された主制御装置と、を備え、前記カメラは、前記筐体の外側における前記筐体開口部から前記映像光が出射する光路から退避した位置に、前記防眩板に前記運転者の目を含む顔が写った領域を撮像する向きで設置され、前記主制御装置は、前記視点検出装置が検出した運転者の視点位置に基づいて、前記映像光の出射方向を調整する制御を前記虚像光学系に対して行う、ことを特徴とする。
 本発明によれば、視点検出精度を向上させて虚像表示位置の制御が行えるHUDを提供することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
HUDの概略構成図 ミラー駆動部の拡大構成図 カメラの画角を示す図 HUDのシステム構成図 視点と映像光Lのウィンドシールドにおける反射位置と虚像位置との関係を示す図 HUDによる処理の流れを示すフローチャート 照度が違う状態で撮像した画像と各画像の輝度値の分布を示すヒストグラムを示す図 遮光角度で凹面ミラーを回転させた状態を示す図 車両内部の3次元空間座標系を示す図 運転者が頭の移動に伴う視点移動量の説明図 運転者が頭の移動に伴う視点移動量の説明図 運転者が頭の移動に伴う視点移動量の説明図 HUD内におけるシャッターの取付位置を示す概観図 シャッターユニットの拡大説明図 シャッターが遮光位置にある状態を示す図 シャッターが退避位置にある状態を示す図 防眩板に反射部材を備えた別実施形態を示す図
 以下、本発明の実施形態を図面に基づいて詳細に説明する。なお、実施形態を説明するための全図において、同一部材には原則として同一の符号を付し、その繰り返しの説明は省略する。以下に示す各実施形態では、ヘッドアップディスプレイ(HUD)が乗り物としての車両に設置される場合を例として説明するが、電車等の他の乗り物にも適用可能である。
 図1を参照して本実施形態に係るHUD1の構成について説明する。図1はHUD1の概略構成図である。図1のHUD1では、映像光Lの光路を開閉する遮光部材として、虚像光学系に含まれる凹面ミラー43及びそれを回動させるミラー駆動部44を用いる 。
 図1に示すように、HUD1は、車両2に備えられたダッシュボード4内に備えられる。ダッシュボード4はHUD1から出射した映像光Lを通過させるためのダッシュボード開口部7を備える。HUD1から射出した映像光Lはダッシュボード開口部7を通過して被投射部材としてのウィンドシールド3に到達し、ウィンドシールド3で反射して運転者5の目に入射する。運転者5は、その映像光Lによる虚像100をウィンドシールド3よりも更に前方に視認する。なお、被投射部材はウィンドシールド3に限られず、映像光Lが投射される部材であれば、コンバイナなど他の部材を用いてもよい。
 HUD1は、筐体50と、筐体50に収容又は装着されるHUD制御装置20(主制御装置に相当する。)及び映像表示装置30と、映像表示装置30から出射される映像光Lを拡大投射する虚像光学系40とを含んで構成される。
 筐体50の上面には、映像光Lの出射口となる筐体開口部51が形成される。筐体開口部51は、筐体50に塵やほこりの侵入を防ぐための防眩板(グレアトラップ)52で覆われている。防眩板52は、可視光を透過する部材により構成される。
 映像表示装置30は、LCD(Liquid Crystal Display)を用いて構成され、HUD制御装置20からの制御信号に従って動作する。より詳しくは、映像表示装置30は光源31、照明光学系32、及び表示オブジェクトを表示し、透過性を有する表示素子33を含んで形成される。光源31から発せられた光が表示素子33を透過することにより表示オブジェクトを含む映像光Lが映像表示装置30から出射される(図4参照)。
 虚像光学系40は、映像表示装置30に近い位置から順に、映像光Lの出射方向に沿ってレンズユニット41と折り返しミラー42と凹面ミラー43とが配置されて構成される。更に虚像光学系40は凹面ミラー43を回転させるミラー駆動部44を含んで構成される。
 レンズユニット41は、映像表示装置30から折り返しミラー42までの光学的な距離を調整するための少なくとも1つ以上のレンズの集合体である。
 折り返しミラー42は、レンズユニット41から出射した映像光Lの光路を凹面ミラー43に向けて折り返すミラーである。
 凹面ミラー43は、折り返しミラー42で反射された映像光Lを筐体開口部51に向けて反射させる部材である。凹面ミラー43はミラー駆動部44により回動する。
 図2はミラー駆動部44の拡大構成図である。
 ミラー駆動部44は、ミラーモータ44a及びミラーモータ44aの回転軸44bと、回転軸44bの先端部に連結され、凹面ミラー43を収容するミラーカバー45と、回転軸44bの軸受け部材であるミラーホルダー46とを備える。
 図1に示すようにミラーモータ44aは、HUD制御装置20にバス61を介して接続される。そしてHUD制御装置20からの制御信号に従ってミラーモータ44aが駆動する。ミラーモータ44aが駆動すると回転軸44bが回転し、これに連結されたミラーカバー45が回転する。その結果、凹面ミラー43はミラーカバー45と一体となって回転する。
 凹面ミラー43が回転することにより、映像光Lの反射角度を変えてウィンドシールド3に向けて反射させることができる。映像光Lの反射角度が変わるとウィンドシールド3における映像光Lの反射位置が変わり、映像光Lの光路長を変えることができる。光路長が変わることにより虚像100が表示される虚像面の距離が変わり、また反射位置が変わることで虚像面の表示高さが変わる。
 ダッシュボード4には、ダッシュボード開口部7におけるウィンドシールド側端部にHUD1への直射太陽光の入射を遮蔽するための遮光フード10が備えられる。遮光フード10には、防眩板52を画角に含む位置及び向きでカメラ70が設置される。カメラ70は、HUD制御装置20と通信線62により接続され、カメラ70で撮像した画像が後述する視点検出装置700(図4参照)に出力される。視点検出装置700の機能をHUD制御装置20が有する場合は、画像はHUD制御装置20に出力される。
 カメラ70の画像は、運転者5の視点検出処理とHUD1への直射太陽光の入射量監視処理との双方に用いられる。そのため、画像には運転者5の目が写っていることと、防眩板52との両方が撮像されていることが必要である。そこで、本実施形態では、図3に示すように、カメラ70のレンズを防眩板52に向け、かつ運転者5の目を含む顔表面で反射した光がウィンドシールド3で反射して防眩板52に到達し、防眩板52の表面で反射してカメラ70のレンズに入射する取付位置及びレンズの向き(画角)で遮光フード10に設置する。防眩板52に対するカメラ70の取付位置及びレンズの向きは、本実施形態に係るHUD1の特徴の一つである。
 カメラ70は、近赤外光を発光するLEDなどの近赤外光源70a及び近赤外光から可視光までを検出する撮像素子としてのCMOS70bを搭載する。視点検出処理には近赤外光を用いる。即ち、カメラ70に搭載された近赤外光源70aから発生した近赤外光は、運転者5の目を含め顔表面(顔領域)に到達して反射し、その反射近赤外光が防眩板52に到達してCMOS70bに向かって再度反射され、CMOS70bに入射する。CMOS70bからの出力に基づきカメラ70は近赤外光像による運転者5の顔画像を生成、出力する。これにより、外界が暗いとき、例えば夜間やトンネル、地下駐車場でも運転者5の視点検出が行える。
 一方、太陽光の入射量の監視処理には可視光を用いる。防眩板52に到達した可視光が、防眩板52からCMOS70bに入射する。CMOS70bからの出力に基づきカメラ70は可視光画像による防眩板52の外表面画像を生成、出力する。
 図3はカメラ70の画角を示す図である。
 一般に、虚像100を視認する運転者5の視線方向は、水平方向を基準として俯角(例えば1°~5°)を有する。そのため、映像光Lの光路にカメラ70の光軸を合わせて運転者5を撮像すると、運転者5は伏し目な状態で撮像され、水平方向に視線が向いている場合と比べて目の座標の検出精度が低下する。
 そこで本実施形態では、図3に示すように目を含む顔表面を水平に近い角度(映像光Lの光軸に沿って目を撮像するよりも水平に近い角度)で撮像するようにカメラ70の光軸を合わせる向きと位置でカメラ70を設置する。例えば、カメラ70の光軸が、運転者5のアイポイント中心に向かって水平軸に対して水平と見做せる許容範囲内の角度で入射する向きに、カメラ70は設置される 。これにより運転者5の目を水平方向に近い向きで撮像し、正面画像に近い画像が出力できる。よって、後述するステップS20の視点検出処理の精度向上が期待できる。
 図4はHUD1のシステム構成図である。
 HUD制御装置20は、第1ECU(Electric Control Unit)21と、これにシステムバスを介して接続された第1不揮発性メモリ22、第1メモリ23、光源調整部24、歪み補正部25、表示素子駆動部26、第1CAN通信部27(CAN:Controller Area Network)、ミラー調整部28、及びタイマ29を含む。第1CAN通信部27は、視点検出装置700にCANを介して接続される。光源調整部24は光源31に、表示素子駆動部26は表示素子33に、ミラー調整部28はミラーモータ44aに接続される。第1ECU21は、第1CAN通信部27から車両2に備えられたCANを介してスピード、エンジン回転数などの車両情報9を取得し、これらの車両情報9を含む表示オブジェクトを虚像100として表示する。
 視点検出装置700は第2ECU701、カメラ制御部702、第2CAN通信部703、第2不揮発性メモリ704、及び第2メモリ705を含む。第2ECU701の入力段はカメラ70の出力段に接続され、カメラ70の画像が第2ECU701を介して第2CAN通信部703からHUD制御装置20へ送信される。また第2ECU701はカメラ制御部702、第2不揮発性メモリ704及び第2メモリ705の其々に接続される。
 続いて、上記にその構成を説明したHUD1における虚像100の表示位置の調整について、図5を参照しながら説明する。図5は、視点と映像光Lのウィンドシールド3における反射位置と虚像位置との関係を示す図である。
 HUD1では、カメラ70の画像を用いて視点検出装置700が視点を検出し、検出した運転者5の視点に対応して凹面ミラー43の回転角度(傾斜角度)を制御し、もって、車両2のウィンドシールド3に投射する虚像100の表示位置を調整するための制御を行う。なお、図5には、運転者5の視点の位置A、B、Cに対応して、凹面ミラー43の回転(傾斜)位置、ウィンドシールド3上の虚像100の投射位置、そして、運転者5の視点から見える虚像100の位置が、それぞれ、A、B、Cによって示されている。
 上記した制御は、例えば、視点検出装置700の第2CAN通信部703が、HUD制御装置20に視点情報を通知し、HUD制御装置20が凹面ミラー43を回転させることで実現する。この視点検出装置700では、カメラ70からの情報の取得は、第2ECU701の制御の下で行われる。また、HUD制御装置20では、車両情報9の取得、映像表示装置30の制御、及び凹面ミラー43の駆動は第1ECU21の制御の下で行われる。しかし、必ずしもこれらに限定する必要はなく、また、ほかの種類のデバイスを備えていてもよい。
 図6はHUD1による処理の流れを示すフローチャートである。
 HUD1は、運転者5の視点に合わせて虚像位置を調整する処理及びHUD1への太陽光の入射量の監視処理にカメラ70の画像を併用する点も特徴の一つである。
 HUD1の電源がONになると(S10/Yes)、カメラ70が撮像を開始し(S11)、撮像した画像を視点検出装置700に出力する。この画像は、防眩板52における映像光Lの出射領域52a(図15参照)を映しており、映像光Lの出射領域52aに映り込んだ運転者5の目を含む顔の全体又は一部も被写体として含んでいる。防眩板52における出射領域52aとは異なる位置に運転者5の顔表面で反射した近赤外光が到達する場合は、近赤外光が到達する領域をカメラ70の画角に含み、顔画像を撮像する。
 視点検出装置700の第2ECU701は、カメラ70から画像を取得し、視点検出処理を実行する(S20)。この詳細は後述する。
 第2ECU701は、ステップS20で求めた視点位置と、現在HUD1で虚像100の表示位置を決定する際に用いられた視点位置との差からなる視点移動量を演算し(S21)、HUD制御装置20に送信する。この詳細は後述する。
 視点検出処理(S20)と並行して、第2ECU701は、カメラ70の画像の輝度値を演算する(S30)。本実施形態では、第2ECU701が画像全体の輝度値を演算する場合を例に挙げて図7を参照して説明するが、画像の中央領域等、画像全領域ではなく一部領域の輝度値を検出してもよい。図7は照度が違う状態で撮像した画像と各画像の輝度値の分布を示すヒストグラムを示す図である。
 標準的な明るさ、例えば運転者5が眩しすぎることもなく、かつヘッドライトを点灯させることなく運転ができる明るさで撮像した第2画像212では、画像の輝度値の分布を示す第2ヒストグラム222はピーク値が大きくなく、輝度値が分散する。第2ヒストグラム222の面積(図中で色を付けた部分)は、画像の合計画素数を示しており、後述する第1ヒストグラム221及び第3ヒストグラム223の其々の面積は第2ヒストグラム222の面積と同じである。
 一方、暗い場所で撮像した第1画像211の輝度値の分布を示す第1ヒストグラム221は、暗い輝度値の画素数が多い。また明るすぎる場所、即ち太陽光の防眩板52への照射量が多い場所で撮像した第3画像213の輝度値の分布を示す第3ヒストグラム223は、明るい輝度値の画素数が多い。
 そこで第2ECU701は、各画像の輝度値を(輝度値×度数)の積分値として求め、HUD制御装置20に出力する。
 HUD制御装置20の第1ECU21は、ステップS30で求めた画像の輝度値が予め定められた遮光閾値以上であると判定すると(S40/Yes)、画像の輝度値が遮光閾値以上となってからの経過時間tの計測をタイマ29を用いて開始する(S41)。経過時間tが予め定められた時間閾値以上となると(S42/Yes)、ミラー調整部28は、太陽光が映像表示装置30に到達しない角度(以下「遮光角度」という)となるように凹面ミラー43を回転させる(S43)。この時点でタイマ29による計時は終了してもよい。
 図8は遮光角度に凹面ミラー43を回転させた状態を示す図である。
 防眩板52に到達した太陽光Sbの一部は反射してカメラ70に入射し、一部は防眩板52を透過して凹面ミラー43に到達する。凹面ミラー43を遮光角度となるように回転させると、凹面ミラー43に到達した太陽光Sbが凹面ミラー43の鏡面で反射して筐体50の下部方向、即ち折り返しミラー42に向かう方向とは異なる方向に反射する。
 これにより、映像光Lが防眩板52に向かって照射されなくなるので虚像100の表示が消えるが、防眩板52から入射した太陽光Sbが凹面ミラー43、及び折り返しミラー42を経て映像表示装置30に到達する光路も遮断することができる。また、防眩板52から入射した太陽光Sbが凹面ミラー43で反射され再度防眩板52に向かって照射され、ウィンドシールド3に照射されることも防ぐことができる。
 一方、画像の輝度値が遮光閾値未満の場合(S40/No)、凹面ミラー43が遮光角度で回転中、即ち、既に画像の輝度値が遮光閾値以上となり、凹面ミラー43の鏡面を映像光Lの光路から退避させている場合(S44/Yes)、第1ECU21はミラー調整部28に凹面ミラー43の鏡面を映像光Lの光路上に戻す(復帰)させる(S45)。
 ステップS45終了後、又は凹面ミラー43が遮光角度で回転中ではない(S44/No)、即ち凹面ミラー43の鏡面が映像光Lの光路上にある場合、若しくは経過時間tが時間閾値未満の場合(S42/No)、第1ECU21は視点の移動量と予め定められた移動量閾値以上とを比較する(S46)。
 視点の移動量が移動量閾値以上の場合(S46/Yes)、第1ECU21は、ミラー調整部28に対して虚像位置を視点に合わせるためのミラー調整処理(S47)を実行さる。より具体的には、ミラー調整部28からミラーモータ44aに対して、S21で演算された視点移動量に応じて凹面ミラー43を回動させる信号をミラーモータ44aに出力する。これにより、視点検出装置700で検出させた視点の位置に合わせて虚像を表示させることができる 。
 ミラー調整処理(S47)後、又は視点の移動量が移動量閾値未満の場合(S46/No)、第1ECU21は、歪み補正部25において虚像100として表示させる表示オブジェクトの歪み補正を行い、表示素子駆動部26が歪み補正後の表示オブジェクトを表示素子33に表示する。それと共に第1ECU21は、光源調整部24に光源31の点灯処理を実行させ、表示素子33から表示オブジェクトを含む映像光Lを出射させる。映像光Lが虚像光学系40において拡大されウィンドシールド3に投射され、運転者5の目に入射することにより虚像100が表示される(S48)。HUD1の電源がOFFでなければ(S49/No)、ステップS11へ戻り、以後の処理を繰り返す。HUD1の電源がOFFになると(S49/Yes)、HUD1による虚像表示処理を終了する。
<S20:視点検出処理>
 図9は車両2内部の3次元空間座標系を示す図である。
 車両2内部においてカメラ70は運転者5の顔(視点)が撮像可能な位置、本実施形態では遮光フード10の内部に固定して配置される(図3参照)。このとき、カメラ70を、車両2内部の3次元空間座標における中心に配置すると共に、x軸を車両2の長さ方向(車の進行方向)に、y軸を車両の幅方向、z軸を高さ(鉛直)方向に設定する。この状態を上から見た状況を図9に示す。カメラ70は、それを中心とした車両内の3次元空間において、運転者5の前面からその顔(視点)を含む画像を撮影する。図9において符号71は、カメラ70の撮影範囲を示す。
 第2ECU701は、カメラ70によって撮像された2次元カメラ画像から目(視点)を検出する。続いて、第2ECU701はカメラ70(3次元空間の原点)から検出した運転者5の目(視点)5に向かう(すなわち、カメラ70と視点とを結ぶ)直線を求める。これにより、カメラ70である3次元空間の原点から見た場合の運転者5の目(視点)の方向に向かう直線を特定することが可能となる。換言すれば、カメラ70の設置方向と画角との関係から、カメラ画像(2次元)上の1点(上記では運転者5の目の位置)を指定すると、カメラ70と画像上の1点を結ぶ3次元空間上の直線を求めることができる。但し、直線上のどこに目が位置しているかについては限定できない。
 続いて、上記で求めた3次元上の直線と、座席中央(又は、ステアリングホイール8の中心軸)を通る3次元上の鉛直平面(z-x平面)との交点を求め、求めた交点が運転者5の目である視点位置となる。なお、座席中央(ステアリングホイールの中心軸)を通る3次元上の鉛直平面(z-x平面)は、車両2の幅方向(y軸)においてカメラ70(原点)から座席中央までの距離だけ離れたz-x平面であり、その距離は、カメラ70を車両2の内部に配置する際に予め設定し、又は、計測することによって求めることができる。
 すなわち、第2ECU701はカメラ70により撮像された運転者5の顔に基づいて、上記で述べた視点検出処理により運転者5の視点座標(xd,yd,zd)を求め、第2不揮発性メモリ704に記憶する。そして次のサンプリング周期で撮影されたカメラ70の画像を用いて視点移動量演算処理(S21)に用いる。
<S21:視点移動量演算処理>
 運転者5が前かがみになったり、頭を動かしたりすることで視点位置がずれることがある。そこで、第2ECU701は、カメラ70で撮像された画像により運転者5の顔の向きを推定し、推定される顔の向きによって、運転者5の顔が座席の中央に位置しているか否かを判定して凹面ミラー43の位置調整を実行する。図10A、図10B、図10Cは運転者の頭の移動に伴う視点移動量の説明図である。
 図10Aにも示すように、カメラ70で撮像された画像に基づいて運転者5の顔の向き(図に矢印で示すように、ロール、ピッチ、ヨーの3方向の向き)を推定し、顔が車両前方を向いていると判定される場合には、上記で求められた運転者5の視点座標(xd,yd,zd)によって凹面ミラー43の角度調整による虚像100の表示位置調整を実行する。また図10Bや図10Cに示すように、運転者5の顔の向きが車両前方から外れている場合には、凹面ミラー43の角度調整による虚像100の表示位置調整は行わないようにする。本実施形態では特に運転者5の頭の微動に合わせて虚像100の表示位置が頻回に変わることを抑制するため、第2ECU701は、前回の視点検出位置(xdt,ydt,zdt)と今回の視点検出位置(xdt+1,ydt+1,zdt+1)との差分(Δxd,Δyd,Δzd)を求め、Δxd,Δyd,Δzdのいずれかが運転者5の頭が移動したと判定するために予め定められた移動量閾値Δxdth,Δydth,Δzdth以上となると、(Δxd,Δyd,Δzd)を含む視点移動量情報をHUD制御装置20に出力する。
 本実施形態によれば、運転者5の視点検出を行い、その結果に追従させて虚像100の表示位置を調整するので、虚像100の視認性を向上させることができる。
 また視点検出に用いるカメラ70は、運転者5から見て遮光フード10により生じる視覚内に設置するので、車両2内の美観が向上する。
 更にカメラ70は、防眩板52に写る運転者5の顔を撮像するので、ほぼ正面から顔画像が撮像でき、高精度に視点検出が行える。
 またカメラ70は、HUD1への太陽光の入射量の監視カメラとしての機能を実現させることができ、監視用部材を別途用意する場合と比べて、部品点数を減らすことができる。
 またカメラ70がHUD1の映像光Lの光路から退避した位置に備えられるので、太陽光の入射量が過大となり映像光Lの光路を遮光した後も、太陽光の入射量を監視でき、入射量が遮光閾値未満となると、映像光Lの光路を再度復帰させることができる。
 上記各実施形態は本発明を限定するものではなく、本発明の趣旨を逸脱しない範囲での様々な変更態様は本発明の技術的範囲に属する。例えば、各処理の説明で用いた計算式は、当該処理の一実施形態に過ぎず、当該処理に必要な算出結果をもたらす他の計算式を適用してもよい。
 また、上記では映像光Lの光路を遮光する構造として、凹面ミラー43の鏡面を映像光Lの光路から退避させる(凹面ミラー43の鏡面を映像光Lの光路から遮光角度で回転させる)構造を用いたが、これに限定されない。図11~図14に映像光Lの遮光構造としてのシャッター構造を示す。
 図11は、HUD1a内におけるシャッター306の取付位置を示す概観図である。図12は、シャッターユニット300の拡大説明図である。図13は、シャッター306が遮光位置にある状態を示す図である。図14は、シャッター306が退避位置にある状態を示す図である。
 図11に示すHUD1aは、映像表示装置30における映像光Lの射出面(レンズユニット41側の面)の前にシャッター306を配置又は退避させるシャッターユニット300を備える。シャッターユニット300はHUD制御装置20にバス61で接続される。そして、HUD制御装置20は、ステップS43ではシャッター306を遮光位置(図13参照)に位置させ、ステップS45ではシャッター306を退避位置(図14参照)に位置させるように、シャッターユニット300を駆動制御する。
 図12に示すように、シャッターユニット300は、シャッター306及びシャッター306の移動機構、具体的には、シャッターモータ301、ギア列302、リードスクリュー303、シャッターホルダー304、リードスクリューホルダー305、及び摺動ガイド307を備える。シャッターモータ301はHUD制御装置20にバス61を介して通信接続される。リードスクリューホルダー305と摺動ガイド307とは筐体50に取付けられている。
 シャッターモータ301の回転軸はギア列302に連結され、リードスクリュー303の一端部がギア列302に連結する。
 リードスクリュー303の他端はリードスクリューホルダー305に保持される。リードスクリュー303の表面にはネジ山が切られている。
 シャッターホルダー304はシャッター306を保持する。シャッターホルダー304におけるリードスクリュー303との対向位置には、ネジ溝が切られている。リードスクリュー303のネジ山と、シャッターホルダー304のネジ溝とは噛み合っている。
 摺動ガイド307はリードスクリュー303とシャッター306を介して対向して設置される。摺動ガイド307におけるシャッターホルダー304との対向面には溝形状が設けられる。シャッターホルダー304の摺動ガイド307に対向する端部は、摺動ガイド307の溝に挿入され、シャッター306が退避位置から遮光位置へ、又は遮光位置から退避位置へと移動する際にシャッターホルダー304及びシャッター306がぐらつくことを抑制し、安定した移動が行える。
 HUD制御装置20からシャッターモータ301へ正回転信号又は逆回転信号を送信すると、それに応じてシャッターモータ301が正回転又は逆回転する。シャッターモータ301の回転軸が正回転又は逆回転すると、ギア列302を介してリードスクリュー303が正回転又は逆回転する。そして、シャッターホルダー304はリードスクリュー303のネジ山に沿って退避位置から遮光位置へ、又は遮光位置から退避位置に向けて移動する。シャッターホルダー304と一体となって、シャッター306が退避位置から遮光位置へ、又は遮光位置から退避位置へと移動する。本例ではシャッターユニット300を映像表示装置30の前に配置したが、HUD1aにおける映像光Lの光路上にシャッターユニット300を備えればよく、映像表示装置30の前に限定されない。
 また、上記ではステップS45でミラー調整部28がミラー駆動部44を駆動させると記載したが、鏡面が遮光角度で回転していることを示すフラグを格納する処理だけを行ってもよい。そして、ステップS47において虚像位置の制御時に、凹面ミラー43の復帰も同時に行ってもよい。これにより、凹面ミラー43の駆動回数を減らすことができる。
 また上記では、ステップS43で凹面ミラー43を遮光角度で回転させた後、虚像表示をOFFにしておらず、直前の処理で虚像表示(S48)を実行していると、虚像表示処理をしたまま凹面ミラー43を遮光角度で回転させるとしている。しかし、凹面ミラー43を遮光角度で回転させた後の映像光Lの生成は、虚像100の表示に結びつかず無駄な処理なので、ステップS43の後に虚像表示OFFの処理、例えば光源31を消灯したり、表示素子33に表示オブジェクトを非表示にする処理を追加してもよい。その場合、次回ステップS48で虚像表示をする際に、光源31を点灯したり、表示素子33に表示オブジェクトを表示する処理を再開する。
 図15は防眩板52に反射部材52bを備えた別実施形態を示す図である。図14では、防眩板52における映像光Lの出射領域52aとは異なる領域に、自然光(近赤外光から可視光を含む)を反射する反射部材52bを備える。そして、反射部材52bは運転者5の顔表面で反射し、ウィンドシールド3を経て防眩板52に到達した自然光を、カメラ70に向けて反射する。反射部材52bは例えばアルミニウム板やミラーでもよい。これにより、運転者5の顔画像をカメラ70でより鮮明に撮像することができる。
1     :HUD
2     :車両
3     :ウィンドシールド
4     :ダッシュボード
5     :運転者
7     :ダッシュボード開口部
10    :遮光フード
20    :HUD制御装置
30    :映像表示装置
40    :虚像光学系
43    :凹面ミラー 
44    :ミラー駆動部
50    :筐体
51    :筐体開口部
52    :防眩板
70    :カメラ
100   :虚像
700   :視点検出装置

Claims (8)

  1.  虚像を乗り物の前方に表示するヘッドアップディスプレイであって、
     光源及び表示素子を含み、前記表示素子に表示オブジェクトを表示し、当該表示オブジェクトを含む映像光を出射する映像表示装置と、
     前記映像光を被投射部材に向けて出射方向を変えて拡大投射する虚像光学系と、
     前記映像表示装置及び前記虚像光学系を収容する筐体と、
     前記筐体に設けられ、前記筐体から前記映像光が出射する筐体開口部と、
     前記筐体開口部を覆い、前記映像光を透過する防眩板と、
     前記乗り物の運転者の目を含む顔領域を撮像するカメラと、
     前記カメラが撮像した画像に基づいて前記運転者の視点を検出する視点検出装置と、
     前記映像表示装置、前記虚像光学系、前記視点検出装置の其々に接続された主制御装置と、を備え、
     前記カメラは、前記筐体の外側における前記筐体開口部から前記映像光が出射する光路から退避した位置に、前記防眩板に前記運転者の目を含む顔が写った領域を撮像する向きで設置され、
     前記主制御装置は、前記視点検出装置が検出した運転者の視点位置に基づいて、前記映像光の出射方向を調整する制御を前記虚像光学系に対して行う、
     ことを特徴とするヘッドアップディスプレイ。
  2.  請求項1に記載のヘッドアップディスプレイにおいて、
     前記カメラは近赤外光を検出する撮像素子を含み、
     近赤外光像を含む画像を出力する、
     ことを特徴とするヘッドアップディスプレイ。
  3.  請求項1に記載のヘッドアップディスプレイにおいて、
     前記カメラは近赤外光から可視光までを検出する撮像素子を含み、
     前記防眩板は、前記防眩板における前記映像光の出射領域とは異なる領域に、前記運転者の顔表面で反射し前記被投射部材を経て前記防眩板に到達した自然光を、前記カメラに向けて反射する反射部材を更に備え、
     前記カメラは前記防眩板から反射した前記自然光を検出して前記画像を撮像する、
     ことを特徴とするヘッドアップディスプレイ。
  4.  請求項1に記載のヘッドアップディスプレイにおいて、
     前記カメラの光軸が、前記運転者のアイポイント中心に向かって水平軸に対して水平と見做せる許容範囲内の角度で入射する向きに、前記カメラは設置される、
     ことを特徴とするヘッドアップディスプレイ。
  5.  請求項1に記載のヘッドアップディスプレイにおいて、
     前記防眩板から前記被投射部材に向かう前記映像光の光路を開閉する遮光部材を更に備え、
     前記主制御装置は、前記遮光部材に更に接続され、
     前記カメラは、前記防眩板における前記映像光の出射領域の少なくとも一部領域を更に含んで撮像する向きで前記筐体の外側に設置され、
     前記主制御装置は、前記カメラが撮像した画像の輝度値が予め定められた遮光閾値以上となった場合に、前記映像光の光路を閉じる制御を前記遮光部材に対して行う、
     ことを特徴とするヘッドアップディスプレイ。
  6.  請求項5に記載のヘッドアップディスプレイにおいて、
     前記主制御装置は、前記映像光の光路を閉じる制御を前記遮光部材に対して行った後に、前記カメラが新たに撮像した画像の輝度値が前記遮光閾値未満となると、前記映像光の光路を開く制御を前記遮光部材に対して行う、
     ことを特徴とするヘッドアップディスプレイ。
  7.  請求項5に記載のヘッドアップディスプレイにおいて、
     前記虚像光学系は、前記映像光を前記被投射部材に向けて反射する凹面ミラー及び当該凹面ミラーの鏡面の向きを変えるミラー駆動部を含み、
     前記主制御装置は、前記視点検出装置が検出した前記運転者の視点位置に基づいて、前記凹面ミラーを回動させるための制御信号を前記ミラー駆動部に出力すると共に、前記カメラが撮像した画像の輝度値が予め定められた遮光閾値以上となった場合に、前記凹面ミラーの鏡面を前記映像光の光路から退避する角度に回転させるための制御信号を前記ミラー駆動部に出力する、
     ことを特徴とするヘッドアップディスプレイ。
  8.  請求項5に記載のヘッドアップディスプレイにおいて、
     前記遮光部材は、シャッターユニットであって、
     前記シャッターユニットは、シャッター及び当該シャッターを含み退避位置及び遮光位置に移動させる移動機構を含み、
     前記退避位置は、前記シャッターが前記映像光の光路から外れて配置される位置であり、前記遮光位置は、前記シャッターが前記映像光の光路上に配置される位置である、
     ことを特徴とするヘッドアップディスプレイ。
PCT/JP2019/019533 2018-07-23 2019-05-16 ヘッドアップディスプレイ WO2020021823A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/261,182 US11280999B2 (en) 2018-07-23 2019-05-16 Head-up display
CN201980049245.4A CN112470060A (zh) 2018-07-23 2019-05-16 抬头显示器
JP2020532175A JP7024088B2 (ja) 2018-07-23 2019-05-16 ヘッドアップディスプレイ

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018137944 2018-07-23
JP2018-137944 2018-07-23

Publications (1)

Publication Number Publication Date
WO2020021823A1 true WO2020021823A1 (ja) 2020-01-30

Family

ID=69180624

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/019533 WO2020021823A1 (ja) 2018-07-23 2019-05-16 ヘッドアップディスプレイ

Country Status (4)

Country Link
US (1) US11280999B2 (ja)
JP (1) JP7024088B2 (ja)
CN (1) CN112470060A (ja)
WO (1) WO2020021823A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7106022B1 (ja) * 2021-06-16 2022-07-25 三菱電機株式会社 空中映像表示装置及び空中映像表示方法
WO2022185768A1 (ja) * 2021-03-05 2022-09-09 株式会社デンソー 表示装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114594607A (zh) * 2022-03-23 2022-06-07 业成科技(成都)有限公司 光学膜片、其制备方法、抬头显示器及车辆
CN116088175A (zh) * 2022-11-30 2023-05-09 业成科技(成都)有限公司 显示系统及其车用抬头显示系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011133508A (ja) * 2009-12-22 2011-07-07 Topcon Corp 走査型表示装置光学系、立体表示装置及びヘッドアップディスプレイ装置
JP2015152746A (ja) * 2014-02-14 2015-08-24 日本精機株式会社 表示装置
JP2016014861A (ja) * 2014-06-09 2016-01-28 日本精機株式会社 ヘッドアップディスプレイ装置
WO2016067574A1 (ja) * 2014-10-29 2016-05-06 パナソニックIpマネジメント株式会社 表示制御装置及び表示制御プログラム
WO2018029999A1 (ja) * 2016-08-08 2018-02-15 マクセル株式会社 ヘッドアップディスプレイ装置
JP2018097252A (ja) * 2016-12-15 2018-06-21 株式会社Jvcケンウッド ヘッドアップディスプレイ

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003074307A1 (en) * 2002-03-07 2003-09-12 Yechezkal Evan Spero Enhanced vision for driving
JP2008155720A (ja) 2006-12-22 2008-07-10 Nippon Seiki Co Ltd ヘッドアップディスプレイ装置
JP6004706B2 (ja) * 2012-04-04 2016-10-12 三菱電機株式会社 表示装置及びこれを備えたヘッドアップディスプレイシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011133508A (ja) * 2009-12-22 2011-07-07 Topcon Corp 走査型表示装置光学系、立体表示装置及びヘッドアップディスプレイ装置
JP2015152746A (ja) * 2014-02-14 2015-08-24 日本精機株式会社 表示装置
JP2016014861A (ja) * 2014-06-09 2016-01-28 日本精機株式会社 ヘッドアップディスプレイ装置
WO2016067574A1 (ja) * 2014-10-29 2016-05-06 パナソニックIpマネジメント株式会社 表示制御装置及び表示制御プログラム
WO2018029999A1 (ja) * 2016-08-08 2018-02-15 マクセル株式会社 ヘッドアップディスプレイ装置
JP2018097252A (ja) * 2016-12-15 2018-06-21 株式会社Jvcケンウッド ヘッドアップディスプレイ

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185768A1 (ja) * 2021-03-05 2022-09-09 株式会社デンソー 表示装置
JP7106022B1 (ja) * 2021-06-16 2022-07-25 三菱電機株式会社 空中映像表示装置及び空中映像表示方法
WO2022264294A1 (ja) * 2021-06-16 2022-12-22 三菱電機株式会社 空中映像表示装置及び空中映像表示方法

Also Published As

Publication number Publication date
JP7024088B2 (ja) 2022-02-22
CN112470060A (zh) 2021-03-09
JPWO2020021823A1 (ja) 2021-07-01
US11280999B2 (en) 2022-03-22
US20210271076A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
JP7024088B2 (ja) ヘッドアップディスプレイ
US10507767B2 (en) Vehicle-mounted display system and vehicle
JP6643969B2 (ja) 車両用表示装置
US7629946B2 (en) Display apparatus
JP2005184225A (ja) 車両用表示装置
JP5151207B2 (ja) 表示装置
JP5093611B2 (ja) 車両周辺確認装置
JP6232691B2 (ja) 車両用表示制御装置、車両用表示装置及び車両用表示制御方法
JP2009217682A (ja) 車両用表示装置
JP6520426B2 (ja) ヘッドアップディスプレイ装置
KR20160091293A (ko) 차량용 사이드 미러 카메라 시스템
CN113022448A (zh) 显示系统
WO2018003650A1 (ja) ヘッドアップディスプレイ
KR101341584B1 (ko) 차량용 디스플레이 보정 시스템
JP2010179817A (ja) 車両用防眩装置
WO2016018320A1 (en) System for projecting an image within a vehicle interior
JP2009035162A (ja) 後方視認装置
JP2015085879A (ja) 車両用表示装置
JP2006137209A (ja) 車両用防眩装置
JP6902723B2 (ja) 表示システム
KR101826542B1 (ko) 사이드 미러 보조장치 및 그것의 제어방법
KR20110087085A (ko) 카메라 영상 표시 기능이 구비된 차량용 사이드 미러 시스템
EP1848611A1 (en) A driver assistance system
WO2024075739A1 (ja) 車両用表示装置
JP2005324745A (ja) 車両用表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19841303

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020532175

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19841303

Country of ref document: EP

Kind code of ref document: A1