WO2015182026A1 - ヘッドアップディスプレイ装置 - Google Patents

ヘッドアップディスプレイ装置 Download PDF

Info

Publication number
WO2015182026A1
WO2015182026A1 PCT/JP2015/001759 JP2015001759W WO2015182026A1 WO 2015182026 A1 WO2015182026 A1 WO 2015182026A1 JP 2015001759 W JP2015001759 W JP 2015001759W WO 2015182026 A1 WO2015182026 A1 WO 2015182026A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
optical member
eye
axis
visual recognition
Prior art date
Application number
PCT/JP2015/001759
Other languages
English (en)
French (fr)
Inventor
亮 山岡
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to DE112015002481.6T priority Critical patent/DE112015002481T5/de
Priority to US15/108,807 priority patent/US20160320624A1/en
Publication of WO2015182026A1 publication Critical patent/WO2015182026A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/50Instruments characterised by their means of attachment to or integration in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/50Instruments characterised by their means of attachment to or integration in the vehicle
    • B60K35/53Movable instruments, e.g. slidable
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0145Head-up displays characterised by optical features creating an intermediate image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0159Head-up displays characterised by mechanical features with movable elements with mechanical means other than scaning means for positioning the whole image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0161Head-up displays characterised by mechanical features characterised by the relative positioning of the constitutive elements
    • G02B2027/0163Electric or electronic control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features

Definitions

  • the present disclosure relates to a head-up display device (hereinafter referred to as a HUD device).
  • a HUD device head-up display device
  • a HUD device that is mounted on a moving body and displays a virtual image so as to be visually recognized by an occupant by projecting an image onto a projection member of the moving body.
  • Patent Document 1 in addition to the HUD device, an adjustment display, a mirror, and an object to be photographed are used.
  • the worker stops the vehicle at a predetermined position, and fixes the mirror and the object to be photographed at the predetermined position. Further, the operator adjusts the HUD device while viewing a display on which an image obtained by photographing the object to be photographed by the outside detection camera and an image obtained by photographing the mirror by the driver detection camera are displayed.
  • Patent Document 1 such a complicated adjustment as described above is necessary, and it is troublesome and difficult to adjust the display position according to the position of the occupant's eyes.
  • An object of the present disclosure is to provide a HUD device that can be automatically adjusted so that a virtual image is displayed at a display position in accordance with the position of an occupant's eye.
  • a head that is mounted on a moving body having an imaging unit that captures the eyes of an occupant and projects an image onto a projection member of the moving body so that a virtual image can be viewed by an occupant in a viewing area
  • the up-display device has an optical member that can be changed in posture.
  • the visual recognition area is moved according to the posture of the optical member.
  • the head-up display device includes an adjustment unit that automatically adjusts the posture of the optical member based on a relative position with respect to the visual recognition region of the eye photographed by the photographing unit.
  • FIG. 2nd Embodiment It is a schematic diagram which shows the optical system of the HUD apparatus in 2nd Embodiment. It is a schematic diagram explaining the relationship between the visual recognition area
  • the HUD device 100 As shown in FIG. 1, the HUD device 100 according to the first embodiment is mounted on a vehicle 1 that is a kind of moving body and is housed in an instrument panel 2.
  • the HUD device 100 projects an image on a windshield 3 as a projection member of the vehicle 1.
  • the HUD device 100 causes the occupant's eyes 7 to visually recognize the image as the virtual image 10 in the visual recognition region 12 in the vehicle 1. That is, the light of the image reflected by the windshield 3 reaches the position of the occupant's eye 7, and the occupant perceives the light.
  • vehicle state values such as vehicle speed or fuel remaining amount, or vehicle information such as road information or visibility assistance information.
  • the surface on the indoor side forms a projection surface 3a on which an image is projected in a curved concave shape or a flat planar shape.
  • the windshield 3 may have an angle difference for overlapping virtual images formed by reflecting each surface between the indoor-side surface and the outdoor-side surface.
  • the windshield 3 may be provided with a vapor deposition film or a film in order to suppress the brightness of the virtual image due to the reflection of the outdoor surface.
  • a combiner separate from the vehicle 1 may be installed in the vehicle 1, and an image may be projected onto the combiner.
  • the vertical direction of the vehicle 1 on the horizontal plane is defined as the z direction.
  • the front-rear direction of the vehicle 1 that displays the virtual image 10 in front is defined as the x direction.
  • the left-right direction of the vehicle 1 that displays the virtual image 10 in front is defined as the y direction.
  • the HUD device 100 includes an optical system 20 and a control circuit 30 that controls the optical system 20.
  • the optical system 20 includes a projector 22, a plane mirror 24, a concave mirror 26, and a dustproof sheet 28.
  • the projector 22 is a liquid crystal projector, and forms an image by transmitting light from an internal light source (not shown) through the liquid crystal panel 22a on the surface, and the light of the image is incident on the plane mirror 24 as a light beam. Project toward.
  • a light emitting element composed of a light emitting diode is employed as a light source
  • a dot matrix type color TFT liquid crystal panel is employed as the liquid crystal panel 22a.
  • the projector 22 may have another configuration as long as it can project an image.
  • the projector 22 may be a MEMS scanner type projector using a laser or an organic EL type projector.
  • the plane mirror 24 is formed by vapor-depositing aluminum as the reflecting surface 24a on the surface of a base material made of synthetic resin or glass.
  • the reflection surface 24a is formed in a smooth flat shape. With this shape, the plane mirror 24 reflects the light of the image from the projector 22 toward the concave mirror 26.
  • the concave mirror 26 is formed by evaporating aluminum as the reflecting surface 26a on the surface of a base material made of synthetic resin or glass.
  • the reflecting surface 26a is formed in a smooth curved surface as a concave surface in which the center of the concave mirror 26 is recessed. More specifically, in order to suppress distortion generated in the virtual image of the image projected on the projection surface 3a of the windshield 3, it is formed in an aspherical shape corresponding to the shape of the projection surface 3a, more strictly, a free-form surface shape. ing.
  • Such an aspherical shape is set in consideration of the vertical movement of the virtual image 10 according to the posture of the concave mirror 26 by rotational driving around a first axis 26c described later. With this shape, the concave mirror 26 reflects the image light from the plane mirror 24 toward the windshield 3 of the vehicle 1 located above the HUD device 100 through the dustproof sheet 28.
  • the concave mirror 26 is disposed so as to pass through the center of the concave mirror 26 and has a first axis 26c along the y direction.
  • the concave mirror 26 is rotationally driven around the first shaft 26c by the stepping motor 26b in accordance with a drive signal from the control circuit 30 described later. That is, the concave mirror 26 is an optical member that can be changed in posture.
  • the stepping motor 26 b corresponds to a drive unit that drives the concave mirror 26.
  • the dustproof sheet 28 is formed in a plate shape having translucency by a synthetic resin such as polycarbonate resin.
  • the dustproof sheet 28 closes the opening of the housing 40 that accommodates the optical system 20, thereby transmitting the image light from the concave mirror 26 toward the windshield 3 of the vehicle 1, and dust or the like outside the HUD device 100 is Intrusion into the interior of 100 is prevented.
  • the light of the image projected on the windshield 3 reaches the visual recognition area 12 behind the windshield 3 as a light flux. If the position PE of the occupant's eye 7 is within the visual recognition area 12, the light of the image can be visually recognized as the front virtual image 10, and if it is outside the visual recognition area 12, the light of the image is sufficiently visible as the virtual image 10. I can't.
  • the change in the posture of the concave mirror 26 in the optical system 20 will be described below with reference to FIGS.
  • the reflection angle of the image light is changed by changing the posture of the concave mirror 26, that is, the angle of the reflecting surface 26a.
  • the projection location and incident angle in the windshield 3 of the light of the image in which the reflection angle is changed are also changed, and the range in which the light of the image as a light beam reaches is changed accordingly.
  • the posture of the concave mirror 26 is changed, the visual recognition area 12 moves according to the posture of the concave mirror 26.
  • the viewing area 12 is in the z direction and is relative to the vehicle 1.
  • the display position of the virtual image 10 displayed in front of the vehicle 1 is, for example, in the z direction and moves downward with respect to the vehicle 1.
  • the concave mirror 26 is driven to rotate to the other side around the first shaft 26 c, for example, the visual recognition region 12 moves in the z direction and downward with respect to the vehicle 1.
  • the display position of the virtual image 10 is, for example, in the z direction and moves upward with respect to the vehicle 1.
  • the optical system 20 moves the visual recognition area 12 in the z direction by changing the posture of the concave mirror 26 by rotational driving around the first axis 26c.
  • a range in which the visual recognition area 12 moves in the z direction according to the posture of the concave mirror 26 by the optical system 20 is defined as a movable area 14.
  • the relationship between the visual recognition area 12 and the movable area 14 becomes clear from FIG.
  • the direction perpendicular to the longitudinal direction of the vehicle 1 on the plane perpendicular to the z direction is the y direction.
  • the control circuit 30 is an electronic circuit formed mainly of a microcomputer (not shown), for example. As shown in FIG. 6, the control circuit 30 is electrically connected to the projector 22 and the stepping motor 26 b of the concave mirror 26.
  • the control circuit 30 can communicate with the in-vehicle camera 6 a, the meter 4, the seat sensor 5 a that detects the position of the seat 5 on which the occupant is seated, and the like via the in-vehicle LAN 9.
  • the control circuit 30 controls the display state of the projector 22 and the attitude of the concave mirror 26 based on signals input from the in-vehicle camera 6a, the meter 4, and the seat sensor 5a, and outputs a signal to the meter 4. It is possible.
  • the meter 4 displays, for example, a vehicle state value by instructing a scale as an index by a pointer, and also displays vehicle information, a warning, and the like by image display using a liquid crystal display or the like. Display device.
  • the in-vehicle camera 6a is, for example, a CCD camera that can detect infrared light, and is disposed above the windshield 3 as shown in FIGS. 1 and 4, and is close to the optical axis of the camera 6a.
  • An infrared light source (not shown) is provided at the position.
  • the in-vehicle camera 6a is an occupant because it is used in the monitoring system 6 that generates an alarm sound for a driver who is predicted to feel drowsy, for example, by photographing the facial expression of the driver who is the occupant.
  • the driver's eye 7 can be photographed.
  • step S10 the passenger's eye 7 is photographed. Specifically, the in-vehicle camera 6 a captures an expression including the occupant's eyes 7, and the captured image data is input to the control circuit 30. After the process of step S10, the process proceeds to step S20.
  • step S20 the position PE of the occupant's eye 7 is calculated.
  • a cornea reflection image of the occupant's eye 7 using an infrared light source is extracted from the captured image data obtained in step S10.
  • the position PE of the eye 7 is calculated from the position of the corneal reflection image in the captured image data in consideration of the arrangement of the in-vehicle camera 6a and the infrared light source. Note that the position of the eye 7 may be calculated by other methods.
  • step S30 it is determined whether or not the position PE of the eye 7 is within the movable region 14 in the z direction.
  • a memory (not shown) of the control circuit 30 stores a range in the z direction of the movable region 14 in advance, and the position PE of the eye 7 calculated in step S20 is within the range in the z direction. It is determined whether or not. In particular, in the present embodiment, the right eye 7 and the left eye 7 are determined, and if both eyes 7 are not within the range, a negative determination is made. If one eye 7 is within the range, an affirmative determination may be made. If an affirmation judging is made at Step S30, it will move to Step S40. On the other hand, if a negative determination is made in step S30, the process proceeds to step S32.
  • step S40 the ideal posture of the concave mirror 26 is calculated. Specifically, the ideal posture of the concave mirror 26 associated with the position PE of the eye 7 calculated in step S20 is calculated. Then, based on the relative position of the eye 7 with respect to the current visual recognition area 12 calculated in step S20, the rotational driving amount of the first shaft 26c so that the concave mirror 26 assumes an ideal posture is calculated.
  • the ideal posture in the present embodiment indicates the posture of the concave mirror 26 such that the position PE of the eye 7 calculated in step S20 is the center of the range of the visual recognition area 12 in the z direction.
  • the first shaft 26c can be rotated to approach the center because the eye 7 cannot be moved so as to be centered.
  • the posture at the limit of driving is the ideal posture.
  • step S50 the posture of the concave mirror 26 is adjusted. Based on the rotation driving amount of the first shaft 26c calculated in step S40, the stepping motor 26b to which the drive signal is input rotates the concave mirror 26 around the first shaft 26c, and the posture is changed. . A series of processing is complete
  • step S30 if it is determined in step S30 that the position PE of the occupant's eye 7 is out of the movable region 14 in the z direction, a warning is given to the occupant. Specifically, when the control circuit 30 outputs a warning signal to the meter 4, a warning message is displayed on the liquid crystal display of the meter 4. In particular, in the present embodiment, a warning is given to change the height HS of the seat 5 on which the occupant is seated. After a predetermined time of the process in step S32, the process proceeds to step S34.
  • step S34 it is determined whether or not the height HS of the sheet 5 has been changed. Specifically, the seat sensor 5 a detects that the height HS of the seat 5 has been changed by an occupant, and determines whether or not a detection signal from the seat sensor 5 a is input to the control circuit 30. If an affirmative determination is made in step S34, the imaging in step S10 is started again. That is, an operation for automatically adjusting the posture is started.
  • the control circuit 30 determines the posture of the concave mirror 26 so that the ideal posture associated with the relative position is obtained based on the relative position of the occupant's eye 7 taken by the in-vehicle camera 6a with respect to the visual recognition region 12. Adjust automatically.
  • the automatic adjustment means that the control circuit 30 changes the posture of the concave mirror 26 based on a signal or the like input from the vehicle camera 6a or the like.
  • the in-vehicle camera 6a constitutes an “imaging unit”
  • the control circuit 30 that executes step S50 constitutes an “adjustment unit”
  • the control circuit 30 that executes step S30 is a “determination unit”.
  • the control circuit 30 that executes step S32 constitutes a “warning unit”.
  • the optical system 20 moves the visual recognition area 12 of the image according to the posture of the concave mirror 26. According to this, it is possible to display the virtual image 10 according to the position PE of the occupant's eye 7 by moving the visual recognition area 12 by changing the posture of the concave mirror 26. Then, the posture of the concave mirror 26 is automatically adjusted based on the relative position of the photographed occupant's eye 7 with respect to the visual recognition area 12 so as to be the posture associated with the relative position. According to this, the position PE of the occupant's eye 7 is actually photographed and the posture of the concave mirror 26 is automatically adjusted, so that the display conforming to the position PE of the occupant's eye 7 is not required to perform complicated adjustment work.
  • the HUD device 100 that can automatically adjust the position can be provided.
  • the control circuit 30 determines that the position PE of the occupant's eye 7 is within the movable region in the z direction, the control circuit 30 changes the posture of the concave mirror by rotational driving around the first axis 26c. Adjust automatically. According to this, even when the position PE of the occupant's eye 7 is outside the visual recognition area 12 in the z direction, the display position can be automatically adjusted to the position PE of the occupant's eye 7.
  • the control circuit 30 when the control circuit 30 determines that the position PE of the occupant's eye 7 is out of the movable region 14 in the z direction, the control circuit 30 changes the height HS of the seat 5 on which the occupant is seated. So warn the occupant. According to this, since the height HS of the seat 5 is changed by the occupant and the position PE of the occupant's eye 7 is prompted to enter the movable region 14 in the z direction, the HUD device 100 is out of order. An occupant can recognize that the virtual image 10 is not invisible.
  • the control circuit 30 starts the automatic adjustment of the attitude of the concave mirror 26 when the occupant changes the height HS of the seat 5. According to this, the occupant can automatically adjust the position PE of the occupant's eye 7 within the movable region by changing the height HS of the seat 5.
  • the second embodiment is a modification of the first embodiment.
  • the second embodiment will be described with a focus on differences from the first embodiment.
  • the concave mirror 226 of the HUD device 200 of the second embodiment is the same as the first embodiment in the shape of the reflection surface 26a. However, as shown in FIG. 8, the concave mirror 226 is disposed so as to pass through the center of the concave mirror 226, intersects the first axis 26c at the center of the concave mirror 226 in addition to the first axis 26c, and is perpendicular to the first axis 26c.
  • a second shaft 226d is provided.
  • the concave mirror 226 is driven to rotate around the first axis by a stepping motor 26b in accordance with a drive signal from a control circuit 30 described later. Further, the concave mirror 226 is driven to rotate around the second shaft 226d by another stepping motor 226e. That is, the concave mirror 226 is an optical member that can be changed in posture.
  • the change of the posture of the concave mirror 226 is the same as that of the first embodiment depending on the rotational drive around the first axis 26c. On the other hand, even if the posture of the concave mirror 226 is changed by the rotational drive around the second shaft 226d, the visual recognition area 12 moves according to the posture of the concave mirror 226.
  • the visual recognition area 12 moves in the y direction and in the left-right direction with respect to the vehicle 1. That is, the optical system 20 moves the visual recognition area 12 in the y direction by changing the posture of the concave mirror 226 by rotating around the second axis 226d.
  • the display position of the virtual image 10 is the y direction and moves in the left-right direction with respect to the vehicle 1.
  • the second shaft 226d is used as an auxiliary shaft when the occupant cannot sufficiently view the light of the image as the virtual image 10 only by the rotational drive around the first shaft 26c.
  • the concave mirror 226 corresponding to the position of the visual recognition area 12 where the difference in magnification of the virtual image 10 is minimized between the left and right sides of the center of the virtual image 10
  • the posture is the initial posture.
  • the movable region 214 in the second embodiment is defined as a range in which the visual recognition region 12 moves in the z direction according to the posture of the concave mirror 26 by the optical system 20 as in the first embodiment.
  • the range in which z moves in the z direction is defined as a movable region 214.
  • the visual recognition area 12 is shifted in the y direction from the movable area in accordance with the rotational driving around the second axis 226d, but the range in which the visual recognition area 12 moves in the y direction from the movable area 214 is referred to as the expansion area 216.
  • the first shaft 26c in a state along the y direction, and the visual recognition region 12 is located in the middle of the expansion region 216 in the y direction.
  • the visual recognition area 12 corresponding to the initial posture is indicated by a solid line
  • the movable area 214 including the visual recognition area 12 corresponding to the initial posture is also indicated by a solid line
  • the extended area 216 is indicated by a broken line.
  • releasing the parking state of the vehicle 1 means releasing both the parking brake and the parking range of the shift lever.
  • Steps S210 to S220 perform the same processing as steps S10 to S20 of the first embodiment. After the process of step S220, the process proceeds to step S235.
  • Step S230 performs the same determination as Step S30 of the first embodiment. If a positive determination is made in step S230, the process proceeds to step S236. If a negative determination is made in step S230, the process proceeds to step S232. Steps S232 and S234 perform the same processing as steps S32 and S34 of the first embodiment.
  • step S236 when it is determined in step S230 that the position PE of the occupant's eye 7 is within the movable region 214 in the z direction, whether or not the position PE of the eye 7 is within the movable region 214 in the y direction. Determine whether. Specifically, a memory (not shown) of the control circuit 30 stores a range in the y direction of the movable region 214 in advance, and the position PE of the eye 7 calculated in step S220 is within the range in the y direction. It is determined whether or not. In particular, in this embodiment, a negative determination is made if both eyes 7 are not within the range, but an affirmative determination may be made if one eye 7 is within the range. If a positive determination is made in step S236, the process proceeds to step S237. On the other hand, if a negative determination is made in step S236, the process proceeds to step S244.
  • step S237 it is determined whether or not the viewing area 12 is within the movable area 214. Specifically, if the concave mirror 226 is in the initial posture, the visual recognition region 12 is in the movable region 214, and thus an affirmative determination is made. On the other hand, if the current second shaft 226d is rotating with respect to the second shaft 226d in the initial posture, the viewing area 12 is shifted from the movable area 214 in the y direction. Judgment will be made. If an affirmation judging is made at Step S237, it will move to Step S240. On the other hand, if a negative determination is made in step S237, the process proceeds to step S242.
  • step S240 when it is determined that the position PE of the eye 7 is in the movable region 214 in the y direction and the z direction and the visual recognition region 12 is in the movable region 214 in the y direction, the position around the first axis 26c is determined.
  • the ideal posture of the concave mirror 226 is calculated by rotational driving. Specifically, the ideal posture of the concave mirror 226 associated with the position PE of the eye 7 calculated in step S220 on the premise that the rotational drive around the second axis 226d is stopped and the initial posture is maintained. Is calculated.
  • step S240 a rotation driving amount of the first shaft 26c is calculated so that the concave mirror 226 assumes an ideal posture.
  • step S250 the posture of the concave mirror 226 is adjusted by rotational driving around the first shaft 26c. Based on the rotation driving amount of the first shaft 26c calculated in step S240, the stepping motor 26b to which the drive signal is input rotates the concave mirror 226 around the first shaft 26c, and the posture is changed. . A series of processing is complete
  • step S242 when it is determined that the position PE of the eye 7 is within the movable region 214 in the y direction and the z direction and the visual recognition region 12 is displaced from the movable region 214 in the y direction, the first axis
  • the ideal posture of the concave mirror 226 is calculated by rotational driving around 26c and rotational driving around the second axis 226d. Specifically, the ideal posture of the concave mirror 226 associated with the position PE of the eye 7 calculated in step S220 is calculated on the assumption that the posture of the concave mirror 226 is the initial posture.
  • step S242 based on the relative position of the eye 7 with respect to the current visual recognition area 12 calculated in step S220, the rotational drive amount of the first shaft 26c and the second shaft 226d so that the concave mirror 226 assumes an ideal posture is calculated. To do. After the process of step S242, the process proceeds to step S252.
  • step S252 the posture of the concave mirror 226 is adjusted by rotational driving around the first axis 26c and rotational driving around the second axis 226d.
  • the stepping motors 26b and 226e to which the drive signals are input based on the rotational drive amounts of the first shaft 26c and the second shaft 226d calculated in step S240 cause the concave mirror 226 to move around the first shaft 26c and the second shaft.
  • the posture is changed by rotating around 226d. That is, the visual recognition area 12 is moved into the movable area 214 by step S252. A series of processing is complete
  • step S244 when it is determined in step S230 that the position PE of the occupant's eye 7 is out of the movable region 214 in the y direction, the rotation drive around the first axis 26c and the rotation around the second axis 226d are performed.
  • the ideal posture of the concave mirror 226 is calculated by rotational driving. Specifically, the concave mirror associated with the position PE of the eye 7 calculated in step S220 on the premise that both the rotational driving around the first axis 26c and the rotational driving around the second axis 226d are performed. 226 ideal posture is calculated.
  • step S244 based on the relative position of the eye 7 with respect to the current visual recognition area 12 calculated in step S220, the rotational drive amount of the first shaft 26c and the second shaft 226d so that the concave mirror 226 assumes an ideal posture is calculated. To do. After the process of step S244, the process proceeds to step S254.
  • step S254 the posture of the concave mirror 226 is adjusted by rotational driving around the first axis 26c and rotational driving around the second axis 226d.
  • the stepping motors 26b and 226e to which the drive signals are input based on the rotational drive amounts of the first shaft 26c and the second shaft 226d calculated in step S240 cause the concave mirror 226 to move around the first shaft 26c and the second shaft.
  • the posture is changed by rotating around 226d. That is, by step S254, the viewing area 12 is shifted from the movable area 214 in the y direction. A series of processing is complete
  • the ideal posture in the second embodiment the same concept as in the first embodiment is applied to the rotational drive of the first shaft 26c.
  • the position PE of the eye 7 calculated in step S220 with respect to the initial posture is used as a reference around the minimum second shaft 226d for being in the visual recognition region 12.
  • the posture by the rotation drive is an ideal posture.
  • control circuit 30 determines the attitude of the concave mirror 226 so that the attitude associated with the relative position is based on the relative position of the occupant's eye 7 taken by the in-vehicle camera 6a with respect to the visual recognition area 12. Adjust automatically. Therefore, also according to the second embodiment, it is possible to achieve the operational effects according to the first embodiment.
  • the virtual image 10 displayed with a width in the left-right direction that is the y-direction has a difference in distortion between the left and right sides of the center of the virtual image 10 by the rotational drive around the second axis 226d of the concave mirror 226. May occur. Therefore, when it is determined that the photographed position PE of the occupant's eye 7 is within the movable region 214 in the y direction and the z direction, and the visual recognition region 12 is within the movable region 214 in the y direction, the second axis The rotation drive around 226d is stopped, and the attitude of the concave mirror 226 is automatically adjusted by the rotation drive around the first shaft 26c. According to this, it is possible to automatically adjust the virtual image 10 while suppressing the difference between the left and right distortions.
  • the posture of the concave mirror 226 is automatically adjusted by the rotational drive around the first axis 26c and the rotational drive around the second axis 226d. According to this, it is possible to automatically adjust the virtual image 10 while suppressing the difference between the left and right distortions.
  • the rotation drive around the first axis 26c and the second axis The posture of the concave mirror 226 is automatically adjusted by rotational driving around 226d. According to this, it is possible to display the virtual image 10 in a visually recognizable manner for an occupant who is out of the visual recognition area 12 in the y direction.
  • the second embodiment when the parking state of the vehicle 1 is released, an operation for automatically adjusting the posture of the concave mirror 226 is started. According to this, since the posture of the concave mirror 226 can be automatically adjusted while the occupant is in the driving posture, the HUD that can be automatically adjusted to the display position according to the position PE of the occupant's eye 7 during driving. An apparatus 200 can be provided.
  • the in-vehicle camera 6a constitutes an “imaging unit”
  • the control circuit 30 that executes steps S250, S252, and S254 constitutes an “adjustment unit”, and executes steps S230, S236, and S237.
  • the control circuit 30 forms a “determination unit”
  • the control circuit 30 that executes step S232 forms a “warning unit”.
  • the third embodiment is a modification of the first embodiment.
  • the third embodiment will be described with a focus on differences from the first embodiment.
  • the control circuit 30 of the third embodiment is electrically connected to the manual adjustment switch 308 shown in FIG. 11 in addition to the block diagram of FIG.
  • the manual adjustment switch 308 is formed so as to be tiltable up and down.
  • the control circuit 30 permits the input of the manual adjustment switch 308, when the manual adjustment switch 308 is pushed upward, the posture of the concave mirror 26 is driven to rotate around the first axis 26c, and the virtual image 10
  • the display position is in the z direction and moves upward with respect to the vehicle 1.
  • the manual adjustment switch 308 is driven to rotate in the direction opposite to the previous direction, and the display position of the virtual image 10 is in the z direction and moves downward with respect to the vehicle 1. Yes.
  • the control circuit 30 is electrically connected to the brightness adjustment switch. When the brightness adjustment switch is operated in the manual adjustment mode, the brightness of the virtual image can be adjusted by manually adjusting the output of the light source of the projector.
  • Steps S310 to S330 perform the same control as steps S10 to S30 of the first embodiment. Further, when it is determined in step S330 that the position PE of the occupant's eye 7 is within the movable region 14 in the z direction, the same control as steps S40 to S50 of the first embodiment is performed. . After the process of step S350, that is, after automatically adjusting the posture of the concave mirror 26, the process proceeds to step S360.
  • step S360 a transition to the manual adjustment mode is performed. That is, when the control circuit 30 permits input of the manual adjustment switch 308, the occupant can manually adjust the posture of the concave mirror 26 by the manual adjustment switch 308. A series of processes are complete
  • step S330 when it is determined in step S330 that the position PE of the occupant's eye 7 is out of the movable region 14 in the z direction, the same control as in steps S32 to 34 of the first embodiment is performed in steps S332 to S334. Do. However, if a negative determination is made in step S334, the process proceeds to step S360.
  • control circuit 30 determines the posture of the concave mirror 26 so that the posture associated with the relative position is based on the relative position of the occupant's eye 7 taken by the in-vehicle camera 6a with respect to the visual recognition area 12. Adjust automatically. Therefore, also according to the third embodiment, it is possible to achieve the operational effects according to the first embodiment.
  • the occupant can manually adjust the posture of the concave mirror 26. According to this, even if the occupant is difficult to adjust from the state where the virtual image 10 is not visually recognized, the control circuit 30 of the HUD device 300 automatically adjusts the posture of the concave mirror 26 where the virtual image 10 is visible, and then suits the occupant's preference. It is possible to make manual adjustments such as fine adjustments to the appearance.
  • the in-vehicle camera 6a constitutes a “photographing unit”
  • the control circuit 30 that executes step S350 constitutes an “adjusting unit”
  • the control circuit 30 that executes step S330 is a “determination unit”.
  • the control circuit 30 that executes step S332 forms a “warning unit”.
  • the optical member provided so that the posture can be changed may be a plane mirror 24 other than the concave mirror 26, for example.
  • the ideal posture may be calculated based on another way of thinking. For example, regarding the rotational drive of the first shaft 26c, the minimum rotational drive around the first shaft 26c for the position PE of the eye 7 calculated in steps S20, S220, and S320 to be within the visual recognition region 12 is performed.
  • the posture of the concave mirror 26 may be an ideal posture.
  • steps S20, S30, S32, S34, S40, S220, S230, S232, S234, S236, S237, S240, S242, S320, S330, S332, S334, and S340 are included.
  • the meter 4 other than the control circuit 30 may perform the processing.
  • the warning in steps S32, S232, and S332 may be a warning message displayed on the navigation screen of the vehicle 1, or may be warned by voice.
  • a process corresponding to S360 may be added in which the posture of the concave mirror 226 can be manually adjusted by the occupant after the posture of the concave mirror 226 is automatically adjusted.
  • step S210 an operation for automatically adjusting the attitude of the concave mirror 226, that is, step S210 is started when the engine switch is turned on. Good.
  • the time point when at least one of the parking range of the parking brake and the shift lever is released may be set as the time point when the parking state is released.
  • the posture of the concave mirror 26 is automatically adjusted when the occupant presses the automatic adjustment button provided on the vehicle 1. For example, steps S10, S210, and S310 may be started.
  • the HUD device 100 may be applied to various moving bodies (transportation equipment) such as ships other than vehicles or airplanes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 ヘッドアップディスプレイ装置は、乗員の眼(7)を撮影する撮影部(6a)を有した移動体(1)に搭載され、前記移動体の投影部材(3)に画像を投影することにより、虚像(10)を視認領域(12)において前記乗員により視認可能に表示する。ヘッドアップディスプレイ装置は、姿勢が変更可能に設けられる光学部材(26,226)を有し、前記光学部材の姿勢に応じて前記視認領域は移動される。ヘッドアップディスプレイ装置は、前記撮影部が撮影した前記眼の前記視認領域に対する相対位置に基づいて、前記光学部材の姿勢を自動調整する調整部(S50,S250,S252,S254,S350)を備える。

Description

ヘッドアップディスプレイ装置 関連出願の相互参照
 本出願は、2014年5月26日に出願された日本出願番号2014-108315号に基づくもので、ここにその記載内容を援用する。
 本開示は、ヘッドアップディスプレイ装置(以下、HUD装置)に関する。
 従来、移動体に搭載され、移動体の投影部材に画像を投影することにより、虚像を乗員により視認可能に表示するHUD装置が知られている。特許文献1では、HUD装置に加え、調整用のディスプレイ、鏡、被撮影物を用いている。調整作業として、作業者は、車両を所定位置に停止して、鏡、及び被撮影物を所定位置に固定する。さらに、作業者は、車外検知カメラで被撮影物を撮影した画像及び運転者検知カメラで鏡を撮影した画像が表示されたディスプレイを見ながら、HUD装置を調整する。
特開2009-262666号公報
 特許文献1では、上記のような煩雑な調整が必要であり、乗員の眼の位置に合わせて表示位置を調整することは、面倒かつ困難であった。
 本開示の目的は、乗員の眼の位置に合わせた表示位置に虚像が表示されるように自動で調整可能なHUD装置を提供することにある。
 本開示の一形態において、乗員の眼を撮影する撮影部を有した移動体に搭載され、移動体の投影部材に画像を投影することにより、虚像を視認領域において乗員により視認可能に表示するヘッドアップディスプレイ装置は、姿勢が変更可能に設けられる光学部材を有する。光学部材の姿勢に応じて視認領域が移動される。ヘッドアップディスプレイ装置は、撮影部が撮影した眼の視認領域に対する相対位置に基づいて、光学部材の姿勢を自動調整する調整部を備える。
 。これによれば、光学部材の姿勢の変更により視認領域を移動させることで、乗員の眼の位置に合わせて虚像を表示することが可能となる。光学部材の姿勢は、撮影された乗員の眼の視認領域に対する相対位置に基づいて、自動調整される。これによれば、実際に乗員の眼の位置を撮影して、光学部材の姿勢を自動調整することで、煩雑な調整作業を行うことなく、乗員の眼の位置に合わせた表示位置に虚像が表示されるように自動で調整可能なHUD装置を提供することができる。
第1実施形態におけるHUD装置の車両への搭載状態を示す模式図である。 第1実施形態におけるHUD装置の光学系を示す模式図である。 第1実施形態におけるHUD装置の構成を示す分解斜視図である。 図1における凹面鏡の姿勢の変更について説明する模式図である。 第1実施形態における視認領域と可動領域との関係を説明する模式図である。 第1実施形態における制御回路を説明するブロック図である。 第1実施形態における制御回路等の動作を示すフローチャートである。 第2実施形態におけるHUD装置の光学系を示す模式図である。 第2実施形態における視認領域と可動領域との関係を説明する模式図であって、図5に相当する図である。 第2実施形態における制御回路等の動作を示すフローチャートである。 第3実施形態における手動調整スイッチを示す模式図である。 第3実施形態における制御回路等の動作を示すフローチャートである。
 以下、複数の実施形態を図面に基づいて説明する。なお、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。
 (第1実施形態)
 図1に示すように、第1実施形態によるHUD装置100は、移動体の一種である車両1に搭載され、インストルメントパネル2内に収容されている。HUD装置100は、車両1の投影部材としてのウインドシールド3に画像を投影する。これによりHUD装置100は、車両1の室内の視認領域12において乗員の眼7により、かかる画像を虚像10として視認させる。すなわち、ウインドシールド3に反射される画像の光が、乗員の眼7の位置に到達し、乗員が当該光を知覚する。これによって、乗員は、車速、若しくは燃料残量等の車両状態値、又は道路情報、若しくは視界補助情報等の車両情報を、認識することができる。
 車両1のウインドシールド3において、室内側の面は、画像が投影される投影面3aを、湾曲する凹面状又は平坦な平面状等に形成している。ウインドシールド3は、室内側の面と室外側の面とで、各面を反射してできる虚像を重ねるための角度差を有してもよい。ウインドシールド3は、室外側の面の反射による虚像の輝度を抑制するために蒸着膜ないしはフィルム等を設けてもよい。投影部材として、ウインドシールド3の代わりに、車両1と別体となっているコンバイナを車両1内に設置して、当該コンバイナに画像を投影してもよい。
 本実施形態では、水平面上の車両1の上下方向をz方向と定義する。前方に虚像10を表示する車両1の前後方向をx方向と定義する。前方に虚像10を表示する車両1の左右方向をy方向と定義する。
 最初に、HUD装置100の具体的構成を、簡単に説明する。HUD装置100は、光学系20、及び当該光学系20を制御する制御回路30を備えている。光学系20は、図2,3に示すように、投射器22、平面鏡24、凹面鏡26、及び防塵シート28を有している。
 投射器22は、液晶式の投射器であり、内部の光源(図示しない)からの光を、表面の液晶パネル22aを透過させることで画像を形成し、当該画像の光を光束として平面鏡24に向けて投射する。特に本実施形態では、光源として発光ダイオードからなる発光素子が採用され、液晶パネル22aとしてドットマトリクス型のカラーTFT液晶パネルが採用されている。投射器22は、画像を投射可能であれば他の構成であってもよく、例えばレーザを用いるMEMSスキャナ方式の投射器、あるいは有機EL方式の投射器であってもよい。
 平面鏡24は、合成樹脂ないしはガラス等からなる基材の表面に、反射面24aとしてアルミニウムを蒸着させること等により、形成されている。反射面24aは、滑らかな平面状に形成されている。かかる形状により、平面鏡24は、投射器22からの画像の光を凹面鏡26に向けて反射する。
 凹面鏡26は、合成樹脂ないしはガラス等からなる基材の表面に、反射面26aとしてアルミニウムを蒸着させること等により、形成されている。反射面26aは、凹面鏡26の中央が凹む凹面として、滑らかな曲面状に形成されている。より詳細には、ウインドシールド3の投影面3aに投影される画像の虚像に生ずる歪みを抑制するため、当該投影面3aの形状に応じた非球面状、より厳密には自由曲面状に形成されている。かかる非球面状の形状は、後述する第1軸26cまわりの回動駆動による凹面鏡26の姿勢に応じた虚像10の上下移動を考慮して設定されている。かかる形状により、凹面鏡26は、平面鏡24からの画像の光を、防塵シート28を通して、HUD装置100よりも上方に位置する車両1のウインドシールド3に向けて反射する。
 また、凹面鏡26は、凹面鏡26の中央を通るように配置され、y方向に沿った第1軸26cを有している。そして、凹面鏡26は、後述する制御回路30からの駆動信号に従って、ステッピングモータ26bにより、凹面鏡26を第1軸26cまわりに回動駆動される。すなわち、凹面鏡26は、姿勢が変更可能に設けられる光学部材をなしている。ステッピングモータ26bは、凹面鏡26を駆動する駆動部に相当する。
 防塵シート28は、ポリカーボネイト樹脂等の合成樹脂により、透光性を有する板状に形成されている。防塵シート28は、光学系20を収容するハウジング40の開口を塞ぐことで、凹面鏡26からの画像の光を車両1のウインドシールド3に向けて透過させると共に、HUD装置100外の塵等が装置100の内部に侵入することを防止している。
 ウインドシールド3に投影された画像の光は、光束として、ウインドシールド3に対して後方の視認領域12に到達する。乗員の眼7の位置PEが視認領域12内であれば、画像の光を前方の虚像10として視認することができ、視認領域12外であれば、画像の光を虚像10として十分に視認することができない。
 このような光学系20における、凹面鏡26の姿勢の変更について、図4,5を用いて以下に説明する。凹面鏡26が軸26cまわりに回動駆動すると、凹面鏡26の姿勢、すなわち反射面26aの角度が変更されることにより、画像の光の反射角が変更される。そして、反射角が変更された画像の光のウインドシールド3における投射箇所及び入射角も変更され、これに応じて、光束としての画像の光が到達する範囲も変更される。要するに、凹面鏡26の姿勢が変更されると、凹面鏡26の姿勢に応じて視認領域12が移動することとなる。
 特に本実施形態では、図4に示すように、具体的に、凹面鏡26の姿勢が第1軸26cまわりの一方に回動駆動すると、例えば視認領域12はz方向であって車両1に対して上方に移動する。この場合、車両1の前方に表示される虚像10の表示位置は、例えばz方向であって車両1に対して下方に移動する。また、凹面鏡26の姿勢が第1軸26cまわりの他方に回動駆動すると、例えば視認領域12はz方向であって車両1に対して下方に移動する。この場合、虚像10の表示位置は、例えばz方向であって車両1に対して上方に移動する。
 このように、光学系20は、第1軸26cまわりの回動駆動によって凹面鏡26の姿勢を変更することにより、視認領域12をz方向に移動させる。
 本実施形態では、光学系20により凹面鏡26の姿勢に応じて視認領域12がz方向に移動する範囲を可動領域14と定義する。y方向に沿った第1軸26cまわりの回動駆動により視認領域12がz方向に上下移動するHUD装置100において、視認領域12と可動領域14との関係は、図5によって明らかになる。なお、ここで、z方向に垂直な平面上において車両1の前後方向にも垂直な方向がy方向である。
 制御回路30は、例えばマイクロコンピュータ(図示しない)を主体として形成される電子回路である。図6に示すように、制御回路30は、投射器22、及び凹面鏡26のステッピングモータ26bと電気的に接続されている。また、制御回路30は、車内カメラ6a、メータ4、及び乗員が着座するシート5のポジションを検出するシートセンサ5a等と車内LAN9により通信可能となっている。制御回路30は、車内カメラ6a、メータ4、シートセンサ5aから入力される信号に基づいて、投射器22における表示状態、及び凹面鏡26の姿勢を制御すると共に、メータ4に信号を出力することが可能となっている。
 メータ4は、詳細を図示しないが、例えば、指針による指標としての目盛を指示することで、車両状態値を表示すると共に、液晶ディスプレイ等による画像表示により、車両情報、及び警告等を表示する車両用表示装置である。
 また、車内カメラ6aは、例えば赤外光の検出に対応したCCDカメラであって、図1,4に示すように、ウインドシールド3の上方に配置されており、当該カメラ6aの光軸に近い位置に図示しない赤外光源を備えている。車内カメラ6aは、乗員である運転者の表情を撮影することで、例えば眠気を感じていると予測された運転者に対し警報音を発生させるモニタリングシステム6に用いられているため、乗員である運転者の眼7を撮影可能となっている。
 次に、車両1のエンジンスイッチがオンされた時点で、第1実施形態における制御回路30が、モニタリングシステム6と連携して、コンピュータプログラムの実行により実施するフローチャートを、図7に基づいて詳細に説明する。
 ステップS10では、乗員の眼7の撮影を行なう。具体的には、車内カメラ6aが乗員の眼7を含む表情を撮影し、その撮影画像データが制御回路30へと入力される。ステップS10の処理後、ステップS20に移る。
 ステップS20では、乗員の眼7の位置PEの算出を行なう。例えば、ステップS10にて得られた撮影画像データから、赤外光源による乗員の眼7の角膜反射像を抽出する。そして、車内カメラ6a、及び赤外光源の配置を考慮し、撮影画像データにおける角膜反射像の位置から眼7の位置PEを算出する。なお、他の方法により眼7の位置を算出してもよい。ステップS20の処理後、ステップS30に移る。
 ステップS30では、眼7の位置PEがz方向において可動領域14内であるか否かを判定する。具体的には、制御回路30のメモリ(図示しない)が予め可動領域14のz方向における範囲を記憶しており、ステップS20にて算出された眼7の位置PEが、z方向において当該範囲内であるか否かを判定する。特に本実施形態では、右眼7及び左眼7それぞれを判定して、両眼7が範囲内でなければ否定判定を下すようにする。なお、片眼7が範囲内であれば肯定判定を下すようにしてもよい。ステップS30において肯定判定を下すと、ステップS40に移る。一方、ステップS30において否定判定を下すと、ステップS32に移る。
 ステップS40では、凹面鏡26の理想の姿勢の算出を行なう。具体的には、ステップS20にて算出された眼7の位置PEに関連付けられた凹面鏡26の理想の姿勢を算出する。そして、ステップS20にて算出された眼7の現在の視認領域12に対する相対位置に基づいて、凹面鏡26が理想の姿勢となるような第1軸26cの回動駆動量を算出する。
 ここで、本実施形態における理想の姿勢とは、z方向において、ステップS20にて算出された眼7の位置PEが、視認領域12の範囲の中心となるような凹面鏡26の姿勢を示す。ただし、z方向において、眼7の位置PEが可動領域14の境界に近い場合は、視認領域12を中心とするように移動させることができないため、中心に近づくための第1軸26cの回動駆動の限界における姿勢を、理想の姿勢とする。ステップS40の処理後、ステップS50に移る。
 ステップS50では、凹面鏡26の姿勢の調整を行なう。ステップS40にて算出された第1軸26cの回動駆動量に基づいて、駆動信号を入力されたステッピングモータ26bが、凹面鏡26を第1軸26cまわりに回動駆動させ、姿勢が変更される。ステップS50を以って一連の処理を終了する。
 一方、ステップS30にて乗員の眼7の位置PEが可動領域14からz方向に外れていると判定された場合のステップS32では、乗員に警告を行なう。具体的には、制御回路30がメータ4に警告信号を出力すると、メータ4の液晶ディスプレイに警告メッセージが表示される。特に本実施形態では、乗員が着座するシート5の高さHSを変更するように警告するようになっている。ステップS32の処理の所定時間後、ステップS34に移る。
 ステップS34では、シート5の高さHSが変更されたか否かを判定する。具体的には、乗員によってシート5の高さHSが変更されたことをシートセンサ5aが検出し、当該シートセンサ5aの検出信号が制御回路30に入力されているか否かを判定する。ステップS34において肯定判定を下すと、再びステップS10の撮影を開始する。すなわち、姿勢を自動調整するための動作を開始する。
 このようにして、制御回路30は、車内カメラ6aが撮影した乗員の眼7の視認領域12に対する相対位置に基づいて、当該相対位置に関連付けられた理想の姿勢となるように、凹面鏡26の姿勢を自動調整する。ここで、自動調整とは、制御回路30が車内カメラ6a等から入力される信号等に基づいて、凹面鏡26の姿勢を変更することを意味する。
 なお、第1実施形態では、車内カメラ6aが「撮影部」を構成し、ステップS50を実行する制御回路30が「調整部」を構成し、ステップS30を実行する制御回路30が「判定部」を構成し、ステップS32を実行する制御回路30が「警告部」を構成する。
 (作用効果)
 以上説明した第1実施形態の作用効果を以下に説明する。
 第1実施形態によると、光学系20は、凹面鏡26の姿勢に応じて画像の視認領域12を移動させる。これによれば、凹面鏡26の姿勢の変更により視認領域12を移動させることで、乗員の眼7の位置PEに合わせて虚像10を表示することが可能となる。そして、凹面鏡26の姿勢は、撮影された乗員の眼7の視認領域12に対する相対位置に基づいて、当該相対位置に関連付けられた姿勢となるように自動調整される。これによれば、実際に乗員の眼7の位置PEを撮影して、凹面鏡26の姿勢を自動調整することで、煩雑な調整作業を強いることなく、乗員の眼7の位置PEに合わせた表示位置に自動で調整可能なHUD装置100を提供することができる。
 また、第1実施形態によると、制御回路30は、乗員の眼7の位置PEがz方向において可動領域内であると判定した場合、第1軸26cまわりの回動駆動によって、凹面鏡の姿勢を自動調整する。これによれば、乗員の眼7の位置PEがz方向において視認領域12外であった場合でも、乗員の眼7の位置PEに合わせた表示位置に自動で調整することができる。
 また、第1実施形態によると、制御回路30は、乗員の眼7の位置PEが可動領域14からz方向に外れていると判定した場合、乗員が着座するシート5の高さHSを変更するように乗員に警告する。これによれば、乗員にシート5の高さHSを変更し、乗員の眼7の位置PEがz方向の可動領域14内に入ることを促すことで、HUD装置100が故障しているために虚像10が見えないのではないということを、乗員に認識させることができる。
 また、第1実施形態によると、制御回路30は、乗員がシート5の高さHSを変更した場合、凹面鏡26の姿勢の自動調整を開始する。これによれば、乗員がシート5の高さHSを変更することで、乗員の眼7の位置PEが可動領域内に入った状態で自動調整することができる。
 (第2実施形態)
 図8~10に示すように、第2実施形態は第1実施形態の変形例である。第2実施形態について、第1実施形態とは異なる点を中心に説明する。
 第2実施形態のHUD装置200の凹面鏡226は、反射面26aの形状こそ第1実施形態と同様である。ところが凹面鏡226は、図8に示すように、凹面鏡226の中央を通るように配置され、第1軸26cに加え、凹面鏡226の中央において第1軸26cと交差し、第1軸26cに垂直な第2軸226dを有している。そして、凹面鏡226は、後述する制御回路30からの駆動信号に従って、ステッピングモータ26bにより、凹面鏡を第1軸まわりに回動駆動されるようになっている。また、凹面鏡226は、別のステッピングモータ226eにより、凹面鏡226を第2軸226dまわりに回動駆動されるようになっている。すなわち、凹面鏡226は、姿勢が変更可能に設けられる光学部材をなしている。
 このような凹面鏡226の姿勢の変更について、第1軸26cまわりの回動駆動によっては、第1実施形態と同様である。一方、第2軸226dまわりの回動駆動によって凹面鏡226の姿勢が変更されても、凹面鏡226の姿勢に応じて視認領域12が移動することとなる。
 具体的に、凹面鏡226の姿勢が第2軸226dまわりに回動駆動すると、視認領域12はy方向であって車両1に対して左右方向に移動する。すなわち、光学系20は、第2軸226dまわりの回動駆動によって凹面鏡226の姿勢を変更することにより、視認領域12をy方向に移動させる。この場合、虚像10の表示位置は、y方向であって車両1に対して左右方向に移動する。
 しかし、y方向となる左右方向に幅をもって表示されている虚像10が左右に移動すると、虚像10の拡大率が虚像の中心を挟む左右で非対称となるため、左右で歪みに違いが生じ、歪みが目立ち易い状態となる。したがって、第2軸226dは、第1軸26cまわりの回動駆動だけでは、乗員に画像の光を虚像10として十分に視認されることができない場合の補助的な軸として用いられる。ここで、第2軸226dまわりの回動駆動に対する視認領域12の移動において、虚像10の中心を挟む左右で虚像10の拡大率の差が極小となる視認領域12の位置に応じた凹面鏡226の姿勢を、初期姿勢とする。
 第2実施形態における可動領域214は、第1実施形態と同様に光学系20により凹面鏡26の姿勢に応じて視認領域12がz方向に移動する範囲と定義される。ただし、第1軸26cに垂直な第2軸226dまわりの回動駆動により視認領域12がy方向に左右移動もするHUD装置200では、図9に示すように、初期姿勢に対して視認領域12がz方向に移動する範囲を可動領域214とする。また、第2軸226dまわりの回動駆動に伴い、視認領域12が可動領域からy方向にずれることとなるが、視認領域12が可動領域214からy方向に移動する範囲を、拡張領域216と定義する。特に本実施形態では、初期姿勢において、第1軸26cがy方向に沿った状態となり、y方向における拡張領域216の中間に視認領域12が位置する。なお、図9では、初期姿勢に応じた視認領域12が実線で示され、初期姿勢に応じた視認領域12を包含する可動領域214も実線で示され、拡張領域216は破線で示されている。
 次に、車両1のパーキング状態が解除された時点で、第1実施形態における制御回路30が、モニタリングシステム6と連携して、コンピュータプログラムの実行により実施するフローチャートを、図10に基づいて詳細に説明する。なお、車両1のパーキング状態の解除とは、パーキングブレーキ及びシフトレバーにおけるパーキングレンジの両方の解除を意味する。
 ステップS210~S220は、第1実施形態のステップS10~S20と同様の処理を行なう。ステップS220の処理後、ステップS235に移る。
 ステップS230は、第1実施形態のステップS30と同様の判定を行なう。ステップS230において肯定判定を下すと、ステップS236に移る。ステップS230において否定判定を下すと、ステップS232に移る。ステップS232,S234は、第1実施形態のステップS32,S34と同様の処理を行なうこととなる。
 一方、ステップS230にて乗員の眼7の位置PEがz方向において可動領域214内であると判定された場合のステップS236では、眼7の位置PEがy方向において可動領域214内であるか否かを判定する。具体的には、制御回路30のメモリ(図示しない)が予め可動領域214のy方向における範囲を記憶しており、ステップS220にて算出された眼7の位置PEが、y方向において当該範囲内であるか否かを判定する。特に本実施形態では、両眼7が範囲内でなければ否定判定を下すようにしているが、片眼7が範囲内であれば肯定判定を下すようにしてもよい。ステップS236において肯定判定を下すと、ステップS237に移る。一方、ステップS236において否定判定を下すと、ステップS244に移る。
 ステップS237では、視認領域12が可動領域214内であるか否かを判定する。具体的には、凹面鏡226の姿勢が初期姿勢であれば、視認領域12が可動領域214内であるため、肯定判定が下すこととなる。一方、初期姿勢の第2軸226dに対して、現在の第2軸226dが回動している状態であれば、視認領域12がy方向において可動領域214からずれている状態であるため、否定判定が下すこととなる。ステップS237において肯定判定を下すと、ステップS240に移る。一方、ステップS237において否定判定を下すと、ステップS242に移る。
 眼7の位置PEがy方向及びz方向において可動領域214内であり、かつ、視認領域12がy方向において可動領域214内であると判定された場合のステップS240では、第1軸26cまわりの回動駆動による凹面鏡226の理想の姿勢の算出を行なう。具体的には、第2軸226dまわりの回動駆動を停止させ、初期姿勢を維持することを前提として、ステップS220にて算出された眼7の位置PEに関連付けられた凹面鏡226の理想の姿勢を算出する。そして、ステップS220にて算出された眼7の現在の視認領域12に対する相対位置に基づいて、凹面鏡226が理想の姿勢となるような第1軸26cの回動駆動量を算出する。ステップS240の処理後、ステップS250に移る。
 ステップS250では、第1軸26cまわりの回動駆動による凹面鏡226の姿勢の調整を行なう。ステップS240にて算出された第1軸26cの回動駆動量に基づいて、駆動信号を入力されたステッピングモータ26bが、凹面鏡226を第1軸26cまわりに回動駆動させ、姿勢が変更される。ステップS250を以って一連の処理を終了する。
 また、眼7の位置PEがy方向及びz方向において可動領域214内であり、かつ、視認領域12がy方向において可動領域214からずれていると判定された場合のステップS242では、第1軸26cまわりの回転駆動と、第2軸226dまわりの回転駆動とによる凹面鏡226の理想の姿勢の算出を行なう。具体的には、凹面鏡226の姿勢を、初期姿勢とすることを前提として、ステップS220にて算出された眼7の位置PEに関連付けられた凹面鏡226の理想の姿勢を算出する。そして、ステップS220にて算出された眼7の現在の視認領域12に対する相対位置に基づいて、凹面鏡226が理想の姿勢となるような第1軸26c及び第2軸226dの回動駆動量を算出する。ステップS242の処理後、ステップS252に移る。
 ステップS252では、第1軸26cまわりの回転駆動と、第2軸226dまわりの回転駆動とによる凹面鏡226の姿勢の調整を行なう。ステップS240にて算出された第1軸26c及び第2軸226dの回動駆動量に基づいて、駆動信号を入力されたステッピングモータ26b,226eが、凹面鏡226を第1軸26cまわり及び第2軸226dまわりに回動駆動させることで、姿勢が変更される。すなわち、ステップS252によって、視認領域12は可動領域214内に移動することとなる。ステップS252を以って一連の処理を終了する。
 また、ステップS230にて乗員の眼7の位置PEが可動領域214からy方向に外れていると判定された場合のステップS244では、第1軸26cまわりの回転駆動と、第2軸226dまわりの回転駆動とによる凹面鏡226の理想の姿勢の算出を行なう。具体的には、第1軸26cまわりの回転駆動と、第2軸226dまわりの回転駆動との両方を行なうことを前提として、ステップS220にて算出された眼7の位置PEに関連付けられた凹面鏡226の理想の姿勢を算出する。そして、ステップS220にて算出された眼7の現在の視認領域12に対する相対位置に基づいて、凹面鏡226が理想の姿勢となるような第1軸26c及び第2軸226dの回動駆動量を算出する。ステップS244の処理後、ステップS254に移る。
 ステップS254では、第1軸26cまわりの回転駆動と、第2軸226dまわりの回転駆動とによる凹面鏡226の姿勢の調整を行なう。ステップS240にて算出された第1軸26c及び第2軸226dの回動駆動量に基づいて、駆動信号を入力されたステッピングモータ26b,226eが、凹面鏡226を第1軸26cまわり及び第2軸226dまわりに回動駆動させることで、姿勢が変更される。すなわち、ステップS254によって、視認領域12はy方向において可動領域214からずれた状態となる。ステップS254を以って一連の処理を終了する。
 ここで、第2実施形態における理想の姿勢は、第1軸26cの回動駆動については、第1実施形態と同様の考え方を適用する。一方、第2軸226dの回動駆動については、初期姿勢を基準として、ステップS220にて算出された眼7の位置PEが、視認領域12内となるための最小限の第2軸226dまわりの回動駆動による姿勢を、理想の姿勢とする。
 第2実施形態においても、制御回路30は、車内カメラ6aが撮影した乗員の眼7の視認領域12に対する相対位置に基づいて、当該相対位置に関連付けられた姿勢となるように、凹面鏡226の姿勢を自動調整する。したがって、第2実施形態によっても、第1実施形態に準じた作用効果を奏することが可能となる。
 また、第2実施形態によると、y方向となる左右方向に幅をもって表示される虚像10は、凹面鏡226の第2軸226dまわりの回動駆動によって虚像10の中心を挟む左右で歪みに違いが生ずるおそれがある。そこで、撮影された乗員の眼7の位置PEがy方向及びz方向において可動領域214内であり、かつ、視認領域12がy方向において可動領域214内であると判定された場合、第2軸226dまわりの回動駆動を停止させ、第1軸26cまわりの回動駆動によって、凹面鏡226の姿勢を自動調整する。これによれば、虚像10に左右の歪みに違いを生じさせることを抑制して、自動調整することができる。
 また、第2実施形態によると、眼7の位置PEがy方向及びz方向において可動領域214内であり、かつ、視認領域12がy方向において可動領域214からずれていると判定された場合、第1軸26cまわりの回動駆動と、第2軸226dまわりの回動駆動とによって、凹面鏡226の姿勢を自動調整する。これによれば、虚像10に左右の歪みに違いを生じさせることを抑制して、自動調整することができる。
 また、第2実施形態によると、撮影された乗員の眼7の位置PEが可動領域214からy方向に外れていると判定された場合、第1軸26cまわりの回動駆動と、第2軸226dまわりの回動駆動とによって、凹面鏡226の姿勢を自動調整する。これによれば、視認領域12をy方向に外れた乗員に対して、虚像10を視認可能に表示させることができる。
 また、第2実施形態によると、車両1のパーキング状態が解除された時点で、凹面鏡226の姿勢を自動調整するための動作を開始する。これによれば、乗員が運転姿勢の状態で、凹面鏡226の姿勢を自動調整することが可能となるので、運転中の乗員の眼7の位置PEに合わせた表示位置に自動で調整可能なHUD装置200を提供することができる。
 なお、第2実施形態では、車内カメラ6aが「撮影部」を構成し、ステップS250,S252,S254を実行する制御回路30が「調整部」を構成し、ステップS230,S236,S237を実行する制御回路30が「判定部」を構成し、ステップS232を実行する制御回路30が「警告部」を構成する。
 (第3実施形態)
 図11~12に示すように、第3実施形態は第1実施形態の変形例である。第3実施形態について、第1実施形態とは異なる点を中心に説明する。
 第3実施形態の制御回路30は、図6のブロック図に加え、図11に示す手動調整スイッチ308と電気的に接続されている。手動調整スイッチ308は、上下に傾斜可能に形成されている。制御回路30が手動調整スイッチ308の入力を許可する手動調整モードにおいて、手動調整スイッチ308は、上側が押されると、凹面鏡26の姿勢が第1軸26cまわりに回動駆動して、虚像10の表示位置がz方向であって車両1に対して上方に移動するようになっている。また、手動調整スイッチ308は、下側が押されると、先程とは逆まわりに回動駆動して、虚像10の表示位置がz方向であって車両1に対して下方に移動するようになっている。その他、図示しないが、制御回路30は、輝度調整スイッチと電気的に接続されている。手動調整モードにおいて、輝度調整スイッチを操作すると、投射器の光源の出力を手動調整して、虚像の輝度を調整することができる。
 次に、車両1のエンジンスイッチがオンされた時点で、第1実施形態における制御回路30が、モニタリングシステム6と連携して、コンピュータプログラムの実行により実施するフローチャートを、図12に基づいて説明する。
 ステップS310~S330は、第1実施形態のステップS10~S30と同様の制御を行なう。また、ステップS330にて乗員の眼7の位置PEがz方向において可動領域14内であると判定された場合のステップS340~S350は、第1実施形態のステップS40~S50と同様の制御を行なう。ステップS350の処理後、すなわち凹面鏡26の姿勢を自動調整した後、ステップS360に移る。
 ステップS360では、手動調整モードへの移行を行なう。すなわち、制御回路30が手動調整スイッチ308の入力を許可することで、乗員は、手動調整スイッチ308により、凹面鏡26の姿勢を手動調整可能となる。ステップS360を以って一連の処理を終了する。
 一方、ステップS330にて乗員の眼7の位置PEが可動領域14からz方向に外れていると判定された場合のステップS332~S334も、第1実施形態のステップS32~34と同様の制御を行なう。ただし、ステップS334において否定判定を下すと、ステップS360に移るようになっている。
 第3実施形態においても、制御回路30は、車内カメラ6aが撮影した乗員の眼7の視認領域12に対する相対位置に基づいて、当該相対位置に関連付けられた姿勢となるように、凹面鏡26の姿勢を自動調整する。したがって、第3実施形態によっても、第1実施形態に準じた作用効果を奏することが可能となる。
 また、第3実施形態によると、凹面鏡26の姿勢を自動調整した後、乗員が凹面鏡26の姿勢を手動調整可能とする。これによれば、虚像10が視認されない状態からの調整が困難な乗員であっても、HUD装置300の制御回路30が虚像10の見える凹面鏡26の姿勢まで自動調整した後、乗員の好みに合った見え具合に微調整等の手動調整をすることができる。
 なお、第3実施形態では、車内カメラ6aが「撮影部」を構成し、ステップS350を実行する制御回路30が「調整部」を構成し、ステップS330を実行する制御回路30が「判定部」を構成し、ステップS332を実行する制御回路30が「警告部」を構成する。
 (他の実施形態)
 以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
 具体的に、第1~3実施形態に関する変形例1としては、姿勢が変更可能に設けられる光学部材は、凹面鏡26以外の、例えば平面鏡24であってもよい。
 第1~3実施形態に関する変形例2としては、理想の姿勢は、他の考え方に基づいて算出されてもよい。例えば、第1軸26cの回動駆動について、ステップS20,S220,S320にて算出された眼7の位置PEが、視認領域12内となるための最小限の第1軸26cまわりの回動駆動による凹面鏡26の姿勢を、理想の姿勢としてもよい。
 第1~3実施形態に関する変形例3としては、ステップS20,S30,S32,S34,S40,S220,S230,S232,S234,S236,S237,S240,S242,S320,S330,S332,S334,S340の処理は、制御回路30以外の、例えばメータ4が行なってもよい。
 第1~3実施形態に関する変形例4としては、ステップS32,S232,S332における警告は、車両1のナビ画面に警告メッセージを表示してもよく、音声で警告するようにしてもよい。
 第1~3実施形態に関する変形例5としては、ステップS32,S232,S332における警告の後に、シートの高さが変更された場合、乗員が車両1に備えられた自動調整ボタンを押した時点で、再びステップS10,S210,S310の撮影を開始するようにしてもよい。
 第1,3実施形態に関する変形例6としては、エンジンスイッチのオンに代えて、パーキング状態が解除された時点で、凹面鏡26の姿勢を自動調整するための動作、すなわちステップS10,S310を開始するようにしてもよい。
 第2実施形態に関する変形例7としては、凹面鏡226の姿勢を自動調整した後、乗員により凹面鏡226の姿勢を手動調整可能とするS360に相当する処理が追加されてもよい。
 第2実施形態に関する変形例8としては、パーキング状態の解除に代えて、エンジンスイッチがオンされた時点で、凹面鏡226の姿勢を自動調整するための動作、すなわちステップS210を開始するようにしてもよい。
 第2実施形態に関する変形例9としては、パーキングブレーキ及びシフトレバーにおけるパーキングレンジの少なくとも一方が解除された時点を、パーキング状態が解除された時点としてもよい。
 第1~3実施形態に関する変形例10としては、エンジンスイッチのオン又はパーキング状態の解除に代えて、乗員が車両1に備えられた自動調整ボタンを押した時点で、凹面鏡26の姿勢を自動調整するための動作、すなわちステップS10,S210,S310を開始するようにしてもよい。
 第1~3実施形態に関する変形例11としては、HUD装置100は、車両以外の船舶ないしは飛行機等の各種移動体(輸送機器)に適用されてもよい。

Claims (9)

  1.  乗員の眼(7)を撮影する撮影部(6a)を有した移動体(1)に搭載され、前記移動体の投影部材(3)に画像を投影することにより、虚像(10)を視認領域(12)において前記乗員により視認可能に表示するヘッドアップディスプレイ装置であって、
     姿勢が変更可能に設けられる光学部材(26,226)を有し、前記光学部材の姿勢に応じて前記視認領域を移動させる光学系(20)と、
     前記撮影部が撮影した前記眼の前記視認領域に対する相対位置に基づいて、前記相対位置に関連付けられた姿勢となるように、前記光学部材の姿勢を自動調整する調整部(S50,S250,S252,S254,S350)とを備えるヘッドアップディスプレイ装置。
  2.  前記移動体の上下方向をz方向と定義し、前記光学系により前記視認領域が前記z方向に移動する範囲を可動領域(14,214)と定義するとき、前記撮影部が撮影した前記眼の位置(PE)が前記可動領域内であるか否かを判定する判定部(S30,S230,S236,S237,S330)をさらに備え、
     前記光学部材は、第1軸(26c)を有し、
     前記光学系は、前記第1軸まわりの回動駆動によって前記光学部材の姿勢を変更することにより、前記視認領域を前記z方向に移動させ、
     前記調整部は、前記眼の位置が前記z方向において前記可動領域内であると前記判定部により判定された場合、前記第1軸まわりの回動駆動によって、前記光学部材の姿勢を自動調整する請求項1に記載のヘッドアップディスプレイ装置。
  3.  前記撮影部が撮影した前記眼の位置が前記可動領域から前記z方向に外れていると前記判定部により判定された場合、前記乗員が着座するシート(5)の高さ(HS)を変更するように前記乗員に警告する警告部(S32,S232,S332)をさらに備える請求項2に記載のヘッドアップディスプレイ装置。
  4.  前記調整部は、前記シートの高さが変更された場合、前記光学部材の姿勢の自動調整を開始する請求項3に記載のヘッドアップディスプレイ装置。
  5.  前方に前記虚像を表示する前記移動体の左右方向をy方向と定義すると、
     前記虚像は、前記移動体の前方において、前記y方向に幅をもって表示され、
     前記光学部材(226)は、第2軸(226d)を有し、
     前記光学系は、前記第2軸まわりの回動駆動によって前記光学部材の姿勢を変更することにより、前記視認領域を前記y方向に移動させ、
     前記調整部(S250)は、前記眼の位置が前記y方向及び前記z方向において前記可動領域(214)内であり、かつ、前記視認領域が前記y方向において前記可動領域内であると前記判定部(S230,S236,S237)により判定された場合、前記第2軸まわりの回動駆動を停止させ、前記第1軸まわりの回動駆動によって、前記光学部材の姿勢を自動調整する請求項2から4のいずれか1項に記載のヘッドアップディスプレイ装置。
  6.  前記調整部(S252)は、前記眼の位置が前記y方向及び前記z方向において前記可動領域内であり、かつ、前記視認領域が前記y方向において前記可動領域からずれていると前記判定部により判定された場合、前記第1軸まわりの回動駆動と、前記第2軸まわりの回動駆動とによって、前記光学部材の姿勢を自動調整する請求項5に記載のヘッドアップディスプレイ装置。
  7.  前記調整部(S254)は、前記眼の位置が前記可動領域から前記y方向に外れていると前記判定部により判定された場合、前記第1軸まわりの回動駆動と、前記第2軸まわりの回動駆動とによって、前記光学部材の姿勢を自動調整する請求項5又は6に記載のヘッドアップディスプレイ装置。
  8.  前記調整部は、前記移動体のパーキング状態が解除された時点で、前記光学部材の姿勢を自動調整を開始する請求項1から7のいずれか1項に記載のヘッドアップディスプレイ装置。
  9.  前記調整部は、前記光学部材の姿勢を自動調整した後、前記乗員により前記光学部材の姿勢を手動調整可能とする請求項1から8のいずれか1項に記載のヘッドアップディスプレイ装置。
PCT/JP2015/001759 2014-05-26 2015-03-26 ヘッドアップディスプレイ装置 WO2015182026A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112015002481.6T DE112015002481T5 (de) 2014-05-26 2015-03-26 Head-up-Display-Vorrichtung
US15/108,807 US20160320624A1 (en) 2014-05-26 2015-03-26 Head-up display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014108315A JP6221942B2 (ja) 2014-05-26 2014-05-26 ヘッドアップディスプレイ装置
JP2014-108315 2014-05-26

Publications (1)

Publication Number Publication Date
WO2015182026A1 true WO2015182026A1 (ja) 2015-12-03

Family

ID=54698388

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/001759 WO2015182026A1 (ja) 2014-05-26 2015-03-26 ヘッドアップディスプレイ装置

Country Status (4)

Country Link
US (1) US20160320624A1 (ja)
JP (1) JP6221942B2 (ja)
DE (1) DE112015002481T5 (ja)
WO (1) WO2015182026A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170235135A1 (en) * 2016-02-17 2017-08-17 Toyota Jidosha Kabushiki Kaisha On-vehicle device, method of controlling on-vehicle device, and computer-readable storage medium
CN107444263A (zh) * 2016-05-30 2017-12-08 马自达汽车株式会社 车辆用显示装置
WO2018126257A1 (en) * 2017-01-02 2018-07-05 Visteon Global Technologies, Inc. Automatic eye box adjustment
CN108829364A (zh) * 2018-06-19 2018-11-16 浙江水晶光电科技股份有限公司 平视显示器的调节方法、移动终端及服务器
JP2019018770A (ja) * 2017-07-20 2019-02-07 アルパイン株式会社 ヘッドアップディスプレイ装置

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3029647B1 (fr) * 2014-12-05 2018-02-02 Valeo Comfort And Driving Assistance Afficheur tete haute a generateur d'image lateral
JP6703747B2 (ja) 2015-09-18 2020-06-03 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
US10067346B2 (en) * 2015-10-23 2018-09-04 Microsoft Technology Licensing, Llc Holographic display
JP6527605B2 (ja) * 2016-02-12 2019-06-05 マクセル株式会社 車両用映像表示装置
CN108698513B (zh) * 2016-03-02 2019-06-18 富士胶片株式会社 投影型显示装置、投影控制方法及记录介质
JP6834537B2 (ja) 2017-01-30 2021-02-24 株式会社リコー 表示装置、移動体装置、表示装置の製造方法及び表示方法。
WO2018043513A1 (ja) * 2016-09-05 2018-03-08 マクセル株式会社 車両用映像表示装置
JP6859658B2 (ja) * 2016-10-19 2021-04-14 株式会社Jvcケンウッド 虚像表示装置および虚像表示方法
DE102016222910A1 (de) * 2016-11-21 2018-05-24 Audi Ag Verfahren und Vorrichtung zur blickwinkelabhängigen Darstellung von Informationen in einem Fahrzeug
GB2559605A (en) * 2017-02-13 2018-08-15 Jaguar Land Rover Ltd Apparatus and method for controlling a vehicle display
JP6901306B2 (ja) * 2017-03-31 2021-07-14 三菱重工業株式会社 情報投影システム及び情報投影方法
FR3068143B1 (fr) * 2017-06-27 2019-10-25 Valeo Comfort And Driving Assistance Systeme d'affichage tete-haute
JP6943079B2 (ja) * 2017-08-23 2021-09-29 日本精機株式会社 画像処理ユニット及びそれを備えるヘッドアップディスプレイ装置
JP6965672B2 (ja) * 2017-10-03 2021-11-10 株式会社デンソー 虚像表示装置
JP7005107B2 (ja) * 2017-10-20 2022-02-04 矢崎総業株式会社 車両用表示装置
JP6965759B2 (ja) * 2018-01-10 2021-11-10 株式会社Jvcケンウッド 表示装置および表示装置の設置方法
JP7140504B2 (ja) * 2018-02-14 2022-09-21 矢崎総業株式会社 投影表示装置
JP6753428B2 (ja) 2018-04-27 2020-09-09 株式会社デンソー ヘッドアップディスプレイ装置
KR102004504B1 (ko) * 2018-08-28 2019-07-26 에스케이텔레콤 주식회사 전방 상향 시현용 광학시스템
FR3089643A1 (fr) * 2018-12-05 2020-06-12 Airbus Operations (S.A.S.) Cockpit d’aéronef et procédé d’affichage dans un cockpit d’aéronef.
JP2022132089A (ja) * 2021-02-26 2022-09-07 ダイハツ工業株式会社 ヘッドアップディスプレイ装置
TWI788049B (zh) * 2021-10-13 2022-12-21 怡利電子工業股份有限公司 具有眼睛追蹤功能的指向性背光顯示器裝置
WO2023218773A1 (ja) * 2022-05-09 2023-11-16 マクセル株式会社 ヘッドアップディスプレイ装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0966757A (ja) * 1995-08-31 1997-03-11 Denso Corp ヘッドアップディスプレイ
JPH11314538A (ja) * 1998-05-01 1999-11-16 Nissan Motor Co Ltd 車両用表示装置
JP2005067515A (ja) * 2003-08-27 2005-03-17 Denso Corp 車両用表示装置
JP2005247224A (ja) * 2004-03-05 2005-09-15 Sumitomo Electric Ind Ltd 車両用表示装置
JP2011203680A (ja) * 2010-03-26 2011-10-13 Denso Corp ヘッドアップディスプレイ装置
JP2012163613A (ja) * 2011-02-03 2012-08-30 Denso Corp 虚像表示装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0930289A (ja) * 1995-05-18 1997-02-04 Denso Corp ヘッドアップディスプレイ装置
US8686922B2 (en) * 1999-12-15 2014-04-01 American Vehicular Sciences Llc Eye-location dependent vehicular heads-up display system
US6450530B1 (en) * 2000-10-17 2002-09-17 Ford Global Technologies, Inc. Seating system with optimum visibilty
JP3711864B2 (ja) * 2000-12-01 2005-11-02 日産自動車株式会社 車両用表示装置
JP2009163084A (ja) * 2008-01-09 2009-07-23 Toshiba Corp 表示装置及び移動体
SE532837C2 (sv) * 2008-03-28 2010-04-20 Titanx Engine Cooling Holding Värmeväxlare, såsom en laddluftkylare
US8872640B2 (en) * 2011-07-05 2014-10-28 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring health and ergonomic status of drivers of vehicles
US9213163B2 (en) * 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0966757A (ja) * 1995-08-31 1997-03-11 Denso Corp ヘッドアップディスプレイ
JPH11314538A (ja) * 1998-05-01 1999-11-16 Nissan Motor Co Ltd 車両用表示装置
JP2005067515A (ja) * 2003-08-27 2005-03-17 Denso Corp 車両用表示装置
JP2005247224A (ja) * 2004-03-05 2005-09-15 Sumitomo Electric Ind Ltd 車両用表示装置
JP2011203680A (ja) * 2010-03-26 2011-10-13 Denso Corp ヘッドアップディスプレイ装置
JP2012163613A (ja) * 2011-02-03 2012-08-30 Denso Corp 虚像表示装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170235135A1 (en) * 2016-02-17 2017-08-17 Toyota Jidosha Kabushiki Kaisha On-vehicle device, method of controlling on-vehicle device, and computer-readable storage medium
US10254539B2 (en) * 2016-02-17 2019-04-09 Toyota Jidosha Kabushiki Kaisha On-vehicle device, method of controlling on-vehicle device, and computer-readable storage medium
CN107444263A (zh) * 2016-05-30 2017-12-08 马自达汽车株式会社 车辆用显示装置
CN107444263B (zh) * 2016-05-30 2020-05-19 马自达汽车株式会社 车辆用显示装置
WO2018126257A1 (en) * 2017-01-02 2018-07-05 Visteon Global Technologies, Inc. Automatic eye box adjustment
JP2019018770A (ja) * 2017-07-20 2019-02-07 アルパイン株式会社 ヘッドアップディスプレイ装置
CN108829364A (zh) * 2018-06-19 2018-11-16 浙江水晶光电科技股份有限公司 平视显示器的调节方法、移动终端及服务器

Also Published As

Publication number Publication date
DE112015002481T5 (de) 2017-02-16
JP6221942B2 (ja) 2017-11-01
US20160320624A1 (en) 2016-11-03
JP2015225119A (ja) 2015-12-14

Similar Documents

Publication Publication Date Title
JP6221942B2 (ja) ヘッドアップディスプレイ装置
JP6160398B2 (ja) ヘッドアップディスプレイ装置
JP6413207B2 (ja) 車両用表示装置
CN110816408B (zh) 显示装置、显示控制方法及存储介质
JP6462194B2 (ja) 投写型表示装置、投写表示方法、及び、投写表示プログラム
JP6865006B2 (ja) 車両用表示装置
JP2004168230A (ja) 車両用表示装置
WO2016047777A1 (ja) ヘッドアップディスプレイ装置
JP2011213186A (ja) 電子サイドミラー装置
CN110967833B (zh) 显示装置、显示控制方法及存储介质
JP7221161B2 (ja) ヘッドアップディスプレイ及びそのキャリブレーション方法
JP2017165163A (ja) 車両用表示装置
US11919391B2 (en) On-vehicle display apparatus
JP2021187429A (ja) 車載表示装置
CN110816407B (zh) 显示装置、显示控制方法及存储介质
CN110816266B (zh) 显示装置及显示控制方法
JP4720979B2 (ja) 車両用監視装置
JP2018120141A (ja) ヘッドアップディスプレイ
CN110816268B (zh) 显示装置、显示控制方法及存储介质
JP2015085879A (ja) 車両用表示装置
US10914948B2 (en) Display device, display control method, and storage medium
CN110816267B (zh) 显示装置、显示控制方法及存储介质
JP2019015936A (ja) ヘッドアップディスプレイ装置
WO2017110014A1 (ja) 画像表示装置、画像表示方法および制御プログラム
US11294176B2 (en) Display device, display control method, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15799531

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15108807

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112015002481

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15799531

Country of ref document: EP

Kind code of ref document: A1