WO2018088362A1 - ヘッドアップディスプレイ - Google Patents

ヘッドアップディスプレイ Download PDF

Info

Publication number
WO2018088362A1
WO2018088362A1 PCT/JP2017/039948 JP2017039948W WO2018088362A1 WO 2018088362 A1 WO2018088362 A1 WO 2018088362A1 JP 2017039948 W JP2017039948 W JP 2017039948W WO 2018088362 A1 WO2018088362 A1 WO 2018088362A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual image
area
display
vehicle
real scene
Prior art date
Application number
PCT/JP2017/039948
Other languages
English (en)
French (fr)
Inventor
誠 秦
勇希 舛屋
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Priority to US16/346,409 priority Critical patent/US11215819B2/en
Priority to JP2018550191A priority patent/JP6899082B2/ja
Publication of WO2018088362A1 publication Critical patent/WO2018088362A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/23Optical features of instruments using reflectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0159Head-up displays characterised by mechanical features with movable elements with mechanical means other than scaning means for positioning the whole image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction

Definitions

  • the present invention relates to a head-up display that displays a virtual image.
  • the head-up display is an augmented reality (AR) that adds information to the actual scene or emphasizes a specific object in the actual scene by displaying a virtual image superimposed on the scenery (real scene) in front of the vehicle.
  • AR augmented reality
  • the head-up display includes an image display unit having a display surface, and the relay optical system corresponds to the display surface by projecting the display surface on a windshield (an example of a transmissive reflection unit) positioned in front of the viewer.
  • a virtual virtual image displayable area is generated on the back side (outside of the vehicle) of the windshield as viewed from the viewer, and the image display unit displays an image on the display surface. Display a virtual image of the image.
  • the head-up display of Patent Document 1 generates the virtual image displayable area at a position overlapping a specific real scene area when viewed from the viewer, and the real scene information in front of the vehicle is obtained by a real scene information acquisition unit including a camera having an image sensor. And the image display unit adjusts the position of the image displayed on the display surface based on the real scene information, thereby displaying a virtual image at a desired position in the specific real scene area.
  • FIG. 10 is a diagram showing a real scene and a virtual image viewed by a viewer through the windshield.
  • the head-up display projects the display surface of the image display unit on a specific area 510r on the windshield 510 viewed from the viewer, and displays a virtual image corresponding to the display surface at a position overlapping the specific real scene area 520r in the real scene 520.
  • a possible region 530r is generated, and the image is displayed on the display surface, whereby the virtual image 531 is displayed at a position overlapping the specific real scene region 520r as viewed from the viewer.
  • the displayable area 530d deviates from a specific actual scene area 520r as viewed from the viewer. This is because the head-up display continues to display the display surface of the image display unit in the specific area 510r on the windshield 510 regardless of whether the vehicle is running normally or in a pitch-down state. Yes, the display can be continued in the specific area 510r on the windshield 510, but the display in the specific actual scene area 520r cannot be continued.
  • the virtual image displayable region 530d is shown in FIG.
  • the display can be continued in the specific actual scene area 520r without change, but the display cannot be continued in the specific area 510r on the windshield 510. In either case, there is a risk of giving the viewer the impression that the area where the virtual image 531 is displayed is limited.
  • One object of the present invention is to provide a head-up display that makes it difficult to feel the narrowness of the display area.
  • the present invention employs the following means in order to solve the above problems.
  • the head-up display according to the present invention is a head-up display that projects a display light onto a transmission / reflection part to display a virtual image in a virtual image displayable region that is superimposed on a real scene outside the vehicle.
  • the virtual image display area that defines the range for displaying the virtual image in the virtual image displayable area is enlarged, so that the virtual image is viewed from the viewer. Since the range of the real scene displayed in a superimposed manner is expanded, the gist is to make it difficult for the viewer to hold the impression that the real scene range in which the virtual image is displayed is narrow.
  • the head-up display according to the first aspect of the present invention is mounted on a vehicle, and projects a first display light (210) on a transmission / reflection portion, thereby superimposing a first virtual image on a real scene outside the vehicle.
  • a head-up display that displays a first virtual image (V1) in a possible area (310), having a first image display surface (13) corresponding to the first virtual image displayable area,
  • a first image display unit (10) that emits the first display light from the image display surface, and a relay optical system that directs the first display light emitted from the first image display unit to the transmission and reflection unit;
  • a virtual image display region that defines a range in which the first virtual image is displayed in the first virtual image displayable region ( 311) with a control unit (70) for enlargingIn the first aspect, when the relative position between the transmission / reflection part and the real scene as viewed from the viewer is shifted, a virtual image is displayed
  • position information acquisition means (73) which acquires the vehicle attitude
  • the virtual image display area may be enlarged based on the vehicle attitude information.
  • the virtual image display area can be enlarged based on the vehicle posture.
  • the viewpoint information acquisition means (73) which acquires the viewpoint information (7G) containing the information regarding a viewer's viewpoint position is further provided, and the said control part is the said viewpoint information which the said viewpoint information acquisition means acquired.
  • the virtual image display area may be enlarged based on the above. In the third aspect, the virtual image display area can be enlarged based on the viewpoint position of the viewer.
  • control unit may increase the enlargement amount of the virtual image display region as the relative positional deviation amount between the transmission / reflection unit and the real scene increases.
  • the virtual image is displayed because the enlargement amount of the virtual image display area is too small. It is possible to prevent the viewer from feeling distracted because the area is narrow or the amount of enlargement of the virtual image display area is too large, and the virtual image display area can be appropriately enlarged.
  • the said control part determines the expansion direction which expands the said virtual image display area according to the relative displacement direction of the said transmission / reflection part and the said real scene, or another expansion of the said virtual image display area An enlargement direction in which the enlargement amount is larger than the direction may be determined.
  • the enlargement direction for enlarging the virtual image display area is determined according to the relative displacement direction between the transmission / reflection part and the real scene, the virtual image display area can be enlarged only in a necessary direction, which is unnecessary. It is possible to prevent the viewer from being distracted by enlarging the virtual image display area in the direction.
  • the virtual image display area is greatly enlarged in the necessary direction and small in the other directions, so that the virtual image is surely displayed in the necessary direction and is visually recognized in the other directions. Information can be provided to the viewer while suppressing distraction of the viewer.
  • the virtual image display area has a fixed positional relationship with the vehicle as viewed from the viewer in a normal state before a relative positional shift between the transmission / reflection part and the real scene occurs.
  • the controller is set so as to be superimposed on a specific area of the actual scene, and the controller controls at least one of the specific areas of the actual scene when viewed from the viewer when a relative displacement between the transmission / reflection section and the actual scene occurs.
  • the virtual image display area may be enlarged so that the parts overlap.
  • a part of the specific area of the actual scene that is in a certain positional relationship with the vehicle even when the relative position shift between the transmission / reflection part and the actual scene occurs when viewed from the viewer.
  • the display of the virtual image can be continued.
  • the virtual image display area is in a fixed positional relationship with the vehicle as viewed from the viewer in a normal state before a relative positional deviation between the transmission / reflection part and the real scene occurs.
  • the controller is set so as to be superimposed on a specific area of the actual scene, and the control unit, when relative displacement between the transmission and reflection unit and the actual scene occurs, at least all of the specific area of the actual scene as viewed from the viewer
  • the virtual image display area may be enlarged so as to overlap.
  • even when a relative positional shift between the transmission / reflection part and the actual scene occurs when viewed from the viewer the entire specific area of the actual scene in a certain positional relationship with the vehicle is used.
  • the display of the virtual image can be continued.
  • control unit may reduce the enlarged virtual image display area when the relative displacement between the transmission / reflection part and the real scene continues for a predetermined time. In the eighth aspect, it is possible to suppress distraction of the viewer, which is caused by continuing to enlarge the virtual image display area.
  • the virtual image display area is in a fixed positional relationship with the vehicle as viewed from the viewer in a normal state before relative displacement between the transmission / reflection portion and the real scene occurs.
  • the controller is set so as to be superimposed on a specific area of the real scene, and the control unit displays the enlarged virtual image display area from the viewer when the relative displacement between the transmission / reflection section and the real scene continues for a predetermined time.
  • the virtual image display area may be reduced so as to overlap the entire specific area of the real scene.
  • the display of the virtual image is continued in the entire specific area of the real scene that is in a certain positional relationship with the vehicle while suppressing the distraction of the viewer, which is caused by continuing to enlarge the virtual image display area. Can do.
  • the second display light (220) is projected onto the transmission / reflection section, whereby the second distance from the viewer is arranged at a position different from the first virtual image displayable region.
  • a head-up display that displays a second virtual image (V2) in a virtual image displayable region (320), and adjusting the angle of the first virtual image displayable region in real space to adjust the first virtual image displayable region (320).
  • An angle adjustment unit capable of adjusting a relative angle between the virtual image displayable region and the second virtual image displayable region, wherein the angle adjustment unit is a relative between the transmission reflection unit and the real scene as viewed from a viewer;
  • the angle of the first virtual image displayable area may be adjusted in a direction in which the change in the angle of the first virtual image displayable area with respect to the real scene, which is caused by an actual position shift, is reduced.
  • the first virtual image and the second virtual image can be displayed at positions at different distances from the viewer, the first virtual image displayable area in which the first virtual image is displayed, By adjusting the relative angle with the second virtual image displayable area where the second virtual image is displayed, the first virtual image and the second virtual image can be easily differentiated, and the viewer feels a stereoscopic effect. Further, even when the relative position between the transmission / reflection part and the real scene as viewed from the viewer is generated, the angle of the first virtual image displayable area with respect to the real scene is maintained or the angle is changed. Can be suppressed.
  • FIG. 3 is a diagram for explaining an example of angles formed by the first and second virtual image displayable areas when the pitch angle of the vehicle is substantially parallel to the road surface by the head-up display shown in FIG.
  • FIG. 4B is a diagram illustrating an example of the angle of the reflection portion
  • FIG. 5B is a diagram illustrating an example of the angle of the reflecting portion
  • FIG. 3 is a diagram for explaining an example of angles formed by first and second virtual image displayable areas when the vehicle pitch angle is directed upward in the vertical direction by the head-up display shown in FIG. FIG.
  • FIG. 4 is a diagram illustrating an example of a pitch angle of a vehicle
  • FIG. 5B is a diagram illustrating an example of an angle of a reflection portion
  • FIG. 5C is a diagram illustrating an arrangement of first and second virtual image displayable areas.
  • FIG. 3 is a diagram for explaining an example of angles formed by the first and second virtual image displayable areas when the vehicle pitch angle is directed downward in the vertical direction by the head-up display shown in FIG. Is an example of the pitch angle of the vehicle
  • (b) is an example of the angle of the reflecting portion
  • (c) is a diagram showing the arrangement of the first and second virtual image displayable areas. It is a figure which shows a mode that the virtual scene which the real view and the modification of the head-up display shown by FIG.
  • FIG. 6 is a diagram for explaining a positional shift between a real scene and a front windshield (transmission reflection unit) according to a vehicle posture and a positional shift between a specific area of a real scene and a virtual image display area caused by the positional shift in a conventional head-up display. It is.
  • the virtual first virtual image displayable area 310 and the second virtual image displayable area 320 generated by the head-up display (hereinafter referred to as HUD) 100 of the present invention will be described.
  • the left-right direction facing the front of the vehicle 1 is defined as the X axis (the right direction is the X axis positive direction), and the vertical
  • the direction is defined as the Y-axis (the upper side in the vertical direction is the positive Y-axis direction), and the front-rear direction is defined as the Z-axis (the rear direction is the positive Z-axis direction).
  • the HUD 100 is stored in a dashboard 3 of a vehicle (one application example of a moving body) 1, for example.
  • the HUD 100 projects display light 200 (first display light 210 and second display light 220) indicating vehicle information or the like on a part of a front windshield (an example of a transmission / reflection part) 2 of the vehicle 1.
  • the front windshield 2 generates a predetermined eye box (not shown) by reflecting the first display light 210 and the second display light 220 toward the viewer side.
  • the viewer places the first viewpoint (position of the viewer's eyes) 4 in the eye box, so that the first virtual image displayable region 310 virtually generated by the HUD 100 in front of the front windshield 2 is provided.
  • the first virtual image V1 and the second virtual image V2 can be visually recognized on the second virtual image displayable area 320.
  • the first virtual image displayable area 310 shown in FIG. 1 is from the center of the first virtual image displayable area 310.
  • An angle 310a formed between the display area on the viewer side and the line of sight axis 4a is provided to be an acute angle, and extends over a predetermined range (positions 5a to 5b in FIG. 1) of the road surface 5W that is an information addition target in the actual scene 5.
  • the first virtual image V1 that is visually recognized by being superimposed is displayed.
  • the first virtual image displayable area 310 is parallel to the road surface 5W in FIG.
  • the first virtual image displayable area 310 may be provided with an inclination of ⁇ 10 degrees (CCW direction in FIG. 1) to +45 degrees (CW direction in FIG. 1) from an angle parallel to the road surface 5W in FIG. .
  • the second virtual image displayable area 320 shown in FIG. 1 is, for example, the second virtual image displayable area
  • An angle 320a formed between the display area vertically below the center of 320 and the visual axis 4b is provided to be larger than an angle 310a formed between the first virtual image displayable area 310 and the visual axis 4a.
  • the virtual image V2 is displayed.
  • the second virtual image displayable area 320 is substantially parallel to a direction (XY plane) perpendicular to the traveling direction of the vehicle 1 in FIG. In the direction) 5 [m] to 10 [m] away from each other.
  • the second virtual image displayable area 320 may be provided with an inclination of about ⁇ 10 degrees from an angle parallel to a direction (XY plane) perpendicular to the traveling direction of the vehicle 1 in FIG.
  • FIG. 2 is a diagram showing an example of a landscape and a first virtual image V1 and a second virtual image V2 that can be seen by a viewer sitting in the driver's seat of the vehicle 1 including the HUD 100 shown in FIG.
  • the HUD 100 is an area in which the first virtual image V1 can be displayed.
  • the first virtual image displayable area 310 that is rectangular when viewed from the viewer and the second virtual image V2 can be displayed.
  • the second virtual image displayable area 320 having a rectangular shape that overlaps the virtual image displayable area 310 is generated.
  • the first virtual image displayable area 310 and the second virtual image displayable area 320 themselves are not visible to the viewer or difficult to be viewed by the viewer, and are displayed on the first virtual image displayable area 310.
  • the viewer visually recognizes the first virtual image V1 and the second virtual image V2 displayed on the second virtual image displayable area 320.
  • the first virtual image V1 displayed in the first virtual image displayable area 310 is displayed in the vicinity of or superimposed on the information addition target 5W in the real scene 5, and this information addition target 5W is emphasized or information is displayed.
  • an arrow image that adds information that guides the route to the destination on the road surface (information addition target object) 5W, or a white line (information) during lane departure warning (LDW: Lane Depth Warning) (Additional object) It is a linear image that emphasizes 5W.
  • LDW Lane Depth Warning
  • the information addition target 5W is, for example, a road surface, an obstacle present on or near the road surface, a traffic sign, a traffic sign, a traffic signal, a building, and the like.
  • the second virtual image V2 displayed in the second virtual image displayable area 320 does not emphasize a specific target (information addition target 5W) of the real scene 5, and for example, a vehicle such as the vehicle speed of the vehicle 1 For example, information or information indicating the distance to the branch point.
  • the first virtual image displayable area 310 normally includes a virtual image display area 311 that is an area for displaying the first virtual image V1, a virtual image blank area 312 that surrounds the virtual image display area 311 at least in the vertical direction (Y-axis direction), Consists of The virtual image display area 311 is superimposed on the specific area 5r of the real scene 5 having a fixed positional relationship with the vehicle 1 through the area 2r of the front windshield 2 as viewed from the viewer.
  • the HUD 100 displays the first virtual image V1 on the information addition object 5W in the specific area 5r of the real scene 5 viewed from the viewer, and superimposes it on the virtual image blank area 312 to specify the real scene 5
  • the first virtual image V1 is not displayed on the information addition object 5W outside the region 5r.
  • information that does not emphasize a specific target (information addition target 5W) of the real scene 5 as displayed in the second virtual image displayable area 320 is displayed as a virtual image. May be.
  • the information addition object 5W existing in the real scene 5 superimposed on the virtual image blank area 312 is viewed from the viewer, the information addition object 5W is emphasized when the urgency is high and the importance is high.
  • An image to which information is added may be displayed as the first virtual image V1.
  • the area 2r of the front windshield 2 in which the virtual image display area 311 is reflected is also referred to as a reference projection area 2r
  • the specific area 5r of the real scene 5 in which the virtual image display area 311 is normally overlapped is also referred to as a reference real scene area 5r.
  • the HUD 100 of the present invention performs an enlargement process for enlarging the virtual image display area 311 that is a range in which the first virtual image V1 is displayed when a positional deviation occurs between the reference projection area 2r viewed from the viewer and the reference actual scene area 5r. Execute. This enlargement process will be described later.
  • various detection units provided in the vehicle 1 will be described.
  • Various detection units to be described below may be provided in the HUD 100.
  • the vehicle 1 or the HUD 100 may be detachably wired or wirelessly connected.
  • the sensor unit may be wired or wirelessly connected to the vehicle 1 or the HUD 100, or a portable terminal having various detection units may be wired or wirelessly connected.
  • the real scene information 6F includes at least position information of the information addition target 5W that is emphasized or loaded with information when the first virtual image V1 is displayed in the real scene 5 in front of the vehicle 1, for example, It is obtained from a navigation system having a plurality of cameras, infrared sensors, GPS and an electronic compass.
  • the information addition target 5W is, for example, a road surface, an obstacle present on or near the road surface, a traffic sign, a traffic sign, a traffic signal, a building, and the like.
  • the vehicle 1 in FIG. 1 is equipped with a viewpoint information detection unit (positional deviation information acquisition means) 7 that acquires viewpoint information 7G of the viewer of the HUD 100.
  • the viewpoint information 7G includes at least position information in the vertical direction (Y-axis direction) of the viewer's viewpoint, and positions in the left-right direction (X-axis direction) and the depth direction (Z-axis direction). Information may be included, for example, obtained from a camera, an infrared camera, or the like.
  • the vehicle attitude detection unit 8 analyzes, for example, a triaxial acceleration sensor (not shown) and the triaxial acceleration detected by the triaxial acceleration sensor, so that the pitch angle (vehicle attitude) of the vehicle 1 with respect to the horizontal plane is used.
  • the vehicle attitude information 8G positional displacement information G described later
  • the vehicle attitude detection unit 8 may be configured by a height sensor (not shown) disposed in the vicinity of the suspension of the vehicle 1 in addition to the above-described triaxial acceleration sensor.
  • the vehicle posture detection unit 8 estimates the pitch angle of the vehicle 1 as described above by analyzing the height of the vehicle 1 from the ground detected by the height sensor, and information on the pitch angle of the vehicle 1. Is output to the HUD 100 (control unit 70). Further, the vehicle posture detection unit 8 may include an imaging camera (not shown) that images the outside of the vehicle 1 and an image analysis unit (not shown) that analyzes the captured image. At this time, the vehicle posture detection unit 8 estimates the pitch angle (vehicle posture) of the vehicle 1 from the time change of the landscape included in the captured image. Note that the method by which the vehicle attitude detection unit 8 obtains the pitch angle of the vehicle 1 is not limited to the method described above, and the pitch angle of the vehicle 1 may be obtained using a known sensor or analysis method.
  • FIG. 3 is a diagram showing an example of the configuration of the HUD 100 shown in FIG.
  • the HUD 100 in FIG. 1 includes, for example, a first image display unit 10, a second image display unit 20, a reflection unit 30, an actuator 40, a display synthesis unit 50, a concave mirror 60, and a control unit 70.
  • the HUD 100 is generally housed in the dashboard of the vehicle 1, but the first image display unit 10, the second image display unit 20, the reflection unit 30, the actuator 40, the display composition unit 50, and the concave mirror 60. And all or a part of the control unit 70 may be arranged outside the dashboard.
  • the HUD 100 (control unit 70) is connected to a bus 9 including an in-vehicle LAN (Local Area Network) mounted on the vehicle 1 and inputs the above-described real scene information 6F, viewpoint information 7G, and vehicle attitude information 8G. can do.
  • a bus 9 including an in-vehicle LAN (Local Area Network) mounted on the vehicle 1 and inputs the above-described real scene information 6F, viewpoint information 7G, and vehicle attitude information 8G. can do.
  • the first image display unit 10 in FIG. 3 receives, for example, a first projection unit 11 including a projector using a reflective display device such as DMD or LCoS, and projection light from the first projection unit 11. Then, the first image 14 is displayed, and the first screen 12 that emits the first display light 210 indicating the first image 14 toward the reflection unit 30 is mainly configured.
  • the first image display unit 10 is virtually generated in front of the viewer by displaying the first image 14 on the first screen 12 based on image data D input from the control unit 70 described later.
  • the first virtual image V1 is displayed on the first virtual image displayable area 310.
  • FIG. 4 is a front view of the first screen 12 shown in FIG.
  • the left-right direction of the first screen 12 is defined as the dx axis (the left direction is the positive direction of the dx axis).
  • the direction is defined as the dy axis (the downward direction is the positive direction of the dy axis).
  • the position in the X-axis direction of the first virtual image V1 that the viewer shown in FIG. 2 visually recognizes from the driver's seat of the vehicle 1 is that of the first image 14 displayed on the first screen 12 shown in FIG. This corresponds to the position in the dx axis direction.
  • the position in the Y-axis direction of the first virtual image V1 viewed by the viewer shown in FIG. 2 from the driver's seat of the vehicle 1 is displayed on the first screen 12 shown in FIG. This corresponds to the position of the image 14 in the dy-axis direction.
  • the real space described above is determined by the arrangement of the optical members in the HUD 100 (the first image display unit 10, the second image display unit 20, the reflection unit 30, the actuator 40, the display synthesis unit 50, the concave mirror 60), and the like.
  • the relationship between the above XY coordinate axes and the dxdy coordinate axes used in the description of the first screen 12 is not limited to the above.
  • the first screen 12 in FIG. 3 has an area 13 in which the first image 14 can be displayed, as shown in FIG. Of the first screen 12, an area 13 where the first image 14 can be displayed is referred to as a first image display surface 13, for example.
  • the first virtual image displayable area 310 corresponds to the first image display surface 13 of the first image display unit 10, and the size of the first virtual image displayable area 310 and the first virtual image in real space.
  • the position where the displayable area 310 is generated is adjusted according to the size of the first image display surface 13 on the first screen 12 and the position of the first image display surface 13 on the first screen 12. Is possible.
  • the surface of the first screen 12 has a predetermined line with respect to the visual axis 4a, for example, when the line connecting the center of the first image display surface 13 of the first screen 12 and the viewpoint 4 is the visual axis 4a. It is arranged at an angle of
  • the first image display surface 13 includes an image display area 13a and an image blank area 13b that is an area around the image display area 13a including at least the vertical direction (dy direction) of the image display area 13a.
  • the first image display unit 10 of the present embodiment normally displays the first image 14 in the image display area 13a, and when the enlargement process described later is executed, the first image 14 is also displayed in the image blank area 13b. indicate.
  • the second image display unit 20 in FIG. 3 has the same configuration as the first image display unit 10 described above, and a second screen 22 having a second projection unit 21 and a second image display surface 23.
  • the second image 24 is displayed on the second image display surface 23. Description of each configuration is omitted.
  • the surface of the second screen 22 has a predetermined line with respect to the visual axis 4b, for example, when the line connecting the center of the second image display surface 23 of the second screen 22 and the viewpoint 4 is the visual axis 4b. It is arranged at an angle of
  • the reflecting unit (relay optical system) 30 in FIG. 3 is formed of, for example, a flat plate mirror, and is inclined on the optical path of the first display light 210 from the first image display unit 10 toward the viewpoint 4, The first display light 210 emitted from the first image display unit 10 is reflected toward the display composition unit 50.
  • the reflection unit 30 includes an actuator 40 that rotates the reflection unit 30.
  • the reflection part 30 may have a curved surface instead of a plane.
  • the actuator 40 is, for example, a stepping motor or a DC motor. Under the control of the control unit 70 described later, the viewpoint information 7G detected by the viewpoint information detection unit 7 and / or the vehicle attitude detected by the vehicle attitude detection unit 8 The angle and position of the first virtual image displayable area 310 are adjusted by rotating the reflecting unit 30 based on the information 8G.
  • the display combining unit (relay optical system) 50 shown in FIG. 3 includes, for example, a flat half mirror in which a transflective layer such as a metal reflective film or a dielectric multilayer film is formed on one surface of a translucent substrate. Is done.
  • the display combining unit 50 reflects the first display light 210 from the first image display unit 10 reflected by the reflection unit 30 toward the concave mirror 60, and the second combination from the second image display unit 20.
  • the display light 220 is transmitted to the concave mirror 60 side.
  • the transmittance of the display combining unit 50 is, for example, 50%, but the luminance of the first virtual image V1 and the second virtual image V2 may be adjusted by appropriately adjusting.
  • the concave mirror 60 in FIG. 3 is arranged to be inclined on the optical path of the first display light 210 and the second display light 220 from the first image display unit 10 and the second image display unit 20 toward the viewpoint 4. Then, the first display light 210 and the second display light 220 emitted from the first image display unit 10 and the second image display unit 20 are reflected toward the front windshield 2.
  • the optical path length of the first display light 210 from the first screen 12 of the first image display unit 10 to the concave mirror 60 is the first optical path length from the second screen 22 of the second image display unit 20 to the concave mirror 60.
  • the first virtual image V ⁇ b> 1 generated by the first image display unit 10 is arranged so as to be longer than the optical path length of the second display light 220, whereby the second image display unit 20 generates the second virtual image V ⁇ b> 1. Is formed at a position farther from the eye box than the virtual image V2.
  • the concave mirror 60 typically transmits the first display light 210 and the second display light 220 generated by the first image display unit 10 and the second image display unit 20 with a front windshield (transmission reflection).
  • the first virtual image V1 and the second virtual image V2 have a function of forming an image at a position away from the viewer by a predetermined distance.
  • FIG. 5 shows a schematic configuration example of the control unit 70 of FIG.
  • the control unit 70 includes, for example, a processing unit 71, a storage unit 72, and an interface 73.
  • the processing unit 71 is configured with, for example, a CPU and a RAM
  • the storage unit 72 is configured with, for example, a ROM
  • the interface 73 is configured with an input / output communication interface connected to the bus 9.
  • the interface 73 can acquire the vehicle information, the above-described actual scene information 6F, the viewpoint information 7G, the vehicle attitude information 8G, and the like via the bus 9, and the storage unit 72 can input the input vehicle information and the actual scene information 6F, Data for generating image data D based on viewpoint information 7G and vehicle attitude information 8G, and data for generating drive data T based on input viewpoint information 7G and vehicle attitude information 8G can be stored.
  • the processing unit 71 can generate image data D and drive data T by reading data from the storage unit 72 and executing a predetermined operation.
  • the interface 73 can acquire viewpoint information 7G (position displacement information G described later) including information related to the position of the viewer's viewpoint from the viewpoint information detection unit 7 via the bus 9, for example.
  • Vehicle posture information 8G (position displacement information G described later) including information related to the posture of the vehicle 1 can be obtained from the detection unit 8, and functions as viewpoint information acquisition means, vehicle posture information acquisition means, and position deviation information acquisition means. Also have.
  • the control unit 70 may be provided inside the HUD 100, and a part or all of the functions may be provided on the vehicle 1 side outside the HUD 100.
  • the positional deviation information G is information that can be estimated as to whether or not misregistration occurs between the reference projection area 2r of the front windshield 2 and the reference actual scene area 5r of the actual scene 5 when viewed from the viewer.
  • the above-described viewpoint information 7G relating to the viewpoint position of the viewer of the HUD 100 detected by the viewpoint information detector 7 and the vehicle attitude information 8G including information relating to the pitch angle of the vehicle 1 detected by the vehicle attitude detector 8. is there.
  • the viewer's viewpoint position moves in the vertical direction, the actual scene 5 visually recognized by the viewer via the reference projection area 2r of the front windshield 2 is different from the reference actual scene area 5r, and indicates the viewer's viewpoint position.
  • the viewpoint information 7G it is possible to estimate whether or not a positional deviation occurs between the reference projection area 2r of the front windshield 2 and the reference actual scene area 5r of the actual scene 5 viewed from the viewer.
  • the pitch angle with respect to the road surface of the vehicle 1 changes from the horizontal
  • the actual scene 5 visually recognized by the viewer through the reference projection area 2r of the front windshield 2 is different from the reference actual scene area 5r
  • the pitch of the vehicle 1 Based on the vehicle attitude information 8G including information related to the corners, it is possible to estimate whether or not a positional deviation occurs between the reference projection area 2r of the front windshield 2 and the reference actual scene area 5r of the actual scene 5 viewed from the viewer.
  • the first image display unit 10 executes an enlargement process for enlarging the virtual image display area 311 that displays the first virtual image V1.
  • the positional deviation information G may be information obtained using a technique already known before the present application.
  • FIG. 6 is a flowchart showing an example of the operation of the HUD 100 of the present embodiment.
  • the HUD 100 is, for example, when the vehicle 1 is activated, when electric power is supplied to the electronic device of the vehicle 1, or when a predetermined time has elapsed since the activation of the vehicle 1 or the electric power supply of the electronic device of the vehicle 1. The processing described below is started.
  • step S1 the processing unit 71 acquires positional deviation information G (viewpoint information 7G, vehicle attitude information 8G) from the interface 73.
  • step S ⁇ b> 2 the processing unit 71 is in a state in which a shift (position shift) occurs in the relative position between the real scene 5 and the front windshield (transmission reflection unit) 2 based on the position shift information G acquired in step S ⁇ b> 1.
  • the processing unit 71 determines whether or not the actual scene 5 through the reference projection area 2r of the front windshield 2 viewed from the viewer becomes the specific area 5r. If the processing unit 71 determines that no positional deviation occurs based on the positional deviation information G (NO in step S2), the processing unit 71 does not proceed to the enlargement process S3, returns to step S1, and determines that positional deviation occurs (step). If YES in S2, the process proceeds to enlargement process S3.
  • step S ⁇ b> 3 a of the enlargement process S ⁇ b> 3 the processing unit 71 sets the enlargement amount of the virtual image display area 311 according to the positional deviation information G. Specifically, the processing unit 71 sets the enlargement amount of the virtual image display area 311 according to the movement amount of the viewpoint of the viewer based on the predetermined viewpoint position based on the viewpoint information 7G, and sets the predetermined viewpoint position. When the movement amount of the viewer's viewpoint with reference to is large, the enlargement amount of the virtual image display area 311 is also set large.
  • the processing unit 71 sets the enlargement amount of the virtual image display area 311 according to the size of the pitch angle of the vehicle 1 with reference to the road surface 5W based on the vehicle attitude information 8G, and the pitch angle of the vehicle 1 is large. In this case, the enlargement amount of the virtual image display area 311 is also set large.
  • the processing unit 71 sets the enlargement amount of the virtual image display area 311 so as to overlap at least part of the reference real scene area 5r of the real scene 5 viewed from the viewer.
  • the enlargement amount of the virtual image display area 311 may be set so as to be superimposed on the whole.
  • step S3a of the enlargement process S3 it is preferable that the processing unit 71 also sets the enlargement direction of the virtual image display area 311 according to the positional deviation information G. Specifically, based on the viewpoint information 7G, the processing unit 71 looks at the virtual image display area 311 from the viewer when the viewer's viewpoint moves upward (Y-axis positive direction) based on a predetermined viewpoint position. When the viewer's viewpoint is moved downward (Y-axis negative direction) when moving upward (Y-axis positive direction), the virtual image display area 311 is expanded downward (Y-axis negative direction) when viewed from the viewer.
  • the processing unit 71 moves the virtual image display area 311 to the viewer.
  • the virtual image display area 311 is expanded downward (Y-axis negative direction) when viewed from the viewer. To do.
  • step S ⁇ b> 3 b the processing unit 71 updates the display of the first image display unit 10 and enlarges the virtual image display region 311 on the first image display surface 13, so that the first virtual image displayable region 310 is displayed.
  • the virtual image display area 311 for displaying the first virtual image V1 is enlarged.
  • step S4 the processing unit 71 determines whether the positional deviation detected in step S2 is continuing or not based on the newly acquired positional deviation information G. If the processing unit 71 determines that the displacement detected in step S2 has not continued (No in step S4), the processing unit 71 proceeds to step S6, reduces the virtual image display area 311 to the original size, and updates the display. (Step S7).
  • step S4 determines that the positional deviation detected in step S2 is continuing (YES in step S4), the processing unit 71 determines the duration of the positional deviation in step S5, and a predetermined time (for example, 3 minutes) or longer.
  • a predetermined time for example, 3 minutes
  • the process proceeds to step S6, the virtual image display area 311 is reduced, and the display is updated (step S7).
  • the reduced virtual image display area 311 is reduced so as to overlap with the reference real scene area 5r when viewed from the viewer.
  • FIG. 7 is a diagram for explaining the positional relationship between the real scene 5, the first virtual image displayable area 310, and the virtual image display area 311 viewed from a viewer sitting in the driver's seat of the vehicle 1 including the HUD 100 shown in FIG.
  • FIG. 7A shows a normal state, and the virtual image display area 311 is superimposed on the specific area 5r of the real scene 5 viewed through the area 2r of the front windshield 2 when viewed from the viewer.
  • the first virtual image V1 is displayed on the information addition object 5W in the virtual image display area 311.
  • FIG. 7B shows a state in which the vehicle 1 is in a pitch-down state and the HUD 100 executes an enlargement process, and a region where the solid line hatching is performed is the reference actual scene region 5r, and a dotted line hatching is performed.
  • the area is the reference projection area 2r
  • the filled area is the enlarged virtual image display area 311d.
  • the HUD 100 executes the above-described enlargement processing S3 to change the virtual image display area 311 that is an area for displaying the first virtual image V1 into a virtual image display area 311d that is enlarged upward as viewed from the viewer.
  • the first virtual image V1 can be continuously displayed on the real scene 5 through the reference projection area 2r on the front windshield 2 where the first virtual image V1 was displayed in the normal state, and the vehicle Since the first virtual image V1 can continue to be displayed even for the reference real scene area 5r that is in a fixed positional relationship with 1, the first virtual image V1 is suddenly not displayed in the reference real scene area 5r on the real scene 5.
  • the first virtual image V1 can be prevented from being displayed in the reference projection area 2r on the front windshield 2, and the area where the first virtual image V1 is displayed (virtual image display area 311) is narrow. It is difficult for viewers to feel it.
  • the control unit 70 When the control unit 70 acquires the positional deviation information G and determines that the enlargement process is necessary, the control unit 70 performs the first operation on the information addition target 5W of the real scene 5 superimposed on the enlarged virtual image display region 311d as viewed from the viewer.
  • the virtual image V1 is immediately displayed. As a result, even when a positional deviation occurs between the front windshield 2 and the real scene 5 viewed from the viewer, it can be immediately displayed in the enlarged virtual image display area 311d, and information can be quickly transmitted to the viewer. it can.
  • the control unit 70 acquires the positional deviation information G and determines that enlargement processing is necessary, the control unit 70 enlarges an area (an increasing area) when enlarging the virtual image display area 311 before enlargement to the virtual image display area 311d.
  • the visibility (luminance, lightness, saturation) of the first virtual image V1 newly displayed on the screen may be gradually increased with time. Thereby, a viewer's confusion resulting from the instantaneous increase of the displayed first virtual image V1 can be suppressed.
  • FIG. 7C shows a state in which the virtual image display area 311 is reduced in steps S6 and S7 after the positional deviation has continued for a predetermined time in step S5 described above, and the hatched area of the solid line is the reference actual scene area 5r.
  • the dotted hatched area is the reference projection area 2r, and the filled area is the virtual image display area 311dx reduced in steps S6 and S7.
  • the processing unit 71 gradually reduces the virtual image display area 311d with the passage of time so as to be superimposed on the reference real scene area 5r of the real scene 5. .
  • the display can be continued in the reference real scene area 5r that is in a fixed positional relationship with the vehicle 1, and the area where the first virtual image V1 is displayed (the virtual image display area 311) is reduced. Therefore, it can suppress that a viewer becomes distracted.
  • the angle of the first virtual image displayable area 310 with respect to the actual scene (road surface) 5 changes according to the position (height) of the viewer's viewpoint and the pitch angle of the vehicle 1.
  • the processing unit 71 of the present embodiment adjusts the angle of the first virtual image displayable area 310 according to the viewpoint information 7G and the vehicle attitude information 8G to be acquired, so that the real scene 5 of the first virtual image displayable area 310 is adjusted. Reducing or canceling unintended angle changes with respect to. The method is described below.
  • the control unit 70 determines drive data T including the drive amount of the actuator 40 corresponding to the acquired viewpoint information 7G and / or vehicle attitude information 8G. Specifically, the control unit 70 reads table data stored in advance in the storage unit 72 and determines drive data T corresponding to the acquired viewpoint information 7G and / or vehicle attitude information 8G. Note that the control unit 70 may obtain the drive data T from the viewpoint information 7G or / and the vehicle attitude information 8G by calculation using a preset calculation formula.
  • the control unit 70 drives the actuator 40 based on the determined drive data T.
  • the control unit 70 drives the actuator 40 to rotate the reflecting unit 30 located on the optical path of the first display light 210 emitted from the first image display unit 10.
  • the relative angle 330 of the 1st image display part 10 with respect to the 2nd virtual image displayable area 320 changes.
  • the control unit 70 determines that the first virtual image displayable area 310 is in the real scene 5 even when the position (height) of the viewpoint of the viewer changes or when the vehicle posture of the vehicle 1 changes.
  • the reflecting unit 30 may be rotated by controlling the actuator 40 so as to be parallel to the road surface.
  • FIG. 8A, 8B, and 8C are diagrams showing how the angle 330 formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 generated by the HUD 100 of the present embodiment is changed.
  • FIG. 8A, FIG. 8B, and FIG. 8C are diagrams showing the pitch angle (vehicle posture) indicating how much the pitch angle of the vehicle 1 is inclined with respect to the road surface 5W formed of the XZ plane.
  • FIG. 8A is a diagram illustrating an angle 330 formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 when the vehicle 1 is in a vehicle posture 1r parallel to the road surface 5W.
  • the reflecting unit 30 may, for example, drive data T determined in step S02 shown in FIG.
  • the angle 30r shown in (b) of FIG. 8A based on the first virtual image displayable area 310 is, for example, substantially parallel to the road surface 5W as shown in (c) of FIG. 8A.
  • the angle 330 that is adjusted and formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 is an angle 330r of approximately 90 degrees.
  • a vehicle posture 1r in which the vehicle 1 shown in FIG. 8A is parallel to the road surface 5W is also referred to as a reference vehicle posture 1r below.
  • the angle 30r of the reflecting portion 30 shown in FIG. 8A (b) is also referred to as a reference angle 30r.
  • an angle 330r formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 as illustrated in (c) of FIG. 8A is also referred to as a reference angle 330r below.
  • FIG. 8B is a diagram illustrating an angle 330 formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 when the front of the vehicle 1 is tilted upward in the vertical direction.
  • the reflector 30 is, for example, step S02 shown in FIG.
  • the angle 30u is rotated clockwise (CW direction) with respect to the reference angle 30r as shown in (b) of FIG. 8B, and the first virtual image displayable area 310 is obtained.
  • FIG. 8C is a diagram illustrating an angle 330 formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 when the front of the vehicle 1 is tilted downward in the vertical direction.
  • the reflecting unit 30 is, for example, the step shown in FIG.
  • the angle 30d is rotated counterclockwise (CCW direction) with respect to the reference angle 30r, and the first virtual image can be displayed.
  • the region 310 is adjusted so as to be substantially parallel to the road surface 5W as shown in FIG. 8C (c), and the first virtual image displayable region 310 and the second virtual image displayable region 320 are formed.
  • the angle 330 is an angle 330d smaller than the reference angle 330r.
  • the angle 330 formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 is the vehicle 1. It changes according to the vehicle posture. As in the example shown in FIGS. 8A, 8B, and 8C, for example, as the front of the vehicle 1 goes upward in the vertical direction, the first virtual image displayable area 310 and the second virtual image displayable area 320 are The formed angle 330 is increased. On the other hand, for example, as the front of the vehicle 1 moves downward in the vertical direction, the angle 330 formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 increases.
  • the angle 330 formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 changes based on the vehicle posture of the vehicle 1, which of the visible virtual images is the first virtual image. Since the viewer can recognize whether the information is displayed in the displayable area 310 or the second virtual image displayable area 320, each of the first virtual image displayable area 310 and the second virtual image displayable area 320 The first virtual image V ⁇ b> 1 and the second virtual image V ⁇ b> 2 displayed on the screen can be recognized more three-dimensionally.
  • the first virtual image displayable area 310 is generated by being inclined in the horizontal direction from the second virtual image displayable area 320, and the angle with respect to the actual scene is adjusted by driving the actuator 40.
  • the angle adjustment with respect to the real scene of the virtual image displayable area (first virtual image displayable area 310) inclined in the horizontal direction is the angle adjustment with respect to the real scene of the virtual image displayable area (first virtual image displayable area 310) inclined in the vertical direction.
  • the impression given to the viewer with respect to a certain angle change of the virtual image displayable area is larger.
  • the first virtual image V1 displayed in the first virtual image displayable area 310 and the second virtual image displayable area 310 are adjusted by adjusting the angle of the horizontal virtual image displayable area (first virtual image displayable area 310). It becomes easy to distinguish the second virtual image V2 displayed in the virtual image displayable area 320, and the first virtual image V1 displayed in each of the first virtual image displayable area 310 and the second virtual image displayable area 320.
  • the second virtual image V2 can be recognized more three-dimensionally.
  • the actuator 40 rotates the reflecting unit 30 positioned on the optical path of the first display light 210 up to the display combining unit 50 that directs the first display light 210 and the second display light 220 in the same direction.
  • the angle 330 formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 is changed, but the display combining unit 50 may be rotated by the actuator 40.
  • the actuator 40 rotates the reflecting unit 30 positioned on the optical path of the first display light 210 up to the display combining unit 50 that directs the first display light 210 and the second display light 220 in the same direction.
  • the HUD 100 of the present invention rotates the display surface (first screen 12) of the first image display unit 10 with the actuator 40, whereby the first virtual image displayable area 310 and the second virtual image displayable area.
  • the angle 330 formed with 320 may be changed.
  • the actuator 40 does not need to use the center of the display surface (first screen 12) of the reflection unit 30, the display synthesis unit 50, and the first image display unit 10 as the rotation axis AX.
  • the position (including the end) may be used as the rotation axis AX.
  • the rotation axis AX may be provided at a position separated from each optical member.
  • FIG. 10 shows an example in which the real scene and the first virtual image V1 and the second virtual image V2 displayed by the modified example of the HUD 100 shown in FIG. 2 are visually recognized when facing the front of the vehicle 1 from the driver's seat.
  • the HUD 100 of the present invention can display a first virtual image displayable area 310 generated by the first image display unit 10 and a second virtual image display generated by the second image display unit 20.
  • the region 320 may be viewed with a distance.
  • the HUD 100 in this modified example includes a region on the display combining unit 50 where the first display light 210 is incident from the first image display unit 10 and a second display from the second image display unit 20. You may comprise by separating
  • the first image display unit 10 that generates the first virtual image displayable region 310 and the second image display unit 20 that generates the second virtual image displayable region 320 are provided.
  • the image display unit may be a single unit.
  • the HUD 100 in this modified example projects projection light from a single projection unit (not shown) onto a plurality of screens (display surfaces) (not shown), and rotates one of the screens with an actuator, thereby The angle 330 formed by the virtual image displayable area 310 and the second virtual image displayable area 320 may be adjusted.
  • the angle 330 formed by the first virtual image displayable area 310 and the second virtual image displayable area 320 is adjusted by adjusting the angle of the first virtual image displayable area 310 with respect to the real scene.
  • the first virtual image displayable area 310 is adjusted.
  • the angle 330 formed by the second virtual image displayable area 320 may be adjusted.
  • the first image display unit 10 may be a transmissive display panel such as a liquid crystal display element, a self-luminous display panel such as an organic EL element, or a scanning display device that scans with laser light. Good.
  • HUD head Up display
  • 200 ... Display light, 210 ... First display light, 220 ... Second display light, 310 ... First virtual image displayable area, 311 ... Virtual image display area, 312 ... Virtual image blank area, 320 ... First 2 Virtual image display area, V1 ... first virtual image V2 ... second virtual image, 330 ... angle, AX ... rotary shaft, D ... image data, G ... positional displacement information, 7G ... viewpoint information, 8G ... vehicle attitude information

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

虚像の表示領域の狭さを感じさせにくくすることができる。 透過反射部2に表示光210を投影することで、車両1の外部の実景5に重畳する虚像表示可能領域310に第1の虚像V1を表示するヘッドアップディスプレイ1であって、制御部70は、視認者4から見た透過反射部2と実景5との相対的な位置にずれが生じる際、虚像表示可能領域310のうち第1の虚像V1を表示する範囲を定める虚像表示領域311を通常の広さより拡大する。

Description

ヘッドアップディスプレイ
 本発明は、虚像を表示するヘッドアップディスプレイに関するものである。
 ヘッドアップディスプレイは、自車両前方の風景(実景)に虚像を重ねて表示することで、実景に情報などを付加したり、実景における特定の対象を強調したりする拡張現実(AR:Augmented Reality)を生成し、車両運転する視認者の視線移動を極力抑えつつ、所望の情報を的確に提供することで、安全で快適な車両運行に寄与するものである。
 ヘッドアップディスプレイは、表示面を有する画像表示部を備え、リレー光学系が前記表示面を視認者の前方に位置するウインドシールド(透過反射部の一例)に映すことで、前記表示面に対応する仮想的な虚像表示可能領域を視認者から見た前記ウインドシールドの奥側(車両の外側)に生成し、前記画像表示部が前記表示面に画像を表示することで、前記虚像表示可能領域上に前記画像の虚像を表示する。
 例えば特許文献1のヘッドアップディスプレイは、視認者から見て特定の実景領域に重なる位置に前記虚像表示可能領域を生成し、イメージセンサを有するカメラなどからなる実景情報取得部で車両前方の実景情報を取得し、この実景情報に基づいて、前記画像表示部が前記表示面上に表示する前記画像の位置を調整することで、前記特定の実景領域における所望の位置に虚像を表示している。
特開2012-0335745号公報
 しかしながら、ヘッドアップディスプレイが生成する前記虚像表示可能領域と特定の実景領域とを常に重ねることは、困難であり、ヘッドアップディスプレイが生成する前記虚像表示可能領域と特定の実景領域とがずれることにより、以下に説明するように、視認者が違和感を覚えるおそれがあった。
 図10は、ウインドシールドを介した視認者が見る実景と虚像とを示した図である。通常どおり車両が走行している場合、視認者は、図10(a)に示されるように、ウインドシールド510を介して実景520を視認する。ヘッドアップディスプレイは、視認者から見たウインドシールド510上の特定領域510rに前記画像表示部の前記表示面を映し、実景520における特定の実景領域520rに重なる位置に前記表示面に対応する虚像表示可能領域530rを生成し、前記表示面上に前記画像を表示することで、視認者から見て特定の実景領域520rに重なる位置に虚像531を表示する。
 しかしながら、例えば車両が急ブレーキをすることで発生する、車両の前方が道路側に向けて下がるピッチダウンに合わせて前記画像表示部が前記表示面上の前記画像の表示位置を調整しない場合、虚像表示可能領域530dは、図10(b)に示すように、視認者から見て特定の実景領域520rからずれてしまう。これは、車両が通常走行している状態でもピッチダウンの状態であっても、ヘッドアップディスプレイが、変わらずウインドシールド510上の特定領域510rに前記画像表示部の前記表示面を映し続けるためであり、ウインドシールド510上の特定領域510rに表示を継続することができるが、特定の実景領域520rにおける表示を継続することができない。
 また、車両の前方が道路側に向けて下がるピッチダウンに合わせて前記画像表示部が前記表示面上の前記画像を表示する位置を調整する場合、虚像表示可能領域530dは、図10(c)に示すように、変わらず特定の実景領域520rに表示を継続することができるが、ウインドシールド510上の特定領域510rに表示を継続することができない。どちらの場合も、虚像531が表示される領域が限定される印象を視認者に与えてしまうおそれがあった。
 本発明の1つの目的は、表示領域の狭さを感じさせにくいヘッドアップディスプレイを提供することである。
 本発明は、前記課題を解決するため、以下の手段を採用した。
 本発明のヘッドアップディスプレイは、透過反射部に表示光を投影することで、車両の外部の実景に重畳する虚像表示可能領域に虚像を表示するヘッドアップディスプレイであって、制御部は、視認者から見た透過反射部と実景との相対的な位置にずれが生じる際、虚像表示可能領域のうち虚像を表示する範囲を定める虚像表示領域を拡大することで、視認者から見て、虚像が重畳表示される実景の範囲が拡がるので、虚像が表示される実景の範囲が狭いという印象を視認者に抱きにくくする、ことを要旨としている。
 本発明の第1の態様のヘッドアップディスプレイは、車両に搭載され、透過反射部に第1の表示光(210)を投影することで、前記車両の外部の実景に重畳する第1の虚像表示可能領域(310)に第1の虚像(V1)を表示するヘッドアップディスプレイであって、前記第1の虚像表示可能領域に対応する第1の画像表示面(13)を有し、前記第1の画像表示面から前記第1の表示光を発する第1の画像表示部(10)と、前記第1の画像表示部が発する前記第1の表示光を前記透過反射部に向けるリレー光学系と、視認者から見た前記透過反射部と前記実景との相対的な位置にずれが生じる際、前記第1の虚像表示可能領域のうち前記第1の虚像を表示する範囲を定める虚像表示領域(311)を拡大する制御部(70)を備える。第1の態様では、視認者から見た透過反射部と実景との相対的な位置にずれが生じる際、第1の虚像を表示する範囲を定める虚像表示領域を拡大することによって、虚像が表示される表示領域の狭さを感じにくくすることができる。
 第2の態様において、前記車両の車両姿勢に関する情報を含む車両姿勢情報(8G)を取得する車両姿勢情報取得手段(73)をさらに備え、前記制御部は、前記車両姿勢情報取得手段が取得した前記車両姿勢情報に基づき、前記虚像表示領域を拡大してもよい。第2の態様では、虚像表示領域は、車両姿勢に基づき、拡大することができる。
 第3の態様において、視認者の視点位置に関する情報を含む視点情報(7G)を取得する視点情報取得手段(73)をさらに備え、前記制御部は、前記視点情報取得手段が取得した前記視点情報に基づき、前記虚像表示領域を拡大してもよい。第3の態様では、虚像表示領域は、視認者の視点位置に基づき、拡大することができる。
 第4の態様において、前記制御部は、前記透過反射部と前記実景との相対的な位置ずれ量が大きくなるに従い、前記虚像表示領域の拡大量を増加させてもよい。第4の態様では、透過反射部と実景との相対的な位置ずれ量に応じて、虚像表示領域の拡大量を調整するので、虚像表示領域の拡大量が小さすぎて虚像が表示される表示領域を狭く感じる、または虚像表示領域の拡大量が大きすぎて視認者の注意が散漫になることを防止し、適切に虚像表示領域を拡大することができる。
 第5の態様において、前記制御部は、前記透過反射部と前記実景との相対的な位置ずれ方向に従い、前記虚像表示領域を拡大する拡大方向を決定する、または前記虚像表示領域の他の拡大方向より拡大量を大きくする拡大方向を決定してもよい。第5の態様では、透過反射部と実景との相対的な位置ずれ方向に従い、虚像表示領域を拡大する拡大方向を決定するので、虚像表示領域を必要な方向のみ拡大することができ、不要な方向に虚像表示領域を拡大して視認者の注意が散漫になることを防止することができる。または、第5の態様では、虚像表示領域を、必要な方向により大きく拡大し、それ以外の方向では小さく拡大するので、必要な方向に確実に虚像を表示しつつ、それ以外の方向では、視認者の注意散漫を抑制しつつ、視認者に情報を提供することができる。
 第6の態様において、前記虚像表示領域は、前記透過反射部と前記実景との相対的な位置ずれが生じる前の通常状態において、視認者から見て、前記車両と一定の位置関係にある前記実景の特定領域に重畳するように設定され、記制御部は、前記透過反射部と前記実景との相対的な位置ずれが生じる際、視認者から見て、前記実景の前記特定領域の少なくとも一部が重畳するように前記虚像表示領域を拡大してもよい。第6の態様では、視認者から見て、透過反射部と前記実景との相対的な位置ずれが生じるような場合であっても、車両と一定の位置関係にある実景の特定領域の一部に、虚像の表示を継続することができる。
 第7の態様において、前記虚像表示領域は、前記透過反射部と前記実景との相対的な位置ずれが生じる前の通常状態において、視認者から見て、前記車両と一定の位置関係にある前記実景の特定領域に重畳するように設定され、前記制御部は、前記透過反射部と前記実景との相対的な位置ずれが生じる際、視認者から見て、前記実景の前記特定領域の少なくとも全部が重畳するように前記虚像表示領域を拡大してもよい。第7の態様では、視認者から見て、透過反射部と前記実景との相対的な位置ずれが生じるような場合であっても、車両と一定の位置関係にある実景の特定領域の全部に、虚像の表示を継続することができる。
 第8の態様において、前記制御部は、前記透過反射部と前記実景との相対的な位置ずれが所定時間継続した場合、拡大された前記虚像表示領域を縮小してもよい。第8の態様では、虚像表示領域を拡大し続けることにより生じる、視認者の注意散漫を抑制することができる。
 第9の態様において、前記虚像表示領域は、前記透過反射部と前記実景との相対的な位置ずれが生じる前の通常状態において、視認者から見て、前記車両と一定の位置関係にある前記実景の特定領域に重畳するように設定され、前記制御部は、前記透過反射部と前記実景との相対的な位置ずれが所定時間継続した場合、拡大された前記虚像表示領域を、視認者から見て、前記実景の前記特定領域の全部と重畳するように前記虚像表示領域を縮小してもよい。第9の態様では、虚像表示領域を拡大し続けることにより生じる、視認者の注意散漫を抑制しつつ、車両と一定の位置関係にある実景の特定領域の全部に、虚像の表示を継続することができる。
 第10の態様では、前記透過反射部に第2の表示光(220)を投影することで、視認者からの距離が前記第1の虚像表示可能領域とは異なる位置に配置される第2の虚像表示可能領域(320)に、第2の虚像(V2)を表示するヘッドアップディスプレイであって、前記第1の虚像表示可能領域の実空間上の角度を調整することで、前記第1の虚像表示可能領域と前記第2の虚像表示可能領域との相対的な角度を調整可能な角度調整部を備え、前記角度調整部は、視認者から見た前記透過反射部と前記実景との相対的な位置ずれにより生じる、前記実景に対する前記第1の虚像表示可能領域の角度変化が少なくなる方向に、前記第1の虚像表示可能領域の角度を調整してもよい。第10の態様では、視認者からの距離が異なる位置に第1の虚像と第2の虚像とを表示することができ、第1の虚像が表示される第1の虚像表示可能領域と、第2の虚像が表示される第2の虚像表示可能領域との相対的な角度を調整することで、第1の虚像と第2の虚像との差別化が容易になり立体感を視認者に印象づけることができ、さらに、視認者から見た前記透過反射部と前記実景との相対的な位置ずれが生じる場合であっても、実景に対する第1の虚像表示可能領域の角度を維持または角度変化を抑制することができる。
 表示領域の狭さを感じさせにくい表示ができる。
本発明のヘッドアップディスプレイが生成する第1の虚像表示可能領域と第2の虚像表示可能領域の例を説明する図である。 運転席から車両の前方を向いた場合の、実景と図1に示されるヘッドアップディスプレイが表示する虚像とが視認される様子の例を示す図である。 図1に示されるヘッドアップディスプレイの構成の例を示す図である。 図2に示される第1のスクリーンに第1の画像が表示された例を示す図である。 図2に示される制御部の構成の例を示す図である。 図2に示されるヘッドアップディスプレイの動作を説明するフローチャートである。 運転席から車両の前方を視認した場合の、実景と図1に示されるヘッドアップディスプレイの虚像表示領域との配置を説明する図である。 図2に示されるヘッドアップディスプレイにより、車両のピッチ角が概ね路面に平行である場合の第1、第2の虚像表示可能領域がなす角度の例を説明する図であり、(a)が車両のピッチ角の例を示し、(b)が反射部の角度の例を示し、(c)が第1、第2の虚像表示可能領域の配置を示す図である。 図2に示されるヘッドアップディスプレイにより、車両のピッチ角が鉛直方向の上側に向いた場合の第1、第2の虚像表示可能領域がなす角度の例を説明する図であり、(a)が車両のピッチ角の例を示し、(b)が反射部の角度の例を示し、(c)が第1、第2の虚像表示可能領域の配置を示す図である。 図2に示されるヘッドアップディスプレイにより、車両のピッチ角が鉛直方向の下側に向いた場合の第1、第2の虚像表示可能領域がなす角度の例を説明する図であり、(a)が車両のピッチ角の例を示し、(b)が反射部の角度の例を示し、(c)が第1、第2の虚像表示可能領域の配置を示す図である。 運転席から車両の前方を向いた場合の、実景と図2に示されるヘッドアップディスプレイの変形例が表示する虚像とが視認される様子を示す図である。 従来のヘッドアップディスプレイにおいて、車両の姿勢に応じた実景とフロントウインドシールド(透過反射部)との位置ずれ、およびこの位置ずれにより生じる実景の特定領域と虚像表示領域との位置ずれについて説明する図である。
 以下に説明する実施形態は、本発明を容易に理解するために用いられ、当業者は、本発明が以下に説明される実施形態によって不当に限定されないことを留意すべきである。
 図1を参照して、本発明のヘッドアップディスプレイ(以下、HUDと記載)100が生成する仮想的な第1の虚像表示可能領域310、第2の虚像表示可能領域320について説明する。以下の説明を容易にするために、図1に示されるように、実空間において、例えば、車両1の前方を向いた左右方向をX軸(右方向がX軸正方向)に規定し、鉛直方向をY軸(鉛直方向上側がY軸正方向)に規定し、前後方向をZ軸(後方向がZ軸正方向)に規定する。
 図1に示すように、HUD100は、例えば、車両(移動体の一適用例)1のダッシュボード3内に収納される。例えばHUD100は、車両1のフロントウインドシールド(透過反射部の一例)2の一部に車両情報等を示す表示光200(第1の表示光210及び第2の表示光220)を投影する。フロントウインドシールド2は、第1の表示光210及び第2の表示光220を視認者側に向けて反射することで所定のアイボックス(図示しない)を生成する。視認者は、視点(視認者の眼の位置)4を前記アイボックス内におくことで、フロントウインドシールド2を介した前方に、HUD100が仮想的に生成した第1の虚像表示可能領域310、第2の虚像表示可能領域320上で第1の虚像V1、第2の虚像V2を視認することができる。
 第1の虚像表示可能領域310の中心と視点4とを結ぶ線を視線軸4aとすると、図1に示される第1の虚像表示可能領域310は、第1の虚像表示可能領域310の中心から視認者側の表示領域と視線軸4aとのなす角310aが鋭角となるように設けられ、実景5における情報付加対象物である路面5Wの所定の範囲(図1の位置5aから5b)に亘って重畳して視認される第1の虚像V1を表示する。具体的に例えば、第1の虚像表示可能領域310は、図1の路面5W(X-Z平面からなる水平方向)に平行であり、前記アイボックスから前方方向(車両1の進行方向)に10[m]離れた位置5aから100[m]離れた位置5bに亘って重なって設けられる。なお、第1の虚像表示可能領域310は、図1の路面5Wに平行となる角度から-10度(図1のCCW方向)~+45度(図1のCW方向)傾いて設けられてもよい。
 また、第2の虚像表示可能領域320の中心と視点4とを結ぶ線を視線軸4bとすると、図1に示される第2の虚像表示可能領域320は、例えば、第2の虚像表示可能領域320の中心から鉛直方向の下側の表示領域と視線軸4bとのなす角320aが、第1の虚像表示可能領域310と視線軸4aとのなす角310aより大きくなるように設けられ、第2の虚像V2を表示する。具体的に例えば、第2の虚像表示可能領域320は、図1の車両1の進行方向に垂直な方向(X-Y平面)に概ね平行であり、前記アイボックスから前方方向(車両1の進行方向)の5[m]~10[m]離れた位置に視認されるように設けられる。なお、第2の虚像表示可能領域320は、図1の車両1の進行方向に垂直な方向(X-Y平面)に平行となる角度から±10度程度傾いて設けられてもよい。
 図2は、図1に示されるHUD100を備える車両1の運転席に座る視認者から見える風景及び第1の虚像V1、第2の虚像V2の例を示す図である。HUD100は、第1の虚像V1を表示可能な領域であり、例えば視認者から見て矩形状の第1の虚像表示可能領域310と、第2の虚像V2を表示可能な領域であり、第1の虚像表示可能領域310と重なる矩形状の第2の虚像表示可能領域320と、を生成する。なお、この第1の虚像表示可能領域310、第2の虚像表示可能領域320自体は、視認者に視認されないまたは視認者にされにくい状態であり、第1の虚像表示可能領域310上に表示される第1の虚像V1、第2の虚像表示可能領域320上に表示される第2の虚像V2を視認者が視認することとなる。第1の虚像表示可能領域310に表示される第1の虚像V1は、実景5における情報付加対象物5Wの近傍または重畳する位置に表示され、この情報付加対象物5Wを強調したり、情報を付加したりする画像であり、例えば、路面(情報付加対象物)5Wに、目的地までの経路を案内する情報を付加する矢印画像や、車線逸脱警報(LDW:Lane Depature Warning)時に白線(情報付加対象物)5Wを強調する線状の画像である。情報付加対象物5Wとは、例えば、路面や、路面上または付近に存在する障害物、交通標識、交通標示、交通信号機、建物などである。第2の虚像表示可能領域320に表示される第2の虚像V2は、実景5の特定の対象(情報付加対象物5W)を強調したりするものではなく、例えば、車両1の車速などの車両情報や分岐点までの距離を示す情報などである。
 第1の虚像表示可能領域310は、通常、第1の虚像V1を表示する領域である虚像表示領域311と、虚像表示領域311を少なくとも上下方向(Y軸方向)から囲む虚像ブランク領域312と、から構成される。虚像表示領域311は、視認者から見て、車両1と一定の位置関係にある実景5の特定領域5rにフロントウインドシールド2の領域2rを介して重畳する。すなわち、通常、HUD100は、視認者から見た実景5の特定領域5r内の情報付加対象物5Wに対して、第1の虚像V1を表示し、虚像ブランク領域312に重畳し、実景5の特定領域5r外にある情報付加対象物5Wに対して、第1の虚像V1を表示しない。但し、虚像ブランク領域312であっても、第2の虚像表示可能領域320に表示するような実景5の特定の対象(情報付加対象物5W)を強調したりするものではない情報を虚像として表示してもよい。さらに、視認者から見て、虚像ブランク領域312に重畳する実景5に存在する情報付加対象物5Wについても、緊急性が高い、重要性が高い場合、この情報付加対象物5Wを強調したり、情報を付加したりする画像を第1の虚像V1としても表示してもよい。以下では、通常、虚像表示領域311が映るフロントウインドシールド2の領域2rを、基準投影領域2rとも呼び、通常、虚像表示領域311が重畳する実景5の特定領域5rを、基準実景領域5rとも呼ぶ。本発明のHUD100は、視認者から見る基準投影領域2rと、基準実景領域5rとに位置ずれが生じた場合、第1の虚像V1を表示する範囲である虚像表示領域311を拡大する拡大処理を実行する。この拡大処理については、後述する。
 再び、図2に戻って、車両1に設けられる各種検出部について説明する。なお、これから説明する各種検出部は、HUD100に設けられてもよい。また、車両1またはHUD100に取り外し可能に有線接続または無線接続されてもよい。具体的には、車両1またはHUD100に、センサユニットを有線接続または無線接続したり、各種検出部を有する携帯端末を有線接続または無線接続したりしてもよい。
 図1の車両1には、車両1の実景情報6Fを取得する実景情報検出部6が搭載されている。実景情報6Fとは、車両1の前方の実景5のうち、第1の虚像V1が表示されることで強調または情報が負荷される情報付加対象物5Wの位置情報を少なくとも含み、例えば、単数または複数のカメラ、赤外線センサ、GPSや電子コンパスを有するナビゲーションシステムなどから得られる。情報付加対象物5Wは、例えば、路面や、路面上または付近に存在する障害物、交通標識、交通標示、交通信号機、建物などである。
 また、図1の車両1には、HUD100の視認者の視点情報7Gを取得する視点情報検出部(位置ずれ情報取得手段)7が搭載されている。視点情報7G(後述する位置ずれ情報G)とは、視認者の視点の上下方向(Y軸方向)の位置情報を少なくとも含み、左右方向(X軸方向)および奥行方向(Z軸方向)の位置情報を含んでいてもよく、例えば、カメラ、赤外カメラなどから得られる。
 図1の車両1には、車両1の姿勢を検出する車両姿勢検出部(位置ずれ情報取得手段)6が搭載されている。車両姿勢検出部8は、例えば、三軸加速度センサ(図示しない)と、前記三軸加速度センサが検出した三軸加速度を解析することで、水平面を基準とした車両1のピッチ角(車両姿勢)を推定し、車両1のピッチ角に関する情報を含む車両姿勢情報8G(後述する位置ずれ情報G)をHUD100(制御部70)に出力する。なお、車両姿勢検出部8は、前述した三軸加速度センサ以外に、車両1のサスペンション近傍に配置されるハイトセンサ(図示しない)で構成されてもよい。このとき、車両姿勢検出部8は、前記ハイトセンサが検出する車両1の地面からの高さを解析することで、前述したように車両1のピッチ角を推定し、車両1のピッチ角に関する情報を含む車両姿勢情報8GをHUD100(制御部70)に出力する。また、車両姿勢検出部8は、車両1の外部を撮像する撮像カメラ(図示しない)と、この撮像画像を解析する画像解析部(図示しない)から構成されてもよい。このとき、車両姿勢検出部8は、前記撮像画像に含まれる風景の時間変化から車両1のピッチ角(車両姿勢)を推定する。なお、車両姿勢検出部8が、車両1のピッチ角を求める方法は、前述した方法に限定されず、公知のセンサや解析方法を用いて車両1のピッチ角を求めてもよい。
 図3は、図1に示されるHUD100の構成の例を示す図である。
 図1のHUD100は、例えば、第1の画像表示部10、第2の画像表示部20、反射部30、アクチュエータ40、表示合成部50、凹面ミラー60、及び制御部70を有する。HUD100は、一般的に車両1のダッシュボードの中に収納されるが、第1の画像表示部10、第2の画像表示部20、反射部30、アクチュエータ40、表示合成部50、凹面ミラー60及び制御部70の全部または一部がダッシュボードの外部に配置されてもよい。HUD100(制御部70)は、車両1に搭載される車載LAN(Local Area Network)などからなるバス9に接続され、このバス9から上述した実景情報6F、視点情報7G、車両姿勢情報8Gを入力することができる。
 図3の第1の画像表示部10は、例えば、DMDやLCoSなどの反射型表示デバイスを用いたプロジェクタなどからなる第1の投影部11と、第1の投影部11からの投影光を受光して第1の画像14を表示し、この第1の画像14を示す第1の表示光210を反射部30に向けて出射する第1のスクリーン12と、から主に構成される。第1の画像表示部10は、後述する制御部70から入力する画像データDに基づき、第1のスクリーン12に第1の画像14を表示することで、視認者の前方に仮想的に生成される第1の虚像表示可能領域310上に第1の虚像V1を表示させる。
 図4は、図3に示される第1のスクリーン12の正面図である。以下の説明の理解を容易にするため、図4に示されるように、第1のスクリーン12の左右方向をdx軸(左方向をdx軸正方向)と規定し、第1のスクリーン12の上下方向をdy軸(下方向をdy軸正方向)と規定する。図2で示される視認者が車両1の運転席から視認する第1の虚像V1のX軸方向の位置は、図4に示される第1のスクリーン12上に表示される第1の画像14のdx軸方向の位置に対応する。同様に、図2で示される視認者が車両1の運転席から視認する第1の虚像V1のY軸方向の位置は、図4に示される第1のスクリーン12上に表示される第1の画像14のdy軸方向の位置に対応する。なお、HUD100内の光学部材(第1の画像表示部10、第2の画像表示部20、反射部30、アクチュエータ40、表示合成部50、凹面ミラー60)などの配置などにより、前述した実空間上のXY座標軸と、第1のスクリーン12の説明で用いるdxdy座標軸との関係は、前述した限りではない。
 図3の第1のスクリーン12は、図4に示されるように、第1の画像14を表示可能な領域13を有する。第1のスクリーン12のうち、第1の画像14を表示可能な領域13を、例えば、第1の画像表示面13という。第1の虚像表示可能領域310は、第1の画像表示部10の第1の画像表示面13に対応しており、第1の虚像表示可能領域310の大きさや実空間上における第1の虚像表示可能領域310が生成される位置は、第1のスクリーン12上の第1の画像表示面13の大きさや第1のスクリーン12上における第1の画像表示面13の位置に応じて調整することが可能である。なお、第1のスクリーン12の面は、例えば、第1のスクリーン12の第1の画像表示面13の中心と視点4とを結ぶ線を視線軸4aとすると、この視線軸4aに対して所定の角度で傾いて配置される。
 第1の画像表示面13は、画像表示領域13aと、画像表示領域13aの上下方向(dy方向)を少なくとも含む画像表示領域13aの周囲の領域である画像ブランク領域13bと、を有する。本実施形態の第1の画像表示部10は、通常、画像表示領域13aに第1の画像14を表示し、後述する拡大処理を実行した場合、第1の画像14を画像ブランク領域13bにも表示する。
 図3の第2の画像表示部20は、前述の第1の画像表示部10と同様の構成であり、第2の投影部21と、第2の画像表示面23を有する第2のスクリーン22と、から構成され、第2の画像表示面23上に第2の画像24を表示する。それぞれの構成の説明については省略する。なお、第2のスクリーン22の面は、例えば、第2のスクリーン22の第2の画像表示面23の中心と視点4とを結ぶ線を視線軸4bとすると、この視線軸4bに対して所定の角度で傾いて配置される。
 図3の反射部(リレー光学系)30は、例えば、平板状の平面鏡で形成され、第1の画像表示部10から視点4に向かう第1の表示光210の光路上に傾いて配置され、第1の画像表示部10から出射された第1の表示光210を表示合成部50に向けて反射する。反射部30には、反射部30を回転させるアクチュエータ40が備えられている。なお、反射部30は、平面ではなく、曲面を有していてもよい。
 アクチュエータ40は、例えば、ステッピングモータやDCモータなどであり、後述する制御部70の制御のもと、視点情報検出部7が検出する視点情報7Gまたは/および車両姿勢検出部8が検出する車両姿勢情報8Gに基づいて反射部30を回転させることで第1の虚像表示可能領域310の角度及び位置を調整する。
 図3の表示合成部(リレー光学系)50は、例えば、透光性の基板の一方の表面に金属反射膜あるいは誘電体多層膜などの半透過反射層を形成した平面のハーフミラーなどで構成される。表示合成部50は、反射部30により反射された第1の画像表示部10からの第1の表示光210を凹面ミラー60に向けて反射し、第2の画像表示部20からの第2の表示光220を凹面ミラー60側に透過する。表示合成部50の透過率は、例えば50%だが、適宜調整することで第1の虚像V1、第2の虚像V2の輝度を調整してもよい。
 図3の凹面ミラー60は、例えば、第1の画像表示部10及び第2の画像表示部20から視点4に向かう第1の表示光210及び第2の表示光220の光路上に傾いて配置され、第1の画像表示部10、第2の画像表示部20から出射された第1の表示光210、第2の表示光220を、フロントウインドシールド2に向けて反射する。第1の画像表示部10の第1のスクリーン12から凹面ミラー60までの第1の表示光210の光路長は、第2の画像表示部20の第2のスクリーン22から凹面ミラー60までの第2の表示光220の光路長より長くなるように配置され、これにより、第1の画像表示部10により生成される第1の虚像V1は、第2の画像表示部20により生成される第2の虚像V2より前記アイボックスから離れた位置に結像される。なお、凹面ミラー60は、典型的には、第1の画像表示部10及び第2の画像表示部20が生成する第1の表示光210及び第2の表示光220をフロントウインドシールド(透過反射部)2と協働して拡大する機能、フロントウインドシールド2の曲面により生ずる第1の虚像V1、第2の虚像V2の歪みを補正し、歪みのない虚像を視認させる機能、第1の虚像V1、第2の虚像V2を視認者から所定の距離だけ離れた位置で結像させる機能を有する。
 図5は、図3の制御部70の概略構成例を示す。図5に示されるように、制御部70は、例えば、処理部71、記憶部72及びインターフェース73を含む。処理部71は、例えばCPUやRAMで構成され、記憶部72は、例えばROMで構成され、インターフェース73は、バス9に接続される入出力通信インターフェースで構成される。例えば、インターフェース73は、バス9を介して車両情報や上述した実景情報6F、視点情報7G、車両姿勢情報8G等を取得することができ、記憶部72は、入力した車両情報や実景情報6F、視点情報7G、車両姿勢情報8Gに基づいて画像データDを生成するためのデータ、及び入力した視点情報7G、車両姿勢情報8Gに基づいて駆動データTを生成するためのデータを記憶することができ、処理部71は、記憶部72からのデータを読み取り、所定の動作を実行することで画像データD及び駆動データTを生成することができる。なお、インターフェース73は、例えば、バス9を介して、視点情報検出部7から視認者の視点の位置に関する情報を含む視点情報7G(後述する位置ずれ情報G)を取得することができ、車両姿勢検出部8から車両1の姿勢に関する情報を含む車両姿勢情報8G(後述する位置ずれ情報G)を取得することができ、視点情報取得手段、車両姿勢情報取得手段、位置ずれ情報取得手段としての機能も有する。なお、制御部70は、HUD100の内部にあってもよく、その一部または全部の機能がHUD100の外側の車両1側に設けられてもよい。
 位置ずれ情報Gについて説明する。位置ずれ情報Gとは、視認者から見て、フロントウインドシールド2の基準投影領域2rと、実景5の基準実景領域5rとに位置ずれが生じる状態であるか推定可能な情報であり、具体的に例えば、上述した、視点情報検出部7により検出されるHUD100の視認者の視点位置に関する視点情報7G、車両姿勢検出部8により検出される車両1のピッチ角に関する情報を含む車両姿勢情報8Gである。視認者の視点位置が上下方向に移動した場合、フロントウインドシールド2の基準投影領域2rを介して視認者が視認する実景5は、基準実景領域5rと異なる領域となり、視認者の視点位置を示す視点情報7Gにより、視認者から見たフロントウインドシールド2の基準投影領域2rと、実景5の基準実景領域5rとに位置ずれが生じる状態か否かが推定可能である。また、車両1の路面に対するピッチ角が水平から変化した場合、フロントウインドシールド2の基準投影領域2rを介して視認者が視認する実景5は、基準実景領域5rと異なる領域となり、車両1のピッチ角に関する情報を含む車両姿勢情報8Gにより、視認者から見たフロントウインドシールド2の基準投影領域2rと、実景5の基準実景領域5rとに位置ずれが生じる状態か否かが推定可能である。第1の画像表示部10は、位置ずれ情報Gに基づいて、第1の虚像V1を表示する虚像表示領域311を拡大する拡大処理を実行する。以下に本実施形態のHUD100の動作例を説明する。なお、位置ずれ情報Gは、本実施形態で説明する視点情報7Gや車両姿勢情報8G以外にも、本出願以前に既に公知である技術を用いて得られる情報を適用してもよい。
 図6は、本実施形態のHUD100の動作の例を示すフローチャートである。HUD100は、例えば、車両1が起動されたとき、又は、車両1の電子機器に電力が供給されたとき、又は、車両1の起動または車両1の電子機器の電力供給から所定時間経過したときに以下に説明する処理を開始する。
 ステップS1では、処理部71は、インターフェース73から位置ずれ情報G(視点情報7G、車両姿勢情報8G)を取得する。
 ステップS2では、処理部71は、ステップS1で取得した位置ずれ情報Gに基づき、実景5とフロントウインドシールド(透過反射部)2との相対的な位置にずれ(位置ずれ)が生じる状態であるか判定する。言い換えると、処理部71は、視認者から見たフロントウインドシールド2の基準投影領域2rを介した実景5が特定領域5rとなる状態であるか判定する。処理部71は、位置ずれ情報Gに基づき、位置ずれが発生しないと判定した(ステップS2でNO)場合、拡大処理S3に移行せず、ステップS1に戻り、位置ずれが発生すると判定した(ステップS2でYES)場合、拡大処理S3に移行する。
(拡大処理)
 拡大処理S3のステップS3aにおいて、処理部71は、位置ずれ情報Gに応じて、虚像表示領域311の拡大量を設定する。具体的には、処理部71は、視点情報7Gに基づき、所定の視点位置を基準とした視認者の視点の移動量に応じて、虚像表示領域311の拡大量を設定し、所定の視点位置を基準とした視認者の視点の移動量が大きい場合、虚像表示領域311の拡大量も大きく設定する。また、処理部71は、車両姿勢情報8Gに基づき、路面5Wを基準とした車両1のピッチ角の大きさに応じて、虚像表示領域311の拡大量を設定し、車両1のピッチ角が大きい場合、虚像表示領域311の拡大量も大きく設定する。なお、処理部71は、視認者から見る実景5の基準実景領域5rの少なくとも一部に重畳するように虚像表示領域311の拡大量を設定するが、好ましくは、実景5の基準実景領域5rの全体に重畳するように虚像表示領域311の拡大量を設定するとよい。
 また、拡大処理S3のステップS3aにおいて、処理部71は、位置ずれ情報Gに応じて、虚像表示領域311の拡大方向も設定することが好ましい。具体的には、処理部71は、視点情報7Gに基づき、所定の視点位置を基準として視認者の視点が上方(Y軸正方向)に移動した場合、虚像表示領域311を視認者から見て上方(Y軸正方向)に拡大し、視認者の視点が下方(Y軸負方向)に移動した場合、虚像表示領域311を視認者から見て下方(Y軸負方向)に拡大する。また、処理部71は、車両姿勢情報8Gに基づき、車両1がダウンピッチ所定の視点位置を基準として視認者の視点が上方(Y軸正方向)に移動した場合、虚像表示領域311を視認者から見て上方(Y軸正方向)に拡大し、視認者の視点が下方(Y軸負方向)に移動した場合、虚像表示領域311を視認者から見て下方(Y軸負方向)に拡大する。
 ステップS3bにおいて、処理部71は、第1の画像表示部10の表示を更新し、第1の画像表示面13上の虚像表示領域311を拡大することで、第1の虚像表示可能領域310上の第1の虚像V1を表示する虚像表示領域311を拡大する。
 ステップS4において、処理部71は、ステップS2で検出した位置ずれが継続しているか、新たに取得した位置ずれ情報Gに基づき判定する。処理部71は、ステップS2で検出した位置ずれが継続していないと判定した(ステップS4でNo)場合、ステップS6に移行し、虚像表示領域311を元の大きさに縮小し、表示を更新する(ステップS7)。
 処理部71は、ステップS2で検出した位置ずれが継続していると判定した(ステップS4でYES)場合、ステップS5で位置ずれの継続時間を判定し、所定時間(例えば、3分)以上、位置ずれが継続していた場合、ステップS6に移行し、虚像表示領域311を縮小し、表示を更新する(ステップS7)。なお、この場合、縮小した虚像表示領域311は、視認者から見て基準実景領域5rと重畳するように縮小する。
 図7は、図1に示されるHUD100を備える車両1の運転席に座る視認者から見た実景5、第1の虚像表示可能領域310、虚像表示領域311の位置関係を説明する図である。図7(a)は、通常状態を示し、虚像表示領域311は、視認者から見て、フロントウインドシールド2の領域2rを介して視認される実景5の特定領域5rに重畳し、実景5のうち虚像表示領域311内にある情報付加対象物5Wに対して、第1の虚像V1を表示する。
 図7(b)は、車両1がピッチダウンの状態にあって、HUD100が拡大処理を実行した状態を示し、実線のハッチングを施した領域が基準実景領域5rであり、点線のハッチングを施した領域が基準投影領域2rであり、塗りつぶした領域が拡大された虚像表示領域311dである。車両1がピッチダウンした場合、視認者から見て、通常状態で基準実景領域5rと重畳していたフロントウインドシールド2の基準投影領域2rは、実景5の基準実景領域5rより下側にシフトする。HUD100は、上述した拡大処理S3を実行することにより、第1の虚像V1を表示する領域である虚像表示領域311を視認者から見て上側に拡大した虚像表示領域311dにする。これにより、通常状態で第1の虚像V1が表示されていたフロントウインドシールド2上の基準投影領域2rを介した実景5に対して第1の虚像V1を表示し続けることができ、かつ、車両1と一定の位置関係にある基準実景領域5rに対しても第1の虚像V1を表示し続けることができるため、突然、実景5上の基準実景領域5rに第1の虚像V1が表示されなくなったり、フロントウインドシールド2上の基準投影領域2rに第1の虚像V1が表示されなくなったりすることを防止することができ、第1の虚像V1が表示される領域(虚像表示領域311)の狭さを視認者が感じにくい。
 制御部70は、位置ずれ情報Gを取得し、拡大処理が必要と判定した場合、視認者から見て拡大した虚像表示領域311dに重畳する実景5の情報付加対象物5Wに対して、第1の虚像V1を直ちに表示する。これにより、視認者から見たフロントウインドシールド2と実景5とに位置ずれが生じる場合でも、直ちに拡大した虚像表示領域311dに表示をすることができ、迅速に視認者に情報を伝達することができる。
 ただし、制御部70は、位置ずれ情報Gを取得し、拡大処理が必要と判定した場合、拡大する前の虚像表示領域311から虚像表示領域311dに拡大する際の拡大する領域(増加する領域)に新たに表示される第1の虚像V1の視認性(輝度、明度、彩度)は、時間経過とともに徐々に高くしてもよい。これにより、表示される第1の虚像V1が瞬間的に増加することに起因する視認者の混乱を抑制することができる。
 図7(c)は、上述したステップS5で位置ずれが所定時間継続した後、ステップS6,S7で虚像表示領域311を縮小した状態を示し、実線のハッチングを施した領域が基準実景領域5rであり、点線のハッチングを施した領域が基準投影領域2rであり、塗りつぶした領域がステップS6,S7で縮小された虚像表示領域311dxである。図7(b)で示したような拡大処理が所定時間以上継続された場合、処理部71は、虚像表示領域311dを実景5の基準実景領域5rに重畳するように時間経過とともに徐々に縮小させる。これにより、拡大処理をした後でも、車両1と一定の位置関係にある基準実景領域5rに表示を継続することができ、第1の虚像V1が表示される領域(虚像表示領域311)は縮小するので、視認者が注意散漫になることを抑制することができる。
 なお、第1の虚像表示可能領域310は、視認者の視点の位置(高さ)や、車両1のピッチ角に応じて、実景(路面)5に対する角度が変化してしまう。本実施形態の処理部71は、取得する視点情報7G、車両姿勢情報8Gに応じて、第1の虚像表示可能領域310の角度を調整することで、第1の虚像表示可能領域310の実景5に対する意図しない角度変化を軽減もしくは相殺する。以下にその方法を述べる。
 制御部70は、取得した視点情報7Gまたは/および車両姿勢情報8Gに対応するアクチュエータ40の駆動量を含む駆動データTを決定する。具体的には、制御部70は、記憶部72に予め記憶されたテーブルデータを読み出し、取得した視点情報7Gまたは/および車両姿勢情報8Gに対応する駆動データTを決定する。なお、制御部70は、視点情報7Gまたは/および車両姿勢情報8Gから駆動データTを予め設定された算出式を用いて演算により求めてもよい。
 次いで、制御部70は、決定した駆動データTに基づいてアクチュエータ40を駆動する。制御部70は、アクチュエータ40を駆動し、第1の画像表示部10が出射する第1の表示光210の光路上に位置する反射部30を回転させる。なお、第2の虚像表示可能領域320の角度は調整していないため、第2の虚像表示可能領域320に対する第1の画像表示部10の相対的な角度330が変化する。具体的に例えば、制御部70は、視認者の視点の位置(高さ)が変わった場合あるいは車両1の車両姿勢が変化した場合であっても第1の虚像表示可能領域310が実景5における路面に平行となるようにアクチュエータ40を制御し、反射部30を回転させてもよい。
 図8A、図8B、図8Cは、本実施形態のHUD100が生成する第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330を変化させる様子を示した図である。図8A、図8B、図8Cにおける(a)は、車両1のピッチ角がXZ平面からなる路面5Wに対してどの程度傾いているかのピッチ角(車両姿勢)を示した図であり、(b)は、(a)に示される車両姿勢に基づいて反射部30をどのように回転させるかを示した図であり、(c)は、(a)に示される車両姿勢に基づいて第1の虚像表示可能領域310と第2の虚像表示可能領域320とのなす角度330を示す図である。
 図8Aは、車両1が路面5Wに対して平行である車両姿勢1rの場合の第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330を示す図である。図8Aの(a)に示されるように、車両1が路面5Wに対して平行である車両姿勢1rの場合、反射部30は、例えば、図6に示されるステップS02で決定された駆動データTに基づいた図8Aの(b)に示される角度30rとなり、第1の虚像表示可能領域310は、例えば、図8Aの(c)に示されるように路面5Wに対して概ね平行となるように調整され、第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330は、概ね90度の角度330rとなる。図8Aの(a)に示される車両1が路面5Wに対して平行である車両姿勢1rを、以下では、基準車両姿勢1rとも呼ぶ。また、図8Aの(b)に示される反射部30の角度30rを基準角度30rとも呼ぶ。また、図8Aの(c)に示されるような第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330rを、以下では、基準角度330rとも呼ぶ。
 図8Bは、車両1の前方が鉛直方向の上側に傾いた場合の第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330を示す図である。図8Bの(a)に示されるように、車両1の前方が基準車両姿勢1rよりも鉛直方向の上側に傾いた車両姿勢1uの場合、反射部30は、例えば、図6に示されるステップS02で決定された駆動データTに基づいて、図8Bの(b)に示されるように、基準角度30rに対して時計回り(CW方向)に回転した角度30uとなり、第1の虚像表示可能領域310は、例えば、図8Bの(c)に示されるように路面5Wに対して概ね平行となるように調整され、第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330は、基準角度330rより大きい角度330uとなる。
 図8Cは、車両1の前方が鉛直方向の下側に傾いた場合の第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330を示す図である。図8Cの(a)に示されるように、車両1の前方が基準車両姿勢1rよりも鉛直方向の下側に傾いた車両姿勢1dの場合、反射部30は、例えば、図6に示されるステップS02で決定された駆動データTに基づいて、図8Cの(b)に示されるように、基準角度30rに対して反時計回り(CCW方向)に回転した角度30dとなり、第1の虚像表示可能領域310は、例えば、図8C(c)に示されるように路面5Wに対して概ね平行となるように調整され、第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330は、基準角度330rより小さい角度330dとなる。
 ここで、図8A(c)、図8B(c)、図8C(c)を参照すると、第1の虚像表示可能領域310と第2の虚像表示可能領域320とのなす角度330が、車両1の車両姿勢に応じて変化している。図8A、図8B、図8Cに示される例のように、例えば、車両1の前方が鉛直方向の上側にいくにつれて、第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330が大きくなる。その一方で、例えば、車両1の前方が鉛直方向の下側にいくにつれて、第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330が大きくなる。
 その結果、車両1の車両姿勢に基づいて、第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330が変化するため、視認する虚像のうちどれが第1の虚像表示可能領域310または第2の虚像表示可能領域320に表示された情報であるか視認者に認識させることができるため、第1の虚像表示可能領域310、第2の虚像表示可能領域320のそれぞれに表示される第1の虚像V1、第2の虚像V2とをより立体的に認識させることができる。
 また、本実施形態のHUD100において、第1の虚像表示可能領域310は、第2の虚像表示可能領域320より水平方向に傾いて生成され、アクチュエータ40の駆動により、実景に対する角度が調整される。水平方向に傾いた虚像表示可能領域(第1の虚像表示可能領域310)の実景に対する角度調整は、鉛直方向に傾いた虚像表示可能領域(第1の虚像表示可能領域310)の実景に対する角度調整よりも、虚像表示可能領域の一定の角度変化に対する視認者に与える印象が大きい。したがって、水平方向に傾いた虚像表示可能領域(第1の虚像表示可能領域310)を角度調整することにより、第1の虚像表示可能領域310に表示される第1の虚像V1と、第2の虚像表示可能領域320に表示される第2の虚像V2と、を区別しやすくなり、第1の虚像表示可能領域310、第2の虚像表示可能領域320のそれぞれに表示される第1の虚像V1、第2の虚像V2とをより立体的に認識させることができる。
 これより、本発明の実施形態の変形例を説明する。以上の説明では、第1の表示光210と第2の表示光220とを同じ方向に向ける表示合成部50までの第1の表示光210の光路上に位置する反射部30をアクチュエータ40により回転させることで、第1の虚像表示可能領域310と第2の虚像表示可能領域320とがなす角度330を変化させたが、表示合成部50をアクチュエータ40により回転させてもよい。この場合においても、前述した反射部30を回転させるものと同様に、第2の虚像表示可能領域320の角度を調整させずに、実景に対する第1の虚像表示可能領域310の角度のみを調整することができる。
 また、本発明のHUD100は、第1の画像表示部10の表示面(第1のスクリーン12)をアクチュエータ40で回転させることで、第1の虚像表示可能領域310と第2の虚像表示可能領域320とのなす角度330を変化させてもよい。
 なお、アクチュエータ40は、反射部30、表示合成部50、第1の画像表示部10の表示面(第1のスクリーン12)の中心を回転軸AXとする必要はなく、それぞれの光学部材の所定の位置(端部を含む)を回転軸AXとしてもよい。また、それぞれの光学部材と離間した位置に回転軸AXを設けてもよい。
 図10は、運転席から車両1の前方を向いた場合の、実景と図2に示されるHUD100の変形例が表示する第1の虚像V1、第2の虚像V2とが視認される様子の例を示す図である。本発明のHUD100は、図10に示されるように、第1の画像表示部10が生成する第1の虚像表示可能領域310と、第2の画像表示部20が生成する第2の虚像表示可能領域320とが離間して視認されるようにしてもよい。具体的に例えば、この変形例におけるHUD100は、第1の画像表示部10から第1の表示光210が入射する表示合成部50上の領域と、第2の画像表示部20から第2の表示光220が入射する表示合成部50上の領域と、を離間させることで構成されていてもよい。
 また、上記実施形態では、第1の虚像表示可能領域310を生成する第1の画像表示部10と、第2の虚像表示可能領域320を生成する第2の画像表示部20とを設けていたが、画像表示部が単体であってもよい。この変形例におけるHUD100は、単体の投影部(図示しない)からの投影光を複数のスクリーン(表示面)(図示しない)に投影し、一方の前記スクリーンをアクチュエータで回転させることで、第1の虚像表示可能領域310と第2の虚像表示可能領域320とのなす角度330を調整してもよい。
 また、上記実施形態では、第1の虚像表示可能領域310の実景に対する角度を調整することで、第1の虚像表示可能領域310と第2の虚像表示可能領域320とのなす角度330を調整していたが、第1の虚像表示可能領域310と第2の虚像表示可能領域320との双方の実景に対する角度をそれぞれ調整し、角度調整量を異ならせることで、第1の虚像表示可能領域310と第2の虚像表示可能領域320とのなす角度330を調整してもよい。
 また、第1の画像表示部10は、例えば、液晶表示素子などの透過型表示パネルや、有機EL素子などの自発光表示パネルや、レーザー光を走査する走査型表示装置などを適用してもよい。
 1…車両、2…フロントウインドシールド(透過反射部)、3…ダッシュボード、4…視点、5…実景、5W…情報付加対象物、6…前方情報検出部、7…視点情報検出部、8…車両姿勢検出部、9…バス、10…第1の画像表示部、20…第2の画像生成部、30…反射部(リレー光学系)、40…アクチュエータ、50…表示合成部(リレー光学系)、60…凹面ミラー、70…制御部、71…処理部、72…記憶部、73…インターフェース(視点情報取得手段、車両姿勢情報取得手段、位置ずれ情報取得手段)、100…HUD(ヘッドアップディスプレイ)、200…表示光、210…第1の表示光、220…第2の表示光、310…第1の虚像表示可能領域、311…虚像表示領域、312…虚像ブランク領域、320…第2の虚像表示可能領域、V1…第1の虚像、V2…第2の虚像、330…角度、AX…回転軸、D…画像データ、G…位置ずれ情報、7G…視点情報、8G…車両姿勢情報

Claims (10)

  1.  車両に搭載され、透過反射部に第1の表示光(210)を投影することで、前記車両の外部の実景に重畳する第1の虚像表示可能領域(310)に第1の虚像(V1)を表示するヘッドアップディスプレイであって、
     前記第1の虚像表示可能領域に対応する第1の画像表示面(13)を有し、前記第1の画像表示面から前記第1の表示光を発する第1の画像表示部(10)と、
     前記第1の画像表示部が発する前記第1の表示光を前記透過反射部に向けるリレー光学系と、
     視認者から見た前記透過反射部と前記実景との相対的な位置にずれが生じる際、前記第1の虚像表示可能領域のうち前記第1の虚像を表示する範囲を定める虚像表示領域(311)を拡大する制御部(70)を備える、
     ヘッドアップディスプレイ。
  2.  前記車両の車両姿勢に関する情報を含む車両姿勢情報(8G)を取得する車両姿勢情報取得手段(73)をさらに備え、
     前記制御部は、前記車両姿勢情報取得手段が取得した前記車両姿勢情報に基づき、前記虚像表示領域を拡大する、
     請求項1に記載のヘッドアップディスプレイ。
  3.  視認者の視点位置に関する情報を含む視点情報(7G)を取得する視点情報取得手段(73)をさらに備え、
     前記制御部は、前記視点情報取得手段が取得した前記視点情報に基づき、前記虚像表示領域を拡大する、
     請求項1または請求項2に記載のヘッドアップディスプレイ。
  4.  前記制御部は、前記透過反射部と前記実景との相対的な位置ずれ量が大きくなるに従い、前記虚像表示領域の拡大量を増加させる、
     請求項1乃至3の何れかに記載のヘッドアップディスプレイ。
  5.  前記制御部は、前記透過反射部と前記実景との相対的な位置ずれ方向に従い、前記虚像表示領域を拡大する拡大方向を決定する、または前記虚像表示領域の他の拡大方向より拡大量を大きくする拡大方向を決定する、
     請求項1乃至3の何れかに記載のヘッドアップディスプレイ。
  6.  前記虚像表示領域は、前記透過反射部と前記実景との相対的な位置ずれが生じる前の通常状態において、視認者から見て、前記車両と一定の位置関係にある前記実景の特定領域に重畳するように設定され、
     前記制御部は、前記透過反射部と前記実景との相対的な位置ずれが生じる際、視認者から見て、前記実景の前記特定領域の少なくとも一部が重畳するように前記虚像表示領域を拡大する、
     請求項1乃至5の何れかに記載のヘッドアップディスプレイ。
  7.  前記虚像表示領域は、前記透過反射部と前記実景との相対的な位置ずれが生じる前の通常状態において、視認者から見て、前記車両と一定の位置関係にある前記実景の特定領域に重畳するように設定され、
     前記制御部は、前記透過反射部と前記実景との相対的な位置ずれが生じる際、視認者から見て、前記実景の前記特定領域の少なくとも全部が重畳するように前記虚像表示領域を拡大する、
     請求項1乃至5の何れかに記載のヘッドアップディスプレイ。
  8.  前記制御部は、前記透過反射部と前記実景との相対的な位置ずれが所定時間継続した場合、拡大された前記虚像表示領域を縮小する、
     請求項1乃至7の何れかに記載のヘッドアップディスプレイ。
  9.  前記虚像表示領域は、前記透過反射部と前記実景との相対的な位置ずれが生じる前の通常状態において、視認者から見て、前記車両と一定の位置関係にある前記実景の特定領域に重畳するように設定され、
     前記制御部は、前記透過反射部と前記実景との相対的な位置ずれが所定時間継続した場合、拡大された前記虚像表示領域を、視認者から見て、前記実景の前記特定領域の全部と重畳するように前記虚像表示領域を縮小する、
     請求項8に記載のヘッドアップディスプレイ。
  10.  前記透過反射部に第2の表示光(220)を投影することで、視認者からの距離が前記第1の虚像表示可能領域とは異なる位置に配置される第2の虚像表示可能領域(320)に第2の虚像(V2)を表示するヘッドアップディスプレイであって、
     前記第1の虚像表示可能領域の実空間上の角度を調整することで、前記第1の虚像表示可能領域と前記第2の虚像表示可能領域との相対的な角度を調整可能な角度調整部を備え、
     前記角度調整部は、視認者から見た前記透過反射部と前記実景との相対的な位置ずれにより生じる、前記実景に対する前記第1の虚像表示可能領域の角度変化が少なくなる方向に、前記第1の虚像表示可能領域の角度を調整する、
     請求項1乃至9の何れかに記載のヘッドアップディスプレイ。
PCT/JP2017/039948 2016-11-11 2017-11-06 ヘッドアップディスプレイ WO2018088362A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/346,409 US11215819B2 (en) 2016-11-11 2017-11-06 Head-up display
JP2018550191A JP6899082B2 (ja) 2016-11-11 2017-11-06 ヘッドアップディスプレイ

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016220434 2016-11-11
JP2016-220434 2016-11-11

Publications (1)

Publication Number Publication Date
WO2018088362A1 true WO2018088362A1 (ja) 2018-05-17

Family

ID=62109859

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/039948 WO2018088362A1 (ja) 2016-11-11 2017-11-06 ヘッドアップディスプレイ

Country Status (3)

Country Link
US (1) US11215819B2 (ja)
JP (1) JP6899082B2 (ja)
WO (1) WO2018088362A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3919961A4 (en) * 2019-01-31 2022-03-30 JVCKenwood Corporation HEAD-UP DISPLAY DEVICE
WO2023054307A1 (ja) * 2021-09-30 2023-04-06 日本精機株式会社 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017064797A1 (ja) * 2015-10-15 2017-04-20 日立マクセル株式会社 情報表示装置
KR101979277B1 (ko) * 2017-07-25 2019-05-16 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
JP6753428B2 (ja) * 2018-04-27 2020-09-09 株式会社デンソー ヘッドアップディスプレイ装置
KR102116783B1 (ko) * 2018-10-10 2020-05-29 네이버랩스 주식회사 영상을 지면에 위치시켜 운전자의 시점에 증강현실을 구현하는 3차원 증강현실 헤드업 디스플레이
JP7332448B2 (ja) * 2019-11-27 2023-08-23 京セラ株式会社 ヘッドアップディスプレイシステム及び移動体
JP2022154082A (ja) * 2021-03-30 2022-10-13 パナソニックIpマネジメント株式会社 表示補正システム、表示システム、表示補正方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006142897A (ja) * 2004-11-17 2006-06-08 Nissan Motor Co Ltd 車両用表示装置、および車両用表示装置の制御方法
JP2010070066A (ja) * 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
JP2010156608A (ja) * 2008-12-26 2010-07-15 Toshiba Corp 車載用表示システム及び表示方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19540108C2 (de) * 1995-10-27 1998-08-06 Ldt Gmbh & Co Vorrichtung zur Darstellung eines ersten Bildes in einem durch eine durchsichtige Scheibe sichtbaren zweiten Bild
JP4686586B2 (ja) * 2008-09-19 2011-05-25 株式会社東芝 車載用表示装置及び表示方法
JP2012035745A (ja) 2010-08-06 2012-02-23 Toshiba Corp 表示装置、画像データ生成装置及び画像データ生成プログラム
JP5344069B2 (ja) * 2011-08-29 2013-11-20 株式会社デンソー ヘッドアップディスプレイ装置
TW201409077A (zh) * 2012-08-21 2014-03-01 Automotive Res & Testing Ct 影像分割式虛像顯示裝置
JP6458998B2 (ja) * 2015-05-13 2019-01-30 日本精機株式会社 ヘッドアップディスプレイ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006142897A (ja) * 2004-11-17 2006-06-08 Nissan Motor Co Ltd 車両用表示装置、および車両用表示装置の制御方法
JP2010070066A (ja) * 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
JP2010156608A (ja) * 2008-12-26 2010-07-15 Toshiba Corp 車載用表示システム及び表示方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3919961A4 (en) * 2019-01-31 2022-03-30 JVCKenwood Corporation HEAD-UP DISPLAY DEVICE
US11812200B2 (en) 2019-01-31 2023-11-07 Jvckenwood Corporation Head-up display apparatus
WO2023054307A1 (ja) * 2021-09-30 2023-04-06 日本精機株式会社 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法

Also Published As

Publication number Publication date
US11215819B2 (en) 2022-01-04
US20190258057A1 (en) 2019-08-22
JP6899082B2 (ja) 2021-07-07
JPWO2018088362A1 (ja) 2019-10-03

Similar Documents

Publication Publication Date Title
JP6458998B2 (ja) ヘッドアップディスプレイ
WO2018088362A1 (ja) ヘッドアップディスプレイ
CN110573369B (zh) 平视显示器装置及其显示控制方法
JP6731644B2 (ja) 表示位置補正装置、表示位置補正装置を備える表示装置、及び表示装置を備える移動体
WO2016190135A1 (ja) 車両用表示システム
WO2015060193A1 (ja) 車両情報投影システム及び投影装置
JP2017211366A (ja) 移動体システム、情報表示装置
JP6741029B2 (ja) 情報表示装置
CN111433067A (zh) 平视显示装置及其显示控制方法
US11999231B2 (en) Head-up display device
WO2014174575A1 (ja) 車両用ヘッドアップディスプレイ装置
JP2023029340A (ja) 映像表示システム、映像表示方法、及び、プログラム
JP2018077400A (ja) ヘッドアップディスプレイ
JP6724885B2 (ja) 虚像表示装置
JP2015080988A (ja) 車両情報投影システム及び投影装置
WO2017090464A1 (ja) ヘッドアップディスプレイ
JP6911868B2 (ja) ヘッドアップディスプレイ装置
JP2018120135A (ja) ヘッドアップディスプレイ
WO2018105585A1 (ja) ヘッドアップディスプレイ
JP6845988B2 (ja) ヘッドアップディスプレイ
WO2021044741A1 (ja) 表示制御装置、表示制御プログラム及びヘッドアップディスプレイ
JP6481445B2 (ja) ヘッドアップディスプレイ
JPWO2018199244A1 (ja) 表示システム
JP2016185768A (ja) 車両用表示システム
WO2020090187A1 (ja) 虚像表示装置、およびヘッドアップディスプレイ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17869575

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018550191

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17869575

Country of ref document: EP

Kind code of ref document: A1