WO2018037887A1 - 車両用表示装置 - Google Patents

車両用表示装置 Download PDF

Info

Publication number
WO2018037887A1
WO2018037887A1 PCT/JP2017/028521 JP2017028521W WO2018037887A1 WO 2018037887 A1 WO2018037887 A1 WO 2018037887A1 JP 2017028521 W JP2017028521 W JP 2017028521W WO 2018037887 A1 WO2018037887 A1 WO 2018037887A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
viewpoint
vehicle
display
Prior art date
Application number
PCT/JP2017/028521
Other languages
English (en)
French (fr)
Inventor
誠 秦
勇希 舛屋
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Publication of WO2018037887A1 publication Critical patent/WO2018037887A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays

Definitions

  • the present invention relates to a vehicle display device.
  • the present invention relates to a vehicle display device that can provide appropriate information to a user without being affected by a change in the position of the user's viewpoint.
  • a virtual image is visually recognized by a user sitting in the driver's seat using the light of the display image reflected by the front window shield.
  • the virtual image is formed on the vehicle traveling direction side (vehicle front side) with reference to the front window shield of the vehicle, and is visually recognized by a user sitting in the driver's seat.
  • an image display unit that displays a display image
  • a projection unit that includes an optical system that includes a concave mirror that projects the display image onto a front window shield of the vehicle; ,including.
  • a user who sits in the driver's seat of a vehicle equipped with such a vehicle display device can see a virtual image that gives information on the presence of other vehicles, obstacles, etc. on the road ahead of the vehicle through the front window shield. And can be visually recognized in a superimposed state. As the position at which the virtual image is visually recognized becomes higher than the front window shield, the virtual image is visually recognized by being superimposed with the scenery on the far side of the landscape seen through the front window shield. On the other hand, as the position at which the virtual image is visually recognized becomes lower than the front window shield, the virtual image is superimposed on the landscape on the near side of the landscape that can be seen through the front window shield.
  • the position of the viewpoint of the user sitting in the driver's seat is not constant depending on the sitting height of the user, the sitting posture of the user, and the like.
  • the virtual image becomes more closely related to the scenery on the near side of the scenery seen through the front window shield as the position of the viewpoint of the user sitting in the driver's seat increases. Superimposed.
  • the object in the landscape on which the virtual image is superimposed shifts, which may give the user a sense of incongruity.
  • Patent Document 1 discloses a head-up display device (vehicle display) that adjusts the projection direction of the optical system including the concave mirror of the projection unit according to the vertical position of the viewpoint of the user sitting in the driver's seat of the vehicle.
  • the vehicle display device disclosed in Patent Document 1 includes a concave mirror actuator that adjusts the projection angle of the concave mirror of the projection unit, and a viewpoint detection camera that acquires the position of the viewpoint of the user sitting in the driver's seat of the vehicle.
  • the vehicle display device disclosed in Patent Document 1 projects a display image on the upper side of the front window shield when the position of the viewpoint of the user sitting in the driver's seat of the vehicle acquired by the viewpoint detection camera is high. Control the concave mirror actuator.
  • the vehicle display device disclosed in Patent Document 1 displays a display image below the front window shield when the position of the viewpoint of the user sitting in the driver's seat of the vehicle acquired by the viewpoint detection camera is low. Control the concave mirror actuator to be projected. Therefore, the vehicular display device disclosed in Patent Document 1 has a virtual image superimposed on a landscape seen through the front window shield even when the position of the viewpoint of the user sitting in the driver's seat of the vehicle changes in the vertical direction. It is configured to prevent the target to be largely displaced.
  • FIG. 16A shows an example of a landscape and a virtual image that the user sitting in the driver's seat can see through the front window shield 2 in the vehicle display device described in Patent Document 1.
  • FIG. 16A the user visually recognizes that the virtual image superimposing mark 351r is superimposed on another vehicle (front vehicle) 90 existing in front of the vehicle.
  • 16A is a virtual image region 311r that is a range in which a virtual image is visually recognized from the position of the viewpoint of the user at this time.
  • the positive x-axis direction represents the left side when viewed from the user facing the traveling direction of the vehicle
  • the positive y-axis direction represents the upper side when viewed from the user facing the traveling direction of the vehicle.
  • the z-axis positive direction (vertical downward direction with respect to the drawing) represents the vehicle front direction (vehicle traveling direction).
  • FIG. 16B when the position of the user's viewpoint changes from the position of the user's viewpoint in the example shown in FIG. 16A to the left, the user sitting in the driver's seat can see the landscape and the virtual image that can be seen through the front window shield 2.
  • An example is shown.
  • the distance from the position of the user's viewpoint is closer to the virtual image area than the landscape seen through the front window shield 2. For this reason, when the position of the user's viewpoint changes, for example, to the left side, the virtual image region is shifted to the right side relative to the landscape seen through the front window shield 2.
  • the virtual image area 311le is superimposed on the right-side landscape as compared to the virtual image area 311r illustrated in FIG.
  • the virtual image superimposition mark 351le shown in FIG. 16B is superimposed on the landscape on the right side as compared with the virtual image superimposition mark 351r shown in FIG.
  • the object of the landscape on which the virtual image superimposition mark is superimposed shifts in accordance with the change in the position of the user's viewpoint in the left-right direction. The present inventors have recognized that this may give a sense of incongruity.
  • One object of the present invention is to provide a vehicle display device that can provide appropriate information to a user without being affected by a change in the position of the user's viewpoint.
  • Other objects of the present invention will become apparent to those skilled in the art by referring to the aspects and preferred embodiments exemplified below and the accompanying drawings.
  • a first aspect according to the present invention includes a viewpoint position acquisition unit that acquires a position of a viewpoint of a user sitting in a driver's seat of a vehicle, A forward information acquisition unit that acquires forward information that is forward information of the vehicle; An image generation unit that generates an image reflecting the front information included in a predetermined area among the front information acquired by the front information acquisition unit; An image display unit having a display surface capable of displaying the image generated by the image generation unit; The image displayed on the display surface is reflected by the translucent member of the vehicle so that the user sitting in the driver's seat can visually recognize the virtual image toward the translucent member of the vehicle.
  • a projection unit for projecting, With The image generation unit is configured to acquire the position of the user's viewpoint in the left-right direction in which the viewpoint position acquisition unit acquires a position for displaying the first image element among the image elements included in the generated image on the display surface.
  • the present invention relates to a vehicle display device that is determined according to a position.
  • the image generation unit determines a position at which the first image element is displayed on the display surface of the image display unit according to the position of the user's viewpoint in the left-right direction acquired by the viewpoint position acquisition unit.
  • the virtual image of the first image element is superimposed as compared with the case where the first image element is displayed at a certain position on the display surface of the display surface 21 without considering the position of the viewpoint of the user in the left-right direction. It is possible to prevent the object outside the vehicle from being greatly displaced, and to reduce the sense of discomfort given to the user.
  • the image generation unit is configured such that the position of the viewpoint of the user acquired by the viewpoint position acquisition unit moves to the left side on the display surface. While determining the position to display one image element on the direction side corresponding to the left side, The image generation unit is configured such that, as the position of the viewpoint of the user acquired by the viewpoint position acquisition unit goes to the right side, the position at which the first image element is displayed on the display surface corresponds to the right side. You may decide on the side.
  • the virtual image of the first image element is visually recognized by the user so as not to deviate from the object outside the vehicle
  • the position of the user's viewpoint changes to the left side The virtual image of the image element is visually recognized by the user so as not to deviate from the object outside the vehicle.
  • the image generation unit is not affected by a change in the position of the viewpoint of the user in the left-right direction, and the user can transmit the light-transmitting member.
  • the first image element is displayed on the display surface so that a virtual image related to the first image element is visually recognized by the user so as to be related to a certain object outside the vehicle in the scenery seen through. You may determine the said position in the direction corresponding to the left-right direction.
  • the virtual image of the first image element does not deviate from the object outside the vehicle due to the change in the position of the user's viewpoint in the left-right direction, and appropriate information can be provided to the user.
  • a distance in the left-right direction between the viewpoint position of the user acquired by the viewpoint position acquisition unit and a reference position of the viewpoint of the user is When the distance does not exceed the predetermined range,
  • the image generation unit is configured such that, on the display surface, among the image elements included in the generated image, the position in the direction corresponding to the left-right direction for displaying the first image element is the position of the user's viewpoint. Determining the same position as the position where the first image element is generated in the state of the reference position; The size for displaying the first image element may be determined to be larger than the size generated when the position of the viewpoint of the user is the reference position.
  • the display size of the first image element is increased. Only by this, it can be prevented that the object outside the vehicle on which the virtual image of the first image element is superimposed is largely deviated.
  • the image generator is a second different from the first image element among the image elements included in the generated image on the display surface.
  • the position in the direction corresponding to the left-right direction for displaying the image element may be fixed without considering the position of the user's viewpoint in the left-right direction acquired by the viewpoint position acquisition unit.
  • the display position in the left-right direction in the real space of the second image element does not change.
  • the second image element is composed of characters or the like
  • the user's viewpoint position changes in the left-right direction the user recognizes the information represented by the virtual image of the second image element. It can prevent becoming spicy.
  • the image generation unit obtains the position and size for displaying the first image element on the display surface, and further acquires the viewpoint position. You may determine according to the position of the said viewpoint of the said user in the up-down direction which a part acquires.
  • the image generation unit can not only adjust the position at which the virtual image of the first image element is formed, but also adjust the size at which the virtual image of the first image element is formed. For example, it is too large for an object in a landscape on which a virtual image is superimposed, as compared with a vehicle display device that can adjust only the position where a virtual image is formed by changing the projection angle of the concave mirror of the projection unit. A virtual image or a virtual image that is too small can be prevented from being visually recognized by the user. As a result, it is possible to reduce a sense of discomfort given to the user when the position of the user's viewpoint changes in the vertical direction.
  • a seventh aspect according to the present invention is the sixth aspect according to the sixth aspect, wherein the image generation unit is configured such that the position of the viewpoint of the user acquired by the viewpoint position acquisition unit moves upward on the display surface. While determining the position to display one image element on the direction side corresponding to the upper side and determining the size to display the first image element largely in the direction corresponding to the vertical direction, The image generation unit corresponds to the lower side of the position where the first image element is displayed on the display surface as the position of the viewpoint of the user acquired by the viewpoint position acquisition unit goes downward. The size for displaying the first image element may be determined to be smaller in a direction corresponding to the vertical direction.
  • the image generation unit further appropriately sets the display position of the first image element on the display surface in the direction corresponding to the vertical direction and the display size in the direction corresponding to the vertical direction according to the position of the user's viewpoint in the vertical direction. Can be determined.
  • the image generation unit is not affected by a change in the position of the viewpoint of the user in the up-down direction, and the user passes the translucent member.
  • the image generation unit is not affected by a change in the position of the viewpoint of the user in the up-down direction, and the user passes the translucent member.
  • the image generation unit displays the second image element included in the generated image on the display surface. You may determine the position in the direction corresponding to an up-down direction according to the position of the said viewpoint of the said user in the up-down direction which the said viewpoint position acquisition part acquires.
  • the size of the virtual image of the second image element in the vertical direction in the real space does not change.
  • the second image element is composed of characters or the like
  • the viewpoint position of the user changes in the vertical direction, the user recognizes the information represented by the virtual image of the second image element. It can prevent becoming spicy.
  • a tenth aspect according to the present invention is the ninth aspect according to the ninth aspect, wherein the image generation unit is configured such that the position of the viewpoint of the user acquired by the viewpoint position acquisition unit moves upward on the display surface. While determining the position to display two image elements on the direction side corresponding to the upper side, The image generation unit corresponds to the lower side the position where the second image element is displayed on the display surface as the viewpoint position of the user acquired by the viewpoint position acquisition unit goes downward. You may decide on the direction side.
  • the display surface of the image display unit is configured to display a first use area and a second image element used for displaying the first image element. Including at least a second usage area to be used,
  • the image generation unit determines the position in the direction corresponding to the left-right direction of the first use area according to the position of the viewpoint of the user in the left-right direction acquired by the viewpoint position acquisition unit, On the display surface, the position in the direction corresponding to the left-right direction for displaying the first image element is determined, and according to the position of the viewpoint of the user in the vertical direction acquired by the viewpoint position acquisition unit, By determining the position in the direction corresponding to the vertical direction of the first use area and the size in the direction corresponding to the vertical direction, the position in the vertical direction for displaying the first image element on the display surface, and Determining the size in the direction corresponding to the vertical direction, The image generation unit determines the position of the second use area according to the position of the viewpoint of the user in the
  • the display positions and display sizes of all the image elements of the first image element are collectively Can be determined.
  • the processing load of the image generation unit is reduced as compared with the case where the display position and the display size on the display surface are determined for each image element of the first image element.
  • the display position of all the image elements of the second image element on the display surface is determined collectively by determining the position of the second use area on the display surface according to the change in the viewpoint position of the user. be able to.
  • the processing load on the image generation unit is reduced as compared with the case where the display position on the display surface is determined for each image element of the second image element.
  • a twelfth aspect according to the present invention is the twelfth aspect according to the eleventh aspect, wherein the first use area and the second use area are arranged in a direction corresponding to a vertical direction or a direction corresponding to a horizontal direction on the display surface. May be arranged.
  • the first use area and the second use area are arranged obliquely, the first use area and the second use area according to the change in the viewpoint position of the user by the image generation unit.
  • the processing burden for determining changes is reduced.
  • FIG. 1A It is a block diagram which shows the example of a structure of the display apparatus for vehicles of this invention. It is a figure which shows the example of a structure of the image display part shown by FIG. 1A. It is sectional drawing of the projection part shown by FIG. 1A. It is a figure which shows the example of the landscape and virtual image which can be seen from the user sitting in the driver's seat of a vehicle provided with the display apparatus for vehicles shown by FIG. 1A. It is a flowchart figure which shows the example of operation
  • FIG. 1A It is a figure which shows the relationship between the position of a user's viewpoint, and the image displayed by the image display part of the display apparatus for vehicles shown by FIG. 1A. It is a figure which shows the relationship between the position of a user's viewpoint, and the image displayed by the image display part of the display apparatus for vehicles shown by FIG. 1A. It is a figure which shows the example of the landscape and virtual image which can be seen from the user from which the position of the viewpoint changed to the right side from the example shown by FIG. It is a figure which shows the example of the landscape and virtual image which can be seen from the user from which the position of the viewpoint changed to the left side from the example shown by FIG.
  • FIG. 1A It is a figure which shows the relationship between the position of a user's viewpoint, and the image displayed by the image display part of the display apparatus for vehicles shown by FIG. 1A. It is a figure which shows the relationship between the position of a user's viewpoint, and the image displayed by the image display part of the display apparatus for vehicles shown by FIG. 1A. It is a figure which shows the relationship between the position of a user's viewpoint, and the image displayed by the image display part of the display apparatus for vehicles shown by FIG. 1A.
  • the vehicle display device of the present invention it is a schematic diagram for explaining the relationship between the viewpoint position of the user, the virtual image visually recognized by the user, and the range of the distance on the road surface of the landscape on which the virtual image is superimposed.
  • FIG. 1A It is a figure which shows the example of the scenery and virtual image which can be seen from the user sitting in the driver's seat of a vehicle provided with the display apparatus for vehicles in 2nd Embodiment. It is a flowchart figure which shows the example of operation
  • FIG. 1A It is a figure which shows the example of the image which the image display part shown by FIG. 1A displays. It is a figure which shows the example of the image which the image display part shown by FIG. 1A displays. It is a figure which shows the example of the image which the image display part shown by FIG. 1A displays. It is a figure which shows the example of the image which the image display part shown by FIG. 1A displays. It is a figure which shows the example of the image which the image display part shown by FIG. 1A displays. It is a figure which shows the example of the method of dividing
  • Patent Literature 1 Japanese Patent Laid-Open No. 2014-210537
  • the relationship between the viewpoint position of the user in the left-right direction, the virtual image visually recognized by the user, and the object of the landscape on which the virtual image is superimposed is shown. It is a schematic diagram for demonstrating.
  • Patent Literature 1 Japanese Patent Laid-Open No. 2014-210537
  • the relationship between the viewpoint position of the user in the left-right direction, the virtual image visually recognized by the user, and the object of the landscape on which the virtual image is superimposed is shown. It is a schematic diagram for demonstrating.
  • FIG. 1A For example, when viewed from the user facing the traveling direction of the vehicle 1, the z-axis is defined in the front-rear direction, and the vertical direction (running on a horizontal road) The y-axis is defined in the vertical direction) and the x-axis is defined in the left-right direction.
  • the x-axis positive direction represents the left direction (vehicle left direction)
  • the y-axis positive direction represents the upward direction (vehicle upward direction)
  • the z-axis positive direction represents the forward direction (vehicle forward direction).
  • the left-right direction indicates the x-axis direction
  • the up-down direction indicates the y-axis direction.
  • the vehicle display device 10 includes an image display unit 20, an image generation unit 30, a viewpoint position acquisition unit 40, a projection unit 50, and a front information acquisition unit 60.
  • the image display unit 20 has a display surface 21 that can display an image, as shown in FIG. 1B.
  • An area 210 on the display surface 21 where an image can be displayed is referred to as a display area 210, for example.
  • An example of the display surface 21 is, for example, a liquid crystal panel 21 having a plurality of pixels 22 as shown in FIG. 1B.
  • the display area 210 is, for example, the pixels 22 of the entire liquid crystal panel 21.
  • An example of the image display unit 20 is the liquid crystal panel module 20 including, for example, a liquid crystal panel 21 and a drive circuit 26 for the liquid crystal panel 21.
  • the image display unit 20 when a signal representing an image generated by the image generation unit 30 is input, the image display unit 20 includes at least a part of the display surface 21 in the display area 210 of the display surface 21 according to the input signal. An image is displayed using the pixel 22.
  • the liquid crystal panel module 20 is used as an example of the image display unit 20 as appropriate, but the image display unit 20 may be another display device.
  • the image display unit 20 may be a self-luminous display panel module such as an organic EL (Electro-Luminescence) element, or a reflective type such as DMD (Digital-Micromirror Device) or LCoS (Liquid-Crystal-on Silicon) (registered trademark). It may be a display panel module or a scanning display device that scans with laser light.
  • the Ix axis is defined in the lateral direction of the display surface 21 at the viewpoint when the display surface 21 of the image display unit 20 is viewed from the front.
  • An Iy axis is defined in the vertical direction of the surface 21.
  • the positive direction of the Ix axis represents the left direction of the display surface 21, and the positive direction of the Iy axis represents the upward direction of the display surface 21.
  • the Ix-axis positive direction on the display surface 21 corresponds to, for example, the above-described x-axis positive direction, that is, the left direction when viewed from the user facing the traveling direction of the vehicle 1.
  • the Iy-axis positive direction on the display surface 21 corresponds to, for example, the above-described y-axis positive direction, that is, the upward direction when viewed from the user facing the traveling direction of the vehicle 1.
  • the viewpoint position acquisition unit 40 includes, for example, a vehicle interior image acquisition unit 41 and a vehicle interior image analysis unit 42.
  • the viewpoint position acquisition unit 40 acquires the position 100 of the viewpoint of the user sitting in the driver's seat of the vehicle 1.
  • the position 100 of the viewpoint of the user sitting in the driver's seat of the vehicle 1 is also referred to as the user viewpoint position 100.
  • the viewpoint position acquisition unit 40 is configured to be able to acquire at least the user viewpoint position 100 in the x-axis direction.
  • the viewpoint position acquisition unit 40 is preferably configured to be able to acquire the user viewpoint position 100 in the y-axis direction in addition to the x-axis direction.
  • the vehicle interior image acquisition unit 41 is, for example, a vehicle camera that captures an image of the vehicle interior.
  • the vehicle interior image acquisition unit 41 may be, for example, a common vehicle camera attached for the purpose of preventing vehicle theft or the like, or a vehicle camera dedicated to the vehicle display device 10.
  • the vehicle interior image acquisition unit 41 preferably acquires the user viewpoint position 100 from below the user viewpoint position 100, and may be attached to the dashboard 4 or the like, for example.
  • the vehicle interior image acquisition unit 41 is preferably capable of infrared imaging so that the user viewpoint position 100 can be acquired even when the vehicle interior is dark.
  • the vehicle interior image acquisition unit 41 outputs the acquired vehicle interior image to the vehicle interior image analysis unit 42, for example.
  • the vehicle interior image analysis unit 42 analyzes the input image of the vehicle interior using, for example, known image processing, a pattern matching method, and the like. As a result of analyzing the input image in front of the vehicle, the vehicle interior image analysis unit 42 shows that the user's face sitting in the driver's seat is included in the input vehicle interior image, for example, in the user viewpoint position 100 in the real space.
  • the user viewpoint position 100 is acquired by specifying the coordinates (x).
  • the vehicle interior image analysis unit 42 outputs the acquired user viewpoint position 100 to the image generation unit 30 via the bus 5 such as CAN (Controller ⁇ Area Network) bus communication, for example.
  • CAN Controller ⁇ Area Network
  • the vehicle interior image analysis unit 42 may be provided, for example, in a vehicle camera, and the image generation unit 30 may include the function of the vehicle interior image analysis unit 42. Further, the image generation unit 30 may directly input the user viewpoint position 100 from the vehicle interior image analysis unit 42 without using the bus 5.
  • the front information acquisition unit 60 includes, for example, a front image acquisition unit 61 and a front image analysis unit 62.
  • the forward information acquisition unit 60 is, for example, the position information on the road lane in the forward direction of the vehicle, the position information of other vehicles and obstacles existing in the forward direction of the vehicle, the information on the road sign in the forward direction of the vehicle, etc. Get information.
  • the front image acquisition unit 61 is, for example, a camera outside the vehicle that captures an image in front of the vehicle.
  • the front image acquisition unit 61 may be, for example, a shared vehicle camera used for a drive recorder or the like, or a vehicle camera dedicated to the vehicle display device 10.
  • the camera outside the vehicle may be a monocular camera, but the camera outside the vehicle may be a stereo camera in order to accurately obtain the distance between the object existing in front of the vehicle and the host vehicle 1. Further, the camera outside the vehicle may be capable of infrared imaging so that an image ahead of the vehicle can be taken even when the vehicle front is dark.
  • the front image acquisition unit 61 outputs, for example, the acquired front image of the vehicle to the front image analysis unit 62.
  • the front image analysis unit 62 analyzes the input image ahead of the vehicle using, for example, known image processing, a pattern matching method, or the like.
  • the forward image analysis unit 62 analyzes the input image in front of the vehicle to obtain forward information about the road shape ahead of the vehicle (lane, white line, stop line, pedestrian crossing, road width, number of lanes, intersection, curve, branch) Road). Further, the front image analysis unit 62 analyzes the input image in front of the vehicle, so that the position and size of other vehicles and obstacles existing in front of the vehicle, the distance from the own vehicle 1, the own vehicle 1 and Get forward information such as relative speed. For example, the front image analysis unit 62 outputs the acquired front information to the image generation unit 30 via the bus 5.
  • the front image analysis unit 62 may be provided, for example, in a camera outside the vehicle, and the image generation unit 30 may include the function of the front image analysis unit 62. Further, the image generation unit 30 may directly input the front information from the front image analysis unit 62 without using the bus 5.
  • the front information acquisition unit 60 includes a laser radar, a millimeter wave radar, an ultrasonic sensor, or other known sensors instead of the front image acquisition unit 61 or in combination with the front image acquisition unit 61. Also good.
  • the front image analysis unit 62 inputs data output from a laser radar, a millimeter wave radar, an ultrasonic sensor, a known sensor, or the like instead of the image in front of the vehicle or in combination with the image in front of the vehicle.
  • the forward information as described above may be acquired by analyzing the above.
  • the front information acquisition unit 60 is such that the distance between the object existing in front of the vehicle and the host vehicle 1 is farther from the object present on the upper side and closer to the object present on the lower side in the image captured by the front image acquisition unit 61. You may get as
  • the vehicle interior image acquisition unit 41 and the front image acquisition unit 61 are illustrated as being attached to another place of the vehicle 1, but this is not necessarily the case, and the vehicle interior image acquisition unit is not necessarily limited thereto.
  • 41 and the front image acquisition part 61 may be attached to the same place of the vehicle 1.
  • the vehicle interior image acquisition part 41 and the front image acquisition part 61 may be provided in one same housing
  • the image generation unit 30 includes a processing unit 31 and a storage unit 32.
  • the processing unit 31 includes, for example, one or a plurality of microprocessors, a microcontroller, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), and any other IC (Integrated Circuit).
  • the storage unit 32 is, for example, a rewritable RAM (Random Access Memory), a read-only ROM (Read Only Memory), an erasable program read-only EEPROM (Electrically-Erasable Programmable Read-Only Memory), or a nonvolatile memory. It has one or a plurality of memories capable of storing programs and / or data such as a flash memory.
  • the image generation unit 30 generates an image to be displayed by the image display unit 20 when the processing unit 31 executes a program stored in the storage unit 32, for example.
  • the image generation unit 30 can notify the user that there are objects outside the vehicle such as other vehicles and obstacles on the road ahead of the vehicle, for example, according to the forward information input from the forward information acquisition unit 60.
  • the first image element 250 which is an element, can be included in the generated image. That is, the first image element 250 superimposes a virtual image on a landscape in front of the vehicle such as a road surface, and gives information related to the image element and the information in the image element by giving a relationship between the information in the image element and the landscape in front of the vehicle. It is an information display that can be recognized more accurately by the user.
  • the image generation unit 30 includes the plurality of first image elements 250 in the generated image.
  • the first image element 250 is also referred to as a superimposed mark 250 as appropriate.
  • the overlay mark 250 may include, for example, a mark such as an arrow representing route guide information input from a navigation device (not shown) provided in the vehicle 1.
  • the image generation unit 30 includes one or more included in the generated image in the display area 210 of the display surface 21 of the image display unit 20 according to the user viewpoint position 100 in the left-right direction input from the viewpoint position acquisition unit 40.
  • the position for displaying the first image element 250, that is, the superimposed mark 250 is determined.
  • the storage unit 32 of the image generation unit 30 corresponds to the user viewpoint position 100 in the left-right direction and a parameter for determining the display position of the superimposed mark 250 on the display area 210 corresponding to the user viewpoint position 100.
  • the attached table is stored.
  • the image generation unit 30 determines the display position of the superimposition mark 250 on the display area 210 corresponding to the user viewpoint position 100 in the horizontal direction to be input, for example, by referring to the table by the processing unit 31.
  • the storage unit 32 of the image generation unit 30 stores an arithmetic expression for determining the display position of the superimposed mark 250 on the display area 210 corresponding to the user viewpoint position 100 in the left-right direction.
  • the image generation unit 30 determines the display position of the superimposed mark 250 on the display area 210 corresponding to the input user viewpoint position 100 in the left-right direction, for example, when the processing unit 31 calculates an arithmetic expression.
  • the image generation unit 30 is included in the generated image in the display area 210 of the display surface 21 of the image display unit 20 according to the user viewpoint position 100 in the vertical direction input from the viewpoint position acquisition unit 40. You may further determine the position and magnitude
  • the storage unit 32 may further store an arithmetic expression for determining the display position and display size of the superimposition mark 250 on the display area 210 corresponding to the user viewpoint position 100 in the vertical direction. .
  • an arithmetic expression for determining the display position and display size of the superimposition mark 250 on the display area 210 corresponding to the user viewpoint position 100 in the vertical direction.
  • the projection unit 50 projects the image displayed by the image display unit 20 toward the light transmissive member 2 such as the front window shield 2 of the vehicle 1.
  • the light 80 constituting the projected image is reflected by the front window shield 2 into the vehicle interior.
  • the light 80 constituting the image is also referred to as image light 80.
  • the projection unit 50 projects an image so that the image light 80 reflected by the front window shield 2 enters toward the user viewpoint position 100.
  • the light transmissive member 2 of the vehicle 1 may be a combiner provided in the vehicle 1.
  • the user sitting in the driver's seat can visually recognize the virtual image 330 formed on the front side of the vehicle with respect to the front window shield 2 when the image light 80 enters the user viewpoint position 100.
  • the user can visually recognize the virtual image 330 in a state where at least a part of the scenery seen through the front window shield 2 and the virtual image 330 are superimposed.
  • the virtual image 330 includes, for example, a virtual image superimposition mark 350 that is a virtual image of the superimposition mark 250 described above.
  • the projection unit 50 houses, for example, an optical system such as a plane mirror 54 and a concave mirror 55 and a concave mirror actuator 56 inside the housing 51.
  • the casing 51 includes, for example, an upper case 52 and a lower case 53 that are arranged in the dashboard 4 of the vehicle 1 and are formed of a black light-shielding synthetic resin or the like.
  • An upper case opening 52a is provided substantially in the middle of the upper case 52 in the z-axis direction.
  • the upper case opening 52a is covered with a transparent cover 57 formed of, for example, a transparent translucent synthetic resin.
  • a lower case opening 53a is provided on the vehicle rear side of the lower case 53.
  • the lower case opening 53 a is provided in the lower case 53 so that, for example, image light 80 emitted from the display surface 21 of the image display unit 20 attached to the outside of the housing 51 can enter.
  • the flat mirror 54 is attached to the vehicle rear side of the lower case 53 via an attachment member (not shown), for example.
  • the mounting position and the mounting angle of the flat mirror 54 are fixed so that, for example, the image light 80 emitted from the display surface 21 incident from the lower case opening 53a is reflected toward the front of the vehicle.
  • the concave mirror 55 is attached to the vehicle front side from the plane mirror 54 of the lower case 53 via a concave mirror actuator 56, for example.
  • the mounting angle of the concave mirror 55 can be rotated by the concave mirror actuator 56, for example, with the x axis as a rotation axis.
  • the position of the concave mirror 55 is fixed so that the image light 80 reflected by the plane mirror 54 is incident, and the attachment angle is finely adjusted so that the incident image light 80 is reflected toward the front window shield 2.
  • the user viewpoint position 100 stored in the storage unit 32 of the image generation unit 30, and the display position and display size of the superimposed mark 250 on the display area 210 corresponding to the user viewpoint position 100 are displayed. The table or calculation formula for determination is corrected.
  • the concave mirror actuator 56 includes, for example, a motor, a speed reduction mechanism, a concave mirror rotating member, and a support member for the concave mirror 55, all of which are not shown.
  • the concave mirror actuator 56 is attached to the lower case 53 on the lower side of the concave mirror 55 via an attachment member (not shown), for example.
  • the concave mirror actuator 56 rotates the motor in accordance with a signal input from an actuator control unit (not shown), decelerates the rotation of the motor by a speed reduction mechanism, transmits the rotation to the concave mirror rotating member, and rotates the concave mirror 55.
  • the concave mirror actuator 56 is not necessarily provided.
  • a light shielding portion 52b is provided between the upper case opening 52a and the plane mirror 54.
  • the light shielding unit 52b is provided, for example, to prevent light from the outside of the housing 51 that enters from the upper case opening 52a from traveling to the image display unit 20.
  • the example of the structure of the projection unit 50 described with reference to FIG. 1C is merely an example, and does not limit the structure of the projection unit 50 of the vehicle display device 10 at all.
  • FIG. 2 shows an example of a landscape and a virtual image that a user sitting in the driver's seat of the vehicle 1 can see through the front window shield 2.
  • FIG. 2 shows an example of the scenery that can be seen through the front window shield 2, a three-lane road that extends in front of the vehicle and other vehicles (front vehicles) 90 that are in front of the vehicle are shown.
  • FIG. 2 is an example of a landscape and a virtual image seen through the front window shield 2 as seen by the user from a reference user viewpoint position 100r described later.
  • the object outside the vehicle is the forward vehicle 90.
  • the virtual image includes a virtual image superimposition mark 350.
  • the virtual image superimposition mark 350 is superimposed on the forward vehicle 90 and visually recognized by the user.
  • one virtual image superimposition mark 350 is shown.
  • the plurality of virtual image superimposition marks 350 are visually recognized by the user. Is done. In FIG.
  • the virtual image superimposition mark 350 is controlled to be displayed at a position where it is superimposed on the front vehicle 90, which is an object outside the vehicle, but may be controlled so as to be separated from the object outside the vehicle by a certain distance. .
  • the virtual image superimposition mark 350 is visually recognized by the user so as to be related to the forward vehicle 90 that is an object outside the vehicle.
  • the region 310 is a region 310 corresponding to the display region 210 of the display surface 21 of the image display unit 20.
  • the area 310 corresponding to the display area 210 of the display surface 21 of the image display unit 20 is also referred to as a virtual image display area 310. That is, the virtual image display area 310 is an area where the user can visually recognize the virtual image.
  • the image generation unit 30 generates an image reflecting the front information included in the area that overlaps the virtual image display area 310 in the landscape that can be seen through the front window shield 2. That is, the image generation unit 30 includes one or a plurality of superimposition marks 250 for notifying one or a plurality of objects outside the vehicle included in a region that is superimposed on the virtual image display region 310 in the landscape that can be seen through the front window shield 2. Generate an image.
  • the operation of the vehicle display device 10 is, for example, a predetermined standby when the vehicle 1 is turned on, when an engine (not shown) is started, or when the vehicle 1 is turned on or the engine is started. It starts after time has passed.
  • step S01 the forward information acquisition unit 60 acquires the forward information.
  • step S02 the viewpoint position acquisition unit 40 acquires the user viewpoint position 100 in the left-right direction. Note that step S01 and step S02 are not necessarily in this order, and the order may be changed.
  • step S02 the viewpoint position acquisition unit 40 may further acquire the user viewpoint position 100 in the vertical direction.
  • step S03 the image generation unit 30 generates, for example, an image including the superimposition mark 250 according to the front information acquired by the front information acquisition unit 60 in step S01. Note that the image generation unit 30 does not need to generate an image according to the user viewpoint position 100.
  • step S04 the image generation unit 30 displays the superimposition mark 250 included in the image generated in step S03 according to the user viewpoint position 100 in the left-right direction acquired by the viewpoint position acquisition unit 40 in step S02.
  • the position of the surface 21 on the display area 210 is determined.
  • the image generation unit 30 acquires the user viewpoint position 100 in the vertical direction in step S02, the image generation unit 30 further displays the superimposition mark 250 according to the user viewpoint position 100 in the vertical direction.
  • the position and size on 210 may be determined.
  • step S05 the image display unit 20 displays the image generated by the image generation unit 30 in step S03 in the display area 210 of the display surface 21.
  • the image display unit 20 displays the superimposed mark 250 at a position on the display area 210 determined according to the user viewpoint position 100 in the left-right direction in step S04.
  • this position and size are further reflected.
  • the superimposition mark 250 may be displayed.
  • step S05 When the processing of step S05 is executed, the flow returns to Start.
  • a predetermined waiting time is required after the execution of the process of step S05 until the flow returns to Start. Time may be inserted.
  • FIGS. 4A, 4B, and 4C On the left side of FIGS. 4A, 4B, and 4C, coordinate axes representing the user viewpoint position 100 in the real space are shown. 4A, 4B, and 4C, the display position of the superimposed mark 250 on the display surface 21 determined by the image generation unit 30 according to the user viewpoint position 100 on the x axis in the real space is shown. It is.
  • the user viewpoint position 100r on the xy axis is shown.
  • the user viewpoint position 100r shown in FIG. 4A is also referred to as a reference user viewpoint position 100r for convenience.
  • the reference user viewpoint position 100r is the position of the viewpoint when the user sitting in the driver's seat of the vehicle 1 is in an appropriate driving posture.
  • the reference position of the user's viewpoint is an image when the vehicle display device 10 is shipped from the factory. It may be stored in the storage unit 32 of the generation unit 30. Further, the reference user viewpoint position 100r does not need to be constant, and may be variable depending on, for example, the vehicle type of the vehicle 1, the height of the user sitting in the driver's seat, and the like.
  • the display position of the overlay mark 250 is determined as the overlay mark 250r shown on the right side of FIG. 4A.
  • the overlay mark 250r corresponding to the reference user viewpoint position 100r shown in FIG. 4A is also referred to as a reference overlay mark 250r for convenience.
  • the user viewpoint position 100ri shown in FIG. 4B is an example of the user viewpoint position 100 located on the right side compared to the reference user viewpoint position 100r.
  • the image generation unit 30 displays the superimposed mark 250 on the display surface 21 in step S04 shown in FIG.
  • the display position is determined as a superposition mark 250ri shown on the right side of FIG. 4B.
  • the superposition mark 250ri shown in FIG. 4B is located on the negative side of the Ix axis compared to the reference superposition mark 250r.
  • the image generation unit 30 causes the display position of the overlapping mark 250 on the display surface 21 to be positioned on the Ix axis negative direction side. To decide.
  • the user viewpoint position 100le shown in FIG. 4C is an example of the user viewpoint position 100 located on the left side compared to the reference user viewpoint position 100r.
  • the image generation unit 30 displays the superimposed mark 250 on the display surface 21 in step S04 shown in FIG.
  • the display position is determined like a superposition mark 250le shown on the right side of FIG. 4C.
  • the superposition mark 250le shown in FIG. 4C is located on the Ix axis positive direction side as compared with the reference superposition mark 250r. As described above, as the user viewpoint position 100 detected by the viewpoint position acquisition unit 40 moves to the left side, the image generation unit 30 positions the display position of the superimposed mark 250 on the display surface 21 on the Ix axis positive direction side. To decide.
  • the position on the display area 210 of the display surface 21 that displays the superimposition mark 250 included in the generated image is determined according to the user viewpoint position 100 in the left-right direction.
  • the outside of the vehicle where the virtual image superimposition mark 350 is superimposed The object can be prevented from being greatly displaced, and the uncomfortable feeling given to the user can be reduced.
  • FIG. 5A shows an example of a landscape and a virtual image that can be seen through the front window shield 2 from the user viewpoint position 100ri shown in FIG. 4B.
  • the virtual image area 310ri seen from the user viewpoint position 100ri shown in FIG. 5A is shifted to the left as compared with the virtual image area 310 seen from the reference user viewpoint position 100r shown in FIG. Visible to the user at the viewpoint position 100ri.
  • the image generation unit 30 on the display surface 21 as the user viewpoint position 100 moves to the right side as described with reference to FIG. 4B.
  • the display position of the overlapping mark 250 is determined so as to be positioned on the negative side of the Ix axis.
  • the virtual image superimposition mark 350ri is visually recognized by the user so as not to deviate from the forward vehicle 90, which is an example of an object outside the vehicle.
  • FIG. 5B shows an example of a landscape and a virtual image that can be seen through the front window shield 2 from the user viewpoint position 100le shown in FIG. 4C.
  • the virtual image area 310le seen from the user viewpoint position 100le shown in FIG. 5B is shifted to the right as compared with the virtual image area 310 seen from the reference user viewpoint position 100r shown in FIG. Visible to the user at the viewpoint position 100le.
  • the image generation unit 30 on the display surface 21 as the user viewpoint position 100 moves to the left side as described with reference to FIG. 4C.
  • the display position of the overlay mark 250 is determined so as to be positioned on the Ix axis positive direction side.
  • the virtual image superimposition mark 350le is visually recognized by the user so that it does not deviate from the forward vehicle 90, which is an example of an object outside the vehicle.
  • the image generation unit 30 is not affected by the change in the user viewpoint position 100 in the left-right direction, and the superimposition mark in the Ix axis direction on the display surface 21 so that the virtual image superimposition mark 350 is superimposed on a certain object outside the vehicle. It is preferable to determine 250 display positions. For this reason, as the distance between the user viewpoint position 100 and the object outside the vehicle on which the virtual image superimposition mark 350 is superimposed becomes shorter, the image generation unit 30 determines the amount of movement of the user viewpoint position 100 in the left-right direction from the reference user viewpoint position 100r. The amount of movement of the overlay mark 250 from the reference overlay mark 250r on the display surface 21 in the Ix axis direction is increased.
  • the virtual image overlay mark 350 is not displaced from the object outside the vehicle due to the change of the user viewpoint position 100 in the left-right direction, and appropriate information can be provided to the user.
  • the image generation unit 30 sets the superimposition mark 250 on the display area 210 according to the user viewpoint position 100 in the left and right directions in three steps of the reference user viewpoint position 100r, the left side, and the right side.
  • the display position may be determined in three stages.
  • the image generation unit 30 When the distance in the left-right direction between the user viewpoint position 100 acquired by the viewpoint position acquisition unit 40 and the reference user viewpoint position 100r is a distance that does not exceed a predetermined range, the image generation unit 30 is shown in FIG. As shown, the overlay mark 250 may be displayed on the display area 210.
  • the user viewpoint position 100le-vs (or user viewpoint position 100ri-vs) shown in FIG. 6 is assumed to be a user viewpoint position whose distance in the left-right direction from the reference user viewpoint position 100r does not exceed a predetermined range.
  • the image generation unit 30 displays the superimposition mark 250le-vs (or the superimposition mark 250ri-vs) displayed on the display area 210 in the Ix-axis direction with the superimposition mark 250 at the reference user viewpoint position 100r.
  • the same Ix coordinate as the display position of is determined.
  • the image generation unit 30 obtains at least the display size 251le-vs (or display size 251ri-vs) of the superimposition mark 250le-vs (or superimposition mark 250ri-vs) on the display area 210 in the Ix axis direction as the reference user. It is determined to be larger than the display size 251r in the Ix axis direction of the superimposed mark 250 at the viewpoint position 100r.
  • the image generation unit 30 also sets the display size in the Iy axis direction of the overlay mark 250le-vs (or the overlay mark 250ri-vs) on the display area 210 in the Ix axis direction of the overlay mark 250 at the reference user viewpoint position 100r. You may determine so that it may become larger than display size.
  • the distance in the left-right direction between the user viewpoint position 100 acquired by the viewpoint position acquisition unit 40 and the reference user viewpoint position 100r is a distance that does not exceed a predetermined range, only by increasing the display size of the superimposed mark 250.
  • the object outside the vehicle on which the virtual image superimposition mark 350 is superimposed can be prevented from being largely displaced.
  • the image generation unit 30 displays a plurality of overlapping marks 250, whether or not the distance in the left-right direction between the user viewpoint position 100 and the reference user viewpoint position 100r exceeds a predetermined range is determined for each of the plurality of overlapping marks 250. It may be determined individually. For example, the predetermined range may increase as the distance between the user viewpoint position 100 and the object outside the vehicle increases.
  • FIGS. 7A and 7B the relationship between the user viewpoint position 100 in the vertical direction and the position and size at which the superimposition mark 250 is displayed will be described.
  • FIGS. 7A and 7B coordinate axes representing the user viewpoint position 100 on the y axis in real space are shown.
  • FIGS. 7A and 7B the display position and display size of the superimposition mark 250 on the display surface 21 determined by the image generation unit 30 according to the user viewpoint position 100 on the y axis in the real space are shown. It is.
  • the user viewpoint position 100u shown in FIG. 7A is an example of the user viewpoint position 100 located on the upper side compared to the reference user viewpoint position 100r shown in FIG. 4A.
  • the image generation unit 30 displays the superimposed mark 250 on the display surface 21 in step S04 shown in FIG.
  • the display position and the display size are determined like a superimposition mark 250u shown on the right side of FIG. 7A.
  • the superposition mark 250u shown in FIG. 7A is located on the Iy axis positive direction side as compared with the reference superposition mark 250r. Further, the size 252u in the Iy-axis direction of the overlapping mark 250u shown in FIG. 7A is larger than the size 252r in the Iy-axis direction of the reference overlapping mark 250r.
  • the image generation unit 30 positions the display position of the superimposed mark 250 on the display surface 21 on the Iy axis positive direction side. To decide. That is, when the user viewpoint position 100 approaches the roof of the vehicle 1 (not shown) with the current user viewpoint position 100 as a reference, the image generation unit 30 determines the display position of the superimposed mark 250 on the display surface 21 as follows. The position is determined so as to be positioned on the Iy-axis positive direction side with reference to the current display position. Further, as the user viewpoint position 100 detected by the viewpoint position acquisition unit 40 moves upward, the image generation unit 30 determines the display size of the superimposed mark 250 on the display surface 21 to increase in the Iy axis direction.
  • the image generation unit 30 sets the display size of the superimposed mark 250 on the display surface 21 as follows. It is determined so as to increase in the Iy-axis direction based on the current display size.
  • the user viewpoint position 100d shown in FIG. 7B is an example of the user viewpoint position 100 positioned below the reference user viewpoint position 100r.
  • the image generation unit 30 displays the superimposed mark 250 on the display surface 21 in step S04 shown in FIG.
  • the display position and the display size are determined as a superposition mark 250d shown on the right side of FIG. 7B.
  • the superposition mark 250d shown in FIG. 7B is positioned on the Iy axis negative direction side as compared with the reference superposition mark 250r. Further, the size 252d in the Iy-axis direction of the overlay mark 250d shown in FIG. 7B is smaller than the size 252r in the Iy-axis direction of the reference overlay mark 250r.
  • the image generation unit 30 sets the display position of the superimposed mark 250 on the display surface 21 to the Iy axis negative direction side. decide. That is, when the user viewpoint position 100 approaches the floor of the vehicle 1 with the current user viewpoint position 100 as a reference, the image generation unit 30 determines the display position of the superimposed mark 250 on the display surface 21 as the current display position. Is determined so as to be positioned on the negative direction side of the Iy axis. In addition, as the user viewpoint position 100 detected by the viewpoint position acquisition unit 40 moves downward, the image generation unit 30 determines the display size of the superimposed mark 250 on the display surface 21 to be reduced in the Iy axis direction. .
  • the image generation unit 30 changes the display size of the superimposed mark 250 on the display surface 21 to the current display size. Is determined so as to decrease in the Iy axis direction.
  • FIG. 8 shows the range of the user viewpoint position 100 in the vertical direction, the virtual image of the superimposition mark 250 (virtual image superimposition mark 350), and the range of the distance on the road surface 70 of the landscape on which the virtual image superimposition mark 350 is superimposed. It is a schematic diagram for demonstrating a relationship.
  • FIG. 8 shows the user viewpoint position 100 for easy understanding of the relationship between the user viewpoint position 100 in the vertical direction, the virtual image superimposition mark 350, and the range of the distance on the road surface 70 of the landscape on which the virtual image superimposition mark 350 is superimposed. The amount of change of 100 is exaggerated.
  • the vertical distances between the user viewpoint position 100r and the user viewpoint position 100u and between the user viewpoint position 100r and the user viewpoint position 100d shown in FIG. 8 are actually closer.
  • the range of the distance on the road surface 70 of the landscape where the virtual image superimposition mark 350 is superimposed is also referred to as a superimposed distance range 400.
  • FIG. 8 shows a virtual image superimposition mark 350r at the user viewpoint position 100r shown in FIG. 4A, a virtual image superposition mark 350u at the user viewpoint position 100u shown in FIG. 7A, and a user viewpoint position 100d shown in FIG. 7B.
  • the virtual image superimposing mark 350d at this time is shown. Since the virtual image superimposing mark 350u is a virtual image 330 corresponding to the superimposing mark 250u shown in FIG. 7A, compared with the virtual image superimposing mark 350r that is the virtual image 330 corresponding to the reference superimposing mark 250r shown in FIG. It is located on the upper side, and the size in the vertical direction in the real space is increased.
  • the virtual image superimposition mark 350d is a virtual image 330 corresponding to the superimposition mark 250d shown in FIG. 7B, compared with the virtual image superimposition mark 350r that is the virtual image 330 corresponding to the reference superimposition mark 250r shown in FIG. 4A. It is located on the lower side in the real space, and the size in the vertical direction on the real space is reduced.
  • FIG. 8 shows a superimposition distance range 400r that is a range of the distance on the road surface 70 of the scenery that is superimposed on the virtual image superimposition mark 350r among the scenery that can be seen through the front window shield 2 at the user viewpoint position 100r, and the user viewpoint.
  • the superimposing distance range 400u that is the distance range on the road surface 70 of the scenery that overlaps the virtual image superimposing mark 350u and the front window shield 2 at the user viewpoint position 100d.
  • a superimposition distance range 400d which is a distance range on the road surface 70 of the scenery superimposed with the virtual image superimposition mark 350d, is shown.
  • the overlap distance range 400r, the overlap distance range 400u, and the overlap distance range 400d coincide.
  • the amount of change in the vertical direction of the virtual image overlay mark 350 is smaller than the amount of change in the vertical direction of the user viewpoint position 100. Then, for example, as the user viewpoint position 100 moves upward, the angle between the line of sight where the user views the virtual image superimposition mark 350 and the horizontal plane increases. On the other hand, for example, as the user viewpoint position 100 goes downward, the angle between the line of sight where the user views the virtual image superimposition mark 350 and the horizontal plane becomes smaller.
  • the vertical position of the virtual image overlapping mark 350 is increased upward. It is necessary to increase the vertical size.
  • the vertical position of the virtual image superimposed mark 350 is lowered as the user viewpoint position 100 moves downward. In addition to the side, it is necessary to reduce the vertical size.
  • the image generation unit 30 of the vehicle display device 10 displays the display position on the Iy axis of the superposition mark 250 on the display surface 21 and the display size in the Iy axis direction according to the user viewpoint position 100 in the vertical direction. Can be determined appropriately. That is, the image generation unit 30 of the vehicle display device 10 can not only adjust the display position in the vertical direction of the superimposed mark 250 on the display surface 21 according to the user viewpoint position 100 acquired by the viewpoint position acquisition unit 40, The display size in the vertical direction of the superimposed mark 250 on the display surface 21 can also be adjusted. As a result, the overlapping distance range 400 can be made constant without being affected by the user viewpoint position 100 in the vertical direction.
  • the vehicle display device 10 of the present invention can provide appropriate information to the user without being influenced by the user viewpoint position 100.
  • the image generation unit 30 performs the superimposition mark 250 on the display area 210 in accordance with the user viewpoint position 100 in the three vertical directions of the reference user viewpoint position 100r, the upper side, and the lower side.
  • the display position and display size may be determined in three stages.
  • Second Embodiment >> 2nd Embodiment of the display apparatus 10 for vehicles of this invention is described. Since the second embodiment is a modification of the first embodiment described above, only the parts different from the first embodiment will be described, and the description of the same parts will be omitted. Moreover, the same code
  • Embodiment of the display apparatus 10 for vehicles mentioned above makes the user who sits in the driver's seat of the vehicle 1 visually recognize the virtual image superimposition mark 350 which alert
  • the second embodiment of the vehicle display device 10 to be described below not only allows the user sitting in the driver's seat of the vehicle 1 to visually recognize the virtual image superimposition mark 350 properly, but also provides information such as the traveling speed of the vehicle 1.
  • the virtual image non-overlapping mark 370 which will be described later, is also appropriately recognized.
  • the image generation unit 30 includes, for example, information included in a signal input directly or via a bus 5 from an ECU (Electronic Control Unit) and / or a device (not shown) included in the vehicle 1.
  • a second image element 270 which is an image element that can be provided to the user, can be included in the generated image.
  • the information included in a signal input from an ECU (not shown) included in the vehicle 1 is information relating to, for example, the remaining fuel amount, the current vehicle speed, the fuel consumption, the remaining battery amount, and the like.
  • Information included in a signal input from a device (not shown) included in the vehicle 1 includes, for example, speed limit information on a road on which the vehicle 1 is currently traveling, which is input from a navigation device (not shown). That is, unlike the first image element 250, the second image element 270 is an information display that allows the user to accurately recognize the information that the image element has without superimposing a virtual image on a landscape in front of the vehicle such as a road surface.
  • the image generation unit 30 includes a plurality of second image elements 270 in the generated image.
  • the second image element 270 is also referred to as a non-overlapping mark 270 as appropriate.
  • FIG. 9 shows an example of a landscape and a virtual image that a user sitting in the driver's seat of the vehicle 1 can see through the front window shield 2 in the second embodiment.
  • a virtual image non-overlapping mark 370-1 representing the speed limit of the road on which the vehicle 1 is currently traveling and the current traveling speed of the vehicle 1 are represented.
  • a virtual image non-overlapping mark 370-2 is further shown.
  • the virtual image superimposition mark 350 changes its position in the left-right direction in the real space according to the change in the left-right direction of the user viewpoint position 100 as in the first embodiment. .
  • the virtual image superimposition mark 350 can be superimposed on a certain external object without being affected by the user viewpoint position 100 in the left-right direction.
  • the position and size of the virtual image superimposition mark 350 in the vertical direction in the real space may be further changed according to the vertical change in the user viewpoint position 100.
  • the overlapping distance range 400 of the virtual image overlapping mark 350 can be made constant without being affected by the user viewpoint position 100 in the vertical direction.
  • the virtual image non-overlapping marks 370-1 and 370-2 do not need to be visually recognized by the user in a state where they are superimposed on the notification object in the landscape seen through the front window shield 2.
  • the virtual image non-overlapping mark 370 is a character such as a numeral
  • the virtual image non-display in the horizontal direction or the vertical direction in the real space is changed according to the change of the user viewpoint position 100. It is assumed that when the position of the superimposition mark 370 is changed, it becomes difficult for the user to recognize the information represented by the virtual image non-superimposition mark 370. Furthermore, it is assumed that it is difficult for the user to recognize the information represented by the virtual image non-overlapping mark 370 by changing the size of the virtual image non-superimposing mark 370 in the vertical direction in the real space.
  • the image generation unit 30 does not consider the user viewpoint position 100 in the left-right direction, and sets the display position in the Ix axis direction of the non-overlapping mark 270 on the display surface 21 to a predetermined constant.
  • the display position in the Ix axis direction is determined.
  • the image generation unit 30 may determine only the display position on the Iy axis of the non-overlapping mark 270 on the display surface 21 according to the user viewpoint position 100 in the vertical direction. .
  • the image generation unit 30 does not change the display size of the non-overlapping mark 270 on the display surface 21 on the Iy axis when the user viewpoint position 100 in the vertical direction changes.
  • the superimposition mark 250 is displayed in the Iy axis of the superimposition mark 250 on the display surface 21 according to the user viewpoint position 100 in the vertical direction, as in the first embodiment.
  • the display size in the Iy axis direction is appropriately determined.
  • the determination of the display position on the Iy axis of the non-overlapping mark 270 on the display surface 21 according to the user viewpoint position 100 in the vertical direction by the image generation unit 30 according to the second embodiment is the image generation unit according to the first embodiment.
  • 30 is the same as the determination of the display position on the Iy axis of the superimposed mark 250 on the display surface 21 according to the user viewpoint position 100 in the vertical direction. That is, as the user viewpoint position 100 detected by the viewpoint position acquisition unit 40 moves upward, the image generation unit 30 sets the display position of the non-overlapping mark 270 on the display surface 21 to the Iy axis positive direction side. decide. Similarly, as the user viewpoint position 100 detected by the viewpoint position acquisition unit 40 moves downward, the image generation unit 30 positions the display position of the non-overlapping mark 270 on the display surface 21 on the Iy axis negative direction side. To be determined.
  • FIG. 10 An example of the operation of the vehicle display device 10 according to the second embodiment will be described with reference to FIG.
  • the flowchart of the operation of the second embodiment of the vehicle display device 10 shown in FIG. 10 is obtained by changing a part of the flowchart of the operation of the first embodiment shown in FIG.
  • the flowchart shown in FIG. 10 corresponds to a process in which a new processing step (step S105) is inserted between step S04 and step S05 in the flowchart shown in FIG.
  • Other processes are the same as those in the flowchart shown in FIG. Therefore, the flowchart shown in FIG. 10 will be described only with respect to the parts different from the flowchart shown in FIG.
  • Step S101 corresponds to step S01 in the flowchart shown in FIG.
  • Step S102 corresponds to step S02 in the flowchart shown in FIG.
  • Step S103 corresponds to step S03 in the flowchart shown in FIG.
  • the image generation unit 30 includes, for example, an image including the non-superimposition mark 270 in addition to the superimposition mark 250 in accordance with the front information acquired by the front information acquisition unit 60 in step S01. Generate.
  • Step S104 corresponds to step S04 in the flowchart shown in FIG.
  • the image generation unit 30 does not consider the user viewpoint position 100 in the left-right direction acquired by the viewpoint position acquisition unit 40 in step S02, and determines the display position on the Ix axis of the non-overlapping mark 270 on the display surface 21. The predetermined display position in the Ix axis direction is determined.
  • the image generation unit 30 displays the non-overlapping mark 270 included in the image generated in step S03 according to the user viewpoint position 100 in the vertical direction acquired by the viewpoint position acquisition unit 40 in step S02. The position in the Iy axis direction on the display area 210 is determined.
  • Step S106 corresponds to step S05 in the flowchart shown in FIG.
  • the image display unit 20 displays the superimposition mark 250 at the position and size on the display area 210 determined by the image generation unit 30 in step S104, and determined by the image generation unit 30 in step S105.
  • a non-overlapping mark 270 is displayed at a position in the Iy-axis direction on the displayed area 210.
  • step S104 and step S105 are not necessarily in this order, and the order may be changed.
  • the image generation unit 30 of the vehicle display device 10 displays the non-overlapping marks 270 on the display surface 21 according to the user viewpoint position 100 in the vertical direction.
  • the display position on the Iy axis can be appropriately determined. That is, the virtual image non-overlapping mark 370 that is a virtual image of the non-superimposing mark 270 maintains the relative positional relationship with the virtual image overlapping mark 350 when the user viewpoint position 100 in the vertical direction changes. As a result, when the user viewpoint position 100 changes in the vertical direction, it is possible to prevent the distance in the vertical direction between the virtual image superimposing mark 350 and the virtual image non-superimposing mark 370 from increasing or decreasing in real space.
  • the size of the virtual image non-overlapping mark 370 in the vertical direction in the real space does not change.
  • the user displays the virtual image non-superimposing mark 370 on the virtual image non-superimposing mark 370 as compared with the case where the size of the virtual image non-superimposing mark 370 in the vertical direction is changed. It is possible to prevent difficulty in recognizing the information that is being used.
  • the image generation unit 30 directly determines the display position of the superimposition mark 250 on the display surface 21 in the Ix axis direction in accordance with the change in the left-right direction of the user viewpoint position 100. It was a decision.
  • the image generation unit 30 displays the display position and display size in the Iy-axis direction on the display surface 21 of the superimposition mark 250 and the display surface 21 of the non-superimposition mark 270. The upper display position in the Iy axis direction is directly determined.
  • the image generation unit 30 displays an area (first use) on the display surface 21 in which the superimposition mark 250 is displayed in accordance with a change in the left-right direction of the user viewpoint position 100.
  • the position of the area 240) in the Ix axis direction is determined.
  • the image generation unit 30 determines the position and size in the Iy axis direction of the area (first use area 240) on the display surface 21 on which the superimposition mark 250 is displayed.
  • the position in the Iy-axis direction of the area (second use area 260) on the display surface 21 that displays the non-overlapping mark 270 is determined.
  • the display position and display size of the superimposition mark 250 on the display surface 21 and the display position of the non-superimposition mark 270 on the display surface 21 are indirectly determined.
  • the first use area 240 and the second use area 260 determined by the image generation unit 30 are illustrated.
  • the first use area 240 is a range 240 of the pixels 22 used for displaying the overlapping mark 250 in the display area 210 that is the entire pixel 22 of the liquid crystal panel 21. is there.
  • the second use area 260 is a range 260 of the pixels 22 used for displaying the non-overlapping mark 270 in the display area 210 that is the entire pixel 22 of the liquid crystal panel 21. It is.
  • first use area 240 and the second use area 260 are collectively referred to as a use area 220. That is, in the third embodiment, an image generated by the image generation unit 30 is displayed in the use area 220 and no image is displayed outside the use area 220.
  • the flowchart of the operation of the third embodiment of the vehicle display device 10 shown in FIG. 12 is a part of the flowchart of the operation of the second embodiment shown in FIG. Specifically, the flowchart shown in FIG. 12 is different in a processing step (step S204) corresponding to step S104 of the flowchart shown in FIG. 7 and a processing step (step S205) corresponding to step S105. Other processes are the same as those in the flowchart shown in FIG. Accordingly, the flowchart shown in FIG. 12 will be described only with respect to the parts different from the flowchart shown in FIG.
  • Step S201 corresponds to step S101 in the flowchart shown in FIG.
  • Step S202 corresponds to step S102 of the flowchart shown in FIG.
  • Step S203 corresponds to step S103 in the flowchart shown in FIG.
  • step S204 the image generation unit 30 determines the position in the Ix axis direction on the display area 210 of the first use area 240 according to the user viewpoint position 100 in the left-right direction acquired by the viewpoint position acquisition unit 40 in step S202. decide. At the same time, the image generation unit 30 determines the position in the Iy axis direction on the display area 210 and the size in the Iy axis direction of the first use area 240 according to the user viewpoint position 100 in the vertical direction.
  • step S205 the image generation unit 30 determines the position in the Iy axis direction on the display area 210 of the second usage area 260 according to the user viewpoint position 100 in the vertical direction acquired by the viewpoint position acquisition unit 40 in step S202. decide.
  • the correspondence between the user viewpoint position 100 in the vertical direction and the position in the Iy-axis direction on the display area 210 of the second usage area 260 will be described later.
  • step S206 the image display unit 20 displays the superimposition mark 250 among the images generated by the image generation unit 30 in step S203 within the first use area 240 determined by the image generation unit 30 in step S204. At the same time, the image display unit 20 displays the non-overlapping mark 270 among the images generated by the image generation unit 30 in step S203 in the second usage region 260 determined by the image generation unit 30 in step S205.
  • step S204 and step S205 are not necessarily in this order, and the order may be changed.
  • the correspondence between the user viewpoint position 100 in the left-right direction and the position in the Ix axis direction on the display area 210 of the first use area 240 and the user viewpoint position 100 in the up-down direction The correspondence relationship between the position in the Iy axis direction on the display area 210 of the first use area 240 and the size in the Iy axis direction will be described.
  • FIG. 13A is a diagram illustrating an example of an image generated by the image generation unit 30.
  • the ix axis shown in FIG. 13A corresponds to the Ix axis of the display surface 21 of the image display unit 20.
  • the iy axis illustrated in FIG. 13A corresponds to the Iy axis of the display surface 21 of the image display unit 20.
  • a mark 250i displayed as a superimposed mark 250 on the display surface 21 and a mark 270i displayed as a non-overlapped mark 270 on the display surface 21 are shown.
  • the mark 250 i is generated in an area 240 i corresponding to the first use area 240 in the display area 210 of the display surface 21, and the mark 270 i is an area corresponding to the second use area 260 in the display area 210 of the display surface 21. 260i is generated.
  • FIG. 13B shows an example in which the generated image shown in FIG. 13A is displayed in the display area 210 when the user viewpoint position 100 is, for example, the reference user viewpoint position 100r shown in FIG. 4A.
  • the use area 220r of the display area 210 shown in FIG. 13B is also referred to as a reference use area 220r for convenience
  • the first use area 240r of the reference use area 220 is also referred to as a reference first use area 240r for convenience.
  • the second usage area 260r in the reference usage area 220 is also referred to as a reference second usage area 260r for convenience.
  • the superimposition mark 250r displayed in the reference first usage area 240r shown in FIG. 13B is also referred to as the reference superimposition mark 250r as described above, and the non-superimposition displayed in the reference second usage area 260r.
  • the mark 270r is also referred to as a reference non-overlapping mark 270r for convenience.
  • FIG. 13C shows an example in which the generated image shown in FIG. 13A is displayed in the display area 210 when the user viewpoint position 100 in the left-right direction is, for example, the user viewpoint position 100ri shown in FIG. 4B. ing.
  • the user viewpoint position 100ri is on the right side of the reference user viewpoint position r as shown in FIG. 4B.
  • the first use area 240ri is determined by the image generation unit 30 so as to be located on the Ix axis negative direction side with respect to the reference first use area 240r.
  • the overlap mark 250ri is located on the negative side of the Ix axis compared to the reference overlap mark 250r by determining the first use area 240ri in this way.
  • the second use area 260ri is determined by the image generation unit 30 so that the position in the Ix axis direction is the same as the reference second use area 260r. Therefore, the position of the non-overlapping mark 270ri in the Ix axis direction is the same as that of the reference non-overlapping mark 270r because the second usage area 260ri is determined in this way.
  • FIG. 13D shows an example in which the generated image shown in FIG. 13A is displayed in the display area 210 when the user viewpoint position 100 in the left-right direction is the user viewpoint position 100le shown in FIG. 4C, for example. ing. As shown in FIG. 4C, the user viewpoint position 100le is on the left side of the reference user viewpoint position r.
  • the first use area 240le is determined by the image generation unit 30 so as to be positioned on the Ix-axis positive direction side with respect to the reference first use area 240r.
  • the superimposition mark 250le is located on the Ix axis positive direction side as compared with the reference superimposition mark 250r by determining the first use area 240le in this way.
  • the second use area 260le is determined by the image generation unit 30 so that the position in the Ix axis direction is the same as that of the reference second use area 260r. Therefore, the non-overlapping mark 270le has the same position in the Ix axis direction as the reference non-overlapping mark 270r because the second use area 260le is determined in this way.
  • the image generation unit 30 positions the first use area 240 of the display area 210 on the Ix axis negative direction side. . Accordingly, the superimposition mark 250 is located on the negative side of the Ix axis in the display area 210.
  • the image generation unit 30 positions the first use area 240 of the display area 210 on the Ix axis positive direction side. . Accordingly, the superimposition mark 250 is positioned on the Ix axis positive direction side in the display area 210.
  • the image generating unit 30 maintains the position in the Ix axis direction in the reference second usage area 260r without considering the user viewpoint position 100 in the left-right direction. Therefore, the non-overlapping mark 270ri also maintains the position in the Ix axis direction of the reference non-overlapping mark 270r.
  • FIG. 13E shows an example in which the generated image shown in FIG. 13A is displayed in the display area 210 when the user viewpoint position 100 in the vertical direction is, for example, the user viewpoint position 100u shown in FIG. 7A. ing. As shown in FIG. 7A, the user viewpoint position 100u is above the reference user viewpoint position r.
  • the use area 220u is determined by the image generation unit 30 so as to be positioned on the Iy-axis positive direction side with respect to the reference use area 220r.
  • the first use area 240u is determined by the image generation unit 30 so as to be located on the Iy axis positive direction side with respect to the reference first use area 240r and to have a larger size in the Iy axis direction. ing.
  • the superimposition mark 250u is positioned on the Iy-axis positive direction side as compared with the reference superimposition mark 250r and the Iy-axis direction as a result of the first usage region 240u being determined in this way.
  • the size of is increasing.
  • the second use area 260u is located on the Iy axis positive direction side with respect to the reference second use area 260r, and the size in the Iy axis direction is the same as the reference second use area 260r. It is determined by the image generation unit 30. As shown in FIG. 13E, the non-overlapping mark 270u is positioned on the Iy-axis positive direction side as compared with the reference non-overlapping mark 270r by determining the second usage region 260u in this way.
  • FIG. 13F shows an example in which the generated image shown in FIG. 13A is displayed in the display area 210 when the user viewpoint position 100 in the vertical direction is the user viewpoint position 100d shown in FIG. 7B, for example. ing. As shown in FIG. 7B, the user viewpoint position 100d is below the reference user viewpoint position r.
  • the use area 220d is determined by the image generation unit 30 so as to be positioned on the Iy-axis negative direction side with respect to the reference use area 220r.
  • the first use area 240d is determined by the image generation unit 30 so as to be positioned on the Iy axis negative direction side with respect to the reference first use area 240r and to have a smaller size in the Iy axis direction.
  • the overlap mark 250d is positioned on the Iy axis negative direction side as compared to the reference overlap mark 250r and the Iy axis direction is compared with the reference overlap mark 250r by determining the first use area 240d as described above. The size of is getting smaller.
  • the second use area 260d is positioned on the Iy axis negative direction side of the reference second use area 260r, and the size in the Iy axis direction is the same as the reference second use area 260r. It is determined by the image generation unit 30. As illustrated in FIG. 13F, the non-overlapping mark 270d is positioned on the Iy-axis negative direction side as compared to the reference non-overlapping mark 270r by determining the second usage region 260d as described above.
  • the image generation unit 30 positions the first use area 240 in the display area 210 on the Iy axis positive direction side. At the same time, the size in the Iy-axis direction is determined to be large. Accordingly, the overlay mark 250 is located on the Iy axis positive direction side in the display area 210 and the size in the Iy axis direction is increased.
  • the image generation unit 30 positions the first use area 240 in the display area 210 to the Iy axis negative direction side. And the size in the Iy-axis direction is determined to be small. Accordingly, the overlapping mark 250 is positioned on the Iy axis negative direction side in the display area 210 and the size in the Iy axis direction is reduced.
  • the image generation unit 30 positions the second usage area 260 of the display area 210 on the Iy axis positive direction side. decide. Accordingly, the non-overlapping mark 270 is positioned on the Iy axis positive direction side in the display area 210.
  • the image generation unit 30 positions the second usage area 260 of the display area 210 on the Iy axis negative direction side. Decide to let Accordingly, the non-overlapping mark 270 is located on the Iy axis negative direction side in the display area 210.
  • the position and size of the first use area 240 on the display area 210 are determined in accordance with the change of the user viewpoint position 100, thereby displaying the display areas 210 of all the superimposed marks 250.
  • the upper display position and display size can be determined together. As a result, for example, when a plurality of overlay marks 250 are displayed, the processing load on the image generation unit 30 is reduced as compared with the case where the display position and display size on the display area 210 are determined for each overlay mark 250. Is done.
  • the positions of all the non-overlapping marks 270 on the display area 210 are determined by determining the positions of the second use areas 260 on the display area 210 according to the change of the user viewpoint position 100.
  • the position can be determined collectively. As a result, for example, when a plurality of non-overlapping marks 270 are displayed, the processing load on the image generation unit 30 is reduced as compared with the case where the display position on the display area 210 is determined for each non-overlapping mark 270.
  • the first use area 240 and the second use area 260 have been described as being arranged side by side in the Iy axis direction.
  • the second use region 260 may be arranged side by side in the Ix axis direction.
  • the first use area 240 and the second use area 260 may be arranged obliquely, and only a part such as the lower right is provided.
  • the second use area 260 may be the first use area 240.
  • it is preferable that the first use region 240 and the second use region 260 are arranged side by side in the Iy axis direction or the Ix axis direction.
  • the first use area 240 and the second use area 260 are arranged obliquely side by side, the first use area 240 and the second use area according to the change in the user viewpoint position 100 by the image generation unit 30.
  • the processing burden for determining the change in the usage area 260 is reduced.
  • the image generation unit 30 may provide adjustment points in the image to be generated, and define the regions 240i and 260i with reference to a straight line passing through the adjustment points.
  • the image generation unit 30 may independently determine changes in the first use area 240 and the second use area 260 according to changes in the user viewpoint position 100 with reference to a straight line passing through the adjustment point. Good.
  • FIG. 14 illustrates an image generated by the image generation unit 30 in the use area 220 of the display area 210 in the example in which the first use area 240 and the second use area 260 are arranged in the Iy axis direction.
  • Two region adjustment points 25 corresponding to the adjustment points provided in are shown.
  • a straight line passing through the area adjustment points 25 is uniquely defined.
  • one pixel 22 on the display surface 21 is used as one region adjustment point 25.
  • a straight line connecting the two area adjustment points 25 is defined on the pixel 22 having the same Iy coordinate in the display area 210.
  • the image generating unit 30 changes the change when the user viewpoint position 100 changes on the Iy axis positive direction side and the Iy axis negative direction side on the basis of the straight line connecting the two area adjustment points 25 in the use area 220.
  • Each is determined independently. That is, as shown in FIG. 14, when the first use area 240 is arranged on the Iy-axis positive direction side with respect to the straight line connecting the two area adjustment points 25, the image generation unit 30 displays the user viewpoint in the left-right direction.
  • the position in the Ix axis direction of the area on the Iy axis positive direction side is determined based on the straight line connecting the two area adjustment points 25 in the use area 220.
  • the image generation unit 30 changes the area on the Iy axis positive direction side in the Iy axis direction based on the straight line connecting the two area adjustment points 25 in the use area 220 according to the change in the user viewpoint position 100 in the vertical direction. Determine position and size. Furthermore, the image generation unit 30 changes the area in the Iy axis negative direction side in the Iy axis direction based on the straight line connecting the two area adjustment points 25 in the use area 220 in accordance with the change in the user viewpoint position 100 in the vertical direction. Determine the position.
  • the change when the user viewpoint position 100 changes independently on the Iy axis positive direction side and the Iy axis negative direction side on the basis of the straight line connecting the two area adjustment points 25 is independently determined.
  • the change of the 1st usage area 240 and the 2nd usage area 260 can be determined independently.
  • the area adjustment point 25 may be provided closest to the Iy-axis negative direction side of the first use area 240, or may be provided closest to the Iy-axis positive direction side of the second use area 260. 240 and the second use area 260 may be provided. When the area adjustment point 25 is provided on the most Iy axis negative direction side of the first use area 240 or the most Iy axis positive direction side of the second use area 260, the two area adjustment points 25 and the two area adjustment points are provided. It is conceivable that the pixels 22 on the straight line connecting 25 are used for displaying an image.
  • the pixel 22 on the straight line connecting the two area adjustment points 25 and the two area adjustment points 25 It is considered that it is not used for display.
  • the second use area 260 may be arranged on the Iy-axis positive direction side
  • the first use area 240 may be arranged on the Iy-axis negative direction side.
  • the image generation unit 30 generates in the use area 220 of the display area 210.
  • Four area adjustment points 25 corresponding to the adjustment points provided in the image are shown. Specifically, two area adjustment points 25a and two area adjustment points 25b are shown.
  • the two points of the region adjustment point 25a have the same Ix coordinate
  • the two points of the region adjustment point 25b have the same Ix coordinate.
  • the image generation unit 30 may change the user viewpoint from the straight line connecting the two area adjustment points 25a to the Ix axis negative direction side and from the straight line connecting the two area adjustment points 25b to the Ix axis positive direction side.
  • Each change when position 100 changes is determined independently. That is, as shown in FIG. 15, when the first use area 240 is arranged on the Ix axis negative direction side from the straight line connecting the two area adjustment points 25a, according to the change in the user viewpoint position 100 in the left-right direction, The position in the Ix axis direction of the area on the negative side of the Ix axis from the straight line connecting the two area adjustment points 25a in the use area 220 is determined.
  • the image generation unit 30 changes the position in the Iy-axis direction of the region on the Ix-axis negative direction side from the straight line connecting the two region adjustment points 25a in the use region 220 in accordance with the change in the user viewpoint position 100 in the vertical direction. Determine the size. Furthermore, the image generation unit 30 determines the position in the Iy-axis direction of the region on the Ix-axis positive direction side from the straight line connecting the two region adjustment points 25b according to the change in the user viewpoint position 100 in the vertical direction.
  • the user viewpoint position 100 changes from the straight line connecting the two area adjustment points 25a to the Ix axis negative direction side and from the straight line connecting the two area adjustment points 25b to the Ix axis positive direction side.
  • the change between the first use area 240 and the second use area 260 can be determined independently.
  • the two region adjustment points 25a may be provided on the most Ix axis positive direction side of the first use region 240, and between the first use region 240 and the second use region 260, on the Ix axis negative direction side. May be provided.
  • the two area adjustment points 25a are provided on the most Ix-axis positive direction side of the first use area 240, the pixel 22 on the straight line connecting the two area adjustment points 25a and the two area adjustment points 25a is It can be considered to be used for displaying images.
  • the two area adjustment points 25a are provided between the first use area 240 and the second use area 260 on the Ix-axis negative direction side, the two area adjustment points 25a and the two area adjustment points 25a are provided. It is conceivable that the pixels 22 on the straight line connecting are not used for displaying an image.
  • the two area adjustment points 25b may be provided closest to the Ix axis negative direction side of the second use area 240, and the Ix axis positive direction between the first use area 240 and the second use area 260. It may be provided on the side.
  • the two area adjustment points 25b are provided on the most negative side of the second use area 240 in the Ix axis negative direction, the pixel 22 on the straight line connecting the two area adjustment points 25b and the two area adjustment points 25b is It can be considered to be used for displaying images.
  • the two area adjustment points 25b are provided on the positive side of the Ix axis between the first use area 240 and the second use area 260, the two area adjustment points 25b and the two area adjustment points 25b are provided.
  • the pixels 22 on the straight line connecting are not used for displaying an image.
  • the second use area 260 may be arranged on the Ix axis negative direction side, and the first use area 240 may be arranged on the Ix axis positive direction side.
  • the image generation unit 30 can determine an independent change according to the user viewpoint position 100 for each region divided based on the adjustment point by providing an adjustment point in the generated image. it can. That is, the image generation unit 30 can accurately set the boundary between the first use area 240 and the second use area 260, and the first use area 240, the second use area 260, and the like according to the user viewpoint position 100. Can accurately determine different changes.
  • FIG. 13A shows a straight line that divides the region 240i into four equal parts in the iy-axis direction and a straight line that divides the region 240i into four equal parts in the ix-axis direction.
  • FIG. 13A shows a straight line that divides the region 260i into two equal parts in the iy axis direction and a straight line that divides the area 260i into four equal parts in the ix axis direction.
  • the region 220i is divided into 24 areas by these straight lines and the outer frame of the region 220i.
  • the storage unit 32 of the image generation unit 30 corresponds to the coordinates (Ix, Iy) on the display area 210 of the image display unit 20 for each coordinate (ix, iy) of all the vertices of the 24 areas. May be stored.
  • the divided areas shown in FIGS. 13A to 13F are merely examples, and do not limit the number, size, or the like of the divided areas.
  • the front window shield 2 generally has a curved surface portion as well as a flat surface portion. Therefore, when an image assuming a plane is displayed in the display area 210 of the image display unit 20, the virtual image 330 reflected by the front window shield 2 is visually recognized by the user in a state including distortion. Accordingly, the coordinates (ix, iy) of all the vertices of the 24 areas in the generated image stored in the storage unit 32 of the image generation unit 30 and the coordinates (Ix, Iy) on the display area 210 of the image display unit 20 are stored. For example, the correction of distortion according to the front window shield 2 may be reflected. Note that the distortion correction is not reflected in FIGS. 13B to 13F.
  • the storage unit 32 of the image generation unit 30 includes, for example, coordinates (ix, iy) of all vertices of 24 areas in the generated image and coordinates (Ix, Iy) on the display area 210 of the image display unit 20. May be stored in accordance with the user viewpoint position 100, or the correspondence relationship may be corrected according to the user viewpoint position 100.
  • the image generation unit 30 corrects the coordinates (ix, iy) of all the vertices of 24 areas in the generated image and the coordinates on the display area 210 of the image display unit 20 (corrected according to the user viewpoint position 100).
  • the generated image may be displayed in the display area 210 based on the correspondence relationship with (Ix, Iy).
  • the image generation unit 30 determines, on the display area 210, the position in the Ix axis direction, the position and size in the Iy axis direction, the second usage area 240, and the second The position of the use area 260 in the Iy axis direction may be determined.
  • an adjustment point is provided on the boundary line between the region 240i and the region 260i shown in FIG. 13A. That is, it is preferable that the adjustment line passing through the adjustment point matches the boundary line between the region 240i and the region 260i.
  • the pixel 22 on the boundary line between the first usage area 240 and the second usage area 260 shown in FIGS. 13B to 13F or the pixel 22 adjacent to the boundary line is used as the area adjustment point 25 shown in FIG. Is done. Therefore, the distortion correction corresponding to the front window shield 2 can be corrected independently in the first use area 240 and the second use area 260.
  • It is mounted on a moving body such as a vehicle and is suitable as a head-up display that allows a viewer to visually recognize a virtual image.
  • DESCRIPTION OF SYMBOLS 1 use area

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ユーザーの視点の位置の変化に影響されることなく、ユーザーに適切な情報を提供可能な車両用表示装置を提供する。 車両用表示装置10は、車両1の運転席に座るユーザー視点位置100を取得する視点位置取得部40と、車両1の前方情報を取得する前方情報取得部60と、前方情報取得部60が取得する前方情報のうち、所定領域内に含まれる前方情報を反映させた画像を生成する画像生成部30と、画像生成部30が生成する画像を表示可能な表示面21を有する画像表示部20と、運転席に座るユーザーが虚像330を視認できるように、画像を車両1の透光部材2に向けて投影する投影部50と、を備える。画像生成部30は、表示面21において、生成した画像に含まれる画像要素のうち、第1画像要素250を表示する位置を、視点位置取得部40が取得する左右方向におけるユーザー視点位置100に応じて決定する。

Description

車両用表示装置
 本発明は、車両用表示装置に関する。本発明は、特に、ユーザーの視点の位置の変化に影響されることなく、ユーザーに適切な情報を提供可能な車両用表示装置に関する。
 車両用表示装置として、車両のフロントウィンドウシールド等の透光部材に表示画像を投影することによって、フロントウィンドウシールドで反射される表示画像の光を用いて運転席に座ったユーザーに、虚像を視認させる、いわゆるヘッドアップディスプレイがある。このような車両用表示装置では、虚像は、車両のフロントウィンドウシールドを基準にして車両進行方向側(車両前方側)に形成され、運転席に座ったユーザーによって視認される。このような車両用表示装置の一般的な構成として、例えば、表示画像を表示する画像表示部と、この表示画像を車両のフロントウィンドウシールドに投影する凹面鏡を含む光学系から構成される投影部と、を含む。
 このような車両用表示装置が備えられている車両の運転席に座るユーザーは、例えば車両前方の道路に他の車両、障害物等が存在する情報を与える虚像を、フロントウィンドウシールド越しに見える風景と重畳された状態で、視認することができる。虚像が視認される位置がフロントウィンドウシールドの上側になるにつれて、虚像は、フロントウィンドウシールド越しに見える風景のうち距離が遠い側の景色と重畳されて視認される。その一方で、虚像が視認される位置がフロントウィンドウシールドの下側になるにつれて、虚像は、フロントウィンドウシールド越しに見える風景のうち距離が近い側の風景と重畳される。
 ここで、ユーザーの座高、ユーザーの着席姿勢等によって、運転席に座るユーザーの視点の位置は一定ではない。例えば、表示画像が投影される位置が固定されているときは、運転席に座るユーザーの視点の位置が高くなるにつれて、虚像は、フロントウィンドウシールド越しに見える風景のうち距離が近い側の風景と重畳される。このように、運転席に座るユーザーの視点の位置が変化することによって、虚像が重畳される風景内の対象がずれるため、ユーザーに違和感を与える可能性がある。
 そこで、例えば、特許文献1には、車両の運転席に座るユーザーの視点の上下方向における位置に応じて、投影部の凹面鏡を含む光学系の投影方向を調整するヘッドアップディスプレイ装置(車両用表示装置)が示されている。特許文献1に示されている車両用表示装置は、投影部の凹面鏡の投影角度を調整する凹面鏡アクチュエータと、車両の運転席に座るユーザーの視点の位置を取得する視点検知カメラと、を備える。
 特許文献1に示されている車両用表示装置は、視点検知カメラで取得した車両の運転席に座るユーザーの視点の位置が高いときに、表示画像がフロントウィンドウシールドの上側に投影されるように、凹面鏡アクチュエータを制御する。その一方で、特許文献1に示されている車両用表示装置は、視点検知カメラで取得した車両の運転席に座るユーザーの視点の位置が低いときに、表示画像がフロントウィンドウシールドの下側に投影されるように、凹面鏡アクチュエータを制御する。したがって、特許文献1に示される車両用表示装置は、車両の運転席に座るユーザーの視点の位置が上下方向に変化したときであっても、フロントウィンドウシールド越しに見える風景のうち虚像が重畳される対象が大きくずれることが防止されるように構成されている。
特開2014-210537号公報
 しかしながら、特許文献1には、ユーザーの視点の位置が左右方向に変化したときの対策については言及されていない。ユーザーの視点の位置が左右方向に変化したときに何かしらの対策も講じないとすると、ユーザーに違和感を与える可能性があることを、本発明者らは認識した。この点について、以下、図16A及び図16Bを用いて説明する。図16Aは、特許文献1に記載されている車両用表示装置において、運転席に座るユーザーが、フロントウィンドウシールド2越しに見える風景及び虚像の例が示されている。図16Aに示される例では、車両前方に存在する他の車両(前方車両)90に、虚像重畳マーク351rが重畳しているようにユーザーに視認される。また、図16Aに示される範囲311rは、このときのユーザーの視点の位置から虚像が視認される範囲である虚像領域311rである。なお、図16Aに示されている座標軸において、x軸正方向は車両の進行方向を向いたユーザーから見て左側を表し、y軸正方向は車両の進行方向を向いたユーザーから見て上側を表し、z軸正方向(図面に対して垂直下方向)は車両前方向(車両進行方向)を表す。
 図16Bには、ユーザーの視点の位置が、図16Aに示される例におけるユーザーの視点の位置から左側に変化したときに、運転席に座るユーザーが、フロントウィンドウシールド2越しに見える風景及び虚像の例が示されている。ユーザーの視点の位置からの距離は、虚像領域の方が、フロントウィンドウシールド2越しに見える風景よりも近い。そのため、ユーザーの視点の位置が例えば左側に変化したときには、虚像領域が、フロントウィンドウシールド2越しに見える風景に対して相対的に右側にずれる。図16Bに示されているように、左側に移動したユーザーの視点の位置からは、虚像領域311leが、図16Aに示されている虚像領域311rと比較して、右側の風景と重畳する。その結果、図16Bに示されている虚像重畳マーク351leは、図16Aに示されている虚像重畳マーク351rと比較して、右側の風景と重畳するため、前方車両90と重畳していない。以上のように、特許文献1に記載されている車両用表示装置では、ユーザーの視点の位置が左右方向に変化することに応じて虚像重畳マークが重畳する風景の対象がずれるため、ユーザーに対して違和感を与える可能性があることを、本発明者らは認識した。
 本発明の1つの目的は、ユーザーの視点の位置の変化に影響されることなく、ユーザーに適切な情報を提供可能な車両用表示装置を提供することにある。本発明の他の目的は、以下に例示する態様及び好ましい実施形態、並びに添付の図面を参照することによって、当業者に明らかになるであろう。
 本発明に従う第1の態様は、車両の運転席に座るユーザーの視点の位置を取得する視点位置取得部と、
 前記車両の前方向の情報である前方情報を取得する前方情報取得部と、
 前記前方情報取得部が取得する前記前方情報のうち、所定領域内に含まれる前記前方情報を反映させた画像を生成する画像生成部と、
 前記画像生成部が生成する前記画像を表示可能な表示面を有する画像表示部と、
 前記車両の透光部材で前記表示面に表示された前記画像が反射されることによって、前記運転席に座る前記ユーザーが虚像を視認できるように、前記画像を前記車両の前記透光部材に向けて投影する投影部と、
 を備え、
 前記画像生成部は、前記表示面において、生成した前記画像に含まれる画像要素のうち、第1画像要素を表示する位置を、前記視点位置取得部が取得する左右方向における前記ユーザーの前記視点の位置に応じて決定する車両用表示装置に関する。
 画像生成部は、視点位置取得部が取得する左右方向におけるユーザーの視点の位置に応じて、画像表示部の表示面において、第1画像要素を表示する位置を決定する。その結果、例えば左右方向におけるユーザーの視点の位置を考慮せず、表示面21の表示面上の一定の位置に第1画像要素を表示する場合と比較して、第1画像要素の虚像が重畳する車外対象物が大きくずれることが防止でき、ユーザーに与える違和感を軽減することができる。
 本発明に従う第2の態様は、第1の態様において、前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が左側にいくにつれて、前記表示面において、前記第1画像要素を表示する前記位置を、左側に対応する方向側に決定する一方で、
 前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が右側にいくにつれて、前記表示面において、前記第1画像要素を表示する前記位置を、右側に対応する方向側に決定してもよい。
 ユーザーの視点の位置が右側に変化したときに、第1画像要素の虚像が車外対象物からずれないようにユーザーに視認されると共に、ユーザーの視点の位置が左側に変化したときに、第1画像要素の虚像が車外対象物からずれないようにユーザーに視認される。
 本発明に従う第3の態様は、第1又は第2の態様において、前記画像生成部は、左右方向における前記ユーザーの前記視点の位置の変化に影響されることなく、前記ユーザーが前記透光部材越しに見える風景のうちの一定の車外対象物と関連性を持つように前記第1画像要素に係る虚像が前記ユーザーに視認されるように、前記表示面において、前記第1画像要素を表示する左右方向に対応する方向における前記位置を決定してもよい。
 左右方向におけるユーザーの視点の位置の変化によって第1画像要素の虚像が車外対象物からずれることがなく、ユーザーに適切な情報を提供することができる。
 本発明に従う第4の態様は、第1から第3の態様において、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置と前記ユーザーの前記視点の基準位置との左右方向における距離が、所定の範囲を超えない距離であるときには、
 前記画像生成部は、前記表示面において、生成した前記画像に含まれる画像要素のうち、前記第1画像要素を表示する左右方向に対応する方向における前記位置を、前記ユーザーの前記視点の位置が前記基準位置である状態において前記第1画像要素が生成される位置と同じ位置に決定すると共に、
 前記第1画像要素を表示する大きさを、前記ユーザーの前記視点の位置が前記基準位置である状態において生成される大きさよりも大きく決定してもよい。
 視点位置取得部によって取得されるユーザーの視点の位置とユーザーの視点の基準位置との左右方向における距離が、所定の範囲を超えない距離であるときには、第1画像要素の表示サイズを大きくすることのみによっても、第1画像要素の虚像が重畳する車外対象物が大きくずれることが防止できる。
 本発明に従う第5の態様は、第1から第4の態様において、前記画像生成部は、前記表示面において、生成した前記画像に含まれる前記画像要素のうち前記第1画像要素と異なる第2画像要素を表示する左右方向に対応する方向における位置を、前記視点位置取得部が取得する左右方向における前記ユーザーの前記視点の位置を考慮せず、一定にしてもよい。
 ユーザーの視点位置が左右方向に変化したときに、第2画像要素の実空間上の左右方向における表示位置が変化しない。その結果、例えば、第2画像要素が文字等で構成されている場合に、ユーザーの視点位置が左右方向に変化したときに、ユーザーが第2画像要素の虚像に表されている情報を認識し辛くなることを防ぐことができる。
 本発明に従う第6の態様は、第1から第5の態様において、前記画像生成部は、前記表示面において、前記第1画像要素を表示する前記位置及び大きさを、さらに、前記視点位置取得部が取得する上下方向における前記ユーザーの前記視点の位置に応じて決定してもよい。
 第6の態様において、画像生成部は、さらに、第1画像要素の虚像が形成される位置を調整できるだけでなく、第1画像要素の虚像が形成されるサイズも調整できる。例えば、投影部の凹面鏡の投影角度等を変更することによって虚像が形成される位置のみが調整可能な車両用表示装置と比較して、虚像が重畳される風景内の対象に対して、大き過ぎる虚像又は小さ過ぎる虚像が、ユーザーによって視認されることを防ぐことができる。その結果、ユーザーの視点の位置が上下方向に変化したときにユーザーに与える違和感を軽減することができる。
 本発明に従う第7の態様は、第6の態様において、前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が上側にいくにつれて、前記表示面において、前記第1画像要素を表示する前記位置を、上側に対応する方向側に決定し、且つ、前記第1画像要素を表示する前記大きさを、上下方向に対応する方向に大きく決定する一方で、
 前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が下側にいくにつれて、前記表示面において、前記第1画像要素を表示する前記位置を、下側に対応する方向側に決定し、且つ、前記第1画像要素を表示する前記大きさを、上下方向に対応する方向に小さく決定してもよい。
 画像生成部は、さらに、上下方向におけるユーザーの視点の位置に応じて、表示面上の第1画像要素の、上下方向に対応する方向における表示位置及び上下方向に対応する方向における表示サイズを適切に決定することができる。
 本発明に従う第8の態様は、第6又は7の態様において、前記画像生成部は、上下方向における前記ユーザーの前記視点の位置の変化に影響されることなく、前記ユーザーが前記透光部材越しに見える前記風景のうち前記第1画像要素に係る前記虚像が重畳する風景の路面における距離の範囲が一定となるように、前記表示面において、前記第1画像要素を表示する上下方向に対応する方向における前記位置及び上下方向に対応する方向における前記大きさを決定してもよい。
 上下方向におけるユーザーの視点の位置の変化に影響されることなく、虚像が重畳する風景の路面における距離の範囲が一定になることによって、ユーザーに適切な情報を提供することができる。
 本発明に従う第9の態様は、第5の態様を引用する第6から8の態様において、前記画像生成部は、前記表示面において、生成した前記画像に含まれる前記第2画像要素を表示する上下方向に対応する方向における位置を、前記視点位置取得部が取得する上下方向における前記ユーザーの前記視点の位置に応じて決定してもよい。
 ユーザーの視点位置が上下方向に変化したときに、第2画像要素の虚像の実空間上の上下方向における大きさが変化しない。その結果、例えば、第2画像要素が文字等で構成されている場合に、ユーザーの視点位置が上下方向に変化したときに、ユーザーが第2画像要素の虚像に表されている情報を認識し辛くなることを防ぐことができる。
 本発明に従う第10の態様は、第9の態様において、前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が上側にいくにつれて、前記表示面において、前記第2画像要素を表示する前記位置を、上側に対応する方向側に決定する一方で、
 前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が下側にいくにつれて、前記表示面において、前記第2画像要素を表示する前記位置を、下側に対応する方向側に決定してもよい。
 ユーザーの視点位置が上下方向に変化したときに、第1画像要素の虚像と第2画像要素の虚像との、実空間上の上下方向における距離が大きく又は小さくなることを防ぐことができる。
 本発明に従う第11の態様は、第9又は10の態様において、前記画像表示部の前記表示面は、前記第1画像要素の表示に使用する第1使用領域と前記第2画像要素の表示に使用する第2使用領域とを少なくとも含み、
 前記画像生成部は、前記視点位置取得部によって取得される左右方向における前記ユーザーの前記視点の位置に応じて、前記第1使用領域の左右方向に対応する方向における位置を決定することによって、前記表示面において、前記第1画像要素を表示する左右方向に対応する方向における前記位置を決定し、且つ、前記視点位置取得部によって取得される上下方向における前記ユーザーの前記視点の位置に応じて、前記第1使用領域の上下方向に対応する方向における位置及び上下方向に対応する方向における前記大きさを決定することによって、前記表示面において、前記第1画像要素を表示する上下方向における前記位置及び上下方向に対応する方向における前記大きさを決定すると共に、
 前記画像生成部は、前記視点位置取得部によって取得される上下方向における前記ユーザーの前記視点の位置に応じて、前記第2使用領域の位置を決定することによって、前記表示面において、前記第2画像要素を表示する前記位置を決定してもよい。
 ユーザーの視点位置の変化に応じて、第1使用領域の表示面上の位置及びサイズを決定することによって、第1画像要素の全ての画像要素の表示面上の表示位置及び表示サイズをまとめて決定することができる。その結果、第1画像要素の各々の画像要素毎に、表示面上の表示位置及び表示サイズを決定する場合と比較して、画像生成部の処理負担が軽減される。同様に、ユーザーの視点位置の変化に応じて、第2使用領域の表示面上の位置を決定することによって、第2画像要素の全ての画像要素の表示面上の表示位置をまとめて決定することができる。その結果、第2画像要素の各々の画像要素毎に、表示面上の表示位置を決定する場合と比較して、画像生成部の処理負担が軽減される。
 本発明に従う第12の態様は、第11の態様において、前記第1使用領域及び前記第2使用領域は、前記表示面において、上下方向に対応する方向、又は、左右方向に対応する方向に並んで配置されてもよい。
 例えば、第1使用領域と第2使用領域とが斜めに並んで配置される場合と比較して、画像生成部による、ユーザーの視点位置の変化に応じた第1使用領域及び第2使用領域の変化の決定にかかる処理負担が軽減される。
本発明の車両用表示装置の構成の例を示すブロック図である。 図1Aに示される画像表示部の構成の例を示す図である。 図1Aに示される投影部の断面図である。 図1Aに示される車両用表示装置を備える車両の運転席に座るユーザーから見える風景及び虚像の例を示す図である。 図1Aに示される車両用表示装置の動作の例を示すフローチャート図である。 ユーザーの視点の位置と図1Aに示される車両用表示装置の画像表示部によって表示される画像との関係を示す図である。 ユーザーの視点の位置と図1Aに示される車両用表示装置の画像表示部によって表示される画像との関係を示す図である。 ユーザーの視点の位置と図1Aに示される車両用表示装置の画像表示部によって表示される画像との関係を示す図である。 図2に示される例から、視点の位置が右側に変化したユーザーから見える風景及び虚像の例を示す図である。 図2に示される例から、視点の位置が左側に変化したユーザーから見える風景及び虚像の例を示す図である。 ユーザーの視点の位置と図1Aに示される車両用表示装置の画像表示部によって表示される画像との関係を示す図である。 ユーザーの視点の位置と図1Aに示される車両用表示装置の画像表示部によって表示される画像との関係を示す図である。 ユーザーの視点の位置と図1Aに示される車両用表示装置の画像表示部によって表示される画像との関係を示す図である。 本発明の車両用表示装置において、ユーザーの視点位置と、ユーザーによって視認される虚像と、この虚像が重畳する風景の路面における距離の範囲との関係を説明するための模式的な図である。 第2実施形態における車両用表示装置を備える車両の運転席に座るユーザーから見える風景及び虚像の例を示す図である。 第2実施形態における車両用表示装置の動作の例を示すフローチャート図である。 第3実施形態における画像表示部の構成の例を示す図である。 第3実施形態における車両用表示装置の動作の例を示すフローチャート図である。 図1Aに示される画像生成部が生成する画像の例を示す図である。 図1Aに示される画像表示部が表示する画像の例を示す図である。 図1Aに示される画像表示部が表示する画像の例を示す図である。 図1Aに示される画像表示部が表示する画像の例を示す図である。 図1Aに示される画像表示部が表示する画像の例を示す図である。 図1Aに示される画像表示部が表示する画像の例を示す図である。 図8に示される使用領域を第1使用領域と第2使用領域とに分割する方法の例を示す図である。 図8に示される使用領域を第1使用領域と第2使用領域とに分割する方法の例を示す図である。 特許文献1(特開2014-210537号公報)に示される車両用表示装置において、左右方向におけるユーザーの視点位置と、ユーザーによって視認される虚像と、この虚像が重畳する風景の対象との関係を説明するための模式的な図である。 特許文献1(特開2014-210537号公報)に示される車両用表示装置において、左右方向におけるユーザーの視点位置と、ユーザーによって視認される虚像と、この虚像が重畳する風景の対象との関係を説明するための模式的な図である。
 以下に説明する好ましい実施形態は、本発明を容易に理解するために用いられている。従って、当業者は、本発明が、以下に説明される実施形態によって不当に限定されないことを留意すべきである。
 《1.第1実施形態》
 図1A、図1B及び図1Cを参照して、本発明の車両用表示装置10の全体の構成の例を説明する。以下の説明を容易にするために、図1Aに示されるように、例えば、車両1の進行方向を向くユーザーから見て、前後方向にz軸を規定し、上下方向(水平な道路を走行している場合は、鉛直方向)にy軸を規定し、左右方向にx軸を規定する。このとき、x軸正方向は左方向(車両左方向)を表し、y軸正方向は上方向(車両上方向)を表し、z軸正方向は前方向(車両前方向)を表す。以下、単に左右方向と言及するときはx軸方向を示し、単に上下方向と言及するときはy軸方向を示す。
 図1Aに示されるように、車両用表示装置10は、画像表示部20と画像生成部30と視点位置取得部40と投影部50と前方情報取得部60とを備える。
 画像表示部20は、図1Bに示されるように、画像を表示可能な表示面21を有する。表示面21のうち、画像を表示可能な領域210を、例えば表示領域210という。表示面21の一例は、図1Bに示されるように、例えば、複数の画素22を有する液晶パネル21である。液晶パネル21において、表示領域210は、例えば、液晶パネル21全体の画素22である。画像表示部20の一例は、例えば液晶パネル21と液晶パネル21の駆動回路26とを有する液晶パネルモジュール20である。
 画像表示部20は、例えば、画像生成部30によって生成される画像を表す信号を入力したときに、表示面21の表示領域210のうち、入力した信号に応じて表示面21の少なくとも一部の画素22を用いて画像を表示する。なお、以下の説明において、適宜、画像表示部20の例として液晶パネルモジュール20を用いて説明するが、画像表示部20は他の表示機器であってもよい。例えば、画像表示部20は、有機EL(Electro Luminescence)素子等の自発光表示パネルモジュールであってもよく、DMD(Digital Micromirror Device)、LCoS(Liquid Crystal on Silicon)(登録商標)等の反射型表示パネルモジュールであってもよく、レーザー光を走査する走査型表示装置等であってもよい。
 以下の説明を容易にするために、図1Bに示されるように、画像表示部20の表示面21を正面から見た視点において、例えば、表示面21の横方向にIx軸を規定し、表示面21の縦方向にIy軸を規定する。このとき、Ix軸正方向は表示面21の左方向を表し、Iy軸正方向は表示面21の上方向を表す。また、表示面21におけるIx軸正方向は、例えば上述したx軸正方向、すなわち車両1の進行方向を向くユーザーから見て左方向に対応する。同様に、表示面21におけるIy軸正方向は、例えば上述したy軸正方向、すなわち車両1の進行方向を向くユーザーから見て上方向に対応する。
 視点位置取得部40は、例えば、車室内画像取得部41と車室内画像解析部42とを含む。視点位置取得部40は、車両1の運転席に座るユーザーの視点の位置100を取得する。以下、車両1の運転席に座るユーザーの視点の位置100を、ユーザー視点位置100とも呼ぶ。視点位置取得部40は、少なくともx軸方向におけるユーザー視点位置100を取得可能に構成される。しかしながら、視点位置取得部40は、x軸方向に加えてy軸方向におけるユーザー視点位置100を取得可能に構成されることが好ましい。
 車室内画像取得部41は、例えば、車室内の画像を撮像する車内カメラである。車室内画像取得部41は、例えば、車両盗難等を防止する目的で取り付けられる共用の車内カメラ等であってもよく、車両用表示装置10専用の車内カメラ等であってもよい。車室内画像取得部41は、ユーザー視点位置100よりも下側からユーザー視点位置100を取得することが好ましく、例えばダッシュボード4等に取り付けられていてもよい。また、車室内画像取得部41は、車室内が暗いときであってもユーザー視点位置100を取得できるように赤外線撮像が可能であることが好ましい。車室内画像取得部41は、例えば、取得した車室内の画像を車室内画像解析部42に出力する。
 車室内画像解析部42は、例えば、公知の画像処理、パターンマッチング手法等を用いて、入力した車室内の画像を解析する。車室内画像解析部42は、入力した車両前方の画像を解析した結果、入力した車室内の画像に運転席に座るユーザーの顔が含まれているときは、ユーザー視点位置100の例えば実空間における座標(x)を特定することによって、ユーザー視点位置100を取得する。車室内画像解析部42は、例えば、取得したユーザー視点位置100を、CAN(Controller Area Network)バス通信等のバス5を介して、画像生成部30に出力する。ここで、車室内画像解析部42は、例えば、車内カメラの中に含まれて設けられていてもよく、画像生成部30が車室内画像解析部42の機能を含んでもよい。また、画像生成部30は、バス5を介さずに車室内画像解析部42からユーザー視点位置100を直接入力してもよい。
 前方情報取得部60は、例えば、前方画像取得部61と前方画像解析部62とを含む。前方情報取得部60は、例えば、車両前方向の道路の車線の位置情報、車両前方向に存在する他の車両及び障害物等の位置情報、車両前方向の道路標識の情報等の車両前方の情報を取得する。
 前方画像取得部61は、例えば、車両前方の画像を撮像する車外カメラである。前方画像取得部61は、例えば、ドライブレコーダー等に用いられている共用の車外カメラ等であってもよく、車両用表示装置10専用の車外カメラ等であってもよい。また、車外カメラは、単眼カメラであってもよいが、車両前方に存在する物体と自車両1との距離を正確に取得するために、車外カメラはステレオカメラであってもよい。また、車外カメラは、車両前方が暗いときであっても車両前方の画像を撮像できるように、赤外線撮像が可能であってもよい。前方画像取得部61は、例えば、取得した車両前方の画像を前方画像解析部62に出力する。
 前方画像解析部62は、例えば、公知の画像処理、パターンマッチング手法等を用いて、入力した車両前方の画像を解析する。前方画像解析部62は、入力した車両前方の画像を解析することによって、車両前方の道路形状に関する前方情報(車線、白線、停止線、横断歩道、道路の幅員、車線数、交差点、カーブ、分岐路等)を取得する。また、前方画像解析部62は、入力した車両前方の画像を解析することによって、車両前方に存在する他の車両、障害物等の位置、大きさ、自車両1との距離、自車両1との相対速度等の前方情報を取得する。前方画像解析部62は、例えば、取得した前方情報を、バス5を介して画像生成部30に出力する。ここで、前方画像解析部62は、例えば、車外カメラの中に含まれて設けられていてもよく、画像生成部30が前方画像解析部62の機能を含んでもよい。また、画像生成部30は、バス5を介さずに前方画像解析部62から前方情報を直接入力してもよい。
 また、前方情報取得部60は、前方画像取得部61の代わりに、又は前方画像取得部61と併せて、レーザーレーダー、ミリ波レーダー、超音波センサ、又は他の公知のセンサ等を有してもよい。このとき、前方画像解析部62は、車両前方の画像の代わりに、又は車両前方の画像と併せて、レーザーレーダー、ミリ波レーダー、超音波センサ、又は公知のセンサ等が出力するデータを入力して解析することによって、上述したような前方情報を取得してもよい。また、前方情報取得部60は、車両前方に存在する物体と自車両1との距離を、前方画像取得部61が撮像する画像において上側に存在する物体程遠く、下側に存在する物体程近いものとして取得してもよい。
 さらに、図1Aでは、車室内画像取得部41及び前方画像取得部61が、車両1の別の場所に取り付けられているように表されているが、必ずしもこの限りではなく、車室内画像取得部41及び前方画像取得部61が車両1の同じ場所に取り付けられていてもよい。また、車室内画像取得部41及び前方画像取得部61は1つの同じ筐体に設けられていてもよい。
 画像生成部30は、処理部31と記憶部32とを含む。処理部31は、例えば、1又は複数のマイクロプロセッサ、マイクロコントローラ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、任意の他のIC(Integrated Circuit)等を有する。記憶部32は、例えば、書き換え可能なRAM(Random Access Memory)、読み出し専用のROM(Read Only Memory)、消去不能なプログラム読み出し専用のEEPROM(Electrically Erasable Programmable Read-Only Memory)、不揮発性メモリであるフラッシュメモリ等のプログラム及び/又はデータを記憶可能な1又は複数のメモリを有する。
 画像生成部30は、例えば、記憶部32に記憶されているプログラムを処理部31が実行することによって、画像表示部20が表示する画像を生成する。画像生成部30は、前方情報取得部60から入力する前方情報に応じて、例えば車両前方の道路に他の車両、障害物等の車外対象物が存在することをユーザーに対して報知可能な画像要素である第1画像要素250を、生成する画像に含ませることができる。すなわち、第1画像要素250は、虚像を路面等の車両前方の風景に重畳させて、画像要素が有する情報と車両前方の風景との関連性を持たせることによって、その画像要素が有する情報をユーザーがより正確に認識できる情報表示である。例えば車両前方の道路に他の車両、障害物等の車外対象物が複数存在するときは、画像生成部30は、複数の第1画像要素250を生成する画像に含ませる。以下、第1画像要素250を、適宜、重畳マーク250とも呼ぶ。なお、重畳マーク250(第1画像要素250)には、例えば、車両1が備える図示されていないナビゲーション装置から入力するルートガイド情報を表す矢印等のマークが含まれていてもよい。
 また、画像生成部30は、視点位置取得部40から入力する左右方向におけるユーザー視点位置100に応じて、画像表示部20の表示面21の表示領域210において、生成した画像に含まれる1又は複数の第1画像要素250、すなわち重畳マーク250を表示する位置を決定する。例えば、画像生成部30の記憶部32には、左右方向におけるユーザー視点位置100と、そのユーザー視点位置100に対応した表示領域210上における重畳マーク250の表示位置を決定するためのパラメータとが対応付けられたテーブルが記憶されている。画像生成部30は、例えば、処理部31がテーブルを参照することによって、入力する左右方向におけるユーザー視点位置100に対応した表示領域210上における重畳マーク250の表示位置を決定する。
 また、例えば、画像生成部30の記憶部32には、左右方向におけるユーザー視点位置100に対応した表示領域210上における重畳マーク250の表示位置を決定するための演算式が記憶されている。画像生成部30は、例えば、処理部31が演算式を演算することによって、入力する左右方向におけるユーザー視点位置100に対応した表示領域210上における重畳マーク250の表示位置を決定する。
 これに加えて、画像生成部30は、視点位置取得部40から入力する上下方向におけるユーザー視点位置100に応じて、画像表示部20の表示面21の表示領域210において、生成した画像に含まれる1又は複数の重畳マーク250を表示する位置及び大きさを、さらに決定してもよい。この場合、記憶部32に記憶されているテーブルには、上下方向におけるユーザー視点位置100と、そのユーザー視点位置100に対応した表示領域210上における重畳マーク250の表示位置及び表示サイズ(大きさ)を決定するためのパラメータとが、さらに対応付けられてもよい。代替的に、記憶部32には、上下方向におけるユーザー視点位置100に対応した表示領域210上における重畳マーク250の表示位置及び表示サイズを決定するための演算式が、さらに記憶されていてもよい。左右方向におけるユーザー視点位置と重畳マーク250が表示される位置との関係と、上下方向におけるユーザー視点位置と重畳マーク250が表示される位置及び大きさとの関係と、については後述する。
 投影部50は、画像表示部20が表示する画像を、車両1のフロントウィンドウシールド2等の透光部材2に向けて投影する。投影された画像を構成する光80は、フロントウィンドウシールド2によって車室内に反射される。以下、画像を構成する光80を画像光80とも呼ぶ。投影部50は、フロントウィンドウシールド2によって反射される画像光80が、ユーザー視点位置100に向かって入射するように、画像を投影する。また、車両1の透光部材2は、車両1に設けられるコンバイナであってもよい。
 運転席に座るユーザーは、画像光80がユーザー視点位置100に入射することによって、フロントウィンドウシールド2を基準にして車両前方側に形成される虚像330を視認することができる。ユーザーは、例えば、フロントウィンドウシールド2越しに見える景色の少なくとも一部と、虚像330とが、重畳した状態で虚像330を視認することができる。この虚像330には、例えば、上述した重畳マーク250の虚像である虚像重畳マーク350が含まれる。
 図1Cを用いて、投影部50の構造の例を説明する。投影部50は、例えば、筐体51の内部に、平面鏡54及び凹面鏡55等の光学系と、凹面鏡アクチュエータ56とを収納する。筐体51は、例えば、車両1のダッシュボード4の中に配置され、黒色の遮光性合成樹脂等で形成される上ケース52及び下ケース53を含む。上ケース52のz軸方向略中間には、上ケース開口部52aが設けられている。上ケース開口部52aは、例えば、透明の透光性合成樹脂等で形成される透明カバー57によって覆われている。下ケース53の車両後方側には、例えば、下ケース開口部53aが設けられている。下ケース開口部53aは、例えば、筐体51の外部に取り付けられる画像表示部20の表示面21から発せられる画像光80が入射可能に、下ケース53に設けられている。
 平面鏡54は、例えば、図示されていない取り付け部材を介して下ケース53の車両後方側に取り付けられている。平面鏡54は、例えば、下ケース開口部53aから入射する表示面21から発せられる画像光80を車両前方向に向けて反射するように、その取り付け位置及びその取り付け角度が固定されている。
 凹面鏡55は、例えば、凹面鏡アクチュエータ56を介して下ケース53の平面鏡54より車両前方側に取り付けられている。凹面鏡55は、凹面鏡アクチュエータ56によって、例えばx軸を回転軸として取り付け角度が回転させられ得る。凹面鏡55は、例えば、平面鏡54によって反射される画像光80を入射するように位置が固定され、入射する画像光80をフロントウィンドウシールド2に向かって反射するように、取り付け角度が微調整される。なお、取り付け角度に応じて、例えば、画像生成部30の記憶部32が記憶するユーザー視点位置100と、そのユーザー視点位置100に対応した表示領域210上における重畳マーク250の表示位置及び表示サイズを決定するためのテーブル又は演算式が補正される。
 凹面鏡アクチュエータ56は、例えば、いずれも図示されていないモータ、減速機構、凹面鏡回転部材及び凹面鏡55の支持部材を含む。凹面鏡アクチュエータ56は、例えば、図示されていない取り付け部材を介して凹面鏡55の下側に下ケース53に取り付けられている。凹面鏡アクチュエータ56は、図示されていないアクチュエータ制御部から入力する信号に応じてモータを回転させ、減速機構によってモータの回転を減速して、凹面鏡回転部材に伝達し、凹面鏡55を回転させる。なお、凹面鏡アクチュエータ56は、必ずしも設けられている必要はない。
 また、図1Cの筐体51の上ケース52において、上ケース開口部52aと平面鏡54との間には、遮光部52bが設けられている。遮光部52bは、例えば、上ケース開口部52aから入射する筐体51外部からの光が画像表示部20へ進行することを防止するために設けられる。図1Cを参照して説明した投影部50の構造の例は、一例に過ぎず、車両用表示装置10の投影部50の構造を何ら制限するものではない。
 図2には、車両1の運転席に座るユーザーが、フロントウィンドウシールド2越しに見える風景及び虚像の例が示されている。図2に示される例において、フロントウィンドウシールド2越しに見える風景の例として、車両前方に延びる3車線道路等及び車両前方に存在する他の車両(前方車両)90が示されている。なお、図2に示される例は、後述する基準ユーザー視点位置100rからユーザーが見た、フロントウィンドウシールド2越しに見える風景及び虚像の例である。
 図2に示されるフロントウィンドウシールド2越しに見える風景の例において、車外対象物は、前方車両90である。図2に示される例において、虚像に、虚像重畳マーク350が含まれている。図2に示される例において、虚像重畳マーク350は、前方車両90と重畳されてユーザーに視認される。なお、図2に示される例においては、1個の虚像重畳マーク350が表されているが、例えば前方車両等の車外対象物が複数存在するときは、複数の虚像重畳マーク350がユーザーによって視認される。なお、図2において、虚像重畳マーク350は、車外対象物である前方車両90に重畳する位置に表示制御されているが、車外対象物と一定の距離だけ離間した位置に表示制御されてもよい。このように表示制御することによっても、虚像重畳マーク350が車外対象物である前方車両90と関連性を持つようにユーザーに視認される。
 また、図2に示される例において、領域310は、画像表示部20の表示面21の表示領域210に対応する領域310である。以下、画像表示部20の表示面21の表示領域210に対応する領域310を虚像表示領域310とも呼ぶ。すなわち、虚像表示領域310は、ユーザーが虚像を視認可能な領域である。
 したがって、画像生成部30は、フロントウィンドウシールド2越しに見える風景のうち虚像表示領域310と重畳する領域に含まれる前方情報を反映させた画像を生成する。すなわち、画像生成部30は、フロントウィンドウシールド2越しに見える風景のうち虚像表示領域310と重畳する領域に含まれる1又は複数の車外対象物を報知するための1又は複数の重畳マーク250を含んだ画像を生成する。
 図3を参照して、車両用表示装置10の動作の例を説明する。車両用表示装置10の動作は、例えば、車両1の電源がONされたとき、図示されていないエンジンが始動されたとき、又は、車両1の電源がONもしくはエンジンが始動されたときから所定待機時間が経過した後等に開始される。
 ステップS01では、前方情報取得部60が前方情報を取得する。ステップS02では、視点位置取得部40が左右方向におけるユーザー視点位置100を取得する。なお、ステップS01及びステップS02は、必ずしもこの順番である必要はなく、順番が入れ替わってもよい。また、ステップS02では、視点位置取得部40が上下方向におけるユーザー視点位置100を、さらに取得してもよい。
 ステップS03では、画像生成部30は、ステップS01で前方情報取得部60によって取得された前方情報に応じて、例えば、重畳マーク250を含ませた画像を生成する。なお、画像生成部30は、ユーザー視点位置100に応じた画像を生成する必要はない。
 ステップS04では、画像生成部30は、ステップS02で視点位置取得部40によって取得された左右方向におけるユーザー視点位置100に応じて、ステップS03で生成された画像に含まれる重畳マーク250を表示する表示面21の表示領域210上の位置を決定する。また、画像生成部30は、ステップS02で上下方向におけるユーザー視点位置100を取得しているときには、さらに、上下方向におけるユーザー視点位置100に応じて、重畳マーク250を表示する表示面21の表示領域210上の位置及び大きさを決定してもよい。
 ステップS05では、画像表示部20は、ステップS03で画像生成部30によって生成された画像を表示面21の表示領域210に表示する。このとき、画像表示部20は、ステップS04において左右方向におけるユーザー視点位置100に応じて決定された表示領域210上の位置に重畳マーク250を表示する。また、ステップS04において上下方向におけるユーザー視点位置100に応じて、重畳マーク250を表示する表示面21の表示領域210上の位置及び大きさを決定しているときには、さらにこの位置及び大きさを反映させて、重畳マーク250を表示させてもよい。
 ステップS05の処理を実行すると、フローはStartに戻る。ここで、図3に示されるフローチャートが、予め設定された所定間隔毎に繰り返して実行されるように、ステップS05の処理の実行が終了した後フローがStartに戻るまでの間に、所定の待機時間が挿入されていてもよい。
 図4A、図4B及び図4Cを参照して、左右方向におけるユーザー視点位置100と重畳マーク250が表示される位置との関係について説明する。図4A、図4B及び図4Cの左側には、実空間上におけるユーザー視点位置100を表す座標軸が示される。また、図4A、図4B及び図4Cの右側には、実空間上のx軸におけるユーザー視点位置100に応じて画像生成部30が決定する、表示面21上の重畳マーク250の表示位置が示される。
 図4Aの左側には、xy軸におけるユーザー視点位置100rが示されている。以下、図4Aに示されるユーザー視点位置100rを、便宜的に、基準ユーザー視点位置100rとも呼ぶ。基準ユーザー視点位置100rは、車両1の運転席に座るユーザーが適切な運転姿勢をとっているときの視点の位置である、ユーザーの視点の基準位置として、車両用表示装置10の工場出荷時に画像生成部30の記憶部32に記憶されていてもよい。また、基準ユーザー視点位置100rは不変である必要はなく、例えば車両1の車種、運転席に座るユーザーの身長等によって可変であってもよい。例えば、図3に示されるステップS02で取得される左右方向におけるユーザー視点位置100が基準ユーザー視点位置100rであるとき、図3に示されるステップS04で、画像生成部30は、表示面21上の重畳マーク250の表示位置を図4Aの右側に示される重畳マーク250rのように決定する。以下、図4Aに示される、基準ユーザー視点位置100rに対応する重畳マーク250rを、便宜的に、基準重畳マーク250rとも呼ぶ。
 図4Bに示されるユーザー視点位置100riは、基準ユーザー視点位置100rと比較して右側に位置するユーザー視点位置100の例である。例えば、図3に示されるステップS02で取得されるユーザー視点位置100がユーザー視点位置100riであるときには、図3に示されるステップS04で、画像生成部30は、表示面21上の重畳マーク250の表示位置を図4Bの右側に示される重畳マーク250riのように決定する。
 図4Bに示される重畳マーク250riは、基準重畳マーク250rと比較して、Ix軸負方向側に位置する。このように、視点位置取得部40によって検出されるユーザー視点位置100が右側にいくにつれて、画像生成部30は、表示面21上の重畳マーク250の表示位置をIx軸負方向側に位置するように決定する。
 図4Cに示されるユーザー視点位置100leは、基準ユーザー視点位置100rと比較して左側に位置するユーザー視点位置100の例である。例えば、図3に示されるステップS02で取得されるユーザー視点位置100がユーザー視点位置100leであるときには、図3に示されるステップS04で、画像生成部30は、表示面21上の重畳マーク250の表示位置を図4Cの右側に示される重畳マーク250leのように決定する。
 図4Cに示される重畳マーク250leは、基準重畳マーク250rと比較して、Ix軸正方向側に位置する。このように、視点位置取得部40によって検出されるユーザー視点位置100が左側にいくにつれて、画像生成部30は、表示面21上の重畳マーク250の表示位置をIx軸正方向側に位置するように決定する。
 このように、車両用表示装置10では、左右方向におけるユーザー視点位置100に応じて、生成された画像に含まれる重畳マーク250を表示する表示面21の表示領域210上の位置を決定する。その結果、例えば、左右方向におけるユーザー視点位置100を考慮せず、表示面21の表示領域210上の一定の位置に重畳マーク250を表示する場合と比較して、虚像重畳マーク350が重畳する車外対象物が大きくずれることが防止でき、ユーザーに与える違和感を軽減することができる。
 図5Aには、図4Bに示されるユーザー視点位置100riから、フロントウィンドウシールド2越しに見える風景及び虚像の例が示されている。図5Aに示されているユーザー視点位置100riから見た虚像領域310riは、図2に示されている基準ユーザー視点位置100rから見た虚像領域310と比較して左側にずれているように、ユーザー視点位置100riにおけるユーザーから見える。これに伴って虚像重畳マークも左側にずれることを防止するために、画像生成部30は、図4Bを参照して説明したように、ユーザー視点位置100が右側にいくにつれて、表示面21上の重畳マーク250の表示位置をIx軸負方向側に位置するように決定する。その結果、ユーザー視点位置100が右側に変化したときに、虚像重畳マーク350riが車外対象物の例である前方車両90からずれないように、ユーザーに視認される。
 図5Bには、図4Cに示されるユーザー視点位置100leから、フロントウィンドウシールド2越しに見える風景及び虚像の例が示されている。図5Bに示されているユーザー視点位置100leから見た虚像領域310leは、図2に示されている基準ユーザー視点位置100rから見た虚像領域310と比較して右側にずれているように、ユーザー視点位置100leにおけるユーザーから見える。これに伴って虚像重畳マークも右側にずれることを防止するために、画像生成部30は、図4Cを参照して説明したように、ユーザー視点位置100が左側にいくにつれて、表示面21上の重畳マーク250の表示位置をIx軸正方向側に位置するように決定する。その結果、ユーザー視点位置100が左側に変化したときに、虚像重畳マーク350leが車外対象物の例である前方車両90からずれないように、ユーザーに視認される。
 画像生成部30は、左右方向におけるユーザー視点位置100の変化に影響されずに、一定の車外対象物に対して虚像重畳マーク350が重畳するように、表示面21上のIx軸方向における重畳マーク250の表示位置を決定することが好ましい。そのために、ユーザー視点位置100と虚像重畳マーク350を重畳させる車外対象物との距離が近くなるにつれて、画像生成部30は、ユーザー視点位置100の基準ユーザー視点位置100rからの左右方向における移動量に対する、重畳マーク250の基準重畳マーク250rからの表示面21上のIx軸方向における移動量を大きくする。
 これによって、左右方向におけるユーザー視点位置100の変化によって虚像重畳マーク350が車外対象物からずれることがなく、ユーザーに適切な情報を提供することができる。しかしながら、例えば、画像生成部30は、基準ユーザー視点位置100rと、これよりも左側と、右側との、3段階の左右方向におけるユーザー視点位置100に応じて、表示領域210上における重畳マーク250の表示位置を3段階に決定してもよい。
 また、視点位置取得部40によって取得されるユーザー視点位置100と基準ユーザー視点位置100rとの左右方向における距離が、所定の範囲を超えない距離であるときには、画像生成部30は、図6に示されるように、重畳マーク250を表示領域210上に表示してもよい。図6に示されるユーザー視点位置100le-vs(又はユーザー視点位置100ri-vs)は、基準ユーザー視点位置100rとの左右方向における距離が所定の範囲を超えないユーザー視点位置であるとする。このとき、画像生成部30は、表示領域210上に表示する重畳マーク250le-vs(又は重畳マーク250ri-vs)の、Ix軸方向における表示位置を、基準ユーザー視点位置100rのときの重畳マーク250の表示位置と同じIx座標に決定する。それと同時に画像生成部30は、少なくとも、表示領域210上の重畳マーク250le-vs(又は重畳マーク250ri-vs)のIx軸方向の表示サイズ251le-vs(又は表示サイズ251ri-vs)を、基準ユーザー視点位置100rのときの重畳マーク250のIx軸方向の表示サイズ251rよりも大きくなるように決定する。また、画像生成部30は表示領域210上の重畳マーク250le-vs(又は重畳マーク250ri-vs)のIy軸方向の表示サイズも、基準ユーザー視点位置100rのときの重畳マーク250のIx軸方向の表示サイズよりも大きくなるように決定してもよい。
 視点位置取得部40によって取得されるユーザー視点位置100と基準ユーザー視点位置100rとの左右方向における距離が、所定の範囲を超えない距離であるときには、重畳マーク250の表示サイズを大きくすることのみによっても、虚像重畳マーク350が重畳する車外対象物が大きくずれることが防止できる。なお、画像生成部30が複数の重畳マーク250を表示するときには、ユーザー視点位置100と基準ユーザー視点位置100rとの左右方向における距離が所定の範囲を超えるか否かは、複数の重畳マーク250毎に個別に判定してもよい。例えば、ユーザー視点位置100と車外対象物との距離が遠くなるにつれてこの所定の範囲が大きくなってもよい。
 図7A及び図7Bを参照して、上下方向におけるユーザー視点位置100と重畳マーク250が表示される位置及び大きさとの関係について説明する。図7A及び図7Bの左側には、実空間上のy軸におけるユーザー視点位置100を表す座標軸が示される。また、図7A及び図7Bの右側には、実空間上のy軸におけるユーザー視点位置100に応じて画像生成部30が決定する、表示面21上の重畳マーク250の表示位置及び表示サイズが示される。
 図7Aに示されるユーザー視点位置100uは、図4Aに示される基準ユーザー視点位置100rと比較して上側に位置するユーザー視点位置100の例である。例えば、図3に示されるステップS02で取得されるユーザー視点位置100がユーザー視点位置100uであるとき、図3に示されるステップS04で、画像生成部30は、表示面21上の重畳マーク250の表示位置及び表示サイズを図7Aの右側に示される重畳マーク250uのように決定する。
 図7Aに示される重畳マーク250uは、基準重畳マーク250rと比較して、Iy軸正方向側に位置する。また、図7Aに示される重畳マーク250uにおけるIy軸方向の大きさ252uは、基準重畳マーク250rにおけるIy軸方向の大きさ252rと比較して、大きくなっている。
 このように、視点位置取得部40によって検出されるユーザー視点位置100が上側にいくにつれて、画像生成部30は、表示面21上の重畳マーク250の表示位置をIy軸正方向側に位置するように決定する。すなわち、画像生成部30は、ユーザー視点位置100が、現時点のユーザー視点位置100を基準にして図示されていない車両1のルーフに近づくときに、表示面21上の重畳マーク250の表示位置を、現時点の表示位置を基準にしてIy軸正方向側に位置するように決定する。また、視点位置取得部40によって検出されるユーザー視点位置100が上側にいくにつれて、画像生成部30は、表示面21上の重畳マーク250の表示サイズをIy軸方向に大きくなるように決定する。すなわち、画像生成部30は、ユーザー視点位置100が、現時点のユーザー視点位置100を基準にして図示されていない車両1のルーフに近づくときに、表示面21上の重畳マーク250の表示サイズを、現時点の表示サイズを基準にしてIy軸方向に大きくなるように決定する。
 図7Bに示されるユーザー視点位置100dは、基準ユーザー視点位置100rと比較して下側に位置するユーザー視点位置100の例である。例えば、図3に示されるステップS02で取得されるユーザー視点位置100がユーザー視点位置100dであるとき、図3に示されるステップS04で、画像生成部30は、表示面21上の重畳マーク250の表示位置及び表示サイズを図7Bの右側に示される重畳マーク250dのように決定する。
 図7Bに示される重畳マーク250dは、基準重畳マーク250rと比較して、Iy軸負方向側に位置する。また、図7Bに示される重畳マーク250dにおけるIy軸方向の大きさ252dは、基準重畳マーク250rにおけるIy軸方向の大きさ252rと比較して、小さくなっている。
 すなわち、視点位置取得部40によって検出されるユーザー視点位置100が下側にいくにつれて、画像生成部30は、表示面21上の重畳マーク250の表示位置をIy軸負方向側に位置するように決定する。すなわち、画像生成部30は、ユーザー視点位置100が、現時点のユーザー視点位置100を基準にして車両1のフロアに近づくときに、表示面21上の重畳マーク250の表示位置を、現時点の表示位置を基準にしてIy軸負方向側に位置するように決定する。また、視点位置取得部40によって検出されるユーザー視点位置100が下側にいくにつれて、画像生成部30は、表示面21上の重畳マーク250の表示サイズをIy軸方向に小さくなるように決定する。すなわち、画像生成部30は、ユーザー視点位置100が、現時点のユーザー視点位置100を基準にして車両1のフロアに近づくときに、表示面21上の重畳マーク250の表示サイズを、現時点の表示サイズを基準にしてIy軸方向に小さくなるように決定する。
 図8は、車両用表示装置10において、上下方向におけるユーザー視点位置100と、重畳マーク250の虚像(虚像重畳マーク350)と、虚像重畳マーク350が重畳する風景の路面70における距離の範囲との関係を説明するための模式的な図である。なお、図8は、上下方向におけるユーザー視点位置100と、虚像重畳マーク350と、虚像重畳マーク350が重畳する風景の路面70における距離の範囲との関係を分かりやすく説明するために、ユーザー視点位置100の変化量を誇張して表現している。具体的に、図8に示される、ユーザー視点位置100rとユーザー視点位置100u、ユーザー視点位置100rとユーザー視点位置100dの上下方向における距離は、実際にはもっと近い。虚像重畳マーク350が重畳する風景の路面70における距離の範囲を、以下、重畳距離範囲400とも呼ぶ。
 図8には、図4Aに示されるユーザー視点位置100rのときの虚像重畳マーク350rと、図7Aに示されるユーザー視点位置100uのときの虚像重畳マーク350uと、図7Bに示されるユーザー視点位置100dのときの虚像重畳マーク350dとが示されている。虚像重畳マーク350uは、図7Aに示される重畳マーク250uに対応する虚像330であるので、図4Aに示される基準重畳マーク250rに対応する虚像330である虚像重畳マーク350rと比較して、実空間上の上側に位置し、且つ、実空間上の上下方向の大きさが大きくなる。同様に、虚像重畳マーク350dは、図7Bに示される重畳マーク250dに対応する虚像330であるので、図4Aに示される基準重畳マーク250rに対応する虚像330である虚像重畳マーク350rと比較して、実空間上の下側に位置し、且つ、実空間上の上下方向の大きさが小さくなる。
 また、図8には、ユーザー視点位置100rのときにフロントウィンドウシールド2越しに見える風景のうち、虚像重畳マーク350rと重畳する風景の路面70における距離の範囲である重畳距離範囲400rと、ユーザー視点位置100uのときにフロントウィンドウシールド2越しに見える風景のうち、虚像重畳マーク350uと重畳する風景の路面70における距離の範囲である重畳距離範囲400uと、ユーザー視点位置100dのときにフロントウィンドウシールド2越しに見える風景のうち、虚像重畳マーク350dと重畳する風景の路面70における距離の範囲である重畳距離範囲400dとが示されている。
 図8を参照すると、重畳距離範囲400rと重畳距離範囲400uと重畳距離範囲400dとが一致している。図8に示される例のように、ユーザー視点位置100の上下方向における変化量に対して、虚像重畳マーク350の上下方向における変化量が小さくなる。そうすると、例えば、ユーザー視点位置100が上側にいくにつれて、ユーザーが虚像重畳マーク350を見る視線と水平面との角度が大きくなる。その一方で、例えば、ユーザー視点位置100が下側にいくにつれて、ユーザーが虚像重畳マーク350を見る視線と水平面との角度が小さくなる。
 その結果、上下方向におけるユーザー視点位置100に影響されることなく重畳距離範囲400を一定にするためには、ユーザー視点位置100が上側にいくにつれて、虚像重畳マーク350の上下方向の位置を上側にするだけでなく、上下方向の大きさを大きくする必要がある。同様に、上下方向におけるユーザー視点位置100に影響されることなく重畳距離範囲400を一定にするためには、ユーザー視点位置100が下側にいくにつれて、虚像重畳マーク350の上下方向の位置を下側にするだけでなく、上下方向の大きさを小さくする必要がある。
 以上のように、車両用表示装置10の画像生成部30は、上下方向におけるユーザー視点位置100に応じて、表示面21上の重畳マーク250のIy軸における表示位置及び、Iy軸方向における表示サイズを適切に決定することができる。すなわち、車両用表示装置10の画像生成部30は、視点位置取得部40が取得するユーザー視点位置100に応じて、表示面21上の重畳マーク250の上下方向における表示位置を調整できるだけでなく、表示面21上の重畳マーク250の上下方向における表示サイズも調整可能である。その結果、上下方向におけるユーザー視点位置100に影響されることなく、重畳距離範囲400を一定にすることができる。
 重畳距離範囲400が一定になることによって、ユーザー視点位置100が上下方向に変化したときに、フロントウィンドウシールド2越しに見える風景のうち虚像重畳マーク350が重畳される報知対象物がずれることを防ぐことができる。同時に、この報知対象物に対して、大き過ぎる虚像重畳マーク350又は小さ過ぎる虚像重畳マーク350が、ユーザーによって視認されることを防ぐことができる。その結果、ユーザー視点位置100が上下方向に変化したときにユーザーに与える違和感を軽減することができる。よって、本発明の車両用表示装置10は、ユーザー視点位置100に影響されることなく、ユーザーに適切な情報を提供することができる。
 なお、ここでは、上下方向におけるユーザー視点位置100の変化に影響されずに、重畳距離範囲400が一定になるように説明したが、必ずしもこの限りではない。すなわち、例えば、画像生成部30は、基準ユーザー視点位置100rと、これよりも上側と、下側との、3段階の上下方向におけるユーザー視点位置100に応じて、表示領域210上における重畳マーク250の表示位置及び表示サイズを3段階に決定してもよい。
 《2.第2実施形態》
 本発明の車両用表示装置10の第2実施形態を説明する。第2実施形態は、上述した第1実施形態の変形例であるので、第1実施形態と異なる部分のみを説明し、同様の部分については説明を省略する。また、第1実施形態と共通する構成要素は、第1実施形態の説明に使用された符号と同じ符号を用いる。
 上述した車両用表示装置10の第1実施形態は、車両1の運転席に座るユーザーに対して、車両1の前方に報知対象物が存在することを報知する虚像重畳マーク350を適切に視認させるものであった。これから説明する車両用表示装置10の第2実施形態は、車両1の運転席に座るユーザーに対して、虚像重畳マーク350を適切に視認させるだけでなく、車両1の走行速度等の情報を提供する、後述する虚像非重畳マーク370も適切に視認させるものである。
 第2実施形態では、画像生成部30は、例えば、車両1が備える図示されていないECU(Electronic Control Unit)及び/又は装置等からバス5を介して又は直接入力する信号に含まれる情報を、ユーザーに提供可能な画像要素である第2画像要素270を、生成画像に含ませることができる。車両1が備える図示されていないECUから入力する信号に含まれる情報とは、例えば、燃料残量、現在の車速、燃費、バッテリの残量等に関する情報である。また、車両1が備える図示されていない装置から入力する信号に含まれる情報とは、例えば図示されていないナビゲーション装置から入力する、現在車両1が走行している道路の制限速度情報等がある。すなわち、第2画像要素270は、第1画像要素250とは異なり、虚像を路面等の車両前方の風景に重畳させることなく、画像要素が有する情報をユーザーが正確に認識できる情報表示である。
 例えば、車両1が備える図示されていないECU及び/又は装置等から入力する信号に含まれる情報が複数であるときは、画像生成部30は、複数の第2画像要素270を生成画像に含ませることができる。以下、第2画像要素270を、適宜、非重畳マーク270とも呼ぶ。
 図9には、第2実施形態において、車両1の運転席に座るユーザーが、フロントウィンドウシールド2越しに見える風景及び虚像の例が示されている。図9に示される例では、図2に示された例に加えて、現在車両1が走行している道路の制限速度を表す虚像非重畳マーク370-1及び車両1の現在の走行速度を表す虚像非重畳マーク370-2が、さらに示されている。
 ここで、図9に示される例においても、虚像重畳マーク350は、第1実施形態と同様に、ユーザー視点位置100の左右方向における変化に応じて、実空間上の左右方向における位置が変化する。その結果、左右方向におけるユーザー視点位置100に影響されることなく、虚像重畳マーク350が一定の車外対象物に対して重畳することができる。また、虚像重畳マーク350は、第1実施形態と同様に、ユーザー視点位置100の上下方向における変化に応じて、さらに実空間上の上下方向における位置及び大きさが変化してもよい。その結果、上下方向におけるユーザー視点位置100に影響されることなく、虚像重畳マーク350の重畳距離範囲400を一定にすることができる。
 ここで、虚像非重畳マーク370-1,370-2は、フロントウィンドウシールド2越しに見える風景のうちの報知対象物に重畳した状態で、ユーザーに視認される必要がない。また、図9に示される例のように、特に、虚像非重畳マーク370が数字等の文字であるときには、ユーザー視点位置100の変化に応じて、実空間上の左右方向又は上下方向における虚像非重畳マーク370の位置が変化することによって、ユーザーが虚像非重畳マーク370に表されている情報を認識し辛くなることが想定される。さらに、実空間上の上下方向における虚像非重畳マーク370の大きさが変化することによっても、ユーザーが虚像非重畳マーク370に表されている情報を認識し辛くなることが想定される。
 したがって、第2実施形態においては、画像生成部30は、左右方向におけるユーザー視点位置100を考慮せず、表示面21上の非重畳マーク270のIx軸方向における表示位置を、予め設定された一定のIx軸方向における表示位置に決定する。これに加えて、第2実施形態において、画像生成部30は、上下方向におけるユーザー視点位置100に応じて、表示面21上の非重畳マーク270のIy軸における表示位置のみを決定してもよい。このとき、画像生成部30は、上下方向におけるユーザー視点位置100が変化したときに、表示面21上の非重畳マーク270のIy軸における表示サイズを変化させない。なお、第2実施形態においても、重畳マーク250については、第1実施形態と同様に、上下方向におけるユーザー視点位置100に応じて、表示面21上の重畳マーク250のIy軸における表示位置及び、Iy軸方向における表示サイズを適切に決定する。
 第2実施形態の、画像生成部30による、上下方向におけるユーザー視点位置100に応じた、表示面21上の非重畳マーク270のIy軸における表示位置の決定は、第1実施形態における画像生成部30による、上下方向におけるユーザー視点位置100に応じた、表示面21上の重畳マーク250のIy軸における表示位置の決定と同様である。すなわち、視点位置取得部40によって検出されるユーザー視点位置100が上側にいくにつれて、画像生成部30は、表示面21上の非重畳マーク270の表示位置をIy軸正方向側に位置するように決定する。同様に、視点位置取得部40によって検出されるユーザー視点位置100が下側にいくにつれて、画像生成部30は、表示面21上の非重畳マーク270の表示位置をIy軸負方向側に位置するように決定する。
 図10を参照して、車両用表示装置10の第2実施形態の動作の例を説明する。図10に示される車両用表示装置10の第2実施形態の動作のフローチャートは、図3に示される第1実施形態の動作のフローチャートの一部が変更されたものである。具体的に、図10に示されるフローチャートは、図3に示されるフローチャートのステップS04とステップS05との間に、新しい処理ステップ(ステップS105)を挿入したものに相当する。それ以外の処理については、図3に示されるフローチャートと同様である。したがって、図10に示されるフローチャートについては、図3に示されるフローチャートと異なる部分のみ説明し、同様の部分については対応関係を示して説明を省略する。
 ステップS101は、図3に示されるフローチャートのステップS01に対応する。ステップS102は、図3に示されるフローチャートのステップS02に対応する。
 ステップS103は、図3に示されるフローチャートのステップS03に対応する。ただし、ステップS103においては、画像生成部30は、ステップS01で前方情報取得部60によって取得された前方情報に応じて、例えば、重畳マーク250に加えて、非重畳マーク270も含ませた画像を生成する。
 ステップS104は、図3に示されるフローチャートのステップS04に対応する。ステップS105では、画像生成部30は、ステップS02で視点位置取得部40によって取得された左右方向におけるユーザー視点位置100を考慮せず、表示面21上の非重畳マーク270のIx軸における表示位置を、予め設定された一定のIx軸方向における表示位置に決定する。また、画像生成部30は、ステップS02で視点位置取得部40によって取得された上下方向におけるユーザー視点位置100に応じて、ステップS03で生成された画像に含まれる非重畳マーク270を表示する表示面21の表示領域210上のIy軸方向の位置を決定する。
 ステップS106は、図3に示されるフローチャートのステップS05に対応する。ただし、ステップS106では、画像表示部20は、重畳マーク250をステップS104で画像生成部30によって決定された表示領域210上の位置及び大きさで表示すると共に、ステップS105で画像生成部30によって決定された表示領域210上のIy軸方向の位置に、非重畳マーク270を表示する。
 ステップS106の処理を実行すると、フローはStartに戻る。なお、ステップS104及びステップS105は、必ずしもこの順番である必要はなく、順番が入れ替わっていてもよい。
 以上のように、車両用表示装置10の第2実施形態では、車両用表示装置10の画像生成部30は、上下方向におけるユーザー視点位置100に応じて、表示面21上の非重畳マーク270のIy軸における表示位置を適切に決定することができる。すなわち、非重畳マーク270の虚像である虚像非重畳マーク370は、上下方向におけるユーザー視点位置100が変化したときに、虚像重畳マーク350との相対位置関係は保たれる。その結果、ユーザー視点位置100が上下方向に変化したときに、虚像重畳マーク350と虚像非重畳マーク370との、実空間上の上下方向における距離が大きく又は小さくなることを防ぐことができる。
 さらに、ユーザー視点位置100が上下方向に変化したときに、虚像非重畳マーク370の実空間上の上下方向における大きさが変化しない。その結果、ユーザー視点位置100が上下方向に変化したときに、仮に虚像非重畳マーク370の実空間上の上下方向における大きさを変化させる場合と比較して、ユーザーが虚像非重畳マーク370に表されている情報を認識し辛くなることを防ぐことができる。
 《3.第3実施形態》
 本発明の車両用表示装置10の第3実施形態を説明する。第3実施形態は、上述した第1実施形態及び第2実施形態の変形例であるので、第1実施形態及び第2実施形態と異なる部分のみを説明し、同様の部分については説明を省略する。また、第1実施形態又は第2実施形態と共通する構成要素は、第1実施形態又は第2実施形態の説明に使用された符号と同じ符号を用いる。
 上述した車両用表示装置10の第2実施形態は、ユーザー視点位置100の左右方向における変化に応じて、画像生成部30が、重畳マーク250の表示面21上のIx軸方向の表示位置を直接決定するものであった。加えて、ユーザー視点位置100の上下方向における変化に応じて、画像生成部30が、重畳マーク250の表示面21上のIy軸方向の表示位置及び表示サイズと、非重畳マーク270の表示面21上のIy軸方向の表示位置とを直接決定するものであった。これから説明する車両用表示装置10の第3実施形態は、ユーザー視点位置100の左右方向における変化に応じて、画像生成部30が、重畳マーク250を表示する表示面21上の領域(第1使用領域240)のIx軸方向の位置を決定する。加えて、ユーザー視点位置100の上下方向における変化に応じて、画像生成部30が、重畳マーク250を表示する表示面21上の領域(第1使用領域240)のIy軸方向の位置及び大きさと非重畳マーク270を表示する表示面21上の領域(第2使用領域260)のIy軸方向の位置とを決定する。その結果、重畳マーク250の表示面21上の表示位置及び表示サイズと、非重畳マーク270の表示面21上の表示位置とが間接的に決定されるものである。
 図11に示される画像表示部20の例では、画像生成部30によって決定された第1使用領域240と第2使用領域260とが示されている。第1使用領域240は、例えば、図6に示される画像表示部20の例において、液晶パネル21の画素22全体である表示領域210のうち重畳マーク250の表示に使用する画素22の範囲240である。第2使用領域260は、例えば、図6に示される画像表示部20の例において、液晶パネル21の画素22全体である表示領域210のうち非重畳マーク270の表示に使用する画素22の範囲260である。また、第1使用領域240と第2使用領域260とを合わせて使用領域220とも呼ぶ。すなわち、第3実施形態では、使用領域220内に画像生成部30によって生成される画像が表示され、使用領域220の外については画像が表示されない。
 図12を参照して、車両用表示装置10の第3実施形態の動作の例を説明する。図12に示される車両用表示装置10の第3実施形態の動作のフローチャートは、図7に示される第2実施形態の動作のフローチャートの一部が変更されたものである。具体的に、図12に示されるフローチャートは、図7に示されるフローチャートのステップS104に相当する処理ステップ(ステップS204)と、ステップS105に相当する処理ステップ(ステップS205)とが異なるものである。それ以外の処理については、図7に示されるフローチャートと同様である。したがって、図12に示されるフローチャートについては、図7に示されるフローチャートと異なる部分のみ説明し、同様の部分については対応関係を示して説明を省略する。
 ステップS201は、図7に示されるフローチャートのステップS101に対応する。ステップS202は、図7に示されるフローチャートのステップS102に対応する。ステップS203は、図7に示されるフローチャートのステップS103に対応する。
 ステップS204では、画像生成部30は、ステップS202で視点位置取得部40によって取得された左右方向におけるユーザー視点位置100に応じて、第1使用領域240の表示領域210上のIx軸方向における位置を決定する。これと同時に、画像生成部30は、上下方向におけるユーザー視点位置100に応じて、第1使用領域240の表示領域210上のIy軸方向における位置及びIy軸方向における大きさを決定する。左右方向におけるユーザー視点位置100と、第1使用領域240の表示領域210上のIx軸方向における位置との対応関係についてと、上下方向におけるユーザー視点位置100と、第1使用領域240の表示領域210上のIy軸方向における位置及びIy軸方向における大きさとの対応関係については、後述する。
 ステップS205では、画像生成部30は、ステップS202で視点位置取得部40によって取得された上下方向におけるユーザー視点位置100に応じて、第2使用領域260の表示領域210上のIy軸方向における位置を決定する。上下方向におけるユーザー視点位置100と、第2使用領域260の表示領域210上のIy軸方向における位置との対応関係については、後述する。
 ステップS206では、画像表示部20は、ステップS204で画像生成部30によって決定された第1使用領域240内にステップS203で画像生成部30によって生成された画像のうち重畳マーク250を表示する。同時に、画像表示部20は、ステップS205で画像生成部30によって決定された第2使用領域260内にステップS203で画像生成部30によって生成された画像のうち非重畳マーク270を表示する。
 ステップS206の処理を実行すると、フローはStartに戻る。なお、ステップS204及びステップS205は、必ずしもこの順番である必要はなく、順番が入れ替わっていてもよい。
 図13Aから図13Fを参照して、左右方向におけるユーザー視点位置100と、第1使用領域240の表示領域210上のIx軸方向における位置との対応関係について、及び上下方向におけるユーザー視点位置100と、第1使用領域240の表示領域210上のIy軸方向における位置及びIy軸方向における大きさとの対応関係について説明する。
 図13Aには、画像生成部30によって生成される画像の例を示す図である。図13Aに示されているix軸は、画像表示部20の表示面21のIx軸に対応する。また、図13Aに示されているiy軸は、画像表示部20の表示面21のIy軸に対応する。また、図13Aに示される例では、表示面21において重畳マーク250として表示されるマーク250iと、表示面21において非重畳マーク270として表示されるマーク270iとが示されている。また、マーク250iは、表示面21の表示領域210における第1使用領域240に対応する領域240i内に生成され、マーク270iは、表示面21の表示領域210における第2使用領域260に対応する領域260i内に生成されている。
 図13Bには、ユーザー視点位置100が、例えば図4Aに示される基準ユーザー視点位置100rであるときに、図13Aで示される生成された画像が表示領域210に表示された例が示されている。以下、図13Bに示される表示領域210のうちの使用領域220rを便宜的に基準使用領域220rとも呼び、基準使用領域220のうちの第1使用領域240rを便宜的に基準第1使用領域240rとも呼び、基準使用領域220のうちの第2使用領域260rを便宜的に基準第2使用領域260rとも呼ぶ。また、以下、図13Bに示される基準第1使用領域240r内に表示されている重畳マーク250rは上述したように基準重畳マーク250rとも呼び、基準第2使用領域260r内に表示されている非重畳マーク270rを便宜的に基準非重畳マーク270rとも呼ぶ。
 図13Cには、左右方向におけるユーザー視点位置100が、例えば図4Bに示されるユーザー視点位置100riであるときに、図13Aで示される生成された画像が表示領域210に表示された例が示されている。ユーザー視点位置100riは、図4Bに示されているように、基準ユーザー視点位置rよりも右側である。
 図13Cに示されるように、第1使用領域240riは、基準第1使用領域240rよりもIx軸負方向側に位置するように画像生成部30によって決定されている。図13Cに示されるように、重畳マーク250riは、第1使用領域240riがこのように決定されたことによって、基準重畳マーク250rと比較して、Ix軸負方向側に位置している。
 図13Cに示されるように、第2使用領域260riは、基準第2使用領域260rとIx軸方向における位置が同じになるように画像生成部30によって決定されている。そのため、非重畳マーク270riは、第2使用領域260riがこのように決定されたことによって、基準非重畳マーク270rとIx軸方向における位置が同じである。
 図13Dには、左右方向におけるユーザー視点位置100が、例えば図4Cに示されるユーザー視点位置100leであるときに、図13Aで示される生成された画像が表示領域210に表示された例が示されている。ユーザー視点位置100leは、図4Cに示されているように、基準ユーザー視点位置rよりも左側である。
 図13Dに示されるように、第1使用領域240leは、基準第1使用領域240rよりもIx軸正方向側に位置するように画像生成部30によって決定されている。図13Dに示されるように、重畳マーク250leは、第1使用領域240leがこのように決定されたことによって、基準重畳マーク250rと比較して、Ix軸正方向側に位置している。
 図13Dに示されるように、第2使用領域260leは、基準第2使用領域260rとIx軸方向における位置が同じになるように画像生成部30によって決定されている。そのため、非重畳マーク270leは、第2使用領域260leがこのように決定されたことによって、基準非重畳マーク270rとIx軸方向における位置が同じである。
 このように、視点位置取得部40によって検出されるユーザー視点位置100が右側にいくにつれて、画像生成部30は、表示領域210のうちの第1使用領域240を、Ix軸負方向側に位置させる。それに伴って、重畳マーク250は、表示領域210において、Ix軸負方向側に位置する。
 その一方で、視点位置取得部40によって検出されるユーザー視点位置100が左側にいくにつれて、画像生成部30は、表示領域210のうちの第1使用領域240を、Ix軸正方向側に位置させる。それに伴って、重畳マーク250は、表示領域210において、Ix軸正方向側に位置する。
 表示領域210のうちの第2使用領域260については、画像生成部30は、左右方向におけるユーザー視点位置100を考慮せず、基準第2使用領域260rにおけるIx軸方向の位置を維持する。そのため、非重畳マーク270riも、基準非重畳マーク270rにおけるIx軸方向の位置が維持される。
 図13Eには、上下方向におけるユーザー視点位置100が、例えば図7Aに示されるユーザー視点位置100uであるときに、図13Aで示される生成された画像が表示領域210に表示された例が示されている。ユーザー視点位置100uは、図7Aに示されているように、基準ユーザー視点位置rよりも上側である。
 図13Eに示されるように、使用領域220uは、基準使用領域220rよりもIy軸正方向側に位置するように画像生成部30によって決定されている。図13Eに示されるように、第1使用領域240uは、基準第1使用領域240rよりもIy軸正方向側に位置すると共に、Iy軸方向のサイズが大きくなるように画像生成部30によって決定されている。図13Eに示されるように、重畳マーク250uは、第1使用領域240uがこのように決定されたことによって、基準重畳マーク250rと比較して、Iy軸正方向側に位置すると共に、Iy軸方向のサイズが大きくなっている。
 図13Eに示されるように、第2使用領域260uは、基準第2使用領域260rよりもIy軸正方向側に位置し、Iy軸方向のサイズは基準第2使用領域260rと同じになるように画像生成部30によって決定されている。図13Eに示されるように、非重畳マーク270uは、第2使用領域260uがこのように決定されたことによって、基準非重畳マーク270rと比較して、Iy軸正方向側に位置している。
 図13Fには、上下方向におけるユーザー視点位置100が、例えば図7Bに示されるユーザー視点位置100dであるときに、図13Aで示される生成された画像が表示領域210に表示された例が示されている。ユーザー視点位置100dは、図7Bに示されているように、基準ユーザー視点位置rよりも下側である。
 図13Fに示されるように、使用領域220dは、基準使用領域220rよりもIy軸負方向側に位置するように画像生成部30によって決定されている。図13Fに示されるように、第1使用領域240dは、基準第1使用領域240rよりもIy軸負方向側に位置すると共に、Iy軸方向のサイズが小さくなるように画像生成部30によって決定されている。図13Fに示されるように、重畳マーク250dは、第1使用領域240dがこのように決定されたことによって、基準重畳マーク250rと比較して、Iy軸負方向側に位置すると共に、Iy軸方向のサイズが小さくなっている。
 図13Fに示されるように、第2使用領域260dは、基準第2使用領域260rよりもIy軸負方向側に位置し、Iy軸方向のサイズは基準第2使用領域260rと同じになるように画像生成部30によって決定されている。図13Fに示されるように、非重畳マーク270dは、第2使用領域260dがこのように決定されたことによって、基準非重畳マーク270rと比較して、Iy軸負方向側に位置している。
 このように、視点位置取得部40によって検出されるユーザー視点位置100が上側にいくにつれて、画像生成部30は、表示領域210のうちの第1使用領域240を、Iy軸正方向側に位置させると共に、Iy軸方向のサイズが大きくなるように決定する。それに伴って、重畳マーク250は、表示領域210において、Iy軸正方向側に位置すると共に、Iy軸方向のサイズが大きくなる。
 その一方で、視点位置取得部40によって検出されるユーザー視点位置100が下側にいくにつれて、画像生成部30は、表示領域210のうちの第1使用領域240を、Iy軸負方向側に位置させると共に、Iy軸方向のサイズが小さくなるように決定する。それに伴って、重畳マーク250は、表示領域210において、Iy軸負方向側に位置すると共に、Iy軸方向のサイズが小さくなる。
 また、視点位置取得部40によって検出されるユーザー視点位置100が上側にいくにつれて、画像生成部30は、表示領域210のうちの第2使用領域260を、Iy軸正方向側に位置させるように決定する。それに伴って、非重畳マーク270は、表示領域210において、Iy軸正方向側に位置する。
 その一方で、視点位置取得部40によって検出されるユーザー視点位置100が下側にいくにつれて、画像生成部30は、表示領域210のうちの第2使用領域260を、Iy軸負方向側に位置させるように決定する。それに伴って、非重畳マーク270は、表示領域210において、Iy軸負方向側に位置する。
 以上のように、第3実施形態では、ユーザー視点位置100の変化に応じて、第1使用領域240の表示領域210上の位置及びサイズを決定することによって、全ての重畳マーク250の表示領域210上の表示位置及び表示サイズをまとめて決定することができる。その結果、例えば、複数の重畳マーク250が表示されるときに、重畳マーク250毎に表示領域210上の表示位置及び表示サイズを決定する場合と比較して、画像生成部30の処理負担が軽減される。
 同様に、第3実施形態では、ユーザー視点位置100の変化に応じて、第2使用領域260の表示領域210上の位置を決定することによって、全ての非重畳マーク270の表示領域210上の表示位置をまとめて決定することができる。その結果、例えば、複数の非重畳マーク270が表示されるときに、非重畳マーク270毎に表示領域210上の表示位置を決定する場合と比較して、画像生成部30の処理負担が軽減される。
 図13Aから図13Fにおいて、第1使用領域240と第2使用領域260とがIy軸方向に並んで配置されているように説明したが、必ずしもこれに限らず、例えば、第1使用領域240と第2使用領域260とがIx軸方向に並んで配置されていてもよい。同様に、画像表示部20の表示領域210を見下ろすように見たときに、第1使用領域240と第2使用領域260とが斜めに並んで配置されてもよく、右下等の一部のみ第2使用領域260でそれ以外が第1使用領域240であってもよい。しかしながら、第1使用領域240と第2使用領域260とは、Iy軸方向又はIx軸方向に並んで配置される方が好ましい。例えば、第1使用領域240と第2使用領域260とが斜めに並んで配置される場合と比較して、画像生成部30による、ユーザー視点位置100の変化に応じた第1使用領域240及び第2使用領域260の変化の決定にかかる処理負担が軽減される。
 また、例えば、画像生成部30は、生成する画像の中に調整点を設け、調整点を通る直線を基準に領域240iと領域260iとを規定してもよい。すなわち、画像生成部30は、調整点を通る直線を基準に、ユーザー視点位置100の変化に応じて、第1使用領域240と第2使用領域260とで変化を各々独立して決定してもよい。
 例えば、図14には、第1使用領域240と第2使用領域260とがIy軸方向に並んで配置されている例において、表示領域210の使用領域220において、画像生成部30が生成する画像の中に設けた調整点に対応する、領域調整点25が2点示されている。例えば、図14に示されているように、領域調整点25が2点存在すると、領域調整点25を通る直線が一義的に規定される。また、例えば、表示面21における1つの画素22が、1つの領域調整点25として使用される。また、図14に示される例では、2つの領域調整点25を結ぶ直線は、表示領域210において同じIy座標を有する画素22上に規定される。
 画像生成部30は、例えば、使用領域220において、2つの領域調整点25を結ぶ直線を基準にIy軸正方向側とIy軸負方向側とで、ユーザー視点位置100が変化したときの変化を各々独立して決定する。すなわち、図14に示されるように、2つの領域調整点25を結ぶ直線を基準にIy軸正方向側に第1使用領域240を配置するときは、画像生成部30は、左右方向におけるユーザー視点位置100の変化に応じて、使用領域220における2つの領域調整点25を結ぶ直線を基準にIy軸正方向側の領域の、Ix軸方向における位置を決定する。同時に、画像生成部30は、上下方向におけるユーザー視点位置100の変化に応じて、使用領域220における2つの領域調整点25を結ぶ直線を基準にIy軸正方向側の領域の、Iy軸方向における位置及びサイズを決定する。さらに、画像生成部30は、上下方向におけるユーザー視点位置100の変化に応じて、使用領域220における2つの領域調整点25を結ぶ直線を基準にIy軸負方向側の領域の、Iy軸方向における位置を決定する。このように、使用領域220において、2つの領域調整点25を結ぶ直線を基準にIy軸正方向側とIy軸負方向側とで、ユーザー視点位置100が変化したときの変化を独立して決定することによって、第1使用領域240と第2使用領域260との変化を独立して決定することができる。
 なお、領域調整点25は、第1使用領域240の最もIy軸負方向側に設けられてもよく、第2使用領域260の最もIy軸正方向側に設けられてもよく、第1使用領域240と第2使用領域260との間に設けられてもよい。領域調整点25が、第1使用領域240の最もIy軸負方向側又は、第2使用領域260の最もIy軸正方向側に設けられるときは、2つの領域調整点25及び2つの領域調整点25を結ぶ直線上の画素22は、画像の表示に用いられることが考えられる。領域調整点25が、第1使用領域240と第2使用領域260との間に設けられるときは、2つの領域調整点25及び2つの領域調整点25を結ぶ直線上の画素22は、画像の表示に用いられないことが考えられる。また、当然ながら、使用領域220において、Iy軸正方向側に第2使用領域260を配置し、Iy軸負方向側に第1使用領域240を配置してもよい。
 また例えば、図15には、第1使用領域240と第2使用領域260とがIx軸方向に並んで配置されている例において、表示領域210の使用領域220において、画像生成部30が生成する画像の中に設けた調整点に対応する領域調整点25が4点示されている。具体的に、領域調整点25aが2点と領域調整点25bが2点とが示されている。図15に示される例において、領域調整点25aの2点は同一のIx座標を有し、領域調整点25bの2点は同一のIx座標を有している。
 画像生成部30は、例えば、使用領域220において、2つの領域調整点25aを結ぶ直線からIx軸負方向側と、2つの領域調整点25bを結ぶ直線からIx軸正方向側とで、ユーザー視点位置100が変化したときの変化を各々独立して決定する。すなわち、図15に示されるように、2つの領域調整点25aを結ぶ直線からIx軸負方向側に第1使用領域240を配置するときは、左右方向におけるユーザー視点位置100の変化に応じて、使用領域220における2つの領域調整点25aを結ぶ直線からIx軸負方向側の領域の、Ix軸方向における位置を決定する。同時に、画像生成部30は、上下方向におけるユーザー視点位置100の変化に応じて、使用領域220における2つの領域調整点25aを結ぶ直線からIx軸負方向側の領域の、Iy軸方向における位置及びサイズを決定する。さらに、画像生成部30は、上下方向におけるユーザー視点位置100の変化に応じて、2つの領域調整点25bを結ぶ直線からIx軸正方向側の領域の、Iy軸方向における位置を決定する。このように、使用領域220において、2つの領域調整点25aを結ぶ直線からIx軸負方向側と、2つの領域調整点25bを結ぶ直線からIx軸正方向側とで、ユーザー視点位置100が変化したときの変化を独立して決定することによって、第1使用領域240と第2使用領域260との変化を独立して決定することができる。
 なお、2点の領域調整点25aは、第1使用領域240の最もIx軸正方向側に設けられてもよく、第1使用領域240と第2使用領域260との間でIx軸負方向側に設けられてもよい。2点の領域調整点25aが、第1使用領域240の最もIx軸正方向側に設けられるときは、2点の領域調整点25a及び2点の領域調整点25aを結ぶ直線上の画素22は、画像の表示に用いられることが考えられる。2点の領域調整点25aが、第1使用領域240と第2使用領域260との間でIx軸負方向側に設けられるときは、2点の領域調整点25a及び2点の領域調整点25aを結ぶ直線上の画素22は、画像の表示に用いられないことが考えられる。
 同様に、2点の領域調整点25bは、第2使用領域240の最もIx軸負方向側に設けられてもよく、第1使用領域240と第2使用領域260との間でIx軸正方向側に設けられてもよい。2点の領域調整点25bが、第2使用領域240の最もIx軸負方向側に設けられるときは、2点の領域調整点25b及び2点の領域調整点25bを結ぶ直線上の画素22は、画像の表示に用いられることが考えられる。2点の領域調整点25bが、第1使用領域240と第2使用領域260との間でIx軸正方向側に設けられるときは、2点の領域調整点25b及び2点の領域調整点25bを結ぶ直線上の画素22は、画像の表示に用いられないことが考えられる。また、当然ながら、使用領域220において、Ix軸負方向側に第2使用領域260を配置し、Ix軸正方向側に第1使用領域240を配置してもよい。
 以上のように、画像生成部30は、生成した画像に調整点を設けることによって、調整点を基準に分割される領域ごとに、ユーザー視点位置100に応じて、独立した変化を決定することができる。すなわち、画像生成部30は、第1使用領域240及び第2使用領域260の境界を正確に設定することができ、ユーザー視点位置100に応じて、第1使用領域240と第2使用領域260とで異なった変化を正確に決定することができる。
 また、図13Aに戻ると、図13Aには、領域240iを、iy軸方向に4等分割する直線及びix軸方向に4等分割する直線が示されている。同様に、図13Aには、領域260iを、iy軸方向に2等分割する直線及びix軸方向に4等分割する直線が示されている。図13Aでは、これらの直線及び領域220iの外枠によって、領域220iは、24個のエリアに分割されている。画像生成部30の記憶部32は、例えば、この24個のエリアの全頂点の座標(ix,iy)毎に、画像表示部20の表示領域210上の座標(Ix,Iy)との対応関係を記憶していてもよい。なお、図13Aから図13Fに示される分割されたエリアは一例に過ぎず、分割されるエリアの個数、大きさ等を制限するものではない。
 ここで、フロントウィンドウシールド2は、一般的に平面部分だけでなく曲面部分も有する。そのため、画像表示部20の表示領域210に平面を想定した画像を表示したときには、フロントウィンドウシールド2によって反射される虚像330は、歪みを含んだ状態でユーザーによって視認される。したがって、画像生成部30の記憶部32に記憶されている、生成した画像における24個のエリアの全頂点の座標(ix,iy)と画像表示部20の表示領域210上の座標(Ix,Iy)との対応関係は、例えばフロントウィンドウシールド2に応じた歪みの補正が反映されていてもよい。なお、図13Bから図13Fには、歪み補正は反映されていない。
 また、画像生成部30の記憶部32は、例えば、生成した画像における24個のエリアの全頂点の座標(ix,iy)と画像表示部20の表示領域210上の座標(Ix,Iy)との対応関係を、ユーザー視点位置100によって補正するようなテーブル又は演算式を記憶していてもよく、ユーザー視点位置100に応じてこの対応関係を補正してもよい。画像生成部30は、例えば、ユーザー視点位置100に応じて補正された、生成した画像における24個のエリアの全頂点の座標(ix,iy)と画像表示部20の表示領域210上の座標(Ix,Iy)との対応関係に基づいて、生成した画像を表示領域210に表示してもよい。すなわち、画像生成部30は、例えば、この補正された対応関係に基づいて、表示領域210上において、第1使用領域240のIx軸方向における位置と、Iy軸方向における位置及びサイズと、第2使用領域260のIy軸方向における位置とを決定してもよい。
 ここで、図13Aに示される領域240iと領域260iとの境界線上に調整点が設けられることが好ましい。すなわち、調整点を通る調整線と、領域240iと領域260iとの境界線とが、一致することが好ましい。その結果、図13Bから図13Fに示される第1使用領域240と第2使用領域260との境界線上の画素22又は境界線と隣接する画素22が、図14に示される領域調整点25として使用される。したがって、フロントウィンドウシールド2に応じた歪みの補正についても、第1使用領域240と第2使用領域260とで、独立して補正することができる。
 本発明は、上述の例示的な実施形態に限定されず、また、当業者は、上述の例示的な実施形態を特許請求の範囲に含まれる範囲まで、容易に変更することができるであろう。
 車両などの移動体に搭載され、視認者に虚像を視認させるヘッドアップディスプレイとして好適である。
 1・・・車両、2・・・フロントウィンドウシールド、10・・・車両用表示装置、20・・・画像表示部,液晶パネルモジュール、21・・・表示面,液晶パネル、30・・・画像生成部、40・・・視点位置取得部、41・・・車室内画像取得部、42・・・車室内画像解析部、50・・・投影部、60・・・前方情報取得部、61・・・前方画像取得部、62・・・前方画像解析部、80・・・画像光、100・・・ユーザー視点位置、210・・・表示領域、220・・・使用領域、240・・・第1使用領域、250・・・重畳マーク、260・・・第2使用領域、270・・・非重畳マーク、330・・・虚像、400・・・重畳距離範囲。

Claims (12)

  1.  車両の運転席に座るユーザーの視点の位置を取得する視点位置取得部と、
     前記車両の前方向の情報である前方情報を取得する前方情報取得部と、
     前記前方情報取得部が取得する前記前方情報のうち、所定領域内に含まれる前記前方情報を反映させた画像を生成する画像生成部と、
     前記画像生成部が生成する前記画像を表示可能な表示面を有する画像表示部と、
     前記車両の透光部材で前記表示面に表示された前記画像が反射されることによって、前記運転席に座る前記ユーザーが虚像を視認できるように、前記画像を前記車両の前記透光部材に向けて投影する投影部と、
     を備え、
     前記画像生成部は、前記表示面において、生成した前記画像に含まれる画像要素のうち、第1画像要素を表示する位置を、前記視点位置取得部が取得する左右方向における前記ユーザーの前記視点の位置に応じて決定する車両用表示装置。
  2.  前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が左側にいくにつれて、前記表示面において、前記第1画像要素を表示する前記位置を、左側に対応する方向側に決定する一方で、
     前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が右側にいくにつれて、前記表示面において、前記第1画像要素を表示する前記位置を、右側に対応する方向側に決定する、請求項1に記載の車両用表示装置。
  3.  前記画像生成部は、左右方向における前記ユーザーの前記視点の位置の変化に影響されることなく、前記ユーザーが前記透光部材越しに見える風景のうちの一定の車外対象物と関連性を持つように前記第1画像要素に係る虚像が前記ユーザーに視認されるように、前記表示面において、前記第1画像要素を表示する左右方向に対応する方向における前記位置を決定する、請求項1又は2に記載の車両用表示装置。
  4.  前記視点位置取得部によって取得される前記ユーザーの前記視点の位置と前記ユーザーの前記視点の基準位置との左右方向における距離が、所定の範囲を超えない距離であるときには、
     前記画像生成部は、前記表示面において、生成した前記画像に含まれる画像要素のうち、前記第1画像要素を表示する左右方向に対応する方向における前記位置を、前記ユーザーの前記視点の位置が前記基準位置である状態において前記第1画像要素が生成される位置と同じ位置に決定すると共に、
     前記第1画像要素を表示する大きさを、前記ユーザーの前記視点の位置が前記基準位置である状態において生成される大きさよりも大きく決定する請求項1から3のいずれか1項記載の車両用表示装置。
  5.  前記画像生成部は、前記表示面において、生成した前記画像に含まれる前記画像要素のうち前記第1画像要素と異なる第2画像要素を表示する左右方向に対応する方向における位置を、前記視点位置取得部が取得する左右方向における前記ユーザーの前記視点の位置を考慮せず、一定にする、請求項1から4のいずれか1項に記載の車両用表示装置。
  6.  前記画像生成部は、前記表示面において、前記第1画像要素を表示する前記位置及び大きさを、さらに、前記視点位置取得部が取得する上下方向における前記ユーザーの前記視点の位置に応じて決定する、請求項1から5のいずれか1項に記載の車両用表示装置。
  7.  前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が上側にいくにつれて、前記表示面において、前記第1画像要素を表示する前記位置を、上側に対応する方向側に決定し、且つ、前記第1画像要素を表示する前記大きさを、上下方向に対応する方向に大きく決定する一方で、
     前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が下側にいくにつれて、前記表示面において、前記第1画像要素を表示する前記位置を、下側に対応する方向側に決定し、且つ、前記第1画像要素を表示する前記大きさを、上下方向に対応する方向に小さく決定する、請求項6に記載の車両用表示装置。
  8.  前記画像生成部は、上下方向における前記ユーザーの前記視点の位置の変化に影響されることなく、前記ユーザーが前記透光部材越しに見える前記風景のうち前記第1画像要素に係る前記虚像が重畳する風景の路面における距離の範囲が一定となるように、前記表示面において、前記第1画像要素を表示する上下方向に対応する方向における前記位置及び上下方向に対応する方向における前記大きさを決定する、請求項6又は7に記載の車両用表示装置。
  9.  前記画像生成部は、前記表示面において、生成した前記画像に含まれる前記第2画像要素を表示する上下方向に対応する方向における位置を、前記視点位置取得部が取得する上下方向における前記ユーザーの前記視点の位置に応じて決定する、請求項5を引用する請求項6から8のいずれか1項に記載の車両用表示装置。
  10.  前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が上側にいくにつれて、前記表示面において、前記第2画像要素を表示する前記位置を、上側に対応する方向側に決定する一方で、
     前記画像生成部は、前記視点位置取得部によって取得される前記ユーザーの前記視点の位置が下側にいくにつれて、前記表示面において、前記第2画像要素を表示する前記位置を、下側に対応する方向側に決定する、請求項9に記載の車両用表示装置。
  11.  前記画像表示部の前記表示面は、前記第1画像要素の表示に使用する第1使用領域と前記第2画像要素の表示に使用する第2使用領域とを少なくとも含み、
     前記画像生成部は、前記視点位置取得部によって取得される左右方向における前記ユーザーの前記視点の位置に応じて、前記第1使用領域の左右方向に対応する方向における位置を決定することによって、前記表示面において、前記第1画像要素を表示する左右方向に対応する方向における前記位置を決定し、且つ、前記視点位置取得部によって取得される上下方向における前記ユーザーの前記視点の位置に応じて、前記第1使用領域の上下方向に対応する方向における位置及び上下方向に対応する方向における前記大きさを決定することによって、前記表示面において、前記第1画像要素を表示する上下方向における前記位置及び上下方向に対応する方向における前記大きさを決定すると共に、
     前記画像生成部は、前記視点位置取得部によって取得される上下方向における前記ユーザーの前記視点の位置に応じて、前記第2使用領域の位置を決定することによって、前記表示面において、前記第2画像要素を表示する前記位置を決定する、請求項9又は10に記載の車両用表示装置。
  12.  前記第1使用領域及び前記第2使用領域は、前記表示面において、上下方向に対応する方向、又は、左右方向に対応する方向に並んで配置される、請求項11に記載の車両用表示装置。
PCT/JP2017/028521 2016-08-22 2017-08-07 車両用表示装置 WO2018037887A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-161808 2016-08-22
JP2016161808 2016-08-22

Publications (1)

Publication Number Publication Date
WO2018037887A1 true WO2018037887A1 (ja) 2018-03-01

Family

ID=61246621

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/028521 WO2018037887A1 (ja) 2016-08-22 2017-08-07 車両用表示装置

Country Status (1)

Country Link
WO (1) WO2018037887A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06247184A (ja) * 1993-03-01 1994-09-06 Aisin Seiki Co Ltd 車上表示装置
JP2005247224A (ja) * 2004-03-05 2005-09-15 Sumitomo Electric Ind Ltd 車両用表示装置
JP2015080988A (ja) * 2013-10-22 2015-04-27 日本精機株式会社 車両情報投影システム及び投影装置
JP2015226304A (ja) * 2014-05-30 2015-12-14 日本精機株式会社 車両用投影装置及びヘッドアップディスプレイシステム
JP2016055756A (ja) * 2014-09-09 2016-04-21 カルソニックカンセイ株式会社 車両用ヘッドアップディスプレイ装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06247184A (ja) * 1993-03-01 1994-09-06 Aisin Seiki Co Ltd 車上表示装置
JP2005247224A (ja) * 2004-03-05 2005-09-15 Sumitomo Electric Ind Ltd 車両用表示装置
JP2015080988A (ja) * 2013-10-22 2015-04-27 日本精機株式会社 車両情報投影システム及び投影装置
JP2015226304A (ja) * 2014-05-30 2015-12-14 日本精機株式会社 車両用投影装置及びヘッドアップディスプレイシステム
JP2016055756A (ja) * 2014-09-09 2016-04-21 カルソニックカンセイ株式会社 車両用ヘッドアップディスプレイ装置

Similar Documents

Publication Publication Date Title
WO2017018400A1 (ja) 車両用表示装置
JP6443122B2 (ja) 車両用表示装置
JP7515229B2 (ja) 映像表示システム、映像表示方法、及び、プログラム
EP3888965B1 (en) Head-up display, vehicle display system, and vehicle display method
US8536995B2 (en) Information display apparatus and information display method
CN110001400B (zh) 车辆用显示装置
JP6811106B2 (ja) ヘッドアップディスプレイ装置および表示制御方法
US20190016256A1 (en) Projection of a Pre-Definable Light Pattern
CN110308556B (zh) 图像形成、校正、显示系统或方法、移动体、非暂时性计算机可读介质
US20140043466A1 (en) Environment image display apparatus for transport machine
JP2018103697A (ja) 車両用表示装置
US20200249044A1 (en) Superimposed-image display device and computer program
JP2016159656A (ja) 車両用表示装置
CN112424570A (zh) 抬头显示器
JP7221161B2 (ja) ヘッドアップディスプレイ及びそのキャリブレーション方法
JP6277933B2 (ja) 表示制御装置、表示システム
JP6874769B2 (ja) 車両用表示装置
WO2018180596A1 (ja) 車両用表示装置
US20200047686A1 (en) Display device, display control method, and storage medium
CN110632755B (zh) 影像显示系统及方法、非暂时性记录介质以及移动体
WO2018037887A1 (ja) 車両用表示装置
WO2018139433A1 (ja) 車両用表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17843372

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 17843372

Country of ref document: EP

Kind code of ref document: A1