WO2011036788A1 - 表示装置及び表示方法 - Google Patents

表示装置及び表示方法 Download PDF

Info

Publication number
WO2011036788A1
WO2011036788A1 PCT/JP2009/066750 JP2009066750W WO2011036788A1 WO 2011036788 A1 WO2011036788 A1 WO 2011036788A1 JP 2009066750 W JP2009066750 W JP 2009066750W WO 2011036788 A1 WO2011036788 A1 WO 2011036788A1
Authority
WO
WIPO (PCT)
Prior art keywords
display object
viewer
vanishing point
display
image
Prior art date
Application number
PCT/JP2009/066750
Other languages
English (en)
French (fr)
Inventor
隆 佐々木
あいら 堀田
彰久 森屋
治彦 奥村
美和子 土井
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to PCT/JP2009/066750 priority Critical patent/WO2011036788A1/ja
Priority to JP2011532864A priority patent/JP5173031B2/ja
Publication of WO2011036788A1 publication Critical patent/WO2011036788A1/ja
Priority to US13/420,183 priority patent/US8693103B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/211
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field

Definitions

  • the present invention relates to a display device and a display method.
  • a head-up display HUD (Head-Up Display) has been developed as an in-vehicle display device, which projects the display information such as navigation information to the destination onto the windshield so that external information and display information can be viewed simultaneously. ing.
  • the display of the HUD is observed with both eyes, but binocular parallax occurs and the display becomes difficult to see.
  • the present invention provides a monocular display device and a display method in which the set depth position of a display object and the perceived depth position of the display object are matched with high accuracy.
  • a video projection unit that projects a light beam having an image including a display object having a vanishing point onto a projection plate having reflectivity and transparency, and projects the light beam toward one eye of a viewer.
  • the video projection unit arranges the vanishing point of the display object at a position different from a vanishing point of a background image viewed by the viewer through the projection plate.
  • the display when the light beam having an image including a display object is reflected on a projection plate having reflectivity and transparency and projected toward one eye of a viewer, the display is performed.
  • the vanishing point of the object is arranged at a position different from the vanishing point of the background image viewed by the viewer through the projection plate, and the luminous flux having the image including the display object is applied to the projection plate.
  • a display method is provided which is reflected and projected toward the one eye.
  • a monocular display device and a display method for accurately matching the set depth position of the display object with the perceived depth position of the display object.
  • movement of a display apparatus It is a schematic diagram which shows a display apparatus. It is a schematic diagram which shows the image
  • FIG. 1 is a schematic view illustrating the operation of the display device according to the first embodiment of the invention.
  • FIG. 2 is a schematic view illustrating the configuration of the display device according to the first embodiment of the invention.
  • FIG. 3 is a schematic view illustrating the configuration of the video projection unit of the display device according to the first embodiment of the invention.
  • FIG. 4 is a schematic view illustrating the coordinate system of the display device according to the first embodiment of the invention.
  • FIG. 5 is a schematic view illustrating the display object of the display device according to the first embodiment of the invention.
  • the configuration of the display device 10 according to the present embodiment will be described with reference to FIGS. 2 and 3.
  • the display device 10 reflects the light beam 112 having an image including the display object 180 to the projection plate 715 having reflectivity and transparency and directs it toward the one eye 101 of the viewer 100.
  • a video projection unit 115 for projecting is provided.
  • the display object 180 is provided in an image that the display device 10 presents to the viewer 100.
  • an “arrow” that indicates a traveling direction related to operation information of the vehicle 730 (moving body) on which the display device 10 is mounted. And the like.
  • Projection plate 715 is, for example, windshield 710 of vehicle 730.
  • the video projection unit 115 projects the light beam 112 toward the head 105 of the viewer 100. That is, the light beam 112 emitted from the video projection unit 115 is reflected by the reflection surface 712 of the projection plate 715 and enters the one eye 101 of the viewer 100.
  • the viewer 100 can simultaneously watch the video display object 180 included in the projected light flux 112 and the external information of the vehicle 730.
  • the display device 10 is provided in the vehicle 730, for example, in the back of the dashboard 720 of the vehicle 730 as viewed from the viewer 100 who is a driver, for example.
  • the video projection unit 115 includes, for example, a video data generation unit 130, a video formation unit 110, and a projection unit 120.
  • the video data generation unit 130 generates a video signal corresponding to the video including the display object, and supplies the video signal to the video formation unit 110.
  • the image forming unit 110 for example, various optical switches such as a liquid crystal display (LCD), a DMD (Digital Micromirror Device), and a MEMS (Micro-electro-mechanical System) can be used. Then, the video forming unit 110 forms a video on the screen of the video forming unit 110 based on the video signal supplied from the video data generating unit 130.
  • LCD liquid crystal display
  • DMD Digital Micromirror Device
  • MEMS Micro-electro-mechanical System
  • the projection unit 120 includes a first lens 123, a second lens 125, and an aperture 124 (divergence angle control unit) provided between the first lens 123 and the second lens 125.
  • the size of the opening of the aperture 124 can be variable, that is, a variable aperture can be used as the aperture 124.
  • the projection unit 120 includes a light source 121, a tapered light guide 122, a first lens 123, a second lens 125, an aperture 124, and a mirror 126.
  • a first lens 123 is disposed between the light source 121 and the mirror 126
  • a second lens 125 is disposed between the first lens 123 and the mirror 126
  • a tapered light guide is disposed between the light source 121 and the first lens 123.
  • an image forming unit 110 (for example, an LCD) is disposed between the tapered light guide 122 and the first lens 123.
  • the aperture 124 is located at a distance f1 from the first lens 123 and a distance f2 from the second lens 125. Is installed.
  • the mirror 126 has, for example, a concave shape, so that the image of the light beam 112 can be enlarged and projected to the viewer 100.
  • the light source 121 various types such as an LED (Light Emitting Diode), a high-pressure mercury lamp, a halogen lamp, and a laser can be used.
  • LED Light Emitting Diode
  • a high-pressure mercury lamp a high-pressure mercury lamp
  • a halogen lamp a laser
  • a laser a laser
  • power consumption can be reduced, and the apparatus can be reduced in weight and size.
  • the light emitted from the light source 121 is controlled to have a divergence angle within a certain range in the taper light guide 122, and becomes a light beam 112 including an image including a predetermined display object 180 in the image forming unit 110.
  • the divergence angle of the light beam 112 is controlled to a predetermined angle by passing through the first lens 123, the aperture 124, and the second lens.
  • a diffusing plate 127 is provided between the taper light guide 122 and the image forming unit 110, whereby the light incident on the image forming unit 110 is made more uniform.
  • the light flux 112 is reflected by the mirror 126, then by the projection plate 715 of the vehicle 730, and reaches the one eye 101 of the viewer 100.
  • the projection range 114 and the projection position 114a of the projection region of the light beam 112 are controlled by various optical elements included in the video projection unit 115, and the light beam 112 is incident on the one eye 101 of the viewer 100, The light beam 112 is prevented from entering the other eye.
  • the horizontal direction of the projection range 114 of the light beam 112 (the horizontal direction when viewed from the viewer 100) is controlled to about 65 mm (millimeters).
  • An aspherical Fresnel lens (not shown) can be provided on the exit side of the mirror 126 (the side opposite to the light source).
  • this aspheric Fresnel lens for example, the shape of the light beam 112 can be controlled in accordance with the shape of the windshield 710, and the shape of the image included in the light beam 112 can be adjusted.
  • the mirror 126 can be movable.
  • the position and angle of the mirror 126 can be adjusted manually or automatically in accordance with the position and movement of the head 105 of the viewer 100 to obtain a luminous flux.
  • 112 can be appropriately projected onto one eye 101.
  • the video projection unit 115 can be variously modified in addition to the above specific examples.
  • the viewer 100 perceives the image 181 of the display object 180 formed at the virtual image forming position 181a via the projection plate 715.
  • the display device 10 can be used as a HUD.
  • the display object 180 has a target position in the depth direction viewed from the viewer 100. Hereinafter, the position of the target of the display object 180 will be described.
  • the depth direction is the Z-axis direction
  • the left-right direction is the X-axis direction
  • the up-down direction is the Y-axis.
  • the viewer 100 views the display object 180 of the image of the light beam 112 reflected by the reflecting surface 712 of the projection plate 715.
  • the “arrow” image 181 of the display object 180 is arranged so as to overlap the position of the branch point 753c of the road 753 of the background image 740d. . That is, the position in the depth direction of the branch point 753c of the background image 740d when viewed from the viewer 100 is the target position PT where the display object 180 is to be placed.
  • the display object 180 is arranged at the target position PT in the visual space of the viewer 100 so as to correspond to a desired position in the real space (a space having the X1, Y1, and Z1 axes). . That is, when displaying the display object 180 corresponding to an arbitrary object (mountain, river, various buildings and display objects, roads, branch points, etc.) existing in the real space, when viewed from the viewer 100, The display object 180 is arranged at the target position PT which is the position of the object.
  • an “arrow” indicating a course is used as the display object 180 will be described.
  • the X axis, the Y axis, and the Z axis at the position of the viewer 100 in the real space, and the X2, Y2, and Z2 axes at the background position in the real space are parallel to each other.
  • the X1 axis, the Y1 axis, and the Z2 axis on the reflecting surface 712 may not be parallel to the X axis, the Y axis, and the Z axis, respectively. That is, as illustrated in FIG. 2, when viewed from the viewer 100, the reflecting surface 712 of the projection plate 715 that is the windshield 710 of the vehicle 730 is inclined (rotated about the X1 axis).
  • the X1, Y1, and Z2 axes are parallel to the X, Y, and Z axes, respectively, for the sake of clarity.
  • the position of one eye 101 of the viewer 100 is set as a reference point P0.
  • the reference point P0 and the target position PT are different in the X axis, Y axis, and Z axis directions in real space.
  • the difference between the vertical direction (Y-axis direction) and the horizontal direction (X-axis direction) is small, and the difference between the depth direction (Z-axis direction). Is big.
  • the distance in the depth direction (Z-axis direction) between the position of the one eye 101 (reference point P0) of the viewer 100 and the target position PT is particularly referred to as a set depth distance Ld.
  • the display object 180 is disposed as the target position PT, for example, at the position of the branch point 753c.
  • the target position PT is not necessarily set at the branch point 753c but at an arbitrary position.
  • the display object 180 may be arranged at a position ahead of the viewer 100 (target position PT) when viewed from the viewer 100.
  • the predetermined distance is set based on the moving speed of the vehicle 730, the situation of the road ahead, and the like.
  • FIGS. 5A and 5B illustrate a case where the display object 180 is displayed in correspondence with the road 753 (ground) of the background image 740d.
  • FIGS. 5C and 5D illustrate the display object. The case where 180 is displayed corresponding to the ceiling 754 (upper sky) of the background image 740d is illustrated.
  • the viewer 100 when the position of the display object 180 on the reflecting surface 712 is positioned below the one eye 101 of the viewer 100, the viewer 100 is not able to display the background image 740 d.
  • the display object 180 is viewed over the object below the line of sight.
  • a road 753 is used as an object below the line of sight in the background image 740d.
  • the display object 180 is displayed corresponding to the road 753 of the background image 740d.
  • the viewer 100 can display the background image 740 d.
  • the display object 180 is viewed over the object above the line of sight.
  • a ceiling 754 is used as an object above the line of sight in the background image 740d.
  • the display object 180 is displayed corresponding to the ceiling 754 of the background image 740d.
  • Such objects above the line of sight include roads that overlap three-dimensionally such as elevated roads, roads such as tunnels, and lighting and electric wires installed so as to cover the sky.
  • the reflective surface 712 is disposed on the roof side of the vehicle 730, and the display object 180 is viewed by the viewer 100 above the Z-axis direction.
  • the operation of the display device 10 according to the present embodiment will be described in the case where the display object 180 is displayed in correspondence with the road 753 (ground) of the background image 740d.
  • FIG. 1A schematically illustrates an image 181 of the display object 180 and a background image 740d of the outside world of the vehicle 730, which are perceived by the viewer 100.
  • FIG. 1B illustrates an image 181 of the display object 180 on the screen 110 d of the video forming unit 110 of the video projecting unit 115.
  • FIG. 1C illustrates a background image 740d of the outside of the vehicle 730 that the viewer 100 perceives.
  • a display object 180 is formed on the screen 110d of the image forming unit 110 (for example, LCD).
  • the display object 180 has an arrow shape.
  • the display object 180 has a vanishing point VP1 (first vanishing point VP1). That is, the figure of the display object 180 has a shape having a vanishing point VP1 that allows the depth to be perceived. For example, the extension lines of the two sides 183a and 183b of the trunk portion of the “arrow” intersect at the vanishing point VP1. To do.
  • the vanishing point VP1 is greater than the position of the display object 180. Is also disposed above.
  • the vanishing point VP1 is more than the position of the display object 180. Is also arranged below.
  • the viewer 100 obtains a sense of depth of the display object 180 when viewed from the viewer 100 based on the relationship between the vanishing point VP1 and the position of the display object 180.
  • the display object 180 has the vanishing point VP1
  • the depth position of the display object 180 in the viewer 100 can be easily estimated.
  • the background image 740d of the outside of the vehicle 730 has a vanishing point VP2 (second vanishing point VP2).
  • VP2 second vanishing point VP2
  • the viewer 100 obtains a sense of depth in the background image 740d.
  • the vanishing point VP1 of the display object 180 is arranged at a position different from the vanishing point VP2 of the background image 740d.
  • the vanishing point VP1 of the display object 180 is arranged above the vanishing point VP2 of the background image 740d. That is, when the viewer 100 views the image 181 of the display object 180 and the background image 740d at the same time, the vanishing point VP1 of the display object 180 is disposed above the vanishing point VP2 of the background image 740d. .
  • the video projection unit 115 places the vanishing point VP1 of the display object 180 above the vanishing point VP2 of the background image 740d that the viewer 100 views through the projection plate 715 as viewed from the viewer 100. To do.
  • vanishing points are used when various objects in the image are arranged at respective depth positions. For example, a straight line is virtually drawn radially from a predetermined vanishing point, and each object is fixed and perceived at a predetermined depth position by following the outline of each object along the straight line.
  • a plurality of vanishing points can be provided, here, in order to simplify the description, a case where one vanishing point is provided in one image will be described.
  • the display object is generated so that the extended lines of the boundary lines that form the outline of the display object intersect at the vanishing point. Therefore, even in the case of HUD, the display object The display object 180 is generated so that the position of the vanishing point VP1 of 180 coincides with the position of the vanishing point VP2 of the background image 740d.
  • the position of the vanishing point VP1 of the display object 180 is The display object 180 is generated so that the position of the vanishing point VP2 of the background image 740d is different.
  • the vanishing point VP2 of the background image 740d is estimated from the projection position 114a and the inclination of the display device 10.
  • the set depth position of the display object 180 and the perceived depth position of the display object can be matched with high accuracy.
  • the configuration of the embodiment of the present invention is constructed based on the human perceptual characteristics newly found from the experimental results relating to depth perception described below.
  • the inventor mounts the display device 10 on the vehicle 730 and reflects the images 181 of various display objects 180 (arrows) on the windshield 710 of the vehicle 730 while traveling the vehicle 730 so that the passenger seat of the vehicle 730 A subject to be boarded (viewer 100) was allowed to watch. Then, an experiment was performed in which the display object 180 was arranged at various depth positions, and at that time, the size of the display object 180 and the height from the ground were changed, and the depth distance perceived by the subject was answered.
  • FIG. 6 is a schematic view illustrating the configuration of an experiment for evaluating the characteristics of the display device according to the first embodiment of the invention.
  • the position of the one eye 101 of the subject (viewer 100) is the reference point P0
  • the distance in the depth direction (Z-axis direction) from the reference point P0 to the set arrangement position Q of the display object 180 is as follows.
  • the set depth distance Ld That is, the setting arrangement position Q is the target position PT of the display object.
  • the set depth distance Ld was three types of 30 m, 45 m, and 60 m.
  • the distance between the set arrangement position Q of the display object 180 and the ground is set as a set height ⁇ h.
  • the set height ⁇ h was set to three types: 0 m, 0.5 m, and 1.0 m.
  • the size of the display object 180 is made into three types when arranged at positions corresponding to the set depth distance Ld of 30 m, 45 m and 60 m, respectively. That is, the set dimension distance Sr corresponding to the size of the display object 180 is set to three types of 30 m, 45 m, and 60 m.
  • the set dimension distance Sr expresses the size of the display object 180 as a depth distance, and is based on a phenomenon of perspective in which an object appears smaller when the depth position is far.
  • the plane parallel to the ground is the XZ plane.
  • the angle formed by the line connecting the reference point P0 and the set arrangement position Q of the display object 180 and the Z-axis direction is defined as a depression angle ⁇ . Note that the depression angle ⁇ is positive when viewed from the one eye 101 of the human viewer 100 (downward direction).
  • FIG. 7 to FIG. 9 are schematic views illustrating conditions for the evaluation experiment of the characteristics of the display device according to the first embodiment of the invention.
  • 7A to 7D illustrate changes in the set depth distance Ld
  • FIGS. 8A to 8D illustrate changes in the set height ⁇ h.
  • (A) to (d) illustrate changes in the set dimension distance Sr.
  • FIGS. 7A, 8A, and 9A show changes in the image 181 of the display object 180 when the set depth distance Ld, the set height ⁇ h, and the set dimension distance Sr change, respectively. Illustrated.
  • FIGS. 7B to 7D, FIGS. 8B to 8D, and FIGS. 9B to 9D illustrate the position and size of the image 181 of the display object 180 in the case of each change. is doing.
  • the set depth distance Ld is changed to 30 m, 45 m, and 60 m.
  • the image 181 of the display object 180 changes like an image D30, an image D45, and an image D60, respectively. That is, as the set depth distance Ld increases, the position of the image 181 moves upward in the Y-axis direction (positive direction of the Y-axis), and the size of the image 181 decreases.
  • the positions of the image 181 at this time are, as illustrated in FIGS. 7B to 7D, the reference point P0 that is the position of one eye 101 of the viewer 100, the set arrangement position Q of the display object 180, It changes based on the ratio of the distance from the projection position P at which the light beam 112 is projected on the reflecting surface 712. That is, based on the ratio of the triangle having the reference point P0, the set arrangement position Q, and the set horizontal arrangement position Q1 as vertices, and the triangle having the reference point P0, the projection position P, and the horizontal projection position P1 as vertices, The position of the image 181 changes. In this specific example, when the set depth distance Ld increases, the position of the image 181 of the display object 180 in the screen 110d is shifted upward in response to the projection position P shifting upward.
  • the set height ⁇ H is changed to 0 m, 0.5 m, and 1.0 m.
  • the image 181 of the display object 180 changes as an image H00, an image H05, and an image H10, respectively. That is, as the set height ⁇ H increases, the position of the image 181 moves upward in the Y-axis direction (the positive direction of the Y-axis).
  • the position of the image 181 is as follows: the triangle having the reference point P0, the set arrangement position Q, and the set horizontal arrangement position Q1 as vertices; and the reference point P0, the projection position P, and the horizontal projection position P1 as vertices. Based on the ratio of the triangle to be changed.
  • the set height ⁇ h increases, the position of the image 181 of the display object 180 in the video is shifted upward in response to the projection position P shifting upward.
  • the depression angle ⁇ also changes, so that the shape of the image 181 of the display object 180 can be changed in conjunction with the change of the depression angle ⁇ .
  • the set dimension distance Sr is changed to 30 m, 45 m, and 60 m.
  • the image 181 of the display object 180 changes as an image S30, an image S45, and an image S60, respectively. That is, as the set dimension distance Sr increases, the size of the image 181 decreases. This change in the size of the image 181 is based on a sense of perspective.
  • the position of the image 181 set based on the ratio is referred to as “similarity method setting position”.
  • FIGS. 7 to 9 are examples in which the set depth distance Ld, the set height ⁇ h, and the set dimension distance Sr are changed independently.
  • the set depth distance Ld, the set height ⁇ h, and the set distance are set.
  • Three types of dimensional distances Sr were changed, and a perceived depth distance (perceived depth distance Ls) was obtained using a total of 27 types of display objects 180.
  • FIGS. 10A to 10D show results when the set depth distance Ld is 30 m
  • FIGS. 11A to 11D show results when the set depth distance Ld is 45 m
  • (A) to (d) are the results when the set depth distance Ld is 60 m.
  • FIGS. 10 (a), 11 (a) and 12 (a) show the results when the set dimension distance Sr is 30 m
  • FIGS. 10 (b), 11 (b) and 12 (b) show the results.
  • FIG. 10C, FIG. 11C, and FIG. 12C show the results when the set dimension distance Sr is 60 m.
  • FIG. 10D, FIG. 11D, and FIG. 12D are diagrams that display the results when the set dimension distance Sr is 30 m, 45 m, and 60 m.
  • the horizontal axis represents the set height ⁇ h
  • the vertical axis represents the perceived depth distance Ls.
  • a broken line BL in the figure indicates a perceived depth distance Ls that matches the set depth distance Ld in each figure.
  • FIG. 13 is a graph illustrating the experimental results of the characteristics of the display device according to the first embodiment of the invention. That is, FIGS. 13A to 13C show the partial results of FIGS. 10 to 12 as separate graphs. That is, the horizontal axis indicates the set depth distance Ld and the vertical axis indicates the perceived depth distance, where the set depth distance Ld and the set dimension distance Sr coincide with each other in FIGS. 10 (a), 11 (b), and 12 (c). This is represented in a graph of Ls.
  • FIGS. 13A to 13C show the results when the set height ⁇ h is 0 m, 0.5 m, and 1.0 m, respectively.
  • a broken line BL represents a case where the set depth distance Ld and the perceived depth distance Ls match.
  • 10 to 13 are box plots (box plot).
  • the lower end of the box (rectangle) in the figure is the first quartile, and the upper end of the box is the third quartile.
  • the horizontal line in the box indicates the median value, the upper end of the vertical line is the maximum value, the lower end of the vertical line is the minimum value, and the “*” mark indicates an outlier.
  • the perceived depth distance Ls is close to 30 m when the set height ⁇ h is 0 m.
  • the perceived depth distance Ls is close to 45 m when the set height ⁇ h is 0.5 m.
  • the perceived depth distance Ls is close to 60 m when the set height ⁇ h is about 1.0 m. .
  • the set depth distance Ld is small (for example, 30 m)
  • the set depth distance Ld and the perceived depth distance Ls are close when the set height ⁇ h is 0 m.
  • the set depth distance Ld increases to 45 m or 60 m
  • the set depth distance Ld and the perceived depth distance Ls become closer as the set height ⁇ h increases.
  • the display object 180 is an “arrow”, and the display object 180 is normally arranged in accordance with the height of the surface of the road 753 that is the background image 740d (that is, the set height ⁇ h is set to 0 m).
  • the display object 180 is arranged on the side of the road 753 (lower side, that is, the negative direction side of the Y axis) when viewed from the viewer 100, the display object 180 is displayed.
  • the image 181 of the display object 180 is shifted and disposed above the image, the image 181 of the display object 180 is disposed on the far side as viewed from the viewer 100.
  • the image 181 of the display object 180 is arranged on the farther side as viewed from the viewer 100, thereby improving the coincidence between the set depth distance Ld and the perceived depth distance Ls. To do.
  • This phenomenon is considered to be a peculiar characteristic of human depth perception when viewing a display with a single eye.
  • an experimental condition that is close to the actual condition of displaying images 181 of various display objects 180 (arrows) while the vehicle 730 is running is used. By doing this, it is possible to realize a display with high matching between the set depth distance Ld and the perceived depth distance Ls, particularly under actual conditions such as during traveling.
  • the display object 180 is disposed below when viewed from the viewer 100, and thus the image 181 of the display object 180 is viewed by the viewer.
  • Arrangement on the far side as viewed from 100 corresponds to disposing the display object 180 upward.
  • the image 181 of the display object 180 may be arranged farther than the position based on the similarity method setting position.
  • the display object 180 is disposed below the viewer 100, the display object 180 is disposed above the position based on the similarity method setting position.
  • the display object 180 is disposed below the position based on the similarity method setting position.
  • the vanishing point VP1 of the display object 180 is detected by the viewer 100 using the projection plate 715 on the basis of the new knowledge relating to the unique characteristics related to human depth perception. Through the vanishing point VP2 of the background image 740d viewed through the viewer 100.
  • the vanishing point VP1 of the display object 180 is arranged at a position different from the vanishing point VP2 of the background image 740d.
  • the vanishing point VP1 of the display object 180 is disposed above the vanishing point VP2 of the background image 740d.
  • the vanishing point VP1 of the display object 180 is arranged below the vanishing point VP2 of the background image 740d.
  • FIG. 14 is a schematic view illustrating the operation of the display device according to the first embodiment of the invention. That is, FIGS. 14A and 14B correspond to the case where the display object 180 is arranged below as viewed from the viewer 100. FIG. On the other hand, FIGS. 14C and 14D correspond to the case where the display object 180 is arranged above the viewer 100.
  • FIGS. 14A and 14C show a state in which the depth position indicated by the display object 180 is arranged farther than the background image 740d.
  • FIGS. 14B and 14D show a state in which the position indicated by the display object 180 is arranged at the same depth position as the background image 740d.
  • boundaries 753a and 753b on both sides of the road 753 are modeled as a background image 740d.
  • the display object 180 is arranged below when viewed from the viewer 100.
  • the vanishing point VP1 of the display object 180 is disposed above the vanishing point VP2 of the background image 740d as viewed from the viewer 100.
  • the depth position indicated by the display object 180 is arranged farther than the background image 740d.
  • the vanishing point VP1 of the display object 180 matches the vanishing point VP2 of the background image 740d.
  • the depth position indicated by the display object 180 matches the depth position of the background image 740d.
  • the display object 180 is arranged above the viewer 100.
  • the vanishing point VP1 of the display object 180 is arranged below the vanishing point VP2 of the background image 740d as viewed from the viewer 100.
  • the depth position indicated by the display object 180 is arranged farther than the background image 740d.
  • the vanishing point VP1 of the display object 180 matches the vanishing point VP2 of the background image 740d.
  • the depth position indicated by the display object 180 matches the depth position of the background image 740d.
  • the video projection unit 115 arranges the display object 180 downward as viewed from the viewer 100, and the background image in which the viewer 100 views the vanishing point VP1 of the display object 180 through the projection plate. It is arranged above the vanishing point VP2 at 740d as viewed from the viewer 100.
  • the video projection unit 115 places the display object 180 upward as viewed from the viewer 100, and the vanishing point VP1 of the display object 180 is lower than the vanishing point VP2 of the background image 740d as viewed from the viewer 100. To place.
  • the video projection unit 115 determines the vanishing point of the display object 180 based on the target position PT (the position of the set depth distance Ld when viewed from the viewer 100) where the display object 180 is placed.
  • the difference between VP1 and the vanishing point VP2 of the background image 740d is changed.
  • the difference between the vanishing point VP1 of the display object 180 and the vanishing point VP2 of the background image 740d is reduced, for example, the vanishing point VP1 of the display object 180
  • the position is matched with the position of the vanishing point VP2 of the background image 740d.
  • the set depth distance Ld is larger than about 30 m, for example, 45 m or more
  • the difference between the vanishing point VP1 of the display object 180 and the vanishing point VP2 of the background image 740d is increased.
  • the position of the vanishing point VP1 is made different from the position of the vanishing point VP2 of the background image 740d.
  • the set depth position of the display object and the perceived depth position of the display object are accurately matched to the human depth perception characteristic when the set depth distance Ld as described with reference to FIGS. 10 to 13 is changed. Can be matched.
  • the difference between the vanishing point VP1 of the display object 180 and the vanishing point VP2 of the background image 740d can be enlarged compared to when the set depth distance Ld is small. desirable. This further increases the accuracy of the perceived depth position.
  • FIG. 15 is a schematic view illustrating the operation of the display device according to the first embodiment of the invention. That is, this figure illustrates the display object 180 when an “arrow” that prompts the user to change the course in the right direction is used as the display object 180. That is, the road 753 of the background image 740d has a branch road that branches in the right direction.
  • FIG. 9A shows an example in which the vanishing point VP1 of the display object 180 is arranged above the vanishing point VP2 of the background image 740d
  • the angle between the two sides 183a and 183b of the trunk portion of the “arrow” of the display object 180 is relatively small, so that the vanishing point VP1 of the display object 180 is It is arranged above the vanishing point VP2 of the background image 740d.
  • the angles of the “arrow” sides 183a and 183b of the display object 180 are relatively large, so that the vanishing point VP1 of the display object 180 becomes the vanishing point of the background image 740d. It is consistent with VP2.
  • the tip of the “arrow” of the display object 180 is arranged in the direction of the branched road 753, and the “arrow” is curved and indicates the direction of change of the course. ing.
  • the vanishing point VP1 of the display object 180 can be changed by changing the angle of the sides 183a and 183b of the display object 180, that is, the angle of the outline of the display object 180.
  • the set depth distance Ld is about 30 m or less
  • the configuration of the display object 180 illustrated in FIG. 15B is adopted, and when the set depth distance Ld is greater than about 30 m, for example, 45 m or more, FIG.
  • the set depth position of the display object and the perceived depth position of the display object can be matched with high accuracy.
  • FIG. 16 is a schematic view illustrating the configuration of another display device according to the first embodiment of the invention.
  • another display device 11 a according to the present embodiment further includes an external information acquisition unit 410 that acquires external information of a vehicle 730 on which the video projection unit 115 is mounted.
  • the video projection unit 115 adjusts the vanishing point VP1 of the display object 180 in accordance with the target position PT of the display object 180 based on the external world information acquired by the external world information acquisition unit 410, and the luminous flux 112 Project.
  • the video data generation unit 130 of the video projection unit 115 generates data related to the video including the display object 180 based on the external world information acquired by the external world information acquisition unit 410 and forms the video by the video formation unit 110. Then, the light beam 112 is projected by the projection unit 120.
  • the outside world information acquisition unit 410 acquires outside world information such as the traveling direction of the road, the width of the road, the shape of the road, the presence / absence of the branch point, and the shape of the branch point as the external world information of the vehicle 730.
  • this acquisition method an arbitrary method such as a method using a storage unit that stores the external information in advance or various methods for acquiring external information such as wireless communication can be adopted as appropriate. An example of how to obtain external information will be described later.
  • FIG. 17 is a flowchart illustrating the operation of another display device according to the first embodiment of the invention.
  • a route that is estimated to travel by the vehicle 730 on which the display device 11 a is mounted is generated (step S ⁇ b> 110).
  • a route is generated based on predetermined map information or the like from the relationship between the current position of the vehicle 730 determined by a GPS (Global Positioning System) function and the destination of the vehicle 730.
  • GPS Global Positioning System
  • the generation of the route may not be performed inside the display device 10, may be performed by a navigation system or the like mounted on the vehicle, and the route may be generated by an arbitrary method.
  • outside world information is acquired by the outside world information acquisition part 410 (step S120). For example, from the relationship between the generated route and the current position of the vehicle 730 determined by the GPS function or the like, the state of the road ahead of the vehicle 730, the presence / absence of a branch point, etc., as external information at the current position of the vehicle 730 Information is acquired.
  • an external display position for displaying the display object 180 such as the position of a branch point for changing the course, is derived (step S130).
  • the target position PT of the display object 180 is derived (step S140).
  • the target position PT is obtained based on the derived external display position (for example, the position of the branch point) and the current position of the vehicle 730.
  • video data including the display object 180 is generated based on the target position PT (step S150). For example, the position, size, and shape of the display object 180 within the screen 110d are determined based on the target position PT and the position of the one eye 101 of the viewer 100, and the position, size, and shape of the display object 180 are determined. Data of the display object 180 is generated.
  • the vanishing point VP1 of the display object 180 is adjusted in the display device 11a according to the present embodiment. That is, for example, the position of the vanishing point VP1 of the display object 180 and the vanishing point VP2 of the background image 740d are made different depending on the set depth distance Ld, which is the distance to the target position PT of the display object 180. Or match. Note that the vanishing point VP1 of the display object 180 is arranged above the vanishing point VP2 of the background image 740d, depending on whether the display object 180 is arranged below or above the viewer 100. Or change the position.
  • step S160 the video image including the display object 180 is appropriately corrected (step S160), and video data is output (step S170).
  • steps S130 to S160 are executed by the video data generation unit 130, for example.
  • a part of steps S130 to S170 may be executed by, for example, the outside world information acquisition unit 410 or other parts.
  • an image is formed by the image forming unit 110, and the light beam 112 having the image is projected toward the viewer 100 by the projection unit 120 (step S180).
  • the method of generating the data of the display object 180 by adjusting the position of the vanishing point VP1 of the display object 180 is arbitrary.
  • image data in which the vanishing point VP1 is controlled is created in the first stage of generating the display object 180. Based on the image data, the size, the angle, the arrangement position, and the like are changed.
  • the deformed image may be used as the final image data of the display object 180. Further, the image may be deformed so as to change the vanishing point VP1 after performing deformation regarding the size, angle, arrangement position, and the like of the display object 180.
  • a method of generating image data after giving the shift value can be employed. Further, it is possible to adopt a method in which image data is further deformed by the shift value after the image data is generated. A part for performing such calculation may be further provided separately from the video projecting unit 115, and for example, the video data generating unit 130 inside the video projecting unit 115 may perform such calculation. good.
  • the target position PT of the display object 180 can be efficiently derived, and the control regarding the vanishing point VP1 of the display object 180 can be efficiently performed.
  • the external information acquisition unit having the above function may be provided outside the display device according to the embodiment of the present invention, and by obtaining necessary data from the external information acquisition unit provided outside, The described operation can be performed.
  • FIG. 18 is a schematic view illustrating the configuration of another display device according to the first embodiment of the invention.
  • the display device 11 b further includes a route generation unit 450 that generates a route that the vehicle 730 is assumed to travel. Other than this, since it can be the same as that of the display device 11a, the description is omitted.
  • the route generation unit 450 calculates a route that the vehicle 730 is assumed to travel based on the outside world information acquired by the outside world information acquisition unit 410 and, for example, the current position of the vehicle 730. At this time, for example, several route candidates may be calculated, the viewer 100 who is the driver of the vehicle 730 may be prompted to select, and the route may be determined based on the result. As described above, by further providing the route generation unit 450, the route can be efficiently generated inside the display device 11b.
  • FIG. 19 is a schematic view illustrating the configuration of another display device according to the first embodiment of the invention.
  • the display device 11 c includes an outside world information data storage unit 410 a in which outside world information of the vehicle 730 is stored in advance.
  • the external world information acquisition part 410 acquires the data regarding the external world information previously stored in the external world information data storage part 410a.
  • a magnetic recording / reproducing device such as an HDD, a recording device based on an optical technique such as a CD or a DVD, or various storage devices using a semiconductor can be used.
  • outside world information data storage unit 410a various kinds of information related to the shape of roads, branch points, place names, buildings, and targets outside the vehicle 730 can be stored as outside world information of the vehicle 730.
  • the external world information acquisition unit 410 can read the external world information from the external world information data storage unit 410 a based on the current position of the vehicle 730 and supply it to the video data generation unit 130.
  • the current position of the vehicle 730 (viewer 100) is grasped by GPS or the like, and the traveling direction is grasped.
  • External information corresponding to the position and the traveling direction can be read out.
  • FIG. 20 is a schematic view illustrating the configuration of another display device according to the first embodiment of the invention.
  • the outside world information acquisition unit 410 includes an outside world information detection unit 420 that detects outside world information in front of the vehicle 730.
  • the outside world information detection unit 420 includes an outside world imaging unit 421 (camera), an image analysis unit 422 that analyzes an image captured by the outside world imaging unit 421, and an image analyzed by the image analysis unit 422.
  • An external environment information generation unit 423 that extracts various information related to the shape of roads, branch points, obstacles, and the like and generates external information.
  • the outside world information detection unit 420 may be designed to generate outside world information by reading signals from various guide signal generators such as a beacon provided on a road where the vehicle 730 travels.
  • the external information detection unit 420 that detects external information in front of the vehicle 730 is provided.
  • the outside world information acquisition unit 410 can obtain outside world information ahead of the vehicle 730 that changes from moment to moment. As a result, it is possible to acquire external world information that changes from moment to moment, and to calculate the traveling direction of the vehicle 730 with higher accuracy.
  • FIG. 21 is a schematic view illustrating the configuration of another display device according to the first embodiment of the invention.
  • the display device 11 e is further provided with a vehicle position detection unit 430 that detects the position of the vehicle 730.
  • vehicle position detection unit 430 for example, GPS can be used.
  • the display object 180 is generated based on the position of the vehicle 730 detected by the vehicle position detection unit 430.
  • the display object 180 is arranged based on the outside world information obtained by the outside world information acquisition unit 410 and the position of the vehicle 730 detected by the vehicle position detection unit 430. Thereby, the display object 180 based on the exact position of the vehicle 730 can be displayed.
  • the route generation unit 450 the external world information data storage unit 410a, the external world information detection unit 420, and the vehicle position detection unit 430 described above may be incorporated in the video projection unit 115 of the display device. good.
  • At least one of the route generation unit 450, the external world information data storage unit 410a, the external world information detection unit 420, and the vehicle position detection unit 430 may be provided outside the display device according to the embodiment of the present invention. Further, it may be provided outside the vehicle 730 on which the display device is mounted. In this case, input / output of data from a portion corresponding to a route generation unit, an outside world information data storage unit, an outside world information detection unit, and a vehicle position detection unit provided outside the vehicle 730 by wireless technology, for example. And perform the above operations.
  • FIG. 22 is a schematic view illustrating the configuration of another display device according to the first embodiment of the invention.
  • the display device 12 is further provided with an external information acquisition unit 410, a position detection unit 210, and a control unit 250 with respect to the display device 10 illustrated in FIG. 2. Since the outside world information acquisition unit 410 can be the same as described above, the description thereof is omitted.
  • the position detection unit 210 detects one eye 101 of the viewer 100.
  • the position detection unit 210 includes, for example, an imaging unit 211 that images the viewer 100, an image processing unit 212 that performs image processing on a captured image captured by the imaging unit 211, and data that has been subjected to image processing by the image processing unit 212. And a calculation unit 213 that determines and detects the position of one eye 101 of the human viewer 100 based on the information.
  • the calculation unit 213 calculates the face recognition of the viewer 100 and the position of the eyeball as a face component using a technique related to arbitrary person authentication, and determines the position of the one eye 101 on which the video of the viewer 100 is projected. To detect.
  • the imaging unit 211 is disposed, for example, in front of or on the side of the driver's seat of the vehicle 730.
  • the imaging unit 211 captures an image of the face of the operator 100, who is a pilot, and as described above, The position of one eye 101 is detected.
  • the control unit 250 controls the image projection unit 115 based on the position of the one eye 101 of the viewer 100 detected by the position detection unit 210, thereby at least one of the projection range 114 and the projection position 114a of the light beam 112. Adjust.
  • the control unit 250 controls the projection position 114a by controlling the angle of the mirror 126 by controlling the drive unit 126a coupled to the mirror 126 that is a part of the projection unit 120, for example.
  • control unit 250 can control the projection range 114 by controlling various optical components included in the projection unit 120, for example.
  • the head 105 of the viewer 100 moves, it is possible to control the presentation position of the video following the movement.
  • the movement of the head 105 of the human viewer 100 suppresses the video presentation position from deviating from the position of the one eye 101, so that a practical viewing range can be widened.
  • the control unit 250 may control the video forming unit 110 to adjust the luminance and contrast of the video.
  • at least one of the projection range 114 and the projection position 114a of the light beam 112 is automatically adjusted by the control unit 250 based on the detected position of the one eye 101.
  • at least one of the projection range 114 and the projection position 114a of the light beam 112 may be manually adjusted based on the detected position of the one eye 101.
  • the angle of the mirror 126 can be controlled by manually controlling the drive unit 126a while viewing the image of the head 105 of the viewer 100 captured by the projection unit 120 on some display. .
  • the windshield 710 is provided with a combiner 711 (reflection layer).
  • a combiner 711 is used as the projection plate 715.
  • the route generation unit 450 the external world information data storage unit 410a, the external world information detection unit 420, the vehicle position detection unit 430, the position detection unit 210, and the control unit 250 described above may be provided at the same time. .
  • FIG. 23 is a flowchart illustrating the display method according to the second embodiment of the invention.
  • the light beam 112 having an image including the display object 180 is reflected on the projection plate 715 having reflectivity and transparency, and one eye of the viewer 100 is displayed. Project toward 101.
  • the vanishing point VP1 of the display object 180 is arranged at a position different from the vanishing point VP2 of the background image 740d viewed by the viewer 100 through the projection plate 715 (step S10).
  • the light beam 112 having an image including the display object 180 is reflected by the projection plate 715 and projected toward the one eye 101 of the viewer 100 (step S20).
  • the vanishing point VP1 of the display object 180 is arranged above the vanishing point VP2 of the background image 740d.
  • the vanishing point VP1 of the display object 180 is arranged below the vanishing point VP2 of the background image 740d.
  • a video projection unit, a video data generation unit, a video formation unit, a projection unit, a light source, a diffuser plate, a taper light guide, a lens, an aperture, a mirror, a path generation unit, an external world information data storage unit, and external world information constituting the display device The specific configuration of each element such as the detection unit, the vehicle position detection unit, the position detection unit, and the control unit is appropriately selected from a well-known range by those skilled in the art, and the present invention is similarly implemented to achieve the same effect As long as it can be obtained, it is included in the scope of the present invention. Moreover, what combined any two or more elements of each specific example in the technically possible range is also included in the scope of the present invention as long as the gist of the present invention is included.
  • a monocular display device and a display method for accurately matching the set depth position of the display object with the perceived depth position of the display object.
  • 10, 11a to 10e, 12 display device 100 viewers, 101 one eye, 105 heads, 110 Image forming section, 110d screen, 112 luminous flux, 114 projection range, 114a projection position, 115 video projection unit, 120 projection unit, 121 light source, 122 taper light guide, 123 first lens, 124 aperture (divergence angle control unit), 125 second lens, 126 mirror, 126a drive unit, 127 diffuser, 130 video data generator, 180 display objects, 181 statues, 181a Virtual image formation position, 183a, 183b sides, 210 position detector, 211 imaging unit, 212 image processing unit, 213 arithmetic unit, 250 control unit, 410 External information acquisition unit, 410a External information data storage unit, 420 external information detection unit, 421 External imaging unit, 422 Image analysis unit, 423 external information generation unit, 430 vehicle position detector, 450 route generator, 710 windshield, 711 Combiner, 712 reflective surface, 715 projection plate, 720 Dashboard 730 Vehicle (moving body), 740d background

Abstract

 消失点を有する表示オブジェクトを含む映像を有する光束を、反射性と透過性とを有する投影板に反射させて観視者の片目に向けて投影する映像投影部を備え、前記映像投影部は、前記表示オブジェクトの前記消失点を、前記観視者が前記投影板を介して観視する背景像の消失点とは異なる位置に配置することを特徴とする表示装置が提供される。これにより、表示オブジェクトの設定奥行き位置と、表示オブジェクトの知覚奥行き位置と、を精度良く一致させる単眼式の表示装置及び表示方法が提供される。

Description

表示装置及び表示方法
 本発明は、表示装置及び表示方法に関する。
 車載用の表示装置として、目的地へのナビゲーション情報等の表示情報をフロントガラスに投影して、外界情報と表示情報とを同時に視認可能とするヘッドアップディスプレイHUD(Head-Up Display)が開発されている。通常のHUDの場合、HUDの表示は両眼で観察されるが、両眼視差が発生し、見難い表示となる。
 これに対し、片目で表示を観視する単眼HUDが提案されている(例えば、特許文献1参照)。これによれば、背景にマッチした空間位置に、表示オブジェクトの虚像を知覚させることができる。
 このような単眼HUDにおいて、表示オブジェクトが配置される奥行き位置と、表示オブジェクトを実際に知覚した時の知覚奥行き位置と、をさらに高精度に一致させることが望まれている。
特開2009-128565号公報
 本発明は、表示オブジェクトの設定奥行き位置と、表示オブジェクトの知覚奥行き位置と、を精度良く一致させる単眼式の表示装置及び表示方法を提供する。
 本発明の一態様によれば、消失点を有する表示オブジェクトを含む映像を有する光束を、反射性と透過性とを有する投影板に反射させて観視者の片目に向けて投影する映像投影部を備え、前記映像投影部は、前記表示オブジェクトの前記消失点を、前記観視者が前記投影板を介して観視する背景像の消失点とは異なる位置に配置することを特徴とする表示装置が提供される。
 本発明の別の一態様によれば、表示オブジェクトを含む映像を有する光束を、反射性と透過性とを有する投影板に反射させて観視者の片目に向けて投影する際に、前記表示オブジェクトの消失点を、前記観視者が前記投影板を介して観視した背景像の消失点とは異なる位置に配置して、前記表示オブジェクトを含む前記映像を有する前記光束を前記投影板に反射させて前記片目に向けて投影することを特徴とする表示方法が提供される。
 本発明によれば、表示オブジェクトの設定奥行き位置と、表示オブジェクトの知覚奥行き位置と、を精度良く一致させる単眼式の表示装置及び表示方法が提供される。
表示装置の動作を示す模式図である。 表示装置を示す模式図である。 表示装置の映像投影部を示す模式図である。 表示装置の座標系を示す模式図である。 表示装置の表示オブジェクトを示す模式図である。 表示装置の特性の評価実験の構成を示す模式図である。 表示装置の評価実験の実験条件を示す模式図である。 表示装置の評価実験に実験条件を示す模式図である。 表示装置の評価実験に実験条件を示す模式図である。 表示装置の実験結果を示すグラフ図である。 表示装置の実験結果を示すグラフ図である。 表示装置の実験結果を示すグラフ図である。 表示装置の実験結果を示すグラフ図である。 表示装置の動作を示す模式図である。 表示装置の動作を示す模式図である。 表示装置を示す模式図である。 表示装置の動作を示すフローチャート図である。 表示装置を示す模式図である。 表示装置を示す模式図である。 表示装置を示す模式図である。 表示装置を示す模式図である。 表示装置を示す模式図である。 表示方法を示すフローチャート図である。
 以下、本発明の実施の形態について図面を参照して詳細に説明する。 
 なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。 
 なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
 (第1の実施の形態)
 図1は、本発明の第1の実施形態に係る表示装置の動作を例示する模式図である。 
 図2は、本発明の第1の実施形態に係る表示装置の構成を例示する模式図である。 
 図3は、本発明の第1の実施形態に係る表示装置の映像投影部の構成を例示する模式図である。 
 図4は、本発明の第1の実施形態に係る表示装置の座標系を例示する模式図である。 
 図5は、本発明の第1の実施形態に係る表示装置の表示オブジェクトを例示する模式図である。 
 まず、図2及び図3により、本実施形態に係る表示装置10の構成について説明する。 図2に表したように、表示装置10は、表示オブジェクト180を含む映像を有する光束112を、反射性と透過性とを有する投影板715に反射させて観視者100の片目101に向けて投影する映像投影部115を備える。
 表示オブジェクト180は、表示装置10が観視者100に呈示する映像に設けられるものであり、例えば、表示装置10が搭載される車両730(移動体)の運行情報に関する、進行方向を示す「矢印」等の各種の表示内容である。
 投影板715は、例えば、車両730のフロントガラス710である。 
 映像投影部115は、光束112を観視者100の頭部105に向けて投影する。すなわち、映像投影部115から出射された光束112は、投影板715の反射面712で反射され、観視者100の片目101に入射する。
 観視者100は、投影された光束112に含まれる映像の表示オブジェクト180と、車両730の外界情報と、を同時に観視することができる。
 なお、図2に例示したように、表示装置10は、例えば車両730の中、すなわち、例えば、操縦者である観視者100から見て車両730のダッシュボード720の奥に設けられる。
 映像投影部115は、例えば、映像データ生成部130と、映像形成部110と、投影部120と、を有する。
 映像データ生成部130は、表示オブジェクトを含む映像に対応する映像信号を生成し、映像形成部110に供給する。
 映像形成部110としては、例えば、液晶表示装置(LCD)やDMD(Digital Micromirror Device)、及び、MEMS(Micro-electro-mechanical System)等の各種光スイッチを用いることができる。そして、映像形成部110は、映像データ生成部130から供給された映像信号に基づいて、映像形成部110の画面に映像を形成する。
 一方、投影部120には、例えば、各種の光源、レンズ、ミラー、及び、発散角(拡散角)を制御する各種の光学素子が用いられる。 
 本具体例では、投影部120は、第1レンズ123と、第2レンズ125と、第1レンズ123と第2レンズ125との間に設けられたアパーチャ124(発散角制御部)と、を有する。アパーチャ124の開口部の大きさは可変とすることができ、すなわち、アパーチャ124として可変アパーチャを用いることができる。
 より具体的には、図3に表したように、投影部120は、光源121と、テーパライトガイド122と、第1レンズ123と、第2レンズ125と、アパーチャ124と、ミラー126と、を含む。 
 光源121とミラー126との間に第1レンズ123が配置され、第1レンズ123とミラー126との間に第2レンズ125が配置され、光源121と第1レンズ123との間にテーパライトガイド122が配置される。
 そして、本具体例では、テーパライトガイド122と第1レンズ123との間に映像形成部110(例えばLCD)が配置される。
 なお、例えば、第1レンズ123の焦点距離を距離f1、第2レンズ125の焦点距離を距離f2とすると、アパーチャ124は、第1レンズ123から距離f1で、第2レンズ125から距離f2の位置に設置されている。
 ミラー126は、例えば凹面状であり、これにより、光束112の像を拡大して観視者100に投影できる。
 光源121には、LED(Light Emitting Diode)や高圧水銀ランプ、ハロゲンランプ、レーザなど各種のものを用いることができる。光源121にLEDを用いることで、消費電力を低減でき、また装置を軽量化でき、小型化できる。
 光源121から出射された光は、テーパライトガイド122において発散角がある程度の範囲に制御され、映像形成部110において所定の表示オブジェクト180を含む映像を含む光束112となる。光束112の発散角は、第1レンズ123、アパーチャ124及び第2レンズを通過することで、所定の角度に制御される。
 本具体例では、テーパライトガイド122と映像形成部110との間に、拡散板127が設けられており、これにより映像形成部110に入射する光がより均一化される。
 図2に表したように、光束112は、ミラー126で反射した後、車両730の投影板715で反射して、観視者100の片目101に到る。
 この時、例えば、映像投影部115に含まれる各種の光学素子によって、光束112の投影領域の投影範囲114と投影位置114aとが制御され、観視者100の片目101に光束112が入射し、もう一方の目には光束112が入射されないようにされる。例えば、光束112の投影範囲114の横方向(観視者100から見た時の横方向)は、65mm(ミリメートル)程度に制御される。
 なお、ミラー126の出射側(光源とは反対側)に、非球面フレネルレンズ(図示しない)を設けることができる。この非球面フレネルレンズによって、例えば、フロントガラス710の形状に合わせて光束112の形状を制御し、光束112に含まれる映像の形状を整えることができる。
 また、ミラー126は可動式とすることができ、例えば、観視者100の頭部105の位置や動きに合わせて、手動で、または、自動で、ミラー126の位置や角度を調節し、光束112を片目101に適切に投影させることができる。 
 なお、映像投影部115は、上記の具体例の他に、各種の変形が可能である。
 観視者100は、投影板715を介して、虚像形成位置181aの位置に形成された表示オブジェクト180の像181を知覚する。このように、表示装置10は、HUDとして使用できる。
 表示オブジェクト180は、観視者100から見た奥行き方向に関するターゲットの位置を有する。以下、表示オブジェクト180のターゲットの位置について説明する。
 ここで、図4に表したように、観視者100から見て、奥行き方向をZ軸方向とし、左右方向(水平方向Ha)をX軸方向とし、上下方向(垂直方向Va)をY軸方向とする。なお、観視者100から見て遠ざかる方向をZ軸の正の方向とし、観視者100から見て右方向がX軸の正の方向とし、観視者100から見て上方向をY軸の正の方向とする。
 観視者100は、投影板715の反射面712で反射した光束112の映像の表示オブジェクト180を観視する。この時、表示オブジェクト180が、例えば進路を示す「矢印」である場合、背景像740dの道753の分岐点753cの位置に重なるように、表示オブジェクト180の「矢印」の像181は配置される。すなわち、観視者100から見た時の背景像740dの分岐点753cの奥行き方向の位置が、表示オブジェクト180が配置されるべきターゲットの位置PTとなる。
 このように、実空間(X1軸、Y1軸及びZ1軸を有する空間)における所望の位置に対応するように、観視者100の視空間において、表示オブジェクト180はターゲットの位置PTに配置される。すなわち、実空間に存在する任意の物体(山、川、各種の建物や表示物、道、分岐点など)に対応させて表示オブジェクト180を表示する際に、観視者100から見た時に、その物体の位置であるターゲットの位置PTに表示オブジェクト180が配置される。以下では、表示オブジェクト180として、進路を示す「矢印」を用いる場合について説明する。
 ここで、実空間における観視者100の位置におけるX軸、Y軸及びZ軸と、実空間における背景の位置におけるX2軸、Y2軸及びZ2軸とは、それぞれ互いに平行である。一方、反射面712におけるX1軸、Y1軸及びZ2軸は、それぞれX軸、Y軸及びZ軸と、互いに平行でなくても良い。すなわち、図2に例示したように、観視者100から見て、車両730のフロントガラス710である投影板715の反射面712は、傾斜(X1軸を中心に回転)していている。図4においては、図を見やすくするために、X1軸、Y1軸及びZ2軸は、それぞれX軸、Y軸及びZ軸と、互いに平行とした。
 ここで、観視者100の片目101の位置を基準点P0とする。基準点P0とターゲットの位置PTとは、実空間において、X軸、Y軸及びZ軸のいずれの方向においても異なる。表示装置10が車両730に搭載されて用いられる状況に基づくと、実用上は、上下方向(Y軸方向)及び左右方向(X軸方向)の差異は小さく、奥行き方向(Z軸方向)の差異が大きい。このため、観視者100の片目101の位置(基準点P0)と、ターゲットの位置PTと、の間の奥行き方向(Z軸方向)の距離を、特に、設定奥行き距離Ldということにする。
 なお、表示オブジェクト180は、ターゲットの位置PTとして、例えば分岐点753cの位置に配置される。ターゲットの位置PTは必ずしも分岐点753cだけではなく、任意の位置に設定される。例えば、表示オブジェクト180として、直進の「矢印」を用いる場合においても、観視者100から見て所定の距離の前方の位置(ターゲットの位置PT)に、表示オブジェクト180を配置しても良い。なお、上記の所定の距離は、車両730の移動速度や前方の道の状況等に基づいて設定される。
 以下、表示オブジェクト180の配置の具体例について説明する。 
 図5(a)及び(b)は、表示オブジェクト180を背景像740dの道753(地面)に対応させて表示する場合を例示しており、図5(c)及び(d)は、表示オブジェクト180を背景像740dの天井754(上空)に対応させて表示する場合を例示している。
 図5(b)に表したように、反射面712における表示オブジェクト180の位置が、観視者100の片目101から見て下方に位置する場合には、観視者100は、背景像740dのうちで視線よりも下方の物体に重ねて表示オブジェクト180を観視する。背景像740dのうちで視線よりも下方の物体としては、例えば道753が用いられる。 
 この場合には、図5(a)に表したように、表示オブジェクト180は、背景像740dの道753に対応して表示される。
 図5(d)に表したように、反射面712における表示オブジェクト180の位置が、観視者100の片目101から見て上方に位置する場合には、観視者100は、背景像740dのうちで視線よりも上方の物体に重ねて表示オブジェクト180を観視する。背景像740dのうちで視線よりも上方の物体としては、例えば天井754が用いられる。 
 この場合には、図5(c)に表したように、表示オブジェクト180は、背景像740dの天井754に対応して表示される。 
 なお、このような、視線よりも上方の物体としては、高架道路などのように立体的に重なった道や、トンネル等の道や、また、上空に被さるように設置された照明や電線などを用いることができる。なお、この場合には、例えば、車両730の屋根の側に反射面712が配置され、Z軸方向よりも上側において、表示オブジェクト180が観視者100に観視される。
 以下では、表示オブジェクト180を背景像740dの道753(地面)に対応させて表示する場合について、本実施形態に係る表示装置10の動作について説明する。
 図1(a)は、観視者100が知覚する、表示オブジェクト180の像181と、車両730の外界の背景像740dと、を模式的に例示している。図1(b)は、映像投影部115の映像形成部110の画面110dにおける表示オブジェクト180の像181を例示している。図1(c)は、観視者100が知覚する車両730の外界の背景像740dを例示している。
 図1(b)に表したように、映像形成部110(例えばLCD)の画面110dには、表示オブジェクト180が形成される。表示オブジェクト180は、矢印の形状を有している。
 表示オブジェクト180は、消失点VP1(第1消失点VP1)を有する。 
 すなわち、表示オブジェクト180の図形は、奥行きを知覚させる消失点VP1を有する形状を有しており、例えば「矢印」の幹の部分の2つの辺183a及び183bの延長線は、消失点VP1で交差する。
 なお、観視者100から見て表示オブジェクト180が下方に配置される場合(例えば図5(a)及び(b)に例示した構成の場合)は、消失点VP1は、表示オブジェクト180の位置よりも上方に配置される。 
 一方、観視者100から見て表示オブジェクト180が上方に配置される場合(例えば図5(c)及び(d)に例示した構成の場合)は、消失点VP1は、表示オブジェクト180の位置よりも下方に配置される。
 観視者100は、消失点VP1と表示オブジェクト180との位置との関係に基づいて、観視者100から見た時の表示オブジェクト180の奥行き感を得る。このように、表示オブジェクト180が消失点VP1を有することで、観視者100における表示オブジェクト180の奥行き位置の推定が容易になる。
 一方、図1(c)に表したように、車両730の外界の背景像740dは、消失点VP2(第2消失点VP2)を有する。本具体例では、観視者100から見て、前方に直進する道753が存在し、その道753の両側の境界753a及び753bの延長線が、消失点VP2で実質的に交差(点となる)する。このように、背景像740dが消失点VP2を有することから、観視者100は、背景像740dにおいて奥行き感を得る。
 そして、本実施形態に係る表示装置10においては、図1(a)に表したように、表示オブジェクト180の消失点VP1が、背景像740dの消失点VP2とは異なる位置に配置される。
 より具体的には、表示オブジェクト180の消失点VP1は、背景像740dの消失点VP2よりも上方に配置される。すなわち、観視者100が、表示オブジェクト180の像181と背景像740dとを同時に観視した場合に、表示オブジェクト180の消失点VP1が、背景像740dの消失点VP2よりも上方に配置される。
 すなわち、映像投影部115は、表示オブジェクト180の消失点VP1を、観視者100が投影板715を介して観視する背景像740dの消失点VP2よりも観視者100から見て上方に配置する。
 一般に、絵画などを含めて画像を作成する場合、画像内の各種のオブジェクトをそれぞれの奥行き位置に配置する際に、消失点が用いられる。例えば、所定の消失点から直線が放射状に仮想的に描かれ、その直線に各オブジェクトの輪郭線などを沿わせることで、各オブジェクトは所定の奥行き位置に定着されて知覚される。なお、消失点は複数設けることができるが、ここでは、説明を簡単にするために、1つの画像内において消失点が1つ設けられる場合として説明する。
 このように、一般の画像の形成においては、表示オブジェクトの輪郭を形成する各境界線の延長線が消失点で交差するように、表示オブジェクトが生成されるため、HUDの場合においても、表示オブジェクト180の消失点VP1の位置が、背景像740dの消失点VP2の位置と一致するように、表示オブジェクト180が生成されるが、本実施形態においては、表示オブジェクト180の消失点VP1の位置と、背景像740dの消失点VP2の位置と、が異なるように、表示オブジェクト180が生成される。背景像740dの消失点VP2は、投影位置114aと表示装置10の傾きから推定される。
 これにより、表示オブジェクト180の設定奥行き位置と、表示オブジェクトの知覚奥行き位置と、を精度良く一致させることができる。
 本発明の実施形態の構成は、以下に説明する奥行き知覚に関する実験結果から新たに見出されたヒトの知覚特性に基づいて構築されたものである。 
 発明者は、表示装置10を車両730に搭載し、車両730を走行させながら、各種の表示オブジェクト180(矢印)の像181を車両730のフロントガラス710に反射させて、車両730の助手席に搭乗する被験者(観視者100)に観視させた。そして、表示オブジェクト180を各種の奥行き位置に配置し、その時、表示オブジェクト180の大きさ、及び、地面からの高さ、を変え、被験者が知覚する奥行き距離を回答させる実験を行った。
 図6は、本発明の第1の実施形態に係る表示装置の特性の評価実験の構成を例示する模式図である。 
 図6に表したように、被験者(観視者100)の片目101の位置を基準点P0とし、基準点P0から表示オブジェクト180の設定配置位置Qまでの奥行き方向(Z軸方向)の距離が、設定奥行き距離Ldとされる。すなわち、設定配置位置Qが、表示オブジェクトのターゲットの位置PTである。本実験では、設定奥行き距離Ldは、30m、45m及び60mの3種類とされた。
 そして、表示オブジェクト180の設定配置位置Qと、地面と、の間の距離を、設定高さΔhとする。本実験では、設定高さΔhは、0m、0.5m及び1.0mの3種類とされた。
 さらに、表示オブジェクト180の大きさを、設定奥行き距離Ldが30m、45m及び60mのそれぞれに対応する位置に配置した時の大きさの3種類とした。すなわち、表示オブジェクト180の大きさに相当する設定寸法距離Srを、30m、45m及び60mの3種類とした。設定寸法距離Srは、表示オブジェクト180の大きさを、奥行き距離として表現しているものであり、奥行き位置が遠いと物体が小さく見える遠近感の現象に基づいている。
 なお、地面に平行な平面がX-Z平面である。そして、基準点P0と、表示オブジェクト180の設定配置位置Qと、を結ぶ線と、Z軸方向と、のなす角を俯角θとする。なお、俯角θにおいては、観視者100の片目101から見て、下方(地面に向かう方向)が正である。
 図7~図9は、本発明の第1の実施形態に係る表示装置の特性の評価実験の条件を例示する模式図である。 
 すなわち、図7(a)~(d)は、設定奥行き距離Ldの変化を例示しており、図8(a)~(d)は、設定高さΔhの変化を例示しており、図9(a)~(d)は、設定寸法距離Srの変化を例示している。図7(a)、図8(a)及び図9(a)は、それぞれ、設定奥行き距離Ld、設定高さΔh及び設定寸法距離Srの変化の際の、表示オブジェクト180の像181の変化を例示している。図7(b)~(d)、図8(b)~(d)及び図9(b)~(d)は、それぞれの変化の場合の表示オブジェクト180の像181の位置及び大きさを例示している。
 図7(b)~(d)に表したように、設定奥行き距離Ldが30m、45m及び60mに変えられる。 
 この時、図7(a)に表したように、表示オブジェクト180の像181は、それぞれ、像D30、像D45及び像D60のように変化する。すなわち、設定奥行き距離Ldが大きくなるにつれ、像181の位置は、Y軸方向の上方向(Y軸の正の方向)に移動し、像181の大きさは小さくなる。
 この時の像181の位置は、図7(b)~(d)に例示したように、観視者100の片目101の位置である基準点P0と、表示オブジェクト180の設定配置位置Qと、反射面712において光束112が投影される投影位置Pと、の相互の距離の比率に基づいて変化する。すなわち、基準点P0と設定配置位置Qと設定水平配置位置Q1とを頂点とする三角形と、基準点P0と投影位置Pと水平投影位置P1とを頂点とする三角形と、の比率に基づいて、像181の位置が変化する。本具体例では、設定奥行き距離Ldが大きくなると、投影位置Pが上方向にシフトすることに対応して、表示オブジェクト180の像181の画面110d内での位置が上方向にシフトさせられる。
 図8(b)~(d)に表したように、設定高さΔHが0m、0.5m及び1.0mに変えられる。 
 この時、図8(a)に表したように、表示オブジェクト180の像181は、それぞれ、像H00、像H05及び像H10のように変化する。すなわち、設定高さΔHが大きくなるにつれ、像181の位置は、Y軸方向の上方向(Y軸の正の方向)に移動する。
 この時も、像181の位置は、上記の基準点P0と設定配置位置Qと設定水平配置位置Q1とを頂点とする三角形と、基準点P0と投影位置Pと水平投影位置P1とを頂点とする三角形と、の比率に基づいて、変えられる。本具体例では、設定高さΔhが大きくなると、投影位置Pが上方向にシフトすることに対応して、表示オブジェクト180の像181の映像内での位置が上方向にシフトさせられる。なお、設定高さΔhが変化すると、俯角θも変化するので、表示オブジェクト180の像181の形状も、俯角θの変化に連動して変えられる。
 図9(b)~(d)に表したように、設定寸法距離Srが30m、45m及び60mに変えられる。 
 この時、図9(a)に表したように、表示オブジェクト180の像181は、それぞれ、像S30、像S45及び像S60のように変化する。すなわち、設定寸法距離Srが大きくなるにつれ、像181の大きさが小さくなる。この、像181の大きさの変化は、遠近感に基づいている。
 なお、上記のように、基準点P0と設定配置位置Qと設定水平配置位置Q1とを頂点とする三角形と、基準点P0と投影位置Pと水平投影位置P1とを頂点とする三角形と、の比率に基づいて設定した像181の位置を「相似法設定位置」と言うことにする。
 上記の図7~図9は、設定奥行き距離Ld、設定高さΔh及び設定寸法距離Srが単独で変化させられる例であるが、本実験においては、設定奥行き距離Ld、設定高さΔh及び設定寸法距離Srをそれぞれ3種類ずつ変え、計27種類の条件の表示オブジェクト180を用いて、知覚される奥行き距離(知覚奥行き距離Ls)を求めた。
 図10~図12は、本発明の第1の実施形態に係る表示装置の特性の実験結果を例示するグラフ図である。 
 すなわち、図10(a)~(d)は設定奥行き距離Ldが30mの時の結果であり、図11(a)~(d)は設定奥行き距離Ldが45mの時の結果であり、図12(a)~(d)は設定奥行き距離Ldが60mの時の結果である。
 そして、図10(a)、図11(a)及び図12(a)は、設定寸法距離Srが30mの結果であり、図10(b)、図11(b)及び図12(b)は、設定寸法距離Srが45mの結果であり、図10(c)、図11(c)及び図12(c)は、設定寸法距離Srが60mの結果である。図10(d)、図11(d)及び図12(d)は、設定寸法距離Srが30m、45m及び60mの結果を一緒に表示した図である。 
 これらの図の横軸は設定高さΔhであり、縦軸は知覚奥行き距離Lsである。また、図中の破線BLは、それぞれの図において、設定奥行き距離Ldに一致する知覚奥行き距離Lsを示す。
 図13は、本発明の第1の実施形態に係る表示装置の特性の実験結果を例示するグラフ図である。 
 すなわち、図13(a)~(c)は、図10~図12の一部の結果を別のグラフとして表したものである。すなわち、設定奥行き距離Ldと設定寸法距離Srとが一致する図10(a)、図11(b)及び図12(c)の結果を、横軸が設定奥行き距離Ldで縦軸が知覚奥行き距離Lsのグラフに表したものである。図13(a)~(c)は、それぞれ、設定高さΔhが、0m、0.5m及び1.0mの結果である。なお、これらの図において、破線BLは、設定奥行き距離Ldと知覚奥行き距離Lsとが一致する場合を表している。
 なお、図10~図13の図は、箱ひげ図(box plot)であり、図中の箱(長方形)の下端は第1四分位点であり、箱の上端は第3四分位点であり、箱中の横線は中央値を示し、縦線の上端は最大値であり、縦線の下端は最小値であり、「*」印は外れ値を示す。
 図10(a)~(d)に表したように、設定奥行き距離Ldが30mの時に、知覚奥行き距離Lsが30mに近いのは、設定高さΔhが0mの時である。 
 そして、図11(a)~(d)に表したように、設定奥行き距離Ldが45mの時に、知覚奥行き距離Lsが45mに近いのは、設定高さΔhが0.5mの時である。 
 そして、図12(a)~(d)に表したように、設定奥行き距離Ldが60mの時に、知覚奥行き距離Lsが60mに近いのは、設定高さΔhが1.0m程度の時である。
 図13(a)~(c)に表したように、設定奥行き距離Ldが小さい(例えば30m)の時は、設定高さΔhが0mの時に、設定奥行き距離Ldと知覚奥行き距離Lsとが近くなる。設定奥行き距離Ldが45mや60mと大きくなるに従って、設定高さΔhが大きい方が設定奥行き距離Ldと知覚奥行き距離Lsとが近くなる。
 このように、設定奥行き距離Ldが30m、45m及び60mと大きくなり、表示オブジェクト180の設定配置位置Qが観視者100から見て遠くなるに従って、表示オブジェクト180の配置の高さを地面から上方にシフトさせた時に、設定奥行き距離Ldと知覚奥行き距離Lsの一致性が高まる。
 表示オブジェクト180は「矢印」であり、通常は、背景像740dである道753の表面の高さに一致させて表示オブジェクト180が配置される(すなわち、設定高さΔhを0mに設定する)。
 このように設定高さΔhを0mに設定すると、設定奥行き距離Ldが30mの場合には設定奥行き距離Ldと知覚奥行き距離Lsとは比較的一致するが、設定奥行き距離Ldが30mよりも大きくなると、一致しなくなる。単眼式の表示において、このように、設定奥行き距離Ldの変化に対して、設定奥行き距離Ldと知覚奥行き距離Lsとが一致する設定高さΔhが変化することは、従来知られていなかった。さらに、設定奥行き距離Ldが大きくなるに従って、設定奥行き距離Ldと知覚奥行き距離Lsとが一致する設定高さΔhが、より拡大することも、従来知られていなかった。このような現象は、本実験によって初めて見出されたものである。
 この実験結果は、設定奥行き距離Ldが大きくなると、表示オブジェクト180の像181を、相似法設定位置よりも、映像の上方(この場合は映像の中央側)にシフトさせて配置することが、設定奥行き距離Ldと知覚奥行き距離Lsとの一致性が向上することを意味している。
 そして、本実験では、表示オブジェクト180は、観視者100から見て道753の側(下側、すなわち、Y軸の負の方向の側)に配置されていることを考慮すると、表示オブジェクト180の像181を映像の上方にシフトさせて配置することは、表示オブジェクト180の像181を観視者100から見て遠方側に配置することに対応する。
 従って、設定奥行き距離Ldが大きくなると、表示オブジェクト180の像181を、観視者100から見て、より遠方側に配置することで、設定奥行き距離Ldと知覚奥行き距離Lsとの一致性が向上する。
 この現象は、単眼で表示を観視する場合におけるヒトの奥行き知覚に関する特異な特性であると考えられる。特に、今回の実験においては、車両730を走行させながら、各種の表示オブジェクト180(矢印)の像181を表示させるという実際に近い実験条件が用いられているので、この結果を応用した構成を採用することで、特に、走行中等の実際の条件において、設定奥行き距離Ldと知覚奥行き距離Lsとの一致性が高い表示を実現できる。
 なお、本実験では、図5(a)及び(b)に例示したように、表示オブジェクト180を観視者100から見て下方に配置しているので、表示オブジェクト180の像181を観視者100から見て遠方側に配置することは、表示オブジェクト180を上方に配置することに対応する。
 一方、図5(c)及び(d)に例示したように、表示オブジェクト180を観視者100から見て上方に配置した場合には、表示オブジェクト180の像181を観視者100から見て遠方側に配置することは、表示オブジェクト180を下方に配置することに対応する。
 すなわち、設定奥行き距離Ldが大きい場合には、表示オブジェクト180の像181を、相似法設定位置による位置よりも遠方側に配置すれば良い。表示オブジェクト180を観視者100から見て下方に配置している場合は、表示オブジェクト180を相似法設定位置に基づく位置よりも上方に配置する。表示オブジェクト180を観視者100から見て上方に配置している場合は、表示オブジェクト180を相似法設定位置に基づく位置よりも下方に配置する。
 そして、このようなヒトの奥行き知覚に関する特異な特性に関する新たな知見に基づいて、本実施形態に係る表示装置10においては、表示オブジェクト180の消失点VP1が、観視者100が投影板715を介して観視する背景像740dの消失点VP2よりも観視者100から見て遠方に配置される。
 すなわち、表示オブジェクト180の消失点VP1が、背景像740dの消失点VP2とは異なる位置に配置される。
 例えば、表示オブジェクト180を観視者100から見て下方に配置している場合は、表示オブジェクト180の消失点VP1は、背景像740dの消失点VP2よりも上方に配置される。
 そして、例えば、表示オブジェクト180を観視者100から見て上方に配置している場合は、表示オブジェクト180の消失点VP1は、背景像740dの消失点VP2よりも下方に配置される。
 これにより、ヒトの奥行き知覚に適合させて、背景像740dの位置に精度良く一致させて、表示オブジェクト180の奥行き位置を知覚させることができる。そして、知覚奥行き位置の観視者によるばらつきを小さくし、所望の奥行き位置に表示オブジェクト180を知覚させることができる。
 以下、表示オブジェクト180の消失点VP1の制御についてさらに詳しく説明する。
 図14は、本発明の第1の実施形態に係る表示装置の動作を例示する模式図である。 
 すなわち、図14(a)及び(b)は、表示オブジェクト180が、観視者100から見て下方に配置される場合に対応する。一方、図14(c)及び(d)は、表示オブジェクト180が、観視者100から見て上方に配置される場合に相当する。
 そして、図14(a)及び(c)は、表示オブジェクト180が示す奥行き位置が背景像740dよりも遠方側に配置される状態を示す。図14(b)及び(d)は、表示オブジェクト180が示す位置が背景像740dと同じ奥行き位置に配置される状態を示す。なお、これらの図には、背景像740dとして、道753の両側の境界753a及び753bがモデル的に示されている。
 まず、表示オブジェクト180が、観視者100から見て下方に配置される場合について説明する。 
 図14(a)に表したように、表示オブジェクト180の消失点VP1は、背景像740dの消失点VP2よりも、観視者100から見て上方に配置されている。これにより、表示オブジェクト180が示す奥行き位置が、背景像740dよりも遠方側に配置される。このような表示オブジェクト180を用いることで、例えば、図11及び図12に例示したように設定奥行き距離Ldが45m~60mと、設定配置位置Qが比較的遠い場合に、観視者100が知覚する知覚奥行き距離Lsと、設定奥行き距離Ldと、が良く一致するようになる。
 図14(b)に表したように、表示オブジェクト180の消失点VP1は、背景像740dの消失点VP2と一致している。この場合は、表示オブジェクト180が示す奥行き位置は、背景像740dの奥行き位置と、一致する。このような表示オブジェクト180を用いることで、例えば、図10に例示したように設定奥行き距離Ldが30mと、設定配置位置Qが比較的近い場合に、観視者100が知覚する知覚奥行き距離Lsと、設定奥行き距離Ldと、が良く一致する。
 次に、表示オブジェクト180が、観視者100から見て上方に配置される場合について説明する。 
 図14(c)に表したように、表示オブジェクト180の消失点VP1は、背景像740dの消失点VP2よりも、観視者100から見て下方に配置されている。これにより、表示オブジェクト180が示す奥行き位置が、背景像740dよりも遠方側に配置される。このような表示オブジェクト180を用いることで、例えば、図11及び図12に例示したように設定奥行き距離Ldが45m~60mと、設定配置位置Qが比較的遠い場合に、観視者100が知覚する知覚奥行き距離Lsと、設定奥行き距離Ldと、が良く一致するようになる。
 図14(d)に表したように、表示オブジェクト180の消失点VP1は、背景像740dの消失点VP2と一致している。この場合は、表示オブジェクト180が示す奥行き位置は、背景像740dの奥行き位置と、一致する。このような表示オブジェクト180を用いることで、例えば、図10に例示したように設定奥行き距離Ldが30mと、設定配置位置Qが比較的近い場合に、観視者100が知覚する知覚奥行き距離Lsと、設定奥行き距離Ldと、が良く一致する。
 このように、映像投影部115は、観視者100から見て表示オブジェクト180を下方に配置し、表示オブジェクト180の消失点VP1を、観視者100が投影板を介して観視する背景像740dの消失点VP2よりも観視者100から見て上方に配置する。または、映像投影部115は、観視者100から見て表示オブジェクト180を上方に配置し、表示オブジェクト180の消失点VP1を、背景像740dの消失点VP2よりも観視者100から見て下方に配置する。
 より具体的には、映像投影部115は、表示オブジェクト180が配置されるターゲットの位置PT(観視者100から見た時の設定奥行き距離Ldの位置)に基づいて、表示オブジェクト180の消失点VP1と、背景像740dの消失点VP2と、の差を変化させる。
 すなわち、例えば、設定奥行き距離Ldが30m程度以下の時は、表示オブジェクト180の消失点VP1と、背景像740dの消失点VP2と、の差を小さくし、例えば、表示オブジェクト180の消失点VP1の位置と、背景像740dの消失点VP2の位置と、を一致させる。
 そして、例えば、設定奥行き距離Ldが30m程度よりも大きい、例えば45m以上の時は、表示オブジェクト180の消失点VP1と、背景像740dの消失点VP2と、の差を大きくし、表示オブジェクト180の消失点VP1の位置と、背景像740dの消失点VP2の位置と、を異ならせる。
 これにより、図10~図13に関して説明したような設定奥行き距離Ldを変えた時のヒトの奥行き知覚特性に対応させ、表示オブジェクトの設定奥行き位置と、表示オブジェクトの知覚奥行き位置と、を精度良く一致させることができる。
 すなわち、表示オブジェクト180を観視した時の知覚される奥行き位置の個人差を小さくし、所望の奥行き位置に精度良く表示オブジェクト180を知覚させることができ、背景重畳型の単眼式表示において、精度の高い奥行き配置を実現することが可能となる。
 また、上記において、設定奥行き距離Ldが大きい場合には、設定奥行き距離Ldが小さい場合よりも、表示オブジェクト180の消失点VP1と、背景像740dの消失点VP2と、の差を拡大することが望ましい。これにより、知覚される奥行き位置の精度がより高まる。
 図15は、本発明の第1の実施形態に係る表示装置の動作を例示する模式図である。 
 すなわち、同図は、表示オブジェクト180として、右方向に進路を変更することを促す「矢印」が用いられる場合の表示オブジェクト180を例示している。すなわち、背景像740dの道753は、右方向に分岐した分岐道を有している。そして、同図(a)は、表示オブジェクト180の消失点VP1が、背景像740dの消失点VP2よりも上方に配置される例であり、同図(b)は、表示オブジェクト180の消失点VP1が、背景像740dの消失点VP2と一致する例である。
 図15(a)に表したように、表示オブジェクト180の「矢印」の幹の部分の2つの辺183a及び183bの互いの角度は比較的小さく、これにより、表示オブジェクト180の消失点VP1が、背景像740dの消失点VP2よりも上方に配置される。
 図15(b)に表したように、表示オブジェクト180の「矢印」の辺183a及び183bの互いの角度は比較的大きく、これにより、表示オブジェクト180の消失点VP1が、背景像740dの消失点VP2と一致している。
 そして、図15(a)及び(b)の両方において、表示オブジェクト180の「矢印」の先は、分岐した道753の方向に配置され、「矢印」は曲がっており、進路の変更方向を示している。
 このように、表示オブジェクト180の辺183a及び183bの角度、すなわち、表示オブジェクト180の輪郭線の角度を変化させることで、表示オブジェクト180の消失点VP1を変化させることができる。
 例えば、設定奥行き距離Ldが30m程度以下の時は、図15(b)に例示した表示オブジェクト180の構成を採用し、設定奥行き距離Ldが30m程度よりも大きい、例えば45m以上の時は、図15(c)に例示した表示オブジェクト180の構成を採用することで、表示オブジェクトの設定奥行き位置と、表示オブジェクトの知覚奥行き位置と、を精度良く一致させることができる。
 以下、表示オブジェクト180のターゲットの位置PTを定める方法の例について説明する。
 図16は、本発明の第1の実施形態に係る別の表示装置の構成を例示する模式図である。 
 図16に表したように、本実施形態に係る別の表示装置11aは、映像投影部115が搭載される車両730の外界情報を取得する外界情報取得部410をさらに備える。
 そして、映像投影部115は、外界情報取得部410によって取得された外界情報に基づいて、表示オブジェクト180のターゲットの位置PTに対応させて、表示オブジェクト180の消失点VP1を調整して、光束112を投影する。
 すなわち、例えば、映像投影部115の映像データ生成部130が、外界情報取得部410によって取得された外界情報に基づいて表示オブジェクト180を含む映像に関するデータを生成し、映像形成部110によって映像を形成し、投影部120で光束112を投影する。
 外界情報取得部410は、車両730の外界情報として、例えば、道の進行方向、道の幅、道の形状、分岐点の有無、及び、分岐点の形状等の外界情報を取得する。この取得の方法には、予めこれらの外部情報を記憶した記憶部を用いる方法や、適宜、無線通信などの外部情報を入手する種々の方法など、任意の方法を採用することができる。外部情報の入手方法の例については後述する。
 図17は、本発明の第1の実施形態に係る別の表示装置の動作を例示するフローチャート図である。 
 図17に表したように、例えば、まず、表示装置11aが搭載される車両730の進行すると推測される経路が生成される(ステップS110)。例えばGPS(Global Positioning System)機能などによって求められた車両730の現在位置と、車両730の目的地と、の関係から、所定の地図情報等によって経路が生成される。なお、この経路の生成は、表示装置10の内部で行われなくても良く、車両に搭載されるナビゲーションシステム等によって行われても良く、任意の方法によって経路が生成されれば良い。
 そして、外界情報取得部410によって外界情報が取得される(ステップS120)。例えば、生成された経路と、GPS機能などによって求められた車両730の現在位置と、の関係から、車両730の現在位置における外界情報として、車両730の前方の道の状態や分岐点の有無などの情報が取得される。
 そして、例えば進路を変更する分岐点の位置などの、表示オブジェクト180を表示する外界表示位置を導出する(ステップS130)。
 そして、導出された外界表示位置に基づいて表示オブジェクト180のターゲットの位置PTが導出される(ステップS140)。例えば、導出された外界表示位置(例えば分岐点の位置)と、車両730の現在の位置と、に基づいてターゲットの位置PTが求められる。
 そして、ターゲットの位置PTに基づいて、表示オブジェクト180を含む映像データが生成される(ステップS150)。例えば、ターゲットの位置PTと、観視者100の片目101の位置と、に基づいて、表示オブジェクト180の画面110d内での位置、大きさ及び形状が決められ、その位置、大きさ及び形状の表示オブジェクト180のデータが生成される。
 この時、本実施形態に係る表示装置11aにおいては、表示オブジェクト180の消失点VP1が調整される。すなわち、例えば、表示オブジェクト180のターゲットの位置PTまでの距離である、設定奥行き距離Ldの大きさによって、表示オブジェクト180の消失点VP1と、背景像740dの消失点VP2と、の位置を異ならせたり、一致させたりする。なお、表示オブジェクト180を観視者100から見て下方に配置するか、上方に配置するかで、表示オブジェクト180の消失点VP1を背景像740dの消失点VP2よりも上方に配置するか、下方に配置するか、を変える。
 そして、表示オブジェクト180を含む映像の映像を適宜補正し(ステップS160)、映像データを出力する(ステップS170)。
 上記のステップS130~ステップS160は、例えば、映像データ生成部130において実行される。ただし、ステップS130~ステップS170の一部は、例えば、外界情報取得部410やその他の部分で実行されても良い。
 そして、その映像データに基づいて、映像形成部110によって映像が形成され、投影部120によって映像を有する光束112が観視者100に向かって投影される(ステップS180)。
 なお、上記のステップS150において、表示オブジェクト180の消失点VP1の位置を調整して表示オブジェクト180のデータを生成する手法は任意である。例えば、表示オブジェクト180を生成する最初の段階で、消失点VP1が制御された画像データを作成する。その画像データを基に、大きさ、角度、配置位置などに関する変形を行う。変形した画像を、最終的な表示オブジェクト180の画像データとしても良い。また、表示オブジェクト180の大きさ、角度、配置位置などに関する変形を行った後に、消失点VP1を変えるように画像の変形を行っても良い。すなわち、表示オブジェクト180の消失点VP1のシフトを行う際に、そのシフト値を与えた後に画像データを生成する方法が採用できる。また、画像データを生成した後にそのシフト値によってさらに画像データを変形する方法も採用できる。なお、このような演算を行う部分を、映像投影部115とは別に、さらに設けても良く、また、映像投影部115の内部の例えば映像データ生成部130にこのような演算を実施させても良い。
 このように、外界情報取得部410をさらに備えることで、表示オブジェクト180のターゲットの位置PTを効率的に導出でき、表示オブジェクト180の消失点VP1に関する制御を効率的に実施できる。
 なお、上記の機能を有する外界情報取得部は、本発明の実施形態に係る表示装置の外部に設けても良く、外部に設けたその外部情報取得部から必要データを入手することで、上記で説明した動作を実施できる。
 図18は、本発明の第1の実施形態に係る別の表示装置の構成を例示する模式図である。 
 図18に表したように、表示装置11bは、車両730の進行すると推測される経路を生成する経路生成部450をさらに備えている。これ以外は、表示装置11aと同様とすることができるので説明を省略する。
 経路生成部450は、外界情報取得部410により取得された外界情報と、例えば、車両730の現在位置と、に基づいて、車両730の進行すると推測される経路を算出する。この時、例えば、いくつかの経路の候補を算出し、車両730の操縦者である観視者100に選択を促して、その結果に基づき、経路を決定するようにしても良い。 
 このように、経路生成部450をさらに設けることで、表示装置11bの内部で効率的に経路を生成することができる。
 図19は、本発明の第1の実施形態に係る別の表示装置の構成を例示する模式図である。 
 図19に表したように、表示装置11cは、車両730の外界情報が予め格納された外界情報データ格納部410aを有している。これにより、外界情報取得部410は、外界情報データ格納部410aに予め格納された外界情報に関するデータを取得する。
 外界情報データ格納部410aには、HDDなどの磁気記録再生装置やCDやDVDなどの光学的手法に基づいた記録装置や、半導体を用いた各種の記憶装置を用いることができる。
 外界情報データ格納部410aには、車両730の外界情報として、車両730の外部の、道路や分岐点の形状、地名、建物や目標物などに関する各種の情報を格納することができる。これにより、外界情報取得部410は、車両730の現在位置に基づき、外界情報データ格納部410aから外界情報を読み出し、それを映像データ生成部130に供給できる。
 なお、外界情報データ格納部410aに格納された情報を読み出す際には、例えば、GPSなどによって車両730(観視者100)の現在の位置を把握し、また、進行方向を把握し、これらによって、その位置と進行方向とに対応した外界情報を読み出すことができる。
 図20は、本発明の第1の実施形態に係る別の表示装置の構成を例示する模式図である。 
 図20に表したように、表示装置11dにおいては、外界情報取得部410は、車両730の前方の外界情報を検出する外界情報検出部420を有している。 
 本具体例では、外界情報検出部420は、外界撮像部421(カメラ)と、外界撮像部421で撮像した画像を画像解析する画像解析部422と、画像解析部422で解析された画像から、道路や分岐点の形状や障害物などに関する各種の情報を抽出し、外界情報を生成する外界情報生成部423と、を有している。これにより、外界情報として、外界情報検出部420により検出された外界の道路状況(道路や分岐点の形状や障害物など)に関するデータが取得される。また、外界情報検出部420は、車両730が進行する道などに設けられたビーコンなど各種の案内信号発生器からの信号を読み取って外界情報を生成するように設計されても良い。
 このように、本実施例に係る表示装置11dにおいては、車両730の前方の外界情報を検出する外界情報検出部420を設ける。外界情報取得部410は、時々刻々と変化する車両730の前方の外界情報を入手することができる。これにより、時々刻々と変化する外界情報を取得でき、車両730の進む方向をより精度良く算出することができる。
 図21は、本発明の第1の実施形態に係る別の表示装置の構成を例示する模式図である。 
 図21に表したように、表示装置11eにおいては、車両730の位置を検出する車両位置検出部430がさらに設けられている。車両位置検出部430には、例えばGPSを用いることができる。そして、表示オブジェクト180は、車両位置検出部430が検出した車両730の位置を基に生成される。
 すなわち、外界情報取得部410による外界情報と、車両位置検出部430が検出した車両730の位置と、に基づき、表示オブジェクト180が配置される。これにより、車両730の正確な位置に基づいた表示オブジェクト180を表示することができる。
 なお、上記で説明した、経路生成部450、外界情報データ格納部410a、外界情報検出部420、及び、車両位置検出部430の少なくともいずれかは、表示装置の映像投影部115に内蔵されても良い。
 また、経路生成部450、外界情報データ格納部410a、外界情報検出部420、及び、車両位置検出部430の少なくともいずれかは、本発明の実施形態に係る表示装置の外部に設けても良い。また、さらに、表示装置が搭載される車両730の外部に設けても良い。この場合には、例えば無線技術等によって、車両730の外部に設けられた経路生成部、外界情報データ格納部、外界情報検出部、及び、車両位置検出部に相当する部分からデータの入出力を行い、上記の動作を行う。
 図22は、本発明の第1の実施形態に係る別の表示装置の構成を例示する模式図である。 
 図22に表したように、表示装置12は、図2に例示した表示装置10に対して、外界情報取得部410と、位置検出部210と、制御部250と、がさらに設けられている。外界情報取得部410に関しては、上記と同様とすることができるので説明を省略する。
 位置検出部210は、観視者100の片目101を検出する。位置検出部210は、例えば、観視者100を撮像する撮像部211と、撮像部211によって撮像された撮像画像を画像処理する画像処理部212と、画像処理部212で画像処理されたデータに基づいて、観視者100の片目101の位置を判断し、検出する演算部213と、を含むことができる。
 演算部213においては、任意の人物認証に関する技術を用いて、観視者100の顔認識と顔部品としての眼球位置を算出し、観視者100の映像を投影する片目101の位置を判断して検出する。
 なお、撮像部211は、例えば、車両730の運転席の前方や側方に配置され、例えば、操縦者である観視者100の顔面の像を撮像し、上記のように、観視者の片目101の位置を検出する。
 制御部250は、位置検出部210で検出された観視者100の片目101の位置に基づいて、映像投影部115を制御することにより、光束112の投影範囲114と投影位置114aの少なくともいずれかを調整する。
 制御部250は、例えば、投影部120の一部であるミラー126に連結された駆動部126aを制御して、ミラー126の角度を制御することによって、投影位置114aを制御する。
 また、制御部250は、例えば、投影部120に含まれる各種の光学部品を制御して、投影範囲114を制御することができる。
 これにより、観視者100の頭部105が動いた際にも、それに追従して、映像の呈示位置を制御することが可能となる。観視者100の頭部105の移動によって映像呈示位置が片目101の位置から外れることが抑制され、実用的な観視範囲を広くすることが可能になる。
 なお、制御部250は、例えば、映像形成部110を制御して映像の輝度やコントラストなどを調整しても良い。 
 なお、上記の具体例では、検出された片目101の位置に基づいて、光束112の投影範囲114と投影位置114aとの少なくともいずれかを制御部250によって自動的に調整するが、本発明はこれに限らない。例えば、検出された片目101の位置に基づいて光束112の投影範囲114と投影位置114aの少なくともいずれかを手動で調整するようにしても良い。この場合は、例えば、投影部120によって撮像された観視者100の頭部105の画像を何らかのディスプレイで見ながら、駆動部126aを手動で制御して、ミラー126の角度を制御することができる。
 また、本具体例の表示装置12においては、フロントガラス710にコンバイナ711(反射層)が設けられている。コンバイナ711が、投影板715として用いられる。コンバイナ711の光学特性を適切に設計することにより、光束112の反射率や背景像740dの光の透過率をより向上でき、さらに見やすい表示が実現できる。
 なお、上記で説明した、経路生成部450、外界情報データ格納部410a、外界情報検出部420、車両位置検出部430、位置検出部210及び制御部250の少なくとも2つ以上を同時に設けても良い。
 (第2の実施の形態)
 図23は、本発明の第2の実施形態に係る表示方法を例示するフローチャート図である。 
 図23に表したように、本実施形態に係る表示方法は、表示オブジェクト180を含む映像を有する光束112を、反射性と透過性とを有する投影板715に反射させて観視者100の片目101に向けて投影する。表示オブジェクト180の消失点VP1を、観視者100が投影板715を介して観視した背景像740dの消失点VP2とは異なる位置に配置する(ステップS10)。
 そして、表示オブジェクト180を含む映像を有する光束112を投影板715に反射させて観視者100の片目101に向けて投影する(ステップS20)。
 例えば、表示オブジェクト180を観視者100から見て下方に配置している場合は、表示オブジェクト180の消失点VP1を、背景像740dの消失点VP2よりも上方に配置する。
 そして、例えば、表示オブジェクト180を観視者100から見て上方に配置している場合は、表示オブジェクト180の消失点VP1を、背景像740dの消失点VP2よりも下方に配置する。
 これにより、ヒトの奥行き知覚に適合させて、表示オブジェクトの設定奥行き位置と、表示オブジェクトの知覚奥行き位置と、を精度良く一致させることができる。
 以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、表示装置を構成する映像投影部、映像データ生成部、映像形成部、投影部、光源、拡散板、テーパライトガイド、レンズ、アパーチャ、ミラー、経路生成部、外界情報データ格納部、外界情報検出部、車両位置検出部、位置検出部及び制御部等、各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。 
 また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
 その他、本発明の実施の形態として上述した表示装置を基にして、当業者が適宜設計変更して実施し得る全ての表示装置も、本発明の要旨を包含する限り、本発明の範囲に属する。
 その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
 本発明によれば、表示オブジェクトの設定奥行き位置と、表示オブジェクトの知覚奥行き位置と、を精度良く一致させる単眼式の表示装置及び表示方法が提供される。
 10、11a~10e、12 表示装置、
 100 観視者、
 101 片目、
 105 頭部、
 110 映像形成部、
 110d 画面、
 112 光束、
 114 投影範囲、
 114a 投影位置、
 115 映像投影部、
 120 投影部、
 121 光源、
 122 テーパライトガイド、
 123 第1レンズ、
 124 アパーチャ(発散角制御部)、
 125 第2レンズ、
 126 ミラー、
 126a 駆動部、
 127 拡散板、
 130 映像データ生成部、
 180 表示オブジェクト、
 181 像、
 181a 虚像形成位置、
 183a、183b 辺、
 210 位置検出部、
 211 撮像部、
 212 画像処理部、
 213 演算部、
 250 制御部、
 410 外界情報取得部、
 410a 外界情報データ格納部、
 420 外界情報検出部、
 421 外界撮像部、
 422 画像解析部、
 423 外界情報生成部、
 430 車両位置検出部、
 450 経路生成部、
 710 フロントガラス、
 711 コンバイナ、
 712 反射面、
 715 投影板、
 720 ダッシュボード
 730 車両(移動体)、
 740d 背景像、
 753 道、
 753a、753b 境界、
 753c 分岐点、
 754 天井、
 BL 破線、
 D30、D45、D60、H00、H05、H10、S30、S45、S60 像、
 Ha 水平方向、
 Ld 設定奥行き距離、
 Ls 知覚奥行き距離、
 P 投影位置、
 P0 基準点、
 P1 水平投影位置、
 PT ターゲットの位置、
 Q 設定配置位置、
 Q1 設定水平配置位置、
 Sr 設定寸法距離、
 VP1、VP2 消失点、
 Va 垂直方向、
 f1、f2 距離、
 Δh 設定高さ

Claims (5)

  1.  消失点を有する表示オブジェクトを含む映像を有する光束を、反射性と透過性とを有する投影板に反射させて観視者の片目に向けて投影する映像投影部を備え、
     前記映像投影部は、前記表示オブジェクトの前記消失点を、前記観視者が前記投影板を介して観視する背景像の消失点とは異なる位置に配置することを特徴とする表示装置。
  2.  前記映像投影部は、
     前記観視者から見て前記表示オブジェクトを下方に配置し、前記表示オブジェクトの前記消失点を、前記背景像の前記消失点よりも前記観視者から見て上方に配置する、または、
     前記観視者から見て前記表示オブジェクトを上方に配置し、前記表示オブジェクトの前記消失点を、前記背景像の前記消失点よりも前記観視者から見て下方に配置することを特徴とする請求項1記載の表示装置。
  3.  前記映像投影部は、
     第1レンズと、第2レンズと、第1レンズ及び第2レンズとの間に設けられ、前記光束の発散角を制御する発散角制御素子と、を有することを特徴とする請求項2記載の表示装置。
  4.  前記映像投影部は、前記表示オブジェクトが配置されるターゲットの位置に基づいて、前記表示オブジェクトの前記消失点と、前記背景像の前記消失点と、の差を変化させることを特徴とする請求項3記載の表示装置。
  5.  表示オブジェクトを含む映像を有する光束を、反射性と透過性とを有する投影板に反射させて観視者の片目に向けて投影する際に、
     前記表示オブジェクトの消失点を、前記観視者が前記投影板を介して観視した背景像の消失点とは異なる位置に配置して、
     前記表示オブジェクトを含む前記映像を有する前記光束を前記投影板に反射させて前記片目に向けて投影することを特徴とする表示方法。
PCT/JP2009/066750 2009-09-28 2009-09-28 表示装置及び表示方法 WO2011036788A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2009/066750 WO2011036788A1 (ja) 2009-09-28 2009-09-28 表示装置及び表示方法
JP2011532864A JP5173031B2 (ja) 2009-09-28 2009-09-28 表示装置及び表示方法
US13/420,183 US8693103B2 (en) 2009-09-28 2012-03-14 Display device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/066750 WO2011036788A1 (ja) 2009-09-28 2009-09-28 表示装置及び表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/420,183 Continuation US8693103B2 (en) 2009-09-28 2012-03-14 Display device and display method

Publications (1)

Publication Number Publication Date
WO2011036788A1 true WO2011036788A1 (ja) 2011-03-31

Family

ID=43795558

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/066750 WO2011036788A1 (ja) 2009-09-28 2009-09-28 表示装置及び表示方法

Country Status (3)

Country Link
US (1) US8693103B2 (ja)
JP (1) JP5173031B2 (ja)
WO (1) WO2011036788A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013083888A1 (fr) * 2011-12-09 2013-06-13 Valeo Etudes Electroniques Interface homme-machine pour véhicule automobile
CN103707812A (zh) * 2012-09-28 2014-04-09 富士重工业株式会社 视线引导系统
JP2014071023A (ja) * 2012-09-28 2014-04-21 Fuji Heavy Ind Ltd 視線誘導システム
JP2014071021A (ja) * 2012-09-28 2014-04-21 Fuji Heavy Ind Ltd 視線誘導システム
JP2014071019A (ja) * 2012-09-28 2014-04-21 Fuji Heavy Ind Ltd 視線誘導システム
JP2014071022A (ja) * 2012-09-28 2014-04-21 Fuji Heavy Ind Ltd 視線誘導システム
JP2015120395A (ja) * 2013-12-23 2015-07-02 日本精機株式会社 車両情報投影システム
CN106062613A (zh) * 2014-10-31 2016-10-26 韩国帝诺思有限公司 平视显示系统的能注视前方的控制装置
JP2018020779A (ja) * 2017-09-29 2018-02-08 日本精機株式会社 車両情報投影システム
JP2018124461A (ja) * 2017-02-02 2018-08-09 株式会社リコー 表示装置、移動体装置及び表示方法。
JP2019014474A (ja) * 2013-03-15 2019-01-31 本田技研工業株式会社 動的焦点面を備える立体ヘッドアップディスプレイ
JP2019168745A (ja) * 2018-03-22 2019-10-03 株式会社リコー 表示装置、移動体、表示方法、及びプログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5275963B2 (ja) 2009-12-08 2013-08-28 株式会社東芝 表示装置、表示方法及び移動体
JP5734888B2 (ja) 2012-01-31 2015-06-17 株式会社東芝 表示装置、移動体、及び、表示装置の設置方法
GB2504311A (en) * 2012-07-25 2014-01-29 Bae Systems Plc Head-up display using fluidic lens
JP5741540B2 (ja) * 2012-09-04 2015-07-01 株式会社デンソー ヘッドアップディスプレイ装置
JP5825328B2 (ja) * 2013-11-07 2015-12-02 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
JP5969973B2 (ja) * 2013-12-18 2016-08-17 富士重工業株式会社 車載画像表示装置
DE102014015241B4 (de) * 2014-10-16 2023-11-02 Mercedes-Benz Group AG Verfahren und Vorrichtung zur Darstellung von Inhalten in einer Projektion eines Headup-Displays eines Fahrzeuges, sowie ein Kraftfahrzeug
JP6485732B2 (ja) * 2014-12-10 2019-03-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP6308172B2 (ja) * 2015-06-11 2018-04-11 株式会社デンソー 表示装置
JP6414096B2 (ja) 2016-02-17 2018-10-31 トヨタ自動車株式会社 車載装置、車載装置の制御方法及び車載装置の制御プログラム
JP6569999B2 (ja) * 2016-09-14 2019-09-04 パナソニックIpマネジメント株式会社 表示装置
GB201702309D0 (en) 2017-02-13 2017-03-29 Jaguar Land Rover Ltd An apparatus and a method for controlling a head-up display of a vehicle
CN108459411A (zh) * 2017-02-20 2018-08-28 上海蔚兰动力科技有限公司 抬头显示器与运输工具
TWI674000B (zh) * 2017-03-01 2019-10-01 坦前科技股份有限公司 具景深效果之影像追蹤系統與標記之方法
KR102306790B1 (ko) * 2017-11-08 2021-09-30 삼성전자주식회사 컨텐츠 시각화 장치 및 방법
DE102018203462A1 (de) * 2018-03-07 2019-09-12 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
KR102116783B1 (ko) * 2018-10-10 2020-05-29 네이버랩스 주식회사 영상을 지면에 위치시켜 운전자의 시점에 증강현실을 구현하는 3차원 증강현실 헤드업 디스플레이
CN113677553A (zh) * 2019-04-11 2021-11-19 三菱电机株式会社 显示控制装置以及显示控制方法
TWI767707B (zh) * 2021-05-17 2022-06-11 友達光電股份有限公司 顯示裝置及顯示方法
JP2022184350A (ja) * 2021-06-01 2022-12-13 マツダ株式会社 ヘッドアップディスプレイ装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0886661A (ja) * 1994-09-19 1996-04-02 Sumitomo Electric Ind Ltd 走行経路誘導装置
JPH09325042A (ja) * 1996-06-05 1997-12-16 Matsushita Electric Ind Co Ltd 走行位置表示装置
JP2009098501A (ja) * 2007-10-18 2009-05-07 Nissan Motor Co Ltd 視覚情報呈示装置及び視覚情報呈示方法
JP2009128565A (ja) * 2007-11-22 2009-06-11 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4476719B2 (ja) 2004-07-02 2010-06-09 よこはまティーエルオー株式会社 ナビゲーションシステム
JP2006284458A (ja) 2005-04-01 2006-10-19 Denso Corp 運転支援情報表示システム
JP5075595B2 (ja) 2007-11-26 2012-11-21 株式会社東芝 表示装置及びそれを用いた移動体
JP2009163084A (ja) 2008-01-09 2009-07-23 Toshiba Corp 表示装置及び移動体
JP2009229752A (ja) 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
JP5462443B2 (ja) 2008-03-27 2014-04-02 株式会社東芝 反射スクリーン、表示装置及び移動体
JP4852062B2 (ja) 2008-03-28 2012-01-11 株式会社東芝 単眼用画像表示装置及び単眼用画像表示方法
JP2009246505A (ja) 2008-03-28 2009-10-22 Toshiba Corp 画像表示装置及び画像表示装置
JP5160302B2 (ja) 2008-05-19 2013-03-13 株式会社東芝 半導体装置の製造方法
JP2010097193A (ja) 2008-09-17 2010-04-30 Toshiba Corp 表示装置及び移動体
JP2010072365A (ja) 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
JP2010070066A (ja) 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
JP4686586B2 (ja) 2008-09-19 2011-05-25 株式会社東芝 車載用表示装置及び表示方法
JP4776669B2 (ja) 2008-09-25 2011-09-21 株式会社東芝 表示装置および移動体
JP4886751B2 (ja) 2008-09-25 2012-02-29 株式会社東芝 車載用表示システム及び表示方法
JP2010143520A (ja) 2008-12-22 2010-07-01 Toshiba Corp 車載用表示システム及び表示方法
JP5161760B2 (ja) 2008-12-26 2013-03-13 株式会社東芝 車載用表示システム及び表示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0886661A (ja) * 1994-09-19 1996-04-02 Sumitomo Electric Ind Ltd 走行経路誘導装置
JPH09325042A (ja) * 1996-06-05 1997-12-16 Matsushita Electric Ind Co Ltd 走行位置表示装置
JP2009098501A (ja) * 2007-10-18 2009-05-07 Nissan Motor Co Ltd 視覚情報呈示装置及び視覚情報呈示方法
JP2009128565A (ja) * 2007-11-22 2009-06-11 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013083888A1 (fr) * 2011-12-09 2013-06-13 Valeo Etudes Electroniques Interface homme-machine pour véhicule automobile
FR2983792A1 (fr) * 2011-12-09 2013-06-14 Valeo Etudes Electroniques Interface homme-machine pour vehicule automobile
US10214105B2 (en) 2011-12-09 2019-02-26 Valeo Etudes Electroniques Man-machine interface for motor vehicle
CN103707812A (zh) * 2012-09-28 2014-04-09 富士重工业株式会社 视线引导系统
JP2014071023A (ja) * 2012-09-28 2014-04-21 Fuji Heavy Ind Ltd 視線誘導システム
JP2014071020A (ja) * 2012-09-28 2014-04-21 Fuji Heavy Ind Ltd 視線誘導システム
JP2014071021A (ja) * 2012-09-28 2014-04-21 Fuji Heavy Ind Ltd 視線誘導システム
JP2014071019A (ja) * 2012-09-28 2014-04-21 Fuji Heavy Ind Ltd 視線誘導システム
JP2014071022A (ja) * 2012-09-28 2014-04-21 Fuji Heavy Ind Ltd 視線誘導システム
JP2019014474A (ja) * 2013-03-15 2019-01-31 本田技研工業株式会社 動的焦点面を備える立体ヘッドアップディスプレイ
JP2015120395A (ja) * 2013-12-23 2015-07-02 日本精機株式会社 車両情報投影システム
CN106062613A (zh) * 2014-10-31 2016-10-26 韩国帝诺思有限公司 平视显示系统的能注视前方的控制装置
JP2018124461A (ja) * 2017-02-02 2018-08-09 株式会社リコー 表示装置、移動体装置及び表示方法。
JP2018020779A (ja) * 2017-09-29 2018-02-08 日本精機株式会社 車両情報投影システム
JP2019168745A (ja) * 2018-03-22 2019-10-03 株式会社リコー 表示装置、移動体、表示方法、及びプログラム
JP7183555B2 (ja) 2018-03-22 2022-12-06 株式会社リコー 表示装置、移動体、表示方法、及びプログラム

Also Published As

Publication number Publication date
JPWO2011036788A1 (ja) 2013-02-14
JP5173031B2 (ja) 2013-03-27
US8693103B2 (en) 2014-04-08
US20120170130A1 (en) 2012-07-05

Similar Documents

Publication Publication Date Title
JP5173031B2 (ja) 表示装置及び表示方法
JP4886751B2 (ja) 車載用表示システム及び表示方法
JP5155915B2 (ja) 車載用表示システム、表示方法及び車両
US8708498B2 (en) Display apparatus for vehicle and display method
JP6201690B2 (ja) 車両情報投影システム
US9164281B2 (en) Volumetric heads-up display with dynamic focal plane
KR102397089B1 (ko) 이미지 처리 방법 및 이미지 처리 장치
JP5008556B2 (ja) ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置
JP7065383B2 (ja) 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
JP5331146B2 (ja) 単眼ヘッドマウントディスプレイ
US9076248B2 (en) Display apparatus
KR102359682B1 (ko) 다중 영상 평면을 이용하여 확장된 운전자 시점에서 증강현실을 구현하는 3차원 헤드업 디스플레이 및 이를 이용한 정보 표시 방법
WO2011108091A1 (ja) 車載用表示装置及び表示方法
JP2010143520A (ja) 車載用表示システム及び表示方法
JPWO2017134865A1 (ja) ヘッドアップディスプレイ装置
JP6883759B2 (ja) 表示システム、表示システムの制御方法、プログラム、及び移動体
JP2012035745A (ja) 表示装置、画像データ生成装置及び画像データ生成プログラム
JP2011253097A (ja) 表示装置及び表示方法
JP2012096731A (ja) 表示装置及び表示方法
US10795167B2 (en) Video display system, video display method, non-transitory storage medium, and moving vehicle for projecting a virtual image onto a target space
JP2018125629A (ja) ヘッドアップディスプレイ装置
JP7377740B2 (ja) 車載表示装置、車載表示装置を制御する方法、及びコンピュータプログラム
JP2015072709A (ja) 画像提示装置、方法、及びプログラム
JP2022113292A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP2018103888A (ja) ヘッドアップディスプレイ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09849819

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011532864

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09849819

Country of ref document: EP

Kind code of ref document: A1