WO2013024539A1 - 虚像表示装置 - Google Patents

虚像表示装置 Download PDF

Info

Publication number
WO2013024539A1
WO2013024539A1 PCT/JP2011/068659 JP2011068659W WO2013024539A1 WO 2013024539 A1 WO2013024539 A1 WO 2013024539A1 JP 2011068659 W JP2011068659 W JP 2011068659W WO 2013024539 A1 WO2013024539 A1 WO 2013024539A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual image
image forming
epe
forming element
image
Prior art date
Application number
PCT/JP2011/068659
Other languages
English (en)
French (fr)
Inventor
祥夫 棚橋
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to EP11871097.9A priority Critical patent/EP2746832B1/en
Priority to PCT/JP2011/068659 priority patent/WO2013024539A1/ja
Priority to JP2012515246A priority patent/JP5214060B1/ja
Priority to US14/238,240 priority patent/US9810908B2/en
Publication of WO2013024539A1 publication Critical patent/WO2013024539A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion

Definitions

  • the present invention relates to a virtual image display device that visually recognizes an image as a virtual image.
  • a display device such as a head-up display that allows a user to visually recognize an image as a virtual image from the position (eye point) of the user's eyes.
  • a display device such as a head-up display that allows a user to visually recognize an image as a virtual image from the position (eye point) of the user's eyes.
  • two concave mirrors for enlarging an image are provided in a light path from an image display device to an observer, and a virtual image is formed by reflecting the image of the image display device twice.
  • a technique for improving the magnification ratio of a virtual image and the shape distortion of a virtual image has been proposed.
  • the display surface of the image display element and the projection surface of the projection optical system are decentered in the YZ section, and the projection surface is a circle with a string directed toward the projection optical system side in the XZ section.
  • a projection optical system composed of an arcuate curved surface and having at least one rotationally asymmetric correction optical surface that corrects image distortion, and
  • Patent Document 3 proposes a technique related to the present invention.
  • the virtual image tends to be distorted.
  • distortions having different shapes tend to occur in virtual images observed with the left and right eyes. In this case, the user may be fatigued.
  • the distortion of the virtual image can be reduced.
  • the entire head-up display becomes large, which is disadvantageous for mounting in the vehicle interior. There is a case.
  • an aspherical or free-form optical element is used as in Patent Document 2, it is known that the distortion of a virtual image can be made minute, but inexpensive manufacturing is difficult.
  • Examples of the problem to be solved by the present invention include the above. It is an object of the present invention to provide a virtual image display device capable of appropriately suppressing virtual image distortion with a simple configuration.
  • the virtual image display device includes: an image forming element that forms an image to be displayed; and an optical element that displays a virtual image by reflecting light emitted from the image forming element.
  • the optical element has a concave shape in the traveling direction of the light emitted from the image forming element, and the light emitted from the image forming element is transmitted to the optical element by another optical element. The light is incident without being reflected, and the image forming element is arranged in a direction substantially orthogonal to a direction in which the virtual image is viewed through the optical element.
  • the virtual image display device includes an image forming element that forms an image to be displayed, an optical element that displays a virtual image by reflecting light emitted from the image forming element on a concave surface, and The optical element is disposed in a direction in which light emitted from the image forming element is emitted, and the image forming element is disposed in a direction substantially orthogonal to a direction in which the virtual image is viewed through the optical element. ing.
  • the image forming element is disposed in a direction substantially orthogonal to a direction in which the virtual image is visually recognized through the optical element.
  • FIG. 1 shows an overall configuration of a virtual image display apparatus according to a first embodiment.
  • the structure of a laser projector is shown.
  • the figure for demonstrating the direction (line-of-sight direction) etc. which look at the center of a virtual image from an eye point is shown.
  • positioning relationship of EPE and a combiner with respect to a gaze direction is shown.
  • the image formed in EPE in simulation is shown.
  • the figure for demonstrating the simulation conditions in an eyebox center is shown.
  • the example of a simulation result in the eyebox center in the first embodiment is shown.
  • the figure for demonstrating the simulation conditions with both eyes is shown.
  • the simulation result example with both eyes in 1st Example is shown.
  • produces when EPE is not arrange
  • For each radius of curvature of the combiner the relationship between the angle between the EPE and the line-of-sight direction and the amount of distortion of the virtual image is shown.
  • the specific example of the arrangement state of a laser projector and EPE is shown.
  • amending the distortion of the image formed on EPE is shown.
  • the whole structure of the virtual image display apparatus which concerns on 3rd Example is shown.
  • the example of a simulation result in the eyebox center in 3rd Example is shown.
  • the simulation result example with both eyes in 3rd Example is shown.
  • the whole structure of the virtual image display apparatus which concerns on the modification 1 is shown.
  • the whole structure of the virtual image display apparatus which concerns on the modification 2 is shown.
  • An example of a simulation result when using a field lens according to Modification 3 is shown.
  • a virtual image display device includes an image forming element that forms an image to be displayed, and an optical element that displays a virtual image by reflecting light emitted from the image forming element,
  • the optical element has a concave shape in the traveling direction of the light emitted from the image forming element, and the light emitted from the image forming element is reflected by the other optical element on the optical element.
  • the image forming element is arranged in a direction substantially orthogonal to a direction in which the virtual image is viewed through the optical element.
  • the above virtual image display device is a device for visually recognizing an image as a virtual image.
  • the image forming element forms an image to be displayed, and the optical element displays a virtual image by reflecting the light emitted from the image forming element.
  • the optical element has a concave shape in the traveling direction of the light emitted from the image forming element, so that the light emitted from the image forming element is incident without being reflected by another optical element (such as a mirror). Is done.
  • the optical element is disposed in the emission direction of the light emitted from the image forming element.
  • the image forming element is arranged in a direction substantially orthogonal to the direction in which the virtual image is viewed through the optical element. That is, the surface of the image forming element from which light is emitted is disposed in a direction substantially orthogonal to the direction in which the virtual image is viewed.
  • the distortion of the virtual image can be appropriately suppressed.
  • the trapezoidal distortion of the virtual image, the difference in the aspect ratio between the image formed on the image forming element and the virtual image, and the difference in the shape of the virtual image observed with both eyes can be appropriately suppressed. Further, by suppressing the difference in the shape of the virtual image observed with both eyes, it becomes easy to correct the distortion of the virtual image by image processing.
  • the image forming element when the inclination of the optical element is changed, the image forming element is arranged in a direction substantially orthogonal to a direction in which the virtual image is visually recognized.
  • An inclination changing means for changing the inclination of the forming element is further provided.
  • a virtual image distortion correction element is disposed between the image forming element and the optical element.
  • the virtual image distortion correction element corrects bow distortion of the virtual image caused by the curvature of the optical element.
  • light emitted from the image forming element may be directly incident on the optical element.
  • an apparatus can be comprised more simply.
  • the image forming element is an exit pupil enlarging element that expands an exit pupil of light emitted from a light source.
  • the exit pupil enlarging element is a microlens array in which a plurality of microlenses are arranged.
  • the virtual image display device further includes correction means for correcting distortion of an image formed on the image forming element by light emitted from the light source.
  • the correction unit corrects distortion of the image caused by an angle of light emitted from the light source with respect to the image forming element.
  • a liquid crystal display or an organic EL display can be used as the image forming element.
  • the image forming element can be arranged at a position where the light reflected by the optical element is not irradiated.
  • the image forming element can be configured in a planar shape.
  • a virtual image display device in another aspect of the present invention, includes: an image forming element that forms an image to be displayed; and an optical element that displays a virtual image by reflecting light emitted from the image forming element on a concave surface.
  • the optical element is disposed in a direction in which light emitted from the image forming element is emitted, and the image forming element is disposed in a direction substantially orthogonal to a direction in which the virtual image is visually recognized through the optical element.
  • the image forming element is disposed in a direction substantially orthogonal to a direction in which the virtual image is visually recognized through the optical element.
  • FIG. 1 is a block diagram schematically showing an overall configuration of a virtual image display device 100 according to the first embodiment. Here, the outline
  • the virtual image display device 100 mainly includes a laser projector 1 and an exit pupil expanding element (hereinafter referred to as “EPE (Exit-PupilPExpander)” as appropriate) 11. , A field lens 12 and a combiner 13.
  • EPE Exit-PupilPExpander
  • the virtual image display device 100 is a device that visually recognizes an image as a virtual image from the position (eye point) of the user's eyes.
  • the virtual image display device 100 is used as a head-up display or a head-mounted display, for example.
  • the laser projector 1 includes a red, green, and blue laser light source, a scanning mechanism that scans laser light emitted from the laser light source, and a control unit that controls these.
  • the light emitted from the laser projector 1 enters the EPE 11. Details of the laser projector 1 will be described later.
  • the EPE 11 enlarges the exit pupil of the light emitted from the laser projector 1 and forms an intermediate image of the image presented to the user.
  • the EPE 11 is a microlens array in which a plurality of microlenses are arranged.
  • the light emitted from the EPE 11 enters the field lens 12. Note that an image without distortion is formed on the EPE 11 as an intermediate image.
  • the EPE 11 corresponds to an example of an “image forming element” in the present invention.
  • the field lens 12 is a lens disposed on the exit side of the EPE 11.
  • the field lens 12 has a planar surface on which light from the EPE 11 is incident (that is, an incident surface), and a convex surface having a spherical surface on the side opposite to the surface on which the light from the EPE 11 is incident (that is, an exit surface). It is configured in shape.
  • the field lens 12 is spaced apart from the EPE 11 so that the planar surface is parallel to the surface of the EPE 11.
  • the field lens 12 is arranged such that an axis connecting the center of the field lens 12 and the center of the EPE 11 is parallel to an axis extending in the vertical direction of the EPE 11.
  • the light emitted from the field lens 12 enters the combiner 13.
  • the field lens 12 corresponds to an example of a “virtual image distortion correction element” in the present invention.
  • the combiner 13 is a half mirror that displays the image corresponding to the incident light as an enlarged virtual image by reflecting the light from the field lens 12.
  • the combiner 13 is configured to have a concave surface having a spherical surface on which light from the field lens 12 is incident (that is, an incident surface).
  • the user observes a virtual image from an eye point that is a predetermined distance away from the combiner 13.
  • the combiner 13 corresponds to an example of the “optical element” in the present invention.
  • the EPE 11 and the field lens 12 are integrated with the laser projector 1. That is, in the virtual image display device 100, the laser projector 1, the EPE 11, and the field lens 12 are not configured separately, but the laser projector 1, the EPE 11, and the field lens 12 are configured as an integrated device. .
  • the laser projector 1 includes an image signal input unit 2, a video ASIC 3, a frame memory 4, a ROM 5, a RAM 6, a laser driver ASIC 7, a MEMS control unit 8, and a laser light source unit 9.
  • the MEMS mirror 10 is provided.
  • the image signal input unit 2 receives an image signal input from the outside and outputs it to the video ASIC 3.
  • the video ASIC 3 is a block that controls the laser driver ASIC 7 and the MEMS control unit 8 based on the image signal input from the image signal input unit 2 and the scanning position information Sc input from the MEMS mirror 10, and is ASIC (Application Specific Integrated). Circuit).
  • the video ASIC 3 includes a synchronization / image separation unit 31, a bit data conversion unit 32, a light emission pattern conversion unit 33, and a timing controller 34.
  • the synchronization / image separation unit 31 separates the image data displayed on the EPE 11 serving as the image display unit and the synchronization signal from the image signal input from the image signal input unit 2 and writes the image data to the frame memory 4.
  • the bit data converter 32 reads the image data written in the frame memory 4 and converts it into bit data.
  • the light emission pattern conversion unit 33 converts the bit data converted by the bit data conversion unit 32 into a signal representing the light emission pattern of each laser.
  • the timing controller 34 controls the operation timing of the synchronization / image separation unit 31 and the bit data conversion unit 32.
  • the timing controller 34 also controls the operation timing of the MEMS control unit 8 described later.
  • the image data separated by the synchronization / image separation unit 31 is written.
  • the ROM 5 stores a control program and data for operating the video ASIC 3. Various data are sequentially read from and written into the RAM 6 as a work memory when the video ASIC 3 operates.
  • the laser driver ASIC 7 is a block that generates a signal for driving a laser diode provided in a laser light source unit 9 described later, and is configured as an ASIC.
  • the laser driver ASIC 7 includes a red laser driving circuit 71, a blue laser driving circuit 72, and a green laser driving circuit 73.
  • the red laser driving circuit 71 drives the red laser LD1 based on the signal output from the light emission pattern conversion unit 33.
  • the blue laser drive circuit 72 drives the blue laser LD2 based on the signal output from the light emission pattern conversion unit 33.
  • the green laser drive circuit 73 drives the green laser LD3 based on the signal output from the light emission pattern conversion unit 33.
  • the MEMS control unit 8 controls the MEMS mirror 10 based on a signal output from the timing controller 34.
  • the MEMS control unit 8 includes a servo circuit 81 and a driver circuit 82.
  • the servo circuit 81 controls the operation of the MEMS mirror 10 based on a signal from the timing controller.
  • the driver circuit 82 amplifies the control signal of the MEMS mirror 10 output from the servo circuit 81 to a predetermined level and outputs the amplified signal.
  • the laser light source unit 9 emits laser light to the MEMS mirror 10 based on the drive signal output from the laser driver ASIC 7.
  • the MEMS mirror 10 as a scanning unit reflects the laser light emitted from the laser light source unit 9 toward the EPE 11. By doing so, the MEMS mirror 10 forms an image to be displayed on the EPE 11.
  • the MEMS mirror 10 moves so as to scan on the EPE 11 under the control of the MEMS control unit 8 in order to display an image input to the image signal input unit 2, and scan position information (for example, at that time) Information such as the angle of the mirror) is output to the video ASIC 3.
  • the laser light source unit 9 includes a case 91, a wavelength selective element 92, a collimator lens 93, a red laser LD1, a blue laser LD2, a green laser LD3, a monitor light receiving element (hereinafter simply referred to as “light receiving element”). 50).
  • light receiving element a monitor light receiving element
  • the red laser LD1, the blue laser LD2, and the green laser LD3 are not distinguished, they are simply referred to as “laser LD”.
  • the case 91 is formed in a substantially box shape with resin or the like.
  • the case 91 is provided with a hole penetrating into the case 91 and a CAN attachment portion 91a having a concave cross section, and a surface perpendicular to the CAN attachment portion 91a. A hole penetrating inward is formed, and a collimator mounting portion 91b having a concave cross section is formed.
  • the wavelength-selective element 92 as a synthesis element is configured by, for example, a trichromatic prism, and is provided with a reflective surface 92a and a reflective surface 92b.
  • the reflection surface 92a transmits the laser light emitted from the red laser LD1 toward the collimator lens 93, and reflects the laser light emitted from the blue laser LD2 toward the collimator lens 93.
  • the reflecting surface 92b transmits most of the laser light emitted from the red laser LD1 and the blue laser LD2 toward the collimator lens 93 and reflects a part thereof toward the light receiving element 50.
  • the reflection surface 92 b reflects most of the laser light emitted from the green laser LD 3 toward the collimator lens 93 and transmits part of the laser light toward the light receiving element 50. In this way, the emitted light from each laser is superimposed and incident on the collimator lens 93 and the light receiving element 50.
  • the wavelength selective element 92 is provided in the vicinity of the collimator mounting portion 91b in the case 91.
  • the collimator lens 93 converts the laser light incident from the wavelength selective element 92 into parallel light and emits it to the MEMS mirror 10.
  • the collimator lens 93 is fixed to the collimator mounting portion 91b of the case 91 with a UV adhesive or the like. That is, the collimator lens 93 is provided after the synthesis element.
  • the red laser LD1 as a laser light source emits red laser light.
  • the red laser LD1 is fixed at a position that is coaxial with the wavelength selective element 92 and the collimator lens 93 in the case 91 while the semiconductor laser light source is in the chip state or the chip is mounted on a submount or the like.
  • a blue laser LD2 as a laser light source emits blue laser light.
  • the blue laser LD2 is fixed at a position where the emitted laser light can be reflected toward the collimator lens 93 by the reflecting surface 92a while the semiconductor laser light source is in the chip state or the chip is mounted on the submount or the like.
  • the positions of the red laser LD1 and the blue laser LD2 may be switched.
  • the green laser LD3 as a laser light source is in a state of being attached to the CAN package or in a state of being attached to the frame package, and emits green laser light.
  • the green laser LD 3 has a semiconductor laser light source chip B that generates green laser light in a CAN package, and is fixed to a CAN mounting portion 91 a of the case 91.
  • the light receiving element 50 receives a part of the laser light emitted from each laser light source.
  • the light receiving element 50 is a photoelectric conversion element such as a photodetector, and supplies a detection signal Sd, which is an electrical signal corresponding to the amount of incident laser light, to the laser driver ASIC 7.
  • FIG. 3 shows a diagram for explaining the line-of-sight direction.
  • the line-of-sight direction is defined as a direction in which the user looks at the center C4 of the virtual image from the front.
  • the axis corresponding to this line-of-sight direction is “c”.
  • FIG. 4 is a diagram for explaining the positional relationship between the EPE 11 and the combiner 13 with respect to the line-of-sight direction.
  • a straight line connecting the center C1 of the EPE 11 and the center C2 of the combiner 13 is defined as “a”
  • an axis passing through the center C1 of the EPE 11 and parallel to the surface of the EPE 11 is defined as “b”.
  • the angle formed by the straight line a and the axis c is defined as “ ⁇ ”
  • the angle formed by the axis b and the axis c is defined as “ ⁇ ”.
  • the angle ⁇ is referred to as “an angle of the EPE 11 with respect to the line-of-sight direction”. Note that the angle ⁇ is positive when viewed clockwise from the axis c, and the angle ⁇ is positive when viewed clockwise from the axis c.
  • a surface S indicated by hatching in FIG. 4B is a part of a cross section of the optical system shown in FIG.
  • the axis that intersects perpendicularly with the straight line a and passes through the center C1 of the EPE 11 is defined as “d”, intersects perpendicularly with the straight line a, and the center C2 of the combiner 13
  • the axis passing through is defined as “e”.
  • the axis b described above is defined as an axis that is orthogonal to the axis d and passes through the center C1 of the EPE. When the surface of the EPE 11 is tilted about the axis d, the axis b also rotates accordingly.
  • a light beam incident on the center C2 of the combiner 13 from the center C1 of the EPE 11 is reflected in the direction of the axis c determined according to the tilt angle around the axis e of the combiner 13.
  • the reverse direction of the reflected light beam corresponds to the viewing direction when the user views the center C4 of the virtual image from the front.
  • the angle formed by the straight line a and the axis c is “ ⁇ ”
  • the angle formed by the axis c and the axis b is “ ⁇ ”.
  • the intersection of the axis c and the axis b is “C3”.
  • the EPE 11 is passed through the combiner 13. It arrange
  • the angle ⁇ (angle formed by the straight line a and the axis c) between the light beam incident on the center C2 of the combiner 13 and the reflected light beam from the center C1 of the EPE11: 24 degrees.
  • Interval Y1 (distance measured along line a): 170 mm -Distance Y2 between the center C2 of the combiner 13 and the eye point: 500 mm
  • the size of the intermediate image formed on the EPE 11 horizontal length 75 mm ⁇ vertical length 25 mm (The intermediate image has a lattice in which squares without distortion are arranged as shown in FIG.
  • FIG. 7 shows an example of simulation results at the eyebox center.
  • the virtual image obtained by the simulation is indicated by a solid line
  • the shape of the reference screen for comparison of the virtual image size and shape is indicated by a one-dot chain line.
  • the size of the reference screen is “horizontal length 450 (mm) ⁇ vertical length 150 (mm)”.
  • FIG. 7 shows an example of simulation results at the eyebox center.
  • the virtual image obtained by the simulation is indicated by a solid line
  • the shape of the reference screen for comparison of the virtual image size and shape is indicated by a one-dot chain line.
  • the size of the reference screen is “horizontal length 450 (mm) ⁇ vertical length 150 (mm)”.
  • FIG. 7A shows an example of a simulation result when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to “114 degrees”, that is, when the EPE 11 is not arranged in a direction substantially orthogonal to the line-of-sight direction. .
  • FIG. 7A shows an example of a simulation result when the field lens 12 is not installed between the EPE 11 and the combiner 13.
  • FIG. 7A shows that the virtual image is distorted. Specifically, it can be seen that a trapezoidal distortion of a virtual image and a bow distortion of the virtual image are generated.
  • FIG. 7B shows an example of a simulation result when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to “90 degrees”, that is, when the EPE 11 is arranged in a direction perpendicular to the line-of-sight direction.
  • FIG. 7B shows an example of simulation results when the field lens 12 is not installed between the EPE 11 and the combiner 13. From FIG. 7B, it can be seen that the trapezoidal distortion of the virtual image is appropriately removed as compared with FIG. 7A.
  • FIG. 7C shows a simulation result example when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to “90 degrees”, that is, when the EPE 11 is arranged in a direction orthogonal to the line-of-sight direction.
  • FIG. 7C shows a simulation result example when the field lens 12 is installed between the EPE 11 and the combiner 13. From FIG. 7 (c), it can be seen that the bow distortion of the virtual image is appropriately removed as compared with FIG. 7 (b).
  • FIG. 9 shows an example of a simulation result with both eyes.
  • the virtual image obtained from the simulation is indicated by a solid line and a broken line
  • the shape of the reference screen is indicated by a one-dot chain line.
  • a virtual image observed with the left eye is indicated by a solid line
  • a virtual image observed with the right eye is indicated by a broken line.
  • FIG. 9A shows an example of a simulation result when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to “114 degrees”, that is, when the EPE 11 is not arranged in a direction substantially orthogonal to the line-of-sight direction. .
  • FIG. 9A shows an example of a simulation result when the field lens 12 is not installed between the EPE 11 and the combiner 13. It can be seen from FIG. 9A that virtual image distortion such as trapezoidal distortion and bow distortion occurs. It can also be seen that the shape of the distortion of the virtual image observed with the left eye is different from the shape of the distortion of the virtual image observed with the right eye.
  • FIG. 9B shows an example of a simulation result when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to “90 degrees”, that is, when the EPE 11 is arranged in a direction orthogonal to the line-of-sight direction.
  • FIG. 9B shows an example of a simulation result when the field lens 12 is not installed between the EPE 11 and the combiner 13. From FIG. 9B, it can be seen that the trapezoidal distortion of the virtual image is appropriately removed as compared with FIG. 9A. Moreover, it turns out that the difference in the shape of the virtual image observed with each of both eyes is suppressed appropriately.
  • FIG. 9C shows a simulation result example when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to “90 degrees”, that is, when the EPE 11 is arranged in a direction orthogonal to the line-of-sight direction.
  • FIG. 9C shows a simulation result example when the field lens 12 is installed between the EPE 11 and the combiner 13. From FIG. 9 (c), it can be seen that the bow distortion of the virtual image is appropriately removed as compared with FIG. 9 (b). Further, it can be seen that the state in which the difference in the shape of the virtual image with both eyes is suppressed as shown in FIG. 9B is appropriately maintained.
  • the first embodiment it is possible to appropriately suppress the distortion of the virtual image by arranging the EPE 11 in a direction substantially orthogonal to the line-of-sight direction. Specifically, the trapezoidal distortion of the virtual image and the difference in the shape of the virtual image observed with both eyes can be appropriately suppressed. Further, according to the first embodiment, by inserting the field lens 12 on the exit side of the EPE 11, it is possible to appropriately suppress the bow distortion of the virtual image.
  • an optical system including at least the EPE 11 and the combiner 13 is appropriately referred to as an “eyepiece optical system”.
  • FIG. 10 shows a diagram in the case where the EPE 11 is not arranged in a direction orthogonal to the line-of-sight direction (that is, when the angle ⁇ between the axis c and the axis b is not 90 degrees).
  • FIG. 10A corresponds to a top view of the eyepiece optical system
  • FIG. 10B corresponds to a side view of the eyepiece optical system.
  • FIG. 10B corresponds to a diagram in which the eyepiece optical system shown in FIG. 3 is rotated clockwise by an angle ⁇ .
  • the normal direction of one point where the reflecting surface is located faces the center of the radius of curvature of the combiner 13.
  • the normal vector of the surface at each point of the reflecting surface is represented by a broken line connecting the reflecting surface of the combiner 13 and the center of the radius of curvature of the combiner 13 (described later). This also applies to FIG.
  • the light beam incident on the combiner 13 is reflected symmetrically with respect to such a normal direction.
  • the light rays U and D emitted from the upper end and the lower end of the image formed on the EPE 11 are incident on the observation point of the eye box center.
  • the light rays RU, LU, RD, and LD emitted from the right edge and the left edge of the image formed on the EPE 11 and the right edge and the left edge of the lower edge are the observation points of the eye box center.
  • FIG. 10A shows the angle of incidence on.
  • FIG. 11 shows a diagram when the EPE 11 is arranged in a direction orthogonal to the line-of-sight direction (that is, when the angle ⁇ between the axis c and the axis b is 90 degrees).
  • FIG. 11A corresponds to a top view of the eyepiece optical system
  • FIG. 11B corresponds to a side view of the eyepiece optical system.
  • FIG. 11B corresponds to a diagram in which the eyepiece optical system shown in FIG. 3 is rotated clockwise by an angle ⁇ .
  • FIG. 11B is a side view of the eyepiece optical system as in FIG. 10B, and rays U ′ and D ′ emitted from the upper and lower ends of the image formed on the EPE 11 are the eye box center.
  • the angle incident on the observation point is shown in the figure. 11A is emitted from the right edge and the left edge of the upper side of the image formed on the EPE 11 and the right edge and the left edge of the lower edge in the top view of the eyepiece optical system, as in FIG. 10A.
  • the angles at which the light rays RU ′, LU ′, RD ′, and LD ′ are incident on the observation point of the eyebox center are illustrated.
  • the result when the radius of curvature of the combiner 13 is 400 mm is compared with the result when the radius of curvature of the combiner 13 is 500 mm.
  • the simulation is performed using the following parameters.
  • a case where the radius of curvature of the combiner 13 is 400 mm is appropriately expressed as “R400”
  • a case where the radius of curvature of the combiner 13 is 500 mm is appropriately expressed as “R500”.
  • An angle ⁇ (angle formed between the straight line a and the axis c) between the light beam incident on the center C2 of the combiner 13 and the reflected light beam from the center C1 of the EPE 11: 24 degrees.
  • the size of the intermediate image formed on the EPE 11 horizontal length 75 mm ⁇ vertical length 25 mm (The intermediate image has a lattice in which squares without distortion are arranged as shown in FIG. Is a statue) ⁇ Distance from eye to virtual image: 1500mm -Curvature radius of R400 combiner 13: 400 mm The distance between the center C1 of the EPE 11 and the center C2 of the combiner 13 of R400 (a distance measured along the straight line a): 170 mm -Reference screen size used for the R400 combiner 13: horizontal length 450 mm x vertical length 150 mm -Curvature radius of R500 combiner 13: 500 mm The distance between the center C1 of the EPE 11 and the center C2 of the combiner 13 of R500 (the distance measured along the straight line a): 200 mm Reference screen size used for the R500 combiner 13: horizontal length 360 mm ⁇ vertical length 120 mm FIG.
  • FIG. 12 shows an example of the simulation result of R400 and R500.
  • FIG. 12A shows virtual image distortion amounts at R400 and R500 when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to various values.
  • the “distortion amount of the virtual image” is as indicated by the solid line arrow X2 in FIGS. 12B and 12C with respect to the vertical line of the frame as shown by the alternate long and short dash line X1 in FIGS. 12B and 12C. It is defined by the absolute value of the angle of the vertical line at the end of the virtual image.
  • FIG. 12A shows virtual image distortion amounts at R400 and R500 when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to various values.
  • the “distortion amount of the virtual image” is as indicated by the solid line arrow X2 in FIGS. 12B and 12C with respect to the vertical line of the frame as shown by the alternate long and short dash line X1 in
  • FIG. 12B shows virtual image distortion observed at the eyebox center when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to “114 degrees” when R400 is used, and FIG. The virtual image distortion observed at the eye box center when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to “82 degrees” when R400 is used is shown.
  • the angle ⁇ of the EPE 11 that minimizes the amount of distortion of the virtual image is 90 degrees regardless of whether the combiner 13 has a radius of curvature of 400 mm or 500 mm. That is, it can be said that the optimum setting value regarding the angle ⁇ of the EPE 11 does not change even if the curvature radius of the combiner 13 is 400 mm or 500 mm.
  • the amount of distortion of the virtual image is the smallest when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is 90 degrees, but the angle ⁇ is around 90 degrees even if the angle ⁇ is not 90 degrees. If it is an angle, it turns out that the amount of distortion of a virtual image is small. From this result, even if the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is not set to 90 degrees, the distortion of the virtual image can be reduced by setting the angle ⁇ of the EPE 11 with respect to the line-of-sight direction to an angle near 90 degrees. It was proved that the effect was obtained.
  • Patent Document 3 describes a configuration in which EPE is arranged in a direction orthogonal to the line-of-sight direction, similar to the present embodiment.
  • a magnifying mirror is disposed between the EPE (screen) and the combiner (front shield). That is, in the configuration according to the present embodiment, the light emitted from the EPE 11 is incident on the combiner 13 without being reflected by other mirrors (optical elements).
  • the light is emitted from the EPE. The emitted light is reflected by the magnifying mirror, and the light reflected by the magnifying mirror is incident on the combiner.
  • the second embodiment is different from the first embodiment in that the distortion of the image formed on the EPE 11 is corrected by the light emitted from the laser projector 1. Specifically, in the second embodiment, the light emitted from the laser projector 1 does not enter the EPE 11 vertically when the light emitted from the laser projector 1 does not enter the EPE 11 vertically. The distortion of the image formed on the EPE 11 that may be caused by this is corrected.
  • the configuration not particularly described here is the same as that of the first embodiment.
  • the configuration in which the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to approximately 90 degrees is also applied to the second embodiment.
  • FIG. 13 shows a specific example of the arrangement state of the laser projector 1 and the EPE 11.
  • FIG. 13A shows an arrangement state in which light from the laser projector 1 enters the EPE 11 perpendicularly. In this arrangement state, light for drawing the center of the image is projected perpendicularly from the laser projector 1 to the EPE 11.
  • FIG. 13B shows an arrangement state in which light from the laser projector 1 does not enter the EPE 11 perpendicularly. In this arrangement state, light for drawing the center of the image is projected obliquely from the laser projector 1 to the EPE 11 at a predetermined incident angle ( ⁇ 0 degree).
  • trapezoidal distortion may occur in an image formed on the EPE 11 (meaning a real image; the same shall apply hereinafter).
  • processing for correcting such trapezoidal distortion is performed.
  • the arrangement state shown in FIG. 13A basically, trapezoidal distortion does not occur in the image formed on the EPE 11.
  • the arrangement state of FIG. 13A when the virtual image display device 100 is installed in the upper part of the vehicle interior, it is difficult to ensure the head clearance. Therefore, it can be said that the arrangement state of FIG. 13B is more advantageous than the arrangement state of FIG. 13A from the viewpoint of securing the head clearance when the virtual image display device 100 is installed in the upper part of the vehicle interior. .
  • FIG. 14 is a diagram for explaining a method of correcting the trapezoidal distortion of an image formed on the EPE 11.
  • FIG. 14A shows a specific example of trapezoidal distortion of an image formed on the EPE 11 that can occur when the arrangement state shown in FIG. 13B is applied.
  • an image that cancels such trapezoidal distortion is drawn on the EPE 11 by the laser projector 1.
  • an image whose horizontal width gradually changes from the upper side to the lower side as shown in FIG. 14B is drawn on the EPE 11 by drawing the compressed vertical width of the input image.
  • a lattice image without distortion as shown in FIG. 5 is formed.
  • the laser driver ASIC 7 (see FIG. 2) in the laser projector 1 performs control to change the light emission period of the laser LD in the laser light source unit 9 (that is, control to change the timing at which the laser LD emits light). Then, an image as shown in FIG. 14B is drawn by the laser projector 1 so that the number of pixels does not change in any horizontal line of the image formed on the EPE 11.
  • the laser driver ASIC 7 performs control so that the light emission period of the laser LD gradually decreases from the top to the bottom of the image formed on the EPE 11 (in other words, the bottom of the image formed on the EPE 11). From the top to the top, control is performed so that the light emission period of the laser LD gradually increases).
  • the MEMS control unit 8 controls the MEMS mirror 10 to reduce the interval between horizontal lines to be drawn with respect to the input image, in other words, to increase the line density.
  • the video ASIC 3 (see FIG. 2) in the laser projector 1 performs image processing on the image input from the image signal input unit 2 to obtain an image as shown in FIG. Draw on EPE11.
  • the video ASIC 3 performs image processing for transforming the original image input from the image signal input unit 2 into an image as shown in FIG.
  • the laser driver ASIC 7 and the video ASIC 3 in the laser projector 1 correspond to an example of “correction means” in the present invention.
  • the virtual image display device 100 when the virtual image display device 100 is installed in the vehicle interior, it is possible to adopt an appropriate arrangement that ensures head clearance while suppressing the occurrence of problems such as distortion of the image formed on the EPE 11. It becomes.
  • the third embodiment when the combiner 13 is tilted, the EPE 11 is automatically tilted accordingly, that is, when the tilt of the combiner 13 around the axis e is changed, the tilt of the EPE 11 around the axis d is automatically adjusted.
  • the angle around the axis e of the combiner 13 hereinafter referred to as the “tilt angle of the combiner 13”
  • the direction is substantially perpendicular to the line-of-sight direction. Control is performed to change the angle of the EPE 11 around the axis d (hereinafter referred to as “tilt angle of the EPE 11”) so that the EPE 11 is arranged.
  • the driver's eye point changes depending on the driver's sitting height, seat position, and the like, so the driver adjusts the tilt angle of the combiner 13.
  • the driver changes the tilt angle of the combiner 13 when the tilt angle is changed, the tilt angle of the EPE 11 is automatically changed accordingly.
  • FIG. 15 is a block diagram schematically showing the overall configuration of the virtual image display apparatus 101 according to the third embodiment.
  • symbol is attached
  • the virtual image display apparatus 101 according to the third embodiment is different from the virtual image display apparatus 100 according to the first embodiment in that it has a laser projector 1a instead of the laser projector 1 and an angle sensor 15 and an actuator 16.
  • the angle sensor 15 detects the tilt angle of the combiner 13.
  • the actuator 16 performs control to change the tilt angle of the EPE 11.
  • the laser projector 1a includes the same components (see FIG. 2) as the laser projector 1, and also includes a control unit 1aa that controls the actuator 16.
  • the control unit 1aa in the laser projector 1 acquires a detection signal S15 corresponding to the tilt angle detected by the angle sensor 15, and based on the detection signal S15, a control signal S16 for changing the tilt angle of the EPE 11 is supplied to the actuator 16. To supply. Specifically, the control unit 1aa performs control to change the tilt angle of the EPE 11 according to the tilt angle of the combiner 13 after the change so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction becomes approximately 90 degrees.
  • the control unit 1aa obtains an angle ⁇ formed by the straight line a and the axis c from the tilt angle detected by the angle sensor 15, and refers to a table in which the tilt angle of the EPE 11 to be set with respect to the angle ⁇ is associated.
  • control for setting the EPE 11 to the tilt angle of the EPE 11 corresponding to the obtained angle ⁇ is performed.
  • the relationship between the angle ⁇ and the tilt angle of the EPE 11 when the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is 90 degrees is determined in advance.
  • the control unit 1aa and the actuator 16 correspond to an example of “inclination changing means” in the present invention.
  • the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is set to “90 degrees” in the initial state as in the first embodiment (that is, in the initial state, the angle ⁇ is perpendicular to the line-of-sight direction).
  • EPE11 is assumed to be arranged).
  • the other parameters are the same values as in the first embodiment.
  • FIG. 16 shows an example of a simulation result at the eye box center.
  • the virtual image obtained from the simulation is shown by a solid line
  • the shape of the reference screen is shown by a one-dot chain line.
  • FIG. 16A shows that when the tilt angle of the EPE 11 is not changed when the angle ⁇ is changed, that is, the tilt angle of the EPE 11 is not changed so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction becomes 90 degrees.
  • An example of simulation results is shown. In this case, it is assumed that the angle of the EPE 11 with respect to the line-of-sight direction changes from ⁇ “90 degrees” to “98 degrees”.
  • FIG. 16A shows an example of simulation results when the field lens 12 is not installed between the EPE 11 and the combiner 13. It can be seen from FIG. 16A that a virtual image is distorted. Specifically, when compared with the result in the initial state before the angle ⁇ formed by the straight line a and the axis c shown in FIG. 7B is changed, a new distortion of the virtual image is generated. Recognize.
  • FIG. 16B shows the case where the tilt angle of the EPE 11 is not changed when the angle ⁇ is changed, that is, the tilt angle of the EPE 11 is not changed so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction becomes 90 degrees.
  • An example of simulation results is shown. In this case, it is assumed that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction changes from “90 degrees” to “98 degrees”.
  • FIG. 16B shows a simulation result example when the field lens 12 is installed between the EPE 11 and the combiner 13. From FIG. 16 (b), compared to FIG. 16 (a), the bow distortion of the virtual image is suppressed, but the angle ⁇ between the straight line a and the axis c shown in FIG. 7 (c) is changed. Compared with the results in the initial state before the image, it can be seen that new virtual image distortion has occurred.
  • FIG. 16C shows a case where the tilt angle of the EPE 11 is changed according to the angle ⁇ after the change, that is, the tilt angle of the EPE 11 is changed so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction becomes 90 degrees.
  • An example of simulation results is shown.
  • FIG. 16C shows a simulation result example when the field lens 12 is not installed between the EPE 11 and the combiner 13.
  • FIG. 16C shows that the distortion of the virtual image is appropriately reduced as compared with FIG.
  • FIG. 16D shows a case where the tilt angle of the EPE 11 is changed according to the angle ⁇ after the change, that is, the tilt angle of the EPE 11 is changed so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction becomes 90 degrees.
  • An example of simulation results is shown.
  • FIG. 16D shows a simulation result example when the field lens 12 is installed between the EPE 11 and the combiner 13. From FIG. 16D, it can be seen that the distortion of the virtual image is appropriately removed as compared with FIG. 16B. Further, as compared with FIG. 16C, it can be seen that the bow distortion of the virtual image is appropriately removed.
  • FIG. 17 shows an example of a simulation result with both eyes.
  • the virtual image obtained from the simulation is indicated by a solid line and a broken line
  • the shape of the reference screen is indicated by a one-dot chain line.
  • a virtual image observed with the left eye is indicated by a solid line
  • a virtual image observed with the right eye is indicated by a broken line.
  • FIG. 17A shows that when the tilt angle of the EPE 11 is not changed when the angle ⁇ is changed, that is, the tilt angle of the EPE 11 is not changed so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction becomes 90 degrees.
  • An example of simulation results is shown. In this case, it is assumed that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction changes from “90 degrees” to “98 degrees”.
  • FIG. 17A shows an example of a simulation result when the field lens 12 is not installed between the EPE 11 and the combiner 13. It can be seen from FIG. 17A that a virtual image is distorted.
  • FIG. 17B shows that when the tilt angle of the EPE 11 is not changed when the angle ⁇ is changed, that is, the tilt angle of the EPE 11 is not changed so that the angle ⁇ of the EPE 11 with respect to the viewing direction is 90 degrees.
  • An example of simulation results is shown. In this case, it is assumed that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction changes from “90 degrees” to “98 degrees”.
  • FIG. 17B shows an example of simulation results when the field lens 12 is installed between the EPE 11 and the combiner 13. From FIG. 17 (b), compared to FIG. 17 (a), the bow distortion of the virtual image is suppressed, but the angle ⁇ between the straight line a and the axis c shown in FIG. 9 (c) is changed. Compared with the result in the initial state before the image, it can be seen that a new virtual image distortion occurs and the difference in the shape of the virtual image observed with both eyes is large.
  • FIG. 17C shows a case where the tilt angle of the EPE 11 is changed according to the angle ⁇ after the change, that is, the tilt angle of the EPE 11 is changed so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction becomes 90 degrees.
  • An example of simulation results is shown.
  • FIG. 17C shows a simulation result example when the field lens 12 is not installed between the EPE 11 and the combiner 13. From FIG. 17 (c), compared with FIG. 17 (a), the distortion of the virtual image is appropriately reduced, and the difference in the shape of the virtual image observed by each of both eyes is appropriately reduced. Recognize.
  • FIG. 17D shows a case where the tilt angle of the EPE 11 is changed according to the angle ⁇ after the change, that is, the tilt angle of the EPE 11 is changed so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction becomes 90 degrees.
  • FIG. 17D shows a simulation result example when the field lens 12 is installed between the EPE 11 and the combiner 13. From FIG. 17D, compared to FIG. 17B, the distortion of the virtual image is appropriately reduced, and the difference in the shape of the virtual image observed with both eyes is appropriately reduced. Recognize. Further, as compared with FIG. 17C, it can be seen that the bow distortion of the virtual image is appropriately removed.
  • the EPE 11 when the combiner 13 is tilted about the axis e, the EPE 11 is appropriately tilted about the axis d (specifically, substantially perpendicular to the line-of-sight direction).
  • the distortion of the virtual image caused by tilting the combiner 13 can be appropriately suppressed.
  • the tilt angle of the EPE 11 is changed so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is exactly 90 degrees. It is not necessary. That is, the tilt angle of the EPE 11 may be changed so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is an angle near 90 degrees.
  • the third embodiment can be implemented in combination with the second embodiment described above. That is, when the tilt angle of the combiner 13 is changed, control is performed to change the tilt angle of the EPE 11 so that the angle ⁇ of the EPE 11 with respect to the line-of-sight direction is approximately 90 degrees, and the light emitted from the laser projector 1 Thus, it is possible to correct the distortion of the image formed on the EPE 11.
  • Modification 1 In the above-described embodiment, the virtual image display devices 100 and 101 configured to allow the user to look up the virtual image are shown. However, the first modification relates to a virtual image display device configured to allow the user to look down on the virtual image.
  • FIG. 18 is a block diagram schematically showing the overall configuration of the virtual image display apparatus 102 according to the first modification.
  • symbol is attached
  • the virtual image display device 102 according to the first modification is different from the virtual image display device 100 according to the first embodiment in that the virtual image display device 102 according to the first modification is configured so that a virtual image can be observed by looking down.
  • the EPE 11 and the combiner 13 are counterclockwise about the axes d and e so that the virtual image can be observed when the user looks up.
  • the EPE 11 and the combiner 13 are rotated clockwise about the axes d and e so that the user can observe the virtual image when looking down. Tilt to.
  • the EPE 11 is arranged in a direction substantially orthogonal to the line-of-sight direction, as in the first embodiment.
  • Modification 2 is different from the above-described embodiment in that a liquid crystal display is used instead of the laser projector 1 and the EPE 11.
  • FIG. 19 is a block diagram schematically illustrating the overall configuration of the virtual image display device 104 according to the second modification.
  • symbol is attached
  • the virtual image display device 104 according to the second modification is different from the virtual image display device 100 according to the first embodiment in that it includes a liquid crystal display 200 instead of the laser projector 1 and the EPE 11.
  • the liquid crystal display 200 corresponds to an example of the “image forming element” of the present invention.
  • the liquid crystal display 200 is also arranged in a direction substantially orthogonal to the line-of-sight direction, like the first embodiment described above.
  • liquid crystal display 200 instead of the laser projector 1 and EPE11.
  • an organic EL display can be used in place of the laser projector 1 and the EPE 11.
  • the organic EL display corresponds to an example of the “image forming element” of the present invention.
  • Modification 3 In the third modification, the configuration of the field lens arranged on the emission side of the EPE 11 is different from the above-described embodiment. Specifically, in the field lens according to Modification 3, the surface on which the light from EPE 11 is incident (that is, the incident surface) is formed in a convex shape, and the surface opposite to the surface on which the light from EPE 11 is incident. (That is, the exit surface) is formed in a convex shape. That is, the field lens according to Modification 3 has a biconvex spherical shape.
  • the field lens according to Modification 3 is arranged such that the axis connecting the center of the field lens and the center of the EPE 11 is parallel to the axis extending in the vertical direction of the EPE 11.
  • the light emitted from the field lens enters the combiner 13.
  • the field lens according to Modification 3 also corresponds to an example of a “virtual image distortion correction element” in the present invention.
  • FIG. 20 shows an example of a simulation result when the field lens according to Modification 3 is used. It is assumed that the simulation was performed using the following parameters.
  • the angle ⁇ of the EPE 11 with respect to the line-of-sight direction (angle formed by the axis c and the axis b): 90 degrees.
  • Angle formed with the axis c) 24 degrees.
  • the size of the intermediate image formed on the EPE 11 horizontal length 75 mm ⁇ vertical length 25 mm (The intermediate image has a lattice in which squares without distortion are arranged as shown in FIG.
  • FIG. 20A shows an example of the simulation result at the eye box center when the field lens according to the modification 3 is used, and FIG.
  • 20B shows the case when the field lens according to the modification 3 is used.
  • An example of simulation results with both eyes is shown.
  • 20 (a) and 20 (b) it can be seen that virtual image distortion (such as bow distortion) can be appropriately suppressed even when a field lens configured as a biconvex spherical surface is used.
  • Modification 4 In the above-described embodiment, the example in which the present invention is applied to the laser projector 1 has been shown. However, the present invention can be applied to various projectors such as a liquid crystal projector in addition to the laser projector 1.
  • the present invention can be used for a virtual image display device that visually recognizes an image as a virtual image, such as a head-up display or a head-mounted display.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)

Abstract

 虚像表示装置は、表示すべき画像を形成する画像形成素子と、画像形成素子から出射された光を反射することで虚像を表示させる光学素子と、を備える。光学素子は、画像形成素子から出射された光の進行方向に向かって凹形状を有している。また、光学素子には、画像形成素子から出射された光が他の光学素子によって反射されることなく入射される。そして、画像形成素子は、光学素子を通して虚像を視認する方向に対して略直交する方向に配置されている。

Description

虚像表示装置
 本発明は、虚像として画像を視認させる虚像表示装置に関する。
 従来から、ユーザの目の位置(アイポイント)から虚像として画像を視認させるヘッドアップディスプレイなどの表示装置が知られている。例えば、特許文献1には、画像表示装置から観察者に至る光の経路に、画像を拡大するための凹面鏡を2枚設け、画像表示装置の画像を2回反射させて虚像を形成することで、虚像の拡大率や虚像の形状歪などを改善することを図った技術が提案されている。また、例えば特許文献2には、映像表示素子の表示面と投影光学系の投影面がY-Z断面内で偏心し、投影面はX-Z断面で投影光学系側に弦を向けた円弧状の曲面で構成され、像歪みを補正する少なくとも一つの回転非対称な補正光学面を有する投影光学系と、投影された映像を遠方の虚像とする正の反射パワーを有する接眼光学系を備えた視覚表示装置が提案されている。
 その他にも、本発明に関連する技術が、例えば特許文献3に提案されている。
特開平8-29723号公報 特開2010-164944号公報 特開2009-150947号公報
 ところで、上記したようなヘッドアップディスプレイでは、例えば大きな画角を得るために曲率半径の小さな凹面ミラーをチルトして使用すると、虚像に歪みが生じる傾向にある。また、左右の眼で観察した虚像に、形状の異なる歪みが生じる傾向にある。この場合には、ユーザに疲労を与えてしまう可能性がある。上記の特許文献1に記載された反射面を2面使用する構成では、虚像の歪みを軽減することができるが、この構成ではヘッドアップディスプレイ全体が大きくなり、車室内への取り付けに不利となる場合がある。また、特許文献2のように非球面や自由曲面の光学素子を用いると、虚像の歪を微小にする事が可能であるが安価な製造が難しい事が知られている。
 本発明が解決しようとする課題は上記のようなものが例として挙げられる。本発明は、簡便な構成にて虚像の歪みを適切に抑制することが可能な虚像表示装置を提供することを課題とする。
 請求項1に記載の発明では、虚像表示装置は、表示すべき画像を形成する画像形成素子と、前記画像形成素子から出射された光を反射することで虚像を表示させる光学素子と、を備え、前記光学素子は、前記画像形成素子から出射された光の進行方向に向かって凹形状を有しており、前記光学素子には、前記画像形成素子から出射された光が他の光学素子によって反射されることなく入射され、前記画像形成素子は、前記光学素子を通して前記虚像を視認する方向に対して略直交する方向に配置されている。
 請求項16に記載の発明では、虚像表示装置は、表示すべき画像を形成する画像形成素子と、前記画像形成素子から出射された光を凹面で反射することで虚像を表示させる光学素子と、を備え、前記光学素子は、前記画像形成素子から出射された光の出射方向に配置され、前記画像形成素子は、前記光学素子を通して前記虚像を視認する方向に対して略直交する方向に配置されている。
 請求項17に記載の発明では、表示すべき画像を形成する画像形成素子から出射された光を、前記画像形成素子から出射された光の出射方向に配置された凹面を有する光学素子で反射させることで虚像を表示させる虚像表示装置は、前記画像形成素子は、前記光学素子を通して前記虚像を視認する方向に対して略直交する方向に配置されている。
第1実施例に係る虚像表示装置の全体構成を示す。 レーザプロジェクタの構成を示す。 アイポイントから虚像の中心を見つめる方向(視線方向)などを説明するための図を示す。 視線方向に対するEPE及びコンバイナの配置関係を説明するための図を示す。 シミュレーションにおいてEPEに形成される画像を示す。 アイボックスセンターでのシミュレーション条件を説明するための図を示す。 第1実施例における、アイボックスセンターでのシミュレーション結果例を示す。 両眼でのシミュレーション条件を説明するための図を示す。 第1実施例における、両眼でのシミュレーション結果例を示す。 EPEを視線方向に対して直交する方向に配置しなかった場合に、虚像の歪みが発生することを説明するための図を示す。 EPEを視線方向に対して直交する方向に配置した場合に、虚像の歪みを抑制できることを説明するための図を示す。 コンバイナの曲率半径ごとに、EPEと視線方向の成す角度と虚像の歪み量の関係を示す。 レーザプロジェクタとEPEとの配置状態の具体例を示す。 EPE上に形成される像の歪みを補正する方法を説明するための図を示す。 第3実施例に係る虚像表示装置の全体構成を示す。 第3実施例における、アイボックスセンターでのシミュレーション結果例を示す。 第3実施例における、両眼でのシミュレーション結果例を示す。 変形例1に係る虚像表示装置の全体構成を示す。 変形例2に係る虚像表示装置の全体構成を示す。 変形例3に係るフィールドレンズを用いた場合の、シミュレーション結果例を示す。
 本発明の1つの観点では、虚像表示装置は、表示すべき画像を形成する画像形成素子と、前記画像形成素子から出射された光を反射することで虚像を表示させる光学素子と、を備え、前記光学素子は、前記画像形成素子から出射された光の進行方向に向かって凹形状を有しており、前記光学素子には、前記画像形成素子から出射された光が他の光学素子によって反射されることなく入射され、前記画像形成素子は、前記光学素子を通して前記虚像を視認する方向に対して略直交する方向に配置されている。
 上記の虚像表示装置は、虚像として画像を視認させる装置である。画像形成素子は、表示すべき画像を形成し、光学素子は、画像形成素子から出射された光を反射することで虚像を表示させる。光学素子は、画像形成素子から出射された光の進行方向に向かって凹形状を有しており、画像形成素子から出射された光が他の光学素子(ミラーなど)によって反射されることなく入射される。好適には、光学素子は、画像形成素子から出射された光の出射方向に配置されている。そして、画像形成素子は、光学素子を通して虚像を視認する方向に対して略直交する方向に配置されている。つまり、光が出射される画像形成素子の面が、虚像を視認する方向に対して略直交する方向に配置されている。
 上記の虚像表示装置によれば、虚像の歪みを適切に抑制することができる。具体的には、虚像の台形歪みや画像形成素子上に形成された画像と虚像とのアスペクト比の違い、両眼のそれぞれで観察される虚像の形状の違いを適切に抑制することができる。また、両眼で観察される虚像の形状の違いを抑制することにより、画像処理によって虚像の歪を補正する事が容易になる。
 上記の虚像表示装置の一態様では、前記光学素子の傾きが変更された場合に、前記画像形成素子が、前記虚像を視認する方向に対して略直交する方向に配置されるように、前記画像形成素子の傾きを変化させる傾き変更手段を更に備える。これにより、光学素子の傾きが変更された場合に、画像形成素子の傾きを適切に変化させることで、画像形成素子と虚像を視認する方向とが直交しないことによって生じる虚像の歪みを適切に抑制することができる。
 上記の虚像表示装置の他の一態様では、前記画像形成素子と前記光学素子との間に、虚像歪補正素子が配置されている。この場合、好適には、前記虚像歪補正素子は、前記光学素子が曲率を有することに起因する、前記虚像の弓なりの歪みを補正する。このような虚像歪補正素子を用いることで、虚像の弓なりの歪みを適切に補正することができる。
 上記の虚像表示装置の他の一態様では、前記光学素子に、前記画像形成素子から出射された光が直接入射されることとしても良い。これにより、装置をより簡便に構成することができる。
 上記の虚像表示装置の他の一態様では、前記画像形成素子は、光源から照射された光の射出瞳を拡大する射出瞳拡大素子である。例えば、射出瞳拡大素子は、複数のマイクロレンズが配列されたマイクロレンズアレイである。
 上記の虚像表示装置の他の一態様では、前記光源から照射された光によって前記画像形成素子上に形成される像の歪みを補正する補正手段を更に備える。好適には、前記補正手段は、前記光源より照射された光の前記画像形成素子に対する角度に起因する、前記像の歪みを補正する。これにより、例えば光源より照射された光が画像形成素子に垂直に入射しないことに起因する像の歪みを、適切に補正することができる。
 上記の虚像表示装置の他の一態様では、前記画像形成素子として、液晶ディスプレイや有機ELディスプレイを用いることができる。
 好適には、前記画像形成素子を、前記光学素子によって反射された光が照射されない位置に配置することができる。
 また好適には、前記画像形成素子を、平面形状に構成することができる。
 本発明の他の観点では、虚像表示装置は、表示すべき画像を形成する画像形成素子と、前記画像形成素子から出射された光を凹面で反射することで虚像を表示させる光学素子と、を備え、前記光学素子は、前記画像形成素子から出射された光の出射方向に配置され、前記画像形成素子は、前記光学素子を通して前記虚像を視認する方向に対して略直交する方向に配置されている。
 本発明の更に他の観点では、表示すべき画像を形成する画像形成素子から出射された光を、前記画像形成素子から出射された光の出射方向に配置された凹面を有する光学素子で反射させることで虚像を表示させる虚像表示装置は、前記画像形成素子は、前記光学素子を通して前記虚像を視認する方向に対して略直交する方向に配置されている。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [第1実施例]
 まず、本発明の第1実施例について説明する。
 (装置構成)
 図1は、第1実施例に係る虚像表示装置100の全体構成を概略的に示したブロック図である。ここでは、虚像表示装置100の各構成要素の概要について説明する。
 図1に示すように、第1実施例に係る虚像表示装置100は、主に、レーザプロジェクタ1と、射出瞳拡大素子(以下、適宜「EPE(Exit-Pupil Expander)」と表記する)11と、フィールドレンズ12と、コンバイナ13と、を有する。虚像表示装置100は、画像をユーザの目の位置(アイポイント)から虚像として視認させる装置である。虚像表示装置100は、例えばヘッドアップディスプレイやヘッドマウントディスプレイとして利用される。
 レーザプロジェクタ1は、赤色、緑色、青色のレーザ光源や、レーザ光源から出射されたレーザ光を走査するスキャン機構(走査機構)や、これらを制御する制御部などを有する。レーザプロジェクタ1から照射された光は、EPE11に入射する。なお、レーザプロジェクタ1の詳細は後述する。
 EPE11は、レーザプロジェクタ1から照射された光の射出瞳を拡大し、ユーザに提示する画像の中間像を形成する。例えば、EPE11は、複数のマイクロレンズが配列されたマイクロレンズアレイである。EPE11から出射された光は、フィールドレンズ12に入射する。なお、EPE11には、中間像として歪みの無い画像が形成される。EPE11は、本発明における「画像形成素子」の一例に相当する。
 フィールドレンズ12は、EPE11の射出側に配置されたレンズである。フィールドレンズ12は、EPE11からの光が入射する面(つまり入射面)が平面形状に構成されていると共に、EPE11からの光が入射する面と反対側の面(つまり出射面)が球面の凸面形状に構成されている。フィールドレンズ12は、平面形状の面がEPE11の面と平行になるように、EPE11と離間して配置されている。また、フィールドレンズ12は、その中心とEPE11の中心とを結んだ軸が、EPE11の鉛直方向に延びる軸と平行になるように配置されている。フィールドレンズ12から出射された光は、コンバイナ13に入射する。なお、フィールドレンズ12は、本発明における「虚像歪補正素子」の一例に相当する。
 コンバイナ13は、フィールドレンズ12からの光を反射することで、入射光に対応する像を拡大した虚像として表示させるハーフミラーである。具体的には、コンバイナ13は、フィールドレンズ12からの光が入射する面(つまり入射面)が球面の凹面形状に構成されている。このようにコンバイナ13によって反射された光により、ユーザは、コンバイナ13から所定距離離れたアイポイントから虚像を観察する。なお、コンバイナ13は、本発明における「光学素子」の一例に相当する。
 なお、例えば、EPE11及びフィールドレンズ12は、レーザプロジェクタ1と一体に構成される。つまり、虚像表示装置100では、レーザプロジェクタ1とEPE11及びフィールドレンズ12とが別体にて構成されているわけではなく、レーザプロジェクタ1とEPE11及びフィールドレンズ12とが一体の装置として構成されている。
 次に、図2を参照して、レーザプロジェクタ1の構成について説明する。図2に示すように、レーザプロジェクタ1は、画像信号入力部2と、ビデオASIC3と、フレームメモリ4と、ROM5と、RAM6と、レーザドライバASIC7と、MEMS制御部8と、レーザ光源ユニット9と、MEMSミラー10とを備える。
 画像信号入力部2は、外部から入力される画像信号を受信してビデオASIC3に出力する。ビデオASIC3は、画像信号入力部2から入力される画像信号及びMEMSミラー10から入力される走査位置情報Scに基づいてレーザドライバASIC7やMEMS制御部8を制御するブロックであり、ASIC(Application Specific Integrated Circuit)として構成されている。
 ビデオASIC3は、同期/画像分離部31と、ビットデータ変換部32と、発光パターン変換部33と、タイミングコントローラ34と、を備える。同期/画像分離部31は、画像信号入力部2から入力された画像信号から、画像表示部であるEPE11に表示される画像データと同期信号とを分離し、画像データをフレームメモリ4へ書き込む。ビットデータ変換部32は、フレームメモリ4に書き込まれた画像データを読み出してビットデータに変換する。発光パターン変換部33は、ビットデータ変換部32で変換されたビットデータを、各レーザの発光パターンを表す信号に変換する。タイミングコントローラ34は、同期/画像分離部31、ビットデータ変換部32の動作タイミングを制御する。また、タイミングコントローラ34は、後述するMEMS制御部8の動作タイミングも制御する。
 フレームメモリ4には、同期/画像分離部31により分離された画像データが書き込まれる。ROM5は、ビデオASIC3が動作するための制御プログラムやデータなどを記憶している。RAM6には、ビデオASIC3が動作する際のワークメモリとして、各種データが逐次読み書きされる。
 レーザドライバASIC7は、後述するレーザ光源ユニット9に設けられるレーザダイオードを駆動する信号を生成するブロックであり、ASICとして構成されている。レーザドライバASIC7は、赤色レーザ駆動回路71と、青色レーザ駆動回路72と、緑色レーザ駆動回路73と、を備える。赤色レーザ駆動回路71は、発光パターン変換部33が出力する信号に基づき、赤色レーザLD1を駆動する。青色レーザ駆動回路72は、発光パターン変換部33が出力する信号に基づき、青色レーザLD2を駆動する。緑色レーザ駆動回路73は、発光パターン変換部33が出力する信号に基づき、緑色レーザLD3を駆動する。
 MEMS制御部8は、タイミングコントローラ34が出力する信号に基づきMEMSミラー10を制御する。MEMS制御部8は、サーボ回路81と、ドライバ回路82と、を備える。サーボ回路81は、タイミングコントローラからの信号に基づき、MEMSミラー10の動作を制御する。ドライバ回路82は、サーボ回路81が出力するMEMSミラー10の制御信号を所定レベルに増幅して出力する。
 レーザ光源ユニット9は、レーザドライバASIC7から出力される駆動信号に基づいて、レーザ光をMEMSミラー10へ出射する。走査手段としてのMEMSミラー10は、レーザ光源ユニット9から出射されたレーザ光をEPE11に向けて反射する。こうすることで、MEMSミラー10は、EPE11上に表示すべき画像を形成する。また、MEMSミラー10は、画像信号入力部2に入力された画像を表示するためにMEMS制御部8の制御によりEPE11上を走査(スキャン)するように移動し、その際の走査位置情報(例えばミラーの角度などの情報)をビデオASIC3へ出力する。
 次に、レーザ光源ユニット9の詳細な構成を説明する。レーザ光源ユニット9は、ケース91と、波長選択性素子92と、コリメータレンズ93と、赤色レーザLD1と、青色レーザLD2と、緑色レーザLD3と、モニタ用受光素子(以下、単に「受光素子」と呼ぶ。)50と、を備える。以下では、赤色レーザLD1、青色レーザLD2及び緑色レーザLD3を区別しない場合には、単に「レーザLD」と表記する。
 ケース91は、樹脂などにより略箱状に形成される。ケース91には、緑色レーザLD3を取り付けるために、ケース91内へ貫通する孔が設けられているとともに断面が凹状のCAN取付部91aと、CAN取付部91aと直交する面に設けられ、ケース91内へ貫通する孔が設けられているとともに断面が凹状のコリメータ取付部91bと、が形成されている。
 合成素子としての波長選択性素子92は、例えばトリクロイックプリズムにより構成され、反射面92aと反射面92bが設けられている。反射面92aは、赤色レーザLD1から出射されたレーザ光をコリメータレンズ93へ向かって透過させ、青色レーザLD2から出射されたレーザ光をコリメータレンズ93へ向かって反射させる。反射面92bは、赤色レーザLD1および青色レーザLD2から出射されたレーザ光の大部分をコリメータレンズ93へ向かって透過させ、その一部を受光素子50へ向かって反射させる。また、反射面92bは、緑色レーザLD3から出射されたレーザ光の大部分をコリメータレンズ93へ向かって反射させ、その一部を受光素子50へ向かって透過させる。こうして、各レーザからの出射光が重ね合わされて、コリメータレンズ93および受光素子50に入射される。なお、波長選択性素子92は、ケース91内のコリメータ取付部91bの近傍に設けられている。コリメータレンズ93は、波長選択性素子92から入射したレーザ光を平行光にしてMEMSミラー10へ出射する。コリメータレンズ93は、ケース91のコリメータ取付部91bに、UV系接着剤などで固定される。即ち、合成素子の後段にコリメータレンズ93が設けられている。
 レーザ光源としての赤色レーザLD1は、赤色のレーザ光を出射する。赤色レーザLD1は、半導体レーザ光源がチップ状態のまま、又は、チップがサブマウントなどに載置された状態で、ケース91内の波長選択性素子92及びコリメータレンズ93と同軸となる位置に固定されている。レーザ光源としての青色レーザLD2は、青色のレーザ光を出射する。青色レーザLD2は、半導体レーザ光源がチップ状態のまま、又は、チップがサブマウントなどに載置された状態で、出射したレーザ光が反射面92aによってコリメータレンズ93へ向かって反射できる位置に固定されている。この赤色レーザLD1と青色レーザLD2の位置は入れ替わってもよい。レーザ光源としての緑色レーザLD3は、CANパッケージに取り付けられた状態又はフレームパッケージに取り付けられた状態であり、緑色のレーザ光を出射する。緑色レーザLD3は、CANパッケージ内に緑色のレーザ光を発生する半導体レーザ光源チップBが取り付けられており、ケース91のCAN取付部91aに固定されている。受光素子50は、各レーザ光源から出射されたレーザ光の一部を受光する。受光素子50は、フォトディテクタなどの光電変換素子であり、入射したレーザ光の光量に応じた電気信号である検出信号SdをレーザドライバASIC7へ供給する。
 (視線方向に対するEPEの角度)
 次に、図3及び図4を参照して、ユーザが正面から虚像の中心を見つめる方向(以下、「視線方向」と呼ぶ。)に対するEPE11の角度について説明する。ここでは、説明の便宜上、フィールドレンズ12が無い光学系を用いて説明する。
 図3は、視線方向を説明するための図を示す。図3に示すように、視線方向は、ユーザが正面から虚像の中心C4を見つめる方向と定義される。この視線方向に対応する軸を「c」とする。
 図4は、視線方向に対するEPE11及びコンバイナ13の配置関係を説明するための図を示す。図4(a)に示すように、EPE11の中心C1とコンバイナ13の中心C2とを結んだ直線を「a」と定義し、EPE11の中心C1を通り、EPE11の面に平行な軸を「b」と定義する。そうすると、直線aと軸cとの成す角度は「φ」と定義され、軸bと軸cとの成す角度は「θ」と定義される。本明細書では、角度θのことを、「視線方向に対するEPE11の角度」と呼ぶ。なお、角度φは、軸cから見て時計回りを正とし、角度θは、軸cから見て時計回りを正とする。
 図4(b)を用いて更に詳しく説明する。図4(b)においてハッチングで表した面Sは、図4(a)に示した光学系の断面の一部である。図4(b)に示すように、直線aに対して垂直に交差し、EPE11の中心C1を通る軸を「d」と定義し、直線aに対して垂直に交差し、コンバイナ13の中心C2を通る軸を「e」と定義する。上記した軸bは、このような軸dに直交し、EPEの中心C1を通る軸として定義される。EPE11の面を軸d回りにチルトさせた場合、それに合わせて軸bも回転する。EPE11の中心C1から、コンバイナ13の中心C2に入射した光線は、コンバイナ13の軸e回りのチルト角に応じて決定される軸cの方向に反射される。この反射した光線の逆方向が、ユーザが虚像の中心C4を正面から見る際の視線方向に相当する。ここで、直線aと軸cとの成す角度は「φ」であり、軸cと軸bとの成す角度は「θ」である。なお、軸cと軸bとの交点を「C3」とする。
 本実施例では、コンバイナ13によって表示される虚像の歪みを抑制するといった観点より(例えば左右の眼のそれぞれで観察される虚像の形状の違いを抑制するといった観点より)、EPE11を、コンバイナ13を通して虚像を視認する方向(視線方向)に対して略直交する方向に配置する。つまり、視線方向に対するEPE11の角度θ(即ち、軸cと軸bとの成す角度θ)を、略90度に設定する。
 (シミュレーション結果)
 次に、視線方向に対するEPE11の角度θを略90度に設定した場合のシミュレーション結果について説明する。
 以下では、下記のようなパラメータを用いてシミュレーションを行った場合について例示する。なお、「Y1」及び「Y2」については図3を参照されたい。
・EPE11の中心C1からコンバイナ13の中心C2に入射した光線と反射した光線との成す角度φ(直線aと軸cとの成す角度):24度
・EPE11の中心C1とコンバイナ13の中心C2との間隔Y1(直線aに沿って測った距離):170mm
・コンバイナ13の中心C2とアイポイントとの間隔Y2:500mm
・EPE11上に形成された中間像のサイズ:水平方向の長さ75mm×垂直方向の長さ25mm(なお、中間像の形状は、図5に示すように、歪みの無い正方形が並べられた格子像である)
・コンバイナ13の凹面の曲率半径:400mm
・フィールドレンズ12の凸面の曲率半径:150mm
・フィールドレンズ12の中心厚み:8mm
・EPE11とフィールドレンズ12の平面との間隔:2mm
・フィールドレンズ12の屈折率:1.526
 まず、図6及び図7を参照して、アイボックスセンターでのシミュレーション結果について説明する。ここでは、図6に示すように、アイボックスセンターから「Y3=1500mm」だけ前方の位置に虚像が形成される場合について例示する。なお、アイボックスセンターとは両眼のほぼ中央であり、虚像をほぼ真正面から観測できる理想的な観測点を指す。
 図7は、アイボックスセンターでのシミュレーション結果の一例を示している。図7(a)~(c)では、シミュレーションより得られた虚像を実線で示しており、虚像サイズや形状の比較を行うための参照スクリーンの形状を一点鎖線の枠で示している。ここで参照スクリーンのサイズは「水平方向の長さ450(mm)×垂直方向の長さ150(mm)」である。
 図7は、アイボックスセンターでのシミュレーション結果の一例を示している。図7(a)~(c)では、シミュレーションより得られた虚像を実線で示しており、虚像サイズや形状の比較を行うための参照スクリーンの形状を一点鎖線の枠で示している。ここで参照スクリーンのサイズは「水平方向の長さ450(mm)×垂直方向の長さ150(mm)」である。
 図7(a)は、視線方向に対するEPE11の角度θを「114度」に設定した場合、つまりEPE11を視線方向に対して略直交する方向に配置しなかった場合のシミュレーション結果例を示している。また、図7(a)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置しなかった場合のシミュレーション結果例を示している。図7(a)より、虚像に歪みが生じていることがわかる。具体的には、虚像の台形歪みや、虚像の弓なりの歪みなどが生じていることがわかる。
 図7(b)は、視線方向に対するEPE11の角度θを「90度」に設定した場合、つまりEPE11を視線方向に対して直交する方向に配置した場合のシミュレーション結果例を示している。また、図7(b)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置しなかった場合のシミュレーション結果例を示している。図7(b)より、図7(a)と比較すると、虚像の台形歪みが適切に除去されていることがわかる。
 図7(c)は、視線方向に対するEPE11の角度θを「90度」に設定した場合、つまりEPE11を視線方向に対して直交する方向に配置した場合のシミュレーション結果例を示している。また、図7(c)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置した場合のシミュレーション結果例を示している。図7(c)より、図7(b)と比較すると、虚像の弓なりの歪みが適切に除去されていることがわかる。
 次に、図8及び図9を参照して、両眼でのシミュレーション結果について説明する。ここでは、図8に示すように、両眼の間隔Wが「70mm」であり、左眼と右眼との間の中心に位置する点から「Y4=1500mm」だけ前方の位置に虚像が形成される場合について例示する。
 図9は、両眼でのシミュレーション結果の一例を示している。図9(a)~(c)では、シミュレーションより得られた虚像を実線及び破線で示しており、参照スクリーンの形状を一点鎖線の枠で示している。具体的には、左眼で観察される虚像を実線で示しており、右眼で観察される虚像を破線で示している。
 図9(a)は、視線方向に対するEPE11の角度θを「114度」に設定した場合、つまりEPE11を視線方向に対して略直交する方向に配置しなかった場合のシミュレーション結果例を示している。また、図9(a)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置しなかった場合のシミュレーション結果例を示している。図9(a)より、台形歪みや弓なりの歪みなどの虚像の歪みが生じていることがわかる。また、左眼で観察される虚像の歪みの形状と、右眼で観察される虚像の歪みの形状とが、異なることがわかる。
 図9(b)は、視線方向に対するEPE11の角度θを「90度」に設定した場合、つまりEPE11を視線方向に対して直交する方向に配置した場合のシミュレーション結果例を示している。また、図9(b)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置しなかった場合のシミュレーション結果例を示している。図9(b)より、図9(a)と比較すると、虚像の台形歪みが適切に除去されていることがわかる。また、両眼のそれぞれで観察される虚像の形状の違いが適切に抑制されていることがわかる。
 図9(c)は、視線方向に対するEPE11の角度θを「90度」に設定した場合、つまりEPE11を視線方向に対して直交する方向に配置した場合のシミュレーション結果例を示している。また、図9(c)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置した場合のシミュレーション結果例を示している。図9(c)より、図9(b)と比較すると、虚像の弓なりの歪みが適切に除去されていることがわかる。また、図9(b)に示したような両眼での虚像の形状の違いが抑制された状態が、適切に維持されていることがわかる。
 以上のことから、第1実施例によれば、EPE11を視線方向に対して略直交する方向に配置することで、虚像の歪みを適切に抑制することができる。具体的には、虚像の台形歪みや、両眼のそれぞれで観察される虚像の形状の違いを適切に抑制することができる。また、第1実施例によれば、EPE11の射出側にフィールドレンズ12を挿入することで、虚像の弓なりの歪みを適切に抑制することができる。
 ここで、図10及び図11を参照して、EPE11を視線方向に対して略直交する方向に配置することで虚像の歪みを抑制することができる理由について考察する。ここでも、説明の便宜上、フィールドレンズ12が無い光学系を用いて説明する。また、以下では、少なくともEPE11及びコンバイナ13から成る光学系を、適宜「接眼光学系」と呼ぶ。
 図10は、EPE11を視線方向に対して直交する方向に配置しなかった場合(つまり軸cと軸bとの成す角度θが90度でない場合)の図を示している。図10(a)は、接眼光学系の上面図に相当し、図10(b)は、接眼光学系の側面図に相当する。具体的には、図10(b)は、図3に示した接眼光学系を時計回りに角度φ回転させた図に相当する。
 コンバイナ13の反射面は球面の凹面形状であるため、反射面のある一点の法線方向は、コンバイナ13の曲率半径の中心の方向を向く。図10(a)及び図10(b)では、コンバイナ13の反射面とコンバイナ13の曲率半径の中心とを結んだ破線にて、反射面各点における面の法線ベクトルを表している(後述する図11も同様する)。コンバイナ13に入射した光線は、このような法線方向に対して対称に反射する。上記のような法則に従って、接眼光学系の側面図において、EPE11上に形成された画像の上端及び下端から射出された光線U、Dが、アイボックスセンターの観測点に入射した角度を図示すると、図10(b)のようになる。そして、接眼光学系の上面図において、EPE11上に形成された画像の上辺の右端及び左端と下辺の右端及び左端とから射出された光線RU、LU、RD、LDが、アイボックスセンターの観測点に入射した角度を図示すると、図10(a)のようになる。
 図10(a)に示すように、視線方向とEPE11の面とが直交しない場合(具体的には視線方向に対するEPE11の角度θが90度よりもかなり大きい場合)には、虚像の上辺に相当する光線LU、RUよりも、虚像の下辺に相当する光線LD、RDの方が目に入射する角度が大きくなる。このようなことから、視線方向とEPE11の面とが直交しない場合には、図7(a)に示したように下に広がった扇形の歪が発生したものと考えられる。
 図11は、EPE11を視線方向に対して直交する方向に配置した場合(つまり軸cと軸bとの成す角度θが90度である場合)の図を示している。図11(a)は、接眼光学系の上面図に相当し、図11(b)は、接眼光学系の側面図に相当する。具体的には、図11(b)は、図3に示した接眼光学系を時計回りに角度φ回転させた図に相当する。
 図11(b)は、図10(b)と同様に、接眼光学系の側面図において、EPE11上に形成された画像の上端及び下端から射出された光線U’、D’が、アイボックスセンターの観測点に入射した角度を図示したものである。そして、図11(a)は、図10(a)と同様に、接眼光学系の上面図において、EPE11上に形成された画像の上辺の右端及び左端と下辺の右端及び左端とから射出された光線RU’、LU’、RD’、LD’が、アイボックスセンターの観測点に入射した角度を図示したものである。
 図11(a)に示すように、視線方向とEPE11の面とが直交する場合(具体的には視線方向に対するEPE11の角度θが90度である場合)には、虚像の上辺に相当する光線LU’、RU’と虚像の下辺に相当する光線LD’、RD’とが、目に入射する角度が概ね等しくなる。このようなことから、視線方向とEPE11の面とが直交する場合には、図7(b)に示したように虚像縦線の傾きがほぼ無くなり、虚像の歪が微小になったものと考えられる。
 なお、上記ではコンバイナ13の曲率半径が400mmである場合の結果を示したが、以下では、コンバイナ13の曲率半径が400mmでなくても本実施例を適用できることを説明する。合わせて、視線方向に対するEPE11の角度θが90度付近の角度であっても、上記した本実施例による効果が得られることを説明する。
 ここでは、コンバイナ13の曲率半径が400mmである場合の結果と、コンバイナ13の曲率半径が500mmである場合の結果とを比較する。シミュレーションは、下記のようなパラメータを用いて行ったものとする。なお、コンバイナ13の曲率半径が400mmである場合を適宜「R400」と表記し、コンバイナ13の曲率半径が500mmである場合を適宜「R500」と表記する。
・EPE11の中心C1からコンバイナ13の中心C2に入射した光線と反射した光線との成す角度φ(直線aと軸cとの成す角度):24度
・コンバイナ13の中心C2とアイポイントとの間隔:500mm
・EPE11上に形成された中間像のサイズ:水平方向の長さ75mm×垂直方向の長さ25mm(なお、中間像の形状は、図5に示すように、歪みの無い正方形が並べられた格子像である)
・目から虚像までの距離:1500mm
・R400のコンバイナ13の曲率半径:400mm
・EPE11の中心C1とR400のコンバイナ13の中心C2との間隔(直線aに沿って測った距離):170mm
・R400のコンバイナ13に用いた参照スクリーンサイズ:水平方向の長さ450mm×垂直方向の長さ150mm
・R500のコンバイナ13の曲率半径:500mm
・EPE11の中心C1とR500のコンバイナ13の中心C2との間隔(直線aに沿って測った距離):200mm
・R500のコンバイナ13に用いた参照スクリーンサイズ:水平方向の長さ360mm×垂直方向の長さ120mm
 図12は、R400及びR500のシミュレーション結果の一例を示す。ここでは、フィールドレンズ12を用いなかった場合の結果を示す。図12(a)は、視線方向に対するEPE11の角度θを種々の値に設定した場合の、R400及びR500での虚像の歪量を示している。「虚像の歪量」は、図12(b)及び(c)中の一点鎖線X1で示すような枠の縦線に対する、図12(b)及び(c)中の実線矢印X2で示すような虚像端部の縦線の角度の絶対値にて定義される。図12(b)は、R400を用いた場合の、視線方向に対するEPE11の角度θを「114度」に設定した際のアイボックスセンターで観察される虚像歪みを示し、図12(c)は、R400を用いた場合の、視線方向に対するEPE11の角度θを「82度」に設定した際のアイボックスセンターで観察される虚像歪みを示している。
 図12(a)より、コンバイナ13の曲率半径が400mmでも500mmでも、虚像の歪量が最も小さくなるEPE11の角度θが90度であることがわかる。つまり、コンバイナ13の曲率半径が400mmでも500mmでも、EPE11の角度θに関する最適な設定値が変わらないと言える。
 また、図12(a)より、視線方向に対するEPE11の角度θが90度であるときに虚像の歪量が最も小さくなるが、角度θが90度でなくても、角度θが90度付近の角度であれば、虚像の歪量が小さいことがわかる。この結果より、視線方向に対するEPE11の角度θを90度に設定しなくても、視線方向に対するEPE11の角度θを90度付近の角度に設定すれば、虚像の歪みを軽減できるといった本実施例による効果が得られることが実証された。
 他方で、図12(b)より、視線方向に対するEPE11の角度θが90度よりも大きいと下に広がった台形形状の虚像歪みが生じ、図12(c)より、視線方向に対するEPE11の角度θが90度よりも小さいと上に広がった台形形状の虚像歪みが生じることがわかる。また、図12(b)及び(c)より、視線方向に対するEPE11の角度θが90度から大きく異なる値になった場合、アスペクト比の理想状態とのずれも大きくなってしまうことがわかる。
 (先行技術との比較)
 ここでは、本実施例に係る構成と、前述した特許文献3(特開2009-150947号公報)に係る構成とを比較する。
 特許文献3には、一見すると、本実施例と同様の、EPEが視線方向に対して直交する方向に配置された構成が記載されていると言える。しかしながら、特許文献3に記載の構成では、EPE(スクリーン)とコンバイナ(フロントシールド)との間に、拡大ミラー(ミラー)が配置されている。つまり、本実施例に係る構成では、EPE11から出射された光が他のミラー(光学素子)に反射されることなくコンバイナ13に入射しているが、特許文献3に記載の構成では、EPEから出射された光が拡大ミラーによって反射され、拡大ミラーによって反射された光がコンバイナに入射している。このようにEPEとコンバイナとの間に拡大ミラーが配置された構成(つまり拡大ミラーとアイポイントとの間に略平面のコンバイナが配置された構成)では、たとえ視線方向に対して直交する方向にEPEを配置したとしても、本実施例のように両眼観察時の虚像歪を軽減する効果は得られない。
 [第2実施例]
 次に、本発明の第2実施例について説明する。第2実施例では、レーザプロジェクタ1から照射される光によってEPE11上に形成される像の歪みを補正する点で、第1実施例と異なる。具体的には、第2実施例では、レーザプロジェクタ1より照射された光がEPE11に垂直に入射しないような配置状態である場合に、レーザプロジェクタ1より照射された光がEPE11に垂直に入射しないことにより生じ得る、EPE11上に形成される像の歪みを補正する。
 なお、以下では、上記した第1実施例と同様の構成については、適宜説明を省略する。また、ここで特に説明しない構成については、第1実施例と同様であるものとする。例えば、視線方向に対するEPE11の角度θを略90度に設定するといった構成は、第2実施例にも適用される。
 図13は、レーザプロジェクタ1とEPE11との配置状態の具体例を示す。図13(a)は、レーザプロジェクタ1からの光がEPE11に垂直に入射するような配置状態を示している。この配置状態では、画像中心を描画するための光が、レーザプロジェクタ1からEPE11に対して垂直に投射される。図13(b)は、レーザプロジェクタ1からの光がEPE11に垂直に入射しないような配置状態を示している。この配置状態では、画像中心を描画するための光が、所定の入射角度(≠0度)にて、レーザプロジェクタ1からEPE11に対して斜めに投射される。
 図13(b)に示した配置状態を適用した場合には、EPE11上に形成される像(実像を意味する。以下同様とする。)に台形歪みが発生する場合がある。第2実施例では、このような台形歪みを補正するための処理を行う。なお、図13(a)に示した配置状態を適用した場合には、基本的には、EPE11上に形成される像に台形歪みは発生しない。しかしながら、図13(a)の配置状態では、虚像表示装置100を車室内の上部に設置した場合に、ヘッドクリアランスを確保しにくくなる。よって、虚像表示装置100を車室内の上部に設置する場合のヘッドクリアランスを確保するといった観点では、図13(a)の配置状態よりも図13(b)の配置状態のほうが有利であると言える。
 図14は、EPE11上に形成される像の台形歪みを補正する方法を説明するための図である。図14(a)は、図13(b)に示した配置状態を適用した場合に生じ得る、EPE11上に形成される像の台形歪みの具体例を示している。第2実施例では、このような台形歪みをキャンセルするような画像を、レーザプロジェクタ1によってEPE11上に描画させる処理を行う。具体的には、図14(b)に示すような上辺から下辺にかけて横幅が徐々に変化するような画像を、入力された画像の縦の幅を圧縮して描画することで、EPE11上には図5に示すような歪の無い格子像が形成される。
 1つの例では、レーザプロジェクタ1内のレーザドライバASIC7(図2参照)が、レーザ光源ユニット9内のレーザLDの発光周期を変える制御(つまりレーザLDを発光させるタイミングを変える制御)を行うことで、EPE11上に形成される像のどの横のラインでも画素の数が変わらないように、図14(b)に示すような画像をレーザプロジェクタ1で描画する。この例では、レーザドライバASIC7は、EPE11上に形成される画像の上部から下部にかけて、レーザLDの発光周期が徐々に短くなるように制御を行う(言い換えると、EPE11上に形成される画像の下部から上部にかけて、レーザLDの発光周期が徐々に長くなるように制御を行う)。同時に、MEMS制御部8は、入力された画像に対して描画する横のラインの間隔を狭める、言い換えると線密度を上げるようにMEMSミラー10を制御する。
 他の例では、レーザプロジェクタ1内のビデオASIC3(図2参照)が、画像信号入力部2から入力された画像に対して画像処理を行うことで、図14(b)に示すような画像をEPE11上に描画させる。この例では、ビデオASIC3は、画像信号入力部2から入力された元画像を、図14(b)に示すような画像に変形する画像処理を行う。このように、レーザプロジェクタ1内のレーザドライバASIC7やビデオASIC3は、本発明における「補正手段」の一例に相当する。
 以上説明した第2実施例によれば、レーザプロジェクタ1より照射された光がEPE11に垂直に入射しないことに起因する、EPE11上に形成される像の歪みを適切に補正することができる。そのため、虚像表示装置100を車室内に設置する場合に、EPE11上に形成される像の歪みといった不具合の発生を抑制しつつ、ヘッドクリアランスが確保されるような適切な配置を採用することが可能となる。
 [第3実施例]
 次に、本発明の第3実施例について説明する。第3実施例では、コンバイナ13がチルトされた場合に、それに応じてEPE11を自動でチルトさせる、つまり軸e回りのコンバイナ13の傾きが変更された場合に、軸d回りのEPE11の傾きを自動で変化させる点で、上記した第1及び第2実施例と異なる。具体的には、第3実施例では、コンバイナ13の軸e回りの角度(以下、「コンバイナ13のチルト角」と呼ぶ。)が変化された場合に、視線方向に対して略直交する方向にEPE11が配置されるように、EPE11の軸d回りの角度(以下、「EPE11のチルト角」と呼ぶ。)を変化させる制御を行う。
 ここで、虚像表示装置を車室内に設置して利用する場合、ユーザとしての運転者のアイポイントは、運転者の座高やシートポジションなどによって変わるため、運転者はコンバイナ13のチルト角を調整する傾向にある。したがって、第3実施例では、運転者がコンバイナ13のチルト角を変化させることを想定して、当該チルト角が変化された場合に、それに伴ってEPE11のチルト角を自動で変化させることとした。
 図15は、第3実施例に係る虚像表示装置101の全体構成を概略的に示したブロック図である。なお、第1実施例に係る虚像表示装置100(図1及び図3参照)と同様の構成要素については、同一の符号を付し、その説明を省略するものとする。
 第3実施例に係る虚像表示装置101は、レーザプロジェクタ1の代わりにレーザプロジェクタ1aを有すると共に、角度センサ15及びアクチュエータ16を有する点で、第1実施例に係る虚像表示装置100と異なる。角度センサ15は、コンバイナ13のチルト角を検出する。アクチュエータ16は、EPE11のチルト角を変化させる制御を行う。レーザプロジェクタ1aは、レーザプロジェクタ1と同様の構成要素(図2参照)を有すると共に、アクチュエータ16を制御する制御部1aaを有する。
 レーザプロジェクタ1内の制御部1aaは、角度センサ15が検出したチルト角に対応する検出信号S15を取得し、検出信号S15に基づいて、EPE11のチルト角を変化させるための制御信号S16をアクチュエータ16に供給する。具体的には、制御部1aaは、視線方向に対するEPE11の角度θが略90度になるように、変化後のコンバイナ13のチルト角に応じて、EPE11のチルト角を変化させる制御を行う。例えば、制御部1aaは、角度センサ15が検出したチルト角から直線aと軸cとの成す角度φを求め、角度φに対して設定すべきEPE11のチルト角が対応付けられたテーブルを参照して、求めた角度φに対応するEPE11のチルト角に、EPE11を設定する制御を行う。このテーブルには、視線方向に対するEPE11の角度θが90度になる際の、角度φとEPE11のチルト角との関係が予め定められている。なお、制御部1aa及びアクチュエータ16は、本発明における「傾き変更手段」の一例に相当する。
 次に、図16及び図17を参照して、上記のように直線aと軸cとの成す角度φに応じてEPE11のチルト角を変化させた場合のシミュレーション結果について説明する。なお、シミュレーションは、直線aと軸cとの成す角度φを除いて第一実施例の図7、図9と同じパラメータを使用して行ったものとする。図16及び図17では、初期状態において、直線aと軸cとの成す角度φが第1実施例と同様に「24度」に設定されており、この状態から、コンバイナ13が軸eを中心軸にして反時計回りの方向にチルトされることで、角度φが「32度」に変化した場合について例示する。また、視線方向に対するEPE11の角度θは、初期状態において、第1実施例と同様に「90度」に設定されているものとする(つまり初期状態においては、視線方向に対して直交する方向にEPE11が配置されているものとする)。その他のパラメータは、第1実施例と同様の値であるものとする。
 図16は、アイボックスセンターでのシミュレーション結果の一例を示している。図16(a)~(d)では、シミュレーションより得られた虚像を実線で示しており、参照スクリーンの形状を一点鎖線の枠で示している。
 図16(a)は、角度φが変化された際にEPE11のチルト角を変化させなかった場合、つまり視線方向に対するEPE11の角度θが90度になるようにEPE11のチルト角を変化させなかった場合のシミュレーション結果例を示している。この場合には、視線方向に対するEPE11の角度がθ「90度」から「98度」に変化するものとする。また、図16(a)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置しなかった場合のシミュレーション結果例を示している。図16(a)より、虚像の歪みが生じていることがわかる。具体的には、図7(b)に示した、直線aと軸cとの成す角度φが変化される前の初期状態での結果と比較すると、新たな虚像の歪みが生じていることがわかる。
 図16(b)は、角度φが変化された際にEPE11のチルト角を変化させなかった場合、つまり視線方向に対するEPE11の角度θが90度になるようにEPE11のチルト角を変化させなかった場合のシミュレーション結果例を示している。この場合には、視線方向に対するEPE11の角度θが「90度」から「98度」に変化するものとする。また、図16(b)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置した場合のシミュレーション結果例を示している。図16(b)より、図16(a)と比較すると、虚像の弓なりの歪みが抑制されているが、図7(c)に示した、直線aと軸cとの成す角度φが変化される前の初期状態での結果と比較すると、新たな虚像の歪みが生じていることがわかる。
 図16(c)は、変化後の角度φに応じてEPE11のチルト角を変化させた場合、つまり視線方向に対するEPE11の角度θが90度になるようにEPE11のチルト角を変化させた場合のシミュレーション結果例を示している。また、図16(c)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置しなかった場合のシミュレーション結果例を示している。図16(c)より、図16(a)と比較すると、虚像の歪みが適切に軽減されていることがわかる。
 図16(d)は、変化後の角度φに応じてEPE11のチルト角を変化させた場合、つまり視線方向に対するEPE11の角度θが90度になるようにEPE11のチルト角を変化させた場合のシミュレーション結果例を示している。また、図16(d)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置した場合のシミュレーション結果例を示している。図16(d)より、図16(b)と比較すると、虚像の歪みが適切に除去されていることがわかる。また、図16(c)と比較すると、虚像の弓なりの歪みが適切に除去されていることがわかる。
 図17は、両眼でのシミュレーション結果の一例を示している。図17(a)~(d)では、シミュレーションより得られた虚像を実線及び破線で示しており、参照スクリーンの形状を一点鎖線の枠で示している。具体的には、左眼で観察される虚像を実線で示しており、右眼で観察される虚像を破線で示している。
 図17(a)は、角度φが変化された際にEPE11のチルト角を変化させなかった場合、つまり視線方向に対するEPE11の角度θが90度になるようにEPE11のチルト角を変化させなかった場合のシミュレーション結果例を示している。この場合には、視線方向に対するEPE11の角度θが「90度」から「98度」に変化するものとする。また、図17(a)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置しなかった場合のシミュレーション結果例を示している。図17(a)より、虚像の歪みが生じていることがわかる。具体的には、図9(b)に示した、直線aと軸cとの成す角度φが変化される前の初期状態での結果と比較すると、新たな虚像の歪みが生じていると共に、両眼のそれぞれで観察される虚像の形状の違いが大きくなっていることがわかる。
 図17(b)は、角度φが変化された際にEPE11のチルト角を変化させなかった場合、つまり視線方向に対するEPE11の角度θが90度になるようにEPE11のチルト角を変化させなかった場合のシミュレーション結果例を示している。この場合には、視線方向に対するEPE11の角度θが「90度」から「98度」に変化するものとする。また、図17(b)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置した場合のシミュレーション結果例を示している。図17(b)より、図17(a)と比較すると、虚像の弓なりの歪みが抑制されているが、図9(c)に示した、直線aと軸cとの成す角度φが変化される前の初期状態での結果と比較すると、新たな虚像の歪みが生じていると共に、両眼のそれぞれで観察される虚像の形状の違いが大きくなっていることがわかる。
 図17(c)は、変化後の角度φに応じてEPE11のチルト角を変化させた場合、つまり視線方向に対するEPE11の角度θが90度になるようにEPE11のチルト角を変化させた場合のシミュレーション結果例を示している。また、図17(c)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置しなかった場合のシミュレーション結果例を示している。図17(c)より、図17(a)と比較すると、虚像の歪みが適切に軽減されていると共に、両眼のそれぞれで観察される虚像の形状の違いが適切に軽減されていることがわかる。
 図17(d)は、変化後の角度φに応じてEPE11のチルト角を変化させた場合、つまり視線方向に対するEPE11の角度θが90度になるようにEPE11のチルト角を変化させた場合のシミュレーション結果例を示している。また、図17(d)は、EPE11とコンバイナ13との間にフィールドレンズ12を設置した場合のシミュレーション結果例を示している。図17(d)より、図17(b)と比較すると、虚像の歪みが適切に軽減されていると共に、両眼のそれぞれで観察される虚像の形状の違いが適切に軽減されていることがわかる。また、図17(c)と比較すると、虚像の弓なりの歪みが適切に除去されていることがわかる。
 以上説明した第3実施例によれば、コンバイナ13が軸e回りにチルトされた場合に、EPE11を軸d回りに適切にチルトさせることで(具体的には、視線方向に対して略直交する方向にEPE11が配置されるように、EPE11をチルトさせることで)、コンバイナ13をチルトさせることで生じる虚像の歪みを適切に抑制することができる。
 なお、上記の第1実施例で述べた理由より、コンバイナ13のチルト角が変化された場合に、視線方向に対するEPE11の角度θが厳密に90度になるように、EPE11のチルト角を変化させなくても良い。つまり、視線方向に対するEPE11の角度θが90度付近の角度になるように、EPE11のチルト角を変化させても良い。
 また、第3実施例は、上記した第2実施例と組み合わせて実施することができる。つまり、コンバイナ13のチルト角が変化された場合に、視線方向に対するEPE11の角度θが略90度になるように、EPE11のチルト角を変化させる制御を行うと共に、レーザプロジェクタ1から照射される光によってEPE11上に形成される像の歪みを補正する処理を行うことができる。
 [変形例]
 次に、上記した実施例の変形例について説明する。なお、以下で提示する変形例は、上記した第1乃至第3実施例に適宜組み合わせて実施することができると共に、それぞれを適宜組み合わせて実施することができる。
 (変形例1)
 上記した実施例では、ユーザが虚像を見上げるように構成された虚像表示装置100、101を示したが、変形例1は、ユーザが虚像を見下ろすように構成された虚像表示装置に関する。
 図18は、変形例1に係る虚像表示装置102の全体構成を概略的に示したブロック図である。なお、第1実施例に係る虚像表示装置100(図1及び図3参照)と同様の構成要素については、同一の符号を付し、その説明を省略するものとする。
 図18に示すように、変形例1に係る虚像表示装置102は、ユーザが見下ろすことで虚像を観察可能に構成されている点で、第1実施例に係る虚像表示装置100などと異なる。具体的には、第1実施例に係る虚像表示装置100では、ユーザが見上げることで虚像が観察できるように、EPE11及びコンバイナ13を、それぞれ軸d、eを中心軸にして反時計回りの方向にチルトさせていたが、変形例1に係る虚像表示装置102では、ユーザが見下ろすことで虚像が観察できるように、EPE11及びコンバイナ13を、それぞれ軸d、eを中心軸にして時計回りの方向にチルトさせる。このような変形例1に係る構成でも、第1実施例などと同様に、視線方向に対して略直交する方向にEPE11が配置される。
 (変形例2)
 変形例2は、レーザプロジェクタ1及びEPE11の代わりに、液晶ディスプレイを用いる点で、上記した実施例と異なる。
 図19は、変形例2に係る虚像表示装置104の全体構成を概略的に示したブロック図である。なお、第1実施例に係る虚像表示装置100(図1及び図3参照)と同様の構成要素については、同一の符号を付し、その説明を省略するものとする。
 図19に示すように、変形例2に係る虚像表示装置104は、レーザプロジェクタ1及びEPE11の代わりに、液晶ディスプレイ200を有する点で、第1実施例に係る虚像表示装置100などと異なる。液晶ディスプレイ200は、本発明の「画像形成素子」の一例に相当する。液晶ディスプレイ200も、上記した第1実施例などと同様に、視線方向に対して略直交する方向に配置される。
 なお、レーザプロジェクタ1及びEPE11の代わりに、液晶ディスプレイ200を用いることに限定はされない。他の例では、レーザプロジェクタ1及びEPE11の代わりに、有機ELディスプレイを用いることができる。この場合、有機ELディスプレイは、本発明の「画像形成素子」の一例に相当する。
 (変形例3)
 変形例3は、EPE11の射出側に配置されたフィールドレンズの構成が、上記した実施例と異なる。具体的には、変形例3に係るフィールドレンズは、EPE11からの光が入射する面(つまり入射面)が凸面形状に構成されていると共に、EPE11からの光が入射する面と反対側の面(つまり出射面)が凸面形状に構成されている。即ち、変形例3に係るフィールドレンズは、両凸球面の形状を有している。また、変形例3に係るフィールドレンズは、その中心とEPE11の中心とを結んだ軸が、EPE11の鉛直方向に延びる軸と平行になるように配置されている。フィールドレンズから出射された光は、コンバイナ13に入射する。なお、変形例3に係るフィールドレンズも、本発明における「虚像歪補正素子」の一例に相当する。
 図20は、変形例3に係るフィールドレンズを用いた場合のシミュレーション結果の一例を示す。なお、シミュレーションは、下記のようなパラメータを用いて行ったものとする。
・視線方向に対するEPE11の角度θ(軸cと軸bとの成す角度):90度
・EPE11の中心C1からコンバイナ13の中心C2に入射した光線と反射した光線との成す角度φ(直線aと軸cとの成す角度):24度
・EPE11の中心C1とコンバイナ13の中心C2との間隔Y1(直線aに沿って測った距離):170mm
・コンバイナ13の中心C2とアイポイントとの間隔Y2:500mm
・目から虚像までの距離:1500mm
・EPE11上に形成された中間像のサイズ:水平方向の長さ75mm×垂直方向の長さ25mm(なお、中間像の形状は、図5に示すように、歪みの無い正方形が並べられた格子像である)
・参照スクリーンサイズ:水平方向の長さ450mm×垂直方向の長さ150mm
・コンバイナ13の曲率半径:400mm(コンバイナ13の形状は球面)
・フィールドレンズの入射側凸面の曲率半径:800mm
・フィールドレンズの射出側凸面の曲率半径:170mm
・フィールドレンズの中心厚み:8mm
・EPE11とフィールドレンズ入射面との間隔:2mm(EPE11とフィールドレンズの中心は一致するものとする)
・フィールドレンズの屈折率:1.526
 図20(a)は、変形例3に係るフィールドレンズを用いた場合のアイボックスセンターでのシミュレーション結果の一例を示し、図20(b)は、変形例3に係るフィールドレンズを用いた場合の両眼でのシミュレーション結果の一例を示している。図20(a)及び(b)より、両凸球面に構成されたフィールドレンズを用いた場合にも、虚像の歪み(弓なりの歪みなど)を適切に抑制できていることがわかる。
 (変形例4)
 上記した実施例では、本発明をレーザプロジェクタ1に適用する例を示したが、本発明は、レーザプロジェクタ1以外にも、液晶プロジェクタなどの種々のプロジェクタに適用することができる。
 (変形例5)
 上記した実施例では、球面形状に構成されたフィールドレンズ12及びコンバイナ13に本発明を適用する例を示したが、本発明は、非球面形状に構成されたフィールドレンズ及び/又はコンバイナにも適用することができる。また、上記した実施例では、平面形状に構成されたEPE11に本発明を適用する例を示したが、EPE11を平面形状に構成することに限定はされない。
 以上に述べたように、実施例は、上述した実施例に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨あるいは思想に反しない範囲で適宜変更可能である。
 本発明は、ヘッドアップディスプレイやヘッドマウントディスプレイなどの、虚像として画像を視認させる虚像表示装置に利用することができる。
 1 レーザプロジェクタ
 11 射出瞳拡大素子(EPE)
 12 フィールドレンズ
 13 コンバイナ
 15 角度センサ
 16 アクチュエータ
 100 虚像表示装置

Claims (17)

  1.  表示すべき画像を形成する画像形成素子と、
     前記画像形成素子から出射された光を反射することで虚像を表示させる光学素子と、を備え、
     前記光学素子は、前記画像形成素子から出射された光の進行方向に向かって凹形状を有しており、
     前記光学素子には、前記画像形成素子から出射された光が他の光学素子によって反射されることなく入射され、
     前記画像形成素子は、前記光学素子を通して前記虚像を視認する方向に対して略直交する方向に配置されていることを特徴とする虚像表示装置。
  2.  前記光学素子の傾きが変更された場合に、前記画像形成素子が、前記虚像を視認する方向に対して略直交する方向に配置されるように、前記画像形成素子の傾きを変化させる傾き変更手段を更に備えることを特徴とする請求項1に記載の虚像表示装置。
  3.  前記画像形成素子と前記光学素子との間に、虚像歪補正素子が配置されていることを特徴とする請求項1又は2に記載の虚像表示装置。
  4.  前記虚像歪補正素子は、前記光学素子が曲率を有することに起因する、前記虚像の弓なりの歪みを補正することを特徴とする請求項3に記載の虚像表示装置。
  5.  前記光学素子には、前記画像形成素子から出射された光が直接入射されることを特徴とする請求項1又は2に記載の虚像表示装置。
  6.  前記画像形成素子は、光源から照射された光の射出瞳を拡大する射出瞳拡大素子であることを特徴とする請求項1乃至5のいずれか一項に記載の虚像表示装置。
  7.  前記光源から照射された光によって前記画像形成素子上に形成される像の歪みを補正する補正手段を更に備えることを特徴とする請求項6に記載の虚像表示装置。
  8.  前記補正手段は、前記光源から照射された光の前記画像形成素子に対する角度に起因する、前記像の歪みを補正することを特徴とする請求項7に記載の虚像表示装置。
  9.  前記画像形成素子は、液晶ディスプレイであることを特徴とする請求項1乃至5のいずれか一項に記載の虚像表示装置。
  10.  前記画像形成素子は、有機ELディスプレイであることを特徴とする請求項1乃至5のいずれか一項に記載の虚像表示装置。
  11.  前記光学素子は、前記画像形成素子から出射された光の出射方向に配置されていることを特徴とする請求項1乃至10のいずれか一項に記載の虚像表示装置。
  12.  前記光が出射される前記画像形成素子の面が、前記虚像を視認する方向に対して略直交する方向に配置されていることを特徴とする請求項1乃至11のいずれか一項に記載の虚像表示装置。
  13.  前記画像形成素子は、前記光学素子によって反射された光が照射されない位置に配置されていることを特徴とすることを特徴とする請求項1乃至12のいずれか一項に記載の虚像表示装置。
  14.  前記画像形成素子は、平面形状であることを特徴とする請求項1乃至13のいずれか一項に記載の虚像表示装置。
  15.  前記画像形成素子の中心と前記光学素子の中心とを結んだ直線に対して垂直に交差し、前記画像形成素子の中心を通る軸を定義すると、
     前記画像形成素子は、前記軸回りの角度が、前記虚像を視認する方向に対応する軸に対して略90度となるように配置されていることを特徴とする請求項1乃至14のいずれか一項に記載の虚像表示装置。
  16.  表示すべき画像を形成する画像形成素子と、
     前記画像形成素子から出射された光を凹面で反射することで虚像を表示させる光学素子と、を備え、
     前記光学素子は、前記画像形成素子から出射された光の出射方向に配置され、
     前記画像形成素子は、前記光学素子を通して前記虚像を視認する方向に対して略直交する方向に配置されていることを特徴とする虚像表示装置。
  17.  表示すべき画像を形成する画像形成素子から出射された光を、前記画像形成素子から出射された光の出射方向に配置された凹面を有する光学素子で反射させることで虚像を表示させる虚像表示装置であって、
     前記画像形成素子は、前記光学素子を通して前記虚像を視認する方向に対して略直交する方向に配置されていることを特徴とする虚像表示装置。
PCT/JP2011/068659 2011-08-18 2011-08-18 虚像表示装置 WO2013024539A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP11871097.9A EP2746832B1 (en) 2011-08-18 2011-08-18 Virtual image display device
PCT/JP2011/068659 WO2013024539A1 (ja) 2011-08-18 2011-08-18 虚像表示装置
JP2012515246A JP5214060B1 (ja) 2011-08-18 2011-08-18 虚像表示装置
US14/238,240 US9810908B2 (en) 2011-08-18 2011-08-18 Virtual image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/068659 WO2013024539A1 (ja) 2011-08-18 2011-08-18 虚像表示装置

Publications (1)

Publication Number Publication Date
WO2013024539A1 true WO2013024539A1 (ja) 2013-02-21

Family

ID=47714882

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/068659 WO2013024539A1 (ja) 2011-08-18 2011-08-18 虚像表示装置

Country Status (4)

Country Link
US (1) US9810908B2 (ja)
EP (1) EP2746832B1 (ja)
JP (1) JP5214060B1 (ja)
WO (1) WO2013024539A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016125713A1 (ja) * 2015-02-05 2016-08-11 旭硝子株式会社 曲面カバーガラス及びその製造方法、並びに車載用表示部材
WO2016136407A1 (ja) * 2015-02-27 2016-09-01 ソニー株式会社 光学装置並びに画像表示装置
US10705333B2 (en) 2015-04-06 2020-07-07 Maxell, Ltd. Projection optical system and head-up display apparatus using the same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206932A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 認証装置、認証方法、制御プログラムおよび記録媒体
TW201606350A (zh) * 2014-08-12 2016-02-16 Automotive Res & Testing Ct 抬頭顯示裝置
US20180101006A1 (en) * 2015-05-15 2018-04-12 Sharp Kabushiki Kaisha Display device
TWM514078U (zh) * 2015-07-08 2015-12-11 Xin Rui Fong Int Co Ltd 先進式車用抬頭資訊顯示器
US10525886B2 (en) * 2017-05-31 2020-01-07 Panasonic Intellectual Property Management Co., Ltd. Display system, electronic mirror system and movable-body apparatus equipped with the same
CN107861247B (zh) * 2017-12-22 2020-08-25 联想(北京)有限公司 光学部件及增强现实设备
JP7069862B2 (ja) * 2018-03-12 2022-05-18 株式会社Jvcケンウッド 画像表示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06500413A (ja) * 1991-07-16 1994-01-13 ヒューズ・エアクラフト・カンパニー ほぼ無限達の画像ディスプレイシステム
JPH08304734A (ja) * 1995-05-01 1996-11-22 Canon Inc 画像表示装置及びそれを用いた両眼画像表示装置
JP2004102204A (ja) * 2002-07-16 2004-04-02 Olympus Corp 投影観察装置
JP2010274803A (ja) * 2009-05-29 2010-12-09 Kanto Auto Works Ltd 車両用表示装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4383740A (en) * 1980-10-31 1983-05-17 Rediffusion Simulation Incorporated Infinity image visual display system
JPS638130U (ja) * 1986-07-03 1988-01-20
JPH065251Y2 (ja) * 1986-10-31 1994-02-09 矢崎総業株式会社 車両用表示装置
JPH0829723A (ja) 1994-07-12 1996-02-02 Pioneer Electron Corp 虚像観察装置
AU2156295A (en) * 1994-02-07 1995-08-21 Virtual I/O, Inc. Personal visual display
JPH09127457A (ja) * 1995-10-27 1997-05-16 Asahi Glass Co Ltd ホログラフィックディスプレイ装置
US5701132A (en) * 1996-03-29 1997-12-23 University Of Washington Virtual retinal display with expanded exit pupil
JP3474818B2 (ja) * 1997-10-16 2003-12-08 株式会社デンソー ホログラムディスプレイ装置
JPH11326759A (ja) * 1998-05-18 1999-11-26 Ricoh Co Ltd 画像表示装置
US6980363B1 (en) * 1999-11-08 2005-12-27 Canon Kabushiki Kaisha Image observation apparatus and system
JP4921634B2 (ja) * 2000-01-31 2012-04-25 グーグル インコーポレイテッド 表示装置
CA2645135C (en) * 2001-10-01 2011-08-30 Matsushita Electric Industrial Co., Ltd. Projection type display apparatus, rear projector, and multi-vision system
FR2840491B1 (fr) * 2002-05-31 2004-12-03 Thales Sa Dispositif de correction electronique des distorsions optiques d'une visualisation collimatee obtenue a partir d'un afficheur matriciel
KR101220894B1 (ko) * 2004-02-04 2013-01-11 마이크로비젼, 인코퍼레이티드 주사-빔 헤드업 디스플레이 및 관련 시스템 및 방법
US7619825B1 (en) 2004-09-27 2009-11-17 Rockwell Collins, Inc. Compact head up display with wide viewing angle
JP2009150947A (ja) 2007-12-19 2009-07-09 Hitachi Ltd 車両用ヘッドアップディスプレイ装置
JP2010164944A (ja) 2008-12-16 2010-07-29 Olympus Corp 投影光学系及びそれを用いた視覚表示装置
JP2010164350A (ja) * 2009-01-14 2010-07-29 Ckd Corp 三次元計測装置
JP2010197493A (ja) * 2009-02-23 2010-09-09 Nippon Sheet Glass Co Ltd ヘッドアップディスプレイ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06500413A (ja) * 1991-07-16 1994-01-13 ヒューズ・エアクラフト・カンパニー ほぼ無限達の画像ディスプレイシステム
JPH08304734A (ja) * 1995-05-01 1996-11-22 Canon Inc 画像表示装置及びそれを用いた両眼画像表示装置
JP2004102204A (ja) * 2002-07-16 2004-04-02 Olympus Corp 投影観察装置
JP2010274803A (ja) * 2009-05-29 2010-12-09 Kanto Auto Works Ltd 車両用表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2746832A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016125713A1 (ja) * 2015-02-05 2016-08-11 旭硝子株式会社 曲面カバーガラス及びその製造方法、並びに車載用表示部材
JPWO2016125713A1 (ja) * 2015-02-05 2017-11-30 旭硝子株式会社 曲面カバーガラス及びその製造方法、並びに車載用表示部材
JP2018095553A (ja) * 2015-02-05 2018-06-21 旭硝子株式会社 曲面カバーガラス及びその製造方法、並びに車載用表示部材
US10556818B2 (en) 2015-02-05 2020-02-11 AGC Inc. Curved surface cover glass, method for manufacturing same, and in-vehicle display member
WO2016136407A1 (ja) * 2015-02-27 2016-09-01 ソニー株式会社 光学装置並びに画像表示装置
US10705333B2 (en) 2015-04-06 2020-07-07 Maxell, Ltd. Projection optical system and head-up display apparatus using the same

Also Published As

Publication number Publication date
EP2746832A1 (en) 2014-06-25
US20140218804A1 (en) 2014-08-07
EP2746832B1 (en) 2017-03-01
EP2746832A4 (en) 2015-06-03
JPWO2013024539A1 (ja) 2015-03-05
US9810908B2 (en) 2017-11-07
JP5214060B1 (ja) 2013-06-19

Similar Documents

Publication Publication Date Title
JP5214060B1 (ja) 虚像表示装置
WO2013005278A1 (ja) 表示装置
JP6478151B2 (ja) 画像表示装置及び物体装置
EP2944986B1 (en) Image display apparatus and image display system
WO2010116726A1 (ja) ビーム走査型表示装置
JP6627886B2 (ja) 光走査装置、画像表示装置、および車両
US20170017082A1 (en) Image display device
US20200233215A1 (en) Projection apparatus and mobile object
KR102087800B1 (ko) 허상 표시 장치
JP4681825B2 (ja) 走査型表示光学系
JP2017067944A (ja) 表示画像作成装置および画像表示装置
JP4893372B2 (ja) 画像表示装置
JP6908898B2 (ja) 画像表示装置
JP6611310B2 (ja) 車両用投影表示装置
JP6555568B2 (ja) 画像表示装置
US20240151955A1 (en) Image projection device
KR20190085829A (ko) 이미지 표시 장치
WO2013051086A1 (ja) ヘッドアップディスプレイ
JP7017083B2 (ja) 画像表示装置及び移動体装置
WO2013179494A1 (ja) 投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体
JPWO2013005278A1 (ja) 表示装置
JP2015219389A (ja) 虚像表示装置及び画像形成素子
US11445155B1 (en) Display system with angularly separated lasers
JP7111071B2 (ja) ヘッドアップディスプレイ装置
US20230015702A1 (en) Display system with variable beam expansion for multiple lasers

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2012515246

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11871097

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2011871097

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011871097

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14238240

Country of ref document: US