WO2013179494A1 - 投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体 - Google Patents

投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
WO2013179494A1
WO2013179494A1 PCT/JP2012/064322 JP2012064322W WO2013179494A1 WO 2013179494 A1 WO2013179494 A1 WO 2013179494A1 JP 2012064322 W JP2012064322 W JP 2012064322W WO 2013179494 A1 WO2013179494 A1 WO 2013179494A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
area
region
unit
Prior art date
Application number
PCT/JP2012/064322
Other languages
English (en)
French (fr)
Inventor
高志 飯澤
野本 貴之
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2012/064322 priority Critical patent/WO2013179494A1/ja
Publication of WO2013179494A1 publication Critical patent/WO2013179494A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view

Definitions

  • the present invention relates to a technique for adjusting a projection position.
  • Patent Document 1 discloses a liquid crystal projector that can display a projected image after correcting trapezoidal distortion by electrical signal processing at an appropriate position without deviating from an appropriate display position on the screen. . Since the liquid crystal projector device projects light from the lamp onto the liquid crystal on which the image is drawn, the image drawn on the screen moves only within the area where the light is projected.
  • a head-up display when the position of the intermediate image is shifted, it directly affects the position shift of the image visually recognized by the user, so that high accuracy is required for the position adjustment of the intermediate image.
  • a head-up display using a laser scanning light source is relatively likely to cause misalignment or distortion of an intermediate image due to vibration, aging, environmental changes, etc., and a mechanism for correcting these is required. .
  • Patent Document 1 trapezoidal distortion correction is performed by changing the area where the liquid crystal blocks the light of the lamp.
  • the amount of light applied to the liquid crystal from the lamp is constant, and the power consumption of the lamp does not change even if the area where light is blocked by the liquid crystal increases.
  • the present invention has been made in order to solve the above-described problems, and provides a projection device and a head-up display capable of suitably correcting a positional deviation or distortion of an image visually recognized by an observer. Is the main purpose.
  • the irradiation unit capable of irradiating the predetermined irradiable area with light, and the light for drawing an image on the irradiating unit in a drawing area that is smaller than the irradiable area.
  • Control means for irradiating, a reflecting member for reflecting at least a part of the light and allowing the observer to recognize the image, and operating means for moving the position of the drawing area in the irradiable area The control means controls the irradiation means so as not to irradiate the light outside the drawing area.
  • a projection apparatus comprising: an irradiating unit capable of irradiating light on a predetermined irradiable region; and a reflecting member that reflects at least a part of the light and causes an observer to recognize an image. It is a control method to be executed, and includes a control step of causing the irradiation unit to irradiate light for drawing the image onto a drawing region that is smaller than the irradiable region, and the control step includes: The irradiation unit is controlled so as not to irradiate the light outside the drawing area.
  • a projection apparatus comprising: irradiation means capable of irradiating light to a predetermined irradiable region; and a reflecting member that reflects at least a part of the light and causes an observer to recognize an image.
  • a program to be executed causing the projection unit to function as a control unit that causes the irradiation unit to emit light for drawing the image onto a drawing region that is smaller than the irradiable region, and the control unit Controls the irradiation means so as not to irradiate the light outside the drawing area.
  • FIG. 1 shows a schematic configuration of a head-up display.
  • the structure inside the housing of a light source unit is shown roughly.
  • It is a schematic block diagram of a light source.
  • EPE Exit Pupil Expander
  • the projection apparatus includes an irradiating unit that can irradiate light to a predetermined irradiable region, and an image on a drawing region that is smaller than the irradiable region.
  • the control means controls the irradiating means so as not to irradiate the light outside the drawing area.
  • the projection apparatus includes an irradiation unit, a control unit, a reflection member, and an operation unit.
  • the irradiating means irradiates a predetermined irradiable area with light.
  • the control unit causes the irradiation unit to irradiate light for drawing an image onto a drawing region that is smaller than the irradiable region.
  • the reflecting member reflects at least a part of the light emitted from the irradiating means to make the observer recognize the image.
  • the operation means receives an input for moving the position of the drawing area in the irradiable area.
  • the control means controls the irradiation means so as not to irradiate light outside the drawing area.
  • the projection apparatus further includes a correction unit that changes the image based on an operation amount for moving the position of the drawing area by the operation unit.
  • the projection apparatus preferably displays an image at a position and range intended by the observer, and allows the observer to visually recognize the image.
  • the correction unit corrects image distortion recognized by the observer caused by the position or shape of the reflection member or the incident angle of the light on the reflection member. To do. Even when such distortion occurs in the image, the projection apparatus preferably corrects the distortion of the image by setting the drawing area to an area smaller than the irradiable area and changing the drawing area. can do.
  • the light source of the irradiation unit is a laser.
  • the projection apparatus can preferably adjust the position and the like of the drawing area based on the input to the operation means.
  • the projector further includes an optical element on which an intermediate image of the image is drawn, and the reflection member reflects at least a part of the light emitted from the irradiation unit and passed through the optical element. And let the observer recognize the image.
  • the projection apparatus is preferably based on the input to the operation unit, even when the positional deviation or distortion of the image visually recognized by the observer is caused due to the positional deviation or distortion of the intermediate image. The position of the drawing area can be adjusted.
  • the irradiable region is provided in a region including the light irradiation surface of the optical element, and the drawing region is provided in the irradiation surface of the optical element.
  • the projection apparatus preferably allows the drawing area to be set to a predetermined normal position on the irradiation surface of the optical element even when the position of the optical axis of the emitted light of the irradiation unit and the optical element are relatively shifted. Can be arranged.
  • the head-up display includes the above-described projection device, and visually recognizes the image as a virtual image from the position of the user's eyes.
  • the projection device is preferably applied to a head-up display, and even when the display position of an image visually recognized by an observer is shifted due to secular change, environmental change, or the like, Based on the input, the position of the drawing area and the like can be suitably adjusted.
  • the apparatus includes an irradiating unit capable of irradiating light to a predetermined irradiable region, and a reflecting member that reflects at least a part of the light and allows an observer to recognize an image.
  • a control method executed by a projection apparatus comprising: a control step of causing the irradiation unit to irradiate light for drawing the image onto a drawing region that is smaller than the irradiable region, the control step Is characterized in that the irradiation means is controlled so as not to irradiate the light outside the drawing area.
  • the apparatus includes an irradiating unit capable of irradiating light to a predetermined irradiable region, and a reflecting member that reflects at least a part of the light and allows an observer to recognize an image.
  • a program executed by the projection apparatus causing the irradiation unit to function as a control unit that irradiates light for drawing the image onto a drawing area that is smaller than the irradiable area;
  • the control means controls the irradiation means so as not to irradiate the light outside the drawing area.
  • the projection apparatus can prevent unnecessary light from being irradiated and suppress wasteful power consumption and the like.
  • the program is stored in a storage medium.
  • FIG. 1 is a schematic configuration diagram of a head-up display according to the present embodiment. As shown in FIG. 1, the head-up display according to the present embodiment is mounted on a vehicle and includes a light source unit 1 and a combiner 10.
  • the light source unit 1 is installed on, for example, a ceiling portion of a vehicle interior, and the light constituting the image indicating information for assisting driving such as the position of the vehicle, the traveling speed of the vehicle, map information, and facility data is supplied to the combiner 10. Exit toward. Specifically, the light source unit 1 generates an intermediate image in the light source unit 1 and emits light constituting the image to the combiner 10 so that the driver can visually recognize the virtual image via the combiner 10.
  • the light source unit 1 has an operation unit 11 for correcting a positional deviation or distortion of an image visually recognized by the user.
  • the operation unit 11 may be a knob, button, switch, or the like provided in the light source unit 1, or may be a remote controller separated from the light source unit 1.
  • the operation unit 11 accepts various inputs for correcting the position, range, and / or size of an image visually recognized by the user, such as position adjustment and keystone correction, as in a general projector.
  • the operation unit 11 is an example of the “operation means” in the present invention.
  • the combiner 10 projects the display image emitted from the light source unit 1 and reflects the display image to the driver's eye point “Pe” to display the display image as a virtual image.
  • the combiner 10 is an example of the “reflective member” in the present invention.
  • the configuration of the head-up display to which the present invention is applicable is not limited to the configuration shown in FIG.
  • the light emitted from the light source unit 1 may be applied to the windshield of the vehicle instead of the combiner 10.
  • the windshield is an example of the “reflecting member” in the present invention.
  • FIG. 2 is a diagram schematically showing the internal structure of the light source unit 1.
  • the light source unit 1 includes an EPE 12 that is an intermediate image generating optical element, a reflection mirror 13, a light source 14, a holding unit 15, and a housing 16.
  • the EPE 12 is a transmissive optical element that generates an intermediate image, and has a microlens array in which a plurality of microlenses are arranged.
  • the EPE 12 is provided at a position including a range in which the intermediate image is drawn (also referred to as “drawing region RR”).
  • the EPE 12 is an example of the “optical element” in the present invention.
  • the reflection mirror 13 reflects the light emitted from the light source 14 to the EPE 12.
  • the reflection mirror 13 is fixed to the housing 16.
  • the light source 14 emits laser light (also referred to as “intermediate image generation light LI”) that forms an image to be visually recognized by an observer toward the reflection mirror 13.
  • the light source 14 is fixed to the holding unit 15. A specific configuration example of the light source 14 will be described later with reference to FIG.
  • the holding part 15 is fixed to the housing 16 by fixing members such as screws 17 and 18.
  • the holding unit 15 holds the light source 14 to fix the light source 14 to the housing 16.
  • FIG. 3 is a configuration diagram showing a part of the light source 14.
  • the light source 14 is a laser scanning light source. As shown in FIG. 3, the image signal input unit 2, the video ASIC 3, the frame memory 4, the ROM 5, the RAM 6, the laser driver ASIC 7, and the MEMS control unit. 8, a laser light source unit 9, and a MEMS mirror 20.
  • the image signal input unit 2 receives an image signal input from the outside and outputs it to the video ASIC 3.
  • the video ASIC 3 is a block that controls the laser driver ASIC 7 and the MEMS control unit 8 based on the image signal input from the image signal input unit 2 and the scanning position information “Sc” input from the MEMS mirror 20, and the ASIC (Application). It is configured as Specific Integrated Circuit).
  • the video ASIC 3 includes a synchronization / image separation unit 31, a bit data conversion unit 32, a light emission pattern conversion unit 33, and a timing controller 34.
  • the synchronization / image separation unit 31 separates the image data displayed on the screen as the image display unit and the synchronization signal from the image signal input from the image signal input unit 2 and writes the image data to the frame memory 4.
  • the bit data conversion unit 32 reads the image data written in the frame memory 4 and converts it into bit data.
  • the light emission pattern conversion unit 33 converts the bit data converted by the bit data conversion unit 32 into a signal representing the light emission pattern of each laser.
  • the timing controller 34 controls the operation timing of the synchronization / image separation unit 31 and the bit data conversion unit 32.
  • the timing controller 34 also controls the operation timing of the MEMS control unit 8 described later.
  • the image data separated by the synchronization / image separation unit 31 is written.
  • the ROM 5 stores a control program and data for operating the video ASIC 3. Various data are sequentially read from and written into the RAM 6 as a work memory when the video ASIC 3 operates.
  • the laser driver ASIC 7 is a block that generates a signal for driving a laser diode provided in a laser light source unit 9 described later, and is configured as an ASIC.
  • the laser driver ASIC 7 includes a red laser driving circuit 71, a blue laser driving circuit 72, and a green laser driving circuit 73.
  • the red laser driving circuit 71 drives the red laser LD1 based on the signal output from the light emission pattern conversion unit 33.
  • the blue laser drive circuit 72 drives the blue laser LD2 based on the signal output from the light emission pattern conversion unit 33.
  • the green laser drive circuit 73 drives the green laser LD3 based on the signal output from the light emission pattern conversion unit 33.
  • the MEMS control unit 8 controls the MEMS mirror 20 based on a signal output from the timing controller 34.
  • the MEMS control unit 8 includes a servo circuit 81 and a driver circuit 82.
  • the servo circuit 81 controls the operation of the MEMS mirror 20 based on a signal from the timing controller.
  • the driver circuit 82 amplifies the control signal of the MEMS mirror 20 output from the servo circuit 81 to a predetermined level and outputs the amplified signal.
  • the laser light source unit 9 emits laser light to the MEMS mirror 20 based on the drive signal output from the laser driver ASIC 7.
  • the MEMS mirror 20 as a scanning unit reflects the laser light emitted from the laser light source unit 9 toward the EPE 12. By doing so, the MEMS mirror 20 forms an image to be displayed on the EPE 12. Further, the MEMS mirror 20 moves so as to scan on the EPE 12 under the control of the MEMS control unit 8 in order to display the image input to the image signal input unit 2, and the scanning position information (for example, at that time) Information such as the angle of the mirror) is output to the video ASIC 3.
  • the light source 14 reflects the light emitted from the EPE 12 as described above by the combiner 10, and causes the image corresponding to the reflected light to be visually recognized from the driver's eye point Pe as a virtual image.
  • the laser light source unit 9 includes a case 91, a wavelength selective element 92, a collimator lens 93, a red laser LD 1, a blue laser LD 2, a green laser LD 3, and a monitor light receiving element (simply called “light receiving element”). 50).
  • the case 91 is formed in a substantially box shape with resin or the like.
  • the case 91 is provided with a hole penetrating into the case 91 and a CAN attachment portion 91a having a concave cross section, and a surface perpendicular to the CAN attachment portion 91a. A hole penetrating inward is formed, and a collimator mounting portion 91b having a concave cross section is formed.
  • the wavelength-selective element 92 as a synthesis element is configured by, for example, a trichromatic prism, and is provided with a reflective surface 92a and a reflective surface 92b.
  • the reflection surface 92a transmits the laser light emitted from the red laser LD1 toward the collimator lens 93, and reflects the laser light emitted from the blue laser LD2 toward the collimator lens 93.
  • the reflecting surface 92b transmits most of the laser light emitted from the red laser LD1 and the blue laser LD2 toward the collimator lens 93 and reflects a part thereof toward the light receiving element 50.
  • the reflection surface 92 b reflects most of the laser light emitted from the green laser LD 3 toward the collimator lens 93 and transmits part of the laser light toward the light receiving element 50. In this way, the emitted light from each laser is superimposed and incident on the collimator lens 93 and the light receiving element 50.
  • the wavelength selective element 92 is provided in the vicinity of the collimator mounting portion 91b in the case 91.
  • the collimator lens 93 emits the laser light incident from the wavelength selective element 92 to the MEMS mirror 20 as parallel light.
  • the collimator lens 93 is fixed to the collimator mounting portion 91b of the case 91 with a UV adhesive or the like. That is, the collimator lens 93 is provided after the synthesis element.
  • the red laser LD1 as a laser light source emits red laser light.
  • the red laser LD1 is fixed at a position that is coaxial with the wavelength selective element 92 and the collimator lens 93 in the case 91 while the semiconductor laser light source is in the chip state or the chip is mounted on a submount or the like. ing.
  • Blue laser LD2 as a laser light source emits blue laser light.
  • the blue laser LD2 is fixed at a position where the emitted laser light can be reflected toward the collimator lens 93 by the reflecting surface 92a while the semiconductor laser light source is in the chip state or the chip is mounted on the submount or the like. ing.
  • the positions of the red laser LD1 and the blue laser LD2 may be switched.
  • the green laser LD3 as a laser light source is attached to the CAN package or attached to the frame package, and emits green laser light.
  • the green laser LD 3 has a semiconductor laser light source chip B that generates green laser light in a CAN package, and is fixed to a CAN mounting portion 91 a of the case 91.
  • the light receiving element 50 receives a part of the laser light emitted from each laser light source.
  • the light receiving element 50 is a photoelectric conversion element such as a photodetector, and supplies a detection signal “Sd”, which is an electrical signal corresponding to the amount of incident laser light, to the laser driver ASIC 7.
  • Sd a detection signal
  • the laser driver ASIC 7 adjusts the power of the red laser LD1, the blue laser LD2, and the green laser LD3 according to the detection signal Sd.
  • the laser driver ASIC 7 operates only the red laser driving circuit 71, supplies a driving current to the red laser LD1, and emits red laser light from the red laser LD1. A part of the red laser light is received by the light receiving element 50, and a detection signal Sd corresponding to the amount of light is fed back to the laser driver ASIC7.
  • the laser driver ASIC 7 adjusts the drive current supplied from the red laser drive circuit 71 to the red laser LD1 so that the light amount indicated by the detection signal Sd is an appropriate light amount. In this way, power adjustment is performed.
  • the power adjustment of the blue laser LD2 and the power adjustment of the green laser LD3 are similarly performed.
  • the laser light source unit 9 and the MEMS mirror 20 are examples of “irradiation means” in the present invention.
  • the video ASIC 3 is an example of the “control unit” in the present invention.
  • FIG. 4 shows a view in which the light irradiation surface of the EPE 12 is observed from the direction along the traveling direction of the laser light.
  • a scannable region “SR” represented by a two-dot chain line is a region corresponding to a range in which scanning by the MEMS mirror 20 is possible, that is, a range in which drawing is possible.
  • the EPE 12 is disposed in the scannable region SR.
  • region represented with the dashed-dotted line in EPE12 shows the drawing area
  • the scannable region SR is an example of the “irradiable region” in the present invention.
  • the MEMS mirror 20 causes an image (video) to be displayed to be drawn in the drawing region RR by scanning the laser beam a plurality of times (that is, performing a raster scan) as indicated by an arrow in FIG.
  • the sub-scanning direction of the laser light is also referred to as “left-right direction”
  • the main scanning direction perpendicular to the sub-scanning direction is also referred to as “up-down direction”.
  • the scannable region SR is set to a size that includes the EPE 12 even when a relative positional shift or the like between the EPE 12 and the light source 14 occurs.
  • the position of the drawing region RR relative to the EPE 12 can be adjusted.
  • the drawing region RR is arranged at the center of the EPE 12 as shown in FIG. 4 when the EPE 12 and the light source 14 are not misaligned.
  • the light source 14 emits the intermediate image generation light LI so that light is not irradiated to regions other than the drawing region RR in the scanable region SR. Then, the light source 14 changes the drawing region RR so that the virtual image is visually recognized at the position and range specified based on the operation amount to the operation unit 11. Thereby, the light source 14 suppresses the emission of unnecessary light, and suitably adjusts the misalignment of the virtual image due to environmental changes and secular changes.
  • FIG. 5A shows the positional relationship between the EPE 12, the drawing area RR, and the scannable area SR before the position adjustment of the drawing area RR is performed when the scanable area SR is shifted leftward with respect to the EPE 12.
  • FIG. 5B shows the positional relationship between the EPE 12, the drawing area RR, and the scannable area SR after adjusting the position of the drawing area RR from the state of FIG. 5A and 5B
  • the vertical center line “Lv” indicates a line passing through the center of the left-right width of the scannable region SR.
  • the horizontal center line “Lh” indicates a line passing through the center of the vertical width of the scannable region SR.
  • the drawing region RR is also shifted to the left with respect to the EPE 12, similarly to the scanable region SR. Therefore, in this case, the virtual image visually recognized by the observer is also shifted to the left from the normal position that the observer should visually recognize, resulting in an uncomfortable feeling that the observer cannot visually recognize the virtual image appropriately.
  • the light source 14 changes the drawing region RR, which is the irradiation range of the intermediate image generation light LI, according to the operation amount to the operation unit 11 according to the relative position change with the EPE 12. It is moving to the right. Specifically, in this case, the user determines that the visually recognized virtual image is shifted to the left side, and performs an input for moving the virtual image to the right side to the operation unit 11. Then, the light source 14 moves the drawing region RR to the right in the scannable region SR in accordance with the operation amount to the operation unit 11. Thereby, the user can observe a virtual image in a normal position, and can visually recognize a virtual image without a sense of incongruity.
  • FIG. 6A shows the positional relationship between the EPE 12, the drawing area RR, and the scannable area SR before the position adjustment of the drawing area RR is performed when the scanable area SR is shifted to the right with respect to the EPE 12.
  • FIG. 6B shows the positional relationship between the EPE 12, the drawing area RR, and the scannable area SR after the position adjustment of the drawing area RR.
  • the drawing region RR is also shifted to the right with respect to the EPE 12, similarly to the scannable region SR. Therefore, in this case, the virtual image visually recognized by the observer is also shifted to the right from the normal position that the observer should visually recognize, and there is a sense of incongruity that the observer cannot visually recognize the virtual image appropriately.
  • the light source 14 moves to the left in the drawing region RR, which is the irradiation range of the intermediate image generation light LI, according to the operation amount to the operation unit 11 according to the position change of the EPE 12. I am letting. Specifically, in this case, the user determines that the visually recognized virtual image is shifted to the right side, and inputs the operation unit 11 to move the virtual image to the left side. Then, the light source 14 moves the drawing region RR leftward within the scannable region SR according to the operation amount to the operation unit 11. Thereby, the user can observe a virtual image in a normal position, and can visually recognize a virtual image without a sense of incongruity.
  • the light source 14 can scan the scannable region according to the operation amount to the operation unit 11 as in the examples of FIGS.
  • the drawing region RR is moved in the scannable region SR in the direction opposite to the direction in which the SR is shifted with respect to the EPE 12.
  • the light source 14 sets the scannable region SR to a region including the irradiation surface of the EPE 12 in consideration of a positional shift due to secular change, and the drawing region RR is smaller than the scannable region SR.
  • the intermediate image generation light LI is emitted.
  • FIG. 7A shows an image (also referred to as “original image Im”) from which the intermediate image generation light LI is generated
  • FIG. 7B shows the original image Im shown in FIG. 2 shows a state in which the intermediate image generation light LI that constitutes is projected onto the EPE 12.
  • a circular object Ob is displayed in the original image Im shown in FIG.
  • the intermediate image Oba corresponding to the object Ob in the original image Im drawn on the EPE 12 is, for example, caused by the distortion of the EPE 12 so that the horizontal direction is the major axis direction. It has an oval shape.
  • This distortion may occur due to, for example, a change in the incident angle of the intermediate image generation light LI to the EPE 12 due to the position adjustment of the drawing region RR described in FIGS.
  • distortion when distortion occurs in the intermediate image, distortion also occurs in the virtual image visually recognized by the observer, so that the viewer feels uncomfortable when visually recognizing the virtual image.
  • FIG. 8A shows the original image Im when the drawing region RR is changed based on the input to the operation unit 11, and FIG. 8B constitutes the original image Im shown in FIG. A state in which the intermediate image generation light LI is projected onto the EPE 12 is shown.
  • the light source 14 reduces the ratio of the horizontal width to the vertical width of the original image Im in accordance with the operation amount to the operation unit 11.
  • the ratio of the left-right width to the vertical width of the drawing region RR is reduced in accordance with the change in the above-described ratio of the original image Im.
  • the intermediate image Oba drawn on the EPE 12 changes from an ellipse having a major axis in the left-right direction to a circle, and distortion is appropriately corrected. Therefore, in this case, the observer can appropriately visually recognize the virtual image without distortion.
  • the light source 14 operates the operation unit 11.
  • the above-described distortion is corrected according to the amount.
  • the light source 14 receives an input for determining the position, range, and / or size of the drawing region RR from the operation unit 11 and is in the scannable region SR according to the operation amount indicated by the input.
  • the position, range, and / or size of the drawing region RR in is corrected. Thereby, the light source 14 can make an observer visually recognize a virtual image suitably.
  • the head-up display according to this comparative example it is possible to mechanically adjust the position of the drawing region RR by the adjustment mechanism described above, and to correct the positional deviation of the light source 14 as in the present embodiment.
  • the size of the light source unit 1 becomes difficult due to the provision of the adjustment mechanism described above
  • the cost increases due to the increase in the number of parts (C) secular change, vibration, etc.
  • the positional deviation of the light source 14 or the like occurs due to the above, problems such as that it is not easy for the end user to properly handle the above-described adjustment mechanism may occur.
  • the light source 14 emits the intermediate image generation light LI so that the drawing region RR is smaller than the scanable region SR, and the position and range of the drawing region RR in the scannable region SR. Is changed without using a mechanical adjustment mechanism.
  • the light source unit 1 of the present embodiment can fix the holding portion 15 with fixing members such as screws 17 and 18, there is no need to provide an adjustment mechanism for adjusting the position of the holding portion 15. A reduction in size and the number of parts can be realized.
  • the light source unit 1 can suitably display the virtual image at a position and range that are easily visible to the user.
  • the above-described problems (A) to (C) generated in the comparative example can be preferably solved.
  • the present invention can be used for a display device such as a head-up display.

Landscapes

  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)

Abstract

投影装置は、照射手段と、制御手段と、反射部材と、操作手段とを有する。照射手段は、所定の照射可能領域に光を照射する。制御手段は、照射手段に、照射可能領域よりも小さな領域である描画領域に、画像を描画するための光を照射させる。反射部材は、照射手段の出射光の少なくとも一部を反射させて、観察者に画像を認識させる。操作手段は、照射可能領域における描画領域の位置を移動させるための入力を受け付ける。ここで、制御手段は、描画領域外に、光を照射しないように照射手段を制御する。

Description

投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体
 本発明は、投影位置を調整する技術に関する。
 従来から、スクリーンとプロジェクタから構成される投影装置において、スクリーンがプロジェクタと正対していない場合に生ずる画像の歪みを補正する技術が知られている。例えば、特許文献1には、電気的な信号処理による台形歪み補正後の投射画像がスクリーンの適正表示位置から外れること無く適正な位置で表示を行うことが可能な液晶プロジェクタ装置が開示されている。この液晶プロジェクタ装置は、画像を描画した液晶にランプから光を投射するため、スクリーンに描画される画像は光が投射された領域内でのみ移動する。
特開2006-081078号公報
 ヘッドアップディスプレイにおいては、中間像の位置がずれた場合、ユーザが視認する画像の位置ずれに直接影響するため、中間像の位置調整には高い精度が要求される。また、レーザスキャン方式の光源を用いたヘッドアップディスプレイなどでは、振動や経年変化、環境変化等に起因して中間像の位置ずれや歪みが比較的生じやすく、これらを補正する仕組みが必要となる。
 特許文献1では、液晶がランプの光を遮断する面積を変化させることで、台形歪み補正を行っている。この場合、ランプから液晶に照射される光量は一定であり、液晶により光が遮断される面積が増えても、ランプの消費電力は変化しない。また、投影される画像の外側に液晶が遮断しきれない光が漏れてしまうという問題がある。
 本発明は、上記のような課題を解決するためになされたものであり、観察者に視認させる画像の位置ずれや歪みを好適に補正することが可能な投影装置及びヘッドアップディスプレイを提供することを主な目的とする。
 請求項1に記載の発明では、所定の照射可能領域に光を照射可能な照射手段と、前記照射手段に、前記照射可能領域よりも小さな領域である描画領域に、画像を描画するための光を照射させる制御手段と、前記光の少なくとも一部を反射させて、観察者に前記画像を認識させる反射部材と、前記照射可能領域における前記描画領域の位置を移動させるための操作手段と、を備え、前記制御手段は、前記描画領域外に、前記光を照射しないように前記照射手段を制御することを特徴とする。
 請求項8に記載の発明では、所定の照射可能領域に光を照射可能な照射手段と、前記光の少なくとも一部を反射させて、観察者に画像を認識させる反射部材とを有する投影装置が実行する制御方法であって、前記照射手段に、前記照射可能領域よりも小さな領域である描画領域に、前記画像を描画するための光を照射させる制御工程を有し、前記制御工程は、前記描画領域外に、前記光を照射しないように前記照射手段を制御することを特徴とする。
 請求項9に記載の発明では、所定の照射可能領域に光を照射可能な照射手段と、前記光の少なくとも一部を反射させて、観察者に画像を認識させる反射部材とを有する投影装置が実行するプログラムであって、前記照射手段に、前記照射可能領域よりも小さな領域である描画領域に、前記画像を描画するための光を照射させる制御手段として前記投影装置を機能させ、前記制御手段は、前記描画領域外に、前記光を照射しないように前記照射手段を制御する。
ヘッドアップディスプレイの概略構成を示す。 光源ユニットの筺体内部の構成を概略的に示す。 光源の概略構成図である。 レーザ光の進行方向に沿った方向から、EPE(Exit Pupil Expander)を観察した図である。 (a):描画領域の位置調整を行う前のEPE、描画領域、及び走査可能領域の位置関係を示す。(b):描画領域の位置調整後のEPE、描画領域、及び走査可能領域の位置関係を示す。 (a):描画領域の位置調整を行う前のEPE、描画領域、及び走査可能領域の位置関係を示す。(b):描画領域の位置調整後のEPE、描画領域、及び走査可能領域の位置関係を示す。 (a):中間像に歪みが生じている場合の元画像を示す。(b):(a)に示す元画像を構成する中間像生成光がEPEに投影された様子を示す。 (a):中間像の歪みに応じて変形させた元画像を示す。(b):(a)に示す元画像を構成する中間像生成光がEPEに投影された様子を示す。
 本発明の1つの好適な実施形態では、投影装置は、所定の照射可能領域に光を照射可能な照射手段と、前記照射手段に、前記照射可能領域よりも小さな領域である描画領域に、画像を描画するための光を照射させる制御手段と、前記光の少なくとも一部を反射させて、観察者に前記画像を認識させる反射部材と、前記照射可能領域における前記描画領域の位置を移動させるための操作手段と、を備え、前記制御手段は、前記描画領域外に、前記光を照射しないように前記照射手段を制御する。
 上記の投影装置は、照射手段と、制御手段と、反射部材と、操作手段とを有する。照射手段は、所定の照射可能領域に光を照射する。制御手段は、照射手段に、照射可能領域よりも小さな領域である描画領域に、画像を描画するための光を照射させる。反射部材は、照射手段の出射光の少なくとも一部を反射させて、観察者に画像を認識させる。操作手段は、照射可能領域における描画領域の位置を移動させるための入力を受け付ける。ここで、制御手段は、描画領域外に、光を照射しないように照射手段を制御する。このように、不要な光が照射されるのを防ぐことで、観察者が不要に眩しく感じるのを防ぎ、かつ、無駄な電力消費を抑制することができる。また、照射可能領域よりも小さい領域に描画領域を設定することで、経年変化や環境変化等に起因して観察者が視認する画像の表示位置がずれた場合であっても、操作手段への入力に基づき、好適に、当該画像の表示位置を調整することができる。
 上記投影装置の一態様では、投影装置は、前記操作手段による、前記描画領域の位置の移動を行うための操作量に基づき、前記画像を変化させる補正手段をさらに備える。この態様により、投影装置は、好適に、観察者が意図した位置及び範囲に画像を表示し、観察者に当該画像を視認させることができる。
 上記投影装置の他の一態様では、前記補正手段は、前記反射部材の位置若しくは形状又は前記反射部材への前記光の入射角度に起因して生じる、前記観察者が認識する画像の歪みを補正する。このような歪みが画像に生じた場合であっても、投影装置は、照射可能領域よりも小さい領域に描画領域を設定し、当該描画領域を変化させることで、好適に、画像の歪みを補正することができる。
 上記投影装置の他の一態様では、前記照射手段の光源はレーザであることを特徴とする。一般に、光源がレーザ光を出射する場合、中間像の位置ずれ等に起因して観察者が視認する画像の位置ずれ等が生じやすい。この場合であっても、投影装置は、操作手段への入力に基づき、好適に、描画領域の位置等を調整することができる。
 上記投影装置の他の一態様では、前記画像の中間像が描画される光学素子をさらに備え、前記反射部材は、前記照射手段から出射されて前記光学素子を通過した光の少なくとも一部を反射させて、観察者に前記画像を認識させる。一般に、中間像のずれは、最終的に観察者が視認する画像のずれに直接影響を及ぼすため、中間像の位置調整には高い精度が要求される。この態様では、投影装置は、中間像の位置ずれや歪みに起因して観察者が視認する画像の位置ずれや歪みが生じた場合であっても、操作手段への入力に基づき、好適に、描画領域の位置等を調整することができる。
 上記投影装置の他の一態様では、前記照射可能領域は、前記光学素子の前記光の照射面を含む領域に設けられ、かつ、前記描画領域は、前記光学素子の前記照射面内に設けられる。この態様により、投影装置は、照射手段の出射光の光軸と光学素子との位置が相対的にずれた場合であっても、好適に、描画領域を光学素子の照射面の所定の正常位置に配置することができる。
 本発明の他の好適な実施形態では、ヘッドアップディスプレイは、上記記載の投影装置を備え、前記画像をユーザの目の位置から虚像として視認させる。このように、上記投影装置は、ヘッドアップディスプレイに好適に適用され、経年変化や環境変化等に起因して観察者が視認する画像の表示位置がずれた場合であっても、操作手段への入力に基づき、好適に、描画領域の位置等を調整することができる。
 本発明のさらに別の好適な実施形態では、所定の照射可能領域に光を照射可能な照射手段と、前記光の少なくとも一部を反射させて、観察者に画像を認識させる反射部材とを有する投影装置が実行する制御方法であって、前記照射手段に、前記照射可能領域よりも小さな領域である描画領域に、前記画像を描画するための光を照射させる制御工程を有し、前記制御工程は、前記描画領域外に、前記光を照射しないように前記照射手段を制御することを特徴とする。投影装置は、この制御方法を実行することで、不要な光が照射されるのを防ぎ、無駄な電力消費等を抑制することができる。
 本発明のさらに別の好適な実施形態では、所定の照射可能領域に光を照射可能な照射手段と、前記光の少なくとも一部を反射させて、観察者に画像を認識させる反射部材とを有する投影装置が実行するプログラムであって、前記照射手段に、前記照射可能領域よりも小さな領域である描画領域に、前記画像を描画するための光を照射させる制御手段として前記投影装置を機能させ、前記制御手段は、前記描画領域外に、前記光を照射しないように前記照射手段を制御する。投影装置は、このプログラムを実行することで、不要な光が照射されるのを防ぎ、無駄な電力消費等を抑制することができる。なお、好適には、上記プログラムは、記憶媒体に記憶される。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [ヘッドアップディスプレイの構成]
 (1)全体構成
 図1は、本実施例に係るヘッドアップディスプレイの概略構成図である。図1に示すように、本実施例に係るヘッドアップディスプレイは、車両に搭載され、光源ユニット1と、コンバイナ10と、を備える。
 光源ユニット1は、例えば車室内の天井部などに設置され、車両の位置、車両の走行速度、地図情報、及び施設データなどの運転を補助する情報を示す画像を構成する光を、コンバイナ10に向けて出射する。具体的には、光源ユニット1は、光源ユニット1内に中間像を生成し、その画像を構成する光をコンバイナ10へ出射することで、コンバイナ10を介して運転者に虚像を視認させる。
 また、光源ユニット1は、ユーザが視認する画像の位置ずれや歪みを修正するための操作部11を有する。操作部11は、光源ユニット1に設けられているつまみ、ボタン、スイッチなどであってもよく、光源ユニット1と別体となったリモートコントローラであってもよい。好適には、操作部11は、一般的なプロジェクタと同様、位置調整や台形補正などのユーザが視認する画像の位置、範囲又は/及び大きさを補正するための種々の入力を受け付ける。操作部11は、本発明における「操作手段」の一例である。
 コンバイナ10は、光源ユニット1から出射される表示像が投影されると共に、表示像を運転者のアイポイント「Pe」へ反射することで当該表示像を虚像として表示させる。コンバイナ10は、本発明における「反射部材」の一例である。
 なお、本発明が適用可能なヘッドアップディスプレイの構成は、図1に示す構成に限定されない。例えば、これに代えて、光源ユニット1の出射光は、コンバイナ10の代わりに車両のフロントガラスに照射されてもよい。この場合、フロントガラスは、本発明における「反射部材」の一例である。
 (2)光源ユニットの構成
 図2は、光源ユニット1の筺体内部の構造を概略的に示した図である。図2に示すように、光源ユニット1は、中間像生成用光学素子であるEPE12と、反射ミラー13と、光源14と、保持部15と、筺体16とを有する。
 EPE12は、中間像を生成する透過型の光学素子であり、複数のマイクロレンズが配列されたマイクロレンズアレイを有する。EPE12は、中間像が描画される範囲(「描画領域RR」とも呼ぶ。)を含む位置に設けられている。EPE12は、本発明における「光学素子」の一例である。
 反射ミラー13は、光源14から出射された光をEPE12に反射する。反射ミラー13は、筺体16に対して固定されている。
 光源14は、観察者に視認させる画像を構成するレーザ光(「中間像生成光LI」とも呼ぶ。)を反射ミラー13に向けて出射する。光源14は、保持部15に固定されている。光源14の具体的な構成例については、図3を参照して後述する。
 保持部15は、ネジ17、18などの固定部材により、筺体16に対して固定されている。また、保持部15は、光源14を保持することで、光源14を筺体16に対して固定する。
 (3)光源の構成
 図3は、光源14の一部を示す構成図である。光源14は、レーザスキャン方式の光源であって、図3に示すように、画像信号入力部2と、ビデオASIC3と、フレームメモリ4と、ROM5と、RAM6と、レーザドライバASIC7と、MEMS制御部8と、レーザ光源部9と、MEMSミラー20と、を備える。
 画像信号入力部2は、外部から入力される画像信号を受信してビデオASIC3に出力する。
 ビデオASIC3は、画像信号入力部2から入力される画像信号及びMEMSミラー20から入力される走査位置情報「Sc」に基づいてレーザドライバASIC7やMEMS制御部8を制御するブロックであり、ASIC(Application Specific Integrated Circuit)として構成されている。ビデオASIC3は、同期/画像分離部31と、ビットデータ変換部32と、発光パターン変換部33と、タイミングコントローラ34と、を備える。
 同期/画像分離部31は、画像信号入力部2から入力された画像信号から、画像表示部であるスクリーンに表示される画像データと同期信号とを分離し、画像データをフレームメモリ4へ書き込む。
 ビットデータ変換部32は、フレームメモリ4に書き込まれた画像データを読み出してビットデータに変換する。
 発光パターン変換部33は、ビットデータ変換部32で変換されたビットデータを、各レーザの発光パターンを表す信号に変換する。
 タイミングコントローラ34は、同期/画像分離部31、ビットデータ変換部32の動作タイミングを制御する。また、タイミングコントローラ34は、後述するMEMS制御部8の動作タイミングも制御する。
 フレームメモリ4には、同期/画像分離部31により分離された画像データが書き込まれる。ROM5は、ビデオASIC3が動作するための制御プログラムやデータなどを記憶している。RAM6には、ビデオASIC3が動作する際のワークメモリとして、各種データが逐次読み書きされる。
 レーザドライバASIC7は、後述するレーザ光源部9に設けられるレーザダイオードを駆動する信号を生成するブロックであり、ASICとして構成されている。レーザドライバASIC7は、赤色レーザ駆動回路71と、青色レーザ駆動回路72と、緑色レーザ駆動回路73と、を備える。
 赤色レーザ駆動回路71は、発光パターン変換部33が出力する信号に基づき、赤色レーザLD1を駆動する。青色レーザ駆動回路72は、発光パターン変換部33が出力する信号に基づき、青色レーザLD2を駆動する。緑色レーザ駆動回路73は、発光パターン変換部33が出力する信号に基づき、緑色レーザLD3を駆動する。
 MEMS制御部8は、タイミングコントローラ34が出力する信号に基づきMEMSミラー20を制御する。MEMS制御部8は、サーボ回路81と、ドライバ回路82と、を備える。
 サーボ回路81は、タイミングコントローラからの信号に基づき、MEMSミラー20の動作を制御する。
 ドライバ回路82は、サーボ回路81が出力するMEMSミラー20の制御信号を所定レベルに増幅して出力する。
 レーザ光源部9は、レーザドライバASIC7から出力される駆動信号に基づいて、レーザ光をMEMSミラー20へ出射する。
 走査手段としてのMEMSミラー20は、レーザ光源部9から出射されたレーザ光をEPE12に向けて反射する。こうすることで、MEMSミラー20は、EPE12上に表示すべき画像を形成する。また、MEMSミラー20は、画像信号入力部2に入力された画像を表示するためにMEMS制御部8の制御によりEPE12上を走査(スキャン)するように移動し、その際の走査位置情報(例えばミラーの角度などの情報)をビデオASIC3へ出力する。
 光源14は、上記のようなEPE12から出射された光をコンバイナ10で反射させ、その反射光に対応する画像を、運転者のアイポイントPeから虚像として視認させる。
 次に、レーザ光源部9の詳細な構成を説明する。レーザ光源部9は、ケース91と、波長選択性素子92と、コリメータレンズ93と、赤色レーザLD1と、青色レーザLD2と、緑色レーザLD3と、モニタ用受光素子(単に「受光素子」とも呼ぶ。)50とを備える。
 ケース91は、樹脂などにより略箱状に形成される。ケース91には、緑色レーザLD3を取り付けるために、ケース91内へ貫通する孔が設けられているとともに断面が凹状のCAN取付部91aと、CAN取付部91aと直交する面に設けられ、ケース91内へ貫通する孔が設けられているとともに断面が凹状のコリメータ取付部91bと、が形成されている。
 合成素子としての波長選択性素子92は、例えばトリクロイックプリズムにより構成され、反射面92aと反射面92bが設けられている。反射面92aは、赤色レーザLD1から出射されたレーザ光をコリメータレンズ93へ向かって透過させ、青色レーザLD2から出射されたレーザ光をコリメータレンズ93へ向かって反射させる。反射面92bは、赤色レーザLD1および青色レーザLD2から出射されたレーザ光の大部分をコリメータレンズ93へ向かって透過させ、その一部を受光素子50へ向かって反射させる。また、反射面92bは、緑色レーザLD3から出射されたレーザ光の大部分をコリメータレンズ93へ向かって反射させ、その一部を受光素子50へ向かって透過させる。こうして、各レーザからの出射光が重ね合わされて、コリメータレンズ93および受光素子50に入射される。なお、波長選択性素子92は、ケース91内のコリメータ取付部91bの近傍に設けられている。
 コリメータレンズ93は、波長選択性素子92から入射したレーザ光を平行光にしてMEMSミラー20へ出射する。コリメータレンズ93は、ケース91のコリメータ取付部91bに、UV系接着剤などで固定される。即ち、合成素子の後段にコリメータレンズ93が設けられている。
 レーザ光源としての赤色レーザLD1は、赤色のレーザ光を出射する。赤色レーザLD1は、半導体レーザ光源がチップ状態のまま、又は、チップがサブマウントなどに載置された状態で、ケース91内の波長選択性素子92及びコリメータレンズ93と同軸となる位置に固定されている。
 レーザ光源としての青色レーザLD2は、青色のレーザ光を出射する。青色レーザLD2は、半導体レーザ光源がチップ状態のまま、又は、チップがサブマウントなどに載置された状態で、出射したレーザ光が反射面92aによってコリメータレンズ93へ向かって反射できる位置に固定されている。この赤色レーザLD1と青色レーザLD2の位置は入れ替わってもよい。
 レーザ光源としての緑色レーザLD3は、CANパッケージに取り付けられた状態又はフレームパッケージに取り付けられた状態であり、緑色のレーザ光を出射する。緑色レーザLD3は、CANパッケージ内に緑色のレーザ光を発生する半導体レーザ光源チップBが取り付けられており、ケース91のCAN取付部91aに固定されている。
 受光素子50は、各レーザ光源から出射されたレーザ光の一部を受光する。受光素子50は、フォトディテクタなどの光電変換素子であり、入射したレーザ光の光量に応じた電気信号である検出信号「Sd」をレーザドライバASIC7へ供給する。実際には、パワー調整時には、赤色レーザ光、青色レーザ光及び緑色レーザ光のうちの1つが順に受光素子50へ入射され、受光素子50は、そのレーザ光の光量に対応する検出信号Sdを出力する。レーザドライバASIC7は、検出信号Sdに応じて、赤色レーザLD1、青色レーザLD2及び緑色レーザLD3のパワー調整を行う。
 例えば、赤色レーザLD1のパワー調整を行う場合、レーザドライバASIC7は赤色レーザ駆動回路71のみを動作させ、赤色レーザLD1へ駆動電流を供給して赤色レーザLD1から赤色レーザ光を出射させる。この赤色レーザ光の一部は受光素子50により受光され、その光量に応じた検出信号SdがレーザドライバASIC7へフィードバックされる。レーザドライバASIC7は、検出信号Sdが示す光量が適正な光量となるように、赤色レーザ駆動回路71から赤色レーザLD1へ供給される駆動電流を調整する。こうして、パワー調整がなされる。青色レーザLD2のパワー調整及び緑色レーザLD3のパワー調整も同様に行われる。
 レーザ光源部9及びMEMSミラー20などは、本発明における「照射手段」の一例である。また、ビデオASIC3などは、本発明における「制御手段」の一例である。
 図4は、レーザ光の進行方向に沿った方向から、EPE12の光の照射面を観察した図を示している。二点鎖線で表された走査可能領域「SR」は、MEMSミラー20による走査が可能な範囲、即ち描画が可能な範囲に対応する領域である。この走査可能領域SR内には、EPE12が配置される。そして、EPE12内の一点鎖線で表された領域は描画領域RRを示す。なお、走査可能領域SRは、本発明における「照射可能領域」の一例である。
 MEMSミラー20は、図4中の矢印に示すようにレーザ光を複数回走査する(つまりラスタースキャンを実施する)ことで、表示すべき画像(映像)を描画領域RRに描画させる。本明細書では、図2の下に示すように、レーザ光の副走査方向を「左右方向」とも呼び、当該副走査方向に垂直な主走査方向を「上下方向」とも呼ぶ。
 ここで、走査可能領域SRは、EPE12と光源14との相対的な位置ずれ等が生じた場合であっても、EPE12が含まれるような大きさに設定される。これにより、光源14は、経年変化や振動等により反射ミラー13や光源14の位置ずれが生じた場合であっても、操作部11への入力に基づき、観察者が虚像を好適に視認できるようにEPE12に対する描画領域RRの位置を調整することができる。なお、本実施例では、描画領域RRは、EPE12と光源14との相対的な位置ずれ等が生じていない正常時には、図4に示すようにEPE12の中央部分に配置されるものとする。
 [描画領域の調整]
 次に、描画領域RRの調整方法について説明する。概略的には、光源14は、走査可能領域SRのうち、描画領域RR以外の領域には光が照射されないように中間像生成光LIを出射する。そして、光源14は、操作部11への操作量に基づき指定された位置及び範囲に虚像が視認されるように、描画領域RRを変化させる。これにより、光源14は、不要な光の出射を抑制し、かつ、環境変化や経年変化に起因した虚像の位置ずれ等の調整を好適に実行する。
 ここでは、まず、経年変化や振動等に起因してEPE12と光源14との相対的な位置ずれが生じた場合の描画領域RRの調整方法について、図5及び図6を参照して具体的に説明する。
 図5(a)は、走査可能領域SRがEPE12に対して左方向にずれた場合に、描画領域RRの位置調整を行う前のEPE12、描画領域RR、及び走査可能領域SRの位置関係を示す。また、図5(b)は、図5(a)の状態から描画領域RRの位置を調整した後のEPE12、描画領域RR、及び走査可能領域SRの位置関係を示す。図5(a)、(b)において、縦中心線「Lv」は、走査可能領域SRの左右幅の中心を通る線を示す。また、横中心線「Lh」は、走査可能領域SRの上下幅の中心を通る線を示す。
 図5(a)に示すように、走査可能領域SRがEPE12に対して左方向にずれた場合、走査可能領域SRと同様、描画領域RRについても、EPE12に対して左方向にずれる。従って、この場合、観察者が視認する虚像も観察者が本来視認すべき正常位置から左方向にずれることになり、観察者が適切に虚像を視認できないなどの違和感が生じる。
 これに対し、図5(b)では、光源14は、操作部11への操作量に応じ、中間像生成光LIの照射範囲である描画領域RRをEPE12との相対的な位置変化に応じて右方向に移動させている。具体的には、この場合、ユーザは、視認した虚像が左側にずれていると判断し、右側に虚像を移動させる入力を操作部11に対して行う。そして、光源14は、操作部11への操作量に応じ、描画領域RRを走査可能領域SR内で右方向に移動させる。これにより、ユーザは、虚像を正常の位置で観察することができ、違和感なく虚像を視認することができる。
 図6(a)は、走査可能領域SRがEPE12に対して右方向にずれた場合に、描画領域RRの位置調整を行う前のEPE12、描画領域RR、及び走査可能領域SRの位置関係を示す。また、図6(b)は、描画領域RRの位置調整後のEPE12、描画領域RR、及び走査可能領域SRの位置関係を示す。
 図6(a)に示すように、走査可能領域SRがEPE12に対して右方向にずれた場合、走査可能領域SRと同様、描画領域RRもEPE12に対して右方向にずれる。従って、この場合、観察者が視認する虚像も観察者が視認すべき正常位置から右方向にずれることになり、観察者が適切に虚像を視認できないなどの違和感が生じる。
 これに対し、図6(b)では、光源14は、操作部11への操作量に応じ、中間像生成光LIの照射範囲である描画領域RRをEPE12の位置変化に応じて左方向に移動させている。具体的には、この場合、ユーザは、視認した虚像が右側にずれていると判断し、左側に虚像を移動させる入力を操作部11に対して行う。そして、光源14は、操作部11への操作量に応じ、描画領域RRを走査可能領域SR内で左方向に移動させる。これにより、ユーザは、虚像を正常の位置で観察することができ、違和感なく虚像を視認することができる。
 なお、光源14は、走査可能領域SRがEPE12に対して上下方向にずれた場合も、図5及び図6の例と同様、光源14は、操作部11への操作量に応じ、走査可能領域SRがEPE12に対してずれた方向と逆方向に、描画領域RRを走査可能領域SR内で移動させる。これにより、ユーザは、虚像を正常の位置で観察することができ、違和感なく虚像を視認することができる。
 このように、光源14は、走査可能領域SRを経年変化による位置ずれ等を勘案してEPE12の照射面を含む領域に設定し、かつ、走査可能領域SRよりも描画領域RRが小さくなるように中間像生成光LIを出射する。これにより、光源14は、経年変化等に起因してEPE12と描画領域RRとの位置関係が正常時からずれた場合であっても、操作部11への入力に基づき、上述の位置関係を適切に修正することができる。
 次に、中間像及び虚像に歪みが生じた場合の補正方法について、図7及び図8を参照して説明する。
 図7(a)は、中間像生成光LIを生成する元となった画像(「元画像Im」とも呼ぶ。)を示し、図7(b)は、図7(a)に示す元画像Imを構成する中間像生成光LIがEPE12に投影された様子を示す。図7(a)に示す元画像Imには、円形のオブジェクトObが表示されている。
 この場合、図7(b)に示すように、EPE12に描画された元画像Im中のオブジェクトObに相当する中間像Obaは、一例としてEPE12の歪みに起因して、左右方向を長軸方向とする楕円形になっている。この歪みは、例えば、図5及び図6で述べた描画領域RRの位置調整によるEPE12への中間像生成光LIの入射角度の変化に起因して生じ得る。このように、中間像に歪みが生じた場合、観察者が視認する虚像にも歪みが生じるため、観察者が虚像を視認する際に違和感が生じることとなる。
 図8(a)は、操作部11への入力に基づき描画領域RRを変化させた場合の元画像Imを示し、図8(b)は、図8(a)に示す元画像Imを構成する中間像生成光LIがEPE12に投影された様子を示す。
 図8(a)に示すように、この場合、光源14は、操作部11への操作量に応じて、元画像Imの上下幅に対する左右幅の比率を小さくしている。この場合、図8(b)に示すように、元画像Imの上述の比率の変化に応じて、描画領域RRの上下幅に対する左右幅の比率が小さくなる。これにより、EPE12上に描画された中間像Obaは、左右方向に長軸を有する楕円形から円形に変化し、歪みが適切に補正されている。従って、この場合、観察者は、虚像を歪みがない状態で好適に視認することができる。
 同様に、コンバイナ10の形状又は/及び位置の変化やコンバイナ10への光の入射角度の変化等に起因して虚像に歪みが生じた場合であっても、光源14は、操作部11の操作量に応じて、上述の歪みを補正する。この場合であっても、光源14は、描画領域RRの位置、範囲又は/及び大きさを決定するための入力を操作部11から受け付け、当該入力が示す操作量に応じて走査可能領域SR内における描画領域RRの位置、範囲又は/及び大きさを補正する。これにより、光源14は、観察者に虚像を好適に視認させることができる。
 次に、本実施例に基づく描画領域RRの調整方法の効果について、比較例を用いて補足説明する。ここでは、本実施例に基づく描画領域RRの調整方法の代わりに、図2に示す保持部15の位置を調整可能な調整機構を設け、当該調整機構により描画領域RRの位置を調整する場合について検討する。
 この比較例に係るヘッドアップディスプレイによれば、上述の調整機構により機械的に描画領域RRの位置を調整し、本実施例と同様に光源14の位置ずれ等を補正することが可能である。一方、比較例では、(A)上述の調整機構を設ける分、光源ユニット1の小型化が難しくなる点、(B)部品点数の増加によりコストが増加する点、(C)経年変化や振動等により光源14の位置ずれ等が生じた場合にエンドユーザが上述の調整機構を適切に扱うのが容易ではない点などの問題が生じ得る。
 以上を勘案し、本実施例では、光源14は、走査可能領域SRよりも描画領域RRが小さくなるように中間像生成光LIを出射し、走査可能領域SR内で描画領域RRの位置及び範囲を機械的な調整機構によらずに変化させる。これにより、本実施例の光源ユニット1は、保持部15をネジ17、18などの固定部材により固定することができるため、保持部15の位置を調整するための調整機構を設ける必要がなく、小型化及び部品点数の削減を実現することができる。また、経年変化や振動等により光源14の位置ずれ等が生じた場合であっても、光源ユニット1は、好適に虚像をユーザが視認しやすい位置及び範囲に表示させることができる。このように、本実施例では、比較例で生じた上述の(A)乃至(C)の問題を好適に解決することができる。
 本発明は、ヘッドアップディスプレイなどの表示装置に利用することができる。
 1 光源ユニット
 10 コンバイナ
 11 操作部
 12 EPE
 13 反射ミラー
 14 光源
 15 保持部
 16 筺体

Claims (10)

  1.  所定の照射可能領域に光を照射可能な照射手段と、
     前記照射手段に、前記照射可能領域よりも小さな領域である描画領域に、画像を描画するための光を照射させる制御手段と、
     前記光の少なくとも一部を反射させて、観察者に前記画像を認識させる反射部材と、
     前記照射可能領域における前記描画領域の位置を移動させるための操作手段と、
    を備え、
     前記制御手段は、前記描画領域外に、前記光を照射しないように前記照射手段を制御することを特徴とする投影装置。
  2.  前記操作手段による、前記描画領域の位置の移動を行うための操作量に基づき、前記画像を変化させる補正手段をさらに備えることを特徴とする請求項1に記載の投影装置。
  3.  前記補正手段は、前記反射部材の位置若しくは形状又は前記反射部材への前記光の入射角度に起因して生じる、前記観察者が認識する画像の歪みを補正することを特徴とする請求項2に記載の投影装置。
  4.  前記照射手段の光源はレーザであることを特徴とする請求項1乃至3のいずれかに記載の投影装置。
  5.  前記画像の中間像が描画される光学素子をさらに備え、
     前記反射部材は、前記照射手段から出射されて前記光学素子を通過した光の少なくとも一部を反射させて、観察者に前記画像を認識させることを特徴とする請求項1乃至4のいずれか一項に記載の投影装置。
  6.  前記照射可能領域は、前記光学素子の前記光の照射面を含む領域に設けられ、かつ、前記描画領域は、前記光学素子の前記照射面内に設けられることを特徴とする請求項5に記載の投影装置。
  7.  請求項1乃至6のいずれか一項に記載の投影装置を備え、前記画像をユーザの目の位置から虚像として視認させることを特徴とするヘッドアップディスプレイ。
  8.  所定の照射可能領域に光を照射可能な照射手段と、
     前記光の少なくとも一部を反射させて、観察者に画像を認識させる反射部材とを有する投影装置が実行する制御方法であって、
     前記照射手段に、前記照射可能領域よりも小さな領域である描画領域に、前記画像を描画するための光を照射させる制御工程を有し、
     前記制御工程は、前記描画領域外に、前記光を照射しないように前記照射手段を制御することを特徴とする制御方法。
  9.  所定の照射可能領域に光を照射可能な照射手段と、
     前記光の少なくとも一部を反射させて、観察者に画像を認識させる反射部材とを有する投影装置が実行するプログラムであって、
     前記照射手段に、前記照射可能領域よりも小さな領域である描画領域に、前記画像を描画するための光を照射させる制御手段
    として前記投影装置を機能させ、
     前記制御手段は、前記描画領域外に、前記光を照射しないように前記照射手段を制御することを特徴とするプログラム。
  10.  請求項9に記載のプログラムを記憶したことを特徴とする記憶媒体。
PCT/JP2012/064322 2012-06-01 2012-06-01 投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体 WO2013179494A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/064322 WO2013179494A1 (ja) 2012-06-01 2012-06-01 投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/064322 WO2013179494A1 (ja) 2012-06-01 2012-06-01 投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2013179494A1 true WO2013179494A1 (ja) 2013-12-05

Family

ID=49672742

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/064322 WO2013179494A1 (ja) 2012-06-01 2012-06-01 投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体

Country Status (1)

Country Link
WO (1) WO2013179494A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3263388A4 (en) * 2015-02-24 2018-10-10 Nippon Seiki Co., Ltd. Vehicle display device
JP2018177015A (ja) * 2017-04-13 2018-11-15 矢崎総業株式会社 車両用表示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028065A (ja) * 2009-07-28 2011-02-10 Panasonic Corp 画像表示装置
JP2011091789A (ja) * 2009-09-24 2011-05-06 Brother Industries Ltd ヘッドマウントディスプレイ
JP4809507B1 (ja) * 2010-11-30 2011-11-09 パイオニア株式会社 レーザ光源ユニット及び画像表示装置
JP2012058371A (ja) * 2010-09-07 2012-03-22 Funai Electric Co Ltd 画像表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028065A (ja) * 2009-07-28 2011-02-10 Panasonic Corp 画像表示装置
JP2011091789A (ja) * 2009-09-24 2011-05-06 Brother Industries Ltd ヘッドマウントディスプレイ
JP2012058371A (ja) * 2010-09-07 2012-03-22 Funai Electric Co Ltd 画像表示装置
JP4809507B1 (ja) * 2010-11-30 2011-11-09 パイオニア株式会社 レーザ光源ユニット及び画像表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3263388A4 (en) * 2015-02-24 2018-10-10 Nippon Seiki Co., Ltd. Vehicle display device
US10409062B2 (en) 2015-02-24 2019-09-10 Nippon Seiki Co., Ltd. Vehicle display device
JP2018177015A (ja) * 2017-04-13 2018-11-15 矢崎総業株式会社 車両用表示装置

Similar Documents

Publication Publication Date Title
JP6387589B2 (ja) 画像形成装置、車両、及び画像形成装置の制御方法
JP6409511B2 (ja) ヘッドアップディスプレイ装置
US10659740B2 (en) Image rendering apparatus, head up display, and image luminance adjusting method
US8094355B2 (en) Laser projection system with a spinning polygon for speckle mitigation
JP5214060B1 (ja) 虚像表示装置
WO2013005278A1 (ja) 表示装置
US9236028B2 (en) Image display apparatus
WO2012073330A1 (ja) レーザ光源ユニット及び画像表示装置
JP2014194495A (ja) プロジェクタ装置、ヘッドアップディスプレイ装置及びプロジェクタ装置の制御方法
US11187899B2 (en) Light source device, optical scanner, display system, and mobile object
WO2013179493A1 (ja) 画像投影装置、ヘッドアップディスプレイ、制御方法及び光学素子
JP2020144326A (ja) 光走査装置、表示システムおよび移動体
WO2013179494A1 (ja) 投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体
WO2016113873A1 (ja) 表示装置、制御方法、プログラム及び記憶媒体
JP2017083631A (ja) 表示装置、制御方法、プログラム及び記憶媒体
JP2018146761A (ja) 表示装置及び投影装置
JP6737370B2 (ja) 投影装置
JP5666003B2 (ja) 光源ユニット、及び光源ユニットの製造方法
JP2016053680A (ja) 画像表示再生装置および射出瞳拡大方法
JP2020190617A (ja) 虚像表示装置
JP2019164204A (ja) 光源装置、表示装置、表示システムおよび移動体
JP2014007358A (ja) 投影装置、ヘッドアップディスプレイ、制御方法、プログラム及び記憶媒体
JP2011180415A (ja) 画像表示装置
WO2013145153A1 (ja) 画像描画装置
JP7115046B2 (ja) 光源装置、表示装置、表示システム、移動体および光量制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12877907

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12877907

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP