WO2020105272A1 - 虚像表示装置及び融像調整操作装置 - Google Patents

虚像表示装置及び融像調整操作装置

Info

Publication number
WO2020105272A1
WO2020105272A1 PCT/JP2019/037153 JP2019037153W WO2020105272A1 WO 2020105272 A1 WO2020105272 A1 WO 2020105272A1 JP 2019037153 W JP2019037153 W JP 2019037153W WO 2020105272 A1 WO2020105272 A1 WO 2020105272A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parallax image
display
parallax
virtual
Prior art date
Application number
PCT/JP2019/037153
Other languages
English (en)
French (fr)
Inventor
孝啓 南原
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2020105272A1 publication Critical patent/WO2020105272A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory

Definitions

  • the present disclosure relates to a virtual image display device and a fusion image adjustment operation device.
  • a virtual image display device that reflects a display light on a reflecting portion to display a virtual image visually recognizable from a visual recognition area. It is also disclosed that such a virtual image display device fuses a stereoscopic image using a parallax image.
  • the device disclosed in Patent Document 1 displays an image to be displayed according to a correction pattern according to a curved shape of the windshield, and a display unit that reflects a display image (parallax image) for naked-eye stereoscopic vision on a windshield (windshield). And a correction unit that corrects.
  • the windshield has a larger curvature toward the right end, and the correction pattern is created according to the distortion measured in advance for the windshield.
  • the virtual image formed by this is in accordance with the path of the display light based on the positional relationship between the display part, the reflection part and the visual recognition area. , In many cases, it is displayed by being actually rotated.
  • the display light path of the first parallax image and the second parallax image are displayed. The display light path is different. Therefore, the rotation amount of the virtual image by the first parallax image and the rotation amount of the virtual image by the second parallax image are also different.
  • One of the objects according to the present disclosure is to provide a virtual image display device and a fusion adjustment operation device that facilitate fusion of a stereoscopic image.
  • One aspect of the present disclosure is a virtual image display device that reflects display light on a reflecting portion to display a virtual image visible from a visual recognition area, and includes a display unit and an image control unit.
  • the display unit has a display screen that emits display light.
  • the image control unit directs to the display screen, a first region of the visual recognition region, which emits the display light toward the first viewpoint, and a second region of the visual recognition region that is a position different from the first viewpoint.
  • a second area that emits display light, and a parallax image based on the parallax between the first viewpoint and the second viewpoint is used as the first parallax image in the first area and as the second parallax image in the second area.
  • the display unit is controlled to display each.
  • the image control unit sets the first parallax image displayed in the first area and the second parallax image displayed in the second area so that the upper direction of the first parallax image is different from the first direction on the display screen.
  • the parallax image and the second parallax image are displayed.
  • the display light emitted from the first area in which the first parallax image is displayed is directed to the first viewpoint in the visual recognition area, and the second parallax image is displayed.
  • the display light emitted from the second region goes to the second viewpoint, which is a position different from the first viewpoint, in the visual recognition region.
  • the path of the display light of the first parallax image and the path of the display light of the second parallax image are different, and each display light is reflected by the reflecting section and reaches each viewpoint in the visual recognition area.
  • the upward direction of the virtual image based on the first parallax image is substantially rotated with respect to the upward direction of the first parallax image on the display screen due to the reflection at the reflecting portion, and the upward direction based on the second parallax image.
  • the upward direction of the virtual image is rotated by a rotation amount different from that of the first parallax image with respect to the upward direction of the second parallax image on the display screen.
  • the upward direction of the first parallax image displayed in the first region and the upward direction of the second parallax image displayed in the second region are different from each other.
  • the upper direction on the original display screen it is possible to bring the upper direction of the virtual image of the rotated first parallax image and the upper direction of the virtual image of the rotated second parallax image closer to each other. ..
  • the display form is more matched with the parallax.
  • a virtual image display device that reflects display light to a reflecting portion to display a virtual image visually recognizable from a visual recognition area, and includes a display unit, an image control unit, and a data preparation unit. And a section.
  • the display unit has a display screen that emits display light.
  • the image control unit directs to the display screen, a first region of the visual recognition region, which emits the display light toward the first viewpoint, and a second region of the visual recognition region that is a position different from the first viewpoint.
  • the display unit is controlled to display each.
  • the data preparation unit prepares unrotated data of the first parallax image and unrotated data of the second parallax image.
  • the image control unit performs a process of rotating the unrotated data of the first parallax image by a predetermined first rotation amount, and then displays the first parallax image on the display screen as well as the second parallax image.
  • the rotation data is rotated by a second rotation amount different from the first rotation amount and then displayed as a second parallax image on the display screen.
  • the display light emitted from the first area in which the first parallax image is displayed is directed to the first viewpoint in the visual recognition area, and the second parallax image is displayed.
  • the display light emitted from the second region goes to the second viewpoint, which is a position different from the first viewpoint, in the visual recognition region.
  • the path of the display light of the first parallax image and the path of the display light of the second parallax image are different, and each display light is reflected by the reflecting section and reaches each viewpoint in the visual recognition area.
  • the virtual image formed by the first parallax image is substantially rotated with respect to the first parallax image on the display screen due to the reflection at the reflection unit, and the virtual image formed by the second parallax image is displayed on the display screen.
  • the second parallax image is rotated by a rotation amount different from that of the first parallax image.
  • the unrotated data of the prepared first parallax image is displayed on the display screen as the first parallax image after being subjected to the process of rotating by the predetermined first rotation amount.
  • the unrotated data of the second parallax image is displayed on the display screen as the second parallax image after being subjected to the process of rotating by the predetermined second rotation amount.
  • a fusion adjustment operation device that is used for displaying a stereoscopic image and that receives an operation of adjusting a fusion state between a parallax image for the left eye and a parallax image for the right eye.
  • the rotary switch includes a rotation switch that rotates at least one of the left-eye parallax image and the right-eye parallax image, and an output unit that outputs a result of operating the rotation switch.
  • the fusion adjustment operation device is provided with a rotation switch.
  • a rotation switch By outputting the result of operating such a rotation switch, at least one of the parallax image for the left eye and the parallax image for the right eye can be rotated.
  • the reflection part By enabling adjustment to rotate the parallax image, even when adopting a display form in which the display light of the image is reflected on the reflection part without directly looking at the display screen in displaying a stereoscopic image, the reflection part It is possible to correct the rotation of the stereoscopic image caused by the above and facilitate fusion.
  • FIG. 1 is a diagram showing a state in which the HUD device according to the first embodiment is mounted on a vehicle.
  • FIG. 2 is a diagram showing a relationship between the HUD device and the viewpoint according to the first embodiment.
  • FIG. 3 is a block diagram showing a schematic configuration of the display system of the first embodiment.
  • FIG. 4 is a diagram showing the display unit, the microlens array, and the lenticular lens of the first embodiment.
  • FIG. 5 is a diagram schematically showing a correspondence relationship between the lenticular lens of the first embodiment and the strip image area and the parallax image area.
  • FIG. 6 is a diagram schematically showing the relationship between the upward direction of the parallax image and the upward direction of the virtual image in the comparative example.
  • FIG. 7 is a diagram schematically showing the relationship between the upward direction of the parallax image and the upward direction of the virtual image according to the first embodiment.
  • FIG. 8 is a diagram for explaining a substantial rotation phenomenon of the virtual image caused by the reflecting portion, and is a diagram showing a case where the direction of the surface normal and the incident surface coincide with each other.
  • FIG. 9 is a diagram for explaining a substantial rotation phenomenon of the virtual image caused by the reflection portion, and is a diagram showing a case where the direction of the surface normal does not coincide with the incident surface.
  • FIG. 8 is a diagram for explaining a substantial rotation phenomenon of the virtual image caused by the reflecting portion, and is a diagram showing a case where the direction of the surface normal does not coincide with the incident surface.
  • FIG. 10 is a graph showing the relationship between the radius of curvature of the reflecting portion and the rotation tilt difference.
  • FIG. 11 is a graph showing the relationship between the pupil distance and the rotation tilt difference.
  • FIG. 12 is a flowchart of the HUD device according to the first embodiment.
  • the virtual image display device As shown in FIGS. 1 and 2, the virtual image display device according to the first embodiment of the present disclosure is used in a vehicle 1.
  • the virtual image display device is a head-up display device (hereinafter, HUD device) 10 mounted on the vehicle 1 by being housed in the instrument panel 2 of the vehicle 1.
  • the HUD device 10 displays virtual images VR1 and VR2 that can be visually recognized by an occupant as an observer by projecting an image on the reflecting portion 3a set on the windshield 3 of the vehicle 1. That is, when the display light of the image that is incident on the reflecting portion 3a and is reflected reaches the visual recognition area EB set inside the vehicle 1, the occupant whose eye point is located in the visual recognition area EB is Are perceived as virtual images VR1 and VR2.
  • the occupant recognizes a stereoscopic image that can be confirmed by fusion of the virtual image VR1 visually recognized by the left eye and the virtual image VR2 visually recognized by the right eye. Then, the occupant can obtain various information by the stereoscopic image.
  • the windshield 3 of the vehicle 1 is formed of, for example, glass or synthetic resin in a translucent plate shape, and is arranged above the instrument panel 2.
  • the windshield 3 is arranged so as to be inclined so as to be separated upward from the instrument panel 2 as it goes rearward.
  • the reflecting portion 3a on which the display light is incident is formed in a curved surface shape having a smooth concave curve.
  • the shape of the windshield 3 as described above is generally set by the vehicle manufacturer based on the application or design of the vehicle 1.
  • the shape of the windshield 3 is a free-form surface shape represented by a polynomial having a coefficient of quadratic or higher.
  • the visual recognition area EB is a spatial area that can be visually recognized so that the virtual images VR1 and VR2 displayed by the HUD device 10 satisfy a predetermined standard (for example, the entire virtual image has a predetermined brightness or higher), and the eye box. Also called.
  • the visual recognition area EB is typically set so as to overlap with the eye lip set in the vehicle 1.
  • the eye lip is set for each eye, and is set in an ellipsoidal shape based on the eye range that statistically represents the spatial distribution of the occupant's eye points.
  • the HUD device 10 includes a housing 11, a display unit 20, a microlens array 30, a lenticular lens 35, a control unit 40, and the like. Further, the HUD device 10 constitutes the display system 9 together with the fusion adjustment operation device 60, the DSM 70, the drawing ECU 72 and the like.
  • the housing 11 shown in FIGS. 1 and 2 is made of, for example, synthetic resin or metal in a hollow shape having a light shielding property, and houses the display unit 20, the microlens array 30, and the lenticular lens 35.
  • the housing 11 is formed with a window portion 12 which is optically opened upward so as to face the reflection portion 3a in the vertical direction.
  • the window portion 12 is closed by a dustproof sheet 13 having a light-transmitting property or a semi-light-transmitting property.
  • the control unit 40 may be housed in the housing 11 or may be separately installed outside the housing 11.
  • the display unit 20 shown in FIGS. 2 to 4 is arranged relatively downward in the housing 11.
  • the display unit 20 of this embodiment is a liquid crystal display.
  • the display unit 20 has a backlight unit 22 and an image display panel 21, and is formed by housing these in a box-shaped casing.
  • the backlight unit 22 illuminates the image display panel 21 by emitting light from a light source such as an LED.
  • the backlight unit 22 may have various configurations such as a so-called edge type backlight and a direct type backlight.
  • the image display panel 21 is a flat display element that displays an image as a real image.
  • a liquid crystal panel using a thin film transistor (TFT), and an active matrix type transmissive liquid crystal panel that forms a display screen 21a by a plurality of pixels arranged in a two-dimensional direction is used as the image display panel 21, a liquid crystal panel using a thin film transistor (TFT), and an active matrix type transmissive liquid crystal panel that forms a display screen 21a by a plurality of pixels arranged in a two-dimensional direction is used. Has been adopted.
  • TFT thin film transistor
  • the image display panel 21 has a rectangular shape having a longitudinal direction and a lateral direction. By arranging the pixels along the longitudinal direction and the lateral direction, the display screen 21a also has a rectangular shape.
  • the longitudinal direction of the display screen 21a corresponds to the horizontal direction of the virtual images VR1 and VR2
  • the lateral direction of the display screen 21a corresponds to the vertical direction of the virtual images VR1 and VR2.
  • a pair of polarizing plates and a liquid crystal layer inserted in the pair of polarizing plates are laminated.
  • the pair of polarizing plates are arranged so that their polarization axes are substantially orthogonal to each other.
  • the polarization direction of light passing through the liquid crystal layer can be rotated according to the applied voltage. In this way, it is possible to control the transmittance of light transmitted through the polarizing plate on the display screen 21a side for each pixel.
  • the image display panel 21 displays an image on the display screen 21a by illuminating the illumination target surface, which is the surface on the side of the backlight unit 22, by the backlight unit 22 and controlling the transmittance of each pixel. It is possible. Adjacent pixels are provided with color filters of different colors (for example, red, green, and blue), and various colors are expressed by combining these.
  • the display screen 21a is arranged such that its longitudinal direction is along the left-right direction and faces the upper windshield 3 side, so that the display light is emitted so as to be emitted upward from each pixel.
  • the microlens array 30 shown in FIGS. 2 and 4 is arranged on the optical path between the display section 20 and the reflection section 3a. In the optical path, the microlens array 30 is arranged closer to the display unit 20 than the lenticular lens 35.
  • the microlens array 30 is made of, for example, glass or synthetic resin and has a light-transmitting property.
  • the microlens array 30 is formed in a plate shape by arranging the microlens elements 31 individually corresponding to the pixels of the image display panel 21 in two directions, for example, the longitudinal direction and the lateral direction.
  • the array pitch of the microlens elements 31 is set to be substantially the same as the array pitch of the pixels.
  • Each microlens element 31 has, on the image display panel 21 side, a plane of incidence-side optical surface 32 that is common between the microlens elements 31.
  • the incident side optical surface 32 is arranged so as to be close to or in contact with the display screen 21a.
  • each microlens element 31 has a light-exiting-side optical surface 33, which is formed on the reflecting portion 3a side and is individually formed for each microlens element 31, in the form of a smooth curved surface that is convexly curved.
  • the emission side optical surface 33 the display light emitted from the display screen 21a is condensed for each pixel.
  • the lenticular lens 35 shown in FIGS. 2 and 4 is arranged on the optical path between the display section 20 and the reflection section 3a. On the optical path, the lenticular lens 35 is arranged closer to the reflecting section 3a than the microlens array 30 is.
  • the lenticular lens 35 is made of, for example, glass or synthetic resin and has a light-transmitting property.
  • the lenticular lens 35 is formed in a plate shape by arranging a plurality of cylindrical lens elements 36 in, for example, one longitudinal direction (this is referred to as an arrangement direction AD).
  • the array pitch of the cylindrical lens elements 36 is set sufficiently larger than the array pitch of the microlens elements 31 and the pixels.
  • Each cylindrical lens element 36 is arranged so as to extend along the lateral direction.
  • an incident-side optical surface 37 common to the cylindrical lens elements 36 is formed in a planar shape on the image display panel 21 side so as to face the microlens array 30.
  • an emission-side optical surface 38 which is individual for each of the cylindrical lens elements 36, is formed in a convex cylindrical surface shape that is convexly curved in a vertical section including the arrangement direction AD thereof. is doing.
  • strip-shaped strip image areas SA individually corresponding to the respective cylindrical lens elements 36 are set.
  • Each strip image area SA is set as an area surrounded by the projected outer contour of the outer contour of each cylindrical lens element 36 virtually projected on the display screen 21a (in other words, as a virtual area in display control). ing. Since the cylindrical lens elements 36 do not overlap each other and are arranged without a gap, the strip image areas SA are also arranged without a gap without overlapping each other.
  • Each strip image area SA is set to have a width including a plurality of pixels in the array direction AD.
  • each strip image area SA is made incident on the cylindrical lens element 36 individually corresponding to the strip image area SA.
  • each display light that belongs to the same strip image area SA and is emitted from each pixel at a position deviated from each other in the array direction AD is transmitted through the lenticular lens 35 and is thus arrayed.
  • the light beams are refracted in different directions.
  • the control unit 40 shown in FIG. 3 is a so-called computer, and is mainly composed of an electronic circuit including at least one processor, a memory device, and an input / output interface.
  • the processor is an arithmetic circuit that executes a computer program stored in the memory device.
  • the memory device is a non-transitional tangible storage medium that is provided by, for example, a semiconductor memory or the like, and non-temporarily stores a computer program readable by a processor.
  • the control unit 40 is communicatively connected to the display unit 20.
  • the control unit 40 is configured to be able to acquire various information from the fusion adjustment operating device 60, the DSM 70, the drawing ECU 72, etc. by inputting an electrical signal using communication.
  • various suitable communication methods may be adopted regardless of wired communication or wireless communication.
  • the control unit 40 includes a data preparation unit 41, an image control unit 42, and the like as functional units (also referred to as control units) that perform arithmetic processing by executing computer programs.
  • the data preparation unit 41 prepares data used in the image control unit 42. Specifically, the data preparation unit 41 prepares unrotated data of parallax images PI1 and PI2, which will be described later, for example, from the drawing ECU 72.
  • the unrotated data is data generated on the assumption that the parallax images PI1 and PI2 are displayed without substantial rotation.
  • the drawing ECU 72 is a so-called computer, and is mainly composed of an electronic circuit including at least one processor, a memory device, and an input / output interface.
  • the drawing ECU 72 generates unrotated data of the parallax images PI1 and PI2 to be displayed on the HUD device 10 based on information acquired from various devices of the vehicle 1 or the outside of the vehicle.
  • the image control unit 42 controls the image displayed on the display screen 21 a of the image display panel 21. As shown in FIG. 5, the image control unit 42 virtually sets each strip image area SA of the display screen 21a as described above, and further divides each strip image area SA in the array direction AD of the cylindrical lens elements 36. The parallax image areas PA1 and PA2 that have been finely cut are virtually set, and then the image displayed on the display screen 21a is controlled. The parallax image areas PA1 and PA2 belonging to the same strip image area SA are typically set to be the same as the total number of viewpoints VP1 and VP2 set in the visual recognition area EB.
  • each strip image area SA is divided into two. That is, two parallax image areas PA1 and PA2 belonging to the same strip image area SA are set, that is, the parallax image area PA1 for the left eye and the parallax image area PA2 for the right eye.
  • the parallax image areas PA1 for the left eye and the parallax image areas PA2 for the right eye are arranged alternately one by one along the arrangement direction AD.
  • the parallax images PI1 and PI2 individually associated with the viewpoints VP1 and VP2 set in the visual recognition area EB are displayed.
  • the parallax image area PA1 for the left eye displays the parallax image PI1 for the left eye
  • the parallax image area PA2 for the right eye displays the parallax image PI2 for the right eye.
  • the display lights from the parallax images PI1 and PI2 displayed in the parallax image regions PA1 and PA2 are refracted in different directions in the cylindrical lens element 36, so that the display lights at different positions in the reflecting portion 3a thereafter. Through the reflection, the positions of the corresponding viewpoints VP1 and VP2 in the visual recognition area EB are individually reached.
  • Such parallax images PI1 and PI2 are similarly displayed in each strip image area SA.
  • the display light of the parallax image area PA1 in each strip image area SA is directed to the left-eye viewpoint VP1 through each cylindrical lens element 36.
  • the images displayed in the parallax image areas PA1 for the left eye are integrally displayed as a virtual image VR1 of the parallax image PI1 for the left eye as if they were joined together.
  • the display light of the parallax image area PA2 in each strip image area SA is directed to the viewpoint VP2 for the right eye through each cylindrical lens element 36.
  • the images displayed in the respective parallax image areas PA2 for the right eye are integrally displayed as a virtual image VR2 of the parallax image PI2 for the right eye as if they were joined together.
  • each cylindrical lens element 36 functions as a viewpoint dividing element that divides the display light emitted from the corresponding strip image area SA into a plurality of (two in the present embodiment) viewpoints VP1 and VP2. ..
  • the array direction AD of the cylindrical lens elements 36 is along the left-right direction, and has power in the array direction AD. Then, as shown in FIG. 2, the positions of the viewpoints VP1 and VP2 in the visual recognition area EB are also shifted from each other in the left-right direction.
  • each of the viewpoints VP1 and VP2 in the visual recognition area EB actually has a finite area.
  • the left half of the visual recognition area EB is set as the left-eye viewpoint VP1 corresponding to the left eye, and the right half of the visual recognition area EB corresponds to the right eye viewpoint VP2. Is set to.
  • the virtual image VR1 of the parallax image PI1 for the left eye is visually recognized from the left eye on the side opposite to the visual recognition area EB with the windshield 3 sandwiched between the left eye of the occupant and the viewpoint VP1 for the left eye. Further, since the right eye of the occupant overlaps the viewpoint VP2 for the right eye, the virtual image VR1 of the parallax image PI1 for the right eye is viewed from the right eye on the opposite side of the viewing area EB with the windshield 3 interposed therebetween. ..
  • the image control unit 42 sets a parallax between the parallax image PI1 for the left eye and the parallax image PI2 for the right eye based on the displacement between the left and right positions of the viewpoints VP1 and VP2.
  • the image that is affected by such parallax and is recognized by the occupant by the display light is not a virtual image VR1 or VR2 itself, but a stereoscopic image that appears at a different distance from the virtual images VR1 and VR2.
  • the fusion of the virtual images VR1 and VR2 is performed well. That is, the occupant can recognize a stereoscopic image by fusing the image formed on the retina of the left eye and the image formed on the retina of the right eye in binocular vision.
  • the former display light and the latter display light are reflected by the reflecting portion 3a of the windshield 3 at, for example, positions displaced to the left and right. Since the reflecting portion 3a has a curved surface exhibiting a smooth concave curve as described above, there is a difference in the direction of the surface normal VN at the positions deviated from each other left and right.
  • the upward direction UD of the left-eye parallax image PI1 and the upward direction UD of the right-eye parallax image PI2 on the display screen 21a are in the same direction.
  • the upward direction UD is a direction in which an observer (that is, an occupant) can recognize the image with the least sense of discomfort when looking at the image, and for example, when the character “A” is displayed, The acute angle protrusion direction of the character corresponds.
  • the substantial rotation amount in the upward direction UD of the virtual image VR1 for the left eye (hereinafter, the actual rotation amount) and the right eye.
  • the virtual rotation amount of the virtual image VR2 for use in the upward direction UD is different. Therefore, in the comparative example, as shown in FIG. 7, the upward UD is scattered between the virtual image VR1 for the left eye and the virtual image VR2 for the right eye. That is, a rotation tilt difference occurs between the virtual images VR1 and VR2.
  • the image control unit 42 on the display screen 21a, the upward direction UD of the parallax image PI1 displayed in the parallax image area PA1 for the left eye, and the right eye.
  • the image display panel 21 is controlled such that the upward direction UD of the parallax image PI2 displayed in the parallax image area PA2 is different from each other.
  • the image control unit 42 performs a rotation process of rotating the unrotated data of the parallax image PI1 for the left eye by the rotation amount set individually for the viewpoint VP1 (hereinafter, set rotation amount). Then, the parallax image PI1 after rotation is displayed in the parallax image area PA1 for the left eye. Further, the image control unit 42 performs a rotation process of rotating the unrotated data of the parallax image PI1 for the right eye by the set rotation amount individually set for the viewpoint VP2, and then performs the rotation process for the right eye. The parallax image PI2 is displayed in the parallax image area PA2. These set rotation amounts are different between the parallax image PI1 for the left eye and the parallax image PI2 for the right eye. Each set rotation amount is stored in advance in the memory device or is calculated by the image control unit 42 at any time.
  • the upward UD on the display screen 21a By controlling the upward UD on the display screen 21a to be different in advance, the difference in the actual rotation amount is offset by the difference in the set rotation amount. Therefore, the upward direction UD of the virtual image VR1 for the left eye and the upward direction UD of the virtual image VR2 for the right eye can be brought close to each other. Therefore, it becomes easy for the occupant to fuse the two virtual images VR1 and VR2. A good fusion can be realized by rotating the non-rotated data and displaying the parallax images PI1 and PI2 on the display screen 21a in the opposite direction to the actual rotation of the virtual images VR1 and VR2. ..
  • the parallax images PI1 and PI2 on the display screen 21a are schematically illustrated in separate completely separate regions, but in reality, as described above, in the array direction AD.
  • the parallax image areas PA1 and PA2 that are alternately arranged are displayed in a state of being divided into small pieces.
  • the virtual images VR1 and VR2 are inverted with the plane perpendicular to the incident plane as the axis of symmetry (see also FIG. 9), so the effect is also taken into consideration. Then, the parallax images PI1 and PI2 on the display screen 21a are displayed.
  • FIGS. 6 and 7 the virtual images VR1 and VR2 are schematically illustrated in separate completely separate regions, but in reality, there is a left-right shift of the parallax, but almost overlapping positions. Displayed in. Further, the upward UD arrow in FIGS. 6 and 7 is not actually displayed.
  • Equation 1 the shape of the reflecting portion 3a of the windshield 3 is represented by, for example, Equation 1 below.
  • the coordinate system (x, y) is defined (see also FIGS. 8 and 9).
  • x is a coordinate of the vehicle 1 in the left-right direction (hereinafter, also referred to as x direction)
  • y is a coordinate of the vehicle 1 in the vertical direction (hereinafter, also referred to as y direction).
  • Z is a coordinate in a direction perpendicular to the x direction and the y direction.
  • a typical value for the distance between the left and right eyes (that is, the pupil distance) is 65 mm. Then, the position in the reflection part 3a where the display light of the parallax image for the left eye is reflected and the position in the reflection part 3a where the display light of the parallax image for the right eye is reflected are separated by 65 mm in the x direction. Suppose Then, the difference ⁇ N between the surface normals VN between the two positions is expressed by the following mathematical expression 3.
  • FIG. 10 shows the relationship between the radius of curvature of the reflecting portion 3a and ⁇ . From this, it can be seen that the smaller the radius of curvature, the larger ⁇ .
  • the standard for optical performance of binoculars (JISB7121: 2007) specifies 40 minutes (in the case of general product A) as the allowable value of the tilt difference of the image. That is, in order to satisfactorily fuse the stereoscopic image, the rotational tilt difference between the virtual images VR1 and VR2 is back-calculated to be 20 minutes or less, and the parallax image PI1 for the left eye is displayed on the display screen 21a. It is preferable to set the difference in the set rotation amount between the direction UD and the upward direction UD of the parallax image PI2 for the right eye.
  • the difference in the set rotation amount between the parallax images PI1 and PI2 can be set within a range of atan ( ⁇ N) ⁇ 20 [′] or more and atan ( ⁇ N) +20 [′] or less. ..
  • Fusion adjustment in the HUD device 10 of the present embodiment is performed using a fusion adjustment operating device 60 communicatively connected to the control unit 40.
  • the fusion adjustment operation device 60 is a device that receives an operation of an occupant who visually recognizes the virtual images VR1 and VR2.
  • the fusion adjusting device 60 is installed in a position where the occupant who visually recognizes the virtual images VR1 and VR2 in the vehicle 1 can easily operate, such as the steering 4 and the central portion of the instrument panel 2.
  • the fusion adjustment operating device 60 is composed of a plurality of switches 61a, 61b, 61c, an output unit 62, and the like.
  • the plurality of switches include rotation switches such as the left rotation switch 61a and the right rotation switch 61b, and the confirmation switch 61c.
  • the left rotation switch 61a is a switch that rotates at least one of the virtual images VR1 and VR2 displayed by the HUD device 10 counterclockwise, in other words, a switch that changes the set rotation amount described above.
  • the right rotation switch 61b is a switch for rotating the virtual images VR1, VR2 displayed by the HUD device 10 clockwise, in other words, a switch for changing the set rotation amount described above.
  • the confirmation switch 61c is a switch for confirming the set rotation amount set by the occupant.
  • each of the switches 61a, 61b, 61c is a mechanical push switch that is activated by a pressing operation by an occupant.
  • the left rotation switch 61a is arranged on the leftmost side
  • the right rotation switch 61b is arranged on the rightmost side
  • the confirmation switch 61c is arranged between the left rotation switch 61a and the right rotation switch 61b. It is arranged.
  • the output unit 62 outputs the result of the operation of each switch 61a, 61b, 61c.
  • the output unit 62 determines a pressed state and a non-pressed state of each of the switches 61a, 61b, and 61c, a circuit that generates an electric analog signal or a digital signal, a terminal that can output the signal of the circuit to the outside, and the like. It is composed by.
  • the image control unit 42 starts fusion adjustment processing when the engine switch of the vehicle 1 is turned on, for example. This fusion adjustment process will be described below with reference to the flowchart of FIG.
  • the image control unit 42 activates the sample parallax images PI1 and PI2 and displays them on the display screen 21a.
  • the parallax image PI1 of the sample for the left eye and the parallax image PI1 of the sample for the right eye are displayed on the display screen 21a as unrotated data that is not rotated.
  • the upward direction UD of the sample parallax image PI1 for the left eye and the upward direction UD of the sample parallax image PI2 for the right eye are displayed in the same direction on the display screen 21a. In other words, the upward direction UD of the virtual image VR1 for the left eye and the upward direction UD of the virtual image VR2 for the right eye do not match.
  • the process proceeds to S20.
  • the image control unit 42 makes only one of the parallax image PI1 of the left eye sample and the parallax image PI2 of the right eye sample rotatable and the other non-rotatable (that is, fixed state). .. This state is called a one-sided rotation mode. In the following description, it is assumed that the parallax image PI1 of the sample for the left eye is rotatable and the parallax image PI2 of the sample for the right eye is not rotatable. After the process of S20, the process proceeds to S30.
  • the image control unit 42 receives an operation from the fusion adjustment operation device 60.
  • the rotation switches 61a and 61b are operated, the adjustment operation is detected, and based on the result, only the rotatable parallax image PI1, that is, only the parallax image PI1 of the sample for the left eye rotates. ..
  • the left rotation switch 61a is operated, only the parallax image PI1 for the left eye and the virtual image VR1 rotate counterclockwise
  • the right rotation switch 61b is operated, the parallax image PI1 for the left eye and Only the virtual image VR1 rotates clockwise.
  • the parallax image PI2 for the right eye and the virtual image VR2 do not rotate at all. Therefore, the difference between the set rotation amounts of the parallax images PI1 and PI2 can be directly and intuitively adjusted.
  • the occupant can fuse the parallax images PI1 and PI2 by operating the rotary switches 61a and 61b, the occupant can transmit to the HUD device 10 that the fusion can be performed by operating the confirm switch 61c. .. After the process of S30, the process proceeds to S40.
  • the image control unit 42 determines whether the occupant can fuse the virtual image VR1 for the left eye and the virtual image VR2 for the right eye. Specifically, in the present embodiment, it is determined that fusion is possible when the confirmation switch 61c is operated, and it is determined that fusion is not completed when the confirmation switch 61c is not operated.
  • the process proceeds to S50.
  • a negative determination is made in S40, the process returns to S30 and operation acceptance is continued.
  • the image control unit 42 can rotate both the parallax image PI1 for the left eye sample and the parallax image PI2 for the right eye sample. That is, the image control unit 42 ends the one-sided rotation mode and starts the both-sided rotation mode. After the process of S50, the process proceeds to S60.
  • the image control unit 42 again receives an operation from the fusion adjustment operation device 60.
  • the rotation switches 61a and 61b are operated, the adjustment operation is detected, and based on this result, both parallax images PI1 and PI2 rotate substantially the same amount. Therefore, the upward UD of the entire stereoscopic image can be adjusted.
  • the occupant can complete the adjustment by operating the confirmation switch 61c after adjusting the upward UD of the entire stereoscopic image. After the processing of S60, the process proceeds to S70.
  • the image control unit 42 sets the set rotation amount of the parallax image PI1 from the angular difference between the upward direction UD of the parallax image PI1 in the initial state and the upward direction UD of the adjusted parallax image PI2. Similar settings are made for the parallax image PI2.
  • the image control unit 42 writes each set rotation amount that has been set in the memory device. Through S70, the fusion adjustment process ends, and the image control unit 42 starts normal display.
  • a normal display for example, information indicating the state of the vehicle 1 such as the speed of the vehicle 1 and the remaining fuel amount, or navigation information such as visibility assistance information and road information is displayed using a stereoscopic image.
  • information indicating the state of the vehicle 1 such as the speed of the vehicle 1 and the remaining fuel amount
  • navigation information such as visibility assistance information and road information is displayed using a stereoscopic image.
  • the adjustment of the difference in the set rotation amount in the one-sided rotation mode and the upward adjustment of the entire stereoscopic image in the both-sided rotation mode can be individually performed.
  • the image control unit 42 can correct the set rotation amount and display both parallax images PI1 and PI2 even during normal display. Specifically, the image control unit 42 corrects the set rotation amount based on the information input from the driver status monitor (DSM) 70.
  • DSM driver status monitor
  • the DSM 70 images the occupant's face and analyzes the image to detect the positions of the left eye and the right eye of the occupant, and further monitors the occupant's drowsiness and aside.
  • the DSM 70 is installed, for example, above the instrument panel 2 and the windshield 3 in the vehicle 1 at a position where it is easy to photograph the face of an occupant.
  • the DSM 70 is composed of an illumination unit, a camera, an image analysis unit, and the like.
  • the lighting unit illuminates the passenger's face with illumination light. Since it is preferable that the occupant cannot easily sense the illumination light, a near-infrared light source that uses near-infrared light as the illumination light is adopted in the illumination unit.
  • the camera takes an image of the face of the occupant.
  • the camera has an image sensor and a lens unit for forming an image of a subject on the image sensor.
  • the image pickup device for example, a device such as a CMOS sensor which has good sensitivity to near infrared light and has a high resolution of an image to be detected is employed.
  • the image analysis unit analyzes image data from the image sensor. The positions of the left eye and the right eye of the occupant obtained by the analysis are sequentially output to the image control unit 42.
  • the image control unit 42 acquires the position of the left eye and the position of the right eye of the occupant from the DSM 70 during normal display, and based on the displacement amount of these positions from the time of performing the fusion adjustment processing, the set rotation amount. To correct. For example, when the occupant tilts his / her neck, the pupil distance in the x direction is substantially reduced, and thus the correction is performed so that the difference between the set rotation amounts is reduced.
  • the viewpoint VP1 for the left eye, the parallax image area PA1 for the left eye, and the parallax image PI1 for the left eye correspond to the first viewpoint, the first area, and the first parallax image, respectively, and the right eye.
  • the viewpoint VP2 for right, the parallax image area PA2 for the right eye, and the parallax image PI2 for the right eye correspond to the second viewpoint, the second area, and the second parallax image, respectively.
  • the display light emitted from the parallax image area PA1 in which the parallax image PI1 is displayed is directed to the viewpoint VP1 in the visual recognition area EB, and the parallax image PI2 is displayed.
  • the display light emitted from the parallax image area PA2 is directed to the visual point VP2 in the visual recognition area EB, which is a position different from the visual point VP1.
  • the path of the display light of the parallax image PI1 and the path of the display light of the parallax image PI2 are different, and each display light is reflected by the reflecting portion 3a and reaches each viewpoint VP1, VP2 of the visual recognition area EB.
  • the upward direction UD of the virtual image VR1 due to the parallax image PI1 is substantially rotated with respect to the upward direction UD of the parallax image PI1 on the display screen 21a due to the reflection at the reflection portion 3a, and the parallax image
  • the upward direction UD of the virtual image VR2 due to PI2 is rotated by a rotation amount different from that of the parallax image PI1 with respect to the upward direction UD of the parallax image PI2 on the display screen 21a.
  • the upward direction UD of the parallax image PI1 displayed in the parallax image region PA1 and the upward direction UD of the parallax image PI2 displayed in the parallax image region PA2 are mutually different.
  • the upward direction UD of the rotated virtual image VR1 and the upward direction UD of the rotated virtual image VR2 can be brought close to each other.
  • the unrotated data of the prepared parallax image PI1 is displayed on the display screen 21a as the parallax image PI1 after being subjected to the process of rotating by the predetermined first rotation amount. .. Further, the unrotated data of the parallax image PI2 is displayed on the display screen 21a as the parallax image PI2 after being subjected to the process of rotating by the predetermined second rotation amount.
  • the parallax image PI1 and the parallax image PI2 displayed on the original display screen 21a are substantially caused by the reflection at the reflecting portion 3a. Even if the different rotation amount is different between the parallax image PI1 and the parallax image PI2, at least a part of the substantial difference in the rotation amount can be canceled.
  • the first rotation amount and the second rotation amount are adjusted based on the detection result of the adjustment operation of the observer who visually recognizes the virtual images VR1 and VR2.
  • the observer can actually visually recognize the virtual images VR1 and VR2 and perform the adjustment while confirming the fusion state, so that the stereoscopic image can be recognized well.
  • the path of the display light of the parallax image PI1 and the path of the display light of the parallax image PI2 change based on the individual difference in the pupil distance
  • the actual rotation amounts of the virtual images VR1 and VR2 change
  • the first embodiment in the adjustment of the first rotation amount and the second rotation amount, it is possible to switch between the one adjustment mode and the both adjustment modes.
  • the one-sided rotation mode one of the first rotation amount and the second rotation amount is changeable and the other is not changeable, so that the difference between the set rotation amounts is adjusted.
  • both the first rotation amount and the second rotation amount can be collectively changed by the same amount, so that the upward direction of the entire stereoscopic image is adjusted. In this way, the adjustment of the difference in the set rotation amount and the upward adjustment of the entire stereoscopic image can be individually performed, so that the fusion can be smoothly adjusted.
  • both adjustment modes are started after the end of the one adjustment mode. That is, by adjusting the difference in the set rotation amount in advance, the stereoscopic image can be fused to some extent, and then the upward direction of the entire stereoscopic image is adjusted to smoothly fuse the stereoscopic image. Can be adjusted.
  • the angular difference between the upward direction UD of the virtual image VR1 based on the parallax image PI1 and the upward direction UD of the virtual image VR2 based on the parallax image PI2 is 20 [′] or less.
  • the fusion adjustment operation device 60 is provided with rotation switches 61a and 61b.
  • rotation switches 61a and 61b By outputting the result of operating the rotary switches 61a and 61b, at least one of the left-eye parallax image PI1 and the right-eye parallax image PI2 can be rotated.
  • a display mode is adopted in which, for example, the display light of the image is reflected on the reflecting portion 3a without directly looking at the display screen 21a in displaying a stereoscopic image. Even in this case, it is possible to correct the rotation of the stereoscopic image caused by the reflection portion 3a and facilitate fusion.
  • one adjustment mode and both adjustment modes can be switched.
  • the rotation switches 61a and 61b rotate only one of the left-eye parallax image PI1 and the right-eye parallax image PI2 to adjust the rotational tilt difference.
  • the rotation switches 61a and 61b collectively rotate both the parallax image PI1 for the left eye and the parallax image PI2 for the right eye by the same amount, so that the upward direction of the entire stereoscopic image is adjusted.
  • the reflection part 3a may be associated with an element provided other than the windshield 3 as long as it reflects display light.
  • a separate combiner of the vehicle 1 may be installed in the vehicle 1, and the combiner may be provided with the reflecting portion 3a.
  • the reflecting mirror and the windshield 3 may each function as the reflecting unit 3a.
  • the viewpoint may be divided by a parallax barrier that functions as a viewpoint dividing element.
  • the display unit 20 may employ a display device other than the liquid crystal display device.
  • the display unit 20 may employ a laser scanner type display that draws an image on a screen by scanning a laser beam.
  • the screen corresponds to the display screen 21a.
  • the display unit 20 may be a DLP (Digital Light Processing; registered trademark) type display device using a DMD (Digital Micromirror Device). In this case, the DMD corresponds to the display screen 21a.
  • DLP Digital Light Processing; registered trademark
  • DMD Digital Micromirror Device
  • the display unit 20 and the display screen 21a may be divided into a plurality of divided bodies.
  • the first area can be set in one divided body and the second area can be set in another one divided body.
  • the display device for the left eye and the display device for the right eye can be separately prepared.
  • two transmissive self-luminous displays having the display screen 21a for the left eye and two translucent self-luminous displays having the display screen 21a for the right eye are overlapped to form two display screens 21a. It is also possible to form one indicator with
  • the viewpoints are not limited to the two viewpoints VP1 for the left eye and VP2 for the right eye.
  • super multi-view display in which a large number of viewpoints are set in the visual recognition area EB may be adopted. That is, the third, fourth, fifth, ... viewpoints, parallax image regions, and parallax images may exist.
  • a plurality of viewpoints shifted not only in the horizontal direction but also in the vertical direction may be set.
  • the display screen 21a may partially include parallax images having the same upward direction.
  • the data preparation unit 41 may prepare the unrotated data of the parallax images PI1 and PI2 stored in the memory device in the HUD device 10 by reading from the memory device. In addition, the data preparation unit 41 may generate the unrotated data of the parallax images PI1 and PI2 by itself.
  • the rotary switches 61a and 61b may be mechanical dial switches. Further, each of the switches 61a, 61b, 61c may be an image switch that is not mechanically displayed but is temporarily or permanently displayed as an image on the touch panel display.
  • the fusion adjustment operation device 60 may be a car navigation device, a smartphone, or the like formed so as to be able to display the image switch.
  • the fusion adjustment process may be performed by accepting a gesture operation of an observer instead of the pressing operation on the fusion adjustment operation device 60.
  • the gesture operation can be detected by the DSM 70 or a dedicated in-vehicle camera.
  • the fusion adjustment process may not be performed every time the engine switch of the vehicle 1 is turned on.
  • the fusion image may be adjusted in advance when the vehicle 1 is purchased or at a leisure time, and the set rotation amount stored at that time may be called when the virtual image display device is activated.
  • one adjustment mode and both adjustment modes may be switchable by a manual operation.
  • the virtual image display device can be applied to various vehicles such as an aircraft, a ship, or a stationary casing such as a game casing. Further, the virtual image display device can be applied to a mobile information terminal such as a head mounted display.
  • control unit and the method thereof described in the present disclosure may be realized by a dedicated computer that constitutes a processor programmed to execute one or more functions embodied by a computer program.
  • apparatus and method described in the present disclosure may be realized by a dedicated hardware logic circuit.
  • device and method described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits.
  • the computer program may be stored in a computer-readable non-transition tangible recording medium as an instruction executed by a computer.

Abstract

虚像表示装置は、表示部と、画像制御部とを備える。表示部は、表示光を発する表示画面(21a)を有する。画像制御部は、表示画面に、第1視点に向かう表示光を発する第1領域と、第2視点に向かう表示光を発する第2領域と、を設定し、第1視点と第2視点との視差に基づく視差画像を、第1領域に第1視差画像(PI1)として、及び第2領域に第2視差画像(PI2)として、それぞれ表示するように表示部を制御する。画像制御部は、表示画面上において、第1視差画像の上方向(UD)と、第2視差画像の上方向と、が互いに異なるように、第1視差画像及び第2視差画像を表示させる。

Description

虚像表示装置及び融像調整操作装置 関連出願の相互参照
 本開示は、2018年11月21日に出願された日本出願番号2018-218569号に基づくもので、ここにその記載内容を援用する。
 本開示は、虚像表示装置及び融像調整操作装置に関する。
 従来、表示光を反射部に反射させて、視認領域から視認可能な虚像を表示する虚像表示装置が知られている。このような虚像表示装置には、視差画像を用いて立体映像を融像することも開示されている。特許文献1に開示の装置は、裸眼立体視用の表示画像(視差画像)を防風ガラス(ウインドシールド)に反射させる表示部と、防風ガラスの湾曲形状に応じた補正パターンに従って表示すべき画像を補正する補正部と、を備えている。
 具体的に、右ハンドルの車両では防風ガラスにおいて、右端ほど湾曲が大きいことを前提とし、補正パターンは、防風ガラスに対して予め計測された歪みに応じて作成される。
特開2015-215509号公報
 さて、表示光が防風ガラス等に設けられた反射部に反射されると、これにより結像される虚像は、表示部、反射部及び視認領域の位置関係に基づいた表示光の経路に応じて、実体的に回転して表示されてしまうことが多い。視認領域に第1視点及び第2視点を設定し、各視点に対応する第1視差画像及び第2視差画像を表示する形態では、第1視差画像の表示光の経路と、第2視差画像の表示光の経路とが異なる。故に、第1視差画像による虚像の回転量と、第2視差画像による虚像の回転量も異なる。
 したがって、各視点から視認される各虚像の上方向が相違することにより、各虚像を立体映像として融像させることがそもそもできないことや、融像できたとしても、その視認性が低いことが懸念されている。
 本開示による目的のひとつは、立体映像の融像を容易にする虚像表示装置及び融像調整操作装置を提供することにある。
 本開示の態様のひとつは、表示光を反射部に反射させて、視認領域から視認可能な虚像を表示する虚像表示装置であって、表示部と、画像制御部とを備える。表示部は、表示光を発する表示画面を有する。画像制御部は、表示画面に、視認領域のうち第1視点に向かうこととなる表示光を発する第1領域と、視認領域のうち第1視点とは異なる位置である第2視点に向かうこととなる表示光を発する第2領域と、を設定し、第1視点と第2視点との視差に基づく視差画像を、第1領域に第1視差画像として、及び第2領域に第2視差画像として、それぞれ表示するように、表示部を制御する。画像制御部は、表示画面上において、第1領域に表示される第1視差画像の上方向と、第2領域に表示される第2視差画像の上方向と、が互いに異なるように、第1視差画像及び第2視差画像を表示させる。
 このような態様によると、表示部の表示画面において、第1視差画像が表示される第1領域から発せられる表示光は、視認領域のうち第1視点に向かい、第2視差画像が表示される第2領域から発せられる表示光は、視認領域のうち、第1視点とは異なる位置である第2視点へと向かう。第1視差画像の表示光の経路と第2視差画像の表示光の経路とが異なると共に、各表示光は、反射部に反射されて視認領域の各視点へ到達することとなる。このため、第1視差画像による虚像の上方向は、表示画面上の第1視差画像の上方向に対して、反射部での反射を原因として実体的に回転され、また、第2視差画像による虚像の上方向は、表示画面上の第2視差画像の上方向に対して、第1視差画像とは異なる回転量だけ回転される。
 これに対し、表示部の表示画面上において、第1領域に表示される第1視差画像の上方向と、第2領域に表示される第2視差画像の上方向とは、互いに異なる。元々の表示画面上の上方向を異ならせておくことで、回転後の第1視差画像の虚像の上方向と、回転後の第2視差画像の虚像の上方向を、近づけることが可能となる。そうすると、第1視点と第2視点との視差に基づいた第1視差画像及び第2視差画像が、虚像として表示されても、当該視差により合致した表示形態となる。以上により、観察者に、第1視差画像の虚像と、第2視差画像の虚像とを、第1視点と第2視点との視差に基づいて融像させることが容易となり、観察者が立体映像を良好に認識することができる。
 また、本開示の態様の他のひとつは、表示光を反射部に反射させて、視認領域から視認可能な虚像を表示する虚像表示装置であって、表示部と、画像制御部と、データ用意部とを備える。表示部は、表示光を発する表示画面を有する。画像制御部は、表示画面に、視認領域のうち第1視点に向かうこととなる表示光を発する第1領域と、視認領域のうち第1視点とは異なる位置である第2視点に向かうこととなる表示光を発する第2領域と、を設定し、第1視点と第2視点との視差に基づく視差画像を、第1領域に第1視差画像として、及び第2領域に第2視差画像として、それぞれ表示するように、表示部を制御する。データ用意部は、第1視差画像の未回転データ及び第2視差画像の未回転データを用意する。画像制御部は、第1視差画像の未回転データを所定の第1回転量にて回転する処理を実施した上で、第1視差画像として表示画面上に表示すると共に、第2視差画像の未回転データを第1回転量とは異なる第2回転量にて回転する処理を実施した上で、第2視差画像として表示画面上に表示する。
 このような態様によると、表示部の表示画面において、第1視差画像が表示される第1領域から発せられる表示光は、視認領域のうち第1視点に向かい、第2視差画像が表示される第2領域から発せられる表示光は、視認領域のうち、第1視点とは異なる位置である第2視点へと向かう。第1視差画像の表示光の経路と第2視差画像の表示光の経路とが異なると共に、各表示光は、反射部に反射されて視認領域の各視点へ到達することとなる。このため、第1視差画像による虚像は、表示画面上の第1視差画像に対して、反射部での反射を原因として実体的に回転され、また、第2視差画像による虚像は、表示画面上の第2視差画像に対して、第1視差画像とは異なる回転量だけ回転される。
 これに対し、用意した第1視差画像の未回転データは、所定の第1回転量にて回転する処理が実施された上で、第1視差画像として表示画面上に表示される。また、第2視差画像の未回転データは、所定の第2回転量にて回転する処理が実施された上で、第2視差画像として表示画面上に表示される。元々の表示画面上に表示される第1視差画像及び第2視差画像を互いに異なる第1回転量及び第2回転量にて回転させておくことで、反射部での反射を原因とした実体的な回転量が、第1視差画像と第2視差画像との間で異なっていたとしても、その実体的な回転量の差の少なくとも一部を相殺できる。そうすると、第1視点と第2視点との視差に基づいた第1視差画像及び第2視差画像が、虚像として表示されても、当該視差により合致した表示形態とすることができる。以上により、観察者に、第1視差画像の虚像と、第2視差画像の虚像とを、第1視点と第2視点との視差に基づいて融像させることが容易となり、観察者が立体映像を良好に認識することができる。
 また、本開示の態様の他のひとつは、立体映像の表示に用いられ、左眼用の視差画像と右眼用の視差画像との融像状態を調整する操作を受け付ける融像調整操作装置であって、左眼用の視差画像及び右眼用の視差画像のうち少なくとも片方を、回転させる回転スイッチと、回転スイッチが操作された結果を出力する出力部と、を備える。
 このような態様によると、融像調整操作装置には、回転スイッチが設けられている。このような回転スイッチを操作した結果が出力されることによって、左眼用の視差画像及び右眼用の視差画像のうち少なくとも片方を、回転させることができる。視差画像を回転させる調整を可能としたことで、立体映像の表示において、例えば表示画面を直接見ないで、画像の表示光を反射部に反射させる等の表示形態を採用したとしても、反射部を原因とした立体映像の回転を修正して、融像を容易にすることができる。
 本開示における上記あるいは他の目的、構成、利点は、下記の図面を参照しながら、以下の詳細説明から、より明白となる。図面において、
図1は、第1実施形態のHUD装置の車両への搭載状態を示す図である。 図2は、第1実施形態のHUD装置と視点との関係を示す図である。 図3は、第1実施形態の表示システムの概略構成を示すブロック図である。 図4は、第1実施形態の表示部、マイクロレンズアレイ及びレンチキュラレンズを示す図である。 図5は、第1実施形態のレンチキュラレンズと短冊画像領域及び視差画像領域との対応関係を模式的に示す図である。 図6は、比較例の視差画像の上方向及び虚像の上方向の関係を模式的に示す図である。 図7は、第1実施形態の視差画像の上方向及び虚像の上方向の関係を模式的に示す図である。 図8は、反射部を原因とした虚像の実体的な回転現象を説明するための図であって、面法線の方向と入射面が一致している場合を示す図である。 図9は、反射部を原因とした虚像の実体的な回転現象を説明するための図であって、面法線の方向と入射面が一致していない場合を示す図である。 図10は、反射部の曲率半径と回転倒れ差との関係を示すグラフである。 図11は、瞳孔間隔と回転倒れ差との関係を示すグラフである。 図12は、第1実施形態のHUD装置によるフローチャートである。
 本開示の一実施形態を図面に基づいて説明する。
 (第1実施形態)
 図1,2に示すように、本開示の第1実施形態による虚像表示装置は、車両1に用いられている。具体的に虚像表示装置は、当該車両1のインストルメントパネル2内に収容されることにより、当該車両1に搭載されているヘッドアップディスプレイ装置(以下、HUD装置)10となっている。HUD装置10は、車両1のウインドシールド3に設定された反射部3aへ画像を投影することにより、観察者としての乗員により視認可能な虚像VR1,VR2を表示する。すなわち、反射部3aに入射し、反射された画像の表示光が、車両1の室内に設定された視認領域EBに到達することにより、視認領域EBにアイポイントが位置する乗員は、当該表示光を虚像VR1,VR2として知覚する。後に詳述するが、本実施形態において乗員は、左眼により視認される虚像VR1及び右眼により視認される虚像VR2が融像されて確認可能となる立体映像を認識することとなる。そして、乗員は、立体映像によって各種情報を得ることができる。
 以下において、特に断り書きがない限り、前、後、上、下、左、右の方向は、水平面HP上の車両1を基準として記載される。
 車両1のウインドシールド3は、例えばガラスないしは合成樹脂により透光性の板状に形成され、インストルメントパネル2よりも上方に配置されている。ウインドシールド3は、後方へ向かう程、インストルメントパネル2から上方へ離間するように、傾斜して配置されている。ウインドシールド3は、表示光が入射する反射部3aを、滑らかな凹状湾曲を呈する曲面状に形成している。
 このようなウインドシールド3の形状は、一般的に、車両1の用途ないしはデザイン等に基づいて車両メーカにより設定されている。例えば、ウインドシールド3の形状は、2次以上の係数をもつ多項式で表されるような、自由曲面形状となっている。
 視認領域EBは、HUD装置10により表示される虚像VR1,VR2が所定の規格を満たすように(例えば虚像全体が所定の輝度以上となるように)視認可能となる空間領域であって、アイボックスとも称される。視認領域EBは、典型的には、車両1に設定されたアイリプスと重なるように設定される。アイリプスは、両眼それぞれに対して設定され、乗員のアイポイントの空間分布を統計的に表したアイレンジに基づいて、楕円体状に設定されている。
 このようなHUD装置10の具体的構成を、図3~5も用いて、以下に説明する。HUD装置10は、ハウジング11、表示部20、マイクロレンズアレイ30、レンチキュラレンズ35、及び制御ユニット40等により構成されている。また、HUD装置10は、融像調整操作装置60、DSM70、描画ECU72等と共に、表示システム9を構成している。
 図1,2に示すハウジング11は、例えば合成樹脂ないしは金属により、遮光性を有する中空形状に形成され、表示部20、マイクロレンズアレイ30及びレンチキュラレンズ35を収容している。ハウジング11は、反射部3aと上下に対向するように、上方に対して光学的に開口する窓部12を、形成している。窓部12は、透光性ないしは半透光性を有する防塵シート13によって塞がれている。なお、制御ユニット40は、ハウジング11に収容されていてもよく、ハウジング11外部に別途設置されていてもよい。
 図2~4に示す表示部20は、ハウジング11において比較的下方に配置されている。本実施形態の表示部20は、液晶式の表示器となっている。表示部20は、バックライトユニット22及び画像表示パネル21を有し、箱状のケーシングにこれらを収容して形成されている。
 バックライトユニット22は、例えばLED等の光源から光を発することにより、画像表示パネル21を照明する。バックライトユニット22には、いわゆるエッジ型のバックライト、直下型のバックライト等、種々の構成が採用され得る。
 画像表示パネル21は、画像を実像表示する平板状の表示素子である。本実施形態では、画像表示パネル21として、薄膜トランジスタ(TFT)を用いた液晶パネルであって、2次元方向に配列された複数の画素により表示画面21aを形成するアクティブマトリクス型の透過型液晶パネルが採用されている。
 画像表示パネル21は、長手方向及び短手方向を有する矩形状を呈している。画素が長手方向及び短手方向に沿って配列されることで、表示画面21aもまた矩形状を呈している。本実施形態では、表示画面21aにおける長手方向が、虚像VR1,VR2における左右方向に対応し、表示画面21aにおける短手方向が、虚像VR1,VR2における上下方向に対応している。
 画像表示パネル21には、一対の偏光板及び当該一対の偏光板に挿まれた液晶層等が積層されている。一対の偏光板はその偏光軸を互いに実質直交するように配置されている。液晶層では、画素毎の電圧印加により、印加電圧に応じて液晶層を透過する光の偏光方向を回転させることが可能となっている。こうして、画素毎に、表示画面21a側の偏光板を透過する光の透過率を制御することが可能となっている。
 したがって、画像表示パネル21は、バックライトユニット22側の表面である照明対象面を当該バックライトユニット22により照明され、画素毎の透過率が制御されることで、表示画面21aに画像を表示することが可能となっている。隣り合う画素には、互いに異なる色のカラーフィルタ(例えば赤、緑及び青)が設けられており、これらの組み合わせにより、様々な色が表現されるようになっている。
 表示画面21aは、その長手方向が左右方向に沿うように配置され、上方のウインドシールド3側を向いていることにより、表示光は、各画素から上方へと射出されるように発光する。
 図2,4に示すマイクロレンズアレイ30は、表示部20と反射部3aとの間の光路上に配置されている。当該光路上において、マイクロレンズアレイ30は、レンチキュラレンズ35よりも表示部20側に配置されている。マイクロレンズアレイ30は、例えばガラスないしは合成樹脂により形成され、透光性を有している。マイクロレンズアレイ30は、画像表示パネル21の画素に個別に対応するマイクロレンズ素子31を例えば長手方向及び短手方向の2方向に配列して、板状に形成されている。マイクロレンズ素子31の配列ピッチは、画素の配列ピッチと実質的に同一に設定されている。
 各マイクロレンズ素子31は、画像表示パネル21側に、各マイクロレンズ素子31間で共通の入射側光学面32を、平面状に形成している。入射側光学面32は、表示画面21aと近接又は当接するように配置されている。また、各マイクロレンズ素子31は、反射部3a側に、各マイクロレンズ素子31に個別の射出側光学面33を、凸状に湾曲する滑らかな曲面状に形成している。この射出側光学面33によって、表示画面21aから発せられた表示光が画素毎に集光される。
 図2,4に示すレンチキュラレンズ35は、表示部20と反射部3aとの間の光路上に配置されている。当該光路上において、レンチキュラレンズ35は、マイクロレンズアレイ30よりも反射部3a側に配置されている。レンチキュラレンズ35は、例えばガラスないしは合成樹脂により形成され、透光性を有している。レンチキュラレンズ35は、複数のシリンドリカルレンズ素子36を例えば長手方向の1方向(これを配列方向ADと称する)に配列して、板状に形成されている。シリンドリカルレンズ素子36の配列ピッチは、マイクロレンズ素子31及び画素の配列ピッチよりも、十分に大きく設定されている。
 各シリンドリカルレンズ素子36は、短手方向に沿って延伸するように配置されている。各シリンドリカルレンズ素子36は、画像表示パネル21側に、各シリンドリカルレンズ素子36間で共通の入射側光学面37を、マイクロレンズアレイ30と対向するように平面状に形成している。また、各シリンドリカルレンズ素子36は、反射部3a側に、各シリンドリカルレンズ素子36に個別の射出側光学面38を、その配列方向ADを含む縦断面において凸状に湾曲する凸シリンドリカル面状に形成している。
 そして、図5に示すように、画像表示パネル21の表示画面21a上には、各シリンドリカルレンズ素子36に対して個別に対応する短冊状の短冊画像領域SAが設定されている。各短冊画像領域SAは、各シリンドリカルレンズ素子36の外輪郭を、表示画面21a上に仮想的に投影した投影外輪郭に囲まれた領域として(換言すると表示制御上の仮想領域として)、設定されている。シリンドリカルレンズ素子36は、互いに重複せずに隙間なく配列されているので、短冊画像領域SAも、互いに重複せずに隙間なく配列されている。各短冊画像領域SAは、配列方向ADに複数の画素を含むような幅に設定されている。
 各短冊画像領域SAから射出される表示光が、当該短冊画像領域SAに個別に対応するシリンドリカルレンズ素子36に入射するようになっている。シリンドリカルレンズ素子36による屈折作用によって、同一の短冊画像領域SAに属し、配列方向ADに互いにずれた位置の各画素から射出される各表示光は、レンチキュラレンズ35を透過することに伴って、配列方向ADを含む縦断面において互いに異なる方向へ屈折されることとなる。
 図3に示す制御ユニット40は、いわゆるコンピュータであり、少なくとも1つのプロセッサ、メモリ装置、入出力インターフェースを含む電子回路を主体として構成されている。プロセッサは、メモリ装置に記憶されているコンピュータプログラムを実行する演算回路である。メモリ装置は、例えば半導体メモリ等によって提供され、プロセッサによって読み取り可能なコンピュータプログラムを非一時的に格納するための非遷移的実体的記憶媒体である。
 制御ユニット40は、表示部20と通信可能に接続されている。加えて、制御ユニット40は、通信を用いた電気信号の入力によって、融像調整操作装置60、DSM70、及び描画ECU72等からの各種情報を取得可能に構成されている。なお、制御ユニット40と各要素との間の通信においては、有線通信、無線通信を問わず各種の好適な通信方式が採用され得る。
 制御ユニット40は、データ用意部41及び画像制御部42等を、コンピュータプログラムの実行により演算処理を行なう機能部(制御部ともいう)として備える。データ用意部41は、画像制御部42において用いられるデータを用意する。具体的に、データ用意部41は、後述する視差画像PI1,PI2の未回転データを、例えば描画ECU72から取得することにより、用意する。なお、未回転データとは、視差画像PI1,PI2が実体的な回転を伴わずに表示されることを前提として生成されたデータである。
 描画ECU72は、いわゆるコンピュータであり、少なくとも1つのプロセッサ、メモリ装置、入出力インターフェースを含む電子回路を主体として構成されている。描画ECU72は、車両1の各種機器又は車外から取得した情報に基づいて、HUD装置10に表示するための視差画像PI1,PI2の未回転データを、生成する。
 画像制御部42は、画像表示パネル21の表示画面21aに表示される画像を制御する。図5に示すように、画像制御部42は、上述の如く、表示画面21aの各短冊画像領域SAを仮想的に設定し、さらに各短冊画像領域SAをシリンドリカルレンズ素子36の配列方向ADに分割した細切りの視差画像領域PA1,PA2を仮想的に設定した上で、表示画面21aに表示される画像を制御する。同一の短冊画像領域SAに属する視差画像領域PA1,PA2は、典型的には、視認領域EBに設定される視点VP1,VP2の全数と同数となるように、設定される。
 特に本実施形態では、左眼に対応する左眼用の視点VP1と、右眼に対応する右眼用の視点VP2との合計2つの視点が、視認領域EBの互いに異なる位置に設定されているので、各短冊画像領域SAは2分割される。すなわち、同一の短冊画像領域SAに属する視差画像領域PA1,PA2は、左眼用の視差画像領域PA1と、右眼用の視差画像領域PA2の2つ設定される。表示画面21a全体からみれば、左眼用の視差画像領域PA1と、右眼用の視差画像領域PA2とが、配列方向ADに沿って1つずつ交互に並んでいることになる。
 同一の短冊画像領域SAに属する各視差画像領域PA1,PA2では、視認領域EBに設定される各視点VP1,VP2と個別に対応付けられた視差画像PI1,PI2が表示される。本実施形態では、左眼用の視差画像領域PA1において、左眼用の視差画像PI1が表示され、右眼用の視差画像領域PA2において、右眼用の視差画像PI2が表示される。各視差画像領域PA1,PA2に表示された各視差画像PI1,PI2からの表示光が、シリンドリカルレンズ素子36において互いに異なる方向へ屈折されることにより、その後の反射部3aでの互いに異なる位置での反射を経て、視認領域EBにおいて個別に対応する視点VP1,VP2の位置に到達する。
 こうした視差画像PI1,PI2が、各短冊画像領域SAにおいて同様に表示される。これにより、左眼用の視点VP1には、各短冊画像領域SA内の視差画像領域PA1の表示光が、各シリンドリカルレンズ素子36を経て向かうこととなる。これにより、左眼用の視点VP1では、左眼用の各視差画像領域PA1に表示された画像が、繋ぎ合わされたように一体的に、左眼用の視差画像PI1の虚像VR1として、表示される。同様に、右眼用の視点VP2には、各短冊画像領域SA内の視差画像領域PA2の表示光が、各シリンドリカルレンズ素子36を経て向かうこととなる。これにより、右眼用の視点VP2では、右眼用の各視差画像領域PA2に表示された画像が、繋ぎ合わされたように一体的に、右眼用の視差画像PI2の虚像VR2として、表示される。
 したがって、各シリンドリカルレンズ素子36は、これと個別に対応する短冊画像領域SAから射出される表示光を、複数(本実施形態では2つ)の視点VP1,VP2に分割する視点分割素子として機能する。本実施形態では、シリンドリカルレンズ素子36の配列方向ADが左右方向に沿っており、配列方向ADにパワーを有している。そして、図2に示すように、視認領域EBにおける視点VP1,VP2の位置も互いに左右方向にずれている。
 なお、シリンドリカルレンズ素子36により分割される視点は、「点」で表現しているが、幾何学的な「点」というよりは、視るための「位置」を意味している。したがって、視認領域EBにおける各視点VP1,VP2は、実際には、有限の領域をもつものとなっている。本実施形態では、例えば、視認領域EBのうち左側半分が、左眼に対応した左眼用の視点VP1に設定され、視認領域EBのうち右側半分が右眼に対応した右眼用の視点VP2に設定されている。
 乗員の左眼が左眼用の視点VP1に重なることによって、左眼からは左眼用の視差画像PI1の虚像VR1がウインドシールド3を挟んで視認領域EBとは反対側に視認される。また、乗員の右眼が右眼用の視点VP2に重なることによって、右眼からは右眼用の視差画像PI1の虚像VR1がウインドシールド3を挟んで視認領域EBとは反対側に視認される。画像制御部42により、左眼用の視差画像PI1と、右眼用の視差画像PI2との間には、両視点VP1,VP2の左右の位置のずれに基づいた視差が設定されている。
 こうした視差の影響を受け、表示光によって乗員に認識される映像は、虚像VR1,VR2そのものというよりは、虚像VR1,VR2とは異なる距離に浮かび上がる立体映像となる。ただしそれは、虚像VR1,VR2の融像が良好に行われることが前提となる。すなわち乗員は、両眼視において、左眼の網膜に結像される像と、右眼の網膜に結像される像とを融像することによって、立体映像を認識することができる。
 さて、左眼用の視差画像領域PA1から発せられ、左眼に対応した視点VP1に至る表示光と、右眼用の視差画像領域PA2から発せられ、右眼に対応した視点VP2に至る表示光とは、上記左右の位置のずれに基づいて、互いに異なる経路を経る。具体的に、前者の表示光と、後者の表示光とは、ウインドシールド3の反射部3aにおいて、例えば左右にずれた位置で反射されることとなる。反射部3aは、上述のように滑らかな凹状湾曲を呈する曲面状となっているため、互いに左右にずれた位置では、その面法線VNの方向に差異が存在する。
 ここで、このような表示光の経路に対して、仮に、表示画面21a上の左眼用の視差画像PI1の上方向UDと、右眼用の視差画像PI2の上方向UDとを、同じ方向に表示する比較例の場合(図6参照)を考える。ここでいう上方向UDとは、観察者(すなわち乗員)が当該画像を見た場合に、上として最も違和感少なく認識できる方向であり、例えば「A」という文字が表示された場合であれば、当該文字の鋭角の突出方向が該当する。
 そうすると、図8,9に示すように、左眼用の視差画像PI1の表示光が反射される反射部3aの位置の面法線VNの方向が入射面上にない場合には、左眼用の視差画像PI1の虚像VR1の上方向UDは、当該反射部3aを原因として回転する。また、右眼用の視差画像PI2の表示光が反射される反射部3aの位置の面法線VNの方向が入射面上にない場合には、右眼用の視差画像PI2の虚像VR2の上方向UDは、当該反射部3aを原因として回転する。ここで、各表示光に対する面法線VNの方向には差異が存在しているので、左眼用の虚像VR1の上方向UDの実体的な回転量(以下、実体回転量)と、右眼用の虚像VR2の上方向UDの実体回転量とが異なる。故に比較例では、図7に示すように、左眼用の虚像VR1と右眼用の虚像VR2との間で、上方向UDがばらばらになる。すなわち、両虚像VR1,VR2間で回転倒れ差が生じる。この結果、乗員が両虚像VR1,VR2を良好に融像することが困難となり、立体映像がそもそも認識できない、又は認識できたとしても、眼や脳に大きな負担がかかり、疲労が発生するといった事態が想定される。
 そこで、図7に示すように、本実施形態において画像制御部42は、表示画面21a上において、左眼用の視差画像領域PA1に表示される視差画像PI1の上方向UDと、右眼用の視差画像領域PA2に表示される視差画像PI2の上方向UDとが、互いに異なるように、画像表示パネル21を制御する。
 具体的に、画像制御部42は、左眼用の視差画像PI1の未回転データを、視点VP1に対して個別に設定された回転量(以下、設定回転量)分だけ回転させる回転処理を実施した上で、左眼用の視差画像領域PA1に回転後の当該視差画像PI1を表示する。また、画像制御部42は、右眼用の視差画像PI1の未回転データを、視点VP2に対して個別に設定された設定回転量分だけ回転させる回転処理を実施した上で、右眼用の視差画像領域PA2に当該視差画像PI2を表示する。これら設定回転量は、左眼用の視差画像PI1と右眼用の視差画像PI2との間で異なるものである。各設定回転量は、予めメモリ装置に記憶されているか、画像制御部42によって随時算出される。
 表示画面21a上の上方向UDが、予め異なるように制御されることによれば、上記実体回転量の差が、設定回転量の差によって相殺される。故に、左眼用の虚像VR1の上方向UDと、右眼用の虚像VR2との上方向UDとを、近づけることができる。このため、乗員による両虚像VR1,VR2の融像が容易となる。各虚像VR1,VR2の実体的な回転とは逆まわりに、未回転データを回転させて表示画面21a上の各視差画像PI1,PI2を表示させることによって、良好な融像を実現することができる。
 なお、図6,7では、表示画面21a上の視差画像PI1,PI2は、完全に分離した別の領域に模式的に図示されているが、実際には、上述のように、配列方向ADに交互に並ぶ細切りの視差画像領域PA1,PA2に、細切りに分割された状態で表示される。また、実際には、表示光が反射部3aに反射されることを原因として、虚像VR1,VR2が入射面に垂直な面を対称軸として反転する(図9も参照)ので、その影響も考慮して、表示画面21a上の視差画像PI1,PI2が表示される。
 またなお、図6,7では、虚像VR1,VR2は、完全に分離した別の領域に模式的に図示されているが、実際には、視差分の左右のずれが伴うものの、殆ど重なった位置に表示される。さらに、図6,7における上方向UDの矢印は、実際に表示されるものではない。
 ここで、より詳細な理解のために、ウインドシールド3の反射部3aの形状が、例えば以下の数式1で表される場合を考える。ここで、座標系(x,y)が定義される(図8,9も参照)。xは、車両1における左右方向(以下、x方向とも称する)の座標であり、yは、車両1における上下方向(以下、y方向とも称する)の座標である。Zは、x方向及びy方向に垂直な方向の座標である。
 Z=A1・x+A2・y+A3・x+A4・x・y+A5・y
(数式1)
 x方向の面法線VN(面法線のx方向成分)は、以下の数式2で与えられる。
 dZ/dx=A1+2・A3・x+A4・y       (数式2)
 左眼と右眼との間隔(すなわち瞳孔間隔)の一般的な値は65mmである。そして、左眼用の視差画像の表示光が反射される反射部3a内の位置と、右眼用の視差画像の表示光が反射される反射部3a内の位置とが、x方向に65mm離れているとする。そうすると、両位置間における面法線VNの差ΔNは、以下の数式3で表される。
 ΔN=dZ(32.5,0)/dx-dZ(-32.5,0)/dx=130・A3      (数式3)
 ウインドシールド3の反射部3aにおける曲率半径が一般的な2000mmのとき、A3は、以下の数式4で表される。
 A3=1/(2・2000)=0.00025      (数式4)
 したがって、回転倒れ差Δθは、以下の数式5で表される。数式5において、角度[′]の単位は、分(1度の60分の1)を表している。なお、図10,11では分の単位を[arc-min]と記載している。
 Δθ=atan(ΔN)=111[′]         (数式5)
 図10には、反射部3aの曲率半径とΔθとの関係が示されている。これによれば、曲率半径が小さい程、Δθが大きくなることがわかる。
 さて、双眼鏡等の光学的性能に関する規格(JISB7121:2007)においては、像の倒れ差の許容値として、40分(一般品Aの場合)が規定されている。すなわち、立体映像を良好に融像するためには、両虚像VR1,VR2の回転倒れ差が、20分以下になるように逆算して、表示画面21a上の左眼用の視差画像PI1の上方向UDと、右眼用の視差画像PI2の上方向UDとの設定回転量の差を設定することが好ましい。
 これに基づけば、両視差画像PI1,PI2間の設定回転量の差は、atan(ΔN)-20[′]以上、かつ、atan(ΔN)+20[′]以下の範囲に設定することができる。
 また、瞳孔間隔には、個人差が存在する。図11に示すように、瞳孔間隔が変わると、回転ずれ量も変化する。このため、瞳孔間隔の個人差に応じて、設定回転量が調整可能であることが好ましい。本実施形態のHUD装置10において融像調整は、制御ユニット40と通信可能に接続された融像調整操作装置60を用いて実施されるようになっている。
 融像調整操作装置60は、虚像VR1,VR2を視認する乗員の操作を受け付ける装置である。融像調整操作装置60は、例えばステアリング4、インストルメントパネル2の中央部分等、車両1において虚像VR1,VR2を視認する乗員が操作し易い位置に設置されている。
 融像調整操作装置60は、複数のスイッチ61a,61b,61c及び出力部62等により構成されている。複数のスイッチには、左回転スイッチ61a及び右回転スイッチ61b等の回転スイッチ、並びに確定スイッチ61cが含まれている。左回転スイッチ61aは、HUD装置10が表示する虚像VR1,VR2のうち少なくとも片方を左まわりに回転させるスイッチ、換言すると上述の設定回転量を変更するスイッチである。右回転スイッチ61bは、HUD装置10が表示する虚像VR1,VR2を右まわりに回転させるスイッチ、換言すると上述の設定回転量を変更するスイッチである。確定スイッチ61cは、乗員が設定した設定回転量を確定するスイッチである。
 本実施形態において、各スイッチ61a,61b,61cは、乗員の押下操作によって作動する機械式のプッシュスイッチとなっている。融像調整操作装置60において、左回転スイッチ61aは、最も左側に配置され、右回転スイッチ61bは、最も右側に配置され、確定スイッチ61cは、左回転スイッチ61aと右回転スイッチ61bとの間に配置されている。
 出力部62は、各スイッチ61a,61b,61cが操作された結果を出力する。出力部62は、各スイッチ61a,61b,61cの押下状態及び非押下状態を判別し、電気的なアナログ信号又はデジタル信号を生成する回路、及び当該回路の信号を外部に出力可能とする端子等により構成されている。
 画像制御部42は、例えば車両1のエンジンスイッチがオンになると、融像調整処理を開始するようになっている。この融像調整処理について、図12のフローチャートを用いて以下に説明する。
 S10では、画像制御部42は、サンプルの視差画像PI1,PI2を起動し、表示画面21aに表示する。例えば初期状態として、左眼用のサンプルの視差画像PI1及び右眼用のサンプルの視差画像PI1を、回転処理をしない未回転データのまま表示画面21aに表示する。回転処理をしない場合、表示画面21a上において、左眼用のサンプルの視差画像PI1の上方向UDと、右眼用のサンプルの視差画像PI2の上方向UDとが、同じ方向に表示される。換言すると、左眼用の虚像VR1の上方向UDと、右眼用の虚像VR2の上方向UDとは、不一致の状態となっている。S10の処理後、S20へ移る。
 S20では、画像制御部42は、左眼用のサンプルの視差画像PI1及び右眼用のサンプルの視差画像PI2のうち、片方だけを回転可能とし、もう片方を回転不能(すなわち固定状態)とする。この状態を、片方回転モードと称する。以下では、左眼用のサンプルの視差画像PI1が回転可能であり、右眼用のサンプルの視差画像PI2が回転不能であるものとして説明を続ける。S20の処理後、S30へ移る。
 S30では、画像制御部42は、融像調整操作装置60からの操作を受け付ける。片方回転モードでは、回転スイッチ61a,61bが操作されると、調整操作が検出され、この結果に基づいて、回転可能な視差画像PI1だけ、すなわち左眼用のサンプルの視差画像PI1だけが回転する。具体的に、左回転スイッチ61aが操作されると、左眼用の視差画像PI1及び虚像VR1だけが左まわりに回転し、右回転スイッチ61bが操作されると、左眼用の視差画像PI1及び虚像VR1だけが右まわりに回転する。他方、右眼用の視差画像PI2及び虚像VR2は、一切回転しない。したがって、両視差画像PI1,PI2の設定回転量の差を直接的かつ直感的に調整することができる。
 また、乗員は、回転スイッチ61a,61bの操作によって両視差画像PI1,PI2を融像できるようになったら、確定スイッチ61cを操作することにより、融像できることをHUD装置10に伝達することができる。S30の処理後、S40へ移る。
 S40では、画像制御部42は、乗員が左眼用の虚像VR1と右眼用の虚像VR2とを、融像できているか否かを判定する。具体的に本実施形態では、確定スイッチ61cが操作されている場合、融像できていると判定し、確定スイッチ61cが操作されてない場合、融像できていないと判定する。S40にて肯定判定が下された場合、S50へ移る。S40にて否定判定が下された場合、S30へ戻り、操作の受付を継続する。
 S50では、画像制御部42は、左眼用のサンプルの視差画像PI1及び右眼用のサンプルの視差画像PI2のうち、両方を回転可能とする。すなわち、画像制御部42は、片方回転モードを終了し、両方回転モードを開始する。S50の処理後、S60へ移る。
 S60では、画像制御部42は、再び融像調整操作装置60からの操作を受け付ける。両方回転モードでは、回転スイッチ61a,61bが操作されると、調整操作が検出され、この結果に基づいて、両視差画像PI1,PI2が実質的に同量回転する。したがって、立体映像全体の上方向UDを、調整することができる。
 また、乗員は、立体映像全体の上方向UDを合わせたら、確定スイッチ61cを操作することにより、調整を完了することができる。S60の処理後、S70へ移る。
 S70では、画像制御部42は、初期状態での視差画像PI1の上方向UDと、調整後の視差画像PI2の上方向UDとの角度差から、視差画像PI1の設定回転量を設定する。視差画像PI2についても同様の設定が行われる。画像制御部42は、設定した各設定回転量を、メモリ装置に書き込む。S70を以って、融像調整処理を終了し、画像制御部42は、通常の表示を開始する。
 通常の表示においては、例えば車両1の速度、燃料残量等の車両1の状態を示す情報、又は視界補助情報、道路情報等のナビゲーション情報等が立体映像を用いて表示される。ただし、全ての表示を立体映像として表示することは、必ずしも要求されない。
 このように、本実施形態では、片方回転モードにおける設定回転量の差の調整と、両方回転モードにおける立体映像全体の上方向の調整とが、個別に実施可能となっている。
 本実施形態において、画像制御部42は、通常の表示中においても、設定回転量を補正して、両視差画像PI1,PI2を表示することが可能となっている。具体的に、画像制御部42は、ドライバステータスモニタ(DSM)70から入力された情報により、設定回転量を補正する。
 DSM70は、乗員の顔を撮像し、その画像を解析することで、乗員の左眼の位置及び右眼の位置を検出し、さらには、乗員の居眠りやわき見を監視する。DSM70は、例えばインストルメントパネル2、ウインドシールド3の上方等、車両1において、乗員の顔を撮影し易い位置に設置されている。DSM70は、照明部、カメラ及び画像解析部等により構成されている。
 照明部は、乗員の顔を照明光により照明する。照明光は、乗員に感知され難いことが好ましいので、照明部には、照明光として近赤外光を用いた近赤外光源が採用されている。カメラは、乗員の顔を撮影対象として撮影する。カメラは、撮像素子、及び撮像素子上に撮影対象を結像するためのレンズ部を有している。撮像素子には、例えばCMOSセンサ等、近赤外光に良好な感度を持ち、検出する像の解像度が高い素子が採用されている。画像解析部は、撮像素子による画像データを解析する。解析により得られた乗員の左眼の位置及び右眼の位置が画像制御部42へ向けて逐次出力される。
 画像制御部42は、通常の表示中において、DSM70から乗員の左眼の位置及び右眼の位置を取得し、これら位置の融像調整処理の実施時からの変位量に基づいて、設定回転量を補正する。例えば、乗員が首を傾げた場合には、実質的にx方向における瞳孔間隔が小さくなるので、設定回転量の差が小さくなるような補正を実施する。
 なお、本実施形態では、左眼用の視点VP1、左眼用の視差画像領域PA1及び左眼用の視差画像PI1がそれぞれ第1視点、第1領域及び第1視差画像に対応し、右眼用の視点VP2、右眼用の視差画像領域PA2及び右眼用の視差画像PI2がそれぞれ第2視点、第2領域及び第2視差画像に対応している。ただし、左と右とを入れ替えて対応させることも可能である。
 (作用効果)
 以上説明した第1実施形態の作用効果を以下に改めて説明する。
 第1実施形態によると、表示部20の表示画面21aにおいて、視差画像PI1が表示される視差画像領域PA1から発せられる表示光は、視認領域EBのうち視点VP1に向かい、視差画像PI2が表示される視差画像領域PA2から発せられる表示光は、視認領域EBのうち、視点VP1とは異なる位置である視点VP2へと向かう。視差画像PI1の表示光の経路と視差画像PI2の表示光の経路とが異なると共に、各表示光は、反射部3aに反射されて視認領域EBの各視点VP1,VP2へ到達することとなる。このため、視差画像PI1による虚像VR1の上方向UDは、表示画面21a上の視差画像PI1の上方向UDに対して、反射部3aでの反射を原因として実体的に回転され、また、視差画像PI2による虚像VR2の上方向UDは、表示画面21a上の視差画像PI2の上方向UDに対して、視差画像PI1とは異なる回転量だけ回転される。
 これに対し、表示部20の表示画面21a上において、視差画像領域PA1に表示される視差画像PI1の上方向UDと、視差画像領域PA2に表示される視差画像PI2の上方向UDとは、互いに異なる。元々の表示画面21a上の上方向UDを異ならせておくことで、回転後の虚像VR1の上方向UDと、回転後の虚像VR2の上方向UDを、近づけることが可能となる。そうすると、視点VP1と視点VP2との視差に基づいた視差画像PI1及び視差画像PI2が、虚像VR1,VR2として表示されても、当該視差により合致した表示形態となる。以上により、観察者に、視差画像PI1の虚像VR1と、視差画像PI2の虚像VR2とを、視点VP1と視点VP2との視差に基づいて融像させることが容易となり、観察者が立体映像を良好に認識することができる。
 また、第1実施形態によると、用意した視差画像PI1の未回転データは、所定の第1回転量にて回転する処理が実施された上で、視差画像PI1として表示画面21a上に表示される。また、視差画像PI2の未回転データは、所定の第2回転量にて回転する処理が実施された上で、視差画像PI2として表示画面21a上に表示される。元々の表示画面21a上に表示される視差画像PI1及び視差画像PI2を互いに異なる第1回転量及び第2回転量にて回転させておくことで、反射部3aでの反射を原因とした実体的な回転量が、視差画像PI1と視差画像PI2との間で異なっていたとしても、その実体的な回転量の差の少なくとも一部を相殺できる。そうすると、視点VP1と視点VP2との視差に基づいた視差画像PI1及び視差画像PI2が、虚像VR1,VR2として表示されても、当該視差により合致した表示形態とすることができる。以上により、観察者に、視差画像PI1の虚像VR1と、視差画像PI2の虚像VR2とを、視点VP1と視点VP2との視差に基づいて融像させることが容易となり、観察者が立体映像を良好に認識することができる。
 また、第1実施形態によると、虚像VR1,VR2を視認する観察者の調整操作の検出結果に基づいて、第1回転量及び第2回転量が調整される。このようにすると、観察者が実際に虚像VR1,VR2を視認して、融像状態を確認しながら調整を実施することができるので、立体映像を良好に認識されることができる。
 さらには、瞳孔間隔の個人差に基づいて、視差画像PI1の表示光の経路及び視差画像PI2の表示光の経路が変わることにより、虚像VR1,VR2の実体的な回転量は変わってしまうが、上記調整により、瞳孔間隔の個人差に基づく回転量の変化を補正することが可能となる。ゆえに、観察者それぞれの瞳孔間隔に合わせた良好な立体映像を認識させることができる。
 また、第1実施形態によると、第1回転量及び第2回転量の調整において、片方調整モードと両方調整モードとが切り替え可能である。片方回転モードでは、第1回転量及び第2回転量のうち、片方を変更可能とし、もう片方を変更不能とすることにより、設定回転量の差が調整される。両方回転モードでは、第1回転量及び第2回転量の両方をまとめて同量変更可能とすることにより、立体映像全体の上方向が調整される。このように、設定回転量の差の調整と、立体映像全体の上方向の調整とを、個別に実施可能であるので、円滑に融像の調整を実施することができる。
 また、立体映像を全く融像できていない状態で立体映像全体の上方向を調整することは、極めて困難であるが、第1実施形態によると、両方調整モードは、片方調整モードの終了後に開始される。すなわち、先に設定回転量の差の調整を実施することにより、立体映像を多少なりとも融像できる状態にしておき、その上で立体映像全体の上方向を調整することで、円滑に融像の調整を実施することができる。
 また、第1実施形態によると、視差画像PI1による虚像VR1の上方向UDと、視差画像PI2による虚像VR2の上方向UDとの角度差は、20[′]以下である。このように視差画像PI1及び視差画像PI2を表示することにより、立体映像がそもそも認識できない、又は認識できたとしても、眼や脳に大きな負担がかかり、疲労が発生するといった事態を回避することができる。
 また、第1実施形態によると、融像調整操作装置60には、回転スイッチ61a,61bが設けられている。このような回転スイッチ61a,61bを操作した結果が出力されることによって、左眼用の視差画像PI1及び右眼用の視差画像PI2のうち少なくとも片方を、回転させることができる。視差画像PI1,PI2を回転させる調整を可能としたことで、立体映像の表示において、例えば表示画面21aを直接見ないで、画像の表示光を反射部3aに反射させる等の表示形態を採用したとしても、反射部3aを原因とした立体映像の回転を修正して、融像を容易にすることができる。
 また、第1実施形態によると、左眼用の視差画像PI1及び右眼用の視差画像PI2の融像状態の調整において、片方調整モードと両方調整モードとが切り替え可能である。片方回転モードでは、回転スイッチ61a,61bが、左眼用の視差画像PI1及び右眼用の視差画像PI2のうち、片方だけを回転させることにより、回転倒れ差が調整される。両方回転モードでは、回転スイッチ61a,61bが、左眼用の視差画像PI1及び右眼用の視差画像PI2の両方をまとめて同量回転させることにより、立体映像全体の上方向が調整される。このように、回転スイッチ61a,61bの機能を切り替えることで操作する者がスイッチの多さに戸惑うことを抑制しつつ、回転倒れ差の調整と、立体映像全体の上方向の調整とを、個別に実施可能であるので、円滑に融像の調整を実施することができる。
 (他の実施形態)
 以上、一実施形態について説明したが、本開示は、当該実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
 具体的に変形例1としては、反射部3aは、表示光を反射するものであれば、ウインドシールド3以外に設けられる要素と対応付けられてもよい。例えば車両1の別体のコンバイナを、車両1内に設置して、当該コンバイナに反射部3aが設けられていてもよい。また例えば、表示部20とウインドシールド3との間の光路上に、反射鏡(例えば凹面鏡)を設置した形態において、反射鏡及びウインドシールド3がそれぞれ反射部3aとして機能していてもよい。
 変形例2としては、レンチキュラレンズ35に代えて、視点分割素子として機能する視差バリアにより、視点を分割するようにしてもよい。
 変形例3としては、表示部20には、液晶式の表示器以外の表示器が採用されてもよい。表示部20には、レーザ光束を走査することによりスクリーンに画像を描画するレーザスキャナ方式の表示器が採用されていてもよい。この場合、スクリーンが表示画面21aに相当する。また、表示部20には、DMD(Digital Micromirror Device)を用いたDLP(Digtal Light Processing;登録商標)方式の表示器が採用されてもよい。この場合、DMDが表示画面21aに相当する。
 変形例4としては、表示部20及び表示画面21aは、複数の分割体に分割されていてもよい。例えば、1つの分割体に第1領域を設定し、他の1つの分割体に第2領域を設定することができる。具体的に、左眼用の表示器と右眼用の表示器を別々に用意することができる。あるいは、左眼用の表示画面21aを有する透光性の自発光ディスプレイと、右眼用の表示画面21aを有する透光性の自発光ディスプレイとを、2枚重ねることによって、2つの表示画面21aを有する1つの表示器を形成することもできる。
 変形例5としては、視点は、左眼用の視点VP1及び右眼用の視点VP2の2つに限られない。例えば、視認領域EBに多数の視点を設定した超多眼表示が採用されてもよい。すなわち、第3,4,5,・・・の視点、視差画像領域及び視差画像が存在していてもよい。この場合に、左右方向だけでなく、上下方向にずれた複数の視点が設定されていてもよい。また、この場合に、表示画面21a上において、互いに上方向が同じ視差画像が一部含まれていてもよい。
 変形例6としては、データ用意部41は、HUD装置10内のメモリ装置に記憶された視差画像PI1,PI2の未回転データを、当該メモリ装置から読み出すことによって用意してもよい。また、データ用意部41は、視差画像PI1,PI2の未回転データを、自ら生成するようにしてもよい。
 変形例7としては、融像調整操作装置60において、回転スイッチ61a,61bは、機械式のダイヤルスイッチであってもよい。また、各スイッチ61a,61b,61cは、機械式でなく、タッチパネル式ディスプレイに画像として一時的又は恒常的に表示される画像スイッチであってもよい。
 変形例8としては、融像調整操作装置60は、上記画像スイッチを表示可能に形成されたカーナビゲーション装置、スマートフォン等であってもよい。
 変形例9としては、融像調整処理は、融像調整操作装置60での押下操作に代えて、観察者のジェスチャ操作を受け付けることによって実施されてもよい。ジェスチャ操作は、DSM70又は専用の車内カメラ等により検出することができる。
 変形例10としては、融像調整処理は、車両1のエンジンスイッチがオン状態になる毎に実施されなくてもよい。例えば車両1の購入時又は暇な時等に予め融像の調整しておき、その時に記憶された設定回転量を、虚像表示装置の起動時に呼び出すようにしてもよい。
 変形例11としては、片方調整モードと、両方調整モードとは、手動操作で切り替え可能としてもよい。
 変形例12としては、虚像表示装置は、航空機、船舶、あるいはゲーム筐体等の移動しない筐体等の各種の乗り物に適用することができる。また、虚像表示装置は、ヘッドマウントディスプレイ等の携帯情報端末に適用することができる。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。

Claims (9)

  1.  表示光を反射部(3a)に反射させて、視認領域(EB)から視認可能な虚像(VR1,VR2)を表示する虚像表示装置であって、
     前記表示光を発する表示画面(21a)を有する表示部(20)と、
     前記表示画面に、前記視認領域のうち第1視点(VP1)に向かうこととなる前記表示光を発する第1領域(PA1)と、前記視認領域のうち前記第1視点とは異なる位置である第2視点(VP2)に向かうこととなる前記表示光を発する第2領域(PA2)と、を設定し、前記第1視点と前記第2視点との視差に基づく視差画像を、前記第1領域に第1視差画像(PI1)として、及び前記第2領域に第2視差画像(PI2)として、それぞれ表示するように、前記表示部を制御する画像制御部(42)と、を備え、
     前記画像制御部は、前記表示画面上において、前記第1領域に表示される前記第1視差画像の上方向(UD)と、前記第2領域に表示される前記第2視差画像の上方向と、が互いに異なるように、前記第1視差画像及び前記第2視差画像を表示させる虚像表示装置。
  2.  前記第1視差画像の未回転データ及び前記第2視差画像の未回転データを用意するデータ用意部(41)を、さらに備え、
     前記画像制御部は、前記第1視差画像の未回転データを所定の第1回転量にて回転する処理を実施した上で、前記第1視差画像として前記表示画面上に表示すると共に、前記第2視差画像の未回転データを前記第1回転量とは異なる第2回転量にて回転する処理を実施した上で、前記第2視差画像として前記表示画面上に表示する請求項1に記載の虚像表示装置。
  3.  表示光を反射部(3a)に反射させて、視認領域(EB)から視認可能な虚像(VR1,VR2)を表示する虚像表示装置であって、
     前記表示光を発する表示画面(21a)を有する表示部(20)と、
     前記表示画面に、前記視認領域のうち第1視点(VP1)に向かうこととなる前記表示光を発する第1領域(PA1)と、前記視認領域のうち前記第1視点とは異なる位置である第2視点(VP2)に向かうこととなる前記表示光を発する第2領域(PA2)と、を設定し、前記第1視点と前記第2視点との視差に基づく視差画像を、前記第1領域に第1視差画像(PI1)として、及び前記第2領域に第2視差画像(PI2)として、それぞれ表示するように、前記表示部を制御する画像制御部(42)と、
     前記第1視差画像の未回転データ及び前記第2視差画像の未回転データを用意するデータ用意部(41)と、を備え、
     前記画像制御部は、前記第1視差画像の未回転データを所定の第1回転量にて回転する処理を実施した上で、前記第1視差画像として前記表示画面上に表示すると共に、前記第2視差画像の未回転データを前記第1回転量とは異なる第2回転量にて回転する処理を実施した上で、前記第2視差画像として前記表示画面上に表示する虚像表示装置。
  4.  前記画像制御部は、前記虚像を視認する観察者の調整操作を検出可能に構成され、その検出結果に基づいて、前記第1回転量及び前記第2回転量を、調整する請求項2又は3に記載の虚像表示装置。
  5.  前記画像制御部は、前記第1回転量及び前記第2回転量の調整において、
     前記第1回転量及び前記第2回転量のうち、片方を変更可能とし、もう片方を変更不能とする片方調整モードと、
     前記第1回転量及び前記第2回転量の両方をまとめて同量変更可能とする両方調整モードと、を切り替え可能である請求項4に記載の虚像表示装置。
  6.  前記両方調整モードは、前記片方調整モードの終了後に開始される請求項5に記載の虚像表示装置。
  7.  前記第1視差画像による前記虚像の上方向と、前記第2視差画像による前記虚像の上方向との角度差は、20[′]以下である請求項1から6のいずれか1項に記載の虚像表示装置。
  8.  立体映像の表示に用いられ、左眼用の視差画像(PI1)と右眼用の視差画像(PI2)との融像状態を調整する操作を受け付ける融像調整操作装置であって、
     前記左眼用の視差画像及び前記右眼用の視差画像のうち少なくとも片方を、回転させる回転スイッチ(61a,61b)と、
     前記回転スイッチが操作された結果を出力する出力部(62)と、を備える融像調整操作装置。
  9.  前記回転スイッチが、前記左眼用の視差画像及び前記右眼用の視差画像のうち、片方だけを回転させる片方調整モードと、
     前記回転スイッチが、前記左眼用の視差画像及び前記右眼用の視差画像の両方をまとめて同量回転させる両方調整モードと、を切り替え可能に構成された請求項8に記載の融像調整操作装置。
PCT/JP2019/037153 2018-11-21 2019-09-23 虚像表示装置及び融像調整操作装置 WO2020105272A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018218569A JP6984577B2 (ja) 2018-11-21 2018-11-21 虚像表示装置
JP2018-218569 2018-11-21

Publications (1)

Publication Number Publication Date
WO2020105272A1 true WO2020105272A1 (ja) 2020-05-28

Family

ID=70773214

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/037153 WO2020105272A1 (ja) 2018-11-21 2019-09-23 虚像表示装置及び融像調整操作装置

Country Status (2)

Country Link
JP (1) JP6984577B2 (ja)
WO (1) WO2020105272A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166754A (ja) * 2010-01-14 2011-08-25 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP2015215508A (ja) * 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 表示装置及びその表示方法
WO2018142610A1 (ja) * 2017-02-06 2018-08-09 三菱電機株式会社 立体表示装置およびヘッドアップディスプレイ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6725967B2 (ja) * 2015-07-02 2020-07-22 アルパイン株式会社 画像補正装置および画像補正方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166754A (ja) * 2010-01-14 2011-08-25 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP2015215508A (ja) * 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 表示装置及びその表示方法
WO2018142610A1 (ja) * 2017-02-06 2018-08-09 三菱電機株式会社 立体表示装置およびヘッドアップディスプレイ

Also Published As

Publication number Publication date
JP2020086069A (ja) 2020-06-04
JP6984577B2 (ja) 2021-12-22

Similar Documents

Publication Publication Date Title
JP6160398B2 (ja) ヘッドアップディスプレイ装置
CN104570560B (zh) 分光机构及应用其的投影装置
CN106471417A (zh) 虚像显示装置
JP6601431B2 (ja) ヘッドアップディスプレイ装置
WO2018225309A1 (ja) 虚像表示装置、中間像形成部および画像表示光生成ユニット
JP6644265B2 (ja) 虚像表示装置
US11704779B2 (en) Head-up display device
US9684166B2 (en) Motor vehicle and display of a three-dimensional graphical object
JP7087981B2 (ja) 虚像表示装置
JP6697751B2 (ja) 車両用表示システム、電子ミラーシステム及び移動体
JP2019128389A (ja) ヘッドアップディスプレイ装置
JP6593461B2 (ja) 虚像表示装置
JP6593462B2 (ja) 虚像表示装置
WO2020105272A1 (ja) 虚像表示装置及び融像調整操作装置
JP6105531B2 (ja) 車両用投影表示装置
JP6593464B2 (ja) 虚像表示装置
JP7127415B2 (ja) 虚像表示装置
JP7354846B2 (ja) ヘッドアップディスプレイ装置
JP6697747B2 (ja) 表示システム、電子ミラーシステム及び移動体
JP6806880B2 (ja) 光学素子及び光学装置
WO2019188581A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置
JP2020073963A (ja) 虚像表示装置
JP7111070B2 (ja) ヘッドアップディスプレイ装置
JP6593393B2 (ja) 虚像表示装置
JP7111071B2 (ja) ヘッドアップディスプレイ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19887143

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19887143

Country of ref document: EP

Kind code of ref document: A1