WO2019244326A1 - 映像表示装置 - Google Patents

映像表示装置 Download PDF

Info

Publication number
WO2019244326A1
WO2019244326A1 PCT/JP2018/023746 JP2018023746W WO2019244326A1 WO 2019244326 A1 WO2019244326 A1 WO 2019244326A1 JP 2018023746 W JP2018023746 W JP 2018023746W WO 2019244326 A1 WO2019244326 A1 WO 2019244326A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
video
display device
observer
scaling
Prior art date
Application number
PCT/JP2018/023746
Other languages
English (en)
French (fr)
Inventor
勇人 菊田
秀樹 吉井
芳知 中村
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN201880094697.XA priority Critical patent/CN112313737B/zh
Priority to US17/052,218 priority patent/US11380288B2/en
Priority to PCT/JP2018/023746 priority patent/WO2019244326A1/ja
Priority to DE112018007760.8T priority patent/DE112018007760T5/de
Priority to JP2020525188A priority patent/JP6877643B2/ja
Publication of WO2019244326A1 publication Critical patent/WO2019244326A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/144Beam splitting or combining systems operating by reflection only using partially transparent surfaces without spectral selectivity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/023Display panel composed of stacked panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present invention relates to a video display device.
  • a first display unit that displays a first image that reaches an observer's eye through a half mirror that is a light-transmitting reflective panel, and a second image that reflects to the half mirror and reaches an observer's eye
  • a video display device having a second display unit for displaying the image.
  • the observer recognizes a real image as the first video and a virtual image based on the second video in a three-dimensional space.
  • the real image and the virtual image intersect each other, as an effect of the intersecting image display, the observer feels a stereoscopic effect, that is, a sense of depth in the visually recognized image (for example, see Patent Document 1).
  • the shape of the half mirror is concave when viewed from the observer, the virtual image is enlarged and recognized by the lens effect of the concave surface, so that the size of the second display unit can be reduced. Further, by making the half mirror concave, it is possible to make it difficult for reflected light of external light such as environmental light to reach the eyes of the observer.
  • the half mirror has a concave shape
  • the change in the position of the observer's eyes that is, the change in the position of the viewpoint, the intersection of the real image and the virtual image and the inclination of the virtual image with respect to the real image change
  • the observer may not be able to appropriately sense the stereoscopic effect, which is the effect of displaying the crossed image.
  • the present invention has been made in order to solve the above-described problems of the related art, and an image display apparatus that allows an observer to appropriately sense a three-dimensional effect even when the position of the observer's viewpoint changes.
  • the purpose is to provide.
  • An image display device includes a curved panel that transmits and reflects incident light, and a first image based on first image data, which reaches a predetermined position through the panel.
  • a first display unit for displaying the first image, and a second image based on second image data, wherein the second image is reflected by the panel and reaches the predetermined position.
  • a second display unit that displays an image, a position information acquisition unit that acquires position information indicating an actual viewpoint position of an observer who observes the first image and the second image, A scaling factor for each scanning line of the second video data is determined based on the scaling factor, and a scaling process for each scanning line is performed on the second video data input to the second display unit using the scaling factor.
  • a video processing unit for performing To.
  • the observer can appropriately feel the stereoscopic effect.
  • FIG. 1 is a diagram schematically illustrating a configuration of a video display device according to Embodiment 1 of the present invention.
  • FIG. 2 is a longitudinal sectional view schematically showing a structure and a virtual image plane of an optical system of the video display device according to the first embodiment.
  • FIG. 2 is a block diagram showing main components of a video processing unit of the video display device according to Embodiment 1.
  • FIG. 2 is a longitudinal sectional view schematically showing a structure of an optical system, a virtual image plane, and a real image plane of the image display device according to the first embodiment.
  • 5 is a cross-sectional view showing an example of a method of calculating a scaling factor (reduction ratio) for each scanning line in the video processing unit of the video display device according to Embodiment 1.
  • FIG. 5 is a cross-sectional view showing an example of a method of calculating a magnification (magnification) for each scanning line in the video processing unit of the video display device according to Embodiment 1.
  • FIG. FIG. 3 is a diagram showing an example of a first video and a second video displayed by the video display device according to the first embodiment.
  • 4 shows an example of a second video (that is, a second video of the comparative example) displayed on the second display unit of the video display device according to the first embodiment and having not performed scaling processing for each scanning line.
  • FIG. When the second image (that is, the second image of the comparative example) shown on the second display unit of the image display device according to the first embodiment is displayed, the virtual image of the virtual image plane visually recognized by the observer is shown.
  • FIG. 7 is a block diagram showing main components of a video processing unit of a video display device according to Embodiment 2 of the present invention.
  • FIG. 13 is a longitudinal sectional view illustrating an example of a method of calculating a scaling factor in an image processing unit of an image display device according to Embodiment 2 (that is, an example in a case where a viewpoint is at a high position).
  • FIG. 14 is a longitudinal sectional view illustrating an example of a method of calculating a scaling factor in an image processing unit of an image display device according to Embodiment 2 (that is, an example in a case where a viewpoint is at a low position).
  • FIG. 14 is a diagram illustrating an example of a first image on which scaling processing has been performed and that is displayed on a first display unit of the image display device according to Embodiment 2 (that is, an example in the case of FIG. 13); FIG.
  • FIG. 15 is a diagram illustrating an example of a first image on which scaling processing has been performed and that is displayed on a first display unit of the image display device according to Embodiment 2 (that is, an example in the case of FIG. 14).
  • FIG. 9 is a diagram schematically showing a configuration of a video display device according to Embodiment 3 of the present invention.
  • the second image shown in FIG. 8 that is, the second image of the comparative example
  • the virtual image that the observer visually recognizes is shown.
  • FIG. 14 is a block diagram showing main components of a video processing unit of a video display device according to Embodiment 4 of the present invention.
  • FIG. 17 is a diagram illustrating an example of a real image and a virtual image visually recognized by an observer in the video display device according to Embodiment 4 (that is, an example in a case where the traveling speed of the vehicle is slow).
  • FIG. 17 is a diagram showing an example of a real image and a virtual image visually recognized by an observer in the video display device according to Embodiment 4 (that is, an example in a case where the traveling speed of the vehicle is high).
  • FIG. 15 is a diagram illustrating an example of a hardware configuration of a video processing unit of a video display device according to a modification of the first to fourth embodiments.
  • an image display device according to an embodiment of the present invention will be described with reference to the accompanying drawings.
  • an example will be described in which the image display device is mounted on an instrument panel of a vehicle (for example, an automobile).
  • the video display device according to the embodiment can be used for applications other than those for vehicles.
  • the following embodiments are merely examples, and various modifications can be made within the scope of the present invention.
  • Each drawing shows coordinate axes of an xyz rectangular coordinate system as necessary.
  • the z-axis is a coordinate axis substantially parallel to the line of sight of the observer.
  • the + z-axis direction is a direction from the observer's viewpoint to the image display device.
  • the x-axis is a substantially horizontal coordinate axis orthogonal to the z-axis.
  • the x-axis direction corresponds to the direction of the horizontal scanning line of the first image and the second image.
  • the y-axis is a substantially vertical coordinate axis orthogonal to the z-axis and the x-axis.
  • the + y-axis direction is a vertically upward direction.
  • FIG. 1 is a diagram schematically showing a configuration of a video display device 100 according to Embodiment 1 of the present invention.
  • FIG. 1 shows a structure of the optical system of the image display device 100 as viewed obliquely from above, an observer 80 watching an image in the direction of the line of sight 82, and an image processing unit 150.
  • the video display device 100 according to the first embodiment includes a first display unit 10 having a display area 10a for displaying a first video, and a display area 20a for displaying a second video.
  • a panel 30 that is a light-transmitting reflective panel
  • a position information acquisition unit 40 that acquires position information of a viewpoint 81 that is the position of the eye of the observer 80
  • a first display unit A video processing unit 150 that provides the first and second display units 20 with the first and second video data A11 and A21, respectively.
  • FIG. 2 is a longitudinal sectional view schematically showing the structure and the virtual image plane 21 of the image display device 100 shown in FIG.
  • FIG. 2 shows a vertical sectional structure of the image display device 100 shown in FIG. 1 cut along a plane parallel to the yz plane.
  • the second image displayed on the display area 20 a of the second display unit 20 is projected as image light on the panel 30, and the projected image light is reflected by the panel 30 and is reflected by the observer 80.
  • a state toward 81 is shown.
  • the panel 30 is a curved plate-shaped optical element that transmits and reflects incident light. That is, the panel 30 is an optical element having a property of separating incident light into transmitted light and reflected light.
  • the panel 30 is, for example, a half mirror.
  • the half mirror is an optical element that separates incident light into transmitted light and reflected light having substantially the same intensity. However, the transmitted light and the reflected light of the half mirror may have different intensities.
  • the panel 30 may be formed of, for example, a light-transmitting material such as a glass plate or an acrylic plate, which has a higher transmitted light intensity than the reflected light intensity.
  • the panel 30 transmits only light components in a specific polarization direction.
  • An optical element having a reflective polarizing film may be used.
  • the image light emitted from the first display unit 10 can efficiently reach the observer 80 through the panel 30, and the image light emitted from the second display unit 20 is reflected by the panel 30. As a result, it is possible to efficiently reach the observer 80.
  • the panel 30 has a concave shape when viewed from the viewpoint 81 of the observer 80.
  • a cross section of the panel 30 cut by a substantially horizontal plane including a line of sight 82 from the viewpoint 81 to the panel 30, that is, a plane substantially parallel to the xz plane is a straight line.
  • a cross section of the panel 30 cut by a substantially vertical plane including the line of sight 82, that is, a plane parallel to the yz plane is arc-shaped.
  • the panel 30 has a gentle inclination near the horizontal plane (ie, the xz plane) near the upper end and a steep angle near the vertical plane (ie, the xy plane) near the lower end. It has a curved surface shape with a gentle slope.
  • the video display device 100 is, for example, a device mounted on an instrument panel of a vehicle.
  • the observer 80 is a driver of the vehicle.
  • the observer 80 is positioned above the video display device 100, that is, at a position in the + y-axis direction from the upper end of the first display unit 10, and behind the first display unit 10, that is, the first display unit.
  • An image displayed by the image display device 100 may be viewed in an environment where external light emitted from the sun or an illumination light source of another vehicle exists at a position in the + z-axis direction from 10.
  • the first display unit 10 is disposed behind the panel 30 when viewed from the observer 80, that is, at a position in the + z-axis direction from the panel 30.
  • the first display unit 10 is desirably arranged so that the display area 10a is substantially perpendicular to the line of sight 82 of the observer 80, that is, substantially parallel to the xy plane.
  • the first display unit 10 displays a first video based on the first video data A11 supplied from the video processing unit 150 in the display area 10a.
  • the first video data A11 is, for example, video data obtained by performing a scaling process on the input video data A10.
  • the scaling process includes an enlargement process and a reduction process.
  • the scaling process can include a scaling process in the vertical scanning direction and a scaling process in the horizontal scanning direction.
  • the scaling process does not need to be a scanning process for each scanning line performed by obtaining a scaling factor for each scanning line.
  • the magnification ratio includes an enlargement ratio and a reduction ratio. However, the scaling process may be a scaling process for each scanning line.
  • the first image displayed on the display area 10a of the first display unit 10 reaches a predetermined position through the panel 30.
  • the predetermined position is, for example, a position within a range in which the viewpoint 81 of the observer 80 is assumed to be present.
  • the observer 80 views the first image displayed in the display area 10
  • the second display unit 20 displays a second video based on the second video data A21 supplied from the video processing unit 150 in the display area 20a.
  • the second video data A21 is video data obtained by performing a scaling process on the input video data A20 for each scanning line.
  • the second video data A21 is video data obtained by performing a scaling process on the input video data A20 for each horizontal scanning line.
  • the second video data A21 may be video data obtained by performing both scaling processing for each horizontal scanning line and scaling processing in the vertical scanning direction on the input video data A20. .
  • the second video image based on the second video data A21 is projected on the panel 30, reflected by the panel 30, and reaches a predetermined position.
  • the predetermined position is, for example, a position within a range where the viewpoint 81 is assumed to be present, and is the same position as a position within the range where the first video is expected to reach.
  • the observer 80 recognizes the second image displayed in the display area 20 a of the second display unit 20 as a virtual image 21 a existing on the virtual image plane 21 that is farther than the panel 30.
  • the second display unit 20 is located below the panel 30 (that is, at a position in the ⁇ y-axis direction from the panel 30), and is an image based on the second image displayed in the display area 20a of the second display unit 20.
  • the display area 20 a is arranged obliquely upward so as to face the panel 30 or upward.
  • the first display unit 10 is a display device that emits video light from the display area 10a by displaying a first video on the display area 10a.
  • the second display unit 20 is a display device that emits image light from the display area 20a by displaying a second image on the display area 20a.
  • Each of the first display unit 10 and the second display unit 20 is, for example, a liquid crystal display including a transmissive liquid crystal panel and an LED (Light Emitting Diode) backlight.
  • the first display unit 10 and the second display unit 20 are, for example, a plasma emission type display, an organic EL (Electro Luminescence) display, or an LED display having a plurality of LEDs arranged in a vertical scanning direction and a horizontal scanning direction.
  • the first display unit 10 includes a projection screen including a screen set at a position where the first display unit 10 is shown in FIGS. 1 and 2 and a projector that projects an image on the screen with projection light. It may be a type display device. In this case, the projection light emitted from the projector is irregularly reflected on the screen, so that the first image traveling from the screen to the observer 80 can reach the observer 80.
  • the image light emitted from the display area 20a of the second display unit 20 is reflected by the panel 30 and directed toward the observer 80. For this reason, by providing the liquid crystal display constituting the second display unit 20 with the prism sheet for controlling the light distribution characteristics, the brightness of the virtual image 21 a that the observer 80 recognizes as existing on the virtual image plane 21 can be increased.
  • the prism sheet is an optical member having a prism surface on which a plurality of minute unit prisms are aligned.
  • the virtual image plane 21 is a virtual plane that is recognized by the observer 80 as a virtual image 21a by image light emitted from the second display unit 20, reflected by the panel 30, and reaching the eyes of the observer 80.
  • panel 30 has a curved shape
  • virtual image 21a of virtual image plane 21 recognized by observer 80 is stretched in the vertical direction as viewed from observer 80, that is, enlarged in the vertical direction. ing. Since the virtual image 21 a is formed on the reflection surface of the panel 30, the diffused light emitted from each pixel constituting the display area 20 a of the second display unit 20 does not converge at one point.
  • the diffused light emitted from each pixel forming the display area 20a of the second display section 20 is stretched in the vertical direction, that is, expanded in the vertical direction.
  • the panel 30 has a curved surface shape, the magnification of the diffused light to be stretched changes according to the position of the viewpoint 81 of the observer 80, and when the position of the viewpoint 81 changes, the appearance of the virtual image 21a on the virtual image plane 21 changes. Change.
  • the position information acquisition unit 40 acquires position information indicating the actual position of the viewpoint 81 of the observer 80 observing the video.
  • the position information acquisition unit 40 can include, for example, a camera that is an imaging device that captures the face of the observer 80, and an analysis unit that detects the position of the eye from face image data obtained by camera photography. That is, the position information acquisition unit 40 can include a sensor device that detects position information of the viewpoint 81 of the observer 80, and an analysis unit that acquires position information based on an output from the sensor device. This analysis unit may be provided in the position information acquisition unit 40, or may be provided in the video processing unit 150.
  • the video processing unit 150 may be a computer.
  • the position information acquisition unit 40 is not particularly limited as long as it can acquire position information indicating the actual position of the viewpoint 81 of the observer 80.
  • the position information acquisition unit 40 may be a device that irradiates the observer 80 with infrared rays, and detects and analyzes the light reflected by the observer 80, thereby detecting the position of the viewpoint 81.
  • the video processing unit 150 determines a scaling factor for each scan line of the second video data based on the position information indicating the actual position of the viewpoint 81 of the observer 80, and uses the scaling factor to display a second display unit.
  • the image data A20 input to 20 is subjected to scaling processing for each scanning line, and the second video data A21 subjected to scaling processing for each scanning line is output.
  • the video processing unit 150 determines the scaling factor of the video data A10 based on the position information B1 indicating the actual position of the viewpoint 81 of the observer 80, and uses the scaling factor to change the scaling factor based on the scaling factor determined for the video data A10.
  • the processing may be performed to output the first video data A11.
  • the scaling process for calculating the first video data A11 does not need to be a scaling process for each scanning line.
  • the scaling process for calculating the first video data A11 can be a scaling process for each scanning line, as in the process for calculating the second video data S12.
  • the video processing unit 150 in FIG. 1 changes the second video data A21 input to the second display unit 20 according to the position information B1 of the viewpoint 81 obtained from the position information acquisition unit 40. Even when the position of the viewpoint 81 changes, the video processing unit 150 performs the scaling process on the input video data A10 for each scanning line, so that the observer 80 can change the virtual image plane 21 in the three-dimensional space.
  • the second video data A21 is generated so as to recognize that the position and the inclination of have not changed.
  • FIG. 3 is a block diagram showing main components of the video processing unit 150 of the video display device 100 according to the first embodiment.
  • the video processing unit 150 includes a scaling processing unit 151 that can perform scaling processing on the input video data A20 for each scanning line, that is, scaling processing. It has a scaling ratio calculator 152 for determining a scaling ratio, ie, an enlargement ratio or a reduction ratio, used for processing, and a storage unit 153 for storing, as a parameter table 154, reference information used for determining the scaling ratio.
  • the video processing unit 150 includes a video data A20 indicating a second video displayed on the second display unit 20 and a viewpoint 81 obtained from the position information obtaining unit 40 for obtaining the position of the viewpoint 81 of the observer 80.
  • each scanning line is, for example, each horizontal scanning line including a plurality of pixels.
  • Each scanning line may be a vertical scanning line including a plurality of pixels, and the scaling process may be performed on both the horizontal scanning line and the vertical scanning line.
  • the scaling unit 151 receives the scaling factor for each scanning line determined by the scaling factor calculating unit 152, performs scaling processing for each scanning line on the input video data A20, and performs scaling processing for each scanning line.
  • the performed second video data A21 is output.
  • the parameter table 154 stored in the storage unit 153 is, for example, a data table storing constants required in a calculation formula used in the scaling factor calculation unit 152.
  • the data stored as the parameter table 154 includes, for example, a projection image (that is, a second display unit) that recognizes a virtual image of the virtual image plane 21 at a desired position in a three-dimensional space for each position of the viewpoint 81 of the observer 80.
  • 20 has the projection position information of the second video image displayed on the display area 20a.
  • the projection position information can include, for example, three-dimensional plane information represented by a linear function in a three-dimensional space, and boundary conditions for cutting out a plane indicated by the three-dimensional plane information.
  • the projection position information may be, for example, a data set including three-dimensional position information of each unit pixel on a projection plane of a desired image.
  • the unit pixel is a pixel group included in each area when the image is divided into a plurality of rows and a plurality of columns.
  • the parameter table 154 may hold three-dimensional position information of the panel 30.
  • the three-dimensional position information of the panel 30 may include, for example, a function indicating a three-dimensional curved surface such as an exponential function or a cubic function representing the curved surface of the panel 30 and the coordinates of the panel 30.
  • the parameter table 154 approximates the curved surface of the panel 30 with a combination of a plurality of polygons connected by three unit coordinate points represented by coordinate axes in a three-dimensional space, and calculates a plurality of polygons used for the approximation. It may include the coordinate information shown.
  • FIG. 4 is a longitudinal sectional view schematically showing the structure of the optical system, virtual image plane 21 and real image plane 11 of video display apparatus 100 according to Embodiment 1.
  • a first image for example, an image using a perspective method shown in FIG. 11 described later
  • the watching viewer 80 can recognize the first image displayed in the display area 10a of the first display unit 10 as the real image 11a existing on the real image plane 11 inclined with respect to the display area 10a.
  • the position where the real image plane 11 is substantially at the center of the display area 10a of the first display unit 10 in the vertical direction is set as the intersection position, and intersects the display area 10a at an angle of about 45 degrees.
  • the first image displayed on the display area 10a of the first display unit 10 is set.
  • the virtual image plane 21 exists in front of and behind the real image plane 11 as viewed from the viewpoint 81 of the observer 80, that is, so as to intersect with the real image plane 11.
  • a method of changing the intersection position, intersection angle, and display size of the real image plane 11 will be described in a second embodiment described later.
  • the video data A20 input to the video processing unit 150 is video information having a resolution corresponding to a desired display size of the real image plane 11.
  • a point arranged on the real image plane 11 and the position of the viewpoint 81 of the observer 80 are connected by a straight line.
  • a solid straight line 82 a in FIG. 4 is a straight line connecting the position of the viewpoint 81 of the observer 80 and the horizontal scanning line at the upper end of the real image plane 11.
  • the solid straight line 82b is a straight line connecting the position of the viewpoint 81 of the observer 80 and the horizontal scanning line at the lower end of the real image plane 11.
  • These straight lines 82a and 82b are arbitrarily set, and setting information indicating the set contents is stored in the parameter table 154 of the storage unit 153.
  • the straight lines 82a and 82b can be calculated as linear functions in a three-dimensional space from the position information of the real image plane 11 and the position information of the viewpoint 81 of the observer 80 obtained from the position information acquisition unit 40.
  • the virtual image plane 21 is perceived as seen from the observer 80 in the same manner as the real image plane 11.
  • the display position in the vertical direction of each horizontal scanning line on the virtual image plane 21 so that the virtual image is displayed can be determined.
  • the display position in the vertical direction of each horizontal scanning line to be obtained is the position of the second image in the display area 20a of the second display unit 20 projected on the intersection with the virtual image plane 21, so that the straight line 82a,
  • the intersection of the straight line (that is, broken lines 22a and 22b) obtained by inverting 82b from the surface of panel 30 to the target position and display area 20a of second display unit 20 is calculated.
  • the intersection between the broken line 22a and the display area 20a of the second display unit 20 is the calculated position.
  • the intersection between the broken line 22b and the display area 20a of the second display unit 20 is the calculated position.
  • These broken lines 22a and 22b can be calculated from the three-dimensional position information of the panel 30 stored in the parameter table 154 and the linear function indicating the straight lines 82a and 82b.
  • the calculated position coordinates of each horizontal scanning line on the display area 20a of the second display unit 20 are synonymous with the display position of the second video data A21. For this reason, the position coordinates of the calculated horizontal scanning lines on the display area 20a of the second display unit 20 are converted into two-dimensional coordinates in the display area 20a of the second display unit 20, thereby being input. It is possible to obtain a magnification in the vertical direction with respect to the video data A20.
  • a method of calculating the magnification in the horizontal direction of the image projected by the second display unit 20 in order to display the virtual image 21a on the virtual image plane 21 will be described.
  • the target display area is recognized by the linear perspective in such a manner that the display area is enlarged and located closer to the viewer, and is reduced and recognized as the viewer is farther away. Therefore, the magnification of each horizontal scanning line in the horizontal direction according to the first embodiment is determined by the difference in the distance between the virtual image plane 21 and the real image plane 11 as viewed from the observer 80, that is, the difference in the position in the z-axis direction. The calculation may be performed in consideration of the above.
  • FIG. 5 is a cross-sectional view showing an example of a method of calculating a scaling ratio (reduction ratio) for each scanning line in the video processing unit 150 of the video display device 100 according to the first embodiment.
  • a scaling ratio reduction ratio
  • FIG. 6 is a cross-sectional view showing an example of a method of calculating a magnification (magnification) for each scanning line in the video processing unit 150 of the video display device 100 according to the first embodiment.
  • a magnification magnification
  • the real image plane 11 is located closer to the virtual image plane 21 when viewed from the viewpoint 81 of the observer 80, it is necessary to enlarge the virtual image in the horizontal direction, that is, the x-axis direction.
  • a straight line extending from the left and right ends of the real image plane 11 to the viewpoint 81 of the observer 80 is extended, an intersection between the extended straight line and the virtual image plane 21 is taken, and the intersection between the two intersections is calculated.
  • Length D4 is determined. The ratio between the length D4 and the size of the input video data A20 in the horizontal direction is the enlargement ratio to be obtained.
  • the horizontal size D2 shown in FIG. 5 is proportional to the desired distance D1a between the real image plane 11 and the virtual image plane 21.
  • the horizontal size D4 shown in FIG. 6 is proportional to D1b, which is the desired distance between the real image plane 11 and the virtual image plane 21.
  • the distance between the real image plane 11 and the virtual image plane 21 can be calculated from the three-dimensional position information obtained when calculating the magnification in the vertical direction. Therefore, the calculation of the scaling factor in the horizontal direction can also be calculated from the parameter information and the position information of the viewpoint 81, that is, the distance D1a in the direction of the straight line 82a shown in FIG. 4 and the distance D1b in the direction of the straight line 82b shown in FIG. is there.
  • the scaling unit 151 in FIG. 3 performs scaling processing on the input video data A20 using the scaling ratio in the scanning line direction for each scanning line obtained by the scaling ratio calculation unit 152.
  • this scaling process for example, the video data A20 is held in a memory, and the video data A20 is scaled in the vertical direction according to the scaling factor in the vertical direction, that is, after scaling (for example, reduction) of the interval between scanning lines. And performs a scaling process for each horizontal scanning line using a scaling ratio in the horizontal scanning direction for each horizontal scanning line.
  • data of all the pixels of the input video data A20 is stored in a storage unit (not shown), and the data of all the pixels are subjected to the projection transformation for all the pixels that can be calculated from the scaling information. It may be performed by multiplying by a matrix.
  • FIG. 7 is a diagram showing an example of the first video and the second video displayed by the video display device 100 according to the first embodiment.
  • FIG. 7 shows a case where the video display device 100 is an in-vehicle display mounted on an instrument panel of a vehicle.
  • the observer 80 is, for example, a driver of a vehicle.
  • FIG. 7 shows a case where the video display device 100 is arranged in the front center of the vehicle.
  • the video display device 100 can realize a small housing size that does not constrain the space for arranging functions required for the vehicle.
  • the curved panel 30 can suppress the reflection of external light from the front surface or the side surface of the vehicle toward the driver who is the observer 80.
  • the first display unit 10 displays current location information 111, distance information 112 to the destination, and a direction instruction icon 113 as information information on a map.
  • the virtual image displayed by the second display unit 20 includes a map image 121.
  • FIG. 8 shows a second image (ie, the second image of the comparative example) on the second display unit 20 of the image display device 100 according to the first embodiment, on which the scaling process is not performed for each scanning line displayed.
  • FIG. FIG. 9 is a diagram illustrating a case where the second image shown in FIG. 8 (that is, the second image of the comparative example) is displayed on the second display unit 20 of the image display device 100 according to the first embodiment.
  • FIG. 8 is a diagram showing a virtual image 21 a of a virtual image plane 21 visually recognized by 80. For example, as shown in FIG.
  • FIG. 10 is an example of a second video image that is displayed on the second display unit 20 of the video display device 100 according to the first embodiment and has undergone scaling processing for each scanning line (that is, the first video image).
  • FIG. 21 is a diagram showing an example of a second video in the example).
  • FIG. 11 illustrates a case where the second image shown in FIG. 10 (that is, the second image in the first embodiment) is displayed on second display unit 20 of image display device 100 according to the first embodiment.
  • FIG. 14 is a diagram showing a virtual image 21b visually recognized by an observer 80.
  • the observer 80 can obtain a real image based on the first image displayed on the display area 10 a of the first display unit 10 and the second image displayed on the display area 20 a of the second display unit 20.
  • the intersection angle and the intersection position with the virtual image can be visually and appropriately recognized.
  • ⁇ 1-3 Effect As described above, according to the video display device 100 according to the first embodiment, even if the position of the viewpoint 81 of the observer 80 changes, the observer 80 is kept in the first position. Of the real image based on the first image displayed on the display unit 10 and the virtual image based on the second image displayed on the second display unit 20 can be appropriately felt.
  • panel 30 has a concave shape as viewed from observer 80
  • second display unit 20 can be reduced in size, and as a result, image display device 100 is reduced in size. be able to.
  • the visual three-dimensional effect felt by the observer 80 depends only on the positional relationship between the first display unit 10, the second display unit 20, and the panel 30 which is a half mirror. And was constant regardless of the content of the displayed video.
  • the stereoscopic expression can be changed, and the width of the stereoscopic expression can be expanded.
  • FIG. 12 is a block diagram illustrating main components of the video processing unit 250 of the video display device 200 according to Embodiment 2 of the present invention.
  • a video processing unit 250 performs a scaling process on input video data A10, that is, a scaling process unit 251 that can perform enlargement or reduction processing, and a scaling process used for the scaling process.
  • a magnification ratio that is, a scaling ratio calculation unit 252 that determines an enlargement ratio or a reduction ratio.
  • the video processing unit 250 includes a video data A10 indicating the first video displayed on the first display unit 10 and a viewpoint 81 obtained from the position information obtaining unit 40 for obtaining the position of the viewpoint 81 of the observer 80.
  • the scaling factor calculation unit 252 of the video processing unit 250 calculates the scaling factor based on the position information of the viewpoint 81.
  • the scaling unit 251 receives the scaling ratio determined by the scaling unit 252, performs scaling processing on the input video data A10, and outputs first video data A11 on which scaling processing has been performed.
  • the video display device 200 according to the second embodiment performs scaling processing by the video processing unit 250 on video data A10 input to the first display unit 10 that displays a real image, and intersects the real image plane 11 and the virtual image that intersect. The intersection angle formed by the surface 21 is kept constant even when the position of the viewpoint 81 changes.
  • the video processing unit 250 of the video display device 200 according to the second embodiment also has the configuration of the video processing unit 150 in the first embodiment. Therefore, the video display device 200 according to the second embodiment can perform scaling processing on the video data A20 for each scanning line, similarly to the video display device 100 according to the first embodiment.
  • the first image scaling process performed by the image processing unit 250 performs scanning as in the case of the second image scaling process. It is not necessary to calculate the magnification for each line. However, it is also possible to calculate the scaling factor used in the scaling process of the first image for each scanning line in the same manner as the scaling factor in the scaling process of the second image.
  • FIG. 13 is a longitudinal sectional view illustrating an example of a method of calculating a scaling factor in the video processing unit 250 of the video display device 200 according to Embodiment 2 (that is, an example in a case where the viewpoint 81 is at a high position).
  • FIG. 14 is a longitudinal sectional view illustrating an example of a method of calculating a scaling factor in the video processing unit 250 of the video display device 200 according to Embodiment 2 (that is, an example in a case where the viewpoint is at a low position).
  • the video processing unit 250 processes the video data A10 to generate the first video data A11 such that the intersection angle between the real image plane 11 and the virtual image plane 21 is maintained at a desired angle.
  • the outside that is, the upper side
  • the straight line 83a connecting the viewpoint 81 shown in FIG.
  • the image of the area and the area outside the straight line 83b that is, the lower side
  • the display area 10a of the first display unit 10 is outside the straight line 84a connecting the viewpoint 81 shown in FIG.
  • the image of the area () and the area outside (ie, below) the straight line 84 b connecting the viewpoint 81 and the lower end of the real image plane 11 are not visually recognized by the observer 80.
  • the desired real image plane 11 is also a plane, so that the position on the real image plane 11 viewed from the The three-dimensional distance from the corresponding position on the display unit 10 changes linearly in each of the vertical direction (y direction) and the horizontal direction (x direction). Therefore, in the calculation of the scaling factor in the vertical direction (y direction) and the horizontal direction (x direction) in the scaling factor calculation unit 252, it is not always necessary to calculate the scaling factor for each scanning line.
  • the scaling factors in the direction of the line of sight 82 are calculated, and the pixels between the straight lines 83a and 83b (or the pixels between the straight lines 84a and 84b) are calculated.
  • the scaling factor may be calculated using a linear change based on the scaling factor in the direction of the line of sight 82.
  • FIG. 15 is an example of a first image on which scaling processing has been performed and which is displayed in the display area 10a of the first display unit 10 of the image display device 200 according to Embodiment 2 (that is, FIG. FIG. FIG. FIG. 16 is an example of the first image (ie, the case of FIG. 14) on which the scaling process has been performed, which is displayed on the display area 10a of the first display unit 10 of the image display device 200 according to the second embodiment.
  • FIG. By changing the projection angle and the magnification of the display area based on the position of the viewpoint 81 of the observer 80, it is possible to express the virtual image plane 21 crossing the virtual image plane 21 at a fixed angle.
  • the observer 80 displays the image on the first display unit 10.
  • the three-dimensional effect of the real image based on the first image and the virtual image based on the second image displayed on the second display unit 20 can be appropriately felt.
  • the video display device 200 according to the second embodiment is the same as the video display device 100 according to the first embodiment.
  • FIG. 17 is a diagram schematically showing a configuration of a video display device 300 according to Embodiment 3 of the present invention.
  • FIG. 17 shows a structure of the optical system of the image display device 300 as viewed obliquely from above, an observer 80 watching an image in the direction of the line of sight 82, and an image processing unit 350. 17, the same or corresponding components as those shown in FIG. 1 are denoted by the same reference numerals as those shown in FIG.
  • the video display device 300 includes a first display unit 10 having a display area 10a for displaying a video and a second display having a display area 20a for displaying a video.
  • Unit 20 a panel 31 that is a light-transmissive reflective panel, a position information acquisition unit 40 that acquires position information of a viewpoint 81 that is the position of an eye of an observer 80, a first display unit 10, and a second display
  • a video processing unit 350 for providing video data to the unit 20.
  • the video display device 300 according to the third embodiment is different from the video display device 100 according to the first embodiment in the shape of the panel 31.
  • the panel 31 has a concave shape when viewed from the viewpoint 81 of the observer 80.
  • the panel 31 has a concave shape curved in the left-right direction.
  • the cross section of the panel 31 cut by a substantially horizontal plane including a line of sight 82 from the viewpoint 81 to the panel 31, that is, a plane substantially parallel to the xz plane is arc-shaped.
  • the cross section of the panel 31 cut by a substantially vertical plane including the line of sight 82, that is, a plane parallel to the yz plane is linear. According to the configuration of the third embodiment, since the virtual image plane 21 extends in the left-right direction, the size of the second display unit 20 can be reduced, and the size of the video display device 300 can be reduced.
  • FIG. 18 shows a state where the second image shown in FIG. 8 (that is, the second image of the comparative example) is displayed on the second display unit 20 of the image display device 300 according to the third embodiment. It is a figure which shows the virtual image 21c which 80 recognizes visually.
  • the virtual image plane is enlarged in both the left and right directions, and the virtual image 21c is enlarged greatly in the vertical direction as it approaches the left end or the right end.
  • the magnification of the virtual image 21c changes depending on the position of the viewpoint 81 of the observer 80.
  • the viewpoint 81 is located on the right side of the center of the video display device 300
  • the magnification on the right side of the virtual image 21c decreases, and The enlargement ratio of the portion becomes large.
  • the viewpoint 81 is located on the left side of the center of the video display device 300
  • the magnification on the left side of the virtual image 21c decreases, and the magnification on the right side increases.
  • FIG. 19 is an example of a second video image that is displayed on the second display unit 20 of the video display device 300 according to the third embodiment and has undergone scaling processing for each scanning line (that is, the third video image).
  • FIG. 15 is a diagram showing an example of a video based on the second video data A21 in FIG.
  • the purpose of the processing of the video processing unit 350 in the third embodiment is the same as the purpose of the processing of the video processing unit 150 in the first embodiment, and the desired virtual image recognized by the observer 80 is shown in FIG. The same as the virtual image 21b to be performed. That is, in the third embodiment, an image on which the vertical reduction process and the scaling process for each horizontal scanning line have been performed as shown in FIG. 19 is displayed in the display area 20a of the second display unit 20.
  • the observer 80 with an image capable of giving an appropriate three-dimensional effect, like the virtual image 21b shown in FIG.
  • the observer 80 displays the image on the first display unit 10.
  • the three-dimensional effect of the real image based on the first image and the virtual image based on the second image displayed on the second display unit 20 can be appropriately felt.
  • the video display device 300 according to the third embodiment is the same as the video display device 100 according to the first embodiment.
  • FIG. 20 is a block diagram showing main components of video processing section 450 of the video display device according to Embodiment 4 of the present invention.
  • the video display device according to Embodiment 4 is mounted on an instrument panel of a vehicle (for example, an automobile), and switches a video display method based on vehicle information E1 indicating a running state of the vehicle.
  • the video display device according to the fourth embodiment is different from video display device 100 according to the first embodiment in that video processing section 450 performs processing based on vehicle information E1 indicating a running state of a vehicle.
  • FIG. 20 shows a configuration in which the scaling process of the video data A20 is performed based on the vehicle information E1, the scaling process of the video data A20 is performed instead of the scaling process of the video data A20.
  • the image data A10 may be scaled.
  • the video processing unit 450 performs a scaling process for each scanning line on the input video data A20, that is, a scaling process unit 451 that can perform enlargement or reduction processing for each scanning line.
  • a scaling ratio calculator 452 for determining a scaling ratio, ie, an enlargement ratio or a reduction ratio, used for the scaling process, and a storage unit 453 for storing reference information used for determining the scaling ratio as a parameter table 454.
  • the video processing unit 450 is obtained from the second video data indicating the second video displayed on the second display unit 20 and the position information obtaining unit 40 for obtaining the position of the viewpoint 81 of the observer 80.
  • Vehicle information E1 (for example, traveling speed information) is received from the vehicle information acquisition unit 455 that acquires the position information of the viewpoint 81 and the vehicle information E1 indicating the state of the vehicle on which the video display device is mounted, and performs magnification change for each scanning line.
  • the processed second video data A21 is provided to the second display unit 20.
  • the scaling factor calculation unit 452 of the video processing unit 450 calculates the scaling factor for each scanning line based on the position information of the viewpoint 81, the information of the parameter table 454 stored in the storage unit 453, and the vehicle information E1. .
  • Each scanning line is, for example, each horizontal scanning line including a plurality of pixels.
  • Each scanning line can be a vertical scanning line including a plurality of pixels.
  • the scaling unit 451 receives the scaling ratio for each scanning line determined by the scaling unit 452, performs scaling processing on the input video data A20, and performs the scaling process for each scanning line. 2 of video data A21.
  • the video processing unit 450 links the navigation information and the parameter so that, for example, in the navigation guidance display of the vehicle, the intersection position of the two display videos and the direction designation position match.
  • FIG. 21 is a diagram illustrating an example of the real image 11 and the virtual image 21 visually recognized by the observer 80 in the video display device according to Embodiment 4 (that is, an example in a case where the traveling speed of the vehicle is low).
  • FIG. 22 is a diagram illustrating an example of the real image 11 and the virtual image 21 visually recognized by the observer 80 in the video display device according to Embodiment 4 (that is, an example in which the traveling speed of the vehicle is high).
  • the instrument display 11d such as the direction lighting display and the speed meter is displayed by the first display unit 10 so as to be seen vertically by the observer 80.
  • the navigation display such as an arrow and the road marking 21d such as map information are displayed by the video processing unit 450 so as to form a desired virtual image plane 21.
  • the angle formed between the real image plane displaying the real image 11 displayed by the first display unit 10 and the virtual image plane displaying the virtual image 21 is increased.
  • the sense of depth visually recognized by the navigation display and the road sign 21d is increased. With this sense of depth, it is possible to perceive the positional relationship between the position of the vehicle and the actual road on the navigation display and road marking 21d during high-speed driving.
  • the driver who is the observer 80, knows that the vehicle is traveling at high speed based on the inclination of the virtual image 21, and receives an instruction of the navigation display at a stage where the distance to the target position (for example, an intersection) is long.
  • Driving adjustments eg, lane changes, deceleration, etc.
  • the video display device according to the fourth embodiment is the same as video display device 100 according to the first embodiment.
  • FIG. 23 is a diagram schematically showing a hardware configuration of a video processing unit of a video display device according to a modification of the first to fourth embodiments.
  • the video processing units 150, 250, 350, and 450 shown in FIGS. 3, 12, 17, and 20 can be configured by an integrated circuit, but include a memory 91 as a storage device that stores a program as software. And a processor 92 as an information processing unit that executes a program stored in the memory 91 (for example, by a computer).
  • a part of the video processing units 150, 250, 350, and 450 may be realized by the memory 91 and the processor 92 that executes a program illustrated in FIG.
  • the panel 30 or 31 may be a hemispherical concave panel.
  • the second display unit 20 by arranging the second display unit 20 on the upper, lower, left, and right sides of the panel 30 or 31, a virtual image with a larger magnification is displayed as the distance from the center position of the hemispherical shape increases.
  • the components of the video display devices according to Embodiments 1 to 4 can be appropriately combined with each other.
  • first display unit ⁇ 10a ⁇ display area, ⁇ 11 ⁇ real image plane, ⁇ 20 ⁇ second display unit, ⁇ 20a ⁇ display area, ⁇ 21 ⁇ virtual image plane, ⁇ 21a ⁇ virtual image, ⁇ 30, 31 ⁇ panel, ⁇ 40 ⁇ position information acquisition unit, ⁇ 80 ⁇ observer, ⁇ 81 ⁇ viewpoint ⁇ 82 ⁇ line of sight, ⁇ 100, 200, 300 ⁇ video display device, ⁇ 150, 250, 350, 450 ⁇ video processing unit, ⁇ A10 ⁇ video data, ⁇ A11 ⁇ first video data, ⁇ A20 ⁇ video data, ⁇ A21 ⁇ second video data, ⁇ B1 ⁇ position information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

映像表示装置(100)は、光を透過及び反射させる曲面形状のパネル(30)と、第1の映像データに基づく第1の映像であって、パネル(30)を通して予め決められた位置に到達する第1の映像を表示する第1の表示部(10)と、第2の映像データに基づく第2の映像であって、パネル(30)で反射して予め決められた位置に到達する第2の映像を表示する第2の表示部(20)と、観察者の実際の視点の位置を示す位置情報を取得する位置情報取得部(40)と、位置情報に基づいて第2の映像データの走査ライン毎の変倍率を決定し、第2の表示部に入力される第2の映像データに走査ライン毎の変倍処理を施す映像処理部(150)とを有する。

Description

映像表示装置
 本発明は、映像表示装置に関する。
 従来、光透過型反射パネルであるハーフミラーを通して観察者の眼に到達する第1の映像を表示する第1の表示部と、ハーフミラーで反射して観察者の眼に到達する第2の映像を表示する第2の表示部とを有する映像表示装置が知られている。観察者は、第1の映像である実像を認識するとともに、3次元空間内に第2の映像に基づく虚像を認識する。実像と虚像とが互いに交差する場合、交差映像表示の効果として、観察者は視認した映像に立体感、すなわち、奥行き感を感じる(例えば、特許文献1参照)。
 また、ハーフミラーの形状を観察者から見て凹面形状とすれば、凹面のレンズ効果で虚像が拡大されて認識されるため、第2の表示部のサイズを小型化することができる。さらに、ハーフミラーを凹面形状とすることで、環境光などの外光の反射光を、観察者の眼に届き難くすることができる。
特開2006-177920号公報
 しかしながら、ハーフミラーを凹面形状にした場合には、観察者の眼の位置の変化、すなわち、視点の位置の変化に応じて、実像と虚像の交差位置及び実像に対する虚像の傾きが変化するので、観察者は交差映像表示の効果である立体感を適切に感じることができない場合がある。
 本発明は、上記従来技術の課題を解決するためになされたものであり、観察者の視点の位置が変化した場合であっても、観察者が立体感を適切に感じることができる映像表示装置を提供することを目的とする。
 本発明の一態様による映像表示装置は、入射する光を透過及び反射させる曲面形状のパネルと、第1の映像データに基づく第1の映像であって、前記パネルを通して予め決められた位置に到達する前記第1の映像を表示する第1の表示部と、第2の映像データに基づく第2の映像であって、前記パネルで反射して前記予め決められた位置に到達する前記第2の映像を表示する第2の表示部と、前記第1の映像及び前記第2の映像を観察する観察者の実際の視点の位置を示す位置情報を取得する位置情報取得部と、前記位置情報に基づいて前記第2の映像データの走査ライン毎の変倍率を決定し、前記変倍率を用いて前記第2の表示部に入力される前記第2の映像データに前記走査ライン毎の変倍処理を施す映像処理部とを有することを特徴とする。
 本発明によれば、観察者の視点の位置が変化した場合であっても、観察者は立体感を適切に感じることができる。
本発明の実施の形態1に係る映像表示装置の構成を概略的に示す図である。 実施の形態1に係る映像表示装置の光学系の構造及び虚像面を概略的に示す縦断面図である。 実施の形態1に係る映像表示装置の映像処理部の要部の構成要素を示すブロック図である。 実施の形態1に係る映像表示装置の光学系の構造、虚像面及び実像面を概略的に示す縦断面図である。 実施の形態1に係る映像表示装置の映像処理部における走査ライン毎の変倍率(縮小率)の算出方法の例を示す横断面図である。 実施の形態1に係る映像表示装置の映像処理部における走査ライン毎の変倍率(拡大率)の算出方法の例を示す横断面図である。 実施の形態1に係る映像表示装置によって表示される第1の映像及び第2の映像の例を示す図である。 実施の形態1に係る映像表示装置の第2の表示部に表示される、走査ライン毎の変倍処理を行っていない第2の映像(すなわち、比較例の第2の映像)の例を示す図である。 実施の形態1に係る映像表示装置の第2の表示部に示される第2の映像(すなわち、比較例の第2の映像)を表示したときに、観察者が視認する虚像面の虚像を示す図である。 実施の形態1に係る映像表示装置の第2の表示部に表示される、走査ライン毎の変倍処理が行われた第2の映像の例(すなわち、実施の形態1における第2の映像の例)を示す図である。 実施の形態1に係る映像表示装置の第2の表示部に図10に示される第2の映像(すなわち、実施の形態1における第2の映像)を表示したときに、観察者が視認する虚像を示す図である。 本発明の実施の形態2に係る映像表示装置の映像処理部の要部の構成要素を示すブロック図である。 実施の形態2に係る映像表示装置の映像処理部における変倍率の算出方法の例(すなわち、視点が高い位置にある場合の例)を示す縦断面図である。 実施の形態2に係る映像表示装置の映像処理部における変倍率の算出方法の例(すなわち、視点が低い位置にある場合の例)を示す縦断面図である。 実施の形態2に係る映像表示装置の第1の表示部に表示される変倍処理が行われた第1の映像の例(すなわち、図13の場合の例)を示す図である。 実施の形態2に係る映像表示装置の第1の表示部に表示される変倍処理が行われた第1の映像の例(すなわち、図14の場合の例)を示す図である。 本発明の実施の形態3に係る映像表示装置の構成を概略的に示す図である。 実施の形態3に係る映像表示装置の第2の表示部に図8に示される第2の映像(すなわち、比較例の第2の映像)を表示したときに、観察者が視認する虚像を示す図である。 実施の形態3に係る映像表示装置の第2の表示部に表示される、走査ライン毎の変倍処理が行われた第2の映像の例(すなわち、実施の形態3における第2の映像の例)を示す図である。 本発明の実施の形態4に係る映像表示装置の映像処理部の要部の構成要素を示すブロック図である。 実施の形態4に係る映像表示装置において観察者が視認する実像及び虚像の例(すなわち、車両の走行速度が遅い場合の例)を示す図である。 実施の形態4に係る映像表示装置における観察者が視認する実像及び虚像の例(すなわち、車両の走行速度が速い場合の例)を示す図である。 実施の形態1から4の変形例の映像表示装置の映像処理部のハードウェア構成の例を示す図である。
 以下に、本発明の実施の形態に係る映像表示装置を、添付図面を参照しながら説明する。以下の実施の形態では、映像表示装置が車両(例えば、自動車)のインストルメントパネルに搭載された例を説明する。ただし、実施の形態に係る映像表示装置は、車両用以外の用途に使用することができる。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
 各図には、必要に応じて、xyz直交座標系の座標軸が示される。各図において、z軸は、観察者の視線に略平行な座標軸である。+z軸方向は、観察者の視点から映像表示装置に向かう方向である。x軸は、z軸に直交する略水平方向の座標軸である。x軸方向は、第1の映像及び第2の映像の水平走査ラインの方向に対応する。y軸は、z軸及びx軸に直交する略鉛直方向の座標軸である。+y軸方向は、鉛直上向きの方向である。
《1》実施の形態1
《1-1》構成
 図1は、本発明の実施の形態1に係る映像表示装置100の構成を概略的に示す図である。図1は、映像表示装置100の光学系を斜め上から見た構造と、視線82の方向に映像を見ている観察者80と、映像処理部150とを示している。図1に示されるように、実施の形態1に係る映像表示装置100は、第1の映像を表示する表示領域10aを有する第1の表示部10と、第2の映像を表示する表示領域20aを有する第2の表示部20と、光透過型反射パネルであるパネル30と、観察者80の眼の位置である視点81の位置情報を取得する位置情報取得部40と、第1の表示部10及び第2の表示部20に第1の映像データA11及び第2の映像データA21をそれぞれ提供する映像処理部150とを有している。
 図2は、図1に示される映像表示装置100の構造及び虚像面21を概略的に示す縦断面図である。図2は、図1に示される映像表示装置100をyz平面に平行な平面で切る縦断面構造を示している。図2には、第2の表示部20の表示領域20aに表示された第2の映像が映像光としてパネル30に投影され、投影された映像光はパネル30で反射して観察者80の視点81に向かう様子が示されている。
 パネル30は、入射する光を透過及び反射させる曲面形状で板状の光学素子である。つまり、パネル30は、入射する光を透過光と反射光に分離する性質を持つ光学素子である。パネル30は、例えば、ハーフミラーである。ハーフミラーは、入射した光を、互いに略等しい強度の透過光と反射光に分離する光学素子である。ただし、ハーフミラーの透過光と反射光の強度は互いに異なってもよい。パネル30は、例えば、ガラス板又はアクリル板などのような反射光の強度に比べ透過光の強度が高い光透過性の材料で形成されてもよい。また、第1の表示部10及び第2の表示部20が液晶ディスプレイのように直線偏光を映像光として発する装置である場合には、パネル30は、特定の偏光方向の光成分のみを透過させる反射型偏光フィルムを備えた光学素子であってもよい。この場合には、第1の表示部10が発する映像光を、パネル30を通して効率よく観察者80に到達させることができ、さらに、第2の表示部20が発する映像光を、パネル30で反射させて効率よく観察者80に到達させることができる。
 図1の例では、パネル30は、観察者80の視点81から見て凹面形状である。図1の例では、パネル30を、視点81からパネル30に向かう視線82を含む略水平な平面、すなわち、xz平面に略平行な平面で切る断面は直線状である。また、パネル30を、視線82を含む略垂直な平面、すなわち、yz平面に平行な平面で切る断面は円弧状である。図1の例では、パネル30は、上端に近い部分で水平面(すなわち、xz平面)に近い角度の緩やかな傾斜を持ち、下端に近い部分で垂直面(すなわち、xy平面)に近い角度の急峻な傾斜を持つ曲面形状である。
 実施の形態1に係る映像表示装置100は、例えば、車両のインストルメントパネルに搭載される装置である。この場合、観察者80は、車両の運転者である。このため、観察者80は、映像表示装置100の上方、すなわち、第1の表示部10の上端よりも+y軸方向の位置、及び第1の表示部10の後方、すなわち、第1の表示部10よりも+z軸方向の位置に、太陽又は他の車両の照明光源などから発せられる外光が存在する環境で、映像表示装置100が表示する映像を見ることがある。パネル30の上端に近い部分が水平面に近い緩やかな傾斜を持つように構成することで、パネル30で反射した外光を観察者80の眼の位置より下方に向けることができる。このため、観察者80の眼には、視覚的に煩わしい外光が入り難い。
 第1の表示部10は、観察者80から見てパネル30の後方に、すなわち、パネル30より+z軸方向の位置に配置される。第1の表示部10は、観察者80の視線82に対して表示領域10aが略垂直となるように、すなわち、xy平面に略平行になるように配置されることが望ましい。
 第1の表示部10は、映像処理部150から供給される第1の映像データA11に基づく第1の映像を表示領域10aに表示する。第1の映像データA11は、例えば、入力される映像データA10に変倍処理を行って得られた映像データである。変倍処理は、拡大処理及び縮小処理を含む。変倍処理は、垂直走査方向の変倍処理及び水平走査方向の変倍処理を含むことができる。変倍処理は、走査ライン毎に変倍率を求めて行われる走査ライン毎の変倍処理である必要はない。変倍率は、拡大率及び縮小率を含む。ただし、変倍処理は、走査ライン毎の変倍処理であってもよい。第1の表示部10の表示領域10aに表示された第1の映像は、パネル30を通して予め決められた位置に到達する。予め決められた位置は、例えば、観察者80の視点81が存在し得ると想定される範囲内の位置である。観察者80は、第1の表示部10の表示領域10aに表示された第1の映像を、パネル30を通して視認する。
 第2の表示部20は、映像処理部150から供給される第2の映像データA21に基づく第2の映像を表示領域20aに表示する。第2の映像データA21は、入力される映像データA20に走査ライン毎の変倍処理を行って得られた映像データである。図1の例では、第2の映像データA21は、入力される映像データA20に水平走査ライン毎の変倍処理を行って得られた映像データである。ただし、第2の映像データA21は、入力される映像データA20に水平走査ライン毎の変倍処理と、垂直走査方向の変倍処理との両方を行って得られた映像データであってもよい。
 第2の映像データA21に基づく第2の映像は、パネル30に投影され、パネル30で反射して予め決められた位置に到達する。予め決められた位置は、例えば、視点81が存在し得ると想定される範囲内の位置であり、第1の映像が到達すると想定される範囲内の位置と同じ位置である。観察者80は、第2の表示部20の表示領域20aに表示された第2の映像をパネル30よりも遠い位置である虚像面21に存在する虚像21aとして認識する。第2の表示部20は、パネル30の下側(すなわち、パネル30より-y軸方向の位置)にあり、第2の表示部20の表示領域20aに表示された第2の映像に基づく映像光がパネル30で反射して観察者80に向かうようにするため、その表示領域20aを上又はパネル30に面するように斜め上に向けて配置される。
 第1の表示部10は、表示領域10aに第1の映像を表示することによって表示領域10aから映像光を発する表示装置である。第2の表示部20は、表示領域20aに第2の映像を表示することによって表示領域20aから映像光を発する表示装置である。第1の表示部10及び第2の表示部20の各々は、例えば、透過型液晶パネルとLED(Light Emitting Diode)バックライトとを備えた液晶ディスプレイである。第1の表示部10及び第2の表示部20は、プラズマ発光型のディスプレイ、有機EL(ElectroLuminescence)ディスプレイ、又は垂直走査方向及び水平走査方向に配列された複数のLEDを有するLEDディスプレイのような自発光型の表示装置であってもよい。また、第1の表示部10は、図1及び図2において第1の表示部10が示される位置に設定されたスクリーンと、このスクリーンに対して映像を投影光によって投影するプロジェクタとからなる投射型表示装置であってもよい。この場合は、プロジェクタから発せられる投影光がスクリーン上で乱反射することにより、スクリーンから観察者80に向かう第1の映像を観察者80に到達させることができる。
 また、第2の表示部20の表示領域20aが発する映像光は、パネル30で反射して観察者80に向かう。このため、第2の表示部20を構成する液晶ディスプレイに、配光特性を制御するプリズムシートを備えることで、観察者80が虚像面21に存在すると認識する虚像21aの輝度を上げることができる。プリズムシートは、複数の微小な単位プリズムが整列されたプリズム面を有する光学部材である。
 虚像面21は、第2の表示部20から発せられ、パネル30で反射し、観察者80の目に届く映像光によって、観察者80によって虚像21aが存在すると認識される仮想の面である。実施の形態1では、パネル30が曲面形状であるから、観察者80によって認識される虚像面21の虚像21aは、観察者80からみて縦方向に引き伸ばされている、すなわち、縦方向に拡大されている。この虚像21aは、パネル30の反射面で形成されるため、第2の表示部20の表示領域20aを構成する各画素から発せられる拡散光は、一点に集光しない。つまり、第2の表示部20の表示領域20aを構成する各画素から発せられる拡散光は縦方向に引き伸ばされる、すなわち、縦方向に拡大される。また、パネル30は、曲面形状であるから、引き伸ばされる拡散光の拡大率は、観察者80の視点81の位置に応じて変化し、視点81の位置が変わると虚像面21の虚像21aの見え方が変化する。
 位置情報取得部40は、映像を観察する観察者80の実際の視点81の位置を示す位置情報を取得する。位置情報取得部40は、例えば、観察者80の顔を撮影する撮像装置であるカメラと、カメラ撮影で得られた顔画像データから眼の位置を検出する解析部とを含むことができる。つまり、位置情報取得部40は、観察者80の視点81の位置情報を検出するセンサ機器と、センサ機器からの出力に基づいて位置情報を取得する解析部とを含むことができる。この解析部は、位置情報取得部40に備えられてもよいが、映像処理部150に備えられてもよい。映像処理部150は、コンピュータであってもよい。位置情報取得部40は、観察者80の実際の視点81の位置を示す位置情報を取得できる手段であれば、特に限定されない。例えば、位置情報取得部40は、赤外線を観察者80に照射して、観察者80で反射した反射光をセンシングし解析することで、視点81の位置を検出する装置であってもよい。
 映像処理部150は、観察者80の実際の視点81の位置を示す位置情報に基づいて第2の映像データの走査ライン毎の変倍率を決定し、この変倍率を用いて第2の表示部20に入力される映像データA20に走査ライン毎の変倍処理を行い、走査ライン毎の変倍処理が行われた第2の映像データA21を出力する。映像処理部150は、観察者80の実際の視点81の位置を示す位置情報B1に基づいて映像データA10の変倍率を決定し、変倍率を用いて映像データA10に決定した変倍率による変倍処理を行って、第1の映像データA11を出力してもよい。第1の表示部10は平面であるため、第1の映像データA11を算出するための変倍処理は、走査ライン毎の変倍処理である必要はない。ただし、第1の映像データA11を算出するための変倍処理を、第2の映像データS12を算出するための処理と同様に、走査ライン毎の変倍処理とすることも可能である。
 図1における映像処理部150は、第2の表示部20に入力される第2の映像データA21を、位置情報取得部40から得られる視点81の位置情報B1に応じて変化させる。映像処理部150は、視点81の位置が変化した場合であっても、入力された映像データA10に走査ライン毎の変倍処理を施すことによって、観察者80が3次元空間上の虚像面21の位置及び傾きが変化しないと認識するように、第2の映像データA21を生成する。
 図3は、実施の形態1に係る映像表示装置100の映像処理部150の要部の構成要素を示すブロック図である。図3に示されるように、映像処理部150は、入力された映像データA20に走査ライン毎の変倍処理、すなわち、拡大又は縮小の処理を行うことができる変倍処理部151と、変倍処理に用いる変倍率、すなわち、拡大率又は縮小率を決定する変倍率算出部152と、変倍率の決定に用いられる参照情報をパラメータテーブル154として格納する記憶部153とを有する。映像処理部150は、第2の表示部20に表示される第2の映像を示す映像データA20と、観察者80の視点81の位置を取得するための位置情報取得部40から得られる視点81の位置情報B1とを受け取り、走査ライン毎の変倍処理が行われた第2の映像データA21を第2の表示部20に提供する。映像処理部150の変倍率算出部152は、視点81の位置情報と記憶部153に格納されているパラメータテーブル154の情報とに基づいて、走査ライン毎の変倍率を算出する。実施の形態1において、走査ライン毎は、例えば、複数の画素を含む水平走査ライン毎である。走査ライン毎は、複数の画素を含む垂直走査ライン毎とすることも可能であり、水平走査ライン及び垂直走査ラインの両方で変倍処理を行うことも可能である。変倍処理部151は、変倍率算出部152で決定された走査ライン毎の変倍率を受け取り、入力された映像データA20に走査ライン毎の変倍処理を行い、走査ライン毎の変倍処理が行われた第2の映像データA21を出力する。
 記憶部153に格納されたパラメータテーブル154は、例えば、変倍率算出部152において使用される算出式において必要となる定数を格納したデータテーブルである。パラメータテーブル154として格納されるデータは、例えば、観察者80の視点81の位置毎に、3次元空間内における所望の位置に虚像面21の虚像を認識させる投影画像(すなわち、第2の表示部20の表示領域20aに表示される第2の映像)の投影位置情報を有している。この投影位置情報は、例えば、3次元空間における一次関数で表される3次元平面情報と、この3次元平面情報が示す平面を切り取る際の境界条件とを含むことができる。また、投影位置情報は、例えば、所望の画像の投影面における単位画素の各々の3次元位置情報を含むデータセットであってもよい。単位画素とは、画像を予め決められた複数行及び複数列の領域に分割したときにおける、各領域に含まれる画素群である。
 また、パラメータテーブル154は、パネル30の3次元位置情報を保持してもよい。パネル30の3次元位置情報は、例えば、パネル30の曲面を表す指数関数又は3次関数などの3次元曲面を示す関数と、パネル30の座標とを含んでもよい。また、パラメータテーブル154は、例えば、パネル30の曲面を3次元空間の座標軸で表される3点の単位座標点で結ぶ複数のポリゴンの組み合わせで近似し、この近似に使用された複数のポリゴンを示す座標情報を含んでもよい。
《1-2》動作
 図4は、実施の形態1に係る映像表示装置100の光学系の構造、虚像面21、及び実像面11を概略的に示す縦断面図である。図4に示されるように、実施の形態1では、第1の表示部10の表示領域10aに表示された第1の映像(例えば、後述の図11に示される遠近法を用いた映像)を見た観察者80は、第1の表示部10の表示領域10aに表示された第1の映像を表示領域10aに対して傾斜した実像面11に存在する実像11aとして認識することができる。実施の形態1では、実像面11が、第1の表示部10の表示領域10aの垂直方向の略中心の位置を交差位置とし、表示領域10aに対して約45度の角度で交差するように、第1の表示部10の表示領域10aに表示される第1の映像を設定している。第1の表示部10の表示領域10aに表示される第1の映像を調整することにより、実像面11が表示領域10aと交差する交差位置、実像面11が表示領域10aと交差する交差角度、及び実像11aの表示サイズを任意に設定可能である。実施の形態1では、観察者80の視点81から見て実像面11の前方及び後方に、すなわち、実像面11に交差するように虚像面21が存在している。実像面11の交差位置、交差角度、及び表示サイズを変更する方法は、後述の実施の形態2で説明される。
 虚像面21に虚像21aを表示するために、第2の表示部20によって投影される第2の映像の垂直方向の変倍率の算出方法について説明する。映像処理部150に入力される映像データA20は、所望の実像面11の表示サイズに合わせた解像度を持つ映像情報である。ここで、入力される映像データA20の各水平走査ラインに対して、実像面11に配置される点と観察者80の視点81の位置とを直線で結ぶ。例えば、図4における実線の直線82aは、観察者80の視点81の位置と実像面11における上端の水平走査ラインとを結ぶ直線である。また、実線の直線82bは、観察者80の視点81の位置と実像面11における下端の水平走査ラインとを結ぶ直線である。これらの直線82a,82bは、任意に設定されており、この設定内容を示す設定情報は記憶部153のパラメータテーブル154に格納される。直線82a,82bは、実像面11の位置情報と位置情報取得部40から得られる観察者80の視点81の位置情報とから、3次元空間における一次関数として算出できる。
 次に、観察者80の視点81と実像面11とを結ぶ直線82a,82bにおいて、虚像面21との交点を結ぶことで、観察者80から見て実像面11と同様に虚像面21が知覚されるようにするための、虚像面21上における各水平走査ラインの垂直方向の表示位置が分かる。ここで、求めるべき各水平走査ラインの垂直方向の表示位置は、虚像面21との交点に投影する第2の表示部20の表示領域20aの第2の映像の位置であるから、直線82a,82bをパネル30の面から対象の位置に反転した直線(すなわち、破線22a,22b)と第2の表示部20の表示領域20aとの交点を算出する。例えば、図4における直線82aと交差する実像面11の上端の水平走査ラインでは、破線22a上と第2の表示部20の表示領域20aとの交点が算出位置となる。同様に、直線82bと交差する実像面11の下端の水平走査ラインでは、破線22b上と第2の表示部20の表示領域20aとの交点が算出位置である。これらの各破線22a,22bは、パラメータテーブル154に格納しているパネル30の3次元位置情報と直線82a,82bを示す一次関数とから算出することができる。算出される各水平走査ラインの第2の表示部20の表示領域20a上の位置座標は、第2の映像データA21の表示位置と同義である。このため、算出される各水平走査ラインの第2の表示部20の表示領域20a上の位置座標を、第2の表示部20の表示領域20aにおける2次元座標に変換することで、入力された映像データA20に対する垂直方向の変倍率を得ることができる。
 虚像面21に虚像21aを表示するために、第2の表示部20によって投影される映像の水平方向の変倍率の算出方法について説明する。観察者80にとって、対象となる表示領域は、直線遠近法により、手前に位置するほど拡大されて認識され、遠くにあるほど縮小されて認識される。そこで、実施の形態1の水平方向の水平走査ライン毎の変倍率は、観察者80から見たときの虚像面21と実像面11との距離の差分、すなわち、z軸方向の位置の違いを考慮して算出してもよい。
 図5は、実施の形態1に係る映像表示装置100の映像処理部150における走査ライン毎の変倍率(縮小率)の算出方法の例を示す横断面図である。図5の例では、観察者80の視点81から見て実像面11が虚像面21より遠くに位置しているため、虚像を、水平方向、すなわち、x軸方向に縮小する必要がある。その縮小率を算出するには、実像面11の左右の端部から観察者80の視点81へと結ぶ直線と、虚像面21との交点を取り、2つの交点間の長さD2を求める。長さD2と入力された映像データA20に基づく水平方向のサイズとの比が求めるべき縮小率である。
 図6は、実施の形態1に係る映像表示装置100の映像処理部150における走査ライン毎の変倍率(拡大率)の算出方法の例を示す横断面図である。図6の例では、観察者80の視点81から見て実像面11が虚像面21より近くに位置しているため、虚像を、水平方向、すなわち、x軸方向に拡大する必要がある。その拡大率を算出するには、実像面11の左右の端部から観察者80の視点81へと結ぶ直線を延長し、延長された直線と虚像面21との交点を取り、2つの交点間の長さD4を求める。長さD4と入力された映像データA20の水平方向のサイズとの比が求めるべき拡大率である。
 なお、図5に示される水平方向のサイズD2は、所望の実像面11と虚像面21との距離であるD1aと比例関係にある。また、図6に示される水平方向のサイズD4は、所望の実像面11と虚像面21との距離であるD1bと比例関係にある。また、実像面11と虚像面21との距離は、垂直方向の変倍率の計算時に求めた3次元位置情報から算出できる。このため、水平方向の変倍率の計算も、パラメータ情報と視点81の位置情報、すなわち、図4に示される直線82a方向の距離D1aと図4に示される直線82b方向の距離D1bから算出可能である。
 図3における変倍処理部151は、変倍率算出部152で求めた走査ライン毎の走査ライン方向の変倍率を用いて、入力された映像データA20に変倍処理を行う。この変倍処理では、例えば、映像データA20をメモリに保持し、映像データA20を垂直方向の変倍率に合わせた垂直方向の変倍、すなわち、走査ラインの間隔の変倍(例えば、縮小)後の映像データに変換し、水平走査ライン毎の水平走査方向の変倍率を用いて水平走査ライン毎の変倍処理を行う。また、変倍処理は、例えば、入力される映像データA20の全画素のデータを記憶部(図示せず)に保持し、全画素のデータに、変倍率情報から算出できる全画素についての射影変換行列を掛け合わせて行ってもよい。
 図7は、実施の形態1に係る映像表示装置100によって表示される第1の映像及び第2の映像の例を示す図である。図7は、映像表示装置100が車両のインストルメントパネルに搭載された車載ディスプレイである場合を示している。観察者80は、例えば、車両の運転者である。図7は、車両の中央前方に映像表示装置100が配置されている場合を示している。実施の形態1による曲面形状のパネル30を利用することで、映像表示装置100は、車両に必要となる機能の配置スペースを圧迫しない小型の筐体サイズを実現することができる。また、曲面形状のパネル30により、車両のフロント面又はサイド面からの外光を観察者80である運転者に向けて反射することを抑制することができる。
 図7における表示内容の例として、第1の表示部10には、地図におけるインフォメーション情報として、現在地情報111、目的地までの距離情報112、方向指示のアイコン113が表示されている。第2の表示部20によって表示される虚像は、地図画像121を含んでいる。実像面11と虚像面21を交差させることで、観察者80にとって地図上での奥行き感を直観的に感じ取ることが可能となり、地図上の方向指示内容を読み間違い難くする効果がある。また、実像面11と虚像面21を交差させることで、車両と地図表示内容との速度感の差異をなくして距離感を把握しやすくする効果がある。
 図8は、実施の形態1に係る映像表示装置100の第2の表示部20に、表示される走査ライン毎の変倍処理を行っていない第2の映像(すなわち、比較例の第2の映像)の例を示す図である。図9は、実施の形態1に係る映像表示装置100の第2の表示部20に、図8に示される第2の映像(すなわち、比較例の第2の映像)を表示したときに観察者80が視認する虚像面21の虚像21aを示す図である。例えば、図8に示されるように、走査ライン毎の変倍処理が行われていない地図の映像データA20を第2の映像データA21として第2の表示部20に入力した場合、観察者80である運転者の視点81の位置から見える地図の虚像21aは、図9に示されるように、不自然に歪んだ形状になる。図9の例では、第2の表示部20の上端に近い位置の映像は水平走査方向に拡大されて表示される。この拡大率は、観察者80の視点81の位置により変化する。このため、例えば、視点81の位置を変化させると、観察者80は、図9に示される地図とは異なる形状の地図を虚像21aとして視認する。
 図10は、実施の形態1に係る映像表示装置100の第2の表示部20に表示される、走査ライン毎の変倍処理が行われた第2の映像の例(すなわち、実施の形態1における第2の映像の例)を示す図である。図11は、実施の形態1に係る映像表示装置100の第2の表示部20に図10に示される第2の映像(すなわち、実施の形態1における第2の映像)を表示したときに、観察者80が視認する虚像21bを示す図である。映像処理部150の処理によって、図8の地図映像を図10のような第2の映像データA21に変換することにより、図9に示されるように見えていた不自然に歪んだ形状の虚像を、図11に示されるような適切な形状の虚像21bとして表示することができる。これにより、観察者80は、第1の表示部10の表示領域10aに表示された第1の映像と第2の表示部20の表示領域20aに表示された第2の映像とに基づく実像と虚像との交差角度と交差位置を視覚的に適切に認識することができる。
《1-3》効果
 以上に説明したように、実施の形態1に係る映像表示装置100によれば、観察者80の視点81の位置が変化した場合であっても、観察者80は第1の表示部10に表示された第1の映像に基づく実像と第2の表示部20に表示された第2の映像に基づく虚像との立体感を適切に感じることができる。
 また、実施の形態1においては、パネル30は、観察者80から見て凹面形状であるから、第2の表示部20を小型化することができ、その結果、映像表示装置100を小型化することができる。
 また、従来の映像表示装置では、観察者80の感じる視覚的な立体感は、第1の表示部10と第2の表示部20とハーフミラーであるパネル30との位置関係にのみ依存しており、表示される映像の内容にかかわらず一定であった。これに対し、実施の形態1に係る映像表示装置100によれば、立体表現を変化させることができ、立体表現の幅を広げることができる。
《2》実施の形態2
 図12は、本発明の実施の形態2に係る映像表示装置200の映像処理部250の要部の構成要素を示すブロック図である。図12に示されるように、映像処理部250は、入力された映像データA10に変倍処理、すなわち、拡大又は縮小の処理を行うことができる変倍処理部251と、変倍処理に用いる変倍率、すなわち、拡大率又は縮小率を決定する変倍率算出部252とを有する。映像処理部250は、第1の表示部10に表示される第1の映像を示す映像データA10と、観察者80の視点81の位置を取得するための位置情報取得部40から得られる視点81の位置情報B1とを受け取り、変倍処理が行われた第1の映像データA11を第1の表示部10に提供する。映像処理部250の変倍率算出部252は、視点81の位置情報に基づいて変倍率を算出する。変倍処理部251は、変倍率算出部252で決定された変倍率を受け取り、入力された映像データA10に変倍処理を行い、変倍処理が行われた第1の映像データA11を出力する。実施の形態2に係る映像表示装置200は、実像を表示する第1の表示部10に入力される映像データA10に対して映像処理部250による変倍処理を行い、交差する実像面11と虚像面21の成す交差角度を視点81の位置が変化しても一定に維持する。
 図12には記載していないが、実施の形態2に係る映像表示装置200の映像処理部250は、実施の形態1における映像処理部150の構成をも有している。したがって、実施の形態2に係る映像表示装置200は、実施の形態1に係る映像表示装置100と同様に映像データA20に走査ライン毎の変倍処理を行うことができる。
 第1の表示部10によって形成される実像面11は平面であるため、映像処理部250が行う第1の映像の変倍処理では、第2の映像の変倍処理の場合のように、走査ライン毎に変倍率を算出する必要はない。ただし、第1の映像の変倍処理に用いる変倍率を第2の映像の変倍処理における変倍率と同様に走査ライン毎に算出することも可能である。
 図13は、実施の形態2に係る映像表示装置200の映像処理部250における変倍率の算出方法の例(すなわち、視点81が高い位置にある場合の例)を示す縦断面図である。図14は、実施の形態2に係る映像表示装置200の映像処理部250における変倍率の算出方法の例(すなわち、視点が低い位置にある場合の例)を示す縦断面図である。
 映像処理部250は、実像面11と虚像面21との交差角度が、所望の角度に維持されるように、映像データA10を処理して第1の映像データA11を生成する。例えば、実像面11の傾きを変えると、第1の表示部10の表示領域10aのうちの、図13に示される視点81と実像面11の上端とを結ぶ直線83aの外側(すなわち、上側)の領域及び視点81と実像面11の下端とを結ぶ直線83bの外側(すなわち、下側)の領域の映像は、観察者80によって視認されない。同様に、実像面11の傾きを変えると、第1の表示部10の表示領域10aのうちの、図14に示される視点81と実像面11の上端とを結ぶ直線84aの外側(すなわち、上側)の領域及び視点81と実像面11の下端とを結ぶ直線84bの外側(すなわち、下側)の領域の映像は、観察者80によって視認されない。
 さらに、実施の形態2においては、第1の表示部10が平面であることから、所望の実像面11も平面とすることにより、観察者80から見た実像面11上の位置と第1の表示部10上の対応する位置との3次元的な距離は、垂直方向(y方向)及び水平方向(x方向)の各方向に対して線形変化となる。そのため、変倍率算出部252における垂直方向(y方向)及び水平方向(x方向)の変倍率の算出では、各走査ライン毎の変倍率の算出は、必ずしも必要ではない。変倍率算出部252における垂直方向及び水平方向の変倍率の算出に際しては、視線82の方向における変倍率を算出し、直線83a,83bの間の画素(又は直線84a,84bの間の画素)の変倍率は、視線82の方向における変倍率に基づいて、線形変化を利用して算出すればよい。
 図15は、実施の形態2に係る映像表示装置200の第1の表示部10の表示領域10aに表示される変倍処理が行われた第1の映像の例(すなわち、図13の場合の例)を示す図である。図16は、実施の形態2に係る映像表示装置200の第1の表示部10の表示領域10aに表示される変倍処理が行われた第1の映像の例(すなわち、図14の場合の例)を示す図である。観察者80の視点81の位置に基づいて表示領域の投影角度及び変倍率を変化させることで、虚像面21と一定の角度で交差して表現することが可能となる。
 以上に説明したように、実施の形態2に係る映像表示装置200によれば、観察者80の視点81の位置が変化した場合であっても、観察者80は第1の表示部10に表示された第1の映像に基づく実像と第2の表示部20に表示された第2の映像に基づく虚像との立体感を適切に感じることができる。
 上記以外の点について、実施の形態2に係る映像表示装置200は、実施の形態1に係る映像表示装置100と同じである。
《3》実施の形態3
 図17は、本発明の実施の形態3に係る映像表示装置300の構成を概略的に示す図である。図17は、映像表示装置300の光学系を斜め上から見た構造と、視線82の方向に映像を見ている観察者80と、映像処理部350とを示している。図17において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。
 図17に示されるように、実施の形態3に係る映像表示装置300は、映像を表示する表示領域10aを有する第1の表示部10と、映像を表示する表示領域20aを有する第2の表示部20と、光透過型反射パネルであるパネル31と、観察者80の眼の位置である視点81の位置情報を取得する位置情報取得部40と、第1の表示部10及び第2の表示部20に映像データを提供する映像処理部350とを有している。実施の形態3に係る映像表示装置300は、パネル31の形状の点において、実施の形態1に係る映像表示装置100と相違する。
 図17の例では、パネル31は、観察者80の視点81から見て凹面形状である。パネル31は、左右方向に湾曲する凹面形状を有している。図17の例では、パネル31を、視点81からパネル31に向かう視線82を含む略水平な平面、すなわち、xz平面に略平行な平面で切る断面は円弧状である。また、パネル31を、視線82を含む略垂直な平面、すなわち、yz平面に平行な平面で切る断面は直線状である。実施の形態3の構成により、虚像面21が左右方向に伸長するため、第2の表示部20の小型化が可能となり、映像表示装置300の小型化が可能である。
 図18は、実施の形態3に係る映像表示装置300の第2の表示部20に図8に示される第2の映像(すなわち、比較例の第2の映像)を表示したときに、観察者80が視認する虚像21cを示す図である。パネル31により、虚像面は、左右両方向に拡大され、かつ、左端に近づくほど又は右端に近づくほど虚像21cは垂直方向に大きく拡大されている。
 また、虚像21cの拡大率は、観察者80の視点81の位置により変化し、視点81が映像表示装置300の中央よりも右側に位置すると虚像21cの右側の部分の拡大率が小さくなり、左側の部分の拡大率は大きくなる。逆に、視点81が映像表示装置300の中央よりも左側に位置すると虚像21cの左側の部分の拡大率は小さくなり、右側の部分の拡大率は大きくなる。
 図19は、実施の形態3に係る映像表示装置300の第2の表示部20に表示される、走査ライン毎の変倍処理が行われた第2の映像の例(すなわち、実施の形態3における第2の映像データA21に基づく映像の例)を示す図である。なお、実施の形態3における映像処理部350の処理の目的は、実施の形態1の映像処理部150の処理の目的と同様であり、観察者80が認識する所望の虚像は、図11に示される虚像21bと同様である。つまり、実施の形態3においては、第2の表示部20の表示領域20aに、図19に示されるような垂直方向の縮小処理及び水平走査ライン毎の変倍処理が行われた映像を表示することで、図11に示される虚像21bのように、適切な立体感を感じさせることができる映像を観察者80に提供することができる。
 以上に説明したように、実施の形態3に係る映像表示装置300によれば、観察者80の視点81の位置が変化した場合であっても、観察者80は第1の表示部10に表示された第1の映像に基づく実像と第2の表示部20に表示された第2の映像に基づく虚像との立体感を適切に感じることができる。
 上記以外の点について、実施の形態3に係る映像表示装置300は、実施の形態1に係る映像表示装置100と同じである。
《4》実施の形態4
 図20は、本発明の実施の形態4に係る映像表示装置の映像処理部450の要部の構成要素を示すブロック図である。実施の形態4に係る映像表示装置は、車両(例えば、自動車)のインストルメントパネルに搭載されており、車両の走行状態を示す車両情報E1に基づいて映像の表示方法を切り替える。実施の形態4に係る映像表示装置は、映像処理部450が車両の走行状態を示す車両情報E1に基づいた処理を行う点において、実施の形態1に係る映像表示装置100と相違する。なお、図20には、車両情報E1に基づいて映像データA20の変倍処理を行う構成が示されているが、映像データA20の変倍処理の代わりに、又は、映像データA20の変倍処理に加えて、映像データA10の変倍処理を行ってもよい。
 図20に示されるように、映像処理部450は、入力された映像データA20に走査ライン毎の変倍処理、すなわち、走査ライン毎の拡大又は縮小の処理を行うことができる変倍処理部451と、変倍処理に用いる変倍率、すなわち、拡大率又は縮小率を決定する変倍率算出部452と、変倍率の決定に用いられる参照情報をパラメータテーブル454として格納する記憶部453とを有する。映像処理部450は、第2の表示部20に表示される第2の映像を示す第2の映像データと、観察者80の視点81の位置を取得するための位置情報取得部40から得られる視点81の位置情報と、映像表示装置が搭載される車両の状態を示す車両情報E1を取得する車両情報取得部455から車両情報E1(例えば、走行速度情報)を受け取り、走査ライン毎の変倍処理が行われた第2の映像データA21を第2の表示部20に提供する。映像処理部450の変倍率算出部452は、視点81の位置情報と記憶部453に格納されているパラメータテーブル454の情報と、車両情報E1とに基づいて、走査ライン毎の変倍率を算出する。走査ライン毎は、例えば、複数の画素を含む水平走査ライン毎である。走査ライン毎は、複数の画素を含む垂直走査ライン毎とすることも可能である。変倍処理部451は、変倍率算出部452で決定された走査ライン毎の変倍率を受け取り、入力された映像データA20に変倍処理を行い、走査ライン毎の変倍処理が行われた第2の映像データA21を出力する。
 映像処理部450は、例えば、車両のナビゲーション案内表示において、2つの表示映像の交差位置と方向指示位置が一致するように、ナビゲーション情報とパラメータとを連動させる。
 図21は、実施の形態4に係る映像表示装置において観察者80が視認する実像11及び虚像21の例(すなわち、車両の走行速度が遅い場合の例)を示す図である。図22は、実施の形態4に係る映像表示装置における観察者80が視認する実像11及び虚像21の例(すなわち、車両の走行速度が速い場合の例)を示す図である。方向点灯表示及び速度メーターなどの計器表示11dは、第1の表示部10により観察者80から垂直に見えるよう表示されている。矢印等のナビゲーション表示及びマップ情報等の道路標示21dは、映像処理部450によって、所望の虚像面21となるよう表示される。
 図21に示されるように、車両の走行速度が低速の場合、第1の表示部10が表示する実像11を表示する実像面と虚像21を表示する虚像面との成す角度を小さくすることで、ナビゲーション表示及び道路標示21dが視認する奥行き感を小さくする。この奥行き感により、低速走行時のナビゲーション表示及び道路標示21dにおいて、車両の位置と実際の道路との位置関係を知覚することができる。
 図22に示されるように、車両の走行速度が高速の場合、第1の表示部10が表示する実像11を表示する実像面と虚像21を表示する虚像面との成す角度を大きくすることで、ナビゲーション表示及び道路標示21dが視認する奥行き感を大きくする。この奥行き感により、高速走行時のナビゲーション表示及び道路標示21dにおいては、車両の位置と実際の道路との位置関係を知覚することができる。観察者80である運転者は、虚像21の傾きによって、高速走行時であることを把握し、目標位置(例えば、交差点など)までの距離が遠い段階でナビゲーション表示の指示を受けて、早期に運転上の調整(例えば、車線変更、減速など)を行うことができる。
 以上に説明したように、実施の形態4に係る映像表示装置によれば、観察者80の視点81の位置が変化した場合であっても、観察者80は第1の表示部10に表示された第1の映像に基づく実像と第2の表示部20に表示された第2の映像に基づく虚像との立体感を適切に感じることができる。
 上記以外の点について、実施の形態4に係る映像表示装置は、実施の形態1に係る映像表示装置100と同じである。
《5》変形例
 図23は、上記実施の形態1から4の変形例に係る映像表示装置の映像処理部のハードウェア構成を概略的に示す図である。図3、図12、図17、及び図20に示される映像処理部150,250,350,450は、集積回路で構成可能であるが、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを用いて(例えば、コンピュータにより)実現してもよい。また、映像処理部150,250,350,450の一部を、図23に示されるメモリ91とプログラムを実行するプロセッサ92とによって実現してもよい。
 また、パネル30又は31を半球形状の凹面形状のパネルとすることも可能である。この場合、パネル30又は31の上下左右に第2の表示部20を配置することで、半球形状の中心位置から離れるほど、拡大率の大きい虚像が表示される。
 また、上記実施の形態1から4に係る映像表示装置の構成要素は、互いに適宜組み合わせることが可能である。
 10 第1の表示部、 10a 表示領域、 11 実像面、 20 第2の表示部、 20a 表示領域、 21 虚像面、 21a 虚像、 30,31 パネル、 40 位置情報取得部、 80 観察者、 81 視点、 82 視線、 100,200,300 映像表示装置、 150,250,350,450 映像処理部、 A10 映像データ、 A11 第1の映像データ、 A20 映像データ、 A21 第2の映像データ、 B1 位置情報。

Claims (11)

  1.  入射する光を透過及び反射させる曲面形状のパネルと、
     第1の映像データに基づく第1の映像であって、前記パネルを通して予め決められた位置に到達する前記第1の映像を表示する第1の表示部と、
     第2の映像データに基づく第2の映像であって、前記パネルで反射して前記予め決められた位置に到達する前記第2の映像を表示する第2の表示部と、
     前記第1の映像及び前記第2の映像を観察する観察者の実際の視点の位置を示す位置情報を取得する位置情報取得部と、
     前記位置情報に基づいて前記第2の映像データの走査ライン毎の変倍率を決定し、前記変倍率を用いて前記第2の表示部に入力される前記第2の映像データに前記走査ライン毎の変倍処理を施す映像処理部と、
     を有することを特徴とする映像表示装置。
  2.  前記パネルは、前記視点から見て凹面形状であることを特徴とする請求項1に記載の映像表示装置。
  3.  前記パネルは、前記視点から前記パネルに向かう視線を含む水平面で切る断面が直線状であり、前記視線を含む垂直面で切る断面が円弧状であることを特徴とする請求項2に記載の映像表示装置。
  4.  前記走査ライン毎の変倍処理は、水平走査ライン方向の変倍処理であることを特徴とする請求項3に記載の映像表示装置。
  5.  前記パネルは、前記視点から前記パネルに向かう視線を含む水平面で切る断面が円弧状であり、前記視線を含む垂直面で切る断面が直線状であることを特徴とする請求項2に記載の映像表示装置。
  6.  前記走査ライン毎の変倍処理は、垂直走査ライン方向の変倍処理であることを特徴とする請求項5に記載の映像表示装置。
  7.  前記映像処理部は、前記第1の映像データに基づく前記第1の映像を変倍する処理を行うことを特徴とする請求項1から6のいずれか1項に記載の映像表示装置。
  8.  前記映像処理部は、前記観察者によって前記第1の映像に対応する実像が存在すると認識される実像面と前記観察者によって前記第2の映像に対応する虚像が存在すると認識される虚像面とが交差するように、前記走査ライン毎の変倍処理を行うことを特徴とする請求項1から7のいずれか1項に記載の映像表示装置。
  9.  前記映像処理部は、前記観察者によって前記第1の映像に対応する実像が存在すると認識される実像面と前記観察者によって前記第2の映像に対応する虚像が存在すると認識される虚像面とが交差するように、且つ前記実像面と前記虚像面とが成す角度が一定に維持されるように、前記走査ライン毎の変倍処理を行うことを特徴とする請求項1から7のいずれか1項に記載の映像表示装置。
  10.  前記映像処理部は、
     前記位置情報と前記虚像面との関係を示す参照情報をデータベースとして予め格納する記憶部と、
     前記位置情報取得部によって取得された位置情報と前記データベースの参照情報とに基づいて前記走査ライン毎の変倍率を算出する変倍率算出部と、
     を有することを特徴とする請求項8又は9に記載の映像表示装置。
  11.  前記映像表示装置が搭載される車両の状態を示す車両情報を取得する車両情報取得部と、
     前記車両情報に基づいて前記走査ライン毎の変倍率を算出する変倍率算出部と、
     を有することを特徴とする請求項8又は9に記載の映像表示装置。
PCT/JP2018/023746 2018-06-22 2018-06-22 映像表示装置 WO2019244326A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201880094697.XA CN112313737B (zh) 2018-06-22 2018-06-22 影像显示装置
US17/052,218 US11380288B2 (en) 2018-06-22 2018-06-22 Image display device
PCT/JP2018/023746 WO2019244326A1 (ja) 2018-06-22 2018-06-22 映像表示装置
DE112018007760.8T DE112018007760T5 (de) 2018-06-22 2018-06-22 Bildanzeigevorrichtung
JP2020525188A JP6877643B2 (ja) 2018-06-22 2018-06-22 映像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/023746 WO2019244326A1 (ja) 2018-06-22 2018-06-22 映像表示装置

Publications (1)

Publication Number Publication Date
WO2019244326A1 true WO2019244326A1 (ja) 2019-12-26

Family

ID=68983548

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/023746 WO2019244326A1 (ja) 2018-06-22 2018-06-22 映像表示装置

Country Status (5)

Country Link
US (1) US11380288B2 (ja)
JP (1) JP6877643B2 (ja)
CN (1) CN112313737B (ja)
DE (1) DE112018007760T5 (ja)
WO (1) WO2019244326A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149085A (ja) * 1996-11-20 1998-06-02 Asahi Glass Co Ltd ホログラフィック表示装置
JP2000069504A (ja) * 1998-08-25 2000-03-03 Terumo Corp 立体画像表示装置
JP2003287707A (ja) * 2002-03-27 2003-10-10 Denso Corp 画像変換方法、画像処理装置、ヘッドアップディスプレイ、プログラム
JP2008134537A (ja) * 2006-11-29 2008-06-12 Optrex Corp 曲面表示パネル用画像データ生成装置
JP2012247387A (ja) * 2011-05-31 2012-12-13 Yazaki Corp 表示装置
JP2014119763A (ja) * 2012-12-18 2014-06-30 Lg Display Co Ltd 表示装置及びその駆動方法
JP2015041922A (ja) * 2013-08-22 2015-03-02 ヤマハ株式会社 画像処理装置および画像補正装置
WO2015064371A1 (ja) * 2013-10-31 2015-05-07 日本精機株式会社 車両情報投影システム及び投影装置
US20160379345A1 (en) * 2015-06-29 2016-12-29 Shanghai Avic Opto Electronics Co., Ltd. Image displaying system

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1043382A (ja) 1996-08-01 1998-02-17 Asahi Optical Co Ltd パチンコ用画像表示装置
JP3279265B2 (ja) * 1998-03-26 2002-04-30 株式会社エム・アール・システム研究所 画像表示装置
TWI332652B (en) * 2003-05-23 2010-11-01 Via Tech Inc System and method of auto-configuration settings for multimedia apparatus
US7111943B2 (en) * 2003-07-28 2006-09-26 Eastman Kodak Company Wide field display using a scanned linear light modulator array
JP4577500B2 (ja) 2004-11-29 2010-11-10 日本精機株式会社 表示装置
US7766483B2 (en) * 2005-04-06 2010-08-03 Suresh Balu Optical projection system and methods for configuring the same
JP4985921B2 (ja) * 2006-06-23 2012-07-25 日本精機株式会社 表示装置
JP2012242586A (ja) 2011-05-19 2012-12-10 Calsonic Kansei Corp 表示装置
CN102402005B (zh) * 2011-12-06 2015-11-25 北京理工大学 自由曲面双焦面单目立体头盔显示器装置
JP6171425B2 (ja) * 2013-03-12 2017-08-02 セイコーエプソン株式会社 虚像表示装置
CN103487941A (zh) * 2013-09-23 2014-01-01 苏州佳视特信息科技有限公司 一种汽车信息显示方法及装置
DE112015002814B4 (de) * 2014-06-13 2022-04-07 Mitsubishi Electric Corporation Anzeigevorrichtung für virtuelle Bilder
JP6478151B2 (ja) * 2014-10-24 2019-03-06 株式会社リコー 画像表示装置及び物体装置
JP6358180B2 (ja) 2015-07-21 2018-07-18 株式会社三洋物産 遊技機
JP2018077400A (ja) * 2016-11-10 2018-05-17 日本精機株式会社 ヘッドアップディスプレイ
JP2018077435A (ja) * 2016-11-11 2018-05-17 アイシン・エィ・ダブリュ株式会社 虚像表示装置
WO2018105585A1 (ja) * 2016-12-09 2018-06-14 日本精機株式会社 ヘッドアップディスプレイ
CN106526858A (zh) * 2016-12-13 2017-03-22 中国航空工业集团公司洛阳电光设备研究所 一种基于dlp的车载平显光学系统
JP6593461B2 (ja) * 2018-01-12 2019-10-23 株式会社Jvcケンウッド 虚像表示装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149085A (ja) * 1996-11-20 1998-06-02 Asahi Glass Co Ltd ホログラフィック表示装置
JP2000069504A (ja) * 1998-08-25 2000-03-03 Terumo Corp 立体画像表示装置
JP2003287707A (ja) * 2002-03-27 2003-10-10 Denso Corp 画像変換方法、画像処理装置、ヘッドアップディスプレイ、プログラム
JP2008134537A (ja) * 2006-11-29 2008-06-12 Optrex Corp 曲面表示パネル用画像データ生成装置
JP2012247387A (ja) * 2011-05-31 2012-12-13 Yazaki Corp 表示装置
JP2014119763A (ja) * 2012-12-18 2014-06-30 Lg Display Co Ltd 表示装置及びその駆動方法
JP2015041922A (ja) * 2013-08-22 2015-03-02 ヤマハ株式会社 画像処理装置および画像補正装置
WO2015064371A1 (ja) * 2013-10-31 2015-05-07 日本精機株式会社 車両情報投影システム及び投影装置
US20160379345A1 (en) * 2015-06-29 2016-12-29 Shanghai Avic Opto Electronics Co., Ltd. Image displaying system

Also Published As

Publication number Publication date
JPWO2019244326A1 (ja) 2021-01-07
CN112313737A (zh) 2021-02-02
CN112313737B (zh) 2023-05-26
US11380288B2 (en) 2022-07-05
US20220013088A1 (en) 2022-01-13
JP6877643B2 (ja) 2021-05-26
DE112018007760T5 (de) 2021-03-04

Similar Documents

Publication Publication Date Title
US11880035B2 (en) Adjustable three-dimensional augmented reality heads up display
US10055867B2 (en) Accelerated light field display
JP4852062B2 (ja) 単眼用画像表示装置及び単眼用画像表示方法
KR101409846B1 (ko) 3차원 증강현실 기반 헤드 업 디스플레이 장치
JP6342704B2 (ja) 表示装置
CN108700744A (zh) 信息显示装置
US10955685B2 (en) Volumetric display arrangement and a method for representing content of an image
US20220155614A1 (en) Floating image display device
US10885819B1 (en) In-vehicle augmented reality system
US20180284432A1 (en) Driving assistance device and method
US11300786B2 (en) Display apparatus, display method thereof, and head-up display apparatus
KR20230124484A (ko) 헤드업 디스플레이
CN110089112B (zh) 用于车辆仪表板的固定的深度显示器
JP6877643B2 (ja) 映像表示装置
JP7110968B2 (ja) ヘッドアップディスプレイ装置
EP3919306B1 (en) Air imaging apparatus for vehicle and human-machine interactive in-vehicle assistance system
JP2020126282A (ja) 入力システム、入力方法
US10146110B1 (en) Three-dimensional floating image system
JP6249891B2 (ja) 表示装置
KR102642697B1 (ko) 뷰-말단 표시자를 갖는 멀티뷰 디스플레이 시스템, 멀티뷰 디스플레이 및 방법
JP2004170879A (ja) ヘッドアップディスプレイ
CN219676413U (zh) 一种背光模组、图像生成单元、抬头显示装置和载具
CN112105982B (en) Head-up display without reflector
JP2022150245A (ja) 表示装置
WO2020014038A2 (en) Ghost multi-layer and single layer display systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18923741

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020525188

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18923741

Country of ref document: EP

Kind code of ref document: A1