WO2020194699A1 - 空中映像表示装置 - Google Patents

空中映像表示装置 Download PDF

Info

Publication number
WO2020194699A1
WO2020194699A1 PCT/JP2019/013752 JP2019013752W WO2020194699A1 WO 2020194699 A1 WO2020194699 A1 WO 2020194699A1 JP 2019013752 W JP2019013752 W JP 2019013752W WO 2020194699 A1 WO2020194699 A1 WO 2020194699A1
Authority
WO
WIPO (PCT)
Prior art keywords
aerial
image
unit
image display
display
Prior art date
Application number
PCT/JP2019/013752
Other languages
English (en)
French (fr)
Inventor
勇人 菊田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021508628A priority Critical patent/JP7086273B2/ja
Priority to US17/437,844 priority patent/US20220155614A1/en
Priority to CN201980094398.0A priority patent/CN113614620A/zh
Priority to PCT/JP2019/013752 priority patent/WO2020194699A1/ja
Publication of WO2020194699A1 publication Critical patent/WO2020194699A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/32Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers characterised by the geometry of the parallax barriers, e.g. staggered barriers, slanted parallax arrays or parallax arrays of varying shape or size
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/33Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving directional light or back-light sources
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/60Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images involving reflecting prisms and mirrors only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/32Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/312Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being placed behind the display panel, e.g. between backlight and spatial light modulator [SLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning

Definitions

  • the present invention relates to an aerial image display device that displays an image in the air without a display element.
  • the conventional aerial display device is provided with a function of adjusting the display position of the aerial image according to the viewpoint position of the observer, so that the aerial image can be perceived at a position suitable for the observer (for example). See Patent Document 1).
  • the change in the image quality of the aerial image visually recognized by the observer can be applied not only to the visible display range but also to the resolution and chromaticity.
  • the aerial display by adjusting the display position according to the viewpoint position, the aerial display is realized by trimming only the visible range in a wide aerial imaging range. There is a problem that it is not possible to cope with a change in visibility due to a change in image quality of an image displayed in the air only by a simple change in display position.
  • the present invention has been made to solve the above-mentioned problems, and has an image quality capable of recognizing image information to be visually recognized by the observer regardless of the viewpoint position of the observer.
  • the present invention comprises an image display unit that displays an image, an aerial imaging optical system that reimages the image in space by an optical member that reflects diffused light emitted from the image display unit, and aerial imaging.
  • a viewpoint position information acquisition unit that acquires the viewpoint position information of an observer who observes diffused light passing through an optical system, and a display control unit that controls display image information by inputting the viewpoint position information and outputting the image display unit.
  • the display control unit includes an aerial imaging range estimation unit that estimates an aerial imaging region in which an observer perceives an image display surface in space from the positional relationship of the aerial imaging optical system and viewpoint position information, and a viewpoint.
  • An aerial image quality estimation unit that estimates the image resolution in the aerial imaging region from the positional relationship of the position information and the aerial imaging optical system, and an aerial image quality estimation unit that outputs display image information to the image display unit from the information and image quality resolution of the aerial imaging area It is provided with an aerial image display processing unit.
  • a display device for aerial imaging it can be used as an image display device having a resolution capable of recognizing image information to be visually recognized by the observer regardless of the viewpoint position of the observer.
  • FIG. It is explanatory drawing which shows the structure of the aerial image display device 100 of Embodiment 1.
  • FIG. It is a block diagram which shows the structure of the display control part 15 of Embodiment 1.
  • FIG. It is explanatory drawing which shows the display position change example in Embodiment 1.
  • FIG. It is explanatory drawing which shows the display size change example in Embodiment 1.
  • FIG. It is explanatory drawing which shows the structure of the aerial image display device 100a which is another example of Embodiment 1.
  • FIG. It is explanatory drawing which shows the structure of the aerial image display device 100 in Embodiment 2.
  • FIG. It is explanatory drawing which shows the display control example in Embodiment 2.
  • FIG. 1 is an explanatory diagram showing the configuration of the aerial image display device 100 according to the first embodiment of the present invention.
  • the aerial image display device 100 includes an image display unit 10, a beam splitter 11, a retroreflection sheet 12, a viewpoint position detection device 14, and a display control unit 15.
  • the image display unit 10 sends the displayed image as light to the beam splitter 11.
  • the beam splitter 11 reflects the light from the image display unit 10 and sends it to the retroreflective sheet 12.
  • the retroreflective sheet 12 reflects the light from the beam splitter 11 and sends it to the beam splitter 11.
  • the beam splitter 11 transmits the light from the retroreflective sheet 12.
  • the light transmitted through the retroreflective sheet 12 is perceived by the observer 19 as an aerial image 13.
  • the viewpoint position detection device 14 sends information on detecting the viewpoint position of the observer 19 to the display control unit 15.
  • the display control unit 15 sends a signal for controlling the image to be displayed on the image display unit 10 from the information of the viewpoint position detection device 14 to the image display unit 10.
  • the aerial image display device 100 reimages the diffused light emitted from the image display unit 10 for displaying the image and the diffused light emitted from the image display unit in different spaces by the optical members having the properties of being reflected and transmitted a plurality of times.
  • An aerial imaging optical system a viewpoint position information acquisition unit that acquires the viewpoint position information of an observer observing diffused light that has passed through the aerial imaging optical system, and a display image that inputs the viewpoint position information and controls the image display unit.
  • a display control unit 15 for outputting information is provided, and the display control unit 15 estimates an aerial imaging region in which the observer perceives an image display surface in space from the viewpoint position information and the positional relationship of the aerial imaging optical system.
  • the aerial imaging optical system includes a beam splitter 11 and a retroreflective sheet 12.
  • the viewpoint position information acquisition unit is the viewpoint position detection device 14.
  • the image display unit 10 is a device that outputs the image to be displayed as light. This includes, for example, a display device having a liquid crystal element and a backlight such as a liquid crystal display, a display device of a self-luminous device using an organic EL element or an LED element, or a projection device using a projector and a screen. Be done.
  • a display that performs stereoscopic perception by motion parallax may be used.
  • the beam splitter 11 is an optical element that separates incident light into transmitted light and reflected light.
  • the beam splitter 11 is, for example, a resin transparent plate or a glass plate.
  • the intensity of transmitted light is generally higher than that of reflected light, so an optical element as a half mirror in which metal is added to improve the reflected intensity may be used.
  • a reflective polarizing plate may be used in which the behavior of reflection and the behavior of transmission change depending on the polarization state of the incident light by the liquid crystal element or the thin film element.
  • a reflective polarizing plate may be used in which the ratio between the transmittance and the reflectance changes depending on the polarized state of the incident light depending on the liquid crystal element or the thin film element.
  • the retroreflective sheet 12 is a sheet-shaped optical element having retroreflective performance that reflects incident light as it is in the incident direction.
  • Optical elements that realize retroreflection include bead-type optical elements in which small glass beads are laid out in a mirror surface, small convex triangular pyramids with each surface composed of mirror surfaces, or triangular pyramids with a hollow center. There are microprism type optical elements that are spread out.
  • the aerial image 13 is imaged by an optical system including an image display unit 10, a beam splitter 11, and a retroreflective sheet 12.
  • the light incident on the beam splitter 11 from the image display unit 10 is separated into reflected light and transmitted light.
  • the reflected light is incident on the retroreflective sheet 12 to perform retroreflection, is incident on the beam splitter 11 again, and is separated into reflected light and transmitted light again.
  • the transmitted light of the light re-incidents on the beam splitter 11 reaches the eyes of the observer 19 ahead of the transmitted light.
  • the light output from the image display unit 10 is diffused light which is diffused light in the surroundings, and by following the optical path, the diffused light converges at a position symmetrical with respect to the beam splitter 11.
  • the converged light diffuses again from the reconverged point and reaches the eyes of the observer 19. Therefore, the observer 19 perceives that the image is projected at the position of the aerial image 13.
  • the structure is not limited to the structure described above.
  • the beam splitter 11 and the retroreflective sheet 12 may be arranged in an array on a plane by superimposing two orthogonal mirror surfaces, and each element may be a two-sided corner reflector array.
  • the light incident on one mirror surface of this structure is reflected by the other mirror surface, and the light reaches the target position with respect to this element structure.
  • Light that is similarly reflected by a similarly diffused light source can be perceived as an aerial image by reconverging as in FIG.
  • the viewpoint position detecting device 14 detects the viewpoint position of the observer 19.
  • the viewpoint position detecting device 14 is an imaging device such as a camera.
  • the viewpoint position detecting device 14 detects the viewpoint position by acquiring the three-dimensional position information of the observer 19 by, for example, a compound eye camera. Further, the viewpoint position detection device 14 detects the viewpoint position by estimating the three-dimensional position by optical flow or estimating the position of the eye from the facial feature point even in the case of a monocular camera, for example. Further, in the viewpoint position detection device 14, in addition to the case where a camera image sensor is used, the position where the observer 19 is standing and the aerial image display device 100 are used by using a three-dimensional distance sensor or the like using infrared light.
  • the viewpoint position detecting device 14 detects the viewpoint position by inferring the position of observing the aerial image display device 100 by inputting the physical information of the observer 19 in advance from the observer 19. Good.
  • the physical information is, for example, height, for example, the presence or absence of wheelchair use, and, for example, sitting height information. If the position of the eyes is inferred from the height, or if wheelchair use is "Yes" and sitting height information is entered, from the floor surface of the viewpoint from the height obtained by adding the sitting height and sitting height of a general wheelchair. Calculate the height of the eye and estimate the position of the eyes.
  • FIG. 2 is a block diagram showing the configuration of the display control unit 15.
  • the display control unit 15 includes an aerial imaging range estimation unit 16, an aerial image quality estimation unit 17, and an aerial image display processing unit 18.
  • the display control unit 15 is input with the viewpoint position information 20 and outputs the output video information 25.
  • the aerial imaging range estimation unit 16 inputs the viewpoint position information 20, the optical system specification information 21a, and the optical system arrangement information 21b, and outputs the aerial imaging range information 22 to the aerial image quality estimation unit 17.
  • the optical system specification information 21a is, for example, the member structure specifications of the beam splitter 11 and the retroreflective sheet 12.
  • the optical system arrangement information 21b is information on the positional relationship of the aerial imaging optical system.
  • the positional relationship of the aerial imaging optical system is, for example, the positional relationship between the beam splitter 11 and the retroreflection sheet 12.
  • the aerial image quality estimation unit 17 is input with the viewpoint position information 20, the optical system specification information 21a, the optical system arrangement information 21b, and the aerial imaging range information 22, and sends the aerial image quality estimation information 23 to the aerial image display processing unit 18. Output.
  • the aerial video display processing unit 18 inputs the aerial video image quality estimation information 23 and the display video information 24, and outputs the output video information 25 as the output of the display control unit 15.
  • the aerial imaging range estimation unit 16 determines the imaging range of the aerial image that the observer 19 can perceive from the viewpoint position information 20, the optical system specification information 21a, and the optical system arrangement information 21b obtained from the viewpoint position detecting device 14. presume.
  • the image forming range of the aerial image is the range of the image display that can be perceived by the observer on the display surface of the image display unit 10 by the position information of the two-dimensional plane.
  • the optical system specification information 21a is a member structure specification of each member.
  • the member structure specifications of each member are, for example, the brightness, resolution, viewing angle information in the image display unit 10, the plate thickness, transmittance, reflectance in the beam splitter 11, or the retroreflection accuracy in the retroreflective sheet 12. ..
  • the optical system arrangement information 21b holds three-dimensional position information such as 3D-CAD data in which each component is arranged.
  • 3D-CAD data three-dimensional position information
  • the aerial imaging structure using retroreflection when the observer 19 looks at the direction of the aerial image 13, the beam splitter 11 is present on the line of sight, and further on the line transmitted or reflected from the beam splitter 11.
  • the aerial image 13 can be perceived when the retroreflective sheet 12 is present in. That is, by performing three-dimensional optical path tracing from the viewpoint position information 20, the optical system specification information 21a, and the optical system arrangement information 21b, the aerial imaging range estimation unit 16 can perform an aerial image on the display surface of the image display unit 10.
  • the perceptible range can be estimated.
  • the aerial image image quality estimation unit 17 is at each projection position from the viewpoint position information 20, the optical system specification information 21a, and the optical system arrangement information 21b within a range that can be perceived as an aerial image obtained from the aerial imaging range information 22.
  • the image quality of the aerial image imaging structure using retroreflection varies depending on the optical member and the position of the observer. Brightness, sharpness, and chromaticity are the main image quality factors that have an effect.
  • the parameters of the image quality element are mapped to each pixel in the aerial image display range obtained from the aerial imaging range estimation result. Details of each image quality element are described below.
  • the ratio of the brightness of the aerial image 13 to the brightness value of the image display unit 10 can be defined as the degree of change in the image quality.
  • the estimated brightness value [cd / m2] of the aerial image viewed from the position of the observer is used as the mapping data.
  • the "mapping data" is data showing the correspondence between the estimated value of the brightness at the position where the aerial image is displayed and the parameter that controls the expression method at that position.
  • the structure of the beam splitter 11 can be mentioned. Since the beam splitter 11 reflects and transmits once from the imaged optical path, the attenuation rate decreases depending on the product of the transmittance and the reflectance in the member structure.
  • the display control unit 15 controls the brightness or chromaticity of the video information output to the video display unit for each output pixel as follows.
  • the aerial image is based on the brightness L (x) [cd / m2] at the display pixel position x of the image display unit 10, the transmittance T of the beam splitter 11, the reflectance R of the beam splitter 11, and the light attenuation ⁇ in space.
  • the brightness A (x) [cd / m2] of 13 can be calculated as in the equation (1).
  • the transmittance T of the beam splitter 11 is a value represented by using a value from 0 to 1.
  • the reflectance R of the beam splitter 11 is a value expressed using a decimal number from 0 to 1.
  • the light attenuation factor ⁇ in space is a value expressed using a decimal number from 0 to 1.
  • the light attenuation factor ⁇ in space decreases as the distance from the display pixel position x to the position where the aerial image is formed decreases, and the distance from the display pixel position x to the position where the aerial image is formed decreases. It gets bigger.
  • the light may spread with respect to the incident light and the peak brightness may decrease. In that case, it can be calculated by integrating the attenuation rate of the peak brightness due to the retroreflection accuracy, which changes according to the incident angle, with the brightness of the display pixel.
  • a (x) L (x) x T x R x ⁇ ... (1)
  • the mapping data includes the signal strength of the frequency analysis result of the contrast sensitivity such as the contrast transfer function. It is desirable to store the maximum frequency with the threshold value.
  • a factor that reduces the sharpness is considered to be the structure of the beam splitter 11. When the beam splitter 11 has a thick plate shape, an imaging optical path for forming an aerial image is formed on each of the front surface and the back surface. Therefore, it depends on the brightness of the aerial image by each optical path, the thickness of the plate, and the arrangement angle.
  • the aerial images formed on each surface interfere with each other, and the sharpness decreases according to the degree of interference. Further, the retroreflection accuracy of the retroreflection sheet 12 is lowered depending on the element structure. For example, in the case of a bead type optical element, the light incident on the optical element is retroreflected in the order of refraction, reflection, and refraction, so that the light recurs accurately depending on the incident position of the light and the refraction angle from the incident angle. It may deviate from the reflection angle or may not be retroreflected.
  • the beam splitter 11 and the retroreflective sheet 12 can be estimated from the optical path information of each member structure spec and arrangement structure information and the observer position.
  • the member structure specifications are information about the material of a beam splitter such as an acrylic plate, a glass plate, a half mirror, or a reflective polarizing plate. Further, the member structure specifications are information about the element structure of the retroreflective sheet, such as a bead type optical element, a microprism type optical element, and an element size.
  • the member structure specifications are, for example, display elements of display devices such as liquid crystal displays, organic EL elements, and self-luminous devices using LED elements.
  • optical paths other than the optical path that forms the aerial image 13 may hinder the sharpness of the aerial image.
  • the light output from the image display unit 10 is mirror-reflected on the retroreflective sheet, and may be perceived as a mirror image in the back of the retroreflective sheet.
  • the imaged optical path can be calculated from the arrangement structure of the members, and the degree of influence on the image quality of the aerial image can be estimated.
  • a change such as chromatic aberration may occur due to a change in the optical path for each wavelength in the imaging optical path of the aerial image 13.
  • an optical member such as a beam splitter that improves the efficiency of reflection and transmission by a polarizing material such as a liquid crystal display
  • Color deviation occurs according to the angle of light.
  • the aerial image display processing unit 18 controls the display image information 24 to be displayed from the aerial image image quality estimation information 23 for each display position of the aerial image 13 and outputs it to the image display unit.
  • the control contents include display position, display size, display content, and sharpness processing according to the image quality.
  • FIG. 3 is an explanatory diagram showing an example of a display position change in the first embodiment.
  • FIG. 3A shows the observer 19 on the left side of the center of the beam splitter 11 when the observer 19 is located on the right side relative to the aerial image display device 100, that is, when viewed from the aerial image display device 100.
  • the display position 13A of the aerial image observed by the observer 19 when standing is shown.
  • FIG. 3B shows the display position 13B of the aerial image observed by the observer 19 when the observer 19 is located relatively in the center of the aerial image display device 100.
  • FIG. 3A shows the observer 19 on the left side of the center of the beam splitter 11 when the observer 19 is located on the right side relative to the aerial image display device 100, that is, when viewed from the aerial image display device 100.
  • the display position 13A of the aerial image observed by the observer 19 when standing is shown.
  • FIG. 3B shows the display position 13B of the aerial image observed by the observer 19 when the observer 19 is located relatively
  • 3C shows the observer 19 on the right side of the center of the beam splitter 11 when the observer 19 is located relatively to the left of the aerial image display device 100, that is, when viewed from the aerial image display device 100. Indicates the display position 13C of the aerial image observed by the observer 19 when standing. An example of control when the display position is changed will be described below.
  • the aerial image displayable range 30A, the aerial image image quality estimation result 31A, and the aerial image display position control result 32A in FIG. 3A are the ranges of the images observed by the observer 19 from the direction facing the aerial image display device 100. Represents.
  • the black-painted portion in the aerial image displayable range 30A, the aerial image displayable range 30B, and the aerial image displayable range 30C is the range of the result estimated as the aerial image display range.
  • the results of sharpness are shown in the aerial image image quality estimation result 31A, the aerial image image quality estimation result 31B, and the aerial image image quality estimation result 31C.
  • the lower the level represented by the curve in the opposite direction of the arrow in FIG. Indicates that the degree of adverse effect is strong.
  • the sharpness characteristics represented by the curves of the aerial image quality estimation result 31A, the aerial image image quality estimation result 31B, and the aerial image image quality estimation result 31C are the arrangement structure of the beam splitter 11 and the retroreflective sheet 12 and the beam splitter. It depends on the element structure of 11.
  • the range up to a certain threshold value or more with respect to the influence of the image quality is set in the display area, and the aerial image display position control result 32A and the aerial image display position control result 32B.
  • the aerial image display position control result 32A and the aerial image display position control result 32C it is possible to realize a display without a visual discomfort such as a difference in image quality for the observer.
  • FIG. 4 is an explanatory diagram showing an example of a display size change in the first embodiment.
  • a control example of the display size and the display content will be described.
  • the display control for the change in the position of the viewpoint of the observer 19 in the position of the observer 19, for example, an observer having a height difference such as an adult and a child will be described.
  • FIG. 4A shows an aerial image image quality estimation result 31A and a content control result 33A that estimate the image quality of the aerial image observed by the observer 19 when the observer 19 is at a lower position with respect to the aerial image display device 100. Is shown.
  • FIG. 4B shows an aerial image image quality estimation result 31B and a content control result 33B that estimate the image quality of the aerial image observed by the observer 19 when the observer 19 is at a high position with respect to the aerial image display device 100.
  • the image quality of the aerial image quality estimation result 31A and the aerial image image quality estimation result 31B is lower as the level represented by the curve is closer to the left side (in the opposite direction of the arrows in FIGS. 4 (A) and 4 (B)).
  • the aerial image image quality estimation result 31A has a high quality image quality on the lower side.
  • the lower 33A-2 of the content control result 33A displays the content requiring resolution such as characters, and the character size is increased in order to draw the attention of the child, and the upper part of the content control result 33A.
  • the ratio of simple perceptual display contents such as image effects is also arranged in 33A-1 so as to have a relatively large display ratio.
  • the character content is made smaller in the upper 33B-1 of the content control result 33B, and more in the lower 33B-2 of the content control result 33B.
  • brightness adjustment includes a method of dimming by controlling a drive circuit of a backlight source or an LED light source of a liquid crystal element, and a method of reducing and reconverting a display image itself by reducing the luminance component when the luminance hue is converted. Further, the sharpness can be dealt with by performing low resolution processing such as blurring by reducing the high frequency component of each brightness by filtering with peripheral pixels.
  • edge enhancement processing according to the content can be mentioned. Since display contents such as geometric shapes and characters have a strong visual effect on the emphasis of the extracted edge area, it is possible to separate the sharpness processing of edge enhancement or uniformization according to the display content control result. Optimal display control can be realized.
  • the aerial image image quality estimation unit can also estimate the brightness and the chromaticity, and a plurality of them.
  • the control process is used as a weighting parameter for the image quality element of the above according to the control content.
  • brightness and sharpness are major factors that make up the perceptibleness of an observer, but the degree of importance of both changes depending on the displayed content.
  • sharpness is more important for readability and weight is higher, while in the case of monotonous content such as illustrations and icons and content with diverse colors that should be perceived, the visual stimulus of the image itself. It is said that the weighting of brightness is large because the larger the value is preferred. Further, when the content has various colors, the influence of the chromaticity is large, so that the weighting of the chromaticity becomes large.
  • FIG. 5 is an explanatory diagram showing a configuration of an aerial image display device 100a, which is another example of the first embodiment.
  • the aerial image display device 100a is configured such that the aerial image display device 100 is arranged with the retroreflection sheet 12a behind the beam splitter 11 when viewed from the image display unit 10. In that case, the light incident on the beam splitter 11 from the image display unit 10 is transmitted and incident on the retroreflective sheet 12a, and then the retroreflected light is incident again on the beam splitter 11 and reflected. Will reach the observer 19.
  • the method of arranging the retroreflective sheet 12 can be arranged in an overlapping manner with the arrangement of FIG. 1, and in that case, both the transmission and reflection separation components of the light first incident on the beam splitter are in the air. Since it can be used for an optical path that forms an image into an image, it is possible to improve the efficiency of light utilization in an aerial image.
  • FIG. 1 or FIG. 1 There is also a structure for forming an aerial image even if the member configuration is other than that shown in FIG. 1 or FIG.
  • a two-sided corner reflector array structure in which two orthogonal mirror surfaces are superposed and arranged in an array on a plane can be mentioned.
  • the light incident on one mirror surface of this structure is reflected by the other mirror surface, and the light reaches the target position with respect to this element structure.
  • Light that is similarly reflected by a similarly diffused light source can be perceived as an aerial image by reconverging as in FIG. 1 or FIG.
  • the aerial image display device 100 of the first embodiment after estimating the image formation range of the aerial image that the observer can perceive from the viewpoint position information 20, the optical system specification information 21a, and the optical system arrangement information 21b.
  • the image quality at each projection position it is possible to have a resolution capable of recognizing the image information to be visually recognized by the observer regardless of the viewpoint position of the observer.
  • FIG. 6 is an explanatory diagram showing the configuration of the aerial image display device 100b according to the second embodiment.
  • the aerial image display device 100b has a structure in which a position adjusting unit 26 is added to the image display unit 10 in addition to the components of the aerial image display device 100 according to the first embodiment.
  • the position adjusting unit 26 is a device that changes the position of the image display unit 10 by, for example, a mechanical mechanism such as a stepping motor. Further, the position adjusting unit 26 controls the light emitted from the image display unit 10 such as a lens mechanism capable of driving for position adjustment and an electronic barrier, and controls the optical path of the image display light from the observer. It may change the displayed display position.
  • the operation of the display control unit 15 is the same as that of the first embodiment.
  • FIG. 7 is an explanatory diagram showing a display control example according to the second embodiment. Further, FIG. 7 is an explanatory diagram of an image display unit 10, a beam splitter 11, a retroreflection sheet 12, and an aerial image 13 in the aerial image display device 100b shown in FIG.
  • FIG. 7A shows an example in which the image display unit 10 and the beam splitter 11 are brought closer to each other by the position adjustment unit 26, and
  • FIG. 7B shows the image display unit 10 and the beam splitter 11 by the position adjustment unit 26. It shows an example that keeps away from.
  • the observer 19 realizes a visually optimal aerial image display by adjusting the arrangement position of the image display unit 10 according to the position of the observer 19.
  • the aerial imaging range estimation unit 16 estimates the aerial imaging range information 22 for each imaging position of the aerial image 13 that changes according to the adjustment range of the position adjusting unit 26.
  • the aerial image quality estimation unit 17 also estimates the aerial image quality estimation information for each aerial imaging range information 22. For example, when the observer 19 moves to a distant position and observes the aerial image 13, the position adjusting unit 26 moves the image display unit 10 and the beam splitter 11 away. Further, when the observer 19 moves to a closer position and observes the aerial image 13, the position adjusting unit 26 brings the image display unit 10 and the beam splitter 11 closer to each other.
  • the arrangement of the image display unit 10 is adjusted so as to obtain the optimum viewing distance from the three-dimensional position information of the viewpoint position of the observer. Further, the arrangement of the image display unit 10 is adjusted so that the viewing distance is adjusted to the aerial image imaging range and the visual field range from the three-dimensional position information of the observer's viewpoint position. For example, in the case of a display with a large pixel pitch such as an LED display, if the distance between the viewpoint position of the observer 19 and the aerial image 13 is short, it is difficult to perceive the shape and resolution of the image content itself. The distance between the viewpoint position and the aerial image 13 is controlled.
  • the position adjustment unit 26 keeps the image display unit 10 and the beam splitter 11 away from each other. Further, when the image display unit 10 is a display having a small pixel pitch, the position adjustment unit 26 brings the image display unit 10 and the beam splitter 11 close to each other. Further, in the case of display content that requires visual attention such as an alert to the observer 19 when displaying an icon or the like, it is possible to greatly produce visual attention by projecting it to a position close to the viewpoint position. ..
  • a control method according to a time change of the position of the observer 19 can be mentioned.
  • the range in which the aerial image is imaged is controlled so as to have the same position change as the distance change by using the display position control and display device position adjustment functions. By doing so, the observer 19 can follow and see the aerial image, and it is possible to improve the visual recognition level.
  • the aerial image display device 100b of the second embodiment after estimating the image formation range of the aerial image that the observer can perceive from the viewpoint position information 20, the optical system specification information 21a, and the optical system arrangement information 21b.
  • the optical system specification information 21a By estimating the image quality at each projection position and adjusting the arrangement of the image display unit 10 so that the viewing distance matches the aerial image imaging range and the viewing range from the three-dimensional position information of the observer's viewpoint position.
  • the observer 19 can easily recognize the aerial image.
  • Video display unit 11 Beam splitter 12 Retroreflective sheet 13 Aerial image 14 Viewpoint position detection device 15
  • Display control unit 16 Aerial imaging range estimation unit 17 Aerial image image quality estimation unit 18
  • Aerial image display processing unit 19 Observer 20
  • Viewpoint position information 21a Optical system specification information 21b
  • Optical system layout information 22 Aerial imaging range information 23
  • Aerial video image quality estimation information 24 Display video information 25
  • Position adjustment unit 30 Aerial video display range estimation result 31 Aerial video image quality estimation result 32
  • Aerial video display Position control result 33 Content control result 100

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)

Abstract

映像を表示する映像表示部10と、入射光を透過光と反射光とに分離するビームスプリッタ11と、入射光を入射方向に反射する再帰反射シート12と、空中結像光学系を通った拡散光を観察する観察者の視点位置情報を取得する視点位置情報取得部14と、視点位置情報を入力し映像表示部を出力することにより表示映像情報を制御する表示制御部15とを備え、表示制御部15は、空中結像光学系の位置関係及び視点位置情報から、観察者が空間上に映像表示面を知覚する空中結像領域を推定する空中結像範囲推定部16と、視点位置情報及び空中結像光学系の位置関係から、空中結像領域における映像解像度を推定する空中映像画質推定部17と、空中結像領域の情報及び画質解像度から、映像表示部10へ表示映像情報を出力する空中映像表示処理部18とを有する。

Description

空中映像表示装置
 本発明は、表示素子のない空中に映像を映し出す空中映像表示装置に関する。
 空中に映像を映し出す、空中映像結像技術を使用した装置において表示される映像について観察者に応じて調整する空中表示装置が存在する。従来の空中表示装置では空中映像に対して観察者の視点位置に応じて表示位置を調整する機能を備えることで、観察者に適した位置で空中映像を知覚することを可能としている(例えば、特許文献1参照)。
国際公開第2017/125984号
 空中映像結像技術において、観察者が視認する空中映像の画質の変化は、視認できる表示範囲だけではなく、解像度や色度も対象となり得る。
 従来の空中表示装置では表示位置を視点位置に合わせて調整することで、広い空中結像範囲において、視認出来る範囲にのみトリミングをした空中表示を実現している。単純な表示位置変化のみでは、空中表示する映像の画質変化に伴う視認性の変化に対応できないという問題があった。
 本発明は上述のような課題を解決するためになされたもので、観察者の視点位置によらずに観察者に視認させるべき映像情報を認識できる画質を持つものである。
 本発明は上記課題を解決するために、映像を表示する映像表示部と、映像表示部から発する拡散光を反射する光学部材によって空間上に再結像させる空中結像光学系と、空中結像光学系を通った拡散光を観察する観察者の視点位置情報を取得する視点位置情報取得部と、視点位置情報を入力し映像表示部を出力することにより表示映像情報を制御する表示制御部とを備え、表示制御部は、空中結像光学系の位置関係及び視点位置情報から、観察者が空間上に映像表示面を知覚する空中結像領域を推定する空中結像範囲推定部と、視点位置情報及び空中結像光学系の位置関係から、空中結像領域における映像解像度を推定する空中映像画質推定部と、空中結像領域の情報及び画質解像度から、映像表示部へ表示映像情報を出力する空中映像表示処理部と、を備えるものである。
 本発明により、空中結像を為す表示装置において、観察者の視点位置によらずに観察者に視認させるべき映像情報を認識できる解像度を持った映像表示装置として利用できる。
実施の形態1の空中映像表示装置100の構成を示す説明図である。 実施の形態1の表示制御部15の構成を示すブロック図である。 実施の形態1における表示位置変化例を示す説明図である。 実施の形態1における表示サイズ変化例を示す説明図である。 実施の形態1の別の例である空中映像表示装置100aの構成を示す説明図である。 実施の形態2における空中映像表示装置100の構成を示す説明図である。 実施の形態2における表示制御例を示す説明図である。
 以下、本発明の実施の形態を図面に従って説明する。
実施の形態1
 図1は、本発明の実施の形態1の空中映像表示装置100の構成を示す説明図である。図1において、空中映像表示装置100は、映像表示部10、ビームスプリッタ11、再帰反射シート12、視点位置検出装置14、及び表示制御部15を備える。映像表示部10は、表示した映像を光としてビームスプリッタ11に送る。ビームスプリッタ11は、映像表示部10からの光を反射して、再帰反射シート12に送る。再帰反射シート12は、ビームスプリッタ11からの光を反射して、ビームスプリッタ11に送る。ビームスプリッタ11は、再帰反射シート12からの光を透過する。再帰反射シート12を透過した光は観察者19に空中映像13として知覚される。視点位置検出装置14は、観察者19の視点位置を検出した情報を表示制御部15に送る。表示制御部15は、視点位置検出装置14の情報から映像表示部10に表示する映像を制御する信号を映像表示部10に送る。言いかえると、空中映像表示装置100は、映像を表示する映像表示部10と、映像表示部から発する拡散光を複数回の反射および透過の性質を持つ光学部材によって異なる空間上に再結像させる空中結像光学系と、空中結像光学系を通った拡散光を観察する観察者の視点位置情報を取得する視点位置情報取得部と、視点位置情報を入力し映像表示部を制御する表示映像情報を出力する表示制御部15とを備え、表示制御部15は、視点位置情報及び空中結像光学系の位置関係から、観察者が空間上に映像表示面を知覚する空中結像領域を推定する空中結像範囲推定部16と、視点位置情報及び空中結像光学系の位置関係から、空中結像領域における映像解像度を推定する空中映像画質推定部17と、空中結像領域及び画質から、映像表示部へ表示映像情報を出力する空中映像表示処理部18と、を有する。空中結像光学系は、ビームスプリッタ11と、再帰反射シート12を備える。視点位置情報取得部は、視点位置検出装置14である。
 映像表示部10は、表示する映像を光として出力する装置である。これは、例えば液晶ディスプレイのような液晶素子とバックライトとを備えた表示装置、有機EL素子やLED素子を用いた自発光デバイスの表示装置、又は、プロジェクタとスクリーンとを用いた投影装置が挙げられる。また上述のような2次元平面光源だけではなく、曲面を用いたディスプレイ、立体的に配置したディスプレイ、LED等の立体表示ディスプレイ、又はレンズ光学系やバリア制御を利用した観察者の両眼視差や運動視差による立体知覚を行うディスプレイを用いてもよい。
 ビームスプリッタ11は、入射する光を透過光と反射光とに分離する光学素子である。ビームスプリッタ11は例えば樹脂製の透明板やガラス板である。樹脂製の透明板の場合には一般的に反射光に比べ透過光の強度が高いことから、金属を付加して反射強度を向上させたハーフミラーとした光学素子でもよい。また、液晶素子や薄膜素子による入射光の偏光状態により、反射の振舞いと透過の振舞いとが変化する反射型偏光板を利用してもよい。また液晶素子や薄膜素子により入射光の偏光状態で透過率と反射率との割合が変化する反射型偏光板を利用してもよい。
 再帰反射シート12は、入射した光を入射した方向にそのまま反射する再帰反射性能を持つシート状の光学素子である。再帰反射を実現する光学素子には、鏡面状に小さなガラスビーズを敷き詰めたビーズタイプの光学素子、各面が鏡面で構成される凸形状の微小の三角錐または中心部を中空にした三角錐を敷き詰めたマイクロプリズムタイプの光学素子などがある。
 本実施の形態では、映像表示部10、ビームスプリッタ11、及び再帰反射シート12を備えた光学系により空中映像13を結像する。映像表示部10からビームスプリッタ11へと入射した光は、反射光と透過光とに分離される。このうち反射光は、再帰反射シート12へと入射して再帰反射を行い、ビームスプリッタ11に再度入射し、再度反射光と透過光に分離される。ビームスプリッタ11に再度入射した光のうちの透過光が、この透過光の先にいる観察者19の目へと到達する。映像表示部10から出力された光は、周囲に拡散された光である拡散光であり、上記光路を辿ることにより、ビームスプリッタ11に対して面対称となる位置に拡散光が収束を行う。収束した光は、再収束した地点から再度拡散して観察者19の目へと到達する。このため、観察者19は、空中映像13の位置に映像が投影されていると知覚する。
 また、観察者19が空中映像13の位置に映像が投影されていると知覚する構成であれば、上記で説明した構造に限るものではない。例えば、ビームスプリッタ11、再帰反射シート12を、直交した2面の鏡面を重ね合わせて平面上にアレイ状の配置として、それぞれの要素が2面コーナーリフレクタアレイとなる構造としてもよい。この構造の片方の鏡面方向に対して入射した光はもう片方の鏡面に反射しつつ、この素子構造に対して対象の位置へと光が到達する。同様に拡散する光源において同様の反射を行う光は図1と同様に再収束することで、空中映像を知覚することができる。
 視点位置検出装置14は、観察者19の視点位置を検出する。視点位置検出装置14は、例えばカメラなどの撮像デバイスである。視点位置検出装置14は、例えば複眼カメラにより観察者19の三次元的な位置情報を取得することにより視点位置を検出する。また、視点位置検出装置14は、例えば単眼カメラである場合でもオプティカルフローによる三次元位置推定や顔特徴点からの眼の位置推定によって視点位置を検出する。また、視点位置検出装置14は、カメラ撮像素子を用いる場合のほか、赤外光を用いた三次元距離センサなどを利用して、観察者19が立っている位置と空中映像表示装置100との相対位置を検出し、眼の位置を類推するなどの方法がある。また、視点位置検出装置14は、観察者19の身体情報を観察者19から事前に入力しておくことにより、空中映像表示装置100を観察する位置を類推することにより視点位置を検出してもよい。身体情報は、例えば身長であり、また例えば、車椅子使用の有無であり、また例えば、座高情報である。身長から目の位置を類推することや、車椅子使用が「有」であり、座高情報が入力されている場合は、一般的な車椅子の腰掛ける高さと座高を足した高さから視点の床面からの高さを算出して目の位置を類推する。
 図2は、表示制御部15の構成を示すブロック図である。表示制御部15は、空中結像範囲推定部16、空中映像画質推定部17、及び空中映像表示処理部18を備える。表示制御部15は、視点位置情報20が入力され、出力映像情報25を出力する。空中結像範囲推定部16は、視点位置情報20と光学系仕様情報21aと光学系配置情報21bとが入力され、空中結像範囲情報22を空中映像画質推定部17に出力する。光学系仕様情報21aとは、例えばビームスプリッタ11および再帰反射シート12のそれぞれの部材構造スペックである。光学系配置情報21bとは、空中結像光学系の位置関係の情報である。空中結像光学系の位置関係とは、例えば、ビームスプリッタ11と再帰反射シート12との位置関係である。空中映像画質推定部17は、視点位置情報20と光学系仕様情報21aと光学系配置情報21bと空中結像範囲情報22とが入力され、空中映像画質推定情報23を空中映像表示処理部18に出力する。空中映像表示処理部18は、空中映像画質推定情報23と表示映像情報24とが入力され、表示制御部15の出力として、出力映像情報25を出力する。各ブロックにおける処理内容について以下に説明する。
 空中結像範囲推定部16は、視点位置検出装置14から得られた視点位置情報20と光学系仕様情報21aと光学系配置情報21bとから観察者19が知覚できる空中映像の結像する範囲を推定する。空中映像の結像する範囲は、映像表示部10の表示面のうち、観察者が知覚できる映像表示の範囲を二次元平面の位置情報で示したものである。光学系仕様情報21aは上述の通り、各部材の部材構造スペックである。なお、各部材の部材構造スペックとは、例えば、映像表示部10における輝度、解像度、視野角情報、ビームスプリッタ11における板厚、透過率、反射率、又は再帰反射シート12における再帰反射精度である。光学系配置情報21bは、3D-CADデータのような各構成部材の配置する三次元位置情報を保持する。例えば、再帰反射を利用した空中結像構造では、観察者19から空中映像13の方向を見た際に、視線上にビームスプリッタ11が存在し、更にビームスプリッタ11から透過した線上又は反射した線上に再帰反射シート12が存在している場合に空中映像13を知覚することができる。つまり、視点位置情報20と光学系仕様情報21aと光学系配置情報21bとから三次元光路追跡を行うことで、空中結像範囲推定部16は、映像表示部10の表示面のうち、空中映像として知覚できる範囲を推定することができる。
 空中結像範囲においては、前述した2面コーナーリフレクタアレイ構造においても推定することが可能となる。2面コーナーリフレクタアレイ構造の場合には、入射する光路がそれぞれの鏡面に1回ずつ反射することで光路が結像される。そのため、構造と光源との入射角度との関係性により、1回以下や3回以上の反射を行う場合には観察者19に空中映像として知覚されないことが推定できる。
 空中映像画質推定部17は、空中結像範囲情報22より得られた空中映像として知覚できる範囲の中で、視点位置情報20と光学系仕様情報21aと光学系配置情報21bとから各投影位置における画質を推定する。再帰反射を利用した空中映像結像構造は、構成される光学部材および観察者位置によって画質が変動する。主に影響がある画質要素としては明るさ、鮮鋭さ、色度が挙げられる。本実施の形態においては、空中結像範囲推定結果から得られる空中映像表示範囲内の各画素に上記画質要素のパラメータをマッピングする。各画質要素について詳細を下記する。
 画質要素としての明るさについては、例えば、映像表示部10が持つ輝度値に対する空中映像13の輝度の比率を画質の変化の度合いとして定義することができる。観察者の位置から見ての空中映像の推定された輝度値[cd/m2]をマッピングデータとする。「マッピングデータ」とは、空中映像を表示する位置での明るさの推定値とその位置で表現方法を制御するパラメータとの対応関係を示したデータである。輝度が変化する要因としては、例えば、ビームスプリッタ11の構造が挙げられる。ビームスプリッタ11はその結像光路から反射と透過とを1回ずつ行うため、その部材構造における透過率と反射率の積によって減衰率が低下する。また、空中結像を為す光路についてはビームスプリッタ11と再帰反射シート12との距離によって大きく光路長が左右されることから、空中映像表示装置100が大型である場合には観察者が見る空中映像13の画素ごとに映像表示部10からの光路距離に差が発生し、明るさの減衰が発生することもある。そこで以下のように表示制御部15は、映像表示部に出力する映像情報の輝度又は色度を出力画素ごとに制御する。例えば、映像表示部10の表示画素位置xにおける輝度L(x)[cd/m2]、ビームスプリッタ11の透過率T、ビームスプリッタ11の反射率R,空間上の光の減衰率αにより空中映像13の明るさA(x)[cd/m2]は、式(1)のように求めることができる。なお、ビームスプリッタ11の透過率Tは、0から1までの値を用いて表される値である。同様に、ビームスプリッタ11の反射率Rは、0から1までの小数を用いて表される値である。また、空間上の光の減衰率αは、0から1までの小数を用いて表される値である。なお、空間上の光の減衰率αは、表示画素位置xから空中映像を結像する位置までの距離が大きいほど小さくなり、表示画素位置xから空中映像を結像する位置までの距離が小さいほど大きくなる。また再帰反射シート12の再帰反射精度に応じて、入射光に対して光が広がり、ピーク輝度が低下することがある。その場合には入射角度に応じて変化する再帰反射精度によるピーク輝度の減衰率を表示画素の輝度に積算することで算出することができる。
 A(x)= L(x)× T × R × α   ・・・・・・・・・・・・・(1)
 画質要素の鮮鋭さが低下した場合は、表示映像の解像感に影響を及ぼし、観察者にぼやけた映像として認識される。鮮鋭さが低下することは、テストチャートやエッジ画像を表示した際の周波数解析結果に影響を及ぼすことから、マッピングデータはコントラスト伝達関数などのコントラスト感度の周波数解析をした結果の内ある信号強度までを閾値とした最大周波数を格納することが望ましい。鮮鋭さが低下する要因にはビームスプリッタ11の構造による場合が考えられる。ビームスプリッタ11が厚みのある板形状の場合、表面と裏面とのそれぞれに空中映像を結像する結像光路ができることから、各光路による空中映像の明るさと板の厚さと配置角度とに応じた各面に結像する空中映像同士が干渉する、その度合いに応じて鮮鋭さは低下する。また、再帰反射シート12は、素子構造によって再帰反射精度が低下する。例えば、ビーズタイプの光学素子の場合、光学素子に入射した光は、屈折、反射、そして屈折の順で再帰反射を行うため、光の入射位置と入射した角度からの屈折角とによって正確な再帰反射角からずれることや、再帰反射しないことがある。また、例えば、マイクロプリズムタイプの光学素子の場合、プリズムに入射した光が3面中の2面に1回ずつ反射することによる反射の集積結果として、光の入射位置と入射した角度とによって反射回数が少ない箇所や多い箇所があり、このことから再帰反射の精度にズレや減衰が発生する。また素子構造が小さい場合には、回折による光の減衰があり、再帰反射方向がずれる。これらビームスプリッタ11および再帰反射シート12による影響は、各部材構造スペックおよび配置構造情報と観察者位置との光路情報によって推定することができる。なお、部材構造スペックとは、例えば、アクリル板、ガラス板、ハーフミラー又は反射型偏光板などのビームスプリッタの素材についての情報である。また、部材構造スペックとは、例えば、ビーズタイプの光学素子、マイクロプリズムタイプの光学素子、素子のサイズなど再帰反射シートの素子構造についての情報である。また、部材構造スペックとは、例えば、液晶ディスプレイ、有機EL素子やLED素子を用いた自発光デバイスなどの表示装置の表示素子である。
 また、観察者に届く光路のうち、空中映像13を結像する光路以外の光路が空中映像の鮮鋭さを阻害する場合がある。例えば、映像表示部10から出力された光が再帰反射シート上を鏡面反射することで、再帰反射シートの奥に鏡像として知覚される場合がある。この像が空中映像13と干渉することにより解像感を阻害する要因となる。この光路は部材の配置構造によって結像光路を算出可能であり空中映像の画質への影響度を推定できる。
 画質要素の色度については、空中映像13の結像光路中の波長ごとに光路が変化することで色収差のような変化が生じる可能性が考えられる。例えば構成部材中に液晶ディスプレイのように偏光素材によってビームスプリッタなどの反射と透過の効率を向上させる光学部材を映像表示部10として用いた場合には、偏光に変化を与える位相差素材によっては入射光の角度に応じた色偏差が発生する。こうした光学部材に対しては観察者位置からの光路を辿り、入射角度を推定することにより、色度変化量もしくは収差半径を推定しマッピングデータとして格納することが可能となる。
 空中映像表示処理部18は、空中映像13の表示位置ごとの空中映像画質推定情報23から表示すべき表示映像情報24に対して制御を行い映像表示部に出力する。制御内容は画質に応じて、表示位置、表示サイズ、表示コンテンツ、鮮鋭度処理が挙げられる。
 図3は、実施の形態1における表示位置変化例を示す説明図である。図3(A)は、空中映像表示装置100に対して観察者19が相対的に右側に位置するとき、つまり空中映像表示装置100から見たときに観察者19がビームスプリッタ11の中央より左側に立っている場合に、観察者19が観察する空中映像の表示位置13Aを示す。図3(B)は、空中映像表示装置100に対して観察者19が相対的に中央に位置するときに、観察者19が観察する空中映像の表示位置13Bを示す。図3(C)は、空中映像表示装置100に対して観察者19が相対的に左側に位置するとき、つまり空中映像表示装置100から見たときに観察者19がビームスプリッタ11の中央より右側に立っている場合に、観察者19が観察する空中映像の表示位置13Cを示す。以下で、表示位置を変化させた際の制御例について説明する。図3(A)における空中映像表示可能範囲30A、空中映像画質推定結果31A、及び空中映像表示位置制御結果32Aは、観察者19が空中映像表示装置100に対面する方向から観察した映像の範囲を表している。空中映像表示可能範囲30A、空中映像表示可能範囲30B、及び空中映像表示可能範囲30Cにおける黒塗りしている部分が空中映像表示範囲として推定した結果の範囲である。その範囲において空中映像画質推定部17によって推定された画質要素のうち、鮮鋭さの結果を空中映像画質推定結果31A、空中映像画質推定結果31B、及び空中映像画質推定結果31Cに示す。空中映像画質推定結果31A、空中映像画質推定結果31B、及び空中映像画質推定結果31Cは、曲線で表されるレベルが低い(図3(A)における矢印の逆方向)ほど、ぼやけなど映像品位における悪影響の度合いが強いことを示す。なお、空中映像画質推定結果31A、空中映像画質推定結果31B、及び空中映像画質推定結果31Cの曲線で表される鮮鋭さの特性は、ビームスプリッタ11と再帰反射シート12との配置構造及びビームスプリッタ11の素子構造によって決まる。空中映像表示処理部18における表示位置制御では、この中で画質の影響度に対してある閾値以上の範囲までを表示領域に設定し、空中映像表示位置制御結果32A、空中映像表示位置制御結果32B、及び空中映像表示位置制御結果32Cにおける黒塗りしている範囲にのみ空中映像を表示することで、観察者にとって画質差といった視覚的な違和感のない表示を実現する。
 図4は、実施の形態1における表示サイズ変化例を示す説明図である。表示サイズおよび表示コンテンツにおける制御例について説明する。観察者19の位置、例えば、大人と子供といった身長差のある観察者において、観察者19の視点の位置の変化に対する表示制御について説明する。図4(A)は、空中映像表示装置100に対して観察者19が低い位置にあるときの、観察者19が観察する空中映像の画質を推定した空中映像画質推定結果31A、コンテンツ制御結果33Aを示す。図4(B)は、空中映像表示装置100に対して観察者19が高い位置にあるときの、観察者19が観察する空中映像の画質を推定した空中映像画質推定結果31B、コンテンツ制御結果33Bを示す。空中映像画質推定結果31A、及び空中映像画質推定結果31Bは、曲線で表されるレベルが左側に近い(図4(A)、図4(B)における矢印の逆方向)ほど、画質が低いことを示す。図4(A)のように子供など低身長な観察者19が空中映像13を観察した場合には、空中映像画質推定結果31Aは下側に高品質な映像画質となる。このことから、例えば、コンテンツ制御結果33Aの下部33A-2に例えば文字など解像度を必要とするコンテンツを表示し、かつ子供の注意を向けるために、文字サイズを大きくし、コンテンツ制御結果33Aの上部33A-1に画像エフェクトなどの単純な知覚表示コンテンツの割合も比較的大きな表示比率となるように配置する。対して図4(B)のように大人など高い観察者位置視点の場合には、コンテンツ制御結果33Bの上部33B-1に例えば文字コンテンツを小さくし、コンテンツ制御結果33Bの下部33B-2に多くの視覚的情報が入るようなレイアウト構造に制御することで、観察者に適した表示制御を実現する。上記のように表示制御部15は、観察者の身長の高さに応じて映像表示部に表示する表示内容を変化させる。
 次に鮮鋭度処理における制御例について説明する。鮮鋭度処理における制御内容については、観察者に見せる空中映像範囲において一番映像品位の悪い画質に着目し、全画素に同じ映像品位になるよう画像処理を行うことで、均一の映像品位を実現する。画像処理は明るさの調整では液晶素子のバックライト光源やLED光源の駆動回路制御による減光や、表示映像自体を輝度色相変換した際の輝度成分を減少させて再変換する方法が挙げられる。また、鮮鋭度については周辺画素とのフィルタ処理により各輝度の高周波成分を低減させることでぼやけのような低解像度処理を行うことで対応出来る。
 また、画像処理による制御例としてはコンテンツに応じたエッジ強調処理も挙げられる。幾何形状や文字などの表示コンテンツは抽出したエッジ領域の強調に対して強い視覚効果が発生することから、表示コンテンツ制御結果に応じてエッジ強調するか均一化するかの鮮鋭度処理を切り分けることで最適な表示制御を実現できる。
 前記表示制御例では、空中映像画質推定結果31の鮮鋭さ結果のみパラメータとした制御例となっているが、前記空中映像画質推定部では明るさ、および色度に関しても推定することが出来、複数の画質要素を制御内容に応じて重みづけパラメータとして制御処理を用いることとなる。例えば観察者の知覚しやすさを構成する要素は明るさと鮮鋭さとが大きな要素であるが、表示コンテンツに応じて両者の重要さの度合いが変化する。文字コンテンツであれば鮮鋭さの方が可読性として重要であり重みづけが高くなる一方、イラストやアイコン等の単調コンテンツや色彩が多様かつ知覚すべきコンテンツの場合には、画像そのものの視覚的な刺激が大きい方が好まれるため明るさの重みづけが大きくなるとされる。また色彩が多様なコンテンツとなった場合には色度の影響が大きいこととなるので、色度の重みづけが大きくなる。
 図5は、実施の形態1の別の例である空中映像表示装置100aの構成を示す説明図である。空中映像表示装置100aは、空中映像表示装置100を、映像表示部10から見てビームスプリッタ11より奥に再帰反射シート12aを配置する構成としたものである。その場合には、映像表示部10からビームスプリッタ11へ入射した光が、透過し再帰反射シート12aへと入射を行い、その後再帰反射した光がビームスプリッタ11へと再度入射し、反射を行うことで観察者19へと届くこととなる。上記再帰反射シート12の配置方法は図1の配置構成と重複して配置することが可能であり、その場合にはビームスプリッタに最初に入射する光について、透過と反射の分離成分のどちらも空中映像へと結像する光路に利用することができることから、空中映像における光の利用効率を向上させることが可能となる。
 また図1又は図5の部材構成以外であっても空中映像を結像する構造もある。例えば直交した2面の鏡面を重ね合わせ平面上にアレイ状に配置した2面コーナーリフレクタアレイ構造が挙げられる。この構造の片方の鏡面方向に対して入射した光はもう片方の鏡面に反射しつつ、この素子構造に対して対象の位置へと光が到達する。同様に拡散する光源において同様の反射を行う光は図1又は図5と同様に再収束することで、空中映像を知覚することができる。
 このように実施の形態1の空中映像表示装置100では、視点位置情報20と光学系仕様情報21aと光学系配置情報21bとから観察者が知覚できる空中映像の結像する範囲を推定したうえで各投影位置における画質を推定することで、観察者の視点位置によらずに観察者に視認させるべき映像情報を認識できる解像度を持つことができる。
実施の形態2
 図6は、実施の形態2における空中映像表示装置100bの構成を示す説明図である。空中映像表示装置100bは、実施の形態1における空中映像表示装置100の構成要素に加えて、映像表示部10に位置調整部26を付加した構造となっている。位置調整部26は、例えば、ステッピングモーターなどの機械機構により、映像表示部10の位置を変化させる装置である。また、位置調整部26は、位置調整のための駆動が可能なレンズ機構や電子バリアなど映像表示部10から発せられた光を制御して、映像表示光の光路を制御する機構により観察者から見た表示位置を変化させるものでも良い。なお表示制御部15の動作については実施の形態1と同様である。
 図7は、実施の形態2における表示制御例を示す説明図である。また、図7は、図6に示した空中映像表示装置100bにおける映像表示部10、ビームスプリッタ11、再帰反射シート12、及び空中映像13を抜粋した説明図である。図7(A)は、位置調整部26により映像表示部10とビームスプリッタ11とを近づけた例を示しており、図7(B)は、位置調整部26により映像表示部10とビームスプリッタ11とを遠ざけた例を示している。図7は観察者19の位置に応じて映像表示部10の配置位置を調整することで、観察者19が視覚的に最適な空中映像表示を実現する。図7における表示制御を行う場合には空中結像範囲推定部16において、位置調整部26の調整範囲に応じて変化する空中映像13の各結像位置について空中結像範囲情報22を推定する。また同様に、空中映像画質推定部17についても各々の空中結像範囲情報22に対して空中映像画質推定情報を推定する。例えば、観察者19が遠ざかった位置に移動して空中映像13を観察する場合、位置調整部26は映像表示部10とビームスプリッタ11とを遠ざける。また、観察者19が近づいた位置に移動して空中映像13を観察する場合、位置調整部26は映像表示部10とビームスプリッタ11とを近づける。
 位置調整部26を利用した表示制御については、観察者の視点位置の三次元位置情報から最適な視距離となるように映像表示部10の配置の調整を行う。また、観察者の視点位置の三次元位置情報から空中映像結像範囲と視野範囲とに合わせた視距離となるように映像表示部10の配置の調整を行う。例えばLEDディスプレイなどの画素のピッチが大きいディスプレイの場合には観察者19の視点位置と空中映像13との距離が近いと映像コンテンツそのものの形状や解像感を知覚しにくいため、観察者19の視点位置と空中映像13との距離を離すよう制御する。よって、映像表示部10として画素のピッチが大きいディスプレイとする場合、位置調整部26は映像表示部10とビームスプリッタ11とを遠ざける。また、映像表示部10として画素のピッチが小さいディスプレイとする場合、位置調整部26は映像表示部10とビームスプリッタ11とを近づける。また、アイコン等の表示において観察者19にアラートなどの視覚的な注意を要する表示コンテンツの場合には、視点位置から近い位置に投影することにより、視覚的注意を大きく演出することが可能となる。
 また表示制御例として、観察者19の位置の時間変化に応じた制御方法も挙げられる。観察者19が空中映像表示装置100bに対する距離が変化した際に、空中映像が結像する範囲を表示位置制御および表示装置位置調整の機能を利用して距離変化と同様の位置変化となるよう制御することで、観察者19にとって追従して空中映像を見ることができ、視覚的な認識度を向上させることが可能となる。
 このように実施の形態2の空中映像表示装置100bでは、視点位置情報20と光学系仕様情報21aと光学系配置情報21bとから観察者が知覚できる空中映像の結像する範囲を推定したうえで各投影位置における画質を推定し、観察者の視点位置の三次元位置情報から空中映像結像範囲と視野範囲とに合わせた視距離となるように映像表示部10の配置の調整することで、観察者19が空中映像を認識しやすくすることができる。
 以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。
 10  映像表示部
 11  ビームスプリッタ
 12  再帰反射シート
 13  空中映像
 14  視点位置検出装置
 15  表示制御部
 16  空中結像範囲推定部
 17  空中映像画質推定部
 18  空中映像表示処理部
 19  観察者
 20  視点位置情報
 21a 光学系仕様情報
 21b 光学系配置情報
 22  空中結像範囲情報
 23  空中映像画質推定情報
 24  表示映像情報
 25  出力映像情報
 26  位置調整部
 30  空中映像表示範囲推定結果
 31  空中映像画質推定結果
 32  空中映像表示位置制御結果
 33  コンテンツ制御結果
 100 空中映像表示装置

Claims (9)

  1.  映像を表示する映像表示部と、
     前記映像表示部から発する拡散光を反射する光学部材によって空間上に再結像させる空中結像光学系と、
     前記空中結像光学系を通った前記拡散光を観察する観察者の視点位置情報を取得する視点位置情報取得部と
     前記視点位置情報を入力し、前記映像表示部に出力する表示映像情報を制御する表示制御部とを備え、
     前記表示制御部は、
     前記空中結像光学系の位置関係及び前記視点位置情報から、前記観察者が空間上に映像表示面を知覚する空中結像領域を推定する空中結像範囲推定部と、
     前記視点位置情報及び前記空中結像光学系の位置関係から、前記空中結像領域における映像解像度を推定する空中映像画質推定部と、
     前記空中結像領域の情報及び前記画質解像度から、前記映像表示部へ表示映像情報を出力する空中映像表示処理部と、
    を備えることを特徴とする空中映像表示装置。
  2.  前記表示制御部は、前記映像表示部に出力する映像情報の表示サイズと表示位置とのうち少なくとも一方を制御する
    ことを特徴とする請求項1に記載の空中映像表示装置。
  3.  前記表示制御部は、前記映像表示部に出力する映像情報の階調の高周波成分を入力した映像情報より低減させる処理、又はエッジ部分の強調処理を行う
    ことを特徴とする請求項1に記載の空中映像表示装置。
  4.  前記表示制御部は、前記映像表示部に出力する映像情報の輝度又は色度を出力画素ごとに制御する
    ことを特徴とする請求項1に記載の空中映像表示装置。
  5.  前記表示制御部は、前記観察者の視点の床面からの高さに応じて前記映像表示部に表示する表示内容を変化させる
    ことを特徴とする請求項1に記載の空中映像表示装置。
  6.  前記表示制御部は、前記映像表示部の配置位置を変化させる
    ことを特徴とする請求項1に記載の空中映像表示装置。
  7.  前記光学部材は、入射光を透過光と反射光とに分離するビームスプリッタと、入射光を入射方向に反射する再帰反射シートとにより構成される
    ことを特徴とする請求項1に記載の空中映像表示装置。
  8.  前記光学部材は、2面コーナーリフレクタアレイである
    ことを特徴とする請求項1に記載の空中映像表示装置。
  9.  前記視点位置情報取得部は、撮像素子を備えており、前記観察者を対象に撮像した情報から視点位置情報を算出する
    ことを特徴とする請求項1に記載の空中映像表示装置。
PCT/JP2019/013752 2019-03-28 2019-03-28 空中映像表示装置 WO2020194699A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021508628A JP7086273B2 (ja) 2019-03-28 2019-03-28 空中映像表示装置
US17/437,844 US20220155614A1 (en) 2019-03-28 2019-03-28 Floating image display device
CN201980094398.0A CN113614620A (zh) 2019-03-28 2019-03-28 空中影像显示装置
PCT/JP2019/013752 WO2020194699A1 (ja) 2019-03-28 2019-03-28 空中映像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/013752 WO2020194699A1 (ja) 2019-03-28 2019-03-28 空中映像表示装置

Publications (1)

Publication Number Publication Date
WO2020194699A1 true WO2020194699A1 (ja) 2020-10-01

Family

ID=72611194

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/013752 WO2020194699A1 (ja) 2019-03-28 2019-03-28 空中映像表示装置

Country Status (4)

Country Link
US (1) US20220155614A1 (ja)
JP (1) JP7086273B2 (ja)
CN (1) CN113614620A (ja)
WO (1) WO2020194699A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7106022B1 (ja) * 2021-06-16 2022-07-25 三菱電機株式会社 空中映像表示装置及び空中映像表示方法
WO2023162690A1 (ja) * 2022-02-22 2023-08-31 マクセル株式会社 空中浮遊映像表示装置
WO2024028930A1 (ja) * 2022-08-01 2024-02-08 日本電信電話株式会社 空中像表示システム、表示制御装置、表示制御方法およびプログラム
WO2024028928A1 (ja) * 2022-08-01 2024-02-08 日本電信電話株式会社 空中像表示システム、表示制御装置、表示制御方法およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11843763B2 (en) * 2019-05-14 2023-12-12 Nippon Telegraph And Telephone Corporation Display device and method
CN115280223A (zh) * 2022-06-14 2022-11-01 深圳盈天下视觉科技有限公司 空中成像系统及空中成像方法
CN116500804B (zh) * 2023-06-29 2023-09-15 成都工业学院 一种时分复用的逆反射立体显示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010143411A (ja) * 2008-12-18 2010-07-01 Denso Corp ヘッドアップディスプレイ装置
JP2012163702A (ja) * 2011-02-04 2012-08-30 National Institute Of Information & Communication Technology 視差式3次元空中映像表示装置
US20150145969A1 (en) * 2013-11-26 2015-05-28 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2015104107A (ja) * 2013-11-28 2015-06-04 日本放送協会 Ip立体映像推定装置及びそのプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101136231B1 (ko) * 2007-07-30 2012-04-17 도쿠리츠 교세이 호진 죠호 츠신 켄큐 키코 다시점 공중 영상 표시 장치
JP5313187B2 (ja) 2010-02-03 2013-10-09 日本放送協会 立体画像補正装置および立体画像補正方法
JP6424552B2 (ja) * 2014-10-02 2018-11-21 セイコーエプソン株式会社 画像表示装置
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
WO2017125984A1 (ja) * 2016-01-21 2017-07-27 パナソニックIpマネジメント株式会社 空中表示装置
KR102510944B1 (ko) * 2016-05-16 2023-03-16 삼성전자주식회사 입체 영상 장치 및 그를 포함하는 전자 장치
JP6717377B2 (ja) 2016-07-04 2020-07-01 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN109212753B (zh) * 2017-07-06 2021-01-29 京东方科技集团股份有限公司 可变显示距离的抬头显示系统、抬头显示方法、驾驶设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010143411A (ja) * 2008-12-18 2010-07-01 Denso Corp ヘッドアップディスプレイ装置
JP2012163702A (ja) * 2011-02-04 2012-08-30 National Institute Of Information & Communication Technology 視差式3次元空中映像表示装置
US20150145969A1 (en) * 2013-11-26 2015-05-28 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2015104107A (ja) * 2013-11-28 2015-06-04 日本放送協会 Ip立体映像推定装置及びそのプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7106022B1 (ja) * 2021-06-16 2022-07-25 三菱電機株式会社 空中映像表示装置及び空中映像表示方法
WO2022264294A1 (ja) * 2021-06-16 2022-12-22 三菱電機株式会社 空中映像表示装置及び空中映像表示方法
WO2023162690A1 (ja) * 2022-02-22 2023-08-31 マクセル株式会社 空中浮遊映像表示装置
WO2024028930A1 (ja) * 2022-08-01 2024-02-08 日本電信電話株式会社 空中像表示システム、表示制御装置、表示制御方法およびプログラム
WO2024028928A1 (ja) * 2022-08-01 2024-02-08 日本電信電話株式会社 空中像表示システム、表示制御装置、表示制御方法およびプログラム

Also Published As

Publication number Publication date
JPWO2020194699A1 (ja) 2021-10-14
JP7086273B2 (ja) 2022-06-17
CN113614620A (zh) 2021-11-05
US20220155614A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
JP7086273B2 (ja) 空中映像表示装置
TWI557491B (zh) 組合式可見光及非可見光投影系統
JP5576762B2 (ja) ディスプレイ制御装置
KR101131983B1 (ko) 차량속도에 따라 가상 영상정보 이미지의 투영위치를 변화시키는 차량용 헤드업 디스플레이 장치
KR20180062946A (ko) 디스플레이 장치 및 초점 디스플레이와 컨텍스트 디스플레이를 이용하여 디스플레이하는 방법
CN112042186B (zh) 具有增强偏角分离的超立体显示器
WO2021171403A1 (ja) 空中映像表示装置
WO2018100240A1 (en) Display apparatus image renderers and optical combiners
US10371998B2 (en) Display apparatus and method of displaying using polarizers and optical combiners
WO2018233275A1 (zh) 裸眼3d显示方法、装置和终端设备
JPH08136884A (ja) 3次元画像表示装置
WO2022264294A1 (ja) 空中映像表示装置及び空中映像表示方法
KR100813492B1 (ko) 차량용 헤드 업 디스플레이 장치
JP2002303821A (ja) 立体ディスプレイ装置及び立体ディスプレイ装置における画面制御方法
JP7127415B2 (ja) 虚像表示装置
JP2000214408A (ja) 画像表示装置
KR101716216B1 (ko) 이미지를 선택적으로 강조하는 이중-디스플레이 장치
JP3739348B2 (ja) 三次元表示装置
US10605968B2 (en) Imaging system
US10495895B2 (en) Display apparatus and method of displaying using polarizers
JP2513403B2 (ja) 投射型立体表示装置
KR102592092B1 (ko) 사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법
WO2024090297A1 (ja) ヘッドアップディスプレイシステム
JP3779575B2 (ja) 三次元表示装置
JP2016197816A (ja) ヘッドマウントディスプレイ及び制御方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021508628

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19921714

Country of ref document: EP

Kind code of ref document: A1