WO2012011321A1 - 立体表示装置及び立体表示方法 - Google Patents

立体表示装置及び立体表示方法 Download PDF

Info

Publication number
WO2012011321A1
WO2012011321A1 PCT/JP2011/062452 JP2011062452W WO2012011321A1 WO 2012011321 A1 WO2012011321 A1 WO 2012011321A1 JP 2011062452 W JP2011062452 W JP 2011062452W WO 2012011321 A1 WO2012011321 A1 WO 2012011321A1
Authority
WO
WIPO (PCT)
Prior art keywords
stereoscopic image
stereoscopic
display
image display
ultrasonic
Prior art date
Application number
PCT/JP2011/062452
Other languages
English (en)
French (fr)
Inventor
浩 今井
高梨 伸彰
藤男 奥村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/809,326 priority Critical patent/US8970484B2/en
Priority to JP2012525340A priority patent/JP5720684B2/ja
Publication of WO2012011321A1 publication Critical patent/WO2012011321A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/06Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses

Definitions

  • the present invention relates to a stereoscopic display device and a stereoscopic display method for presenting a stereoscopic image to an observer and providing a force sense corresponding to a stereoscopic image reproduction position presented to the observer.
  • stereoscopic display devices related to flat panel displays such as liquid crystal panels.
  • a stereoscopic display device using a flat panel display a lenticular lens, a parallax barrier, or the like is used to present a plurality of images having binocular parallax in a spatially separated manner on the left and right eyes. Attention has been focused on stereoscopic display devices that realize the above.
  • This apparatus has an advantage that it is not necessary for the observer to wear special glasses or the like in order to visually recognize a stereoscopic image (for example, see Non-Patent Document 1).
  • Non-Patent Document 2 a pseudo stereoscopic display device using a tactile display including an image display unit and an aerial ultrasonic phased array has been proposed (see Non-Patent Document 2).
  • the image display device described in Patent Document 1 is used as an image display unit that displays a pseudo stereoscopic image.
  • FIG. 1 shows a schematic diagram of a configuration of a stereoscopic display device related to the present invention.
  • the light emitted from the image display unit 1001 is reflected by the half mirror 1002 and then imaged by the concave mirror 1003 to generate an optical aerial image 1004 as a pseudo stereoscopic image.
  • the fingertip position 1007 of the observer is detected by the finger position sensor 1005, and the image displayed on the image display unit 1001 is updated according to the fingertip position 1007 detected by the finger position sensor 1005, and the ultrasonic actuator array 1006 is updated.
  • the optical aerial image 1004. it is possible to provide a sense that combines vision and tactile sensation without an observer wearing a special instrument.
  • the ultrasonic image generation space for generating an ultrasonic image by the ultrasonic actuator array and the aerial image generation space for generating an optical aerial image are independent of each other. Therefore, there is a problem that the entire stereoscopic display device is increased in size.
  • the stereoscopic display device related to the present invention since the stereoscopic display device related to the present invention generates the force sense by the ultrasonic wave propagating from the ultrasonic actuator array disposed above the optical aerial image, the supersonic wave propagating from the depth direction of the optical aerial image is generated. It cannot provide haptics by sound waves. For this reason, when the optical aerial image is pushed with the fingertip, there is a problem that the force sense cannot be reproduced in a direction parallel to the moving direction of the observer's fingertip (the depth direction of the optical aerial image).
  • the image display unit of the stereoscopic display device related to the present invention displays a pseudo stereoscopic image for reproducing an optical aerial image. For this reason, this image display unit can perform a stereoscopic display in which the stereoscopic image reproduction position is arbitrarily changed in the depth direction of the stereoscopic image in response to an instruction to move the fingertip or the like of the observer who pushes the optical aerial image. There is a problem that the application of the stereoscopic display device is limited.
  • An object of the present invention is to solve any of the above-described problems, and to reduce the size of the entire stereoscopic display device and provide a force sense in the depth direction of the stereoscopic image and a stereoscopic display method. Is to provide.
  • a stereoscopic display device includes a stereoscopic image display unit having a display surface that spatially separates and displays parallax images corresponding to at least two viewpoints, and a stereoscopic image display unit A force generation unit that oscillates sound waves toward the display surface and generates a predetermined pressure due to the sound waves reflected by the display surface at the same position spatially as the position of the stereoscopic image displayed by the stereoscopic image display unit; .
  • the stereoscopic display method displays a stereoscopic image by spatially separating parallax images corresponding to at least two viewpoints, and reflects sound waves on a display surface that displays the parallax image to generate a stereoscopic image.
  • a force sense is generated by propagating a sound wave in the same spatial position as the position of the image.
  • the ultrasonic image generation space by the force generation unit and the stereoscopic image generation space by the stereoscopic image display unit are spatially overlapped at the same position, the entire stereoscopic display device can be reduced in size. Further, the present invention can provide a force sense in the depth direction of a stereoscopic image with respect to a tactile part such as a fingertip of an observer.
  • FIG. 2 is a schematic diagram of the stereoscopic display device according to the first embodiment.
  • the stereoscopic display device according to the first embodiment includes a stereoscopic image display unit 1 having a display surface 11 that spatially separates and displays parallax images corresponding to at least two viewpoints, and a stereoscopic display.
  • a sound wave is oscillated toward the display surface 11 of the image display unit 1, and a predetermined pressure by the sound wave reflected by the display surface 11 is spatially the same position as the position of the stereoscopic image 8 displayed by the stereoscopic image display unit 1.
  • a force sense generating unit 2 generated at the same time.
  • the position of the stereoscopic image 8 indicates a position (reproduction position) where the stereoscopic image 8 is perceived, and indicates a position away from the display surface 11 of the stereoscopic image display unit 1.
  • the stereoscopic display device includes a finger position sensor 3 and a finger position detection circuit 4 as position detecting means for detecting a fingertip position 9 that is a fingertip as a tactile sense part of an observer of the stereoscopic image 8, and the stereoscopic image display unit 1.
  • a stereoscopic image generation circuit 5 that generates a parallax image to be displayed and an ultrasonic generation circuit 6 that generates an ultrasonic wave oscillated from the force sense generation unit 2 are provided.
  • the stereoscopic image display unit 1 displays a stereoscopic image 8 corresponding to the viewpoint position 7 of the observer on the display surface.
  • the fingertip position 9 of the observer is measured by the finger position sensor 3, and the fingertip position 9 is detected by the finger position detection circuit 4 based on the measurement result.
  • the haptic generation unit 2 has an oscillation region that oscillates ultrasonic waves toward the display surface 11 of the stereoscopic image display unit 1 and propagates the ultrasonic waves reflected by the display surface 11 in parallel with the depth direction of the stereoscopic image 8.
  • An ultrasonic actuator array 20 is provided.
  • the ultrasonic actuator array 20 converges the convergent ultrasonic wave at the fingertip position 9 detected by the finger position detection circuit 4 and provides a force sense stimulus to the fingertip position 9 of the observer.
  • the stereoscopic image generation circuit 5 updates the stereoscopic image 8 according to the fingertip position 9. Note that the ultrasonic waves oscillated from the ultrasonic actuator array 20 are regularly reflected by the display surface 11 of the stereoscopic image display unit 1 and propagate in parallel with the depth direction of the stereoscopic image 8.
  • FIG. 3 shows a perspective view of the stereoscopic display device of the first embodiment.
  • the stereoscopic image 8 is observed as an image erecting in the vertical direction 23 from the viewpoint position 7 of the observer.
  • the haptic stimulus F generated from the ultrasonic actuator array 20 is provided along the depth direction 24 in the portion of the stereoscopic image 8 corresponding to the fingertip position 9.
  • the image of the part of the stereoscopic image 8 corresponding to the fingertip position 9 is updated.
  • the three-dimensional image 8 of the pressed button is moved in the direction in which the button is pressed with respect to the three-dimensional image 8 in which a plurality of push buttons are reproduced.
  • the fingertip position 9 is provided in the direction opposite to the pressing direction.
  • a color liquid crystal panel in which 1280 pixels in the horizontal direction and 960 pixels in the vertical direction are arranged and the screen size is 300 mm in the horizontal direction and 200 mm in the vertical direction is used.
  • the color liquid crystal panel pixels of each color of red, blue, and green are arranged in the vertical direction, and one set of these sets constitutes one pixel (about 235 ⁇ m long ⁇ about 235 ⁇ m wide).
  • Lenticular lens is made of polycarbonate resin.
  • the lenticular lens uses a 640 cylindrical lens array as a lens, and the lens pitch is set to about 470 ⁇ m.
  • the optimal viewpoint position was set at a position 600 mm from the center of the display surface with respect to the depth direction of the stereoscopic image 8, and the focal length was set.
  • FIG. 4 is a schematic diagram for explaining the processing of the stereoscopic image generation circuit 5 in the first embodiment.
  • the stereoscopic image generation circuit 5 generates respective perspective projection images on the display surface 11 when the right eye viewpoint 31 and the left eye viewpoint 32 of the desired stereoscopic image 8 to be displayed are centered on the perspective.
  • a digital image processing circuit (not shown) as image processing means.
  • the digital image processing circuit performs perspective projection conversion of the parallax image according to the respective positions of the plurality of image display elements.
  • the right-eye perspective projection conversion image 34 and the left-eye perspective projection conversion image 35 respectively corresponding to the right eye viewpoint 31 and the left eye viewpoint 32 are converted into one pixel in the horizontal direction by the stereoscopic image generation circuit 5.
  • the images are alternately arranged at each time, and are formed into an image that can be stereoscopically viewed with a lenticular lens, and displayed on a color liquid crystal panel as an image display element.
  • images corresponding to the respective viewpoints of the right eye viewpoint 31 and the left eye viewpoint 32 of the observer are optically independently presented by the lenticular lens, and as shown in FIG.
  • the stereoscopic image 8 is observed as if it was erect in the vertical direction 23.
  • the observer can perform stereoscopic viewing with the naked eye without wearing special glasses or the like.
  • FIGS. 5A to 5C are diagrams for explaining the operating principle of the ultrasonic actuator array 20 in the first embodiment shown in FIG.
  • FIG. 5A shows a cross-sectional view of the ultrasonic actuator array 20 in the one-dimensional direction.
  • FIG. 5B shows the phase distribution when the ultrasonic convergence distance is 150 mm.
  • FIG. 5C shows a phase distribution when the ultrasonic convergence distance is 300 mm.
  • the ultrasonic actuator array 20 has 50 ⁇ 50 actuators 41 arranged on a plane at a pitch of 4 mm.
  • Each actuator 41 includes a control circuit that can freely control the pressure amplitude and phase of the ultrasonic wave generated by the ultrasonic wave generation circuit 6, and can provide an arbitrary phase distribution 42.
  • the convergent wavefront 44 directed to a desired point where the stereoscopic image 8 is generated by the stereoscopic image display unit 1 is propagated and a convergent ultrasonic wave can be generated. Therefore, by changing the phase distribution that drives each actuator 41, The ultrasonic image position can be changed.
  • the ultrasonic wave oscillated from the actuator 41 is reflected by the surface of the lenticular lens constituting the display surface 11 of the stereoscopic image display unit 1.
  • the polycarbonate resin forming the lenticular lens has an acoustic impedance larger than that of air, the ultrasonic waves are totally reflected on the display surface 11.
  • the ultrasonic waves totally reflected on the display surface 11 form an ultrasonic image 10 in the same direction as the depth direction of the displayed stereoscopic image 8.
  • the haptic stimulus F by the vibration stimulus can be provided by applying a modulation with a rectangular wave to the carrier wave at a frequency of 100 Hz, for example.
  • FIG. 6 shows the relationship between the stereoscopic image reproduction position and the ultrasonic image reproduction position in the first embodiment.
  • the central axis of the ultrasonic actuator array 20 intersects the center of the display surface 11 of the stereoscopic image display unit 1, the center-to-center distance is 100 mm, and the stereoscopic image reproduction position is the stereoscopic image display unit 1.
  • the ultrasonic image reproduction position may be set to Zmm + 100 mm.
  • the force distribution F may be provided to the fingertip by giving the phase distribution shown in FIG. 5C to the ultrasonic actuator array 20.
  • a force sense is provided so that the pressure supply intensity when the fingertip reaches the second finger position is larger than the first pressure supply intensity provided when the fingertip reaches the first fingertip position.
  • the finger position sensor 3 in the first embodiment was triangulated by stereo image measurement.
  • the finger position sensor 3 may be one using various optical elements such as distance measurement by blocking detection light, or a distance measuring element using ultrasonic waves.
  • an optical element that emits measurement light when used, light that avoids the visible light region is used as measurement light, or modulation is performed at a frequency different from the display update frequency (refresh rate) of the stereoscopic image display unit 1.
  • Use light when using an ultrasonic wave, the ultrasonic wave is set to a frequency different from the ultrasonic wave that provides a force sense.
  • FIG. 7A to 7D are schematic views for explaining the action of generating the inclined wavefront by the ultrasonic actuator array 20 in the first embodiment.
  • the wavefront angle ⁇ 2 is obtained using Equations 1 and 2 as in the case of the convergent ultrasonic wave.
  • the inclined wavefront 47 can be generated by giving a phase difference corresponding to the wavefront angle ⁇ 2.
  • the phase difference between the adjacent actuators 41 of the ultrasonic actuator array 20 is constant.
  • the oscillation region of the ultrasonic actuator array 20 is divided into a plurality of oscillation regions 21 and 22, and a plurality of ultrasonic images having different propagation directions from each of the plurality of oscillation regions 21 and 22.
  • a and B may be generated, respectively, and the plurality of oscillation regions 21 and 22 may be configured to reproduce different wavefronts.
  • the pitch of the lenticular lens constituting the display surface 11 of the stereoscopic image display unit 1 is about 470 ⁇ m, which is smaller than the ultrasonic wavelength of 4 mm, the convex surface of the lens group included in the lenticular lens is substantially less than the ultrasonic wave. Can be regarded as a flat surface. If necessary, the flatness of the ultrasonic reflection surface may be improved by disposing an optically transparent glass or resin flat plate on the display surface 11 of the stereoscopic image display unit 1.
  • a parallax barrier, a lens array for integral photography, or a pinhole array may be used as an optical system for performing stereoscopic display, and the viewpoint position may be two or more viewpoints.
  • the image display element in addition to the color liquid crystal panel, various flat display panels such as an organic EL panel, a plasma display panel, a surface electric field display panel, and electronic paper may be used.
  • a panel having a larger number of pixels and a larger screen size than the above-described configuration may be used.
  • the size of the ultrasonic actuator array, the pitch of the actuator, and the frequency are not limited to the present embodiment, and may be appropriately changed as necessary.
  • the ultrasonic image generation space by the force sense generation unit 2 and the stereoscopic image generation space in which the stereoscopic image display unit 1 generates the stereoscopic image 8 are spatially overlapped at the same position.
  • the entire display device can be reduced in size.
  • 1st Embodiment can provide the force sense by the ultrasonic wave with respect to the depth direction of the three-dimensional image 8 to an observer's fingertip.
  • the reproduction position of the stereoscopic image 8 can be changed in the depth direction of the stereoscopic image 8 in accordance with the movement of the fingertip of the observer, which can be widely applied to interactive applications. it can.
  • FIG. 8A the stereoscopic display device according to the second embodiment includes a pair of first force sense generators 51 and a pair of first force sense generators 51 disposed opposite to each other with the display surface 11 of the stereoscopic image display unit 1 interposed therebetween. Two force generation units 52 are provided.
  • the stereoscopic display device also includes the finger position sensor 3, the finger position detection circuit 4, the stereoscopic image generation circuit 5, and the ultrasonic wave generation circuit 6 as in the first embodiment. Since it is the same as that of 1st Embodiment, illustration is abbreviate
  • the first force sense generating unit 51 has a first ultrasonic actuator array 71.
  • the first ultrasonic actuator array 71 is arranged along one side above the display surface 11 of the stereoscopic image display unit 1.
  • the second force sense generator 52 has a second ultrasonic actuator array 72.
  • the second ultrasonic actuator array 72 is disposed along the bottom side below the display surface 11 of the stereoscopic image display unit 1.
  • the size of the ultrasonic actuator arrays 71 and 72 in the horizontal direction is 1 ⁇ 2 of the size of the ultrasonic actuator array 20 in the first embodiment.
  • the number of actuators 75 included in the ultrasonic actuator arrays 71 and 72 is 50 ⁇ 25, and the total size of the ultrasonic actuator arrays 71 and 72 is 100 mm ⁇ 200 mm.
  • the ultrasonic actuator array 71 is provided with the same phase distribution (the range of the opening of the ultrasonic actuator array 71) as in the first embodiment, and the ultrasonic wave is reflected on the display surface 11 of the stereoscopic image display unit 1 to An ultrasonic image is reproduced at position 9.
  • the second ultrasonic actuator array 72 disposed on the bottom side of the stereoscopic image display unit 1 has a phase distribution corresponding to FIG. 7B in which the phase distribution of the convergent spherical wave on which the inclined wavefront shown in FIG. 7A is superimposed is superimposed.
  • the wavefront angle ⁇ 2 of the inclined wavefront 47 is set to 45 ° or more, the ultrasonic waves emitted from the second ultrasonic actuator array 72 are reflected by the display surface 11 of the stereoscopic image display unit 1 and reach the fingertip position 9.
  • the oscillation region of the ultrasonic actuator array 72 of the second force sense generation unit 52 may be divided into two first oscillation regions 73 and second oscillation regions 74. Good.
  • ultrasonic waves reflected from the display surface 11 of the stereoscopic image display unit 1 are oscillated from the first oscillation region 73 and propagated directly from the second oscillation region 74 to the fingertip position 9. Oscillates.
  • the number of divisions of the oscillation region of the ultrasonic actuator array may be set to any number of two or more as necessary.
  • the fingertip A force sensation acting upward when the position 9 is moved downward in the vertical direction may be provided. That is, it is possible to generate a force sense against the moving direction when the stereoscopic image 8 is moved downward.
  • the oscillation region of the ultrasonic actuator array has a plurality of actuators 75 that are orthogonal to the arrangement direction of the plurality of actuators 75 in advance, as shown in FIG.
  • the direction in which the ultrasonic waves are oscillated from the actuator 75 may be inclined with respect to the vertical direction by a desired inclination angle ⁇ 3.
  • the size of the ultrasonic actuator array, the pitch of the actuators, and the frequency of the ultrasonic waves are not limited to the configuration of the present embodiment, and may be changed as appropriate.
  • the stereoscopic display device according to the third embodiment includes first and second stereoscopic image display units 81 and 82 arranged adjacent to each other so that the display surfaces form a predetermined inclination angle. , And first and second force generation units 83 and 84 arranged to face each other with the display surfaces of the first and second stereoscopic image display units 81 and 82 interposed therebetween.
  • the first and second finger position sensors 3a and 3b are arranged on both sides of the first stereoscopic image display unit 81 in the horizontal direction.
  • the fingertip position 9 in the space surrounded by the two display surfaces of the first and second stereoscopic image display units 81 and 82 can be detected.
  • the finger position detection circuit 4 and the stereoscopic image generation circuit 5 connected to the first and second finger position sensors 3a and 3b.
  • the ultrasonic wave generation circuit 6 is provided, since it is the same as that of the first embodiment, the illustration is omitted.
  • the stereoscopic image display portions 81 and 82 are arranged such that the end surfaces of the outer peripheral portions are in contact with each other so that the display surfaces form an angle of 90 ° with each other, and not only the stereoscopic image 8 with respect to the depth direction but also two display surfaces. It is possible to display the stereoscopic image 8 in the space surrounded by.
  • the stereoscopic image display units 81 and 82 display the stereoscopic image 8 by displaying the perspective projection conversion image corresponding to the viewpoint position 7 of the observer.
  • 9A to 9D schematically show only one eye as the viewpoint position 7 of the observer, but each of the stereoscopic image display units 81 and 82 corresponds to each viewpoint position of the right eye viewpoint and the left eye viewpoint.
  • Each perspective projection conversion image is displayed.
  • the fingertip position 9 of the observer is measured by the finger position sensors 3a and 3b, and is detected by the finger position detection circuit 4 based on the measurement result.
  • the first force sense generating unit 83 has an ultrasonic actuator array 85.
  • the second force sense generation unit 84 includes an ultrasonic actuator array 86.
  • the ultrasonic actuator arrays 85 and 86 are arranged on both side surfaces with their end surfaces being in contact with each other perpendicular to the display surfaces of the stereoscopic image display portions 81 and 82.
  • the ultrasonic actuator arrays 85 and 86 converge the convergent ultrasonic wave at the fingertip position 9 detected by the finger position detection circuit 4 and provide the force sense stimulus F to the fingertip position 9 of the observer.
  • the stereoscopic image 8 is updated by the stereoscopic image generation circuit 5 in accordance with the movement of the fingertip position 9.
  • the ultrasonic actuator arrays 85 and 86 output ultrasonic waves in which the inclined wavefront shown in FIG. 7A and the phase distribution of the convergent wavefront by the convergent spherical wave shown in FIG. 5A are superimposed.
  • the ultrasonic wave emitted from the ultrasonic actuator arrays 85 and 86 is set as shown in FIG. 9B by setting the propagation direction of the inclined wavefront to the respective display surfaces of the stereoscopic image display units 81 and 82. Specular reflection is performed on the display surfaces of the stereoscopic image display units 81 and 82. That is, the ultrasonic wave reflected by the display surface of the stereoscopic image display unit 81 propagates to the position of the stereoscopic image 8 through the path of the reflected wave 87.
  • the ultrasonic actuator arrays 85 and 86 have a right triangle shape composed of two sides of 200 mm ⁇ 200 mm perpendicular to each other, and 25 actuators are arranged at a pitch of 4 mm.
  • Each actuator has a control circuit that can freely control the pressure amplitude and phase of the ultrasonic waves generated by the ultrasonic wave generation circuit 6, and can provide an arbitrary phase distribution.
  • the stereoscopic image generation circuit 5 is a digital image processing circuit that generates projection images on the display surfaces of the stereoscopic image display units 81 and 82 when the right eye viewpoint and the left eye viewpoint of the stereoscopic image 8 to be displayed are centered on the perspective. have.
  • the right eye perspective projection conversion image 34 and the left eye perspective projection conversion image 35 corresponding to each of the right eye viewpoint and the left eye viewpoint are alternately arranged for each pixel in the horizontal direction by the stereoscopic image generation circuit 5, and are lenticular lenses. Is displayed on a color liquid crystal panel which is an image display element.
  • images corresponding to the right eye viewpoint and left eye viewpoint of the observer are optically independently presented by the lenticular lens, and the stereoscopic image 8 is observed so as to stand upright in the vertical direction.
  • a color liquid crystal panel having 1280 pixels in the horizontal direction, 960 pixels in the vertical direction, and a screen size of 300 mm in the horizontal direction and 200 mm in the vertical direction was used.
  • pixels of each color of red, blue, and green are arranged in the vertical direction, and one set of these pixels (235 ⁇ m ⁇ 235 ⁇ m).
  • a polycarbonate resin was used as the lenticular lens.
  • the lens pitch of the lenticular lens is about 470 ⁇ m, and the lens is an array of 640 cylindrical lenses. Set the distance.
  • the stereoscopic image display units 81 and 82 use lenticular lenses, the observer can perform stereoscopic viewing with the naked eye without wearing special glasses or the like.
  • the ultrasonic wave propagation direction of the ultrasonic actuator array 85 (or the ultrasonic actuator array 86) is directed directly to the fingertip position 9 (in the direction in which the direct wave 88 propagates). Propagation may be provided by propagation.
  • the ultrasonic actuator array 85 (or the ultrasonic actuator array 86) is divided into a reflected wave region 91 and a direct wave region 92, and the display surfaces of the stereoscopic image display units 81 and 82 are divided. You may generate the ultrasonic wave reflected by and the ultrasonic wave propagating directly toward the fingertip position 9.
  • the number of divisions of the ultrasonic actuator array 85 may be set to any number as long as it is two or more.
  • a plurality of actuators 75 are preliminarily inclined at an inclination angle ⁇ 3 with respect to a direction orthogonal to the arrangement direction of the plurality of actuators 75.
  • An ultrasonic actuator array arranged at an inclination may be used.
  • the size of the ultrasonic actuator arrays 85 and 86, the pitch and the frequency of the actuator 75 are not limited to the present embodiment, and may be appropriately changed as necessary.
  • the finger position sensor 3 in the third embodiment triangulation by stereo image measurement is used.
  • various optical elements such as distance measurement by blocking detection light may be used, or a distance measurement element using ultrasonic waves may be used.
  • the measurement light is light that avoids the visible light region, or is modulated at a frequency different from the display update frequency (refresh rate) of the stereoscopic image display units 81 and 82. Use the light.
  • the frequency of the ultrasonic waves is set to a frequency different from that of the ultrasonic waves that provide force sense.
  • the pitch of the lenticular lenses constituting the display surfaces of the first and second stereoscopic image display portions 81 and 82 is 460 ⁇ m, which is smaller than the ultrasonic wavelength of 4 mm. Therefore, the convex surface of the lens group included in the lenticular lens is super It can be considered to be substantially flat with respect to sound waves. If necessary, a display that is an ultrasonic reflection surface is provided by arranging optically transparent glass or resin flat plates on the display surfaces of the first and second stereoscopic image display units 81 and 82. You may improve the flatness of a surface.
  • an optical system for performing stereoscopic display for example, a parallax barrier, an integral photography lens array, or a pinhole array may be used, and the viewpoint position may be set to two or more viewpoints.
  • image display element in addition to the color liquid crystal panel, various flat display panels such as an organic EL (electroluminescence) panel, a plasma display panel, a surface electric field display panel, and electronic paper may be used.
  • organic EL electroluminescence
  • plasma display panel a plasma display panel
  • surface electric field display panel a surface electric field display panel
  • electronic paper a panel having a larger number of pixels and a larger screen size than the above-described configuration may be used.
  • the ultrasonic image generation space by the first and second force sense generation units 83 and 84 and the first and second stereoscopic image display units 81 and 82 generate the stereoscopic image 8. Since the stereoscopic image generation space overlaps spatially at the same position, the entire stereoscopic display device can be reduced in size.
  • the stereoscopic image 8 can be changed in the depth direction of the stereoscopic image 8 according to the movement of the fingertip of the observer, and can be widely applied to interactive applications.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、少なくとも2つの視点に対応する視差画像をそれぞれ空間的に分離して表示する表示面(11)を有する立体画像表示部(1)と、立体画像表示部(1)の表示面(11)に向けて音波を発振し、表示面(11)で反射された音波よる所定の圧力を、立体画像表示部(1)によって表示された立体画像(8)の位置と空間的に同一位置に発生する力覚生成部(2)と、を備える。

Description

立体表示装置及び立体表示方法
 本発明は、立体画像を観察者に提示すると共に、観察者に提示された立体画像再生位置に対応する力覚を提供する立体表示装置及び立体表示方法に関する。
 近年、液晶パネルなどのフラットパネル型ディスプレイに関する立体表示装置の提案が増えてきている。フラットパネル型ディスプレイを用いた立体表示装置として、レンチキュラレンズ、パララックスバリア等を用いて、両眼視差を有する複数の画像をそれぞれ左右の目に空間的に分離して呈示することで、立体視を実現する立体表示装置が注目されている。この装置では、観察者が立体画像を視認するために特別なメガネ等を装着する必要がないという利点を有している(例えば、非特許文献1参照)。
 一方、画像表示部と、空中超音波フェーズドアレイとを備える触覚ディスプレイを用いた擬似的な立体表示装置が提案されている(非特許文献2参照)。この非特許文献2に記載の立体表示装置では、擬似的な立体画像を表示する画像表示部として、特許文献1に記載の画像表示装置が用いられている。
 図1に、本発明に関連する立体表示装置の構成の模式図を示す。図1に示すように、画像表示部1001から出射した光は、ハーフミラー1002で反射された後、凹面鏡1003で結像され、擬似的な立体画像としての光学空中像1004を生成する。このとき、観察者の指先位置1007が指位置センサ1005によって検出され、指位置センサ1005によって検出された指先位置1007に応じて画像表示部1001に表示する画像を更新し、超音波アクチュエータアレイ1006からの超音波像1008を光学空中像1004と同期させて提供する。これによって、観察者が特殊な器具を装着することなく、視覚と触覚を融合した感覚の提供が可能となっている。
米国特許6,808,268号公報
大越孝敬著、三次元画像工学、朝倉書店、1991年7月10日発行 "Touchable Holography", Full Conference DVD-ROM, Disc1, ACM SIGGRAPH 2009: Emerging Technologies, New Orleans, 3-7 Aug. 2009
 しかしながら、上述した本発明に関連する立体表示装置では、超音波アクチュエータアレイが超音波像を生成するための超音波像生成空間と、光学空中像を生成するための空中像生成空間とがそれぞれ独立して並んで配置されているので、立体表示装置全体が大型化してしまうという問題があった。
 また、本発明に関連する立体表示装置は、光学空中像の上方に配置された超音波アクチュエータアレイから伝播する超音波によって力覚を生じさせているので、光学空中像の奥行き方向から伝播する超音波による力覚を提供できない。このため、光学空中像を指先で押し込み操作した場合に、観察者の指先の移動方向(光学空中像の奥行き方向)と平行な方向に力覚を再現できないという課題があった。
 さらに、本発明に関連する立体表示装置の画像表示部は、光学空中像を再生するという擬似的な立体画像を表示している。このため、この画像表示部では、光学空中像を押し込み操作する観察者の指先等の移動の指示に応じて、立体画像の奥行き方向に立体画像再生位置を任意に変化させる立体表示を行うことができず、立体表示装置のアプリケーションが制限されるという課題があった。
 本発明の目的は、上述した課題のいずれかを解決するものであり、立体表示装置全体の小型化を図り、立体画像の奥行き方向に対する力覚を提供することができる立体表示装置及び立体表示方法を提供することにある。
 上述した目的を達成するため、本発明に係る立体表示装置は、少なくとも2つの視点に対応する視差画像をそれぞれ空間的に分離して表示する表示面を有する立体画像表示部と、立体画像表示部の表示面に向けて音波を発振し、表示面で反射された音波よる所定の圧力を、立体画像表示部によって表示された立体画像の位置と空間的に同一位置に発生する力覚生成部と、を備える。
 また、本発明に係る立体表示方法は、少なくとも2つの視点に対応する視差画像をそれぞれ空間的に分離することで立体画像を表示し、視差画像を表示する表示面で音波を反射させて、立体画像の位置と空間的に同一位置に音波を伝播させて力覚を生じさせる。
 本発明によれば、力覚生成部による超音波像生成空間と、立体画像表示部による立体画像生成空間とが空間的に同一位置に重なるので、立体表示装置全体を小型化できる。また、本発明は、観察者の指先等の触覚部位に対して、立体画像の奥行き方向に対する力覚を提供することが可能になる。
本発明に関連する立体表示装置を説明するための模式図である。 第1の実施形態の立体表示装置を示す斜視図である。 第1の実施形態における立体画像の奥行き方向と、力覚が作用する方向を説明するための模式図である。 第1の実施形態における立体画像の表示状態を示す模式図である。 第1の実施形態における超音波アクチュエータの動作原理を説明するための模式図である。 第1の実施形態における超音波アクチュエータの動作原理を説明するための模式図である。 第1の実施形態における超音波アクチュエータの動作原理を説明するための模式図である。 第1の実施形態における立体画像再生位置と超音波像再生位置との関係を説明するための模式図である。 第1の実施形態における超音波アクチュエータが生成する超音波像を示す模式図である。 第1の実施形態における超音波アクチュエータが生成する超音波像を示す模式図である。 第1の実施形態における超音波アクチュエータが生成する超音波像を示す模式図である。 第1の実施形態における超音波アクチュエータが生成する超音波像を示す模式図である。 第2の実施形態の立体表示装置を示す模式図である。 第2の実施形態の立体表示装置を示す模式図である。 第2の実施形態の立体表示装置を示す模式図である。 第2の実施形態の立体表示装置を示す模式図である。 第3の実施形態の立体表示装置を示す模式図である。 第3の実施形態の立体表示装置を示す模式図である。 第3の実施形態の立体表示装置を示す模式図である。 第3の実施形態の立体表示装置を示す模式図である。
 以下、本発明の実施形態について図面を参照して説明する。なお、以下の説明では、同じ機能を有する構成には同じ符号を付けて、その説明を省略する場合がある。
 (第1の実施形態)
 図2に、第1の実施形態の立体表示装置の模式図を示す。図2に示すように、第1の実施形態の立体表示装置は、少なくとも2つの視点に対応する視差画像をそれぞれ空間的に分離して表示する表示面11を有する立体画像表示部1と、立体画像表示部1の表示面11に向けて音波を発振し、表示面11で反射された音波よる所定の圧力を、立体画像表示部1によって表示された立体画像8の位置と空間的に同一位置に発生する力覚生成部2と、を備えている。なお、本発明において、立体画像8の位置とは、立体画像8が知覚される位置(再生位置)を指しており、立体画像表示部1の表示面11から離れた位置を指している。
 また、立体表示装置は、立体画像8の観察者の触覚部位としての指先である指先位置9を検出する位置検出手段としての指位置センサ3及び指位置検出回路4と、立体画像表示部1に表示する視差画像を生成する立体画像生成回路5と、力覚生成部2から発振する超音波を生成する超音波生成回路6と、を備えている。
 立体画像表示部1は、観察者の視点位置7に対応した立体画像8を表示面に表示する。観察者の指先位置9は、指位置センサ3で計測され、計測結果に基づいて指位置検出回路4によって指先位置9が検出される。
 力覚生成部2は、立体画像表示部1の表示面11に向けて超音波を発振し、表示面11で反射された超音波を、立体画像8の奥行き方向と平行に伝播させる発振領域が設けられた超音波アクチュエータアレイ20を有している。超音波アクチュエータアレイ20は、指位置検出回路4で検出された指先位置9に収束超音波を収束させ、観察者の指先位置9に力覚刺激を提供する。立体画像生成回路5は、指先位置9に応じて立体画像8を更新する。なお、超音波アクチュエータアレイ20から発振された超音波は、立体画像表示部1の表示面11で正反射され、立体画像8の奥行き方向と平行に伝播する。
 図3に、第1の実施形態の立体表示装置の斜視図を示す。図3に示すように、立体画像8は、観察者の視点位置7から、鉛直方向23に正立した画像として観察される。ここで、指先位置9に相当する立体画像8の部分に超音波アクチュエータアレイ20から発生した力覚刺激Fが奥行き方向24に沿って提供される。このとき、指先位置9に相当する立体画像8の部分の画像が更新される。図3に示す一例では、複数の押しボタンを再現した立体画像8に対して、押下されたボタンの立体画像8がボタンの押下方向に移動し、ボタンを押したときの力覚刺激Fが、指先位置9に押下方向と反対向きに提供される。
 立体画像表示部1を構成する画像表示素子としては、水平方向に1280画素、垂直方向に960画素が配列され、画面サイズが水平方向に300mm、垂直方向に200mmであるカラー液晶パネルを用いた。カラー液晶パネルは、垂直方向に赤、青、緑の各色の画素が配列されており、これら一組によって1画素(縦235μm程度×横235μm程度)が構成されている。
 レンチキュラレンズは、ポリカーボネート樹脂によって形成されている。レンチキュラレンズは、レンズとして640個のシリンドリカルレンズアレイを用いて、レンズピッチが470μm程度に設定されている。レンチキュラレンズは、図6に示すように、最適視点位置を、表示面の中央から立体画像8の奥行き方向に対して600mmの位置に設定し、焦点距離を設定した。
 図4に、第1の実施形態においける立体画像生成回路5の処理を説明するための模式図を示す。立体画像生成回路5は、図4に示すように、表示する所望の立体画像8の右眼視点31及び左眼視点32を透視中心としたときの表示面11へのそれぞれの透視投影像を生成する画像処理手段としてのデジタル画像処理回路(不図示)を有している。デジタル画像処理回路は、視差画像を複数の画像表示素子のそれぞれの位置に応じて透視投影変換する。
 図4に示す一例では、立体画像表示部1の表示面11が、水平方向に対して傾斜角45°で傾斜されて配置される構成を示した。
 図4に示すように、右眼視点31及び左眼視点32にそれぞれ対応する右眼用透視投影変換画像34及び左眼用透視投影変換画像35は、立体画像生成回路5によって水平方向の1画素毎に交互に配列され、レンチキュラレンズによる立体視が可能な画像にされ、画像表示素子であるカラー液晶パネルに表示される。
 この条件で、観察者の右眼視点31及び左眼視点32のそれぞれの視点に対応した画像が、レンチキュラレンズによって光学的に独立して提示され、図3に示すように、視点位置7において、鉛直方向23に正立したように立体画像8が観察される。
 なお、立体画像表示部1は、レンチキュラレンズが用いられているので、観察者が特殊なメガネ等を装着することなく裸眼で立体視が可能である。
 図5A~図5Cに、図2に示した第1の実施形態における超音波アクチュエータアレイ20の動作原理を説明するための図を示す。図5Aに、超音波アクチュエータアレイ20の1次元方向の断面図を示す。図5Bに、超音波の収束距離が150mmの場合の位相分布を示す。図5Cに、超音波の収束距離が300mmの場合の位相分布を示す。
 図5Aに示すように、超音波アクチュエータアレイ20は、平面上に50個×50個のアクチュエータ41がピッチ4mmで配列されている。各アクチュエータ41は、超音波生成回路6によって発生する超音波の圧力振幅と位相とを自在に制御できる制御回路を備えており、任意の位相分布42を与えることが可能とされている。
 図5Aに示して構成の条件で、アクチュエータ41の位相φ(°)、アクチュエータ41のピッチp、波面角θ1、集束距離L、中心軸43の軸方向と垂直な方向に対する距離をXとすれば、これらの変数の関係は、音波の回折の法則(ホイヘンス・フレネルの原理)より、式1,2の関係で表される。
 φ=360゜・x・sinθ1/λ ・・・(式1)
 x/L=tanθ1 ・・・(式2)
 ここで、超音波の周波数を85kHzとすれば、空気中における波長λが4mm(音速340m/sとした場合)となる。アクチュエータ41のピッチpを4mm、アクチュエータ41の個数を50個×50個、超音波アクチュエータアレイ20全体のサイズを200mm×200mmに設定したとき、例えば、集束距離150mm、300mmである場合には、図5B、5Cにそれぞれ示すような位相分布を与える。これによって、立体画像表示部1によって立体画像8が生成される所望の点に向かう収束波面44が伝播し、収束超音波が生成できるので、各アクチュエータ41を駆動する位相分布を変化させることで、超音波像位置を変化させることができる。
 図5Aに示すように、第1の実施形態において、アクチュエータ41から発振された超音波は、立体画像表示部1の表示面11を構成するレンチキュラレンズの表面で反射される。このとき、レンチキュラレンズを形成するポリカーボネート樹脂は、空気よりも音響インピーダンスが大きいので、超音波が表示面11で全反射される。表示面11で全反射された超音波は、表示された立体画像8の奥行き方向と同一方向に超音波像10を形成する。ここで、搬送波に、例えば周波数100Hzで矩形波による変調をかけることで、振動の刺激による力覚刺激Fを提供できる。
 以上、1次元の収束超音波の生成の場合について説明したが、2次元に拡張する場合も同様に音波の回折の法則(ホイヘンス・フレネルの原理)に従って考えればよい。さらに、複雑な波面に関しては一般的なフーリエ音響学の理論(例えば、E.G.ウィリアムズ著:フーリエ音響学、シュプリンガー・フェアラーク東京、参照)に従って、位相分布や振幅分布を与えてもよい。
 図6に、第1の実施形態における立体画像再生位置と超音波像再生位置との関係を示す。図6に示すように、超音波アクチュエータアレイ20の中心軸は、立体画像表示部1の表示面11の中心と交差し、中心間距離を100mmとして、立体画像再生位置を立体画像表示部1の表示面11から距離Zmmに設定した場合、超音波像再生位置はZmm+100mmに設定すればよい。例えば、第1の指先位置として、指位置センサ3で得られた指先位置9が立体画像表示部1の表示面11の中心から200mmであるときに押しボタンを押したことを指先で知覚させる場合、超音波像再生位置は200mm+100mm=300mmであるので、図5Cに示した位相分布を超音波アクチュエータアレイ20に与えて、指先に力覚刺激Fを提供すればよい。
 ここで、第2の指先位置として、指先が立体画像表示部1側に移動したときであっても指先に触れていると知覚させる場合、立体画像再生位置を200mmから50mmに更新し、超音波像再生位置を50mm+100mm=150mmに変化させて、図5Bに示した位相分布を超音波アクチュエータアレイ20に与えて、立体画像再生位置に力覚刺激Fを提供すればよく、このような原理に基づいて図3に示した一例の構成が動作する。
 また、指先が第1の指先位置に達したときに提供する第1の圧力供給強度に比べて、第2の先指位置に達したときの圧力供給強度が大きくなるように力覚を提供することで、押しボタンを押し込み終わった感覚を付与することができる。
 第1の実施形態における指位置センサ3はステレオ画像計測による三角測量で行った。指位置センサ3としては、検出光の遮断による距離計測等の各種光学素子を用いたものでも、超音波を用いた距離測定素子を用いてもよい。ただし、計測光を出射する光学素子を用いる場合には、計測光として可視光領域を避けた光を用いるか、立体画像表示部1の表示の更新周波数(リフレッシュレート)とは異なる周波数で変調した光を用いる。また、超音波を用いる場合には、その超音波を、力覚を提供する超音波と異なる周波数に設定する。
 図7A~図7Dに、第1の実施形態における超音波アクチュエータアレイ20による傾斜波面の生成作用を説明するための模式図を示す。図7Aに示すように、収束超音波の場合と同様に式1,2を用いて波面角θ2を求める。そして、波面角θ2に応じた位相差を与えることで、傾斜波面47を生成できる。このとき、超音波アクチュエータアレイ20の隣り合うアクチュエータ41間の位相差は一定である。
 なお、図7Aに示した位相分布46に、図5B、5Cに示した位相分布を重畳することで、図7Bに示すように指向性を持った収束球面波を再生することも可能である。また、傾斜波面が異なる収束球面波の位相分布を更に重畳することで、図7Cに示すように、複数の超音波像A,Bを生成することもできる。さらに、図7Dに示すように、超音波アクチュエータアレイ20の発振領域を複数の発振領域21,22に分割して、複数の発振領域21,22のそれぞれから、伝播方向が異なる複数の超音波像A,Bをそれぞれ生成し、複数の発振領域21,22のそれぞれが異なる波面を再生するように構成されてもよい。
 立体画像表示部1の表示面11を構成するレンチキュラレンズのピッチは、470μm程度であり、超音波の波長4mmに比べて小さいので、レンチキュラレンズが有するレンズ群の凸面は、超音波に対して実質的に平面であるのと見なせる。なお、必要に応じて、立体画像表示部1の表示面11に光学的に透明なガラスや、樹脂製の平板を配置することで、超音波反射面の平坦性も高めてもよい。
 立体表示を行う光学系としては、例えばパララックスバリア、インテグラルフォトグラフィ用レンズアレイもしくはピンホールアレイを用いてもよく、視点位置は2視点以上としてもよい。
 画像表示素子としては、カラー液晶パネル以外に、例えば有機ELパネル、プラズマディスプレイパネル、表面電界ディスプレイパネル、電子ペーパー等の各種フラットディスプレイパネルが用いられてもよい。また、画像表示素子としては、上述した構成よりも画素数、画面サイズが更に大きなパネルが使用されてもよい。
 超音波アクチュエータアレイの大きさ、アクチュエータのピッチ、周波数は、本実施形態に限定されるものではなく、必要に応じて適宜変更してもよい。
 以上、第1の実施形態では、力覚生成部2による超音波像生成空間と、立体画像表示部1が立体画像8を生成する立体画像生成空間とが空間的に同一位置に重なるので、立体表示装置全体を小型化できる。また、第1の実施形態は、観察者の指先等に、立体画像8の奥行き方向に対する超音波による力覚を提供することができる。さらに、第1の実施形態によれば、観察者の指先の移動に応じて、立体画像8の奥行き方向に立体画像8の再生位置を変化させることができ、インタラクティブなアプリケーションに広く適用することができる。
 以下、他の実施形態について図面を参照して説明する。他の実施形態は、第1の実施形態と構成の一部のみが異なっているので、第1の実施形態と同一の構成部材には第1の実施形態と同一の符号を付して説明を省略する。
 (第2の実施形態)
 図8A~図8Dに、第2の実施形態の立体表示装置の模式図を示す。図8Aに示すように、第2の実施形態の立体表示装置は、立体画像表示部1の表示面11を間に挟んで対向して配置された一対の第1の力覚生成部51及び第2の力覚生成部52を備えている。
 また、第2の実施形態の立体表示装置においても、第1の実施形態と同様に、指位置センサ3及び指位置検出回路4、立体画像生成回路5、超音波生成回路6を備えているが、第1実施形態と同様であるので、図示を省略する。
 第1の力覚生成部51は、第1の超音波アクチュエータアレイ71を有している。第1の超音波アクチュエータアレイ71は、立体画像表示部1の表示面11の上方の一辺に沿って配置されている。同様に、第2の力覚生成部52は、第2の超音波アクチュエータアレイ72を有している。第2の超音波アクチュエータアレイ72は、立体画像表示部1の表示面11の下方の底辺に沿って配置されている。
 第2の実施形態において、超音波アクチュエータアレイ71,72の水平方向のサイズは、第1の実施形態における超音波アクチュエータアレイ20のサイズの1/2である。また、超音波アクチュエータアレイ71,72が有するアクチュエータ75の個数は50個×25個、超音波アクチュエータアレイ71,72全体のサイズは100mm×200mmである。超音波アクチュエータアレイ71には、第1の実施形態と同様な位相分布(超音波アクチュエータアレイ71の開口の範囲)を与え、立体画像表示部1の表示面11で超音波を反射させて、指先位置9に超音波像を再生する。
 また、立体画像表示部1の底辺側に配置された第2の超音波アクチュエータアレイ72には、図7Aに示す傾斜波面を重畳した収束球面波の位相分布を重畳した図7Bに相当する位相分布を与える。傾斜波面47の波面角θ2を45°以上に設定することで、第2の超音波アクチュエータアレイ72から発せられる超音波は、立体画像表示部1の表示面11で反射し、指先位置9に到達し、観察者から見る方向と逆方向へ付与する力覚刺激Fを増やすことができる。
 また、図8Bに示すように、第2の力覚生成部52の超音波アクチュエータアレイ72の発振領域を2つの第1の発振領域73と第2の発振領域74に分割して構成してもよい。この構成では、第1の発振領域73から立体画像表示部1の表示面11で反射する超音波を発振すると共に、第2の発振領域74から指先位置9に直接的に向かって伝播する超音波を発振する。なお、超音波アクチュエータアレイの発振領域の分割数は、必要に応じて2つ以上のいくつに設定されてもよい。
 また、図8Cに示すように、第2の力覚生成部52の超音波アクチュエータアレイ72から発振する超音波の伝播方向を、指先位置9に向かう鉛直方向である上向きに設定することで、指先位置9を鉛直方向の下向きに移動したときに上向きに作用する力覚を提供してもよい。つまり、立体画像8を下方に移動させたときに移動方向に抗する力覚を生じさせることが可能になる。
 また、超音波アクチュエータアレイの発振領域の少なくとも一部は、超音波の傾斜波面を生成するために、図8Dに示すように、複数のアクチュエータ75が予め、複数のアクチュエータ75の配列方向に直交する鉛直方向に対して、アクチュエータ75から超音波を発振する方向が、所望の傾斜角θ3だけ傾斜させて配置されて構成されてもよい。
 超音波アクチュエータアレイの大きさ、アクチュエータのピッチ、及び超音波の周波数は、本実施形態の構成に限定されるものではなく、必要に応じて適宜変更してもよい。
 以上、第2の実施形態の立体表示装置によれば、第1及び第2の力覚生成部51,52による超音波像生成空間と、立体画像表示部1が立体画像8を生成する立体映像生成空間とが空間的に同一位置に重なるので、立体表示装置全体の小型化を実現できる。また、第2の実施形態においても、観察者の指先等に対して、立体画像8の奥行き方向と平行に超音波による力覚を提供することができる。さらに、第2の実施形態においても、観察者の指先の移動に応じて、立体画像8の奥行き方向に立体画像8を変化させることができるので、インタラクティブなアプリケーションに広く適用することができる。
 (第3の実施形態)
 図9A~図9Dに、第3の実施形態の立体表示装置の模式図を示す。図9Aに示すように、第3の実施形態の立体表示装置は、表示面同士が所定の傾斜角をなすように隣接して配置された第1及び第2の立体画像表示部81,82と、第1及び第2の立体画像表示部81,82の各表示面を間に挟んで対向して配置された第1及び第2の力覚生成部83,84と、を備えている。
 また、第3の実施形態は、第1の立体画像表示部81の水平方向の両側に第1及び第2の指位置センサ3a,3bが配置されている。第1及び第2の指位置センサ3a,3bを用いることで、第1及び第2の立体画像表示部81,82の2つの表示面に囲まれた空間内における指先位置9を検出することが可能にされている。また、第3の実施形態の立体表示装置においても、第1の実施形態と同様に、第1及び第2の指位置センサ3a,3bと接続された指位置検出回路4、立体画像生成回路5、超音波生成回路6を備えているが、第1実施形態と同様であるので、図示を省略する。
 立体画像表示部81,82は、表示面が互いに90°の角度をなすように外周部の端面同士が当接されて配置されており、奥行き方向に対する立体画像8のみならず、2つの表示面に囲まれた空間内に立体画像8を表示することが可能である。このとき、立体画像表示部81,82は、観察者の視点位置7に対応する透視投影変換画像を表示することで、立体画像8を表示する。なお、図9A~図9Dにおいて観察者の視点位置7として片眼のみを模式的に示すが、立体画像表示部81,82のそれぞれは、右眼視点、左眼視点の各視点位置に対応する透視投影変換画像をそれぞれ表示する。観察者の指先位置9は、指位置センサ3a,3bによって計測され、計測結果に基づいて指位置検出回路4によって検出される。
 第1の力覚生成部83は、超音波アクチュエータアレイ85を有している。同様に、第2の力覚生成部84は、超音波アクチュエータアレイ86を有している。超音波アクチュエータアレイ85,86は、立体画像表示部81,82の表示面のそれぞれと直交して端面同士が当接されて、両側面に配置されている。超音波アクチュエータアレイ85,86は、指位置検出回路4で検出された指先位置9に収束超音波を収束させ、観察者の指先位置9に力覚刺激Fを提供する。立体画像8は、指先位置9の移動に応じて立体画像生成回路5で更新される。
 なお、超音波アクチュエータアレイ85,86は、図7Aに示した傾斜波面と、図5Aに示した収束球面波による収束波面の位相分布とを重畳した超音波を出力する。このとき、傾斜波面の伝播方向を立体画像表示部81,82の各表示面へ向かう向きに設定することで、超音波アクチュエータアレイ85,86から発せされた超音波は、図9Bに示すように、立体画像表示部81,82の表示面で正反射される。つまり、立体画像表示部81の表示面で反射された超音波は、反射波87の経路を経て立体画像8の位置に伝播する。
 超音波アクチュエータアレイ85,86は、200mm×200mmの直交する2辺からなる直角三角形形状で、25個のアクチュエータがピッチ4mmで配列されている。各アクチュエータは、超音波生成回路6によって発生する超音波の圧力振幅と位相とを自在に制御できる制御回路を有しており、任意の位相分布を与えることができる。
 立体画像生成回路5は、表示すべき立体画像8の右眼視点、左目視点の各々を透視中心としたときの立体画像表示部81,82の表示面への投影像を生成するデジタル画像処理回路を有している。
 右眼視点、左目視点のそれぞれに対応する右眼用透視投影変換画像34、左眼用透視投影変換画像35は、立体画像生成回路5で水平方向の1画素毎に交互に配列され、レンチキュラレンズによる立体視が可能な画像となり、画像表示素子であるカラー液晶パネルに表示される。
 この条件で観察者の右眼視点、左眼視点のそれぞれの視点に対応した画像が、レンチキュラレンズによって光学的に独立して提示され、鉛直方向に正立するように立体画像8が観察される。
 立体画像表示部81,82の画像表示素子としては、例えば水平方向に1280画素、垂直方向に960画素、画面サイズは、水平方向に300mm、垂直方向に200mmのカラー液晶パネルを用いた。カラー液晶パネルは、垂直方向に赤、青、緑の各色の画素が配列されており、これら一組で1画素(235μm×235μm)が構成されている。レンチキュラレンズとしては、ポリカーボネート樹脂を用いた。レンチキュラレンズのレンズピッチは470μm程度、レンズは640個のシリンドリカルレンズアレイとし、最適視点位置を、立体画像表示部81,82の表示面の中央から立体画像8の奥行き方向に600mmに設定し、焦点距離を設定した。
 なお、立体画像表示部81,82は、レンチキュラレンズを用いているので、観察者が特殊なメガネ等を装着することなく裸眼で立体視が可能である。
 さらに、図9Cに示すように、超音波アクチュエータアレイ85(あるいは超音波アクチュエータアレイ86)の超音波の伝播方向を、指先位置9に直接的に向かうように(直接波88が伝播する方向に)伝播させて力覚を提供してもよい。
 また、図9Dに示すように、超音波アクチュエータアレイ85(あるいは超音波アクチュエータアレイ86)を、反射波領域91と直接波領域92とに二分割して、立体画像表示部81、82の表示面で反射する超音波と、指先位置9に向かって直接伝播する超音波を発生させてもよい。なお、超音波アクチュエータアレイ85の分割数は、2つ以上であれば、いくつに設定されてもよい。
 超音波アクチュエータアレイ85,86においても、傾斜波面を生成するために、図8Dに示したように複数のアクチュエータ75を予め、複数のアクチュエータ75の配列方向に直交する方向に対して傾斜角θ3で傾斜させて配置された超音波アクチュエータアレイが用いられてもよい。
 超音波アクチュエータアレイ85,86の大きさ、アクチュエータ75のピッチ、周波数は、本実施形態に限定されることなく、必要に応じて適宜変更されてもよい。
 第3の実施形態における指位置センサ3では、ステレオ画像計測による三角測量を用いた。指位置センサ3としては、検出光の遮断による距離計測等の各種光学素子を用いても、超音波を利用した距離測定素子を用いてもよい。ただし、計測光を発する光学素子を用いる場合、計測光としては、可視光領域を避けた光を用いるか、立体画像表示部81,82の表示の更新周波数(リフレッシュレート)とは異なる周波数で変調した光を用いる。また、超音波を利用した距離測定素子を用いる場合には、その超音波の周波数を、力覚を提供する超音波と異なる周波数に設定する。
 第1及び第2の立体画像表示部81,82の表示面を構成するレンチキュラレンズのピッチは、460μmであり、超音波の波長4mmに比べ小さいので、レンチキュラレンズが有するレンズ群の凸面は、超音波に対して実質的に平面であると見なせる。なお、必要に応じて、第1及び第2の立体画像表示部81,82の表示面に、光学的に透明なガラスや、樹脂製の平板を配置することによって、超音波反射面である表示面の平坦性を高めてもよい。
 また、立体表示を行う光学系としては、例えばパララックスバリア、インテグラルフォトグラフィ用レンズアレイあるいはピンホールアレイを用いてもよく、視点位置が2視点以上に設定されてもよい。
 画像表示素子としては、カラー液晶パネル以外に、例えば有機EL(エレクトロルミネッセンス)パネル、プラズマディスプレイパネル、表面電界ディスプレイパネル、電子ペーパー等の各種フラットディスプレイパネルが用いられてもよい。また、画像表示素子としては、上述した構成よりも画素数、画面サイズが更に大きなパネルを使用してもよい。
 以上、第3の実施形態では、第1及び第2の力覚生成部83,84による超音波像生成空間と、第1及び第2の立体画像表示部81,82が立体画像8を生成する立体画像生成空間とが空間的に同一位置に重なるので、立体表示装置全体の小型化を実現できる。また、第3の実施形態によれば、観察者の指先等に、立体画像8の奥行き方向に対する超音波による力覚を提供することができる。さらに、第3の実施形態によれば、観察者の指先の移動に応じて、立体画像8の奥行き方向に立体画像8を変化させることができ、インタラクティブなアプリケーションに広く適用することができる。
 以上説明した各実施形態において図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。
 以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細に対して、本発明のスコープ内で当業者が理解し得る様々な変更を行うことができる。
 この出願は、2010年7月23日に出願された日本出願特願2010-165997を基礎とする優先権を主張し、その開示の全てをここに取り込む。
  1 立体画像表示部
  2 力覚生成部
  3 指位置センサ
  7 視点位置
  8 立体画像
  9 指先位置
 11 表示面
 20 超音波アクチュエータアレイ
 23 鉛直方向
 24 奥行き方向
 31 右眼視点
 32 左眼視点
 34 右眼用透視投影変換画像
 35 左眼用透視投影変換画像
  F 力覚刺激

Claims (10)

  1.  少なくとも2つの視点に対応する視差画像をそれぞれ空間的に分離して表示する表示面を有する立体画像表示部と、
     前記立体画像表示部の前記表示面に向けて音波を発振し、前記表示面で反射された音波よる所定の圧力を、前記立体画像表示部によって表示された立体画像の位置と空間的に同一位置に発生する力覚生成部と、を備える、立体表示装置。
  2.  前記立体画像表示部の前記表示面を間に挟んで対向して配置された2つの前記力覚生成部を備える、請求項1に記載の立体表示装置。
  3.  表示面同士が所定の傾斜角をなすように隣接して配置された2つの前記立体画像表示部と、
     少なくとも一方の前記立体画像表示部の前記表示面を間に挟んで対向して配置された2つの前記力覚生成部と、を備える、請求項1に記載の立体表示装置。
  4.  前記力覚生成部は音波アクチュエータアレイを有し、
     前記音波アクチュエータアレイは、複数の前記発振領域を有し、該複数の発振領域のそれぞれが異なる波面を再生する、請求項1乃至3のいずれか1項に記載の立体表示装置。
  5.  前記力覚生成部は音波アクチュエータアレイを有し、
     前記音波アクチュエータアレイは、前記立体画像表示部の前記表示面に向けて音波を発振し、前記表示面で反射された音波を前記立体画像の位置に伝播させる第1の発振領域と、前記立体画像表示部によって表示された前記立体画像の位置に直接向かうように音波を発振する第2の発振領域と、を有している、請求項1乃至4のいずれか1項に記載の立体表示装置。
  6.  前記音波アクチュエータアレイは、複数の音波アクチュエータの配列方向に直交する方向に対して、前記複数の音波アクチュエータから音波を発振する方向が傾斜されている、請求項4または5に記載の立体表示装置。
  7.  前記立体画像表示部は、平面上に配列された複数の画像表示素子を有し、前記少なくとも2つの視点に対応する視差画像を、前記複数の画像表示素子のそれぞれの位置に応じて透視投影変換する画像処理手段を有する、請求項1乃至6のいずれか1項に記載の立体表示装置。
  8.  前記立体画像を見る観察者の、前記立体画像の位置に重なる触覚部位を検出する位置検出手段を備え、
     前記立体画像表示部は、前記触覚部位が移動したときに、前記位置検出手段の検出結果に基づいて前記立体映像の位置を移動させる、請求項1乃至7のいずれか1項に記載の立体表示装置。
  9.  前記力覚生成部は、前記触覚部位が移動したときに、前記立体画像表示部が移動させた前記立体画像の位置に応じて、前記力覚生成部が音波による圧力の大きさを変化させる、請求項8に記載の立体表示装置。
  10.  少なくとも2つの視点に対応する視差画像をそれぞれ空間的に分離することで立体画像を表示し、前記視差画像を表示する表示面で音波を反射させて、前記立体画像の位置と空間的に同一位置に音波を伝播させて力覚を生じさせる、立体表示方法。
PCT/JP2011/062452 2010-07-23 2011-05-31 立体表示装置及び立体表示方法 WO2012011321A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/809,326 US8970484B2 (en) 2010-07-23 2011-05-31 Three dimensional display device and three dimensional display method
JP2012525340A JP5720684B2 (ja) 2010-07-23 2011-05-31 立体表示装置及び立体表示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-165997 2010-07-23
JP2010165997 2010-07-23

Publications (1)

Publication Number Publication Date
WO2012011321A1 true WO2012011321A1 (ja) 2012-01-26

Family

ID=45496750

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/062452 WO2012011321A1 (ja) 2010-07-23 2011-05-31 立体表示装置及び立体表示方法

Country Status (3)

Country Link
US (1) US8970484B2 (ja)
JP (1) JP5720684B2 (ja)
WO (1) WO2012011321A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048378A (ja) * 2010-08-25 2012-03-08 Denso Corp 触覚提示装置
JP2014170266A (ja) * 2013-03-01 2014-09-18 Denso Corp 触覚装置
JP2014170267A (ja) * 2013-03-01 2014-09-18 Denso Corp 触覚装置
JP2015079289A (ja) * 2013-10-15 2015-04-23 株式会社デンソー 触覚提示装置
JP2015219540A (ja) * 2014-05-14 2015-12-07 株式会社デンソー 触覚ディスプレイ装置
JP2016006559A (ja) * 2014-06-20 2016-01-14 船井電機株式会社 入力装置
JP2016021082A (ja) * 2014-07-11 2016-02-04 船井電機株式会社 画像表示装置
JP2017027401A (ja) * 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置
JP2017533500A (ja) * 2014-09-09 2017-11-09 ウルトラハプティクス アイピー リミテッドUltrahaptics Ip Ltd 触覚フィードバックを調整するための方法および装置
JP2018512759A (ja) * 2015-02-20 2018-05-17 ウルトラハプティクス アイピー リミテッドUltrahaptics Ip Ltd 触覚系におけるアルゴリズム向上
WO2020031368A1 (ja) * 2018-08-10 2020-02-13 富士通株式会社 電子機器
JPWO2019146032A1 (ja) * 2018-01-25 2020-07-02 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
JP2020160874A (ja) * 2019-03-27 2020-10-01 株式会社Subaru 車両の非接触操作装置、および車両
JP7424048B2 (ja) 2019-12-25 2024-01-30 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario
US20150003204A1 (en) * 2013-06-27 2015-01-01 Elwha Llc Tactile feedback in a two or three dimensional airspace
US9804675B2 (en) * 2013-06-27 2017-10-31 Elwha Llc Tactile feedback generated by non-linear interaction of surface acoustic waves
US10877559B2 (en) * 2016-03-29 2020-12-29 Intel Corporation System to provide tactile feedback during non-contact interaction
DE102018209400A1 (de) * 2018-06-13 2019-12-19 Audi Ag Verfahren zum Betreiben einer Anzeige- und Bedienvorrichtung, Anzeige- und Bedienvorrichtung, und Kraftfahrzeug
DE102019216411B4 (de) * 2019-10-24 2022-09-29 Volkswagen Aktiengesellschaft Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts und Verfahren zum Betreiben einer Vorrichtung zum Erfassen einer Eingabe
JP2022113411A (ja) * 2021-01-25 2022-08-04 マクセル株式会社 空間浮遊映像表示装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000047563A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の把持動作シミュレーション装置
JP2003029898A (ja) * 2001-07-16 2003-01-31 Japan Science & Technology Corp 触覚装置
JP2005070843A (ja) * 2003-08-25 2005-03-17 Canon Inc 立体表示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6808268B2 (en) 2001-09-18 2004-10-26 Provision Entertainment, Inc. Projection system for aerial display of three-dimensional video images
JP2008129835A (ja) 2006-11-21 2008-06-05 Matsushita Electric Ind Co Ltd 立体画像表示システム
WO2011068210A1 (ja) * 2009-12-04 2011-06-09 Nec液晶テクノロジー株式会社 立体表示装置、立体表示用画像データ生成方法、及びそのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000047563A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の把持動作シミュレーション装置
JP2003029898A (ja) * 2001-07-16 2003-01-31 Japan Science & Technology Corp 触覚装置
JP2005070843A (ja) * 2003-08-25 2005-03-17 Canon Inc 立体表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YASUTOSHI MAKINO ET AL.: "Dai 51 Kai Keywords you should know", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 64, no. 4, 1 April 2010 (2010-04-01), pages 502 - 504 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048378A (ja) * 2010-08-25 2012-03-08 Denso Corp 触覚提示装置
JP2014170266A (ja) * 2013-03-01 2014-09-18 Denso Corp 触覚装置
JP2014170267A (ja) * 2013-03-01 2014-09-18 Denso Corp 触覚装置
JP2015079289A (ja) * 2013-10-15 2015-04-23 株式会社デンソー 触覚提示装置
JP2015219540A (ja) * 2014-05-14 2015-12-07 株式会社デンソー 触覚ディスプレイ装置
JP2016006559A (ja) * 2014-06-20 2016-01-14 船井電機株式会社 入力装置
JP2016021082A (ja) * 2014-07-11 2016-02-04 船井電機株式会社 画像表示装置
JP2017533500A (ja) * 2014-09-09 2017-11-09 ウルトラハプティクス アイピー リミテッドUltrahaptics Ip Ltd 触覚フィードバックを調整するための方法および装置
JP2020024709A (ja) * 2014-09-09 2020-02-13 ウルトラハプティクス アイピー リミテッドUltrahaptics Ip Ltd 触覚フィードバックを調整するための方法および装置
JP2018512759A (ja) * 2015-02-20 2018-05-17 ウルトラハプティクス アイピー リミテッドUltrahaptics Ip Ltd 触覚系におけるアルゴリズム向上
JP2017027401A (ja) * 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置
JPWO2019146032A1 (ja) * 2018-01-25 2020-07-02 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
WO2020031368A1 (ja) * 2018-08-10 2020-02-13 富士通株式会社 電子機器
JPWO2020031368A1 (ja) * 2018-08-10 2021-05-13 富士通株式会社 電子機器
US11119609B2 (en) 2018-08-10 2021-09-14 Fujitsu Limited Electronic device
JP2020160874A (ja) * 2019-03-27 2020-10-01 株式会社Subaru 車両の非接触操作装置、および車両
JP7377615B2 (ja) 2019-03-27 2023-11-10 株式会社Subaru 車両の非接触操作装置、および車両
JP7424048B2 (ja) 2019-12-25 2024-01-30 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
US8970484B2 (en) 2015-03-03
JP5720684B2 (ja) 2015-05-20
JPWO2012011321A1 (ja) 2013-09-09
US20130120247A1 (en) 2013-05-16

Similar Documents

Publication Publication Date Title
JP5720684B2 (ja) 立体表示装置及び立体表示方法
KR102450992B1 (ko) 홀로그램 초해상도를 위한 인코딩된 에너지 도파관
AU2020205208B2 (en) Multiple depth plane three-dimensional display using a wave guide reflector array projector
JP5459373B2 (ja) 画像表示装置
KR20200118059A (ko) 다중 4d 에너지 장을 지향하는 시스템 및 방법
JP2007086145A (ja) 3次元表示装置
TW201518773A (zh) 立體裸視投影裝置及顯示裝置
KR20230165389A (ko) 홀로그램 에너지 지향 시스템에 대한 캘리브레이션 방법
JP4503484B2 (ja) 空間浮遊像表示装置
Kim et al. A tangible floating display system for interaction
JP5195744B2 (ja) 画像表示装置
JP2012058543A (ja) 立体表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11809495

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13809326

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012525340

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11809495

Country of ref document: EP

Kind code of ref document: A1