WO2011102136A1 - 立体画像表示システム及び立体視メガネ - Google Patents

立体画像表示システム及び立体視メガネ Download PDF

Info

Publication number
WO2011102136A1
WO2011102136A1 PCT/JP2011/000891 JP2011000891W WO2011102136A1 WO 2011102136 A1 WO2011102136 A1 WO 2011102136A1 JP 2011000891 W JP2011000891 W JP 2011000891W WO 2011102136 A1 WO2011102136 A1 WO 2011102136A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
observer
inclination
stereoscopic
image display
Prior art date
Application number
PCT/JP2011/000891
Other languages
English (en)
French (fr)
Inventor
松本義史
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012500516A priority Critical patent/JP5834177B2/ja
Publication of WO2011102136A1 publication Critical patent/WO2011102136A1/ja
Priority to US13/585,202 priority patent/US20120313936A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0875Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more refracting elements
    • G02B26/0883Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more refracting elements the refracting element being a prism
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/646Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for small deviations, e.g. due to vibration or shake
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Definitions

  • the present disclosure relates to a stereoscopic image display system and stereoscopic glasses for stereoscopically viewing an image.
  • Stereoscopic image display is a technique that allows a person to perceive a stereoscopic image by allowing two slightly different images to be seen with both eyes.
  • a stereoscopic image display method for stereoscopically displaying an image a stereoscopic glasses method using a polarizing plate or a liquid crystal shutter, a lenticular lens method that does not require glasses, and the like are known.
  • Patent Document 1 describes an example of a stereoscopic image display control device.
  • the observer can perceive a stereoscopic image satisfactorily.
  • An object of the present invention is to enable an observer to view a stereoscopic image while suppressing fatigue even when the observer's head is tilted.
  • a stereoscopic image display system provides an image display device that displays a left-eye image and a right-eye image for stereoscopic viewing, and an observer for stereoscopic viewing of the image displayed on the image display device.
  • the stereoscopic glasses transmit light that should be incident on one eye of the observer, and change an optical axis changer that changes directions of an incident-side optical axis and an outgoing-side optical axis;
  • the optical axis on the incident side and the optical axis on the outgoing side of the optical axis changer according to the inclination measured by the inclination measuring device so as to reduce the influence of the inclination on the appearance of the image from the observer.
  • a controller that changes the direction of at least one of the two.
  • Another stereoscopic image display system includes an image display device and an inclination measuring device that measures an inclination of a straight line connecting both eyes of an observer with respect to a reference direction.
  • the image display device is configured to reduce the influence of the inclination of the straight line on the appearance of the image from the observer due to the stereoscopic image generation unit that generates a left-eye image and a right-eye image for stereoscopic viewing.
  • An image processing unit that performs a process of moving at least one of the left-eye image and the right-eye image according to the tilt measured by the tilt measuring device; and the left-eye image processed by the image processing unit.
  • Stereoscopic glasses are stereoscopic glasses worn by an observer to stereoscopically view an image displayed on an image display device, and measure the inclination of the stereoscopic glasses with respect to a reference direction.
  • An inclination measuring device an optical axis changer that transmits light to be incident on one eye of the observer, and changes the direction of the optical axis on the incident side and the optical axis on the emission side; and The optical axis on the incident side of the optical axis changer according to the inclination measured by the inclination measuring device so as to reduce the influence of the inclination of the straight line connecting both eyes on the appearance of the image from the observer
  • a controller that changes the direction of at least one of the optical axes on the emission side.
  • the observer can perceive a stereoscopic image satisfactorily and can suppress fatigue when viewing the stereoscopic image. Since it is not necessary to tilt the head, the observer can view the stereoscopic image with a comfortable posture.
  • FIG. 1 is a schematic diagram illustrating a configuration example of a stereoscopic image display system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a configuration example of the stereoscopic glasses of FIG.
  • FIG. 3 is a block diagram illustrating a configuration example of the display device of FIG.
  • FIG. 4 is a diagram illustrating a configuration example of the optical element in FIGS. 1 and 2.
  • Fig.5 (a) is sectional drawing which shows the optical axis change device of FIG. 4 in a normal state.
  • FIG. 5B is a cross-sectional view showing the optical axis changer of FIG. 4 in a deformed state.
  • FIG. 5 is sectional drawing which shows the optical axis change device of FIG. 4 in a normal state.
  • FIG. 5B is a cross-sectional view showing the optical axis changer of FIG. 4 in a deformed state.
  • FIG. 6 is an explanatory diagram illustrating an example of an image that can be seen by an observer when the observer's head is not tilted.
  • FIG. 7 is an explanatory diagram illustrating an example of an image that can be seen by an observer when the observer's head is tilted.
  • FIG. 8 is an explanatory diagram showing apparent movement of an image by the stereoscopic glasses of FIG.
  • FIG. 9 is a schematic diagram illustrating another configuration example of the stereoscopic image display system according to the embodiment of the present invention.
  • FIG. 10 is a block diagram illustrating a configuration example of the stereoscopic glasses of FIG.
  • FIG. 11 is a block diagram illustrating a configuration example of the stereoscopic image display apparatus in FIG. 9.
  • FIG. 10 is a block diagram illustrating a configuration example of the stereoscopic glasses of FIG.
  • FIG. 12A is an explanatory diagram illustrating an example of an image generated by the stereoscopic image generation unit of FIG.
  • FIG. 12B is an explanatory diagram illustrating an example of an image reduced by the image processing unit in FIG.
  • FIG. 12C is an explanatory diagram illustrating an example of an image translated by the image processing unit.
  • FIG. 12D is an explanatory diagram illustrating an example of an image rotated by the image processing unit.
  • FIG. 13 is an explanatory diagram illustrating an example of image movement performed when the observer's head is tilted.
  • FIG. 14 is an explanatory diagram showing apparent movement of an image in the case of FIG.
  • FIG. 15 is an explanatory diagram illustrating another example of image movement performed when the observer's head is tilted.
  • FIG. 16 is an explanatory diagram showing apparent movement of an image in the case of FIG.
  • FIG. 17 is a block diagram illustrating a configuration of a modified example of the stereoscopic image display device in FIG. 11.
  • FIG. 18 is an explanatory diagram illustrating an example in which the left-eye image and the right-eye image are displayed on the screen of the display device so as to overlap each other.
  • FIG. 1 is a schematic diagram showing a configuration example of a stereoscopic image display system according to an embodiment of the present invention.
  • the stereoscopic image display system in FIG. 1 includes stereoscopic glasses 10 and a stereoscopic image display device 60.
  • the stereoscopic glasses 10 are worn by an observer to stereoscopically view an image displayed on the stereoscopic image display device 60.
  • FIG. 2 is a block diagram illustrating a configuration example of the stereoscopic glasses 10 of FIG.
  • FIG. 3 is a block diagram illustrating a configuration example of the stereoscopic image display device 60 of FIG.
  • the stereoscopic glasses 10 include a frame 11, a receiver 12, an inclination measuring device 14, a control unit 15, a left-eye optical element 16L, and a right-eye optical element 16R.
  • the optical element 16L includes an optical axis changer 17L and a liquid crystal shutter 18L.
  • the optical element 16R includes an optical axis changer 17R and a liquid crystal shutter 18R.
  • the optical axis changer 17L and the liquid crystal shutter 18L transmit light to be incident on the left eye of the observer, and the optical axis changer 17R and liquid crystal shutter 18R transmit the light to be incident for the right eye of the observer.
  • Each of the optical axis changer 17L and the optical axis changer 17R can change the directions of the optical axis on the incident side and the optical axis on the emission side.
  • the stereoscopic image display device 60 includes a transmitter 62, a stereoscopic image generation unit 64, and a display 66.
  • the stereoscopic image generation unit 64 generates a left-eye image 51L and a right-eye image 51R for stereoscopic viewing, and outputs them to the display unit 66.
  • the stereoscopic image generation unit 64 alternately displays the image 51L and the image 51R on the display 66, and outputs a switching signal indicating the timing for displaying the image 51L and the image 51R to the transmitter 62.
  • the transmitter 62 transmits this switching signal to the receiver 12 of the stereoscopic glasses 10 by infrared rays or radio waves.
  • the image 51L and the image 51R may be a moving image or a still image.
  • the left-eye image 51L and the right-eye image 51R are displayed on the entire screen of the display device 66 or a partial area in the screen. By controlling the difference between the horizontal positions of the two, it is possible to control the viewing direction of both eyes of the observer.
  • FIG. 1 and the drawings showing the following screens the areas where the left-eye image 51L and the right-eye image 51R are displayed are each represented by a square frame in order to make the orientation of the image easy to understand. Actually, no frame is displayed.
  • the receiver 12 receives the switching signal from the transmitter 62 and outputs it to the control unit 15.
  • the control unit 15 alternately opens and closes the liquid crystal shutter 18L and the liquid crystal shutter 18R in synchronization with the switching signal, whereby the left eye image 51L and the right eye image 51L are displayed for the left eye of the observer wearing the stereoscopic glasses 10. 51R is made incident.
  • the inclination measuring device 14 is fixed to the frame 11, for example.
  • the inclination measuring instrument 14 measures the inclination 8 of the straight line 7 connecting the eyes of the observer with respect to a reference direction such as the horizontal direction 6 and outputs the obtained measurement value to the control unit 15.
  • the inclination 8 is equal to the inclination of the stereoscopic glasses 10 with respect to the reference direction and the inclination of the observer's head.
  • the inclination measuring device 14 includes an acceleration sensor, and obtains the inclination of the stereoscopic glasses 10 with respect to the reference direction (for example, the horizontal direction 6), that is, the inclination 8, according to the acceleration measured by the acceleration sensor.
  • the tilt measuring device 14 only needs to measure the tilt of the straight line 7 with respect to the display 66 (the tilt of the observer's head).
  • the direction of one side of the screen of the display 66 may be set as the reference direction.
  • the control unit 15 rotates the entire screen viewed from such an observer.
  • at least one of the optical axis changers 17L and 17R corresponding to the inclination measured by the inclination measuring device 14 is at least one of the incident-side optical axis and the outgoing-side optical axis. Change direction. For example, as shown in FIG. 1, the observer's line of sight 2 is changed to the line of sight 3 by the optical axis changer 17R.
  • FIG. 4 is a diagram illustrating a configuration example of the optical element 16L in FIGS. 1 and 2.
  • the optical element 16R is configured similarly.
  • the portion other than the liquid crystal shutter 18L constitutes an optical axis changer 17L.
  • the optical axis changer 17L is an active prism, and includes transparent plates 21 and 22, a bellows 24, a transparent liquid 26, actuators 31 and 32, rotation shafts 33A, 33B, and bearings 35A, 35B, and 36. And have.
  • the transparent plate 21 and the transparent plate 22 are connected by a cylindrical bellows 24.
  • a space sealed with the transparent plates 21 and 22 and the bellows 24 is filled with a transparent liquid 26.
  • the refractive index of the liquid 26 is close to the refractive index of the transparent plates 21 and 22.
  • Actuators 31 and 32 are coupled to the transparent plates 21 and 22, respectively.
  • Rotating shafts 33A and 33B are coupled to the transparent plate 21, and the transparent plate 21 rotates around the rotating shafts 33A and 33B.
  • a line connecting the rotary shafts 33A and 33B passes near the center of the transparent plate 21.
  • a rotation shaft 34 orthogonal to the rotation shafts 33 ⁇ / b> A and 33 ⁇ / b> B is coupled to the transparent plate 22, and the transparent plate 22 rotates around the rotation shaft 34.
  • FIG. 5A is a cross-sectional view showing the optical axis changer 17L of FIG. 4 in a normal state.
  • FIG. 5B is a cross-sectional view showing the optical axis changer 17L of FIG. 4 in a deformed state.
  • the normal state as shown in FIG. 5A since the transparent plate 21 and the transparent plate 22 are substantially parallel, the light incident on the transparent plate 21 leaves the transparent plate 22 without changing its direction. That is, the direction of the optical axis 45 on the transparent plate 21 side and the direction of the optical axis 46 on the transparent plate 22 side are the same.
  • the optical axis changer 17L is deformed as shown in FIG.
  • the transparent plate 21 and the transparent plate 22 are not parallel, the light incident on the transparent plate 21 changes its direction and exits from the transparent plate 22. That is, according to the movement of the actuator 32, the direction of the optical axis 46 on the transparent plate 22 side is changed.
  • the lines obtained by extending the rotation shafts 33A and 33B pass through the vicinity of the center of the transparent plate 21, but the rotation shafts 33A and 33B may be provided so that the distance from the actuator 31 becomes larger.
  • the rotation shafts 33 ⁇ / b> A and 33 ⁇ / b> B may be provided at points symmetrical to the position of the actuator 31 with respect to the center of the transparent plate 21.
  • the actuators may be coupled one by one to two points on the periphery of the transparent plate 21 that are point-symmetric with respect to the center of the transparent plate 21. In this case, the directions in which the two actuators are moved are opposite to each other. Then, the rotating shaft can be omitted.
  • the actuator 31 may be disposed on the rotation shaft 33A, and the transparent plate 21 may be rotated by the actuator 31 turning the rotation shaft 33A.
  • the transparent plate 22 may be variously modified as described above.
  • FIG. 6 is an explanatory diagram showing an example of an image that can be seen by an observer when the observer's head is not tilted.
  • the direction of the vector 9 from the left-eye image 51L to the right-eye image 51R is equal to the direction of a straight line connecting both eyes of the observer. Therefore, the observer can perceive a stereoscopic image by easily superimposing the image 51L and the image 51R.
  • FIG. 7 is an explanatory diagram showing an example of an image that can be seen by an observer when the observer's head is tilted.
  • the observer's head rotates counterclockwise from the horizontal direction when viewed from the observer. In this case, it seems to the observer that the entire screen of the display 66 is rotated clockwise.
  • the direction of the vector from the image 51L toward the image 51R is different from the direction 7 of the straight line connecting the eyes of the observer. Since the direction 5 of the eye movement of the observer during stereoscopic viewing is the same as the direction 7, it is difficult for the observer to stereoscopically view.
  • the control unit 15 in FIG. 2 observes the optical axis on the display 66 side (incident side) of the optical axis changer 17L from the optical axis on the observer side (exit side) according to the measured inclination.
  • the optical axis changer 17L is controlled so as to face upward as viewed from the person.
  • the control unit 15 changes the optical axis in accordance with the measured inclination so that the optical axis on the display unit 66 side of the optical axis changer 17R faces downward from the observer's side.
  • the device 17R is controlled.
  • the control unit 15 performs control so that the direction of the vector 9 from the image 52L to the image 51R approaches the direction 7 of a straight line connecting both eyes of the observer (ideally, the same). Since the direction of the vector 9 approaches the direction 7, the observer can perceive the stereoscopic image by superimposing the image 52L and the image 51R without feeling uncomfortable.
  • the optical axis depends on the tilt measured by the tilt measuring device 14. Since the direction of the optical axis of the changers 17L and 17R is changed and the apparent position of the image is corrected, the influence on the appearance of the image caused by tilting the head of the observer is reduced. Therefore, the observer can perceive a stereoscopic image satisfactorily while suppressing fatigue. Since it is not necessary to tilt the head, the observer can enjoy viewing stereoscopic images with an easy posture.
  • the stereoscopic image display system of FIG. 1 is suitable for a living room or a theater in which one stereoscopic image can be viewed simultaneously by a plurality of observers.
  • FIG. 8 is an explanatory diagram showing apparent movement of an image by the stereoscopic glasses 10 of FIG.
  • the image viewed from the observer rotates as indicated by an arrow 74.
  • the object 71L included in the left-eye image 51L has moved to the object 72L
  • the object 71R included in the right-eye image 51R has moved to the object 72R.
  • the vector 9 from the object 71L toward the object 71R rotates to become a vector 9B.
  • Moving the apparent position of the image in the vertical direction when viewed from the observer is equivalent to moving the objects 72L and 72R as indicated by an arrow 75 in FIG.
  • the apparent position of the image may be moved in the left-right direction as viewed from the observer. This corresponds to moving the objects 72L and 72R as indicated by an arrow 76 in FIG.
  • the control unit 15 in FIG. 2 further causes the optical axis on the display unit 66 side of the optical axis changer 17L to face right from the observer side with respect to the optical axis on the observer side.
  • the optical axis changers 17L and 17R are controlled so that the optical axis on the display unit 66 side of the optical axis changer 17R is leftward when viewed from the observer with respect to the optical axis on the observer side.
  • control unit 15 controls the images 51L and 51R to move by a distance corresponding to the arrow 76 in accordance with the measured inclination. Then, the objects 72L and 72R can be returned to the original positions of the objects 71L and 71R, so that the influence of the rotation of the screen viewed from the observer can be further suppressed, and a stereoscopic image can be perceived more naturally. It becomes like this.
  • optical axis changers 17L and 17R are controlled. Only one of them may be controlled.
  • the stereoscopic glasses 10 may have only one of the optical axis changers 17L and 17R.
  • the stereoscopic image display system in which the stereoscopic glasses 10 have the liquid crystal shutters 18L and 18R and the stereoscopic image display device 60 alternately displays the left-eye image and the right-eye image in a time-division manner has been described.
  • the stereoscopic glasses having the optical axis changers 17L and 17R like the stereoscopic glasses 10 can be used.
  • stereoscopic glasses in which the liquid crystal shutters 18L and 18R are changed to polarizing plates in the stereoscopic glasses 10 may be used.
  • stereoscopic glasses in which the liquid crystal shutters 18L and 18R are removed from the stereoscopic glasses 10 may be used.
  • FIG. 9 is a schematic diagram showing another configuration example of the stereoscopic image display system according to the embodiment of the present invention.
  • the stereoscopic image display system in FIG. 9 includes stereoscopic glasses 210 and a stereoscopic image display device 260.
  • the stereoscopic glasses 210 are worn by an observer to stereoscopically view an image displayed on the stereoscopic image display device 260.
  • FIG. 10 is a block diagram illustrating a configuration example of the stereoscopic glasses 210 of FIG.
  • FIG. 11 is a block diagram illustrating a configuration example of the stereoscopic image display device 260 of FIG.
  • the stereoscopic glasses 210 include the frame 11, the tilt measuring device 14, the transceiver 212, the control unit 215, the left-eye liquid crystal shutter 18L, and the right-eye liquid crystal shutter 18L.
  • the stereoscopic image display device 260 includes a transceiver 262, a stereoscopic image generation unit 64, a display 66, and an image processing unit 268.
  • the stereoscopic image generation unit 64 generates a left-eye image 51L and a right-eye image 51R for stereoscopic viewing, and outputs them to the image processing unit 268.
  • the stereoscopic image generation unit 64 outputs a switching signal indicating the timing for alternately displaying the image 51L and the image 51R to the transceiver 262.
  • the transceiver 262 transmits this switching signal to the transceiver 212 of FIG. 10 by infrared rays or radio waves.
  • the transceiver 212 receives the switching signal from the transceiver 262 and outputs it to the control unit 215.
  • the liquid crystal shutters 18L and 18R and the control by the controller 215 are the same as those of the stereoscopic glasses 10 in FIG.
  • the inclination measuring device 14 is fixed to the frame 11, for example. As in the case of FIG. 2, the inclination measuring device 14 measures the inclination 8 of the straight line 7 connecting the eyes of the observer with respect to the reference direction such as the horizontal direction 6, in other words, the inclination 8 of the stereoscopic glasses 10 with respect to the reference direction. The obtained measurement value is output to the control unit 215. The control unit 215 outputs the value of the slope 8 measured by the slope measuring device 14 to the transceiver 212.
  • the transceiver 212 is fixed to the frame 11, for example, and transmits the value of inclination 8 to the transceiver 262 of FIG. 11 by infrared rays, radio waves, or the like.
  • the transceiver 262 receives the value of the inclination 8 and outputs it to the image processing unit 268.
  • the image processing unit 268 reduces the influence of the rotation of the entire screen viewed from the observer so as to reduce the influence on the appearance of the image from the observer due to the inclination of the straight line connecting both eyes of the observer.
  • at least one of the image 51L and the image 51R is moved on the screen according to the received inclination, and the result is output to the display 66.
  • the image processing unit 268 causes at least one of the image 51L and the image 51R to perform parallel movement (movement not including rotation).
  • the display unit 66 displays the images 51L and 51R processed by the image processing unit 268.
  • FIG. 12A is an explanatory diagram illustrating an example of an image generated by the stereoscopic image generation unit 64 of FIG.
  • FIG. 12B is an explanatory diagram illustrating an example of an image reduced by the image processing unit 268 of FIG.
  • FIG. 12C is an explanatory diagram illustrating an example of an image translated by the image processing unit 268.
  • FIG. 12D is an explanatory diagram illustrating an example of an image rotated by the image processing unit 268.
  • the image processing unit 268 includes a graphic processor and a frame memory, and the image of FIG. 12A generated by the stereoscopic image generation unit 64 is displayed so that the image does not protrude from the screen by translation or rotation. Reduce as shown in 12 (b). The portion other than the reduced image is black, for example.
  • the image processing unit 268 translates the image shown in FIG. 12B as shown in FIG. 12C or rotates it as shown in FIG. When the image is moved in parallel, the position of the image may be moved on the frame memory, and the timing of the horizontal synchronization signal and the vertical synchronization signal of the display unit 66 and the output from the image processing unit 268 to the display unit 66 are output. The relationship between the timing of the image signal to be changed may be changed.
  • FIG. 13 is an explanatory diagram showing an example of image movement performed when the observer's head is tilted.
  • a straight line connecting both eyes of the observer rotates from the horizontal direction counterclockwise as viewed from the observer. In this case, it seems to the observer that the entire screen of the display 66 is rotated clockwise.
  • the direction of the vector from the image 51L toward the image 51R is different from the direction 7 of the straight line connecting the eyes of the observer. Since the direction 5 of the eye movement of the observer during stereoscopic viewing is the same as the direction 7, it is difficult for the observer to stereoscopically view.
  • the image processing unit 268 in FIG. 11 moves the image 51L downward and the image 51R upward according to the received tilt. Then, the image 51L viewed from the observer moves downward to become an image 252L. The image 51R viewed from the observer moves upward (for the sake of simplicity, the movement of the image 51R is omitted in FIG. 13). At this time, the image processing unit 268 causes the direction of the vector 9 from the image 252L to the image 51R to approach the direction 7 of the straight line connecting both eyes of the observer. Since the direction of the vector 9 approaches the direction 7, the observer can perceive a stereoscopic image by superimposing the image 252L and the image 51R without feeling uncomfortable.
  • the stereoscopic image display system of FIG. 9 even if an observer tilts his / her head with respect to a screen displaying an image for stereoscopic viewing, the image on the screen moves and the apparent position of the image is changed. Since the correction is made, the observer can perceive the stereoscopic image satisfactorily. Therefore, the observer can enjoy viewing the stereoscopic video with an easy posture.
  • FIG. 14 is an explanatory diagram showing apparent movement of the image in the case of FIG.
  • the image viewed from the observer rotates as indicated by an arrow 74.
  • the object 71L included in the left-eye image 51L has moved to the object 72L
  • the object 71R included in the right-eye image 51R has moved to the object 72R.
  • Moving the position of the image in the vertical direction on the screen corresponds to moving the objects 72L and 72R as indicated by an arrow 77.
  • the position of the image may be moved in the left-right direction on the screen. This corresponds to moving the objects 72L and 72R as indicated by an arrow 78.
  • the image processing unit 268 in FIG. 11 further moves the object 72L to the right and the object 72R to the left on the screen.
  • the image processing unit 268 controls the images 51L and 51R to move by a distance corresponding to the arrow 78 in accordance with the received inclination.
  • the objects 72L and 72R can be returned to the original positions of the objects 71L and 71R, so that the influence of the rotation of the screen viewed from the observer can be further suppressed, and a stereoscopic image can be perceived more naturally. It becomes like this.
  • FIG. 15 is an explanatory diagram showing another example of image movement performed when the observer's head is tilted. Although the case where the image processing unit 268 of FIG. 11 moves the images 51L and 51R in parallel has been described, the image processing unit 268 may be moved by rotating the images 51L and 51R.
  • the image processing unit 268 in FIG. 11 determines the image 51L according to the received inclination so as to reduce the influence on the appearance of the image from the observer due to the inclination of the straight line connecting both eyes of the observer.
  • the image 51R is rotated around a point in the screen of the display 66.
  • the images 51L and 51R viewed from the observer become images 352L and 352R.
  • the image processing unit 268 causes the direction of the vector 9 from the image 352L to the image 352R to approach the direction 7 of the straight line connecting both eyes of the observer.
  • the image processing unit 268 rotates the images 51L and 51R by the same size in the same direction as the received inclination, for example.
  • the center of rotation is, for example, the center point of the screen. Since the direction of the vector 9 approaches the direction 7, the observer can perceive a stereoscopic image by superimposing the image 352L and the image 352R without feeling uncomfortable.
  • FIG. 16 is an explanatory diagram showing apparent movement of an image in the case of FIG.
  • the image viewed from the observer rotates as indicated by an arrow 74.
  • the object 71L included in the left-eye image 51L has moved to the object 72L
  • the object 71R included in the right-eye image 51R has moved to the object 72R.
  • Rotating the position of the image on the screen corresponds to moving the objects 72L and 72R as indicated by an arrow 79.
  • the objects 72L and 72R can be returned to the original positions of the objects 71L and 71R, so that the influence of the rotation of the screen viewed by the observer is suppressed and the stereoscopic image is perceived naturally. Will be able to.
  • the image on the screen is rotated even if the observer tilts his / her head with respect to the screen displaying the image for stereoscopic viewing.
  • the apparent position and direction of the image are corrected, so that the observer can perceive the stereoscopic image satisfactorily.
  • the direction of the image also changes following the inclination of the head, the inclination of the displayed character viewed from the observer becomes small and the character is easy to read. Therefore, an observer can enjoy viewing a stereoscopic image even if the observer is in an easy posture such as lying down.
  • the tilt measuring instrument 14 moves with the observer's head (portion above the neck).
  • the tilt measuring device 14 and a transmitter that transmits the measurement value to the stereoscopic image display device 260 may be fixed to an object that is normally worn on the head, such as headphones, headgear, and a helmet.
  • the observer wears any of these on the head, and the inclination measuring device 14 measures the inclination 8 of the straight line 7 connecting the eyes of the observer by measuring the inclination of the observer's head.
  • the transmitter transmits the inclination measured by the inclination measuring device 14 to the transceiver 262.
  • FIG. 17 is a block diagram showing a configuration of a modified example of the stereoscopic image display device 260 of FIG.
  • the stereoscopic image display device 360 of FIG. 17 is different from the stereoscopic image display device 260 of FIG. 11 in that it further includes a camera 363 and an image recognition unit 365 as an inclination measuring device.
  • the image processing unit 268 in FIG. 17 is given a measurement value by the image recognition unit 365.
  • the image processing unit 268 moves the image as described with reference to FIG. 11 according to the measurement value.
  • a marker is attached to the observer's head, and the image recognition unit 365 recognizes the position or orientation of the marker attached to the observer's head photographed by the camera 363, and based on the recognition result.
  • the inclination of the straight line connecting the eyes of the observer may be measured.
  • a light emitting element such as an LED (light emitting diode) or a predetermined mark is used.
  • the image recognition unit 365 may use a face recognition technology that has been used recently in digital cameras and the like.
  • the image recognition unit 365 has a face recognition technology for recognizing the position of face components such as both eyes and both ears of the observer taken by the camera 363, or the orientation of the face and head. Based on the obtained recognition result, the inclination of the straight line connecting both eyes of the observer is measured. As described above, when the image recognition unit 365 is used to recognize the eyes of the observer, it is not necessary to attach a marker to the observer's head.
  • a stereoscopic image display device 360 as shown in FIG. 17 can be used without using glasses even when a lenticular method or the like is used to display a stereoscopic image. Can be used.
  • the stereoscopic image display device 60 in FIG. 3 may further include a camera 363 and an image recognition unit 365 as an inclination measuring device, similarly to the stereoscopic image display device 360 in FIG.
  • the measurement value by the image recognition unit 365 is transmitted to the receiver 12 from the transmitter 62 by infrared rays or radio waves, for example.
  • the stereoscopic glasses 10 of FIG. 2 do not have to include the tilt measuring device 14.
  • FIG. 18 is an explanatory diagram showing an example in which the left-eye image 51L and the right-eye image 51R are displayed on the screen of the display device 66 so as to overlap each other.
  • the left-eye image (51L, etc.) and the right-eye image (51R, etc.) do not overlap has been described, but both images may overlap as shown in FIG. Good.
  • the difference in position between the left-eye image and the right-eye image is not so large, and both images are displayed so as to overlap each other as shown in FIG.
  • the observer perceives, for example, as if the stereoscopic image 78 is at the position shown in FIG.
  • each functional block in this specification can be typically realized by hardware.
  • each functional block can be formed on a semiconductor substrate as part of an IC (integrated circuit).
  • the IC includes an LSI (large-scale integrated circuit), an ASIC (application-specific integrated circuit), a gate array, an FPGA (field programmable gate array), and the like.
  • some or all of each functional block can be implemented in software.
  • such a functional block can be realized by a processor and a program executed on the processor.
  • each functional block described in the present specification may be realized by hardware, may be realized by software, or may be realized by any combination of hardware and software.
  • the present invention is useful for a stereoscopic image display system, stereoscopic glasses, and the like.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

観察者の頭が傾いた場合であっても、疲労を抑えながら、観察者が立体画像を見ることができるようにする。立体画像表示システムであって、立体視のための左目用画像及び右目用画像を表示する画像表示装置と、前記画像表示装置に表示された画像を立体視するために観察者に装着される立体視メガネと、基準方向に対する前記観察者の両眼を結ぶ直線の傾きを測定する傾き測定器とを有する。前記立体視メガネは、前記観察者の一方の目に入射されるべき光を透過させ、かつ、入射側の光軸及び出射側の光軸の方向を変更する光軸変更器と、前記直線の傾きによる前記観察者からの前記画像の見え方への影響を小さくするように、前記傾き測定器で測定された傾きに応じて前記光軸変更器の入射側の光軸及び出射側の光軸のうちの少なくとも一方の方向を変更させる制御部とを有する。

Description

立体画像表示システム及び立体視メガネ
 本開示は、画像を立体視するための立体画像表示システム及び立体視メガネに関する。
 人間は、両眼の位置が異なることによって生じる視差を利用して、立体的に物を見ることができる。立体画像表示は、わずかに異なる2つの画像を両眼のそれぞれで見られるようにすることにより、人に立体像を知覚させる技術である。画像を立体視させる立体画像表示の方式としては、偏光板や液晶シャッターを用いた立体視メガネ方式、メガネの不要なレンチキュラレンズ方式等が知られている。
 特許文献1には、立体画像表示制御装置の例が記載されている。観察者の両眼を結ぶ直線の方向が水平に対して傾いていない場合には、観察者は良好に立体像を知覚することができる。
特開2001-296501号公報
 観察者が、画像が表示された画面に対して頭を傾けた場合には、画面上の右目用画像と左目用画像とを結ぶ直線の方向は観察者の両眼を結ぶ直線の方向から傾く。これらの方向が一致しない状態は、実際に物を見る場合にはあり得ないので、このような状態にある立体画像からは立体像を知覚しづらく、観察者を疲労させる。このため、特許文献1の装置は、観察者の頭が大きく傾いた場合には、立体画像の表示を中断し、通常の画像を表示することにより、観察者の疲労を防止している。しかし、立体視をするためには、頭を傾けないようにしなければならないので、観察者は楽な姿勢で立体画像を見ることができない。
 本発明は、観察者の頭が傾いた場合であっても、疲労を抑えながら、観察者が立体画像を見ることができるようにすることを目的とする。
 本発明の実施形態による立体画像表示システムは、立体視のための左目用画像及び右目用画像を表示する画像表示装置と、前記画像表示装置に表示された画像を立体視するために観察者に装着される立体視メガネと、基準方向に対する前記観察者の両眼を結ぶ直線の傾きを測定する傾き測定器とを有する。前記立体視メガネは、前記観察者の一方の目に入射されるべき光を透過させ、かつ、入射側の光軸及び出射側の光軸の方向を変更する光軸変更器と、前記直線の傾きによる前記観察者からの前記画像の見え方への影響を小さくするように、前記傾き測定器で測定された傾きに応じて前記光軸変更器の入射側の光軸及び出射側の光軸のうちの少なくとも一方の方向を変更させる制御部とを有する。
 本発明の実施形態による他の立体画像表示システムは、画像表示装置と、基準方向に対する観察者の両眼を結ぶ直線の傾きを測定する傾き測定器とを有する。前記画像表示装置は、立体視のための左目用画像及び右目用画像を生成する立体画像生成部と、前記直線の傾きによる前記観察者からの前記画像の見え方への影響を小さくするように、前記傾き測定器で測定された傾きに応じて前記左目用画像及び前記右目用画像のうちの少なくとも一方を移動させる処理を行う画像処理部と、前記画像処理部で処理された前記左目用画像及び前記右目用画像を表示する表示器とを有する。
 本発明の実施形態による立体視メガネは、画像表示装置に表示された画像を立体視するために観察者に装着される立体視メガネであって、基準方向に対する前記立体視メガネの傾きを測定する傾き測定器と、前記観察者の一方の目に入射されるべき光を透過させ、かつ、入射側の光軸及び出射側の光軸の方向を変更する光軸変更器と、前記観察者の両眼を結ぶ直線の傾きによる前記観察者からの前記画像の見え方への影響を小さくするように、前記傾き測定器で測定された傾きに応じて前記光軸変更器の入射側の光軸及び出射側の光軸のうちの少なくとも一方の方向を変更させる制御部とを有する。
 本発明の実施形態によれば、観察者の頭が傾いた場合であっても、観察者は良好に立体像を知覚することができ、立体画像を見る際の疲労を抑えることができる。頭を傾けないようにする必要がないので、観察者は楽な姿勢で立体画像を見ることができる。
図1は、本発明の実施形態に係る立体画像表示システムの構成例を示す概要図である。 図2は、図1の立体視メガネの構成例を示すブロック図である。 図3は、図1の表示装置の構成例を示すブロック図である。 図4は、図1及び図2の光学素子の構成例を示す図である。 図5(a)は、通常の状態にある図4の光軸変更器を示す断面図である。図5(b)は、変形した状態にある図4の光軸変更器を示す断面図である。 図6は、観察者の頭が傾いていない場合に観察者から見える画像の例を示す説明図である。 図7は、観察者の頭が傾いている場合に観察者から見える画像の例を示す説明図である。 図8は、図2の立体視メガネによる画像の見かけの移動について示す説明図である。 図9は、本発明の実施形態に係る立体画像表示システムの他の構成例を示す概要図である。 図10は、図9の立体視メガネの構成例を示すブロック図である。 図11は、図9の立体画像表示装置の構成例を示すブロック図である。 図12(a)は、図11の立体画像生成部で生成された画像の例を示す説明図である。図12(b)は、図11の画像処理部で縮小された画像の例を示す説明図である。図12(c)は、画像処理部で平行移動された画像の例を示す説明図である。図12(d)は、画像処理部で回転された画像の例を示す説明図である。 図13は、観察者の頭が傾いている場合に行われる画像の移動の例を示す説明図である。 図14は、図13の場合における画像の見かけの移動について示す説明図である。 図15は、観察者の頭が傾いている場合に行われる画像の移動の他の例を示す説明図である。 図16は、図15の場合における画像の見かけの移動について示す説明図である。 図17は、図11の立体画像表示装置の変形例の構成を示すブロック図である。 図18は、表示器の画面上に左目用画像と右目用画像とが重なって表示される場合の例を示す説明図である。
 以下、本発明の実施の形態について、図面を参照しながら説明する。図面において下2桁が同じ参照番号で示された構成要素は、互いに対応しており、同一の又は類似の構成要素である。
 図1は、本発明の実施形態に係る立体画像表示システムの構成例を示す概要図である。図1の立体画像表示システムは、立体視メガネ10と、立体画像表示装置60とを有している。立体視メガネ10は、立体画像表示装置60に表示された画像を立体視するために観察者に装着される。図2は、図1の立体視メガネ10の構成例を示すブロック図である。図3は、図1の立体画像表示装置60の構成例を示すブロック図である。
 立体視メガネ10は、フレーム11と、受信機12と、傾き測定器14と、制御部15と、左目用光学素子16Lと、右目用光学素子16Rとを有している。光学素子16Lは、光軸変更器17Lと、液晶シャッター18Lとを有している。光学素子16Rは、光軸変更器17Rと、液晶シャッター18Rとを有している。光軸変更器17L及び液晶シャッター18Lは、観察者の左目に入射されるべき光を透過させ、光軸変更器17R及び液晶シャッター18Rは、観察者の右目用に入射されるべき光を透過させる。光軸変更器17L及び光軸変更器17Rは、いずれも、入射側の光軸及び出射側の光軸の方向を変更することが可能である。
 立体画像表示装置60は、送信機62と、立体画像生成部64と、表示器66とを有している。立体画像生成部64は、立体視のための左目用画像51L及び右目用画像51Rを生成し、表示器66に出力する。立体画像生成部64は、画像51Lと画像51Rとを交互に表示器66に表示させ、画像51L及び画像51Rを表示させるタイミングを示す切替信号を送信機62に出力する。送信機62は、この切替信号を、赤外線や電波等によって立体視メガネ10の受信機12に送信する。画像51L及び画像51Rは、動画であってもよいし、静止画であってもよい。
 左目用画像51L及び右目用画像51Rは、表示器66の画面全体、又は画面内の一部の領域に表示される。両者の水平方向の位置の差を制御することによって、観察者の両眼の視線方向を制御することができる。なお、図1及び以下の画面を示す図においては、画像の向きをわかりやすくするために、左目用画像51L及び右目用画像51Rが表示される領域を、それぞれ四角い枠で表している。実際には、枠は表示されない。
 受信機12は、送信機62から切替信号を受け取り、制御部15に出力する。制御部15は、切替信号に同期して液晶シャッター18Lと液晶シャッター18Rとを交互に開閉することによって、立体視メガネ10を装着した観察者の左目に左目用画像51Lを、右目に右目用画像51Rを、それぞれ入射させる。
 傾き測定器14は、例えばフレーム11に固定されている。傾き測定器14は、水平方向6等の基準方向に対する観察者の両眼を結ぶ直線7の傾き8を測定し、得られた測定値を制御部15に出力する。傾き8は、基準方向に対する立体視メガネ10の傾き、及び観察者の頭の傾きに等しい。例えば、傾き測定器14は、加速度センサを有し、加速度センサによって測定された加速度に従って基準方向(例えば水平方向6)に対する立体視メガネ10の傾き、すなわち、傾き8を求める。傾き測定器14は、表示器66に対する直線7の傾き(観察者の頭の傾き)を測定すればよく、そのために、例えば表示器66の画面の1辺の方向を基準方向としてもよい。
 観察者の頭が傾くと、観察者からは画像51L及び画像51Rを含む画面の全体が回転したように見える。制御部15は、観察者の両眼を結ぶ直線の傾き8による観察者からの画像の見え方への影響を小さくするように、言い換えると、このような観察者から見た画面全体の回転の影響を小さくするように、傾き測定器14で測定された傾きに応じて光軸変更器17L,17Rのうちの少なくとも一方について、入射側の光軸及び出射側の光軸のうちの少なくとも一方の方向を変更させる。例えば図1のように、観察者の視線2は光軸変更器17Rによって視線3のように変更させられる。
 図4は、図1及び図2の光学素子16Lの構成例を示す図である。光学素子16Rも同様に構成されている。図4の光学素子16Lのうち、液晶シャッター18L以外の部分は光軸変更器17Lを構成している。光軸変更器17Lは、アクティブプリズムであって、透明板21,22と、蛇腹24と、透明液体26と、アクチュエータ31,32と、回転軸33A,33B,34と、軸受け35A,35B,36とを有している。
 透明板21と透明板22とは、筒状の蛇腹24で接続されている。透明板21,22及び蛇腹24で密閉された空間には透明液体26が満たされている。この液体26の屈折率は、透明板21,22の屈折率に近い。透明板21,22にはアクチュエータ31,32がそれぞれ結合されている。
 透明板21には回転軸33A,33Bが結合されており、透明板21は、回転軸33A,33Bを中心にして回転する。回転軸33A,33Bを結ぶ線は透明板21の中央付近を通る。透明板22には回転軸33A及び33Bに直交する回転軸34が結合されており、透明板22は、回転軸34を中心にして回転する。アクチュエータ31が透明板21の縁を矢印41の方向へ動かすと、透明板21は回転軸33A,33Bを中心として矢印43の方向に回転する。アクチュエータ32が透明板22の縁を矢印42の方向へ動かすと、透明板22は回転軸34を中心として矢印44の方向に回転する。
 図5(a)は、通常の状態にある図4の光軸変更器17Lを示す断面図である。図5(b)は、変形した状態にある図4の光軸変更器17Lを示す断面図である。図5(a)のような通常の状態では、透明板21と透明板22とがほぼ平行であるので、透明板21に入射した光は向きを変えずに透明板22から出て行く。すなわち、透明板21の側の光軸45の向きと透明板22の側の光軸46の向きとは同じである。
 例えばアクチュエータ32が透明板22を動かした場合には、光軸変更器17Lは図5(b)のように変形した状態になる。この場合には、透明板21と透明板22とが平行ではないので、透明板21に入射した光は向きを変えて透明板22から出て行く。すなわち、アクチュエータ32の動きに従って、透明板22の側の光軸46の方向が変更される。
 なお、図4では回転軸33A,33Bを延長した線が透明板21の中央付近を通るようにしているが、アクチュエータ31からの距離がより大きくなるように回転軸33A,33Bを設けてもよい。例えば、透明板21の中心に関してアクチュエータ31の位置と対称な点に回転軸33A,33Bを設けてもよい。
 透明板21の周縁にあって透明板21の中心に関して点対称の位置にある2点に、アクチュエータを1つずつ結合してもよい。この場合、2個のアクチュエータを動かす向きを互いに反対にする。すると、回転軸を省略することができる。
 回転軸33A上にアクチュエータ31を配置し、アクチュエータ31が回転軸33Aを回すことによって透明板21を回転させるようにしてもよい。透明板22に関しても同様に、以上のような各種の変形を行ってもよい。
 図6は、観察者の頭が傾いていない場合に観察者から見える画像の例を示す説明図である。この場合には、左目用画像51Lから右目用画像51Rに向かうベクトル9の方向は、観察者の両眼を結ぶ直線の方向に等しい。このため、観察者は、画像51Lと画像51Rとを容易に重ね合わせて立体像を知覚することができる。
 図7は、観察者の頭が傾いている場合に観察者から見える画像の例を示す説明図である。図7では、観察者から見て、観察者の頭が水平方向から反時計回りに回転している。この場合には、観察者からは表示器66の画面全体が時計回りに回転したように見える。画像51Lから画像51Rに向かうベクトルの方向は、観察者の両眼を結ぶ直線の方向7とは異なる。立体視に際しての観察者の目の動きの方向5は、方向7と同じであるので、観察者は立体視をすることが難しい。
 そこで、図2の制御部15は、測定された傾きに応じて、光軸変更器17Lの表示器66の側(入射側)の光軸が観察者の側(出射側)の光軸より観察者から見て上向きになるように、光軸変更器17Lを制御する。制御部15は、測定された傾きに応じて、光軸変更器17Rの表示器66の側の光軸が観察者の側の光軸より観察者から見て下向きになるように、光軸変更器17Rを制御する。すると、観察者の左目の視線が上向きに、右目の視線が下向きになるので、観察者から見た画像51Lは、下に移動して画像52Lとなり、観察者から見た画像51Rは、上に移動する(簡単のため、図7では画像51Rの動きは省略している)。このとき制御部15は、画像52Lから画像51Rに向かうベクトル9の方向が、観察者の両眼を結ぶ直線の方向7に近づくように(理想的には同じになるように)制御する。ベクトル9の方向が方向7に近づくので、観察者は、違和感なく、画像52Lと画像51Rとを重ね合わせて立体像を知覚することができる。
 このように図2の立体視メガネ10によれば、立体視のための画像を表示する画面に対して観察者が頭を傾けても、傾き測定器14で測定された傾きに応じて光軸変更器17L,17Rの光軸の方向が変更されて画像の見かけの位置が補正されるので、観察者が頭を傾けたことによって生じる画像の見え方への影響が小さくなる。したがって、観察者は疲労を抑えながら良好に立体像を知覚することができる。頭を傾けないようにする必要がないので、観察者は楽な姿勢で立体映像の視聴を楽しむことができる。
 同じ立体画像を複数の観察者が同時に見る場合であっても、各立体視メガネは、その立体視メガネを装着した観察者の頭の傾きに応じて画像の見かけの位置を補正する。したがって、図1の立体画像表示システムは、1つの立体画像が複数の観察者によって同時に見られる家庭のリビングや劇場に向いている。
 以上では、画像の見かけの位置を観察者から見て上下方向にのみ移動させる場合について説明した。この場合、厳密には観察者から見た画面の回転の影響を完全に打ち消している訳ではない。しかし人間の視覚特性上、画像の回転よりも画像の上下方向のずれの方が立体視に対する影響が大きいので、上下方向のずれを打ち消すだけでも立体視を容易にすることができる。
 図8は、図2の立体視メガネ10による画像の見かけの移動について示す説明図である。観察者の頭が傾くと、観察者から見た画像は矢印74のように回転する。このとき、左目用画像51Lに含まれる物体71Lは物体72Lに、右目用画像51Rに含まれる物体71Rは物体72Rに移動したように見える。物体71Lから物体71Rに向かうベクトル9は、回転してベクトル9Bになる。画像の見かけの位置を観察者から見て上下方向に移動することは、物体72L,72Rを図8の矢印75のように移動させることに相当する。
 ここで、更に、画像の見かけの位置を観察者から見て左右方向に移動させてもよい。これは、物体72L,72Rを図8の矢印76のように移動させることに相当する。このように移動させるために、図2の制御部15は更に、光軸変更器17Lの表示器66の側の光軸が観察者の側の光軸より観察者から見て右向きになるように、かつ、光軸変更器17Rの表示器66の側の光軸が観察者の側の光軸より観察者から見て左向きになるように、光軸変更器17L,17Rを制御する。このとき制御部15は、測定された傾きに応じて、画像51L,51Rが矢印76に相当する距離だけ移動するように制御する。すると、物体72L,72Rを本来の位置である物体71L,71Rの位置に戻すことができるので、観察者から見た画面の回転の影響を更に抑え、より自然に立体像を知覚することができるようになる。
 なお、光軸変更器17L,17Rの両方を制御する場合について説明したが、一方のみを制御するようにしてもよい。立体視メガネ10は、光軸変更器17L,17Rのうちの一方のみを有していてもよい。
 立体視メガネ10が液晶シャッター18L,18Rを有しており、立体画像表示装置60が左目用画像と右目用画像とを交互に時分割で表示するような立体画像表示システムについて説明したが、他の方式の立体画像表示システムにおいても、立体視メガネ10のように光軸変更器17L,17Rを有する立体視メガネを用いることができる。例えば、偏光板を用いて左目用画像と右目用画像とを分離する立体画像表示システムにおいては、立体視メガネ10において液晶シャッター18L,18Rを偏光板に変更した立体視メガネを用いてもよい。本来はメガネが不要なレンチキュラ方式等を採用して立体画像を表示する場合には、立体視メガネ10から液晶シャッター18L,18Rを取り除いた立体視メガネを用いてもよい。
 図9は、本発明の実施形態に係る立体画像表示システムの他の構成例を示す概要図である。図9の立体画像表示システムは、立体視メガネ210と、立体画像表示装置260とを有している。立体視メガネ210は、立体画像表示装置260に表示された画像を立体視するために観察者に装着される。図10は、図9の立体視メガネ210の構成例を示すブロック図である。図11は、図9の立体画像表示装置260の構成例を示すブロック図である。
 立体視メガネ210は、フレーム11と、傾き測定器14と、送受信機212と、制御部215と、左目用液晶シャッター18Lと、右目用液晶シャッター18Lとを有している。立体画像表示装置260は、送受信機262と、立体画像生成部64と、表示器66と、画像処理部268とを有している。立体画像生成部64は、立体視のための左目用画像51L及び右目用画像51Rを生成し、画像処理部268に出力する。立体画像生成部64は、画像51Lと画像51Rとを交互に表示させるタイミングを示す切替信号を送受信機262に出力する。送受信機262は、この切替信号を、赤外線や電波等によって図10の送受信機212に送信する。
 送受信機212は、送受信機262から切替信号を受け取り、制御部215に出力する。液晶シャッター18L,18R及びこれらに対する制御部215による制御は、図2の立体視メガネ10と同様である。
 傾き測定器14は、例えばフレーム11に固定されている。傾き測定器14は、図2の場合と同様に、水平方向6等の基準方向に対する観察者の両眼を結ぶ直線7の傾き8、言い換えると基準方向に対する立体視メガネ10の傾き8を測定し、得られた測定値を制御部215に出力する。制御部215は、傾き測定器14で測定された傾き8の値を送受信機212に出力する。送受信機212は、例えばフレーム11に固定されており、傾き8の値を赤外線や電波等によって図11の送受信機262に送信する。
 送受信機262は、傾き8の値を受信し、画像処理部268に出力する。画像処理部268は、観察者の両眼を結ぶ直線の傾きによる観察者からの画像の見え方への影響を小さくするように、言い換えると、観察者から見た画面全体の回転の影響を小さくするように、受信された傾きに応じて画像51L及び画像51Rのうちの少なくとも一方を画面上で移動させる処理を行い、その結果を表示器66に出力する。ここでは、画像処理部268は、画像51L及び画像51Rのうちの少なくとも一方に、平行移動(回転を含まない移動)をさせる。表示器66は、画像処理部268で処理された画像51L及び51Rを表示する。
 図12(a)は、図11の立体画像生成部64で生成された画像の例を示す説明図である。図12(b)は、図11の画像処理部268で縮小された画像の例を示す説明図である。図12(c)は、画像処理部268で平行移動された画像の例を示す説明図である。図12(d)は、画像処理部268で回転された画像の例を示す説明図である。
 画像処理部268は、グラフィックプロセッサ及びフレームメモリを有しており、平行移動や回転によって画像が画面をはみ出さないように、立体画像生成部64で生成された図12(a)の画像を図12(b)のように縮小する。縮小された画像以外の部分は、例えば黒色にする。画像処理部268は、必要に応じて、図12(b)の画像を、図12(c)のように平行移動させたり、図12(d)のように回転させる。画像を平行移動させる場合には、フレームメモリ上で画像の位置を移動してもよいし、表示器66の水平同期信号及び垂直同期信号のタイミングと、画像処理部268から表示器66に出力される画像信号のタイミングとの間の関係を変更してもよい。
 図13は、観察者の頭が傾いている場合に行われる画像の移動の例を示す説明図である。図13では、観察者の両眼を結ぶ直線が、観察者から見て反時計回りに水平方向から回転している。この場合には、観察者からは表示器66の画面全体が時計回りに回転したように見える。画像51Lから画像51Rに向かうベクトルの方向は、観察者の両眼を結ぶ直線の方向7とは異なる。立体視に際しての観察者の目の動きの方向5は、方向7と同じであるので、観察者は立体視をすることが難しい。
 そこで、図11の画像処理部268は、受信された傾きに応じて、画像51Lを下に、画像51Rを上に移動させる。すると、観察者から見た画像51Lは、下に移動して画像252Lとなる。観察者から見た画像51Rは、上に移動する(簡単のため、図13では画像51Rの動きは省略している)。このとき画像処理部268は、画像252Lから画像51Rに向かうベクトル9の方向が、観察者の両眼を結ぶ直線の方向7に近づくようにする。ベクトル9の方向が方向7に近づくので、観察者は、違和感なく、画像252Lと画像51Rとを重ね合わせて立体像を知覚することができる。
 このように図9の立体画像表示システムによれば、立体視のための画像を表示する画面に対して観察者が頭を傾けても、画面上の画像が移動して画像の見かけの位置が補正されるので、観察者は良好に立体像を知覚することができる。したがって、観察者は、楽な姿勢で立体映像の視聴を楽しむことができる。
 図9~図13を参照して、画像の位置を上下方向にのみ移動させる場合について説明した。この場合、厳密には観察者から見た画面の回転の影響を完全に打ち消している訳ではない。しかし人間の視覚特性上、画像の回転よりも画像の上下方向のずれの方が立体視に対する影響が大きいので、観察者の両眼を結ぶ直線の傾きが小さい場合には、画像を画面上で上下方向に移動するだけでも立体視を容易にすることができる。画像を画面上で上下方向に移動することは、画像を回転させる場合に比べて必要なメモリや演算量が少なく、必要なハードウエア規模が少なくて済むので、装置の低コスト化を図ることができる。
 図14は、図13の場合における画像の見かけの移動について示す説明図である。観察者の頭が傾くと、観察者から見た画像は矢印74のように回転する。このとき、左目用画像51Lに含まれる物体71Lは物体72Lに、右目用画像51Rに含まれる物体71Rは物体72Rに移動したように見える。画像の位置を画面上で上下方向に移動することは、物体72L,72Rを矢印77のように移動させることに相当する。
 ここで、更に、画像の位置を画面上で左右方向に移動させてもよい。これは、物体72L,72Rを矢印78のように移動させることに相当する。このように移動させるために、図11の画像処理部268は更に、物体72Lを右に、かつ、物体72Rを左に、画面上で移動させる。このとき画像処理部268は、受信された傾きに応じて、画像51L,51Rが矢印78に相当する距離だけ移動するように制御する。すると、物体72L,72Rを本来の位置である物体71L,71Rの位置に戻すことができるので、観察者から見た画面の回転の影響を更に抑え、より自然に立体像を知覚することができるようになる。
 なお、画像処理部268が画像51L,51Rの両方を移動する場合について説明したが、一方のみを移動するようにしてもよい。
 図15は、観察者の頭が傾いている場合に行われる画像の移動の他の例を示す説明図である。図11の画像処理部268が画像51L,51Rを平行移動させる場合について説明したが、画像処理部268は、画像51L,51Rを回転させることによって移動させてもよい。
 この場合、図11の画像処理部268は、観察者の両眼を結ぶ直線の傾きによる観察者からの画像の見え方への影響を小さくするように、受信された傾きに応じて、画像51L及び画像51Rを、表示器66の画面内の点を中心にして回転させる。すると、観察者から見た画像51L,51Rは、画像352L,352Rとなる。このとき画像処理部268は、画像352Lから画像352Rに向かうベクトル9の方向が、観察者の両眼を結ぶ直線の方向7に近づくようにする。具体的には、画像処理部268は、例えば受信された傾きと同じ向きに同じ大きさだけ、画像51L,51Rを回転させる。回転の中心は、例えば画面の中心点である。ベクトル9の方向が方向7に近づくので、観察者は、違和感なく、画像352Lと画像352Rとを重ね合わせて立体像を知覚することができる。
 図16は、図15の場合における画像の見かけの移動について示す説明図である。観察者の頭が傾くと、観察者から見た画像は矢印74のように回転する。このとき、左目用画像51Lに含まれる物体71Lは物体72Lに、右目用画像51Rに含まれる物体71Rは物体72Rに移動したように見える。画像の位置を画面上で回転することは、物体72L,72Rを矢印79のように移動させることに相当する。このような移動により、物体72L,72Rを本来の位置である物体71L,71Rの位置に戻すことができるので、観察者から見た画面の回転の影響を抑え、自然に立体像を知覚することができるようになる。
 図15及び図16を参照して説明したように画像を回転させる処理によれば、立体視のための画像を表示する画面に対して観察者が頭を傾けても、画面上の画像が回転して画像の見かけの位置及び方向が補正されるので、観察者は良好に立体像を知覚することができる。特に、画像の方向も頭の傾きに追従して変わるので、表示された文字の観察者から見た傾きが小さくなり、文字が読みやすい。したがって、観察者は、例えば体を横にするような楽な姿勢であっても、立体映像の視聴を楽しむことができる。
 傾き測定器14が立体視メガネ210に含まれている場合について説明したが、傾き測定器14は、観察者の頭部(首より上の部分)とともに動くようになっていれば十分である。例えば、ヘッドホン、ヘッドギア及びヘルメット等の通常頭部に装着される物に、傾き測定器14及びその測定値を立体画像表示装置260に送信する送信機を固定するようにしてもよい。観察者はこれらのいずれかを頭部に装着し、傾き測定器14は、観察者の頭部の傾きを測定することによって観察者の両眼を結ぶ直線7の傾き8を測定する。送信機は、傾き測定器14で測定された傾きを送受信機262に送信する。
 図17は、図11の立体画像表示装置260の変形例の構成を示すブロック図である。図17の立体画像表示装置360は、カメラ363及び画像認識部365を傾き測定器として更に有する点が、図11の立体画像表示装置260とは異なっている。
 観察者の顔や頭部を撮影するカメラ363と、このカメラ363で撮影された観察者の顔や目を画像認識することによって観察者の両眼を結ぶ直線の傾きを測定する画像認識部365とを、立体視メガネ210から離れた場所に傾き測定器として配置し、用いてもよい。この場合には、立体視メガネ210は、傾き測定器14を有しなくてもよい。図17の画像処理部268には、画像認識部365による測定値が与えられる。画像処理部268は、測定値に従って、図11を参照して説明したように画像の移動等を行う。
 例えば、観察者の頭部にマーカーを付けておき、画像認識部365が、カメラ363で撮影された観察者の頭部に付けられたマーカーの位置又は向きを画像認識し、認識結果に基づいて、観察者の両眼を結ぶ直線の傾きを測定するようにしてもよい。マーカーとしては、例えば、LED(light emitting diode)等の発光素子や、所定の目印を用いる。
 画像認識部365が、近年デジタルカメラ等で用いられている顔認識技術を用いてもよい。画像認識部365が、カメラ363で撮影された観察者の両目や両耳等の顔の構成要素の位置、又は顔や頭部の向き等を認識する顔認識技術を有し、この技術によって得られた認識結果に基づいて、観察者の両眼を結ぶ直線の傾きを測定する。以上のように画像認識部365を用いて観察者の目等を認識する場合には、観察者の頭部にマーカーを付ける必要はない。
 このような、立体視メガネ210から離れた傾き測定器を用いれば、レンチキュラ方式等を採用して立体画像を表示する場合にも、メガネを用いることなく図17のような立体画像表示装置360を用いることができる。
 図3の立体画像表示装置60が、図17の立体画像表示装置360と同様にカメラ363及び画像認識部365を傾き測定器として更に有してもよい。受信機12には、画像認識部365による測定値が例えば送信機62から赤外線又は電波で伝送される。この場合には、図2の立体視メガネ10は、傾き測定器14を有しなくてもよい。
 図18は、表示器66の画面上に左目用画像51Lと右目用画像51Rとが重なって表示される場合の例を示す説明図である。以上においては、理解しやすくするために、左目用画像(51L等)と右目用画像(51R等)とが重ならない場合について説明したが、図18のように、両画像が重なるようにしてもよい。実際には、ほとんどの場合、左目用画像と右目用画像との位置の差はあまり大きくなく、図18のように、両画像は部分的に重なって表示される。観察者は、例えば、立体像78が図18に示された位置にあるかのように、知覚する。
 本明細書における各機能ブロックは、典型的にはハードウェアで実現され得る。例えば各機能ブロックは、IC(集積回路)の一部として半導体基板上に形成され得る。ここでICは、LSI(large-scale integrated circuit)、ASIC(application-specific integrated circuit)、ゲートアレイ、FPGA(field programmable gate array)等を含む。代替としては各機能ブロックの一部又は全ては、ソフトウェアで実現され得る。例えばそのような機能ブロックは、プロセッサ及びプロセッサ上で実行されるプログラムによって実現され得る。換言すれば、本明細書で説明される各機能ブロックは、ハードウェアで実現されてもよいし、ソフトウェアで実現されてもよいし、ハードウェアとソフトウェアとの任意の組合せで実現され得る。
 本発明の多くの特徴及び優位性は、記載された説明から明らかであり、よって添付の特許請求の範囲によって、本発明のそのような特徴及び優位性の全てをカバーすることが意図される。更に、多くの変更及び改変が当業者には容易に可能であるので、本発明は、図示され記載されたものと全く同じ構成及び動作に限定されるべきではない。したがって、全ての適切な改変物及び等価物は本発明の範囲に入るものとされる。
 以上説明したように、本実施形態によると観察者が立体画像を見る際の疲労を抑えることができるので、本発明は、立体画像表示システム及び立体視メガネ等について有用である。
10,210 立体視メガネ
14 傾き測定器
15,215 制御部
17L,17R 光軸変更器
60,260 画像表示装置
64 立体画像生成部
66 表示器
212,262 送受信機
268 画像処理部
363 カメラ
365 画像認識部

Claims (10)

  1.  立体画像表示システムであって、
     立体視のための左目用画像及び右目用画像を表示する画像表示装置と、
     前記画像表示装置に表示された画像を立体視するために観察者に装着される立体視メガネと、
     基準方向に対する前記観察者の両眼を結ぶ直線の傾きを測定する傾き測定器とを備え、
     前記立体視メガネは、
     前記観察者の一方の目に入射されるべき光を透過させ、かつ、入射側の光軸及び出射側の光軸の方向を変更する光軸変更器と、
     前記直線の傾きによる前記観察者からの前記画像の見え方への影響を小さくするように、前記傾き測定器で測定された傾きに応じて前記光軸変更器の入射側の光軸及び出射側の光軸のうちの少なくとも一方の方向を変更させる制御部とを有する
    立体画像表示システム。
  2.  請求項1に記載の立体画像表示システムにおいて、
     前記立体視メガネは、前記傾き測定器を更に有し、
     前記前記傾き測定器は、前記立体視メガネの傾きを測定することによって前記直線の傾きを測定する
    立体画像表示システム。
  3.  立体画像表示システムであって、
     画像表示装置と、
     基準方向に対する観察者の両眼を結ぶ直線の傾きを測定する傾き測定器とを備え、
     前記画像表示装置は、
     立体視のための左目用画像及び右目用画像を生成する立体画像生成部と、
     前記直線の傾きによる前記観察者からの前記画像の見え方への影響を小さくするように、前記傾き測定器で測定された傾きに応じて前記左目用画像及び前記右目用画像のうちの少なくとも一方を移動させる処理を行う画像処理部と、
     前記画像処理部で処理された前記左目用画像及び前記右目用画像を表示する表示器とを有する
    立体画像表示システム。
  4.  請求項3に記載の立体画像表示システムにおいて、
     前記画像処理部は、前記左目用画像及び前記右目用画像のうちの少なくとも一方に平行移動をさせる
    立体画像表示システム。
  5.  請求項3に記載の立体画像表示システムにおいて、
     前記画像処理部は、前記左目用画像及び前記右目用画像を、所定の点を中心にして回転させる
    立体画像表示システム。
  6.  請求項3に記載の立体画像表示システムにおいて、
     前記画像表示装置に表示された画像を立体視するために観察者に装着される立体視メガネを更に備え、
     前記立体視メガネは、
     送信機と、
     前記傾き測定器とを有し、
     前記画像表示装置は、受信機を更に有し、
     前記傾き測定器は、前記立体視メガネの傾きを測定することによって前記直線の傾きを測定し、
     前記送信機は、前記傾き測定器で測定された傾きを送信し、
     前記受信機は、前記送信器から送信された傾きを受信し、
     前記画像処理部は、前記受信された傾きに応じて前記処理を行う
    立体画像表示システム。
  7.  請求項3に記載の立体画像表示システムにおいて、
     送信機を更に備え、
     前記画像表示装置は、受信機を更に有し、
     前記傾き測定器は、前記観察者の頭部に装着され、前記観察者の頭部の傾きを測定することによって前記直線の傾きを測定し、
     前記送信機は、前記傾き測定器で測定された傾きを送信し、
     前記受信機は、前記送信器から送信された傾きを受信し、
     前記画像処理部は、前記受信された傾きに応じて前記処理を行う
    立体画像表示システム。
  8.  請求項3に記載の立体画像表示システムにおいて、
     前記傾き測定器は、
     前記観察者を撮影するカメラと、
     前記カメラで撮影された前記観察者の頭部に付けられた識別用のマーカーの位置又は向きを認識し、認識結果に基づいて前記直線の傾きを測定する、画像認識部とを有する
    立体画像表示システム。
  9.  請求項3に記載の立体画像表示システムにおいて、
     前記傾き測定器は、
     前記観察者を撮影するカメラと、
     前記カメラで撮影された前記観察者の両目の位置又は頭部の向きを認識する顔認識機能を有し、認識結果に基づいて前記直線の傾きを測定する、画像認識部とを有する
    立体画像表示システム。
  10.  画像表示装置に表示された画像を立体視するために観察者に装着される立体視メガネであって、
     基準方向に対する前記立体視メガネの傾きを測定する傾き測定器と、
     前記観察者の一方の目に入射されるべき光を透過させ、かつ、入射側の光軸及び出射側の光軸の方向を変更する光軸変更器と、
     前記観察者の両眼を結ぶ直線の傾きによる前記観察者からの前記画像の見え方への影響を小さくするように、前記傾き測定器で測定された傾きに応じて前記光軸変更器の入射側の光軸及び出射側の光軸のうちの少なくとも一方の方向を変更させる制御部とを備える
    立体視メガネ。
PCT/JP2011/000891 2010-02-17 2011-02-17 立体画像表示システム及び立体視メガネ WO2011102136A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012500516A JP5834177B2 (ja) 2010-02-17 2011-02-17 立体画像表示システム及び立体視メガネ
US13/585,202 US20120313936A1 (en) 2010-02-17 2012-08-14 Stereoscopic display system and stereoscopic glasses

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010032490 2010-02-17
JP2010-032490 2010-02-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/585,202 Continuation US20120313936A1 (en) 2010-02-17 2012-08-14 Stereoscopic display system and stereoscopic glasses

Publications (1)

Publication Number Publication Date
WO2011102136A1 true WO2011102136A1 (ja) 2011-08-25

Family

ID=44482741

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/000891 WO2011102136A1 (ja) 2010-02-17 2011-02-17 立体画像表示システム及び立体視メガネ

Country Status (3)

Country Link
US (1) US20120313936A1 (ja)
JP (1) JP5834177B2 (ja)
WO (1) WO2011102136A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102789060A (zh) * 2012-09-18 2012-11-21 宁波市胜源技术转移有限公司 一种三维立体眼镜
WO2013102774A1 (en) * 2012-01-06 2013-07-11 Leonar3Do International Zrt. Three-dimensional display system and method
EP2448283A3 (en) * 2010-10-26 2013-10-09 Sony Corporation Adaptation system for 3D display with user tracking
CN103581656A (zh) * 2013-10-12 2014-02-12 东莞市凯泰科技有限公司 控制双目立体影像的方法
JP2014030259A (ja) * 2013-10-16 2014-02-13 Toshiba Corp 3次元映像表示装置
CN103716612A (zh) * 2012-10-05 2014-04-09 三星电子株式会社 基于显示器的朝向执行图像渲染的图像处理设备和方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110087048A (ko) * 2010-01-25 2011-08-02 삼성전자주식회사 디스플레이장치 및 그 구동방법, 셔터방식의 입체안경 및 그 구동방법
JP4804586B1 (ja) * 2010-09-21 2011-11-02 稔 稲葉 立体映像表示装置及び立体映像観賞用メガネ
KR101996658B1 (ko) * 2013-06-19 2019-07-04 엘지디스플레이 주식회사 입체영상표시장치와 이의 구동방법
US10523993B2 (en) 2014-10-16 2019-12-31 Disney Enterprises, Inc. Displaying custom positioned overlays to a viewer

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328170A (ja) * 1995-05-31 1996-12-13 Nec Corp 視点追従型立体映像表示装置
JP2000503781A (ja) * 1996-01-22 2000-03-28 クレインバーガー,ポール 3次元観察および投影用システム
JP2002281526A (ja) * 2001-03-21 2002-09-27 Namco Ltd 画像生成装置、プログラム及び情報記憶媒体
JP2010054778A (ja) * 2008-08-28 2010-03-11 Seiko Epson Corp 偏光メガネ
JP2010256713A (ja) * 2009-04-27 2010-11-11 Nikon Corp 眼鏡および表示システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7508485B2 (en) * 2001-01-23 2009-03-24 Kenneth Martin Jacobs System and method for controlling 3D viewing spectacles
US6752498B2 (en) * 2001-05-14 2004-06-22 Eastman Kodak Company Adaptive autostereoscopic display system
US7428001B2 (en) * 2002-03-15 2008-09-23 University Of Washington Materials and methods for simulating focal shifts in viewers using large depth of focus displays
US8814779B2 (en) * 2006-12-21 2014-08-26 Intuitive Surgical Operations, Inc. Stereoscopic endoscope
US20090040308A1 (en) * 2007-01-15 2009-02-12 Igor Temovskiy Image orientation correction method and system
US8269822B2 (en) * 2007-04-03 2012-09-18 Sony Computer Entertainment America, LLC Display viewing system and methods for optimizing display view based on active tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328170A (ja) * 1995-05-31 1996-12-13 Nec Corp 視点追従型立体映像表示装置
JP2000503781A (ja) * 1996-01-22 2000-03-28 クレインバーガー,ポール 3次元観察および投影用システム
JP2002281526A (ja) * 2001-03-21 2002-09-27 Namco Ltd 画像生成装置、プログラム及び情報記憶媒体
JP2010054778A (ja) * 2008-08-28 2010-03-11 Seiko Epson Corp 偏光メガネ
JP2010256713A (ja) * 2009-04-27 2010-11-11 Nikon Corp 眼鏡および表示システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2448283A3 (en) * 2010-10-26 2013-10-09 Sony Corporation Adaptation system for 3D display with user tracking
WO2013102774A1 (en) * 2012-01-06 2013-07-11 Leonar3Do International Zrt. Three-dimensional display system and method
CN102789060A (zh) * 2012-09-18 2012-11-21 宁波市胜源技术转移有限公司 一种三维立体眼镜
CN103716612A (zh) * 2012-10-05 2014-04-09 三星电子株式会社 基于显示器的朝向执行图像渲染的图像处理设备和方法
KR20140046563A (ko) * 2012-10-05 2014-04-21 삼성전자주식회사 디스플레이의 방향을 고려하여 영상 렌더링을 수행하는 영상 처리 장치 및 방법
EP2717247A3 (en) * 2012-10-05 2014-09-17 Samsung Electronics Co., Ltd Image processing apparatus and method for performing image rendering based on orientation of display
CN103581656A (zh) * 2013-10-12 2014-02-12 东莞市凯泰科技有限公司 控制双目立体影像的方法
JP2014030259A (ja) * 2013-10-16 2014-02-13 Toshiba Corp 3次元映像表示装置

Also Published As

Publication number Publication date
JP5834177B2 (ja) 2015-12-16
US20120313936A1 (en) 2012-12-13
JPWO2011102136A1 (ja) 2013-06-17

Similar Documents

Publication Publication Date Title
JP5834177B2 (ja) 立体画像表示システム及び立体視メガネ
JP6658529B2 (ja) 表示装置、表示装置の駆動方法、及び、電子機器
JP6339239B2 (ja) 頭部装着型表示装置、及び映像表示システム
KR101845350B1 (ko) 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법
JP6378781B2 (ja) 頭部装着型表示装置、及び映像表示システム
JP5351311B1 (ja) 立体映像観察デバイスおよび透過率制御方法
US20110234584A1 (en) Head-mounted display device
US20120306725A1 (en) Apparatus and Method for a Bioptic Real Time Video System
JP6642430B2 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
WO2017145590A1 (ja) 表示装置、表示装置の駆動方法、及び、電子機器
JP2012105260A (ja) 3次元動画適合システム
EP2859399A1 (en) Apparatus and method for a bioptic real time video system
KR101046259B1 (ko) 응시위치를 추적하여 입체영상을 표시하는 입체영상 표시장치
JP7118650B2 (ja) 表示装置
KR100751290B1 (ko) 헤드 마운티드 디스플레이용 영상 시스템
JP4664690B2 (ja) 立体表示装置及び立体表示方法
JPH0713105A (ja) 観察者追従型立体表示装置
WO2020137088A1 (ja) ヘッドマウントディスプレイ、表示方法、及び表示システム
JP2950160B2 (ja) 立体映像表示装置
JPH06276552A (ja) 立体画像撮影装置および画像提示装置
WO2012169221A1 (ja) 立体画像表示装置および立体画像表示方法
JP2014010460A (ja) 映像観察デバイスおよび透過率制御方法
JP2023048008A (ja) ヘッドマウントディスプレイおよびクロスリアリティシステム
CN117170602A (zh) 显示虚拟对象的电子设备
JP2008250166A (ja) 頭部装着型表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11744427

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012500516

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11744427

Country of ref document: EP

Kind code of ref document: A1