WO2013094211A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2013094211A1
WO2013094211A1 PCT/JP2012/008172 JP2012008172W WO2013094211A1 WO 2013094211 A1 WO2013094211 A1 WO 2013094211A1 JP 2012008172 W JP2012008172 W JP 2012008172W WO 2013094211 A1 WO2013094211 A1 WO 2013094211A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
observer
degrees
unit
Prior art date
Application number
PCT/JP2012/008172
Other languages
English (en)
French (fr)
Inventor
徹 臼倉
渡辺 辰巳
増谷 健
Original Assignee
パナソニック株式会社
三洋電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社, 三洋電機株式会社 filed Critical パナソニック株式会社
Priority to CN201280063344.6A priority Critical patent/CN104054334B/zh
Priority to US14/366,877 priority patent/US9883176B2/en
Priority to JP2013550128A priority patent/JP6200328B2/ja
Publication of WO2013094211A1 publication Critical patent/WO2013094211A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/31Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers involving active parallax barriers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Definitions

  • the present invention provides a three-dimensional display by using a barrier or a lenticular lens on a flat display (plasma, liquid crystal, EL (Electro Luminescence), etc.).
  • a flat display plasma, liquid crystal, EL (Electro Luminescence), etc.
  • the present invention relates to a display device that displays information.
  • a display device that can be manually switched between vertical display and horizontal display by switch switching operation, and a video separation unit such as a parallax barrier or a lenticular lens disposed on the surface of the display device
  • a video display device that combines left-eye image data and right-eye image data combined with a video separation unit into one parallax image data.
  • a video display device that detects the orientation of the display screen with respect to the video display device and automatically switches the vertical display or the horizontal display between the video separation unit and the display device according to the detected orientation (for example, Patent Documents). 1).
  • FIG. 16 is a diagram showing a schematic configuration of a conventional video display device described in Patent Document 1.
  • FIG. 16 is a diagram showing a schematic configuration of a conventional video display device described in Patent Document 1.
  • the observer observes the display device 201 via the video separation unit 202 between the observer and the display device 201.
  • the reference pixel P (1,1) is located at the upper left of the display device 201.
  • a pixel row including a plurality of pixels is formed from the reference pixel P in the X-axis (+) direction, and a pixel column including a plurality of pixels is configured from the reference pixel P to the Y-axis ( ⁇ ) direction.
  • the image data displayed on the display device 201 and the configuration of the parallax barrier of the video separation unit 202 are determined by the observer using the posture information of the display device 201 detected by the posture sensor 203 provided in the video display device. It is controlled so that it can be seen.
  • a conventional video display device that includes a display device that displays a plurality of parallax images combined on a single screen and a video separation unit that is fixed to the front surface of the display device
  • the display device can only be displayed in either a vertical or horizontal display state. Stereoscopic viewing cannot be performed normally.
  • the parallax barrier is fixed in the vertical and horizontal directions.
  • There is a video display device that enables stereoscopic viewing in any direction see, for example, Patent Document 2).
  • FIG. 17 and 18 are diagrams showing a pixel arrangement of a conventional video display device described in Patent Document 2.
  • FIG. 17 and 18 are diagrams showing a pixel arrangement of a conventional video display device described in Patent Document 2.
  • FIG. 17 is a diagram showing a pixel arrangement pattern for four viewpoints when the display device is in the first arrangement state in the conventional video display device
  • FIG. 18 is a diagram showing the display device in the conventional video display device.
  • FIG. 6 is a diagram illustrating a pattern of a pixel arrangement for four viewpoints in a second arrangement state in which is rotated 90 degrees clockwise from the first arrangement state. The observer observes the video display device through the opening of the parallax barrier on the front surface of the display device 201. Therefore, as an example, the subpixel arrangement pattern in the display device 201 and the barrier pattern in the parallax barrier are optimized so that only the (B1, R1, G1) pixel group 211 for the first viewpoint can be seen. Yes.
  • the pixel group 212 of (R2, G2, B2) is a pixel for the second viewpoint
  • the pixel group 213 of (R3, G3, B3) is a pixel for the third viewpoint
  • Pixel group 214 is a pixel for the fourth viewpoint.
  • Patent Document 2 a single video display device enables stereoscopic viewing in both vertical display and horizontal display.
  • the conventional video display device does not know from which direction the observer is viewing the video display device. An image that is optimal for the viewer is not always displayed.
  • the present invention has been made to solve the above problem, and an object of the present invention is to provide a display device capable of displaying a composite image according to the position of an observer.
  • a display device includes a display surface that emits video light for displaying a composite image in which a first image and a second image different from the first image are combined.
  • a display unit a separation unit that separates the video light into a first video light representing the first image and a second video light representing the second image, and an observation for observing the composite image
  • a detection unit that detects the position of the person, and an image control unit that controls the orientation of the composite image in accordance with the position of the observer detected by the detection unit.
  • the display unit includes a display surface that emits video light for displaying a composite image in which the first image and the second image different from the first image are combined.
  • the separation unit separates the video light into a first video light that represents the first image and a second video light that represents the second image.
  • the detection unit detects the position of the observer who observes the composite image.
  • the image control unit controls the direction of the composite image according to the position of the observer detected by the detection unit.
  • the orientation of the composite image in which the first image and the second image different from the first image are combined is controlled according to the detected position of the observer.
  • the composite image can be displayed according to the position of the person.
  • FIG. 1 shows schematic structure of the video display apparatus in Embodiment 1 of this invention. It is a block diagram which shows the structure of the video display apparatus in Embodiment 1 of this invention.
  • Embodiment 1 of this invention it is a figure which shows the relationship between an observer and an image display apparatus when an observer observes an image display apparatus in a Y-axis (+) direction.
  • Embodiment 1 of this invention it is a figure which shows the relationship between an observer and an image display apparatus when an observer observes an image display apparatus in a Y-axis (-) direction. It is a figure for demonstrating the observation direction in Embodiment 1 of this invention.
  • FIG. 1 shows schematic structure of the video display apparatus in Embodiment 1 of this invention. It is a block diagram which shows the structure of the video display apparatus in Embodiment 1 of this invention.
  • Embodiment 1 of this invention it is a figure which shows the relationship between an observer and an image display apparatus when an observer observes an image display apparatus
  • FIG. 4 is a diagram illustrating an example of a pixel arrangement pattern for four viewpoints of a display area for performing stereoscopic display on the display unit when the video display device is observed in the Y-axis (+) direction as illustrated in FIG. 3. It is a figure which shows the barrier pattern of the parallax barrier corresponding to the pixel arrangement pattern of FIG. 6 when an observer observes a video display apparatus in a Y-axis (+) direction.
  • FIG. 5 is a diagram illustrating an example of a pixel array pattern for four viewpoints of a display region in which a stereoscopic display is performed on the display unit when the video display device is observed in the Y-axis ( ⁇ ) direction as illustrated in FIG. 4.
  • FIG. 5 is a diagram illustrating an example of a pixel array pattern for four viewpoints of a display region in which a stereoscopic display is performed on the display unit when the video display device is observed in the Y-axis ( ⁇ ) direction as illustrated in FIG. 4.
  • FIG. 9 is a diagram illustrating a barrier pattern of a parallax barrier corresponding to the pixel arrangement pattern of FIG. 8 when the video display device is observed in the Y-axis ( ⁇ ) direction.
  • Embodiment 2 it is a figure for demonstrating a mode that two observers observe the display part of a video display apparatus.
  • FIG. 10 when the first observer observes the video display device in the Y-axis (+) direction and the second observer observes the video display device in the Y-axis ( ⁇ ) direction, It is a figure which shows an example of the pattern of the pixel arrangement
  • FIG. 1 It is a figure which shows the example of a display of a display part when rotating a video display apparatus to the angle of substantially 90 degree
  • FIG. 1 shows schematic structure of the conventional video display apparatus.
  • the conventional video display apparatus it is a figure which shows the pattern of the pixel arrangement
  • In the conventional video display apparatus it is a figure which shows the pattern of the pixel arrangement
  • FIG. 1 is a diagram showing a schematic configuration of a video display apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing the configuration of the video display apparatus according to Embodiment 1 of the present invention.
  • the video display device 10 includes a display unit 13 that displays a composite image obtained by combining a plurality of images, a parallax barrier 11 that is disposed facing the display surface of the display unit 13, and an observation unit. And a detection unit 12 that detects the position of the person's eyes.
  • the display unit 13 spatially divides a plurality of parallax images corresponding to the number of stereoscopic viewpoints in a display area where stereoscopic viewing is performed, and synthesizes and displays them in one screen.
  • the reference subpixel is located at the upper left of the display surface of the display unit 13.
  • a pixel row composed of a plurality of subpixels is formed in the X-axis (+) direction from the reference subpixel, and a pixel column composed of a plurality of subpixels is formed in the Y-axis ( ⁇ ) direction from the reference subpixel.
  • the display unit 13 displays an image of one viewpoint in a display area where stereoscopic viewing is not performed.
  • the parallax barrier 11 has a barrier pattern including a slit portion 41 that transmits image light from the display unit 13 and a shielding portion 42 that blocks image light.
  • the parallax barrier 11 optically separates the composite image displayed on the display unit 13 by a barrier pattern so as to enable stereoscopic viewing.
  • the detection unit 12 acquires an observer's image by a CCD (Charge Coupled Device) or the like, and detects the position of the head or the left and right eyes by face detection or the like.
  • CCD Charge Coupled Device
  • the video display device 10 includes a parallax barrier 11, a detection unit 12, a display unit 13, an image signal processing unit 14, and a control unit 15.
  • the display unit 13 has a display surface in which sub-pixels of a plurality of colors are two-dimensionally arranged.
  • the display unit 13 includes, for example, a plasma display, a liquid crystal display, or an organic EL (Electro Luminescence) display.
  • the display unit 13 displays a composite image in which a plurality of subpixels of a plurality of colors are arranged in a predetermined pattern, and a plurality of different images are combined depending on the viewpoint of the observer.
  • the composite image includes a plurality of parallax images for stereoscopic viewing taken from different viewpoints as well as images taken from the same viewpoint.
  • the display unit 13 includes a display surface that emits video light for displaying a composite image in which the first image and a second image different from the first image are combined.
  • the first image is a left image observed with the left eye
  • the second image is a right image observed with the right eye.
  • the parallax barrier 11 separates the composite image displayed by the display unit 13 according to the viewpoint of the observer.
  • the parallax barrier 11 separates the composite image so that parallax images of different viewpoints can be seen by the left and right eyes of the observer, and the observer can observe the stereoscopic video.
  • the parallax barrier 11 includes a slit portion that transmits video light from the display unit 13 and a shielding unit that shields video light.
  • the parallax barrier 11 is made of, for example, liquid crystal or resin.
  • the parallax barrier 11 separates the video light into a first video light that represents the first image and a second video light that represents the second image.
  • the parallax barrier 11 separates the video light so that the left video light representing the left image is incident on the left eye and the right video light representing the right image is incident on the right eye.
  • the detection unit 12 detects the position of the observer.
  • the detection unit 12 detects the positions of both eyes of the observer.
  • the detection unit 12 is configured by, for example, a CCD.
  • the detection unit 12 captures a 360-degree space around the video display device 10 and detects the position of the observer's eyes from the captured video.
  • the detection unit 12 may detect the position of the observer's head.
  • the detection part 12 is arrange
  • the control unit 15 controls the direction of the composite image according to the position of the observer detected by the detection unit 12.
  • the control unit 15 controls the display position of the composite image based on the position of the observer's head or eye detected by the detection unit 12 so that the lower part of the composite image faces the direction in which the observer exists.
  • the control unit 15 uses the information obtained from the detection unit 12 to determine a display area for performing a stereoscopic view existing on the display unit and a viewpoint assigned to each subpixel.
  • the composite image includes a first image area and a second image area displayed between the first image area and the observer when the observer is present at the first position.
  • the control unit 15 determines whether the first image region and the observer present at the second position are The direction of the composite image is controlled so that the second image area is displayed between them.
  • the image signal processing unit 14 controls the display unit 13.
  • the image signal processing unit 14 includes a plurality of parallax image data to be displayed in a display area for stereoscopic viewing on the display unit determined by the control unit 15 and two-dimensional image data to be displayed in a display area for which stereoscopic viewing is not performed. Composite as a single image.
  • the video display device 10 corresponds to an example of a display device
  • the display unit 13 corresponds to an example of a display unit
  • the parallax barrier 11 corresponds to an example of a separation unit
  • the detection unit 12 Corresponds to an example of a detection unit
  • the control unit 15 corresponds to an example of an image control unit and a barrier pattern control unit.
  • FIG. 3 is a diagram illustrating a relationship between the observer and the video display device 10 when the viewer observes the video display device 10 in the Y-axis (+) direction in the first embodiment of the present invention.
  • These are diagrams showing the relationship between an observer and the video display device 10 when the viewer observes the video display device 10 in the Y-axis ( ⁇ ) direction in the first embodiment of the present invention.
  • “when the observer observes the video display device 10 in the Y-axis (+) direction (Y-axis ( ⁇ ) direction)” means that “the Y-axis (+) direction (Y-axis ( In other words, the observation is made with the-) direction) facing up.
  • the video display device 10 when the observer observes the video display device 10 in the Y-axis (+) direction (Y-axis ( ⁇ ) direction), the viewer is in the vicinity of the front of the screen with the video display device 10 standing vertically. Including the case of seeing from. Further, when the observer observes the video display device 10 in the Y-axis (+) direction (Y-axis ( ⁇ ) direction), the video display device 10 is horizontally arranged, for example, the video display device 10 is laid down on a table. In this state, the observer is looking down at the screen from diagonally above.
  • the video display device 10 when the observer observes the video display device 10 in the Y-axis (+) direction (Y-axis ( ⁇ ) direction), the video display device 10 is vertical, for example, the video display device 10 is held in the observer's hand. Or the case where the observer is looking at the screen in a state other than horizontal is included.
  • FIG. 5 is a diagram for explaining the observation direction in the first embodiment of the present invention.
  • the detection unit 12 detects the position of the observer's eyes.
  • the control unit 15 specifies and specifies the observation direction 32 in which the direction 31 toward the display surface 16 of the display unit 13 from the position of both eyes of the observer detected by the detection unit 12 is projected on the plane including the display surface 16.
  • the display position of the composite image is controlled according to the angle between the observation direction 32 and the predetermined reference direction 33.
  • the controller 15 When the observer views the video display device 10, if the position of the body and the position of both eyes are located across the center 38 of the display surface 16 of the display unit 13, the controller 15 The orientation and display position of the composite image are controlled in light of the body position information.
  • control unit 15 determines from the intersection point 37 between the perpendicular point 36 to the plane including the display surface 16 of the display unit 13 from the midpoint 35 of the straight line 34 connecting both eyes of the observer detected by the detection unit 12.
  • the display position of the composite image is controlled according to the angle between the observation direction 32 toward the center 38 of the display surface 16 and the reference direction 33 on the display surface 16 of the display unit 13.
  • the display surface 16 has a quadrangular shape.
  • the reference direction 33 is a direction perpendicular to one reference side 17 among the plurality of sides of the display surface 16 and is the Y-axis (+) direction.
  • the control unit 15 When the angle between the observation direction 32 and the reference direction 33 is 0 degree, the control unit 15 matches the lower side of the composite image with the reference side 17. In addition, when the angle between the observation direction 32 and the reference direction 33 is a predetermined angle, the control unit 15 rotates the lower side of the composite image from the reference side 17 by a predetermined angle. That is, when the angle between the observation direction 32 and the reference direction 33 is 90 degrees, the control unit 15 rotates the lower side of the composite image by 90 degrees from the reference side 17. In addition, when the angle between the observation direction 32 and the reference direction 33 is 180 degrees, the control unit 15 rotates the lower side of the composite image from the reference side 17 by 180 degrees. In addition, when the angle between the observation direction 32 and the reference direction 33 is 270 degrees, the control unit 15 rotates the lower side of the composite image from the reference side 17 by 270 degrees.
  • the angle between the observation direction 32 and the reference direction 33 is 0 degree.
  • the angle between the observation direction 32 and the reference direction 33 is 180 degrees.
  • the angle between the observation direction 32 and the reference direction 33 is 90 degrees.
  • the angle between the observation direction 32 and the reference direction 33 is 270 degrees.
  • the detection unit 12 not only detects the position of the eye of the observer, but also whether the observer is observing the video display device 10 in the Y-axis (+) direction or the video display device 10 in the Y-axis ( ⁇ ) direction.
  • the observation direction such as whether or not the user is observing, is also specified.
  • the observation direction can be determined, for example, by detecting the nose or mouth together with the eyes and the positional relationship between the eyes and the nose or the positional relationship between the eyes and the mouth. Therefore, the detection unit 12 determines whether the observation direction is the X-axis (+) direction as well as whether the observation direction is the Y-axis (+) direction and whether the observation direction is the X-axis (+) direction. It is also possible to specify whether the direction is the X-axis ( ⁇ ) direction and how many times the observation direction is inclined with respect to the Y-axis (+) direction.
  • stereoscopic display for an observer is performed in the display area 22 in the display surface of the display unit 13.
  • the control unit 15 can correctly view the observer stereoscopically using the position information of the eye obtained from the detection unit 12 and information on the slit position of the parallax barrier 11 between the observer and the display unit 13. In this way, a plurality of parallax images are spatially divided and combined and displayed in the display area.
  • the orientation of the composite image displayed in the display area 22 for performing the stereoscopic display on the display unit 13 is controlled using the position information of the observer's eyes obtained by the detection unit 12. Note that the display area 22 for performing stereoscopic display within the display surface of the display unit 13 may not be the entire screen.
  • the display area 22 may be only in a window at a predetermined position in the screen.
  • the control unit 15 rearranges the plurality of parallax images so as to be stereoscopically viewed when viewed toward the Y axis (+) as shown in FIG. 3 using the window start position and the window size.
  • FIG. 6 shows an example of a pixel arrangement pattern for four viewpoints of the display area 22 for performing stereoscopic display on the display unit 13 when the video display device 10 is observed in the Y-axis (+) direction as shown in FIG. FIG.
  • subpixels 3R, 3G, and 3B of three colors of R (red), G (green), and B (blue) are two-dimensionally arranged in a predetermined pattern.
  • the display unit 13 displays N parallax images spatially divided into N in one screen.
  • the display unit 13 displays four parallax images spatially divided into four in one screen.
  • the subpixel group of (R1, G1, B1) is a pixel for the first viewpoint. Further, the subpixel group of (R2, G2, B2) is a pixel for the second viewpoint, the subpixel group of (R3, G3, B3) is a pixel for the third viewpoint, and (R4, G4, B4) ) Is a pixel for the fourth viewpoint.
  • the pattern of the pixel arrangement for the four viewpoints of the display area 22 for performing the three-dimensional display includes the eye position information obtained from the detection unit 12 and the slit of the parallax barrier 11 between the observer and the display unit 13. It depends on the location information.
  • the viewpoint number of the upper left pixel changes.
  • the arrangement of the first viewpoint pixel, the second viewpoint pixel, the third viewpoint pixel, and the fourth viewpoint pixel from the left does not change.
  • the fact that the pixels of the same viewpoint are lined up diagonally downward to the left does not change.
  • the control unit 15 may determine an appropriate pixel arrangement pattern when the detection unit 12 detects that the observation direction of the observer has changed.
  • control unit 15 performs real-time when a change in the relative positional relationship between the observer and the video display device 10 such as horizontal movement or vertical movement of the observer's viewpoint with respect to the display surface is detected by the detection unit 12.
  • the pattern of the pixel array may be changed.
  • the observer When the video display device 10 is installed horizontally, the observer may move not only in the horizontal direction (left-right direction) but also in the vertical direction (up-down direction) with respect to the display surface.
  • the observer holds the video display device 10 and observes the display surface, the observer does not observe the display surface from the vertical direction because the observer observes the display surface. Therefore, conventionally, there is no need to control the display unit or the separation unit corresponding to the vertical movement of the observer.
  • the video display device 10 when the video display device 10 is installed horizontally, it is necessary to control the display unit or the separation unit corresponding to the vertical movement of the observer.
  • an appropriate viewing region (a region that can be appropriately stereoscopically viewed) of the parallax barrier is formed obliquely with the observer facing the display surface. ing. For this reason, there is a problem that the viewpoint that has been observed changes as a result of the observer moving in the vertical direction (perpendicular to the display surface). For this reason, the observer approaches or moves away from the image display device 10 placed horizontally with the observer's gaze position maintained at the center of the screen (in the case of FIGS. 3 and 4, the observer moves up and down). The viewpoint image that can be seen by the left and right eyes of the observer changes, and eventually becomes a state of reverse viewing. For example, when a four-view parallax barrier is used, the appropriate viewing range in the vertical direction at the center of the screen is about ⁇ 30 cm.
  • control unit 15 displays the composite image display position according to the angle between the display surface 16 and the direction 31 from the observer's binocular position detected by the detection unit 12 toward the display surface 16 of the display unit 13. May be controlled. At this time, the control unit 15 may control the display position of the composite image according to the angle between the direction 31 and the display surface 16 and the information regarding the barrier pattern of the parallax barrier 11.
  • the detection unit 12 detects the positions of both eyes of the observer.
  • the control unit 15 specifies the direction 31 from the observer's binocular position detected by the detection unit 12 toward the display surface 13, the position information of the observer's binocular in the specified direction 31, and the parallax barrier 11.
  • the display position of the composite image may be controlled according to the position information.
  • the pixel arrangement pattern of the composite image can be changed according to not only the change in the horizontal position of the observer but also the change in the vertical position of the observer.
  • FIG. 7 is a diagram showing a barrier pattern of a parallax barrier corresponding to the pixel arrangement pattern of FIG. 6 when the observer observes the video display device in the Y-axis (+) direction.
  • the parallax barrier 11 includes a slit portion 41 that transmits video light from the display unit 13 and a shielding unit 42 that shields video light.
  • a barrier pattern is formed from the slit portion 41 and the shielding portion 42.
  • FIG. 7 shows a barrier pattern corresponding to a pixel array pattern for four viewpoints of the display area 22 that performs stereoscopic display on the display unit 13, and a parallax barrier from one eye of the observer (for example, the right eye).
  • 11 shows a state in which only the (R2, G2, B2) subpixel group for the second viewpoint is visible through the eleven slit portions 41.
  • the observer's observation position moves in the horizontal direction (X-axis direction)
  • a position where only the (R1, G1, B1) subpixel group for the first viewpoint can be seen through the slit portion 41
  • the third viewpoint There are positions where only the (R3, G3, B3) pixel group can be seen and only the (R4, G4, B4) subpixel group for the fourth viewpoint can be seen.
  • the barrier pattern is formed so that only a sub-pixel group for a specific viewpoint can be seen depending on the viewing direction.
  • FIG. 8 shows an example of a pixel arrangement pattern for four viewpoints of the display area 23 for performing stereoscopic display on the display unit 13 when the video display device 10 is observed in the Y-axis ( ⁇ ) direction as shown in FIG. FIG.
  • the display unit 13 displays four parallax images spatially divided into four in one screen.
  • the subpixel group (B1, G1, R1) is a pixel for the first viewpoint.
  • the subpixel group of (B2, G2, R2) is a pixel for the second viewpoint
  • the subpixel group of (B3, G3, R3) is a pixel for the third viewpoint
  • (B4, G4, R4) ) Is a pixel for the fourth viewpoint.
  • the pattern of the pixel arrangement for the four viewpoints of the display area 23 for performing the stereoscopic display includes the eye position information obtained from the detection unit 12 and the slit of the parallax barrier 11 between the observer and the display unit 13. It depends on the location information. In FIG. 8, the viewpoint number of the upper left pixel changes. However, the arrangement of the first viewpoint pixel, the second viewpoint pixel, the third viewpoint pixel, and the fourth viewpoint pixel from the left does not change. Also, the fact that the pixels of the same viewpoint are lined up diagonally downward to the left does not change.
  • the control unit 15 may determine an appropriate pixel arrangement pattern when the detection unit 12 detects that the observation direction of the observer has changed. The control unit 15 may change the pattern of the pixel arrangement in real time when a change in the relative positional relationship between the observer and the video display device 10 such as horizontal movement is detected by the detection unit 12.
  • FIG. 9 is a diagram showing a barrier pattern of the parallax barrier 11 corresponding to the pixel arrangement pattern of FIG. 8 when the video display device 10 is observed in the Y-axis ( ⁇ ) direction.
  • FIG. 9 shows a barrier pattern corresponding to a pixel array pattern for four viewpoints in the display area 23 that performs stereoscopic display on the display unit 13, and a parallax barrier from one eye (for example, the right eye) of the observer.
  • 11 shows a state in which only the (B2, G2, R2) sub-pixel group for the second viewpoint is visible through the eleven slit portions 41.
  • the barrier pattern is formed so that only a sub-pixel group for a specific viewpoint can be seen depending on the viewing direction.
  • FIG. 10 is a diagram for explaining a situation where two observers observe the display unit 13 of the video display device 10 in the second embodiment.
  • the position at which the angle between the observation direction of the first observer 51 and the reference direction (Y-axis (+) direction) of the video display device 10 is 0 degree, and the observation direction of the second observer 52.
  • times is shown.
  • the video display device in the second embodiment has the same configuration as the video display device 10 in FIGS. 1 and 2 of the first embodiment, and thus detailed description is omitted, and only the configuration different from the first embodiment is described. explain.
  • the detection unit 12 detects the positions of a plurality of observers.
  • the detection unit 12 detects the positions of the heads or eyes of a plurality of observers.
  • the control unit 15 divides the display surface of the display unit 13 into a plurality of display areas according to the number of the plurality of observers, and a plurality of display areas according to the positions of the plurality of observers detected by the detection unit 12. The direction of the composite image is controlled in each of the above.
  • the detection unit 12 detects the positions of the heads or eyes of the first observer 51 and the second observer 52.
  • the control unit 15 divides the display surface of the display unit 13 into a first display region 61 and a second display region 62, and the first viewer 51 and the second viewer 52 detected by the detection unit 12.
  • the orientation of the composite image is controlled in each of the first display area 61 and the second display area 62 according to the position of the head or eyes.
  • the control unit 15 includes the position information of the eyes of the first observer 51 obtained from the detection unit 12 and the position of the slit part 41 of the parallax barrier 11 between the first observer 51 and the display unit 13. Are used, and a plurality of parallax images are spatially divided and combined and displayed in the first display area 61 so that the first observer 51 can correctly view stereoscopically.
  • control unit 15 includes the position information of the eyes of the second observer 52 obtained from the detection unit 12 and the slit part 41 of the parallax barrier 11 between the second observer 52 and the display unit 13. Using the information regarding the position of the image, a plurality of parallax images are spatially divided and combined and displayed in the second display area 62 so that the second observer 52 can correctly stereoscopically view. The orientation of the composite image displayed in the first display area 61 of the display unit 13 on which the first observer 51 performs stereoscopic viewing, and the second display area of the display unit 13 on which the second observer 52 performs stereoscopic viewing. The direction of the composite image displayed on 62 is controlled using the position information of the eyes of each observer obtained by the detection unit 12.
  • the first observer 51 observes the video display device 10 in the Y-axis (+) direction
  • the second observer 52 views the video display device 10 in the Y-axis ( ⁇ )
  • It is a figure which shows an example of the pattern of the pixel arrangement
  • the basic configuration of the first display area 61 for the first observer 51 observing in the Y-axis (+) direction is the same as the configuration example of FIG. 6, and in the Y-axis ( ⁇ ) direction.
  • the basic configuration of the second display area 62 for the second observer 52 who is observing is the same as the configuration example of FIG.
  • the pattern of the pixel arrangement for the four viewpoints in the first display area 61 for performing the stereoscopic display is the position information of the eyes of the first observer 51 obtained from the detection unit 12, the first observer 51, It changes depending on the slit position information of the parallax barrier 11 between the display units 13.
  • the pattern of the pixel arrangement for the four viewpoints in the second display area 62 for performing the stereoscopic display includes the position information of the eyes of the second observer 52 obtained from the detection unit 12, the second observer 52, It changes depending on the slit position information of the parallax barrier 11 between the display units 13.
  • the viewpoint number of the upper left pixel of the image corresponding to each observer changes.
  • the control unit 15 may determine an appropriate pixel arrangement pattern when the detection unit 12 detects that the observation direction of each observer has changed.
  • the control unit 15 may change the pattern of the pixel arrangement in real time when a change in the relative positional relationship between each observer and the video display device 10 such as horizontal movement is detected by the detection unit 12. .
  • FIG. 12 shows the pixel in FIG. 11 when the first observer observes the video display device in the Y-axis (+) direction and the second observer observes the video display device in the Y-axis ( ⁇ ) direction. It is a figure which shows the barrier pattern of the parallax barrier corresponding to an arrangement pattern.
  • FIG. 12 shows barrier patterns corresponding to the four-viewpoint pixel array pattern of the first display area 61 and the second display area 62 that perform stereoscopic display on the display unit 13. Only the (R2, G2, B2) sub-pixel groups for the second viewpoint from one eye (for example, the right eye) of the viewer 51 and / or the second viewer 52 through the slit portion 41 of the parallax barrier 11 Shows the state where is visible.
  • the barrier pattern is formed so that only a sub-pixel group for a specific viewpoint can be seen depending on the viewing direction.
  • the first observer 51 and the second observer 52 observe the video display device 10 from a position facing each other.
  • the first observer 51 and the second observer 52 may observe the video display device 10 from a position where the angle formed by the observation directions of each other is a predetermined angle.
  • the first observer 51 and the second observer 52 may observe the video display device 10 from a position where the angle formed by the observation directions of each other is 90 degrees. That is, the first observer 51 may observe the video display device 10 in the Y-axis (+) direction, and the second observer 52 may observe the video display device 10 in the X-axis ( ⁇ ) direction.
  • control unit 15 when the angle between the observation direction of the first observer 51 and the reference direction is 0 degree, the control unit 15 matches the lower side of the composite image with the reference side. In addition, when the angle between the observation direction of the second observer 52 and the reference direction is 90 degrees, the control unit 15 rotates the lower side of the composite image by 90 degrees from the reference side. Further, the control unit 15 may change the position of the slit portion 41 of the parallax barrier 11 according to the respective composite images of the first display area 61 and the second display area 62.
  • the first display area 61 and the second display area 62 display different composite images, but the present invention is not particularly limited to this, and the first display area 61 and The same composite image may be displayed in the second display area 62.
  • FIG. 13 is a diagram illustrating a display example of the display unit when the video display device illustrated in FIG. 3 is rotated 90 degrees clockwise in a plane parallel to the display surface.
  • the display area 71 in the display surface of the display unit 13 is displayed in the display area 71 in the same manner as in FIG. Therefore, a stereoscopic display is performed.
  • the control unit 15 uses the position information of the eye obtained from the detection unit 12 and the position information of the slit part 41 of the parallax barrier 11 between the observer and the display unit 13 so that the observer can correctly
  • a plurality of parallax images are spatially divided so that they can be seen and synthesized and displayed in the display area.
  • the direction of the composite image displayed in the display area 71 that performs stereoscopic display on the display unit 13 is determined by using the angle between the observation direction obtained from the observer's eye position information obtained by the detection unit 12 and the reference direction of the display unit.
  • the composite image in the display area 71 that performs stereoscopic display is controlled so as to face the viewer.
  • the display unit 13 has parallax as shown in FIG.
  • a single viewpoint image may be displayed at a position facing the viewer on the display area 72 that performs stereoscopic display.
  • FIG. 14 is a diagram showing a display example of the display unit when the video display device is rotated clockwise at an angle other than 90 degrees, 180 degrees, and 270 degrees within a plane parallel to the display surface.
  • the control unit 15 displays only one of the first image and the second image. To display. That is, the control unit 15 causes the display unit 13 to display only one image when the angle between the observation direction and the reference direction is an angle other than 0 degrees, 90 degrees, 180 degrees, and 270 degrees. Thereby, in the display area 72 of the display unit 13, an image is displayed in a two-dimensional manner instead of being displayed in a three-dimensional manner. In FIG. 14, the angle between the observation direction and the reference direction is 45 degrees.
  • control unit 15 may control whether or not the barrier pattern is formed on the entire surface of the parallax barrier 11.
  • the control unit 15 displays the barrier pattern without forming the barrier pattern on the entire surface of the parallax barrier 11. All the image light from the unit 13 may be transmitted.
  • the control unit 15 has a plurality of different viewpoints. These images may be switched to an image with the same viewpoint, and only one viewpoint image may be displayed.
  • the image of the display area for performing stereoscopic display is a plurality of parallax images. It is good also as one synthetic
  • FIG. 15 is a diagram showing a display example of the display unit when the video display device is rotated clockwise at angles of substantially 90 degrees, 180 degrees, and 270 degrees in a plane parallel to the display surface.
  • the controller 15 includes a first range in which the angle between the observation direction and the reference direction is 0 ° ⁇ 20 °, a second range of 90 ° ⁇ 20 °, a third range of 180 ° ⁇ 20 °, and 270 ° ⁇ .
  • the composite image is displayed on the display unit 13 and the angle between the observation direction and the reference direction is the first range, the second range, the third range, and the fourth range.
  • the angle between the observation direction and the reference direction is the first range, the second range, the third range, and the fourth range.
  • only one of the first image and the second image may be displayed on the display unit 13.
  • the display unit In the 13 display areas 73 an image is displayed in three dimensions.
  • the angle between the observation direction and the reference direction is in the range of 0 ° ⁇ 20 °, 90 ° ⁇ 20 °, 180 ° ⁇ 20 °, and 270 ° ⁇ 20 °, the stereoscopic view is obtained. Therefore, it is not always necessary to perform stereoscopic display only when the angle between the observation direction and the reference direction is 0 degrees, 90 degrees, 180 degrees, and 270 degrees.
  • control unit 15 determines that the angle between the observation direction and the reference direction is in a range other than 0 ° ⁇ 20 °, 90 ° ⁇ 20 °, 180 ° ⁇ 20 °, and 270 ° ⁇ 20 °. In this case, only one image may be displayed on the display unit 13. At this time, the control unit 15 may control whether or not the barrier pattern is formed on the entire surface of the parallax barrier 11.
  • control unit 15 may optimize the inclination of the barrier pattern of the parallax barrier 11 in accordance with the inclination of the sub-pixel when the angle between the observation direction and the reference direction changes. That is, the control unit 15 changes the barrier pattern in accordance with the direction of the composite image that changes according to the change in the angle between the observation direction and the reference direction.
  • control unit 15 stores in advance table data associated with the angle between the observation direction and the reference direction and the barrier pattern of the parallax barrier 11 corresponding to the angle. And the control part 15 specifies an observation direction based on the position of the observer's both eyes detected by the detection part 12, and reads the barrier pattern according to the angle of the specified observation direction and a reference direction from table data. . The control unit 15 changes the barrier pattern of the parallax barrier 11 according to the read barrier pattern. Thereby, regardless of the angle between the observation direction and the reference direction, stereoscopic display can always be performed in the display area.
  • the parallax barrier has been described as an example of the separation unit.
  • the present invention is not particularly limited thereto, and a lenticular lens, a liquid crystal lens, a prism, or the like may be used as the separation unit.
  • the parallax barrier which is an example of the separation unit, is disposed on the front surface of the display unit by forming only one barrier pattern.
  • the parallax barrier may be composed of a plurality of liquid crystals or a plurality of liquid crystal lenses, and the control unit 15 may control whether or not the light passes through each of the liquid crystals or the corner liquid crystal lenses.
  • the parallax barrier which is an example of the separation unit, is fixedly disposed on the front surface of the display unit, but the present invention is not particularly limited thereto, and the parallax barrier is You may move it back and forth mechanically.
  • a thin film film or a fixed barrier made of a highly transparent substance may be used, and by applying a voltage or the like.
  • a device for example, a TFT (Thin Film Transistor) liquid crystal panel) capable of changing the shielding and the opening (changing the light transmittance) may be used.
  • the method in which the parallax barrier (separating unit) 11 is disposed on the front surface of the display unit (display unit) 13 has been described as an example. You may use the system which arrange
  • the position of the display area for performing the stereoscopic display shown in the first to third embodiments is the upper left coordinates of the display area with respect to the upper left end point (sub pixel) of the display unit 13 and the vertical and horizontal lengths of the display area. It is determined by using. As a reference for determining the position of the display area, the upper right subpixel, the lower left subpixel, the lower right subpixel, or the center subpixel of the display unit 13 may be used.
  • control unit 15 controls the composite image displayed on the display unit 13 using the information obtained from the detection unit 12 and the slit position information of the parallax barrier 11.
  • control unit 15 may control the slit position of the parallax barrier 11 using the information obtained from the detection unit 12 and the composite image displayed on the display unit 13.
  • the slit portion 41 is formed from the upper right to the lower left diagonal direction, but the slit portion 41 is from the upper left to the lower right diagonal direction. Further, the slit portion 41 may be formed in the vertical direction from top to bottom.
  • the barrier pattern of the parallax barrier 11 in the first to third embodiments is a step-type barrier pattern in which the slit portions 41 are formed in a staircase shape, but the slant in which the slit portions 41 are formed in an oblique stripe shape. It may be a barrier pattern of a mold, or a barrier pattern other than a step mold.
  • the width of the slit portion 41 of the parallax barrier 11 is equal to the width of the subpixel, but the width of the slit portion 41 of the parallax barrier 11 is not equal to the width of the subpixel. May be.
  • the plurality of parallax images differ for each sub-pixel, but the plurality of parallax images may not differ for each sub-pixel. It may be different for every pixel, every 3 subpixels or every 4 subpixels.
  • the four-viewpoint pixel array pattern and the four-viewpoint barrier pattern are used, but other multiple-viewpoint pixel array patterns such as two-viewpoint, three-viewpoint, and five-viewpoint It may be a barrier pattern.
  • each of the plurality of observers is described as observing the same viewpoint, but each of the plurality of observers may observe a different viewpoint.
  • the number of viewpoints observed by a plurality of observers is the same, but the number of viewpoints observed by a plurality of observers may not be the same.
  • the first display area 61 stereoscopically viewed by the first observer 51 and the second display area 62 stereoscopically viewed by the second observer 52 are defined. Although they are adjacent to each other, the display areas that are viewed stereoscopically by each observer are not necessarily adjacent to each other, and each display area may be at any position on the display surface of the display unit 13.
  • two observers have a position where the angle between the observation direction and the reference direction is 0 degrees, and the angle between the observation direction and the reference direction is 180 degrees.
  • the observation is performed from the direction opposite to the position that is a degree, the angle formed between each observation direction of the plurality of observers and the reference direction may be any number.
  • the detection unit 12 detects the position of the viewer's face using the CCD.
  • the position of the viewer may be detected using a wireless technology such as Bluetooth. .
  • a display device includes a display surface that emits video light for displaying a composite image in which a first image and a second image different from the first image are combined.
  • a display unit a separation unit that separates the video light into a first video light representing the first image and a second video light representing the second image, and an observation for observing the composite image
  • a detection unit that detects the position of the person, and an image control unit that controls the orientation of the composite image in accordance with the position of the observer detected by the detection unit.
  • the display unit includes a display surface that emits video light for displaying a composite image in which the first image and the second image different from the first image are combined.
  • the separation unit separates the video light into a first video light that represents the first image and a second video light that represents the second image.
  • the detection unit detects the position of the observer who observes the composite image.
  • the image control unit controls the direction of the composite image according to the position of the observer detected by the detection unit.
  • the orientation of the composite image in which the first image and the second image different from the first image are combined is controlled according to the detected position of the observer.
  • a composite image can be displayed accordingly.
  • the composite image is displayed between the first image region and the first image region and the viewer when the viewer is present at the first position.
  • a second image region and the image control unit detects the first image when the detection unit detects that the observer is present at a second position different from the first position. It is preferable to control the direction of the composite image so that the second image region is displayed between the region and the observer present at the second position.
  • the composite image includes the first image area and the second image area displayed between the first image area and the observer when the observer exists at the first position. including.
  • the image control unit determines whether the image control unit is between the first image region and the observer present at the second position. The orientation of the composite image is controlled so that the second image area is displayed on the screen.
  • the observer can observe the composite image from the correct direction.
  • the first image is a left image observed with a left eye
  • the second image is a right image observed with a right eye
  • the separation unit includes the The video light is preferably separated so that left video light representing a left image is incident on the left eye and right video light representing the right image is incident on the right eye.
  • the first image is a left image observed with the left eye
  • the second image is a right image observed with the right eye.
  • the separation unit separates the video light so that the left video light representing the left image is incident on the left eye and the right video light representing the right image is incident on the right eye. Therefore, the observer can observe a stereoscopic image.
  • the detection unit detects the positions of a plurality of observers, and the image control unit divides the display surface into a plurality of display areas according to the number of the plurality of observers.
  • the orientation of the composite image is controlled in each of the plurality of display areas in accordance with the positions of the plurality of observers detected by the detection unit.
  • the detection unit detects the positions of a plurality of observers.
  • the image control unit divides the display surface into a plurality of display areas according to the number of the plurality of observers, and combines the images in each of the plurality of display areas according to the positions of the plurality of observers detected by the detection unit. Control the direction of the.
  • the detection unit detects a position of both eyes of the observer
  • the image control unit detects the display surface from the position of the eyes of the observer detected by the detection unit. It is preferable to specify an observation direction obtained by projecting a direction toward to a plane including the display surface, and to control the display position of the composite image according to an angle between the specified observation direction and a predetermined reference direction.
  • the detection unit detects the position of the observer's eyes.
  • the image control unit specifies an observation direction obtained by projecting a direction from the observer's both eyes position detected by the detection unit toward the display surface onto a plane including the display surface, the specified observation direction, a predetermined reference direction, The display position of the composite image is controlled according to the angle.
  • the display position of the composite image is controlled according to the angle between the observation direction obtained by projecting the direction from the position of both eyes of the observer toward the display surface onto the plane including the display surface and the predetermined reference direction, A composite image corresponding to the orientation of the observer with respect to the display surface of the display unit can be appropriately displayed.
  • the separation unit includes a barrier pattern including a slit unit that transmits the image light from the display unit and a shielding unit that blocks the image light, and the observation direction and the It is preferable to further include a barrier pattern control unit that changes the barrier pattern corresponding to the direction of the composite image that changes in accordance with a change in angle with the reference direction.
  • the separation unit has a barrier pattern including a slit unit that transmits image light from the display unit and a shielding unit that blocks image light.
  • the barrier pattern control unit changes the barrier pattern in accordance with the direction of the composite image that changes according to the change in the angle between the observation direction and the reference direction.
  • the barrier pattern changes corresponding to the direction of the composite image that changes according to the change in the angle between the observation direction and the reference direction, even if the observer changes the observation direction, Stereoscopic viewing is possible.
  • the reference direction is a direction perpendicular to one reference side of the plurality of sides of the display surface
  • the image control unit is configured to determine an angle between the observation direction and the reference direction. Is 0 degrees, the lower side of the composite image is matched with the reference side, and when the angle between the observation direction and the reference direction is a predetermined angle, the lower side of the composite image is moved from the reference side to the predetermined side. It is preferable to rotate the angle.
  • the reference direction is a direction perpendicular to one of the plurality of sides of the display surface.
  • the image control unit matches the lower side of the composite image with the reference side, and when the angle between the observation direction and the reference direction is a predetermined angle, The lower side is rotated by a predetermined angle from the reference side.
  • the lower side of the composite image matches the reference side, and when the angle between the observation direction and the reference direction is a predetermined angle, the lower side of the composite image is the reference side.
  • the composite image can be displayed so as to rotate by a predetermined angle from the side, and the composite image according to the orientation of the observer with respect to the display surface of the display unit can be appropriately displayed.
  • the predetermined angle is preferably 90 degrees, 180 degrees, or 270 degrees.
  • the image control unit matches the lower side of the composite image with the reference side, and the angle between the observation direction and the reference direction is 90 degrees.
  • the lower side of the composite image is rotated 90 degrees from the reference side and the angle between the observation direction and the reference direction is 180 degrees
  • the lower side of the composite image is rotated 180 degrees from the reference side
  • the angle is 270 degrees
  • the lower side of the composite image is rotated 270 degrees from the reference side.
  • the angle between the observation direction and the reference direction is 0 degree, 90 degrees, 180 degrees, and 270 degrees, it is possible to appropriately display a composite image corresponding to the orientation of the observer with respect to the display surface of the display unit.
  • the image control unit when the angle between the observation direction and the reference direction is an angle other than 0 degrees, 90 degrees, 180 degrees, and 270 degrees, It is preferable to display only one of the second images on the display unit.
  • the image control unit can select either the first image or the second image. Only one is displayed on the display unit. Therefore, when the angle between the observation direction and the reference direction is an angle other than 0 degrees, 90 degrees, 180 degrees, and 270 degrees, it is possible to display a two-dimensional image instead of displaying the image three-dimensionally. it can.
  • the separation unit includes a barrier pattern including a slit unit that transmits the image light from the display unit and a shielding unit that blocks the image light, and the observation direction and the
  • a barrier pattern control unit that transmits all of the image light without forming the barrier pattern on the entire surface of the separation unit It is preferable to further comprise.
  • the separation unit has a barrier pattern including a slit unit that transmits image light from the display unit and a shielding unit that blocks image light.
  • the barrier pattern control unit does not form the barrier pattern on the entire surface of the separation unit, Make it transparent.
  • the reference direction is a direction perpendicular to one reference side of the plurality of sides of the display surface
  • the image control unit is configured to determine an angle between the observation direction and the reference direction.
  • the angle between the observation direction and the reference direction is outside the first range, the second range, the third range, and the fourth range
  • the reference direction is a direction perpendicular to one of the plurality of sides of the display surface.
  • the image control unit includes a first range in which the angle between the observation direction and the reference direction is 0 ° ⁇ 20 °, a second range of 90 ° ⁇ 20 °, a third range of 180 ° ⁇ 20 °, and 270 ° ⁇ .
  • the fourth range of 20 degrees the composite image is displayed on the display unit, and the angle between the observation direction and the reference direction is outside the first range, the second range, the third range, and the fourth range. In such a case, only one of the first image and the second image is displayed on the display unit.
  • the observer can perform stereoscopic viewing as long as the deviation amount is within a predetermined range.
  • the detection unit detects a position of both eyes of the observer
  • the image control unit detects the display surface from the position of the eyes of the observer detected by the detection unit. It is preferable to specify a direction toward the image and control the display position of the composite image according to the position information of the eyes of the observer in the specified direction and the position information of the separation unit.
  • the detection unit detects the position of the observer's eyes.
  • the image control unit identifies a direction from the observer's binocular position detected by the detection unit toward the display surface, and depends on the position information of the observer's eyes in the identified direction and the position information of the separation unit Then, the display position of the composite image is controlled.
  • the display position of the composite image can be changed according to the change in the vertical position of the observer.
  • the display device can display a composite image according to the position of an observer, and displays information in a three-dimensional manner in the fields of a television, a computer, a digital signage, a game machine, a medical device, and the like. It is particularly useful for mobile tablets and table displays.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 映像表示装置(10)は、第1の画像と、第1の画像とは異なる第2の画像とが合成された合成画像を表示するための映像光を出射する表示面を含む表示部(13)と、映像光を、第1の画像を表す第1の映像光と、第2の画像を表す第2の映像光とに分離するパララックスバリア(11)と、合成画像を観察する観察者の位置を検出する検出部(12)と、検出部(12)によって検出された観察者の位置に応じて、合成画像の向きを制御する制御部(15)とを備える。

Description

表示装置
 本発明は、テレビ、コンピュータ、デジタルサイネージ、ゲーム機及び医療機器などの分野において、フラットディスプレイ(プラズマ、液晶及びEL(Electro Luminescence)等)に対して、バリア又はレンチキュラレンズなどを用いることによって、立体的に情報を表示する表示装置に関するものである。
 従来、スイッチの切替操作によって手動で縦表示又は横表示の切替が可能な表示装置と、表示装置の表面に配置されたパララックスバリア又はレンチキュラレンズなどの映像分離部とを備え、表示装置において、映像分離部に合わせた左眼用画像データと右眼用画像データとを1つの視差画像データに合成する映像表示装置があった。また、映像表示装置に対して表示画面の姿勢を検知し、検知した姿勢に応じて映像分離部と表示装置との縦表示又は横表示を自動的に切り替える映像表示装置がある(例えば、特許文献1参照)。
 図16は、特許文献1に記載された従来の映像表示装置の概略構成を示す図である。
 図16において、観察者は、観察者と表示装置201との間にある映像分離部202を介して表示装置201を観察している。表示装置201において、基準画素P(1,1)が表示装置201の左上に位置している。基準画素PからX軸(+)方向に複数の画素からなる画素行が構成され、基準画素PからY軸(-)方向に複数の画素からなる画素列が構成されている。表示装置201に表示される画像データと、映像分離部202の視差バリアの構成とは、映像表示装置に備えられた姿勢センサ203によって検知された表示装置201の姿勢情報を用いて観察者が立体視を行えるように制御されている。
 また、複数の視差画像を1画面に合成して表示する表示装置と、表示装置の前面に固定した映像分離部とを備えた従来の映像表示装置では、縦横のいずれか一方の表示状態でしか正常に立体視を行うことができない。しかしながら、パララックスバリアのバリアパターンを最適化すると共に、バリアパターンに合わせた複数の視差画像の方向を表示画面の回転に合わせて1画面に表示することにより、パララックスバリアを固定した状態で縦横いずれの方向においても立体視が可能となる映像表示装置がある(例えば、特許文献2参照)。
 図17及び図18は、特許文献2に記載された従来の映像表示装置の画素配列を示す図である。
 図17は、従来の映像表示装置において、表示装置を第1の配置状態にしたときの4視点用の画素配列のパターンを示す図であり、図18は、従来の映像表示装置において、表示装置を第1の配置状態から時計回りに90度回転させた第2の配置状態にしたときの4視点用の画素配列のパターンを示す図である。観察者は、表示装置201の前面にあるパララックスバリアの開口部を介して映像表示装置を観察している。そのため、一例として第1の視点用の(B1,R1,G1)のピクセル群211のみが見えるように、表示装置201におけるサブピクセルの配列パターンと、パララックスバリアにおけるバリアパターンとが最適化されている。なお、(R2,G2,B2)のピクセル群212が第2視点用の画素であり、(R3,G3,B3)のピクセル群213が第3視点用の画素であり、(R4,G4,B4)のピクセル群214が第4視点用の画素である。
 以上により、特許文献2では、1つの映像表示装置において縦表示及び横表示のいずれにおいても立体視を可能としていた。
 しかしながら、例えば、映像表示装置が表示面を上向きにして机の上に載置されている場合、従来の映像表示装置では、観察者が映像表示装置をどの方向から観察しているかがわからないため、必ずしも観察者にとって最適な映像が表示されるとは限らない。
 また、従来の構成では、据え置き型の映像表示装置などの表示面の上下方向がわからない場合、又は、表示面の上下両方向に観察者が存在する場合、ある観察者を基準とした視差映像の合成だけでなく、上下を反対にした視差映像の合成が必要となる。また、上下両方向に存在する観察者の両者が同時に正しく立体視できるように、観察者の位置に応じて立体表示を行う映像表示装置は知られていない。
 また、映像表示装置が斜めに傾いた状態で観察者によって観察された場合、従来の構成では、縦表示又は横表示のいずれかが行われることになり、正しく立体視することができない状態になるという問題がある。
特開2010-109414号公報 特開2011-17788号公報
 本発明は、上記の問題を解決するためになされたもので、観察者の位置に応じて合成画像を表示することができる表示装置を提供することを目的とするものである。
 本発明の一局面に係る表示装置は、第1の画像と、前記第1の画像とは異なる第2の画像とが合成された合成画像を表示するための映像光を出射する表示面を含む表示部と、前記映像光を、前記第1の画像を表す第1の映像光と、前記第2の画像を表す第2の映像光とに分離する分離部と、前記合成画像を観察する観察者の位置を検出する検出部と、前記検出部によって検出された前記観察者の位置に応じて、前記合成画像の向きを制御する画像制御部とを備える。
 この構成によれば、表示部は、第1の画像と、第1の画像とは異なる第2の画像とが合成された合成画像を表示するための映像光を出射する表示面を含む。分離部は、映像光を、第1の画像を表す第1の映像光と、第2の画像を表す第2の映像光とに分離する。検出部は、合成画像を観察する観察者の位置を検出する。画像制御部は、検出部によって検出された観察者の位置に応じて、合成画像の向きを制御する。
 本発明によれば、検出された観察者の位置に応じて、第1の画像と、第1の画像とは異なる第2の画像とが合成された合成画像の向きが制御されるので、観察者の位置に応じて合成画像を表示することができる。
 本発明の目的、特徴及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の実施の形態1における映像表示装置の概略構成を示す図である。 本発明の実施の形態1における映像表示装置の構成を示すブロック図である。 本発明の実施の形態1において、観察者がY軸(+)方向に映像表示装置を観察した場合の観察者と映像表示装置との関係を示す図である。 本発明の実施の形態1において、観察者がY軸(-)方向に映像表示装置を観察した場合の観察者と映像表示装置との関係を示す図である。 本発明の実施の形態1における観察方向について説明するための図である。 図3に示すように映像表示装置をY軸(+)方向に観察したときの、表示部における立体表示を行う表示領域の4視点用の画素配列のパターンの一例を示す図である。 観察者が映像表示装置をY軸(+)方向に観察したときの図6の画素配列パターンに対応したパララックスバリアのバリアパターンを示す図である。 図4に示すように映像表示装置をY軸(-)方向に観察したときの、表示部における立体表示を行う表示領域の4視点用の画素配列のパターンの一例を示す図である。 映像表示装置をY軸(-)方向に観察したときの図8の画素配列パターンに対応したパララックスバリアのバリアパターンを示す図である。 実施の形態2において、2人の観察者が、映像表示装置の表示部を観察する様子について説明するための図である。 図10に示すように、第1の観察者が映像表示装置をY軸(+)方向に観察するとともに、第2の観察者が映像表示装置をY軸(-)方向に観察したときの、表示部における立体表示を行う第1の表示領域及び第2の表示領域の4視点用の画素配列のパターンの一例を示す図である。 第1の観察者が映像表示装置をY軸(+)方向に観察するとともに、第2の観察者が映像表示装置をY軸(-)方向に観察したときの図11の画素配列パターンに対応したパララックスバリアのバリアパターンを示す図である。 図3に示す映像表示装置を表示面に平行な面内で時計回りに90度回転させた際における表示部の表示例を示す図である。 映像表示装置を表示面に平行な面内で時計回りに90度、180度及び270度以外の角度に回転させた際における表示部の表示例を示す図である。 映像表示装置を表示面に平行な面内で時計回りに実質的に90度、180度及び270度の角度に回転させた際における表示部の表示例を示す図である。 従来の映像表示装置の概略構成を示す図である。 従来の映像表示装置において、表示部を第1の配置状態にしたときの4視点用の画素配列のパターンを示す図である。 従来の映像表示装置において、表示部を第1の配置状態から90度回転させた第2の配置状態にしたときの4視点用の画素配列のパターンを示す図である。
 以下本発明の実施の形態について、図面を参照しながら説明する。なお、以下の実施の形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。
 (実施の形態1)
 図1は、本発明の実施の形態1における映像表示装置の概略構成を示す図である。図2は、本発明の実施の形態1における映像表示装置の構成を示すブロック図である。
 映像表示装置10は、図1に示すように、複数の画像を合成した合成画像を表示する表示部13と、表示部13の表示面側に対向して配置されたパララックスバリア11と、観察者の眼の位置を検出する検出部12とを備えている。
 表示部13は、立体視を行う表示領域において、立体視の視点数に応じた複数の視差画像を空間的に分割して1画面内に合成して表示する。表示部13において、基準サブピクセルが表示部13の表示面の左上に位置している。基準サブピクセルからX軸(+)方向に複数のサブピクセルからなる画素行が構成され、基準サブピクセルからY軸(-)方向に複数のサブピクセルからなる画素列が構成されている。また、表示部13は、立体視を行わない表示領域において、1視点の画像を表示する。
 パララックスバリア11は、後述するように、表示部13からの映像光を透過するスリット部41と映像光を遮蔽する遮蔽部42とからなるバリアパターンを有している。パララックスバリア11は、表示部13に表示された合成画像を、立体視が可能となるようにバリアパターンによって光学的に分離する。検出部12は、CCD(Charge Coupled Device)などにより観察者の映像を取得し、顔検出などにより頭部又は左右の眼の位置を検出する。
 図2に示すように、映像表示装置10は、パララックスバリア11、検出部12、表示部13、画像信号処理部14及び制御部15を備える。
 表示部13は、複数色のサブピクセルが2次元的に配列された表示面を有する。表示部13は、例えば、プラズマディスプレイ、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイなどで構成される。表示部13は、複数色のサブピクセルが所定のパターンで配列されており、観察者の視点に応じて異なる複数の画像を合成した合成画像表示する。なお、合成画像は、互いに異なる視点から撮影された立体視のための複数の視差画像の他、同じ視点から撮影された画像も含む。
 また、表示部13は、第1の画像と、第1の画像とは異なる第2の画像とが合成された合成画像を表示するための映像光を出射する表示面を含む。なお、第1の画像は、左眼で観察される左画像であり、第2の画像は、右眼で観察される右画像である。
 パララックスバリア11は、表示部13によって表示される合成画像を観察者の視点に応じて分離する。パララックスバリア11は、観察者の左右の眼に異なる視点の視差画像が見え、観察者が立体映像を観察できるように、合成画像を分離する。パララックスバリア11は、表示部13からの映像光を透過するスリット部と、映像光を遮蔽する遮蔽部とを有する。パララックスバリア11は、例えば、液晶又は樹脂などで構成される。
 また、パララックスバリア11は、映像光を、第1の画像を表す第1の映像光と、第2の画像を表す第2の映像光とに分離する。パララックスバリア11は、左画像を表す左映像光を左眼に入射させるとともに、右画像を表す右映像光を右眼に入射させるように、映像光を分離する。
 検出部12は、観察者の位置を検出する。検出部12は、観察者の両眼の位置を検出する。検出部12は、例えば、CCDなどで構成される。検出部12は、映像表示装置10の周囲360度の空間を撮影し、撮影された映像から観察者の眼の位置を検出する。なお、検出部12は、観察者の頭部の位置を検出してもよい。また、本実施の形態1において、検出部12は、表示部13を含む本体に配置されるが、本発明は特にこれに限定されず、表示部13の周囲の空間を俯瞰する位置に配置されてもよい。
 制御部15は、検出部12によって検出された観察者の位置に応じて、合成画像の向きを制御する。制御部15は、検出部12によって検出された観察者の頭部又は眼の位置に基づいて、合成画像の下部が観察者の存在する方向を向くように、合成画像の表示位置を制御する。制御部15は、検出部12から得られた情報を用いて表示部上に存在する立体視を行う表示領域と、各サブピクセルが担当する視点とを決定する。
 合成画像は、第1の画像領域と、観察者が第1の位置に存在する場合に第1の画像領域と観察者との間に表示される第2の画像領域とを含む。制御部15は、検出部12によって観察者が第1の位置とは異なる第2の位置に存在することが検知された場合、第1の画像領域と第2の位置に存在する観察者との間に第2の画像領域が表示されるように合成画像の向きを制御する。
 画像信号処理部14は、表示部13を制御する。画像信号処理部14は、制御部15で決定された表示部上の立体視を行う表示領域に表示する複数の視差画像データと、立体視を行わない表示領域に表示する2次元画像データとを1枚の画像として合成する。
 なお、本実施の形態1において、映像表示装置10が表示装置の一例に相当し、表示部13が表示部の一例に相当し、パララックスバリア11が分離部の一例に相当し、検出部12が検出部の一例に相当し、制御部15が画像制御部及びバリアパターン制御部の一例に相当する。
 図3は、本発明の実施の形態1において、観察者がY軸(+)方向に映像表示装置10を観察した場合の観察者と映像表示装置10との関係を示す図であり、図4は、本発明の実施の形態1において、観察者がY軸(-)方向に映像表示装置10を観察した場合の観察者と映像表示装置10との関係を示す図である。ここで、「観察者がY軸(+)方向(Y軸(-)方向)に映像表示装置10を観察した場合」というのは、「視線に対してY軸(+)方向(Y軸(-)方向)を上にして観察した場合」と言い換えてもよい。つまり、観察者がY軸(+)方向(Y軸(-)方向)に映像表示装置10を観察した場合は、映像表示装置10が垂直に立てられた状態で、観察者が画面の正面付近から見ている場合を含む。また、観察者がY軸(+)方向(Y軸(-)方向)に映像表示装置10を観察した場合は、映像表示装置10がテーブルに寝かされるなど、映像表示装置10が水平に配置された状態で、観察者が斜め上方から画面を見下ろしている場合を含む。また、観察者がY軸(+)方向(Y軸(-)方向)に映像表示装置10を観察した場合は、映像表示装置10が観察者の手に持たれるなど、映像表示装置10が垂直又は水平以外に配置された状態で、観察者が画面を見ている場合を含む。
 図5は、本発明の実施の形態1における観察方向について説明するための図である。
 検出部12は、観察者の両眼の位置を検出する。制御部15は、検出部12によって検出される観察者の両眼の位置から表示部13の表示面16に向かう方向31を表示面16を含む平面に投影した観察方向32を特定し、特定した観察方向32と、所定の基準方向33との角度に応じて、合成画像の表示位置を制御する。なお、観察者が映像表示装置10を見る際に体の位置と両眼の位置とが表示部13の表示面16の中心38を挟んで存在している場合、制御部15は、観察者の体の位置情報と照らし合わせて合成画像の向き及び表示位置を制御する。
 例えば、制御部15は、検出部12によって検出される観察者の両眼を結ぶ直線34の中点35から表示部13の表示面16を含む平面への垂線36と当該平面との交点37から表示面16の中心38へ向かう観察方向32と、表示部13の表示面16上の基準方向33との角度に応じて、合成画像の表示位置を制御する。
 ここで、表示面16は、四角形状である。基準方向33は、表示面16の複数の辺のうちの1つの基準辺17に垂直な方向であり、Y軸(+)方向である。
 制御部15は、観察方向32と基準方向33との角度が0度である場合、合成画像の下辺を基準辺17に一致させる。また、制御部15は、観察方向32と基準方向33との角度が所定の角度である場合、合成画像の下辺を基準辺17から所定の角度回転させる。すなわち、制御部15は、観察方向32と基準方向33との角度が90度である場合、合成画像の下辺を基準辺17から90度回転させる。また、制御部15は、観察方向32と基準方向33との角度が180度である場合、合成画像の下辺を基準辺17から180度回転させる。また、制御部15は、観察方向32と基準方向33との角度が270度である場合、合成画像の下辺を基準辺17から270度回転させる。
 上記のように、観察方向32が基準方向33と一致する場合、観察方向32と基準方向33との角度は0度となる。また、観察方向32が基準方向33と対向する場合、観察方向32と基準方向33との角度は180度となる。また、観察方向32が基準方向33から反時計回りに90度移動した場合、観察方向32と基準方向33との角度は90度となる。また、観察方向32が基準方向33から反時計回りに270度移動した場合、観察方向32と基準方向33との角度は270度となる。
 検出部12は、観察者の眼の位置を検出するだけでなく、観察者がY軸(+)方向に映像表示装置10を観察しているのか、Y軸(-)方向に映像表示装置10を観察しているのか、といった観察方向も特定する。観察方向については、例えば、眼と共に鼻又は口を検出し、眼と鼻との位置関係又は眼と口との位置関係から判断することができる。したがって、検出部12は、観察方向がY軸(+)方向であるか及び観察方向がY軸(-)方向であるかだけでなく、観察方向がX軸(+)方向であるか、観察方向がX軸(-)方向であるか、及び観察方向がY軸(+)方向に対して何度傾いているか、についても特定できる。
 図3において、表示部13の表示面内にある表示領域22には、観察者のための立体表示が行われる。制御部15は、検出部12から得られた眼の位置情報と、観察者と表示部13との間にあるパララックスバリア11のスリット位置に関する情報とを用いて、観察者が正しく立体視できるように複数の視差画像を空間的に分割して表示領域内に合成して表示する。表示部13の立体表示を行う表示領域22に表示する合成画像の向きは、検出部12によって得られた観察者の眼の位置情報を用いて制御される。なお、表示部13の表示面内の立体表示を行う表示領域22は、画面全体でなくてもよい。例えば、表示領域22は、画面内の所定の位置にあるウィンドウ内だけでもよい。その場合、制御部15は、ウィンドウの開始位置およびウィンドウサイズを用いて、図3のようにY軸(+)に向かって見た場合に立体視可能なように複数の視差画像を並び替える。
 図6は、図3に示すように映像表示装置10をY軸(+)方向に観察したときの、表示部13における立体表示を行う表示領域22の4視点用の画素配列のパターンの一例を示す図である。表示部13の表示面は、R(赤色)、G(緑色)及びB(青色)の3色のサブピクセル3R,3G,3Bが2次元的に所定のパターンで配列されている。N個の視点(ここでは4視点)に対応する立体表示が行われる場合、表示部13は、N個の視差画像を1画面内にN個に空間的に分割して表示する。4個の視点に対応する立体表示を行う場合、表示部13は、4個の視差画像を1画面内に4個に空間的に分割して表示する。図6において、(R1,G1,B1)のサブピクセル群が第1視点用の画素である。また、(R2,G2,B2)のサブピクセル群が第2視点用の画素であり、(R3,G3,B3)のサブピクセル群が第3視点用の画素であり、(R4,G4,B4)のサブピクセル群が第4視点用の画素である。
 なお、立体表示を行う表示領域22の4視点用の画素配列のパターンは、検出部12から得られた眼の位置情報と、観察者と表示部13との間にあるパララックスバリア11のスリット位置情報とによって変化する。図6においては、一番左上の画素の視点番号が変わる。ただし、第1視点の画素、第2視点の画素、第3視点の画素及び第4視点の画素が左から順に並ぶことは変化しない。また、左斜め下方に向かって同じ視点の画素が並ぶことは変化しない。なお、制御部15は、観察者の観察方向が変わったことが検出部12によって検出された時に、適切な画素配列のパターンを決定してもよい。また、制御部15は、表示面に対する観察者の視点の水平移動又は垂直移動など、観察者と映像表示装置10との相対的な位置関係の変化が検出部12によって検出された時に、リアルタイムに画素配列のパターンを変化させてもよい。
 映像表示装置10が水平に設置された場合、観察者は、表示面に対して水平方向(左右方向)だけでなく、垂直方向(上下方向)に動くこともある。観察者が映像表示装置10を保持して表示面を観察する場合、観察者は、表示面に正対して観察するため、表示面に対して上下方向から観察することはない。そのため、従来、観察者の上下の動きに対応した表示部又は分離部の制御は必要なかった。しかしながら、映像表示装置10が水平に設置された場合、観察者の上下の動きに対応した表示部又は分離部の制御が必要となる。
 特に、上述するようにスリット部が斜めに形成されている場合、観察者が表示面に正対した状態で、パララックスバリアの適視領域(適切に立体視可能な領域)が斜めに形成されている。そのため、観察者が上下方向(表示面に対して垂直方向)に移動することによって、今まで観察していた視点が変わってしまうという問題がある。そのため、観察者の注視位置が画面の中央の位置を維持した状態で、観察者が、水平に置かれた映像表示装置10に対して近づいたり離れたりする(図3及び図4の場合は上下方向に動く)ことによって、観察者の左右の眼で見える視点画像は変化し、いずれ逆視の状態になる。例えば、4視点の視差バリアを用いた場合、画面の中央の上下方向の適視範囲は、約±30cmである。
 そこで、制御部15は、検出部12によって検出される観察者の両眼の位置から表示部13の表示面16に向かう方向31と、表示面16との角度に応じて、合成画像の表示位置を制御してもよい。このとき、制御部15は、方向31と表示面16との角度と、パララックスバリア11のバリアパターンに関する情報とに応じて、合成画像の表示位置を制御してもよい。
 すなわち、検出部12は、観察者の両眼の位置を検出する。制御部15は、検出部12によって検出される観察者の両眼の位置から表示面13に向かう方向31を特定し、特定した方向31における観察者の両眼の位置情報と、パララックスバリア11の位置情報とに応じて、合成画像の表示位置を制御してもよい。
 このように、観察者の水平方向の位置の変化だけでなく、観察者の垂直方向の位置の変化に応じて、合成画像の画素配列パターンを変化させることができる。
 図7は、観察者が映像表示装置をY軸(+)方向に観察したときの図6の画素配列パターンに対応したパララックスバリアのバリアパターンを示す図である。図7に示すように、パララックスバリア11は、表示部13からの映像光を透過するスリット部41と、映像光を遮蔽する遮蔽部42とを有する。スリット部41と遮蔽部42とからバリアパターンが形成される。
 なお、図7では、表示部13における立体表示を行う表示領域22の4視点用の画素配列のパターンに対応したバリアパターンを示しており、観察者の片眼(例えば右眼)からパララックスバリア11のスリット部41を介して第2視点用の(R2,G2,B2)のサブピクセル群のみが見えている状態を示している。なお、観察者の観察位置が水平方向(X軸方向)に移動した場合、スリット部41を介して第1視点用の(R1,G1,B1)のサブピクセル群のみが見える位置、第3視点用の(R3,G3,B3)のピクセル群のみが見える位置、第4視点用の(R4,G4,B4)のサブピクセル群のみが見える位置が存在する。このように、見る方向によって特定の視点用のサブピクセル群のみが見えるように、バリアパターンが形成されている。
 図8は、図4に示すように映像表示装置10をY軸(-)方向に観察したときの、表示部13における立体表示を行う表示領域23の4視点用の画素配列のパターンの一例を示す図である。4個の視点に対応する立体表示を行う場合、表示部13は、4個の視差画像を1画面内に4個に空間的に分割して表示する。図8において、(B1,G1,R1)のサブピクセル群が第1視点用の画素である。また、(B2,G2,R2)のサブピクセル群が第2視点用の画素であり、(B3,G3,R3)のサブピクセル群が第3視点用の画素であり、(B4,G4,R4)のサブピクセル群が第4視点用の画素である。
 なお、立体表示を行う表示領域23の4視点用の画素配列のパターンは、検出部12から得られた眼の位置情報と、観察者と表示部13との間にあるパララックスバリア11のスリット位置情報とによって変化する。図8においては、一番左上の画素の視点番号が変わる。ただし、第1視点の画素、第2視点の画素、第3視点の画素及び第4視点の画素が左から順に並ぶことは変化しない。また、左斜め下方に向かって同じ視点の画素が並ぶことは変化しない。なお、制御部15は、観察者の観察方向が変わったことが検出部12によって検出された時に、適切な画素配列のパターンを決定してもよい。また、制御部15は、水平移動など、観察者と映像表示装置10との相対的な位置関係の変化が検出部12によって検出された時に、リアルタイムに画素配列のパターンを変化させてもよい。
 図9は、映像表示装置10をY軸(-)方向に観察したときの図8の画素配列パターンに対応したパララックスバリア11のバリアパターンを示す図である。なお、図9では、表示部13における立体表示を行う表示領域23の4視点用の画素配列のパターンに対応したバリアパターンを示しており、観察者の片眼(例えば右眼)からパララックスバリア11のスリット部41を介して第2視点用の(B2,G2,R2)のサブピクセル群のみが見えている状態を示している。なお、観察者の観察位置が水平方向(X軸方向)に移動した場合、スリット部41を介して第1視点用の(B1,G1,R1)のサブピクセル群のみが見える位置、第3視点用の(B3,G3,R3)のサブピクセル群のみが見える位置、第4視点用の(B4,G4,R4)のサブピクセル群のみが見える位置が存在する。このように、見る方向によって特定の視点用のサブピクセル群のみが見えるように、バリアパターンが形成されている。
 (実施の形態2)
 図10は、実施の形態2において、2人の観察者が、映像表示装置10の表示部13を観察する様子について説明するための図である。図10では、第1の観察者51の観察方向と、映像表示装置10の基準方向(Y軸(+)方向)との角度が0度となる位置、及び第2の観察者52の観察方向と、映像表示装置10の基準方向(Y軸(+)方向)との角度が180度となる位置における表示例を示している。
 なお、実施の形態2における映像表示装置は、実施の形態1の図1及び図2における映像表示装置10と同じ構成であるので、詳細な説明を省略し、実施の形態1と異なる構成についてのみ説明する。
 検出部12は、複数の観察者の位置を検出する。検出部12は、複数の観察者の頭部又は眼の位置を検出する。制御部15は、複数の観察者の数に応じて表示部13の表示面を複数の表示領域に分割し、検出部12によって検出された複数の観察者の位置に応じて、複数の表示領域のそれぞれにおいて合成画像の向きを制御する。
 図10において、検出部12は、第1の観察者51及び第2の観察者52の頭部又は眼の位置を検出する。制御部15は、表示部13の表示面を第1の表示領域61及び第2の表示領域62に分割し、検出部12によって検出された第1の観察者51及び第2の観察者52の頭部又は眼の位置に応じて、第1の表示領域61及び第2の表示領域62のそれぞれにおいて合成画像の向きを制御する。
 図10において、表示部13の表示面内にある第1の表示領域61には、第1の観察者51のための立体表示が行われ、表示部13の表示面内にある第2の表示領域62には、第2の観察者52のための立体表示が行われる。制御部15は、検出部12から得られた第1の観察者51の眼の位置情報と、第1の観察者51と表示部13との間にあるパララックスバリア11のスリット部41の位置に関する情報とを用いて、第1の観察者51が正しく立体視できるように複数の視差画像を空間的に分割して第1の表示領域61内に合成して表示する。また、制御部15は、検出部12から得られた第2の観察者52の眼の位置情報と、第2の観察者52と表示部13との間にあるパララックスバリア11のスリット部41の位置に関する情報とを用いて、第2の観察者52が正しく立体視できるように複数の視差画像を空間的に分割して第2の表示領域62内に合成して表示する。第1の観察者51が立体視を行う表示部13の第1の表示領域61に表示する合成画像の向きと、第2の観察者52が立体視を行う表示部13の第2の表示領域62に表示する合成画像の向きとは、検出部12によって得られた各観察者の眼の位置情報を用いて制御される。
 図11は、図10に示すように、第1の観察者51が映像表示装置10をY軸(+)方向に観察するとともに、第2の観察者52が映像表示装置10をY軸(-)方向に観察したときの、表示部13における立体表示を行う第1の表示領域61及び第2の表示領域62の4視点用の画素配列のパターンの一例を示す図である。Y軸(+)方向に観察している第1の観察者51のための第1の表示領域61の基本的な構成については図6の構成例と同様であり、Y軸(-)方向に観察している第2の観察者52のための第2の表示領域62の基本的な構成については図8の構成例と同様である。
 なお、立体表示を行う第1の表示領域61の4視点用の画素配列のパターンは、検出部12から得られた第1の観察者51の眼の位置情報と、第1の観察者51と表示部13の間にあるパララックスバリア11のスリット位置情報とによって変化する。また、立体表示を行う第2の表示領域62の4視点用の画素配列のパターンは、検出部12から得られた第2の観察者52の眼の位置情報と、第2の観察者52と表示部13の間にあるパララックスバリア11のスリット位置情報とによって変化する。図11においては、各観察者に対応する画像の一番左上の画素の視点番号が変わる。ただし、第1視点の画素、第2視点の画素、第3視点の画素及び第4視点の画素が左から順に並ぶことは変化しない。また、左斜め下方に向かって同じ視点の画素が並ぶことは変化しない。なお、制御部15は、各観察者の観察方向が変わったことが検出部12によって検出された時に、適切な画素配列のパターンを決定してもよい。また、制御部15は、水平移動など、各観察者と映像表示装置10との相対的な位置関係の変化が検出部12によって検出された時に、リアルタイムに画素配列のパターンを変化させてもよい。
 図12は、第1の観察者が映像表示装置をY軸(+)方向に観察するとともに、第2の観察者が映像表示装置をY軸(-)方向に観察したときの図11の画素配列パターンに対応したパララックスバリアのバリアパターンを示す図である。
 なお、図12では、表示部13における立体表示を行う第1の表示領域61及び第2の表示領域62の4視点用の画素配列のパターンに対応したバリアパターンを示しており、第1の観察者51及び/又は第2の観察者52のそれぞれの片眼(例えば右眼)からパララックスバリア11のスリット部41を介して第2視点用の(R2,G2,B2)のサブピクセル群のみが見えている状態を示している。なお、各観察者の観察位置が水平方向(X軸方向)に移動した場合、スリット部41を介して第1視点用の(R1,G1,B1)のサブピクセル群のみが見える位置、第3視点用の(R3,G3,B3)のサブピクセル群のみが見える位置、第4視点用の(R4,G4,B4)のサブピクセル群のみが見える位置が存在する。このように、見る方向によって特定の視点用のサブピクセル群のみが見えるように、バリアパターンが形成されている。
 なお、本実施の形態2では、第1の観察者51と第2の観察者52とは、互いに対向する位置から映像表示装置10を観察しているが、本発明は特にこれに限定されず、第1の観察者51と第2の観察者52とは、互いの観察方向のなす角度が所定の角度である位置から映像表示装置10を観察してもよい。例えば、第1の観察者51と第2の観察者52とは、互いの観察方向のなす角度が90度である位置から映像表示装置10を観察してもよい。すなわち、第1の観察者51が映像表示装置10をY軸(+)方向に観察するとともに、第2の観察者52が映像表示装置10をX軸(-)方向に観察してもよい。
 この場合、制御部15は、第1の観察者51の観察方向と基準方向との角度が0度である場合、合成画像の下辺を基準辺に一致させる。また、制御部15は、第2の観察者52の観察方向と基準方向との角度が90度である場合、合成画像の下辺を基準辺から90度回転させる。さらに、制御部15は、パララックスバリア11のスリット部41の位置を第1の表示領域61及び第2の表示領域62の各合成画像に応じて変化させてもよい。
 また、図10では、第1の表示領域61と第2の表示領域62とは、互いに異なる合成画像を表示しているが、本発明は特にこれに限定されず、第1の表示領域61と第2の表示領域62とは、同じ合成画像を表示してもよい。
 (実施の形態3)
 図13は、図3に示す映像表示装置を表示面に平行な面内で時計回りに90度回転させた際における表示部の表示例を示す図である。映像表示装置10を表示面に平行な面内で時計回りに90度及び270度回転させた場合、図3と同様に、表示部13の表示面内にある表示領域71には、観察者のための立体表示が行われる。制御部15は、検出部12から得られた眼の位置情報と、観察者と表示部13との間にあるパララックスバリア11のスリット部41の位置情報とを用いて、観察者が正しく立体視できるように複数の視差画像を空間的に分割して表示領域内に合成して表示する。表示部13の立体表示を行う表示領域71に表示する合成画像の向きは、検出部12によって得られた観察者の眼の位置情報から求まる観察方向と表示部の基準方向との角度を用いて、立体表示を行う表示領域71内の合成画像が観察者に対して正対するように、制御される。
 また、映像表示装置10を表示面に平行な面内で時計回りに90度、180度及び270度以外の角度に回転させた場合、図14に示すように、表示部13は、視差を持たない1視点の画像を、立体表示を行う表示領域72上の観察者に対して正対する位置に表示してもよい。
 図14は、映像表示装置を表示面に平行な面内で時計回りに90度、180度及び270度以外の角度に回転させた際における表示部の表示例を示す図である。
 制御部15は、観察方向と基準方向との角度が0度、90度、180度及び270度以外の角度である場合、第1の画像及び第2の画像のいずれか一方のみを表示部13に表示させる。すなわち、制御部15は、観察方向と基準方向との角度が0度、90度、180度及び270度以外の角度である場合、1つの画像のみを表示部13に表示させる。これにより、表示部13の表示領域72には、立体的に画像が表示されるのではなく、2次元的に画像が表示される。なお、図14では、観察方向と基準方向との角度は、45度となっている。
 このとき、制御部15は、バリアパターンをパララックスバリア11の全面に形成するか否かを制御してもよい。そして、制御部15は、観察方向と基準方向との角度が0度、90度、180度及び270度以外の角度である場合、バリアパターンをパララックスバリア11の全面に形成せずに、表示部13からの映像光を全て透過させてもよい。
 これにより、立体表示が困難である角度から観察者が表示部を観察した場合に、解像度の高い画像を観察者に提供することができる。
 また、観察方向と基準方向との角度が0度、90度、180度及び270度以外の角度であり、パララックスバリア11のバリアパターンが固定である場合、制御部15は、異なる複数の視点の画像を同一の視点の画像に切り替え、1つの視点の画像のみを表示させてもよい。
 また、図15に示すように、観察方向と基準方向との角度が実質的に0度、90度、180度及び270度である場合、立体表示を行う表示領域の画像は、複数の視差画像を合成した1枚の合成画像としてもよい。
 図15は、映像表示装置を表示面に平行な面内で時計回りに実質的に90度、180度及び270度の角度に回転させた際における表示部の表示例を示す図である。
 制御部15は、観察方向と基準方向との角度が0度±20度の第1の範囲、90度±20度の第2の範囲、180度±20度の第3の範囲及び270度±20度の第4の範囲内である場合、合成画像を表示部13に表示させ、観察方向と基準方向との角度が第1の範囲、第2の範囲、第3の範囲及び第4の範囲外である場合、第1の画像及び第2の画像のいずれか一方のみを表示部13に表示させてもよい。この場合、観察方向と基準方向との角度が0度±20度の範囲、90度±20度の範囲、180度±20度の範囲及び270度±20度の範囲内である場合、表示部13の表示領域73には、立体的に画像が表示される。
 すなわち、観察方向と基準方向との角度が0度±20度の範囲、90度±20度の範囲、180度±20度の範囲及び270度±20度の範囲内であれば、立体視することが可能であるため、必ずしも、観察方向と基準方向との角度が0度、90度、180度及び270度である場合にのみ立体表示させる必要はない。
 これにより、観察方向と基準方向との角度が0度、90度、180度及び270度からずれたとしても、観察者は立体視することができる。
 なお、制御部15は、観察方向と基準方向との角度が0度±20度の範囲、90度±20度の範囲、180度±20度の範囲及び270度±20度の範囲以外の角度である場合、1つの画像のみを表示部13に表示させてもよい。また、このとき、制御部15は、バリアパターンをパララックスバリア11の全面に形成するか否かを制御してもよい。
 また、制御部15は、観察方向と基準方向との角度が変化した際に、サブピクセルの傾きに合わせて、パララックスバリア11のバリアパターンの傾きを最適化してもよい。すなわち、制御部15は、観察方向と基準方向との角度の変化に応じて変化する合成画像の向きに対応して、バリアパターンを変化させる。
 例えば、制御部15は、観察方向と基準方向との角度と、当該角度に応じたパララックスバリア11のバリアパターンと対応付けたテーブルデータを予め記憶する。そして、制御部15は、検出部12によって検出される観察者の両眼の位置に基づいて観察方向を特定し、特定した観察方向と基準方向との角度に応じたバリアパターンをテーブルデータから読み出す。制御部15は、読み出したバリアパターンに応じてパララックスバリア11のバリアパターンを変化させる。これにより、観察方向と基準方向との角度に関係なく、表示領域において常に立体表示を行うことができる。
 なお、実施の形態1~3では、パララックスバリアを分離部の一例として説明したが、本発明は特にこれに限定されず、レンチキュラレンズ、液晶レンズ又はプリズムなどを分離部として用いてもよい。
 また、実施の形態1~3では、分離部の一例であるパララックスバリアは、1つのバリアパターンのみを形成して表示部の前面に配置されているが、本発明は特にこれに限定されず、パララックスバリアは、複数の液晶又は複数の液晶レンズで構成してもよく、制御部15は、各液晶又は角液晶レンズに対して、それぞれ透過するか否かを制御してもよい。
 また、実施の形態1~3では、分離部の一例であるパララックスバリアは、表示部の前面に固定して配置されているが、本発明は特にこれに限定されず、パララックスバリアは、機械的に前後に移動させてもよい。
 また、実施の形態1~3で示したパララックスバリア11としては、薄いフィルム膜又は透明度の高い物質(ガラス等)で生成される固定バリアを用いてもよく、また、電圧等をかけることで遮蔽と開口とを変化させる(光の透過率を変化させる)ことができるようなデバイス(例えばTFT(Thin Film Transistor)液晶パネルなど)を用いてもよい。
 また、実施の形態1~3では、パララックスバリア(分離部)11が表示部(表示部)13の前面に配置される方式を例に説明したが、液晶ディスプレイの液晶パネルとバックライトとの間にパララックスバリアを配置する方式を用いてもよい。
 また、実施の形態1~3で示した立体表示を行う表示領域の位置は、表示部13の左上の端点(サブピクセル)を基準に表示領域の左上の座標、及び、表示領域の縦横の長さを用いることによって決定される。なお、表示領域の位置を決定するための基準としては、表示部13の右上のサブピクセル、左下のサブピクセル、右下のサブピクセル又は中心のサブピクセルを用いてもよい。
 また、実施の形態1~3では、制御部15は、検出部12から得られた情報とパララックスバリア11のスリット位置の情報とを用いて、表示部13に表示する合成画像を制御しているが、制御部15は、検出部12から得られた情報と表示部13に表示した合成画像とを用いて、パララックスバリア11のスリット位置を制御してもよい。
 また、実施の形態1~3におけるパララックスバリア11のバリアパターンでは、スリット部41が右上から左下の左斜め方向に向かって形成されているが、スリット部41が左上から右下の右斜め方向に向かって形成されてもよく、さらに、スリット部41が上から下の垂直方向に向かって形成されてもよい。
 また、実施の形態1~3におけるパララックスバリア11のバリアパターンは、スリット部41が階段状に形成されたステップ型のバリアパターンであるが、スリット部41が斜めに縞状に形成されたスラント型のバリアパターン等であってもよく、ステップ型以外のバリアパターンであってもよい。
 また、実施の形態1~3では、パララックスバリア11のスリット部41の幅はサブピクセルの幅と同等としているが、パララックスバリア11のスリット部41の幅はサブピクセルの幅と同等でなくてもよい。
 また、実施の形態1~3では、複数の視差画像は1サブピクセル毎に異なっているが、複数の視差画像は1サブピクセル毎に異なっていなくてもよく、複数の視差画像は例えば2サブピクセル毎、3サブピクセル毎又は4サブピクセル毎に異なっていてもよい。
 また、実施の形態1~3では、4視点用の画素配列のパターン及び4視点用のバリアパターンとしているが、2視点、3視点又は5視点などの他の複数視点用の画素配列のパターン及びバリアパターンであってもよい。
 また、実施の形態2では、複数の観察者のそれぞれが同じ視点を観察するように説明しているが、複数の観察者のそれぞれが異なる視点を観察していてもよい。
 また、実施の形態2では、複数の観察者が観察する視点数はそれぞれ同じ数としているが、複数の観察者が観察する視点数はそれぞれ同じ数でなくともよい。
 また、実施の形態2では、図10に示すように、第1の観察者51が立体視する第1の表示領域61と第2の観察者52が立体視する第2の表示領域62とは隣接しているが、各観察者が立体視する各表示領域は必ずしも隣接している必要はなく、各表示領域は、表示部13の表示面上のどの位置であってもよい。
 また、実施の形態2では、図10に示すように、観察者は2人としているが、観察者は3人以上であってもよい。
 また、実施の形態2では、図10に示すように、2人の観察者は、観察方向と基準方向とのなす角度が0度である位置と、観察方向と基準方向とのなす角度が180度である位置との互いに対向する方向から観察しているが、複数の観察者のそれぞれの観察方向と、基準方向とのなす角度は何度であっても構わない。
 また、実施の形態1~3では、検出部12は、CCDを用いて視聴者の顔の位置を検出しているが、ブルートゥースなどの無線技術を用いて視聴者の位置を検出してもよい。
 なお、上述した具体的実施形態には以下の構成を有する発明が主に含まれている。
 本発明の一局面に係る表示装置は、第1の画像と、前記第1の画像とは異なる第2の画像とが合成された合成画像を表示するための映像光を出射する表示面を含む表示部と、前記映像光を、前記第1の画像を表す第1の映像光と、前記第2の画像を表す第2の映像光とに分離する分離部と、前記合成画像を観察する観察者の位置を検出する検出部と、前記検出部によって検出された前記観察者の位置に応じて、前記合成画像の向きを制御する画像制御部とを備える。
 この構成によれば、表示部は、第1の画像と、第1の画像とは異なる第2の画像とが合成された合成画像を表示するための映像光を出射する表示面を含む。分離部は、映像光を、第1の画像を表す第1の映像光と、第2の画像を表す第2の映像光とに分離する。検出部は、合成画像を観察する観察者の位置を検出する。画像制御部は、検出部によって検出された観察者の位置に応じて、合成画像の向きを制御する。
 したがって、検出された観察者の位置に応じて、第1の画像と、第1の画像とは異なる第2の画像とが合成された合成画像の向きが制御されるので、観察者の位置に応じて合成画像を表示することができる。
 また、上記の表示装置において、前記合成画像は、第1の画像領域と、前記観察者が第1の位置に存在する場合に前記第1の画像領域と前記観察者との間に表示される第2の画像領域とを含み、前記画像制御部は、前記検出部によって前記観察者が前記第1の位置とは異なる第2の位置に存在することが検知された場合、前記第1の画像領域と前記第2の位置に存在する観察者との間に前記第2の画像領域が表示されるように前記合成画像の向きを制御することが好ましい。
 この構成によれば、合成画像は、第1の画像領域と、観察者が第1の位置に存在する場合に第1の画像領域と観察者との間に表示される第2の画像領域とを含む。画像制御部は、検出部によって観察者が第1の位置とは異なる第2の位置に存在することが検知された場合、第1の画像領域と第2の位置に存在する観察者との間に第2の画像領域が表示されるように合成画像の向きが制御される。
 したがって、観察者の位置が変化したとしても、当該観察者は正しい方向から合成画像を観察することができる。
 また、上記の表示装置において、前記第1の画像は、左眼で観察される左画像であり、前記第2の画像は、右眼で観察される右画像であり、前記分離部は、前記左画像を表す左映像光を前記左眼に入射させるとともに前記右画像を表す右映像光を前記右眼に入射させるように、前記映像光を分離することが好ましい。
 この構成によれば、第1の画像は、左眼で観察される左画像であり、第2の画像は、右眼で観察される右画像である。分離部は、左画像を表す左映像光を左眼に入射させるとともに右画像を表す右映像光を右眼に入射させるように、映像光を分離する。したがって、観察者は立体映像を観察することができる。
 また、上記の表示装置において、前記検出部は、複数の観察者の位置を検出し、前記画像制御部は、前記複数の観察者の数に応じて前記表示面を複数の表示領域に分割し、前記検出部によって検出された前記複数の観察者の位置に応じて、前記複数の表示領域のそれぞれにおいて前記合成画像の向きを制御することが好ましい。
 この構成によれば、検出部は、複数の観察者の位置を検出する。画像制御部は、複数の観察者の数に応じて表示面を複数の表示領域に分割し、検出部によって検出された複数の観察者の位置に応じて、複数の表示領域のそれぞれにおいて合成画像の向きを制御する。
 したがって、複数の表示領域のそれぞれにおいて合成画像の向きが制御されるので、複数の観察者がそれぞれ異なる方向から表示装置を観察する場合に、各観察者に応じた合成画像を各表示領域に表示することができる。
 また、上記の表示装置において、前記検出部は、前記観察者の両眼の位置を検出し、前記画像制御部は、前記検出部によって検出される前記観察者の両眼の位置から前記表示面に向かう方向を前記表示面を含む平面に投影した観察方向を特定し、特定した前記観察方向と、所定の基準方向との角度に応じて、前記合成画像の表示位置を制御することが好ましい。
 この構成によれば、検出部は、観察者の両眼の位置を検出する。画像制御部は、検出部によって検出される観察者の両眼の位置から表示面に向かう方向を表示面を含む平面に投影した観察方向を特定し、特定した観察方向と、所定の基準方向との角度に応じて、合成画像の表示位置を制御する。
 したがって、観察者の両眼の位置から表示面に向かう方向を表示面を含む平面に投影した観察方向と、所定の基準方向との角度に応じて、合成画像の表示位置が制御されるので、表示部の表示面に対する観察者の向きに応じた合成画像を適切に表示することができる。
 また、上記の表示装置において、前記分離部は、前記表示部からの前記映像光を透過するスリット部と、前記映像光を遮蔽する遮蔽部とからなるバリアパターンを有し、前記観察方向と前記基準方向との角度の変化に応じて変化する前記合成画像の向きに対応して、前記バリアパターンを変化させるバリアパターン制御部をさらに備えることが好ましい。
 この構成によれば、分離部は、表示部からの映像光を透過するスリット部と、映像光を遮蔽する遮蔽部とからなるバリアパターンを有する。バリアパターン制御部は、観察方向と基準方向との角度の変化に応じて変化する合成画像の向きに対応して、バリアパターンを変化させる。
 したがって、観察方向と基準方向との角度の変化に応じて変化する合成画像の向きに対応して、バリアパターンが変化するので、観察者が観察する方向が変わったとしても、観察者は確実に立体視することができる。
 また、上記の表示装置において、前記基準方向は、前記表示面の複数の辺のうちの1つの基準辺に垂直な方向であり、前記画像制御部は、前記観察方向と前記基準方向との角度が0度である場合、前記合成画像の下辺を前記基準辺に一致させ、前記観察方向と前記基準方向との角度が所定の角度である場合、前記合成画像の下辺を前記基準辺から前記所定の角度回転させることが好ましい。
 この構成によれば、基準方向は、表示面の複数の辺のうちの1つの基準辺に垂直な方向である。画像制御部は、観察方向と基準方向との角度が0度である場合、合成画像の下辺を基準辺に一致させ、観察方向と基準方向との角度が所定の角度である場合、合成画像の下辺を基準辺から所定の角度回転させる。
 したがって、観察方向と基準方向との角度が0度である場合、合成画像の下辺が基準辺に一致し、観察方向と基準方向との角度が所定の角度である場合、合成画像の下辺が基準辺から所定の角度回転するように、合成画像を表示することができ、表示部の表示面に対する観察者の向きに応じた合成画像を適切に表示することができる。
 また、上記の表示装置において、前記所定の角度は、90度、180度又は270度であることが好ましい。
 この構成によれば、画像制御部は、観察方向と基準方向との角度が0度である場合、合成画像の下辺を基準辺に一致させ、観察方向と基準方向との角度が90度である場合、合成画像の下辺を基準辺から90度回転させ、観察方向と基準方向との角度が180度である場合、合成画像の下辺を基準辺から180度回転させ、観察方向と基準方向との角度が270度である場合、合成画像の下辺を基準辺から270度回転させる。
 したがって、観察方向と基準方向との角度が0度、90度、180度及び270度である場合、表示部の表示面に対する観察者の向きに応じた合成画像を適切に表示することができる。
 また、上記の表示装置において、前記画像制御部は、前記観察方向と前記基準方向との角度が0度、90度、180度及び270度以外の角度である場合、前記第1の画像及び前記第2の画像のいずれか一方のみを前記表示部に表示させることが好ましい。
 この構成によれば、画像制御部は、観察方向と基準方向との角度が0度、90度、180度及び270度以外の角度である場合、第1の画像及び第2の画像のいずれか一方のみを表示部に表示させる。したがって、観察方向と基準方向との角度が0度、90度、180度及び270度以外の角度である場合、立体的に映像を表示するのではなく、2次元的に映像を表示することができる。
 また、上記の表示装置において、前記分離部は、前記表示部からの前記映像光を透過するスリット部と、前記映像光を遮蔽する遮蔽部とからなるバリアパターンを有し、前記観察方向と前記基準方向との角度が0度、90度、180度及び270度以外の角度である場合、前記バリアパターンを前記分離部の全面に形成せずに、前記映像光を全て透過させるバリアパターン制御部をさらに備えることが好ましい。
 この構成によれば、分離部は、表示部からの映像光を透過するスリット部と、映像光を遮蔽する遮蔽部とからなるバリアパターンを有する。バリアパターン制御部は、観察方向と基準方向との角度が0度、90度、180度及び270度以外の角度である場合、バリアパターンを分離部の全面に形成せずに、映像光を全て透過させる。
 したがって、観察方向と基準方向との角度が0度、90度、180度及び270度以外の角度である場合、バリアパターンを分離部の全面に形成せずに、映像光を全て透過させるので、より解像度の高い2次元的な映像を表示することができる。
 また、上記の表示装置において、前記基準方向は、前記表示面の複数の辺のうちの1つの基準辺に垂直な方向であり、前記画像制御部は、前記観察方向と前記基準方向との角度が0度±20度の第1の範囲、90度±20度の第2の範囲、180度±20度の第3の範囲及び270度±20度の第4の範囲内である場合、前記合成画像を前記表示部に表示させ、前記観察方向と前記基準方向との角度が前記第1の範囲、前記第2の範囲、前記第3の範囲及び前記第4の範囲外である場合、前記第1の画像及び前記第2の画像のいずれか一方のみを前記表示部に表示させることが好ましい。
 この構成によれば、基準方向は、表示面の複数の辺のうちの1つの基準辺に垂直な方向である。画像制御部は、観察方向と基準方向との角度が0度±20度の第1の範囲、90度±20度の第2の範囲、180度±20度の第3の範囲及び270度±20度の第4の範囲内である場合、合成画像を表示部に表示させ、観察方向と基準方向との角度が第1の範囲、第2の範囲、第3の範囲及び第4の範囲外である場合、第1の画像及び第2の画像のいずれか一方のみを表示部に表示させる。
 したがって、観察方向と基準方向との角度が0度、90度、180度及び270度からずれたとしても、ずれ量が所定の範囲内であれば観察者は立体視することができる。
 また、上記の表示装置において、前記検出部は、前記観察者の両眼の位置を検出し、前記画像制御部は、前記検出部によって検出される前記観察者の両眼の位置から前記表示面に向かう方向を特定し、特定した前記方向における前記観察者の両眼の位置情報と、前記分離部の位置情報とに応じて、前記合成画像の表示位置を制御することが好ましい。
 この構成によれば、検出部は、観察者の両眼の位置を検出する。画像制御部は、検出部によって検出される観察者の両眼の位置から表示面に向かう方向を特定し、特定した方向における観察者の両眼の位置情報と、分離部の位置情報とに応じて、合成画像の表示位置を制御する。
 したがって、観察者の垂直方向の位置の変化に応じて、合成画像の表示位置を変化させることができる。
 なお、発明を実施するための形態の項においてなされた具体的な実施態様または実施例は、あくまでも、本発明の技術内容を明らかにするものであって、そのような具体例にのみ限定して狭義に解釈されるべきものではなく、本発明の精神と特許請求事項との範囲内で、種々変更して実施することができるものである。
 本発明に係る表示装置は、観察者の位置に応じて合成画像を表示することができ、テレビ、コンピュータ、デジタルサイネージ、ゲーム機及び医療機器等の分野において、立体的に情報を表示する表示装置として有用であり、特にモバイルタブレット及びテーブルディスプレイ等に有用である。

Claims (12)

  1.  第1の画像と、前記第1の画像とは異なる第2の画像とが合成された合成画像を表示するための映像光を出射する表示面を含む表示部と、
     前記映像光を、前記第1の画像を表す第1の映像光と、前記第2の画像を表す第2の映像光とに分離する分離部と、
     前記合成画像を観察する観察者の位置を検出する検出部と、
     前記検出部によって検出された前記観察者の位置に応じて、前記合成画像の向きを制御する画像制御部とを備えることを特徴とする表示装置。
  2.  前記合成画像は、第1の画像領域と、前記観察者が第1の位置に存在する場合に前記第1の画像領域と前記観察者との間に表示される第2の画像領域とを含み、
     前記画像制御部は、前記検出部によって前記観察者が前記第1の位置とは異なる第2の位置に存在することが検知された場合、前記第1の画像領域と前記第2の位置に存在する観察者との間に前記第2の画像領域が表示されるように前記合成画像の向きを制御することを特徴とする請求項1記載の表示装置。
  3.  前記第1の画像は、左眼で観察される左画像であり、
     前記第2の画像は、右眼で観察される右画像であり、
     前記分離部は、前記左画像を表す左映像光を前記左眼に入射させるとともに、前記右画像を表す右映像光を前記右眼に入射させるように、前記映像光を分離することを特徴とする請求項1又は2記載の表示装置。
  4.  前記検出部は、複数の観察者の位置を検出し、
     前記画像制御部は、前記複数の観察者の数に応じて前記表示面を複数の表示領域に分割し、前記検出部によって検出された前記複数の観察者の位置に応じて、前記複数の表示領域のそれぞれにおいて前記合成画像の向きを制御することを特徴とする請求項1~3のいずれかに記載の表示装置。
  5.  前記検出部は、前記観察者の両眼の位置を検出し、
     前記画像制御部は、前記検出部によって検出される前記観察者の両眼の位置から前記表示面に向かう方向を前記表示面を含む平面に投影した観察方向を特定し、特定した前記観察方向と、所定の基準方向との角度に応じて、前記合成画像の表示位置を制御することを特徴とする請求項1~4のいずれかに記載の表示装置。
  6.  前記分離部は、前記表示部からの前記映像光を透過するスリット部と、前記映像光を遮蔽する遮蔽部とからなるバリアパターンを有し、
     前記観察方向と前記基準方向との角度の変化に応じて変化する前記合成画像の向きに対応して、前記バリアパターンを変化させるバリアパターン制御部をさらに備えることを特徴とする請求項5記載の表示装置。
  7.  前記基準方向は、前記表示面の複数の辺のうちの1つの基準辺に垂直な方向であり、
     前記画像制御部は、前記観察方向と前記基準方向との角度が0度である場合、前記合成画像の下辺を前記基準辺に一致させ、前記観察方向と前記基準方向との角度が所定の角度である場合、前記合成画像の下辺を前記基準辺から前記所定の角度回転させることを特徴とする請求項5又は6記載の表示装置。
  8.  前記所定の角度は、90度、180度又は270度であることを特徴とする請求項7記載の表示装置。
  9.  前記画像制御部は、前記観察方向と前記基準方向との角度が0度、90度、180度及び270度以外の角度である場合、前記第1の画像及び前記第2の画像のいずれか一方のみを前記表示部に表示させることを特徴とする請求項7記載の表示装置。
  10.  前記分離部は、前記表示部からの前記映像光を透過するスリット部と、前記映像光を遮蔽する遮蔽部とからなるバリアパターンを有し、
     前記観察方向と前記基準方向との角度が0度、90度、180度及び270度以外の角度である場合、前記バリアパターンを前記分離部の全面に形成せずに、前記映像光を全て透過させるバリアパターン制御部をさらに備えることを特徴とする請求項9記載の表示装置。
  11.  前記基準方向は、前記表示面の複数の辺のうちの1つの基準辺に垂直な方向であり、
     前記画像制御部は、前記観察方向と前記基準方向との角度が0度±20度の第1の範囲、90度±20度の第2の範囲、180度±20度の第3の範囲及び270度±20度の第4の範囲内である場合、前記合成画像を前記表示部に表示させ、前記観察方向と前記基準方向との角度が前記第1の範囲、前記第2の範囲、前記第3の範囲及び前記第4の範囲外である場合、前記第1の画像及び前記第2の画像のいずれか一方のみを前記表示部に表示させることを特徴とする請求項5記載の表示装置。
  12.  前記検出部は、前記観察者の両眼の位置を検出し、
     前記画像制御部は、前記検出部によって検出される前記観察者の両眼の位置から前記表示面に向かう方向を特定し、特定した前記方向における前記観察者の両眼の位置情報と、前記分離部の位置情報とに応じて、前記合成画像の表示位置を制御することを特徴とする請求項1~4のいずれかに記載の表示装置。
PCT/JP2012/008172 2011-12-21 2012-12-20 表示装置 WO2013094211A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201280063344.6A CN104054334B (zh) 2011-12-21 2012-12-20 显示装置
US14/366,877 US9883176B2 (en) 2011-12-21 2012-12-20 Display device
JP2013550128A JP6200328B2 (ja) 2011-12-21 2012-12-20 表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011280395 2011-12-21
JP2011-280395 2011-12-21

Publications (1)

Publication Number Publication Date
WO2013094211A1 true WO2013094211A1 (ja) 2013-06-27

Family

ID=48668128

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/008172 WO2013094211A1 (ja) 2011-12-21 2012-12-20 表示装置

Country Status (4)

Country Link
US (1) US9883176B2 (ja)
JP (1) JP6200328B2 (ja)
CN (1) CN104054334B (ja)
WO (1) WO2013094211A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103813153A (zh) * 2014-01-27 2014-05-21 北京乐成光视科技发展有限公司 一种基于加权求和的裸眼3d多视点图像合成方法
CN107665070A (zh) * 2016-07-29 2018-02-06 卡西欧计算机株式会社 显示装置、显示控制方法以及存储介质
JP2020017935A (ja) * 2018-07-27 2020-01-30 京セラ株式会社 表示装置、表示システムおよび移動体

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103676302B (zh) * 2013-12-31 2016-04-06 京东方科技集团股份有限公司 实现2d/3d显示切换的阵列基板、显示装置及方法
EP3035326B1 (en) * 2014-12-19 2019-07-17 Alcatel Lucent Encoding, transmission , decoding and displaying of oriented images
CN105093544B (zh) * 2015-08-12 2017-06-30 京东方科技集团股份有限公司 显示装置
KR20170044387A (ko) * 2015-10-15 2017-04-25 삼성전자주식회사 영상 투사 장치, 그의 영상 보정 방법 및 비일시적 컴퓨터 판독가능 기록매체
US11002958B2 (en) 2017-08-24 2021-05-11 International Business Machines Corporation Dynamic control of parallax barrier configuration
EP3723366B1 (en) * 2017-12-05 2024-05-01 University of Tsukuba Image display device, image display method, and image display system
CN112929642A (zh) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 人眼追踪装置、方法及3d显示设备、方法
US20230421749A1 (en) * 2022-06-23 2023-12-28 Apple Inc. Displays with Viewer Tracking for Vertical Parallax Correction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028263A (ja) * 2010-07-09 2011-02-10 Nec Casio Mobile Communications Ltd 電子機器、および、プログラム
JP2011054069A (ja) * 2009-09-04 2011-03-17 Sharp Corp 表示装置及びプログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001296501A (ja) * 2000-04-12 2001-10-26 Nippon Hoso Kyokai <Nhk> 立体画像表示制御方法および装置
AU2001287574A1 (en) 2000-06-30 2002-01-08 Ingenium Pharmaceuticals Ag Human g protein-coupled receptor igpcr20, and uses thereof
DE10359403B4 (de) * 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
US20070247590A1 (en) * 2004-08-10 2007-10-25 Seereal Technologies Gmbh Autostereoscopic Multi-User Display with Directed Illumination
RU2322771C2 (ru) 2005-04-25 2008-04-20 Святослав Иванович АРСЕНИЧ Стереопроекционная система
US20070260675A1 (en) * 2006-05-08 2007-11-08 Forlines Clifton L Method and system for adapting a single-client, single-user application to a multi-user, multi-client environment
JP2010109414A (ja) 2008-10-28 2010-05-13 Seiko Epson Corp 表示装置、および電子機器、並びに視差画像データの表示方法
JP4691697B2 (ja) 2009-01-27 2011-06-01 Necカシオモバイルコミュニケーションズ株式会社 電子機器、および、プログラム
KR101324440B1 (ko) * 2009-02-11 2013-10-31 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
JP2010237347A (ja) 2009-03-31 2010-10-21 Hitachi Ltd 投射型表示装置
JP5332978B2 (ja) 2009-07-07 2013-11-06 ソニー株式会社 立体表示装置
JP5336285B2 (ja) 2009-07-21 2013-11-06 富士フイルム株式会社 立体画像表示装置、方法およびプログラムならびに撮像装置
KR101255708B1 (ko) * 2009-07-31 2013-04-17 엘지디스플레이 주식회사 입체영상 표시장치
RU2524834C2 (ru) * 2009-10-14 2014-08-10 Нокиа Корпорейшн Устройство для автостереоскопического рендеринга и отображения
US20110234605A1 (en) * 2010-03-26 2011-09-29 Nathan James Smith Display having split sub-pixels for multiple image display functions
JP5045826B2 (ja) * 2010-03-31 2012-10-10 ソニー株式会社 光源デバイスおよび立体表示装置
JP5631329B2 (ja) * 2010-04-21 2014-11-26 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 立体映像表示装置、立体映像表示方法
JP5776967B2 (ja) * 2010-06-11 2015-09-09 Nltテクノロジー株式会社 画像表示装置、画像表示装置の駆動方法、端末装置
EP2418865A3 (en) * 2010-08-09 2014-08-06 LG Electronics Inc. 3D viewing device, image display apparatus, and method for operating the same
US8502816B2 (en) * 2010-12-02 2013-08-06 Microsoft Corporation Tabletop display providing multiple views to users
KR101652400B1 (ko) * 2010-12-07 2016-08-31 삼성전자주식회사 다시점 3차원 디스플레이 장치
US8988336B2 (en) * 2010-12-16 2015-03-24 3M Innovative Properties Company Dual-orientation autostereoscopic backlight and display
US10042546B2 (en) * 2011-01-07 2018-08-07 Qualcomm Incorporated Systems and methods to present multiple frames on a touch screen
TW201232039A (en) * 2011-01-28 2012-08-01 Chunghwa Picture Tubes Ltd Stereoscopic display device with changeable barrier patterns
US20130033490A1 (en) * 2011-08-04 2013-02-07 Texas Instruments Incorporated Method, System and Computer Program Product for Reorienting a Stereoscopic Image
US9898866B2 (en) * 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054069A (ja) * 2009-09-04 2011-03-17 Sharp Corp 表示装置及びプログラム
JP2011028263A (ja) * 2010-07-09 2011-02-10 Nec Casio Mobile Communications Ltd 電子機器、および、プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103813153A (zh) * 2014-01-27 2014-05-21 北京乐成光视科技发展有限公司 一种基于加权求和的裸眼3d多视点图像合成方法
CN103813153B (zh) * 2014-01-27 2015-12-30 万象三维视觉科技(北京)有限公司 一种基于加权求和的裸眼3d多视点图像合成方法
CN107665070A (zh) * 2016-07-29 2018-02-06 卡西欧计算机株式会社 显示装置、显示控制方法以及存储介质
JP2020017935A (ja) * 2018-07-27 2020-01-30 京セラ株式会社 表示装置、表示システムおよび移動体
US11343484B2 (en) 2018-07-27 2022-05-24 Kyocera Corporation Display device, display system, and movable vehicle
JP7100523B2 (ja) 2018-07-27 2022-07-13 京セラ株式会社 表示装置、表示システムおよび移動体

Also Published As

Publication number Publication date
US20140313298A1 (en) 2014-10-23
CN104054334A (zh) 2014-09-17
CN104054334B (zh) 2017-05-24
JPWO2013094211A1 (ja) 2015-04-27
US9883176B2 (en) 2018-01-30
JP6200328B2 (ja) 2017-09-20

Similar Documents

Publication Publication Date Title
JP6200328B2 (ja) 表示装置
EP1662808B1 (en) Barrier device and stereoscopic image display using the same
KR100658545B1 (ko) 입체 화상 재생 장치
US9521403B2 (en) Display device and electronic apparatus
JP6154323B2 (ja) 映像表示装置
JP4576131B2 (ja) 立体的二次元画像表示装置及び立体的二次元画像表示方法
JP6278323B2 (ja) 自動立体ディスプレイの製造方法
JP5762998B2 (ja) 表示装置および電子機器
TW201118425A (en) Display device and method for image control
WO2012070103A1 (ja) 立体画像表示装置および方法
TW201303367A (zh) 立體影像顯示裝置及其驅動方法
US20120218258A1 (en) Display apparatus
US8629945B2 (en) 3D liquid crystal display system
JP2016099621A (ja) 画像システム
JP4975256B2 (ja) 立体映像呈示装置
KR100953747B1 (ko) 다시점 입체영상 디스플레이 장치 및 방법
US20050012814A1 (en) Method for displaying multiple-view stereoscopic images
KR101471654B1 (ko) 변형 델타 화소구조를 갖는 3차원 영상표시장치
TWI500314B (zh) A portrait processing device, a three-dimensional portrait display device, and a portrait processing method
JP3789901B2 (ja) 立体映像表示装置の調整方法及びそれを用いた立体表示システム
JPH10336706A (ja) 立体表示装置
KR101190050B1 (ko) 입체영상 표시장치 및 그 구동 방법
JP4856775B2 (ja) 立体映像呈示装置
KR102279277B1 (ko) 다수의 시청자에게 최적의 3d을 제공할 수 있는 입체영상표시장치 및 입체영상 표시방법
JP2012242544A (ja) 表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12859383

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013550128

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14366877

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12859383

Country of ref document: EP

Kind code of ref document: A1