WO2012131887A1 - 三次元映像表示装置 - Google Patents

三次元映像表示装置 Download PDF

Info

Publication number
WO2012131887A1
WO2012131887A1 PCT/JP2011/057732 JP2011057732W WO2012131887A1 WO 2012131887 A1 WO2012131887 A1 WO 2012131887A1 JP 2011057732 W JP2011057732 W JP 2011057732W WO 2012131887 A1 WO2012131887 A1 WO 2012131887A1
Authority
WO
WIPO (PCT)
Prior art keywords
sub
pixel
width
pixel region
image display
Prior art date
Application number
PCT/JP2011/057732
Other languages
English (en)
French (fr)
Inventor
福島 理恵子
平山 雄三
徳裕 中村
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to EP11813860.1A priority Critical patent/EP2696233A4/en
Priority to CN201180002445.8A priority patent/CN102822724B/zh
Priority to JP2011546367A priority patent/JP5342017B2/ja
Priority to KR1020117030062A priority patent/KR101290908B1/ko
Priority to PCT/JP2011/057732 priority patent/WO2012131887A1/ja
Priority to TW100133442A priority patent/TWI452340B/zh
Priority to US13/404,637 priority patent/US9237335B2/en
Publication of WO2012131887A1 publication Critical patent/WO2012131887A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics

Definitions

  • Embodiment relates to a 3D video display device.
  • 3D video display devices capable of displaying moving images
  • 3D displays In recent years, it has been desired to develop a three-dimensional display that is a flat panel type and does not require special glasses.
  • a direct-view or projection-type liquid crystal display device or plasma display device or the like is provided immediately before a display panel (display device) in which the pixel position is fixed.
  • a light beam control element is installed and the direction of light beam emitted from the display panel is controlled to be directed to an observer.
  • the light beam control element in this system has a function of controlling light beams so that different images can be seen depending on the viewing angle even if the same part on the light beam control element is viewed.
  • a parallax an array of slits (parallax barrier) or an array of kamaboko lenses (lenticular sheet) is used as a light beam control element
  • vertical parallax vertical parallax
  • a pinhole array or a lens array is used as the light beam control element.
  • the three-dimensional display system using the light control element further includes a binocular system, a multi-view system, a super multi-view system (multi-view super multi-view condition), and an integral imaging system (hereinafter also simply referred to as II). And so on.
  • binocular system binocular parallax is given to both eyes at a predetermined observation position (viewpoint position), and stereoscopic viewing is observed.
  • a multi-view type, super multi-view type, or the like (simply referred to as a multi-view type), a plurality of viewpoint positions are used so that the visible range is widened and the side surface can be seen (giving motion parallax). .
  • the II system was invented about 100 years ago and is based on the principle of integral photography (IP) applied to 3D photography.
  • IP integral photography
  • the II system 3D image display apparatus is known from Patent Document 1 below. It has been.
  • a three-dimensional image observed by the multi-view method or the II method is called a three-dimensional image to distinguish it from a binocular three-dimensional image because there is a motion parallax to some extent.
  • a method of designing assuming a viewpoint position is generally adopted.
  • the viewpoint position is limited in the method of designing by assuming the viewpoint position in this way.
  • the viewing zone is slightly narrowed. Therefore, it is desired that the displayed image is devised to eliminate the restriction of the viewpoint position and to ensure the maximum viewing zone.
  • a display unit in which sub-pixels are arranged in a matrix along a first direction and a second direction orthogonal to the first direction;
  • a light beam control element that is installed facing the display unit and controls light beams from the display unit, wherein the light beam control elements are provided in a matrix in the first and second directions.
  • Either a type of optical aperture or a plurality of second type optical apertures extending substantially linearly along the second direction and arranged along the first direction A configured light beam control element;
  • a three-dimensional image display device capable of visually recognizing a three-dimensional image at an observation position by displaying parallax image information observed via the optical aperture on the sub-pixels.
  • Determining a sub-pixel region assigned to the optical aperture according to the observation position Identifying a sub-pixel segment that is included in the sub-pixel area and that divides the sub-pixel at a boundary between the sub-pixel areas adjacent to each other;
  • the sub-pixels constituting the sub-pixel segments that correspond to the mutually adjacent sub-pixel areas and are observed through the optical openings adjacent to each other are mixed with disparity information belonging to the mutually adjacent sub-pixel areas.
  • FIG. 1 is a perspective view schematically showing a structure of a three-dimensional image display device capable of observing a three-dimensional image by the naked eye type (glasses-free type) according to the embodiment.
  • FIG. 2 is a schematic diagram schematically showing a ray trajectory through which a three-dimensional image can be observed in a general three-dimensional image display device.
  • FIG. 3 is a schematic diagram according to the first comparative example of the multi-view system for explaining that the three-dimensional image display apparatus shown in FIG. 2 observes a three-dimensional image.
  • FIG. 4 is a schematic diagram according to the second comparative example of the II system for explaining that the three-dimensional image display apparatus shown in FIG. 2 observes a three-dimensional image.
  • FIG. 1 is a perspective view schematically showing a structure of a three-dimensional image display device capable of observing a three-dimensional image by the naked eye type (glasses-free type) according to the embodiment.
  • FIG. 2 is a schematic diagram schematically showing a ray trajectory
  • FIG. 5 is a schematic diagram schematically showing a ray trajectory in the II type three-dimensional image display apparatus of FIG.
  • FIG. 6 is a schematic diagram according to the third comparative example of the II system for explaining that the three-dimensional image display apparatus shown in FIG. 2 observes a three-dimensional image.
  • FIG. 7 is a schematic diagram according to the third comparative example of the II system for explaining that the three-dimensional image display apparatus shown in FIG. 6 observes a three-dimensional image.
  • FIG. 8 is a schematic diagram showing the relationship between the sub-pixel and the opening pitch according to the first or second comparative example.
  • FIG. 9 is a schematic diagram for explaining the distribution of sub-pixels according to the third comparative example.
  • FIG. 10 is a schematic diagram for explaining sub-pixel allocation applied to the 3D image display apparatus according to this embodiment and sub-pixel information given to the allocated sub-pixels.
  • FIG. 11 is a schematic diagram for explaining the distribution of sub-pixels applied to the 3D image display apparatus according to this embodiment and the sub-pixel information given to the allocated sub-pixels.
  • FIG. 12A is a schematic diagram showing a sub-pixel region in a horizontal plane when an observer is positioned on a reference plane determined by a certain viewing distance in the three-dimensional image display device according to this embodiment.
  • FIG. 12B is a schematic diagram showing a sub-pixel region in the vertical plane when the observer is positioned on a reference plane determined by a certain viewing distance in the three-dimensional image display apparatus according to this embodiment.
  • FIG. 12A is a schematic diagram showing a sub-pixel region in a horizontal plane when an observer is positioned on a reference plane determined by a certain viewing distance in the three-dimensional image display device according to this embodiment.
  • FIG. 12C is a schematic diagram showing a display panel and a certain sub-pixel area displayed on the display panel when an observer is positioned as shown in FIGS. 12A and 12B.
  • FIG. 13A is a schematic diagram showing a sub-pixel region in a horizontal plane when an observer is located farther than the viewing distance of FIG. 12 in the three-dimensional image display device according to this embodiment.
  • FIG. 13B is a schematic diagram showing the sub-pixel region in the vertical plane when the observer is positioned farther than the viewing distance of FIG. 12 in the three-dimensional image display device according to this embodiment.
  • FIG. 13C is a schematic diagram showing a display panel when an observer is positioned as shown in FIGS. 13A and 13B, and a certain sub-pixel region that is expanded and displayed on the display panel.
  • FIG. 14A is a schematic diagram showing a sub-pixel region in a horizontal plane when an observer is shifted on a reference plane defined by the viewing distance in FIG. 12 in the three-dimensional image display device according to this embodiment.
  • FIG. 14B is a schematic diagram showing the sub-pixel region in the vertical plane when the observer is shifted on the reference plane determined by the viewing distance of FIG. 12 in the three-dimensional image display apparatus according to this embodiment. is there.
  • FIG. 14C is a schematic diagram showing a certain sub-pixel region that is shifted and displayed on the display panel when the observer is shifted on the reference plane as shown in FIGS. 14A and 14B.
  • FIG. 14A is a schematic diagram showing a sub-pixel region in a horizontal plane when an observer is shifted on a reference plane defined by the viewing distance in FIG. 12 in the three-dimensional image display device according to this embodiment.
  • FIG. 14B is a schematic diagram showing the sub-pixel region in the vertical plane when the observer is shifted on the reference plane determined
  • FIG. 15 is a perspective view schematically showing a structure of a three-dimensional image display apparatus capable of observing a three-dimensional image with a naked eye type (glassesless type) according to another embodiment.
  • FIG. 16A is a schematic diagram illustrating a sub-pixel region in a horizontal plane when the observer is positioned on a reference plane defined by a certain viewing distance in the three-dimensional image display device illustrated in FIG. 15.
  • FIG. 16B is a schematic diagram showing a sub-pixel region in the vertical plane when the observer is positioned on a reference plane determined by a certain viewing distance in the three-dimensional image display apparatus shown in FIG.
  • FIG. 16C is a schematic diagram showing a display panel when an observer is positioned as shown in FIGS.
  • FIG. 17A is a schematic diagram showing a sub-pixel region in a horizontal plane when the observer is located farther from the reference plane defined by the viewing distance of FIG. 16 in the three-dimensional image display device shown in FIG. is there.
  • FIG. 17B is a schematic diagram illustrating a sub-pixel region in the vertical plane when the observer is located farther from the reference plane defined by the viewing distance in FIG. 16 in the three-dimensional image display apparatus illustrated in FIG. It is.
  • FIG. 17C is a schematic diagram illustrating a display panel when an observer is positioned as illustrated in FIGS. 17A and 17B and a certain sub-pixel region that is expanded and displayed on the display panel.
  • FIG. 18A is a schematic diagram illustrating a sub-pixel region in the vertical plane when the observer approaches the display panel rather than the reference plane determined by the viewing distance in FIG. 16 in the three-dimensional image display apparatus illustrated in FIG. It is.
  • FIG. 18B is a schematic diagram illustrating a certain sub-pixel region in which the display region is changed on the display panel when the observer is positioned as illustrated in FIG. 18A.
  • FIG. 19A is a schematic diagram illustrating a sub-pixel region in a horizontal plane when the observer is shifted on the reference plane determined by the viewing distance in FIG. 16 in the three-dimensional image display device illustrated in FIG. .
  • FIG. 19A is a schematic diagram illustrating a sub-pixel region in a horizontal plane when the observer is shifted on the reference plane determined by the viewing distance in FIG. 16 in the three-dimensional image display device illustrated in FIG. .
  • FIG. 19B is a schematic diagram showing a sub-pixel region in the vertical plane when the observer is shifted on the reference plane determined by the viewing distance of FIG. 16 in the three-dimensional image display apparatus shown in FIG. is there.
  • FIG. 19C is a schematic diagram showing a certain sub-pixel region that is shifted and displayed on the display panel when the observer is shifted on the reference plane as shown in FIGS. 19A and 19B.
  • 20A is a schematic diagram illustrating a sub-pixel region in a horizontal plane when the observer is shifted on the reference plane determined by the viewing distance in FIG. 16 in the three-dimensional image display apparatus illustrated in FIG. .
  • FIG. 20B is a schematic diagram showing a sub-pixel region in the vertical plane when the observer is shifted on the reference plane determined by the viewing distance in FIG. 16 in the three-dimensional image display device shown in FIG. is there.
  • FIG. 20C is a schematic diagram showing a certain sub-pixel region that is shifted and displayed on the display panel when the observer is shifted on the reference plane as shown in FIGS. 20A and 20B.
  • 21A is a schematic diagram showing sub-pixel regions in the vertical plane when the observer shifts in the vertical direction on the reference plane determined by the viewing distance in FIG. 16 in the three-dimensional image display apparatus shown in FIG. is there.
  • FIG. 20B is a schematic diagram showing a sub-pixel region in the vertical plane when the observer is shifted on the reference plane determined by the viewing distance in FIG. 16 in the three-dimensional image display apparatus shown in FIG. is there.
  • FIG. 21B is a schematic diagram showing a certain sub-pixel region in which the display region is changed on the display panel when the observer is shifted as shown in FIG. 21A.
  • FIG. 22 is a schematic diagram showing a sub-pixel area of the display panel in the three-dimensional image display apparatus shown in FIG. 15 and a ratio of pixel information in the sub-pixel area being mixed.
  • FIG. 23 is a block diagram schematically showing an image processing unit of the display panel driver according to the embodiment of the three-dimensional image display device shown in FIGS. 1 and 15.
  • FIG. 24 is a block diagram schematically showing an image processing unit of a display panel driver according to another embodiment of the three-dimensional image display device shown in FIGS.
  • FIG. 1 schematically shows the structure of a three-dimensional image display device capable of observing a three-dimensional image by a general autostereoscopic method (glasses-free method), that is, a multi-eye method or an II method.
  • the three-dimensional image display device includes a display panel (two-dimensional image display device) 1 having a fixed pixel position, such as a direct-view or projection-type liquid crystal display device or plasma display device.
  • the light beam control element 2 is installed with a gap (gap) g immediately before, and the whole is configured as a flat panel type. In this flat panel type three-dimensional image display device, a light beam is emitted from the display panel 1, and the light emission direction is controlled by the light beam control element 2 and directed toward the observer.
  • the display panel 1 has sub-pixels (RGB sub-pixels) arranged in a matrix (matrix).
  • the light beam control element 2 has a plurality of sub-pixels on the back surface of the optical aperture 3 so that different images can be seen depending on the viewing angle even when the same position on the light beam control element is viewed.
  • a sub-pixel region 4 composed of pixels is provided.
  • V1a, V1b, and V1c different sub-pixels are visually recognized via the optical aperture 3 according to the observation position, and the observer responds to the observation position via the light beam control element 2.
  • the three-dimensional image can be observed in front of or behind the display device.
  • the display image does not change even when the observation position changes, and a two-dimensional image can be observed.
  • the viewing area of such a three-dimensional image display device is a range in which a display image corresponding to the observation position can be visually recognized with respect to all the optical apertures 3, that is, the sub-pixel region via the optical aperture 3 4 is defined as a range 6 in which the viewing zones where observation is performed are overlapped. That is, when the sub-pixel area 4 is determined, the viewing area of the three-dimensional image display device is determined.
  • a lenticular sheet is used as the light beam control element 2.
  • the lenticular sheet is composed of an array of kamaboko lenses.
  • Each kamaboko lens can be referred to as an optical opening 3 in terms of physico-optics because it controls the light beam and allows its passage.
  • the plurality of kamaboko lenses (optical openings 3) extend linearly in a substantially second direction, more specifically in a substantially vertical direction (a direction corresponding to the short side of the flat panel in FIG. 1). More specifically, along the first direction (the direction corresponding to the long side of the flat panel in FIG. 1) in which the plurality of kamaboko lenses (optical openings 3) are orthogonal to the second direction, They are arranged in an array along the horizontal direction.
  • a slit array may be employed as a parallax barrier which is also the optical opening 3 instead of the lenticular sheet.
  • slits as the optical openings 3 are linearly extended in the second direction, more specifically in a substantially vertical direction, and the plurality of slits are in the first direction. More specifically, they are arranged in an array along the horizontal direction.
  • a plurality of light beam control elements are provided.
  • a pinhole array in which a plurality of pinholes (optical openings 3) are arranged or a lens array in which a plurality of lens segments (optical openings 3) are arranged is used.
  • the provision of vertical parallax using a pinhole array or lens array is the same as the provision of horizontal parallax. Therefore, in the following description, the explanation of the provision of horizontal parallax is also the same as the explanation of the provision of vertical parallax. Description is omitted.
  • 1 and 2 can display a 3D image by an II system or a multi-view system.
  • the design method and the image display method are different as described below in the multi-view method described with reference to FIG. 3 or the II method described with reference to FIGS. I want.
  • the multi-view system does not mean only a multi-view system, but in addition to the multi-view system other than the 2-view system, the super multi-view system (the multi-view system has super multi-view conditions).
  • the 3D image display apparatus and the 3D image display method according to this embodiment described with reference to FIGS. 8 to 24 are taken from a plurality of viewpoint positions specified by parallax numbers.
  • a multi-viewpoint image is acquired and converted into pixel information (element image) for 3D video, and the pixel information is given to the sub-pixel area of the display panel 1 and displayed. Therefore, it should be noted that from the viewpoint of displaying this multi-viewpoint image, the present invention can be applied without clearly distinguishing between the multi-view system and the II system. Therefore, it should be noted that the embodiments shown in FIGS. 8 to 24 are described without distinguishing between the multi-view system and the II system.
  • the display panel driver 8 determines the sub-pixel display area 4 according to the position of the observer, generates pixel information to be given to the sub-pixel according to this, gives the pixel information to the pixel area of the display panel 1, and Provides an optimal viewing zone for observing 3D images.
  • the sub-pixel region 4 is determined according to the position of the observer, An optimal viewing area for observing a three-dimensional image can be given to the flat panel 1.
  • the display driver 8 provides the sub-pixel region 4 of the display panel 1 so that the position of the observer by the position sensor 5 becomes the optimum observation position. More specifically, the parallax information specified by the parallax number is given to the sub-pixels in the sub-pixel region, and the optimum image is displayed on the display panel 1. As described later, two parallax information given to the sub-pixels in the adjacent sub-pixel region are mixed and given to the sub-pixel belonging to the boundary of the sub-pixel region.
  • the mixing ratio is determined in accordance with the area or width of two segments generated by dividing the sub-pixel belonging to the boundary of the sub-pixel region so as to belong to the adjacent sub-pixel region.
  • the mixing ratio of one parallax information given to the sub-pixel of the other sub-pixel region becomes zero.
  • the position sensor 5 is not an essential component of the embodiment, and instead of the position sensor 5, a fixed position (optimum distance from the display panel 1 or observer information) is input from an external device as position information, for example,
  • the image may be given by a remote controller (not shown) of the 3D image display device, and the parallax information specified by the parallax number is given to the sub-pixel of the sub-pixel area according to the input position information, and the optimum image is obtained. It may be displayed on the display panel 1.
  • FIG. 2 shows an example of a ray trajectory in the horizontal plane in the general three-dimensional image display device shown in FIG. 1 by a solid line, and the viewing areas of the optical openings 3 at the center and both ends by a broken line. Yes. As an example, it is drawn because there is a physical pixel at the corresponding position. In the present application, since the sub-pixel area 4 is provided according to the observation position, it corresponds to the sub-pixel area 3. There may or may not be a subpixel at the position. In the three-dimensional image display device shown in FIG. 2, a state is shown in which the optical openings 3 and the sub-pixel regions 4 arranged at a certain opening pitch Pe are arranged in a horizontal plane.
  • the display panel 1 includes a plurality of subpixels (for example, a plurality of R, G, and B subpixels) arranged at a pixel pitch determined by the display panel 1, and corresponds to each optical opening 3.
  • a certain sub-pixel region 4 assigned to a certain optical opening 3 has a certain range adjacent to the adjacent optical openings 3 (the first comparative example 1 and the second comparison example 2).
  • each sub-pixel region 4 is composed of sub-pixels set to an integer n (for example, 5) as shown in FIGS.
  • n for example, 5
  • each sub-pixel region 4 is composed of an integer number n of sub-pixels appearing at a region pitch P corresponding to the opening pitch Pe as shown in FIG.
  • a specific subpixel region 4P composed of (n + 1) subpixels with a certain period or regularity is inserted in the plurality of subpixel regions 4.
  • the sub-pixels at the boundary of the sub-pixel region 4 are part of the sub-pixel (one segment) and the remaining part (the remaining part) so that the viewing area can be expanded as if inserted periodically or regularly. Remaining segments).
  • one of the sub-pixels (one segment) is distributed so as to belong to one sub-pixel region 4, and the remaining part (remaining segment) is distributed so as to belong to the other sub-pixel region 4. . Therefore, as shown in FIG. 9, in this embodiment, the sub-pixel regions 4 are arranged at a constant sub-pixel region pitch P corresponding to the opening pitch Pe (fixed pitch) of the optical openings 3. As will be described with reference to FIGS. 12A to 14C, when the observer is moved (shifted) in a plane substantially parallel to the flat panel 1, the sub-pixel region 4 is relative to the optical opening 3. Shifted.
  • the width of the pitch P of the sub-pixel region 4 is variable depending on the position of the observer. Is done.
  • the ratio of the width of a part (one segment) and the remaining part (remaining segment) of the sub-pixel is set to, for example, 1/4 of the sub-pixel, and the basic number of sub-pixels constituting the sub-pixel is set to Assuming 5, for example, the ratio of the width of a part (one segment) and the remaining part (remaining segment) of a similar subpixel appears for each (5 ⁇ 4 + 1) subpixels at a constant period.
  • FIG. 3 shows a first comparative example 1 of a general multi-lens system for helping understanding of this embodiment.
  • each sub-pixel area 4 is composed of n sub-pixels having a parallax number ( ⁇ 2 to 2), and the area on the display surface of the display panel 1 A normal sub-pixel region 4 composed of n sub-pixels is repeatedly arranged.
  • each dimension is set as follows.
  • the distance g from the display surface of the display panel (display device) 1 to the principal point of the optical aperture 3 (principal point of the lenticular lens) and the viewing area from the principal point of the optical aperture 3 The distance L to the reference plane (view zone plane) is assumed.
  • a group of light beams composed of mutually corresponding light beams emitted from all the optical apertures 3 at a finite distance L are placed in the same region. It is designed to be incident (condensed) with an interval (IPD) or 1 / x times the interocular interval.
  • IPD interval
  • FIG. 2 a group of rays composed of principal rays (indicated by solid lines) passing through the principal point of the optical aperture 3 is collected on the viewing zone reference plane (view zone plane).
  • the viewing zone reference plane (viewing zone plane) is fixed.
  • the observer uses this viewing zone reference plane (viewing plane).
  • the distance Lref is a reference distance to the viewing zone reference plane.
  • the width P is determined to be an integer multiple of the pixel pitch (also corresponding to the pixel width) pp at the distance Lref, in the embodiment, the width P is equal to the pixel pitch (the pixel width). It is not limited to an integral multiple of pp, and is determined by a non-integer multiple.
  • This distance L corresponds to a viewing zone optimization distance, and a method adopting the designs (2) to (4) is called a multi-view method.
  • each sub-pixel region 4 (for example, a sub-pixel having parallax numbers ⁇ 2 to 2 is provided corresponding to each optical opening 3).
  • the sub-pixel area 4 is divided and displayed on the display panel 4 as a sub-pixel area.
  • the pitch Pe of the optical openings 3 is basically set to an integral multiple of the width pp of the sub-pixel.
  • the number of pixels constituting the normal subpixel region 4 and the specific subpixel region 4P is set to n and (n + 1) 2 as in the description of the multi-view method described above.
  • the expression (1) can be satisfied for the finite distance L.
  • (n + 1) pixels are inserted into the repeating area of the normal subpixel area 4 composed of n pixels, and a pair of adjacent singular subpixel areas 4P is formed. They are arranged on the display panel 1 with a certain period or a certain arrangement.
  • the width P of the sub-pixel region is set to P ⁇ n (7)
  • the viewing area is enlarged as compared with FIG. 5 as shown in FIG.
  • Different three-dimensional images can be seen at the observation position in the enlarged viewing zone, as indicated by reference numerals V1d, V1e, and V1f.
  • a method that does not provide a condensing point at the observation distance L (the condensing point is set to infinity as an example) is referred to as an II method in this specification.
  • the multi-view method a light beam group composed of light beams passing through the optical aperture 3 is condensed on the viewing zone reference plane, whereas in the II method, A group of rays composed of rays passing through the optical aperture 3 does not converge on the viewing zone reference plane (when the focal point is set to infinity based on the equation (5), the rays are parallel as shown in FIG.
  • n and (n + 1) are set to two values, that is, set so as to satisfy the equation (6), and the average value P of the sub-pixel region is expressed by the equation (1).
  • the viewing zone angle 2 ⁇ and the viewing zone width VWL at the observation distance L are defined as follows.
  • the opening pitch Pe slightly smaller than the region width P
  • the light rays emitted from the pixels at the observation distance L are condensed.
  • the manner in which this light beam is condensed is shown for the rightmost pixel (parallax image number 2) of the sub-pixel region 4.
  • the sub-pixel to which the same parallax image number, for example, parallax image number 2 is assigned means that it is derived from a single viewpoint image (an image taken from a certain viewpoint).
  • the fact that the same parallax image number is assigned means that the images are taken from the same direction.
  • the fact that the same parallax image number is assigned means that the images are taken from the same position.
  • the intersection in the direction connecting the sub-pixel to which the same parallax image number is assigned and the principal point of the optical aperture 3 basically corresponds to the viewpoint image acquisition position.
  • the intersection point may be intentionally shifted from the acquisition position when various image processing is performed.
  • the light beams having other parallax image numbers are similarly formed at the observation distance L and at the intervals determined by the equation (2).
  • Light rays from the rightmost pixel (parallax image number 2) in the sub-pixel region are incident on the reference plane while maintaining the interval Pe even at the observation distance L.
  • This ray trajectory means that the viewpoint image needs to be acquired with parallel rays.
  • light beams with other parallax image numbers are also incident on the viewing zone reference plane at an observation distance L and at an interval Pe. That is, the range in which the light rays from the lens are incident at the observation distance L are shifted from each other by the distance Pe and are incident on the reference plane.
  • FIG. 7 shows the ray trajectory in which the viewing zone optimization is performed with the same configuration as that in FIG. 4 and the singular sub-pixel region including (n + 1) pixels is inserted as shown in FIG.
  • the direction of the light beam emitted from the sub-pixel region can be shifted on both sides of the singular sub-pixel region 4 composed of (n + 1) pixels.
  • light rays (shown by broken lines) from the right sub-pixel region 4 are more than light rays from the left sub-pixel region 4 of the peculiar sub-pixel region 4 composed of (n + 1) pixels.
  • a state of jetting leftward is shown.
  • the viewing zone can be expanded as shown in FIG.
  • the incident range in which the light rays from the sub-pixel region 4 are incident on the viewing zone reference plane is The distance Pe is shifted one after another by the distance Pe of the optical opening 3.
  • ) of the deviation from the design value (VWL) of the incident position range on the viewing zone reference plane is
  • the optical aperture 3 has a range (pp ⁇ L / g) corresponding to one pixel at the observation distance L. The shift is made in a direction to cancel the shift of the incident range due to the interval Pe. By repeating this shift, the viewing zone can be expanded.
  • one parallax is consumed by shifting the incident range of light rays, and the remaining (n-1) parallax is used as the viewing zone. That is, of the viewing zone width VWL defined by the equation (8), the effective viewing zone is VWL ⁇ (n ⁇ 1) / n.
  • FIGS. 8 to 10 show the width P of the sub-pixel region 4 determined from FIGS. 1 and 1 and the sub-pixel pitch. The relationship with pp is schematically shown.
  • FIG. 8 shows a ray trajectory in a typical image display device in which the width P of the sub-pixel region 4 is an integral multiple of the sub-pixel pitch pp.
  • the boundary of the sub pixel region 4 coincides with the boundary of the sub pixel.
  • Most of the light rays from the sub-pixel region 4 are directed to the opposing optical opening 3 and directed to the viewer through the optical opening 3.
  • All the sub-pixel regions 4 have a corresponding relationship with each of the optical openings 3, and in FIG. 8, the pitch Pe of the optical openings is set slightly smaller than n times the sub-pixel pitch pp. Although it seems that light rays are collected at a finite distance, this does not necessarily coincide with the observation position L.
  • the focal point is set at infinity, so all finite distances correspond to this. In multi-view systems where the focal point is set at a finite distance, This is the distance before that distance).
  • the region width when the width P of the sub-pixel region 4 5.25 (for convenience of description, unitless) and the resulting optical width.
  • the ideal viewing zone for each opening is indicated by a broken line.
  • each sub-pixel region 4 is not composed of an integer number of sub-pixels as shown in FIG. 8, but the region of the display panel 1 is changed to the normal sub-pixel region 4 in FIG.
  • a characteristic as shown by a solid line is realized and brought close to the characteristic shown by a broken line.
  • a sub-pixel region 4 having a non-integer multiple of the sub-pixel width P is divided into five sub-pixels by adding a section (segment) to one sub-pixel, Alternatively, in addition to the four sub-pixels, a part (segment) and a remaining part (remaining segment) of one sub-pixel are used to realize the arrangement at the equal pitch P, that is, the characteristics indicated by the broken line. . Therefore, the viewing zone can be widened at a close distance with higher accuracy than when the singular subpixel region 4P is periodically inserted.
  • the sub-pixel Xa located at the boundary of the sub-pixel region 4 cannot be physically divided any more, but it is assumed that the sub-pixel Xa can be divided (segment), and pixel information to be displayed when the segment exists is segmented.
  • the pixel information mixed at the ratio is given and displayed.
  • the pixel segment that is half the sub-pixel is the sub-pixel region denoted by the symbol 24. Included in 4.
  • the parallax number -2 is assigned.
  • the remaining half pixel segment is included in the adjacent sub-pixel region 4 indicated by reference numeral 23, and parallax image number 3 is assigned thereto.
  • Sb> Sc it is included in one of the sub-pixel regions 23, and when Sb ⁇ Sc, the sub-pixel region 24 is included.
  • the case may be divided by Sb > S and Sb ⁇ Sc).
  • Xa1 belongs to the right sub-pixel region 4 (right).
  • FIG. 10 the above-described embodiment is binarized to determine which sub-pixel region belongs according to the position of the sub-pixel boundary P, whereas the sub-pixel boundary P
  • FIG. 2 is a schematic diagram for generalizing and explaining a method of displaying parallax information belonging to both sub-pixel regions in a ratio corresponding to the position of the sub-pixel region.
  • the method according to the embodiment is applied to a distance L that is shorter than the distance at which the viewing zone determined from the structure is maximized.
  • the subpixel Xa located at the boundary of the subpixel region 4 is in the case where it belongs to each of the two subpixel regions 4 depending on the relative relationship between the boundary of the subpixel region 4 and the corresponding subpixel Xa.
  • the mixing ratio of the image in the sub-pixel Xa is determined. That is, it is assumed that the sub pixel Xa belongs to each of the two sub pixel regions 4, and the mixing ratio is determined as the width or area of the segment of the sub pixel Xa obtained by further dividing the sub pixel. In the distribution example shown in FIG.
  • optical apertures 3 (h) to 3 (m) are shown, and there is a sub-pixel region 4 corresponding to the optical apertures 3 (h) to 3 (m).
  • subpixels Xa1 to Xa6 at the boundary of the subpixel region 4.
  • the subpixels Xa1 to Xa6 have parallax information in parentheses as described below (where the numbers indicate the parallax numbers and the subscripts indicate the corresponding optical apertures). Is shown to be mixed.
  • the sub-pixel Xa1 3h + ( ⁇ 2i)
  • the parallax information with the parallax number 3 passes through the optical aperture 3 (h)
  • the parallax information with the parallax number ( ⁇ 2) is the optical aperture 3
  • the sub-pixel Xa5 (4l + ( ⁇ 1m)) is premised on that the parallax information with the parallax number 4 passes through the optical aperture 3 (l)
  • the parallax information with the parallax number ( ⁇ 1) is the optical aperture 3 This means that it is assumed that the route is via (m).
  • Parallax information 3 to be given to the sub-pixel Xa1 (information on the premise of passing through the opening 3h) and the sub-pixel area 4 (right ),
  • the ratio of the information) is set to 0.5: 0.5, or a ratio considering the visibility and the like, and the ratio is mixed. With such a setting, the incident ranges of the light rays coincide with each other at the distance L, and the phenomenon that the viewing zone width narrows to (n ⁇ 1) / n times when the viewing zone optimization is applied can be avoided.
  • the boundary of the sub-pixel region 4 and the boundary of the actual pixel are more dissociated as the position corresponding to the sub-pixel region 4 composed of (n + 1) pixels at the time of viewing zone optimization (sub-pixel).
  • the boundary of the pixel area 4 comes to the center of the sub-pixel), and the influence of narrowing the viewing area is large.
  • the viewing zone optimization is applied, only the subpixel Xa that is very close to the position where the subpixel region 4 composed of (n + 1) pixels is generated and the subpixel corresponding to the boundary of the subpixel region 4 Reflecting the relative relationship of Xa, the effect of widening the viewing zone can be obtained simply by mixing the images when belonging to each of the two sub-pixel regions.
  • the multi-view method the set distance determined from the structure matches the viewing distance and is different from the formula II, but the observation distance L deviates from the set distance determined from these structures.
  • the viewing zone can be expanded by such a technique.
  • the observer at the observation distance L in the relationship determined by the expression (3) moves to the left and right and wants to shift the viewing zone continuously (finer than the sub-pixel unit) according to this, The technique is useful in multi-view systems.
  • the image display in the sub-pixel region is described by paying attention only to the in-plane (horizontal plane) in the first direction (horizontal direction or display long side direction). is doing.
  • the actual optical opening 3 is extended in a second direction (vertical direction or display short side direction) substantially orthogonal to the first direction.
  • the extending direction of the optical opening 3 forms an angle with the sub-pixel formation direction.
  • the optical opening 3 is extended in the second direction (vertical direction).
  • the sub-pixel formation direction is also extended in the second direction
  • the sub-pixel region 4 is also extended in the second direction. In consideration of extending in the second direction, it is only necessary to display the pixel information in the sub-pixel region 4 by applying the concept related to the first direction described above to the second direction. .
  • FIGS. 12A to 12C schematically show a sub-pixel region 3 in a display device including a light beam controller 2 having an optical opening 3 extending vertically.
  • the observer 30 is positioned at a reference position in a plane that is separated from the display device by a reference distance L0.
  • FIG. 12A schematically shows the ray trajectory in the horizontal section (in the section along the first direction), and
  • FIG. 12B shows in the vertical section (in the section along the second direction).
  • the ray trajectory of is schematically shown.
  • FIG. 12C is a perspective view of the shape of the sub-pixel region 3 in a state where the light beam control element 2 on the front surface of the apparatus is removed.
  • the sub-pixel region 3 corresponding to one light control element 3 is formed in a rectangular shape extending in the second direction.
  • the position where the viewing zone is to be maximized should be shifted to the left or right from the focal point formation range defined by the structure. In other cases, the viewing zone should be maximized by applying the processing in the above-described embodiment. Can do.
  • 13A to 13C show the ray trajectories when it is desired to maximize the viewing zone at a closer observation position, that is, when the observer 30 approaches the apparatus and the observation distance L1 is shorter than the observation distance L0.
  • the position of the observer 30 is detected by the position sensor 5 shown in FIG. 1, and the width P of the sub-pixel region 3 is set large as shown in FIG. 13C according to the equation (1). Therefore, when the boundary of the sub-pixel area 4 does not coincide with the boundary of the actual sub-pixel and it is desired to maximize the viewing area, the boundary pixel of the sub-pixel area 4 is divided into segments as described above, and the sub-pixel area 4 The width P is enlarged.
  • FIG. 15 shows a three-dimensional image display apparatus according to still another embodiment.
  • the optical apertures 3 of the light beam control element 2 are arranged so as to form an angle ⁇ with respect to the first direction (horizontal direction).
  • 16A and 16B show the ray trajectory from the ray controller 2 having the optical aperture 2 extended at an angle ⁇ with respect to the first direction (horizontal direction) in the apparatus shown in FIG. It is shown.
  • the sub-pixel region 4 is extended so as to form an angle with respect to the first direction as shown in FIG. 16C.
  • FIG. 16A shows the ray trajectory from the display device in the horizontal sectional view
  • FIG. 16B shows the ray trajectory from the display device in the vertical sectional view
  • FIG. 16C shows the ray control element on the front surface of the display device.
  • the shape of the sub-pixel region 3 in a state where 2 is removed is shown in perspective. Since the sub-pixel region 3 corresponding to one light beam control element 4 has a parallelogram, the sub-pixel region 4 never matches the pixel boundary. Therefore, the boundary pixel of the sub-pixel region 4 is divided into segments, and the viewing area is maximized by using the area S derived from the width P of the sub-pixel region 4 in the above-described equation (1). This will be described in more detail later with reference to FIG.
  • FIGS. 17A to 17C show light ray trajectories when it is desired to maximize the viewing zone at a closer observation position, that is, when the observer 30 approaches the apparatus and the observation distance L1 is shorter than the observation distance L0.
  • the position of the observer 30 is detected by the position sensor 5 shown in FIG. 1, the width P of the sub-pixel area 3 is increased according to the equation (1), and the inclination of the sub-pixel area 3 is also changed as shown in FIG. 17C. By doing so, the viewing zone can be maximized.
  • FIGS. 18A and 18B are schematic diagrams for explaining in more detail the change of the sub-pixel region 4 shown in FIG. 17C.
  • FIG. 18A shows the ray trajectory in the vertical plane of the display
  • FIG. 18B schematically shows the sub-pixel region 4 in an enlarged manner.
  • a white circle in FIGS. 18A and 18B indicates the position of a certain sub-pixel region observed on the display panel 1 when the observer 30 is located at infinity, and a bidirectional arrow below the white circle determines a white circle.
  • the range of the sub-pixel region for maximizing the viewing area around the observation position is shown.
  • the black circle indicates the position on the display panel 1 that is observed via the same optical aperture 3 when the observer 30 moves to the position indicated by the solid line as shown in FIGS. 17A and 17B.
  • the double arrow indicates the range of the sub-pixel region for maximizing the viewing area around the observation position.
  • the lens inclination is ⁇ and the viewing distance is L
  • the phenomenon that the viewing area becomes narrow in the vertical direction (second direction) can be suppressed even at a short viewing distance.
  • the distance L is large, s ⁇ 0 and ⁇ .
  • the initial value of the inclination of the sub-pixel region is calculated as the angle ⁇ when viewed from infinity, but from the finite observation distance L, the viewing area is maximized in the sub-pixel region of inclination ⁇ .
  • the corresponding sub-pixel region is shifted not only in the first direction (horizontal direction) but also in the second direction (vertical direction) by the distance s.
  • the parallax image may be shifted by the distance s, but since the parallax is not originally given in the second direction, there is little discomfort even if the parallax image is shifted.
  • FIG. 19C shows that the sub-pixel region 4 is shifted by the arrow shift (x) when the observer moves to the right in the horizontal section shown in FIG. 19A, for example.
  • FIG. 19B it is assumed that the observer is not shifted in the vertical direction.
  • the shift shift (x) of the sub-pixel region 4 shown in FIG. 19C is given by the equation (9).
  • 20A to 20C show the shift of the sub-pixel region 4 on the display panel 1 when the observer 30 shifts as indicated by an arrow within a plane including the second direction (vertical direction).
  • 20A shows a ray trajectory in a plane (horizontal plane) including the first direction
  • FIG. 20B shows a ray trajectory in a plane (vertical plane) including the second direction (vertical direction).
  • the observer 30 is shifted in the second direction as shown in FIG. 20B, the position where the viewing zone is to be maximized is shifted in the first direction (horizontal direction) as shown in FIG. 20C. Is done.
  • FIGS. 21A and 21B are schematic diagrams for explaining the change of the sub-pixel region 4 shown in FIG. 20C in more detail.
  • FIG. 21A shows the ray trajectory in the vertical plane of the display
  • FIG. 21B schematically shows the sub-pixel region 4 in an enlarged manner.
  • the white circles in FIGS. 21A and 21B indicate the position of a certain sub-pixel region observed on the display panel 1 when the observer 30 is positioned at the reference position indicated by the broken line as shown in FIGS. 20B and 21A.
  • the lower bi-directional arrow indicates the range of the sub-pixel area for maximizing the viewing area around the observation position when the white circle is determined.
  • the black circle indicates the position on the display panel 1 that is observed through the same optical opening 3 when the observer 30 moves to the position indicated by the solid line as shown in FIGS. 20B and 21A.
  • a bidirectional arrow shown along 1 indicates a range of the sub-pixel region for maximizing the viewing area with the observation position as the center.
  • the tilt of the lens is ⁇ and the viewing distance is L
  • the shift amount u of the sub-pixel region is obtained as follows.
  • the shift amount u is set to zero.
  • the image corresponding to the white circle observed by the observer 30 is shifted as indicated by the black circle.
  • the image is observed at a position shifted upward or downward (here, downward), not directly behind the optical opening 3 that has passed through.
  • the width of the sub-pixel region 3 to be set in consideration of the degree of transparency from the optical opening 3 is the width indicated by the arrow 36.
  • u t / tan ⁇ (12)
  • FIG. 22 shows an example of specific mapping in the sub-pixel region 4.
  • the sub-pixels are arranged in the horizontal and vertical directions (in the first and second directions) along the matrix in the same manner as in a normal flat panel, and the ratio of the side lengths in the first direction and the second direction. Is set to 1: 3.
  • atan (1/2)
  • four parallaxes are allocated to the pixels according to the optical aperture h and the optical aperture i. .
  • a region surrounded by a thick line is a region to which the embodiment of the present application should be applied because the boundary of the sub-pixel region straddles the pixel.
  • the sub-pixel and the sub-pixel are obtained by viewing zone optimization processing. Is uniquely determined to belong to either the optical opening 3 designated by the symbol h or i.
  • FIG. 22 is an enlarged view of an example in which the method of the above embodiment is applied.
  • the boundary between the two subpixels 42 and 44 does not coincide with the boundary between the subpixel areas, and the boundary between the subpixel areas is The sub-pixels 42 and 44 cross over as shown by broken lines.
  • the image information of the parallax number belonging to the optical aperture 3 indicated by the symbol h and the image information of the parallax number belonging to the optical aperture 3 indicated by the symbol i are mixed according to the area divided by this boundary. Is displayed.
  • the alphabet attached to the number indicates which optical aperture 3 the parallax number belongs to. Further, symbols So, Sp, Sq, and Sr indicate areas.
  • the pixels configured by the segment areas indicated by the symbols So and Sp are included in the image information of the parallax number belonging to the optical aperture 3 indicated by the parallax number h and the optical aperture 3 indicated by the parallax number i. It shows that the image information of the parallax number to which it belongs is mixed and displayed at a ratio of the areas So and Sp.
  • the area is simply shown, but it is preferable to consider the visibility. Furthermore, when there is a problem that the image processing load increases in that it requires more disparity information (here, disparity number 4.3333 assigned to the area q), the adjacent disparity number 3.6670 is Even if it is substituted, a certain effect can be obtained.
  • disparity number 4.3333 assigned to the area q the adjacent disparity number 3.6670 is Even if it is substituted, a certain effect can be obtained.
  • the display panel driver 8 shown in FIG. 1 includes an image processing unit as shown in FIG. FIG. 23 is different from FIG. 24 in that the observation position acquisition unit 52 that acquires the observation position shown in FIG. 24 is not provided.
  • the image processing unit will be described with reference to FIG.
  • the position of the observer 30 is converted into x, y, and z coordinate signals by processing a signal from the position sensor 5 shown in FIG.
  • the coordinate signal of the observer 30 is given to an observation position holding unit 54 that holds an observation position signal.
  • an observation position holding unit 54 that holds an observation position signal.
  • a plurality of positions for example, the position of the sofa in the living room is registered as a standard position in advance by using a remote controller or the like from the outside. Different positions are registered, and these positions can be selected as coordinate signal information.
  • the image processing unit also stores various parameters that determine the characteristics of the three-dimensional display device, such as a gap g, an aperture pitch Pe, a pixel pitch pp, an optical aperture inclination ⁇ , or parameter information similar to these.
  • An information holding unit 56 is provided. Sub-pixels assigned to the optical aperture 3 based on the position information of the observer held in the observation position holding unit 54 and the parameter information defining the characteristics of the 3D image display device held in the 3D display device information holding unit 56
  • the width P of the region 4 is calculated by the sub-pixel region calculation unit 58 from the equation (1), more specifically, the equation (1-1), and referring to FIGS. 12A to 14C and FIGS.
  • Parameters such as the inclination and shift amount of the sub-pixel region 4 described above are calculated.
  • Parameters such as the width P of the sub-pixel area 4 related to the sub-pixel area calculated by the sub-pixel area information calculation unit 58 are given to the three-dimensional image information generation unit 62 that generates parallax image information to be displayed on each sub-pixel.
  • the three-dimensional image information generation unit 62 is provided with parallax image data supplied from the parallax image holding unit 60 that holds parallax images, and the parallax image data is processed by parameters as shown in FIG.
  • the pixel information is actually converted into pixel information to be displayed as a sub-pixel and supplied to the display unit 2 as a pixel signal.
  • an optimal video is displayed on the display panel 2 in accordance with the position of the observer 30, and the 3D video is displayed so as to be observable by the 3D video device.
  • the position information may be position information measured in real time detected by the sensor 5, and when a plurality of people observe, an image of a sub-pixel region called a side lobe, even if a plurality of people enter the viewing zone.
  • Information may enter a pseudo viewing zone by being observed from an adjacent optical aperture.
  • the fact that the viewing is multi-person viewing is given to the monitoring position holding unit 54 and the width P of the sub-pixel region 4 is determined, and the three-dimensional image generation unit 62 is positioned at the boundary of the sub-pixel region 4.
  • the pixel Xa is mixed with information that is assumed to have passed through the adjacent optical aperture 3 at a ratio that reflects the relative relationship between the boundary of the sub-pixel region and the center of the pixel.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the spirit of the invention in the implementation stage.
  • only the one-dimensional direction has been described including the figures, but it may be developed in two dimensions.
  • various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine the component covering different embodiment suitably.
  • a three-dimensional video display device that secures the maximum viewing area is provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

 三次元画像表示装置においては、観察者の位置に応じて、光学的開口部に割り当てられるサブ画素領域が定められ、サブ画素領域は、互いに隣接するサブ画素領域の境界でサブ画素を区分したサブ画素セグメントを含み、前記サブ画素セグメントは、互いに隣接するサブ画素領域に対応し、互いに隣接する光学的開口部を経由して観察され、前記サブ画素セグメントを構成するサブ画素には、互いに隣接するサブ画素領域に属する視差情報が混合されて表示される。

Description

三次元映像表示装置
  実施の形態は、三次元映像表示装置に関する。
 動画表示が可能な三次元映像表示装置、所謂、三次元ディスプレイには、種々の方式が知られている。近年、特にフラットパネルタイプで、且つ、専用のメガネ等を必要としない方式での三次元ディスプレイの開発が望まれている。専用のメガネを必要としないタイプの三次元映像表示装置には、直視型或いは投影型の液晶表示装置又はプラズマ表示装置等のように画素位置が固定されている表示パネル(表示装置)の直前に光線制御素子が設置され、表示パネルからの光線の射出方向が制御されて観察者に向けられる方式がある。
 この方式における光線制御素子は、光線制御素子上の同一箇所を見ても見る角度により異なる映像が見えるように光線を制御する機能を有している。具体的には、左右視差(所謂水平視差)のみを与える場合には、光線制御素子として、スリットのアレイ(視差バリア)或いはかまぼこレンズのアレイ(レンチキュラーシート)が用いられ、上下視差(垂直視差)をも与える場合には、光線制御素子としてピンホールアレイ或いはレンズアレイが用いられる。
 光線制御素子を用いる三次元ディスプレイの方式は、さらに2眼式、多眼式、超多眼式(多眼式の超多眼条件)、インテグラル・イメージング方式(以下、単にIIとも称する。)等に分類される。2眼式では、事前に定めた観察位置(視点位置)において両眼視差を両眼に与えて立体視を観察させている。多眼式、超多眼式等の方式(単に多眼方式と称する。)では、視点位置を複数にすることで、見える範囲を広げると同時に側面が見える(運動視差を与える)ようにしている。II方式は、100年程度前に発明され、三次元写真に応用されるインテグラル・フォトグラフィ(IP)の原理に基づいており、II方式の三次元映像表示装置は、下記特許文献1で知られている。多眼方式やII方式で観察される三次元映像は、程度の差はあるが運動視差を伴うことから、2眼式の立体映像と区別して三次元映像と呼ばれている。
特許第3892808号
 光線制御素子と平面表示装置とが組み合わされた三次元映像表示装置では、一般に視点位置を仮定して設計する手法が採用されている。しかし、このように視点位置を仮定して設計する手法では、視点位置が限られる問題がある。また、視点位置を仮定しないで設計する手法では、視域がやや狭くなる問題がある。従って、表示される画像が工夫されることで、視点位置の制約がなくされて、しかも、最大限に視域が確保されることが望まれている。
 実施の形態によれば、
 第1の方向と前記第1の方向に直交する第2の方向とに沿ってサブ画素がマトリクス状に配列された表示部と、
 前記表示部に対向して設置されて前記表示部からの光線を制御する光線制御素子であって、前記光線制御素子が前記第1及び第2の方向にマトリクス状に設けられた複数の第1タイプの光学的開口部、または前記第2の方向に沿って略直線状に延出され、前記第1の方向に沿って配列されている複数の第2タイプの光学的開口部のいずれかで構成されている光線制御素子と、
 を備え、前記サブ画素に前記光学的開口部を経由して観察される視差画像情報を表示することにより、観察位置において三次元画像を視認することができる三次元画像表示装置において、
 前記観察位置に応じて、前記光学的開口部に割り当てられるサブ画素領域を定めること、
 前記サブ画素領域に含まれる、互いに隣接する前記サブ画素領域の境界で前記サブ画素を区分したサブ画素セグメントを特定し、
 前記互いに隣接するサブ画素領域に対応し、互いに隣接する光学的開口部を経由して観察される前記サブ画素セグメントを構成するサブ画素には、前記互いに隣接するサブ画素領域に属する視差情報を混合させたサブ画素表示情報を生成する、
 画像表示方法が提供される。
図1は、実施の形態に係る裸眼式(メガネなし方式)で三次元画像を観察可能な三次元画像表示装置の構造を概略的に示す斜視図である。 図2は、一般的な三次元画像表示装置における三次元画像を観察可能な光線軌跡を概略的に示す模示図である。 図3は、図2に示した三次元画像表示装置であって、三次元画像を観察することを説明する為の多眼方式の第1の比較例に係る模式図である。 図4は、図2に示した三次元画像表示装置であって、三次元画像を観察することを説明する為のII方式の第2の比較例に係る模式図である。 図5は、図4のII方式の三次元画像表示装置における光線軌跡を概略的に示す模示図である。 図6は、図2に示した三次元画像表示装置であって、三次元画像を観察することを説明する為のII方式の第3の比較例に係る模式図である。 図7は、図6に示した三次元画像表示装置であって、三次元画像を観察することを説明する為のII方式の第3の比較例に係る模式図である。 図8は、第1または第2の比較例に係るサブ画素と開口ピッチとの関係を示す模式図である。 図9は、第3の比較例に係るサブ画素の配分を説明する模式図である。 図10は、この実施の形態に係る三次元画像表示装置に適用するサブ画素の配分及び配分されたサブ画素に与えるサブ画素情報を説明する模式図である。 図11はこの実施の形態に係る三次元画像表示装置に適用するサブ画素の配分及び配分されたサブ画素に与えるサブ画素情報を説明する模式図である。 図12Aは、この実施の形態に係る三次元画像表示装置において、観察者がある視距離で定められた基準面に位置される場合における水平面内のサブ画素領域を示す模式図である。 図12Bは、この実施の形態に係る三次元画像表示装置において、観察者がある視距離で定められた基準面に位置される場合における垂直面内におけるサブ画素領域を示す模式図である。 図12Cは、図12A及び図12Bに示すように観察者が位置される際における表示パネル及びこの表示パネルに表示されるあるサブ画素領域を示す模式図である。 図13Aは、この実施の形態に係る三次元画像表示装置において、観察者が図12の視距離よりも遠ざかって位置される場合における水平面内のサブ画素領域を示す模式図である。 図13Bは、この実施の形態に係る三次元画像表示装置において、観察者が図12の視距離よりも遠ざかって位置される場合における垂直面内におけるサブ画素領域を示す模式図である。 図13Cは、図13A及び図13Bに示すように観察者が位置される際における表示パネル及びこの表示パネルに拡張されて表示されるあるサブ画素領域を示す模式図である。 図14Aは、この実施の形態に係る三次元画像表示装置において、観察者が図12の視距離で定められた基準面上でシフトされる場合における水平面内のサブ画素領域を示す模式図である。 図14Bは、この実施の形態に係る三次元画像表示装置において、観察者が図12の視距離で定められた基準面上でシフトされる場合における垂直面内におけるサブ画素領域を示す模式図である。 図14Cは、図14A及び図14Bに示すように観察者が基準面上でシフトされる際にこの表示パネルにシフトされて表示されるあるサブ画素領域を示す模式図である。 図15は、他の実施の形態に係る裸眼式(メガネなし方式)で三次元画像を観察可能な三次元画像表示装置の構造を概略的に示す斜視図である。s 図16Aは、図15に示される三次元画像表示装置において、観察者がある視距離で定められた基準面に位置される場合における水平面内のサブ画素領域を示す模式図である。 図16Bは、図15に示される三次元画像表示装置において、観察者がある視距離で定められた基準面に位置される場合における垂直面内におけるサブ画素領域を示す模式図である。 図16Cは、図16A及び図16Bに示すように観察者が位置される際における表示パネル及びこの表示パネルに斜め表示されるあるサブ画素領域を示す模式図である。 図17Aは、図15に示される三次元画像表示装置において、観察者が図16の視距離で定められた基準面よりも遠ざかって位置される場合における水平面内のサブ画素領域を示す模式図である。 図17Bは、図15に示される三次元画像表示装置において、観察者が図16の視距離で定められた基準面よりも遠ざかって位置される場合における垂直面内におけるサブ画素領域を示す模式図である。 図17Cは、図17A及び図17Bに示すように観察者が位置される際における表示パネル及びこの表示パネルに拡張されて表示されるあるサブ画素領域を示す模式図である。 図18Aは、図15に示される三次元画像表示装置において、観察者が図16の視距離で定められた基準面よりも表示パネルに近づいた場合における垂直面内のサブ画素領域を示す模式図である。 図18Bは、図18Aに示すように観察者が位置される際における表示パネルで表示領域が変化されるあるサブ画素領域を示す模式図である。 図19Aは、図15に示された三次元画像表示装置において、観察者が図16の視距離で定められた基準面上でシフトされる場合における水平面内のサブ画素領域を示す模式図である。 図19Bは、図15に示された三次元画像表示装置において、観察者が図16の視距離で定められた基準面上でシフトされる場合における垂直面内におけるサブ画素領域を示す模式図である。 図19Cは、図19A及び図19Bに示すように観察者が基準面上でシフトされる際にこの表示パネルにシフトされて表示されるあるサブ画素領域を示す模式図である。 図20Aは、図15に示された三次元画像表示装置において、観察者が図16の視距離で定められた基準面上でシフトされる場合における水平面内のサブ画素領域を示す模式図である。 図20Bは、図15に示された三次元画像表示装置において、観察者が図16の視距離で定められた基準面上でシフトされる場合における垂直面内におけるサブ画素領域を示す模式図である。 図20Cは、図20A及び図20Bに示すように観察者が基準面上でシフトされる際にこの表示パネルにシフトされて表示されるあるサブ画素領域を示す模式図である。 図21Aは、図15に示される三次元画像表示装置において、観察者が図16の視距離で定められた基準面上で垂直方向にシフト場合における垂直面内のサブ画素領域を示す模式図である。 図21Bは、図21Aに示すように観察者がシフトされる際における表示パネルで表示領域が変化されるあるサブ画素領域を示す模式図である。 図22は、図15に示される三次元画像表示装置における表示パネルのあるサブ画素領域及びそのサブ画素領域における画素情報が混合される割合を示す模式図である。 図23は、図1及び図15に示される三次元画像表示装置の実施の形態に係る表示パネルドライバの画像処理部を概略的に示すブロック図である。 図24は、図1及び図15に示される三次元画像表示装置の他の実施の形態に係る表示パネルドライバの画像処理部を概略的に示すブロック図である。
 以下、図面を参照して実施の形態に係る三次元映像表示装置について説明する。
 図1は、一般的な裸眼式(メガネなし方式)、すなわち、多眼方式やII方式で三次元画像を観察可能な三次元画像表示装置の構造を概略的に示している。この三次元画像表示装置は、直視型或いは投影型の液晶表示装置又はプラズマ表示装置等のように画素位置が固定されている表示パネル(2次元画像表示装置)1を備え、この表示パネル1の直前に間隙(ギャップ)gを空けて光線制御素子2が設置されて全体がフラットなパネルタイプに構成されている。このフラットパネルタイプの三次元画像表示装置では、表示パネル1から光線が射出され、この光線の射出方向が光線制御素子2によって制御されて観察者に向けられている。表示パネル1には、良く知られるようにサブ画素(RGBのサブ画素)がマトリックス状(行列)に配列されている。光線制御素子2は、光線制御素子上の同一箇所を見ても見る角度により異なる映像が見えるように、例えば、図2に示されるように、光学的開口部3の背面にはそれぞれ複数のサブ画素からなるサブ画素領域4が設けられる。これによって、符号V1a、V1b及びV1cで示されるように観察位置に応じて光学的開口部3を経由して異なるサブ画素を視認し、観察者が光線制御素子2を介して観察位置に応じた表示画像を視認することによって三次元画像を表示装置の前方或いは後方で観察することができる。ちなみに、サブ画素領域4のサブ画素に同じ画像を表示すると、観察位置が変化しても表示画像が変わらなくなり、二次元画像を観察させることができる。
 このような三次元画像表示装置の視域は、全ての光学的開口部3について観察位置に応じた表示画像を視認することができる範囲、すなわち、光学的開口部3を経由してサブ画素領域4が観察される視域が重畳した範囲6として規定される。すなわち、サブ画素領域4が決まれば、三次元画像表示装置の視域が決まる。
 図1に示される三次元映像表示装置は、左右視差(所謂水平視差)のみが与えられて三次元映像が観察される方式であることから、光線制御素子2としてレンチキュラーシートが用いられている。レンチキュラーシートは、良く知られるように、かまぼこレンズのアレイで構成されている。各かまぼこレンズは、物理光学的には、光線を制御してその通過を許すことから光学的開口部3と称することができる。この複数のかまぼこレンズ(光学的開口部3)が夫々略第2の方向に、より具体的には、略垂直方向(図1のフラットパネルの短辺に相当する方向)に、直線的に延出され、複数のかまぼこレンズ(光学的開口部3)が第2の方向と直交する第1の方向(図1のフラットパネルの長辺に相当する方向)に沿って、より具体的には、水平方向に沿って、アレイ状に配列されている。
 ここで、左右視差(所謂水平視差)のみが与えられる方式では、レンチキュラーシートに代えて、光学的開口部3でもある視差バリアとしてスリットアレイが採用されても良い。このスリットアレイ(視差バリア)は、第2の方向に、より具体的には、略垂直方向に、直線的に光学的開口部3としてのスリットが延出され、複数のスリットが第1の方向に沿って、より具体的には、水平方向に沿って、アレイ状に配列されている。
 また、左右視差(所謂水平視差)のみでなく、上下視差(垂直視差)をも与えて上下方向からも方向に応じた立体視を与えることができる三次元映像表示装置では、光線制御素子として複数のピンホール(光学的開口部3)が配列されたピンホールアレイ或いは複数のレンズセグメント(光学的開口部3)が配列されたレンズアレイが用いられる。ピンホールアレイ或いはレンズアレイによる垂直方向視差の付与は、水平方向視差の付与と同様であるので、以下の説明において、水平方向視差の付与の説明が垂直方向視差の付与も説明を兼ねるものとしてその説明を省略する。
 図1、図2に示される三次元映像表示装置は、II方式或いは多眼方式で三次元映像を表示することができる。但し、図3を参照して説明する多眼方式或いは図4から図7を参照して説明するII方式とでは、以下に説明するように設計手法及び画像表示手法が異なっていることに注意されたい。
 尚、以下の説明において、多眼方式は、単なる多眼の方式のみを意味せず、2眼式を除く多眼式に加えて超多眼式(多眼式において超多眼条件を備えた方式)をも含むものとする。また、図8から図24を参照して説明されているこの実施の形態に係る三次元映像表示装置及び三次元映像を表示する方法は、視差番号で特定される複数の視点位置から撮影された多視点画像が取得されて三次元映像の為の画素情報(要素画像)に変換され、表示パネル1のサブ画素領域にその画素情報が与えられて表示されている。従って、この多視点画像が表示される観点からは、多眼方式及びII方式に明確に区別することなく適用可能である点に注意されたい。従って、図8から図24に示される実施の形態では、多眼方式及びII方式に区別することなく記載されている点に注意されたい。
 図1に示される三次元映像表示装置は、好ましくは、表示パネル1の前方の観察者(図示せず)の位置を検出する観察位置を取得する位置センサ5を備えている。この位置センサ5からのセンサ信号は、表示パネルドライバ8に与えられて観察者の位置を特定するx、y、z座標で与えられる観察者座標に変換される。そして、表示パネルドライバ8は、観察者の位置に応じてサブ画素表示領域4を決め、これに従ってサブ画素に与える画素情報を生成して表示パネル1の画素領域にその画素情報を与え、観察者に対して3次元映像を観察するに最適な視域を与えている。観察者の位置(x、y、z)の基準位置を(0、0、L)としたときに、観察者が観察距離Lを基準とした面内(z=L)で視点をシフトする(x≠0、またはy≠0)場合に限らず、zがLより前方へ(z<L)或いは、後方へ(z>L)向けて移動し、また、移動した位置の面内で視点をシフト(x≠0、またはy≠0)する場合にあっても、z=Lで観察者が3次元映像を観察する場合と同様に、観察者の位置に応じてサブ画素領域4を決め、3次元映像を観察するに最適な視域を平面パネル1に与えることができる。
 表示ドライバ8は、位置センサ5による観察者の位置が最適観察位置となるように表示パネル1のサブ画素領域4を設ける。より詳細には、そのサブ画素領域のサブ画素に視差番号で特定される視差情報が与えられて最適画像が表示パネル1に表示される。サブ画素領域の境界に属するサブ画素には、後に述べるように隣接するサブ画素領域のサブ画素に与えられる2つの視差情報が混合されて与えられる。ここで、混合される割合は、サブ画素領域の境界に属するサブ画素が隣接するサブ画素領域に属するように分けられて生じる2つのセグメントの面積或いは幅に応じて定められる。ここで、サブ画素領域の境界に属するサブ画素が隣接するサブ画素領域の一方にのみ属する場合には、他方のサブ画素領域のサブ画素に与えられる1つの視差情報の混合割合がゼロとなる。
 尚、上述したサブ画素のセグメントは、明瞭に区分される領域として定まらず、単にサブ画素領域の幅或いは大きさから定まる概念上の領域である点に注意されたい。また、位置センサ5は、実施の形態の必須の構成要素ではなく、この位置センサ5に代えて外部から位置情報として固定位置(表示パネル1からの最適距離或いは観察者情報)が入力装置、例えば、三次元映像表示装置のリモコン(図示せず)で与えられても良く、この入力位置情報に応じてそのサブ画素領域のサブ画素に視差番号で特定される視差情報が与えられて最適画像が表示パネル1に表示されても良い。
 図2には、図1に示されている一般的な三次元画像表示装置における水平面内における光線軌跡の一例が実線で、中央と両端の光学的開口部3の視域が破線で示されている。一例としたのは、該当する位置に物理的な画素がある場合として描いているからであり、本願では、サブ画素領域4が観察位置に応じて設けられることから、サブ画素領域3の該当する位置にサブ画素がある場合もない場合もある。図2に示される三次元画像表示装置おいては、ある開口ピッチPeで配列されている光学的開口部3とサブ画素領域4とが水平平面内において配置されている様子が示されている。表示パネル1は、表示パネル1で定められている画素ピッチで配置された複数のサブ画素(例えば、複数のR、G、Bのサブ画素)で構成され、各光学的開口部3に対応して各サブ画素領域4に区分されている。ここで、ある光学的開口部3に割り当てられるあるサブ画素領域4は、隣接して配置される光学的開口部3に対応するように隣接するある範囲(第1の比較例1及び第2の比較例2では、各サブ画素領域4が図3や図4に示すように整数個n、例えば、5個)に設定されているサブ画素で構成されている。図6及び図7を参照する第3の比較例3では、各サブ画素領域4が図3に示すように開口ピッチPeに相当する領域ピッチPで出現する整数個nのサブ画素から構成される複数のサブ画素領域4中に領域ピッチPを乱すように、ある周期で或いは規則性を有して(n+1)個のサブ画素から構成される特異サブ画素領域4Pが挿入されている。後に説明されるように、比較例に対比されるように、この実施の形態では、図9に示されるように実質的に(n+1)個のサブ画素から構成される特異サブ画素領域4Pがある周期で或いは規則性を有して挿入されていると同様に視域を広げることができるように、サブ画素領域4の境界のサブ画素がサブ画素の一部(一方のセグメント)及び残る部分(残存セグメント)に分けられている。また、そのサブ画素の一部(一方のセグメント)の一方が一方のサブ画素領域4に属するように配分され、残る部分(残存セグメント)が他方のサブ画素領域4に属するように配分されている。従って、図9に示されるようにこの実施の形態では、光学開口部3の開口ピッチPe(固定ピッチ)に対応して一定のサブ画素領域ピッチPでサブ画素領域4が配置されている。図12Aから図14Cを参照して説明されるように、観察者が平面パネル1に略平行な面内で移動(シフト)されると、光学開口部3に対してこのサブ画素領域4が相対的にシフトされる。また、観察者が平面パネル1に向かって近づくように或いは平面パネル1から離れるように移動(シフト)されると、このサブ画素領域4のピッチPは、観察者位置に応じてその幅が可変される。このサブ画素の一部(一方のセグメント)及び残る部分(残存セグメント)の幅の比率は、例えば、サブ画素の1/4に設定され、かつ、サブ画素を構成するサブ画素の基本の数を5とすると、一定の周期で、例えば、(5×4+1)サブ画素毎に同様のサブ画素の一部(一方のセグメント)及び残る部分(残存セグメント)の幅の比率が表れることとなる。
 図3は、この実施の形態の理解を助ける為の一般的な多眼方式の第1の比較例1を示している。図3に示す第1の比較例1では、各サブ画素領域4が視差番号(-2~2)を有するn個のサブ画素で構成され、表示パネル1の表示面上の領域には、このn個のサブ画素で構成される通常のサブ画素領域4が繰り返し配置されている。
 このような比較例1に係る多眼方式の三次元映像表示装置では、以下のようにして各ディメンションが設定される。図2に示すように表示パネル(表示装置)1の表示面から光学的開口部3の主点(レンチュキュラーレンズの主点)までの距離g及び光学的開口部3の主点から視域基準面(視域面)までの距離Lとする。ここで、図2で示したように、有限の距離Lで全レンズからの光線群が視域基準面(視域面)で重畳するためには、サブ画素幅(pp=1)で規格化した光学的開口部のピッチPe(固定値)と、ある1つの光学的開口部3に対応したサブ画素領域4の平均幅Pとの関係は、
    Pe=P×L/(L+g)  ・・・(1)
 を充足することが必要とされる。
 二眼式から発展した多眼式或いは稠密多眼式では、有限の距離Lで全ての光学的開口部3から射出される互いに対応する光線から構成される光線群が同一の領域に、眼間間隔(IPD)或いは眼間間隔の1/x倍の間隔を空けて入射(集光)されるように設計される。例えば、図2において光学的開口部3の主点を通る主光線(実線で示される。)から構成される光線群が視域基準面(視域面)に集光される。
 比較例1では、視域基準面(視域面)が固定とされるに対して、この比較例に対しされる後に詳述する実施の形態においては、観察者がこの視域基準面(視域面)を基準として前後に移動(シフト)されてこのシフトに応じて観察位置が変化される系においては、(1)式において、シフト量Δzが導入されて(1)式は、
    Pe=P×(Lref+Δz)/{(Lref+Δz)+g} ・・・(1-1)
 に変形される。従って、後に詳述する実施の形態においては、観察者までの距離(Lref+Δz)に応じてサブ画素領域4の幅Pが可変とされる。距離Lrefは、視域基準面までの基準距離である。比較例1では、幅Pは、距離Lrefにおいて、画素ピッチ(画素幅にも相当する。)ppの整数倍に定められたとしても、実施の形態では、幅Pは、画素ピッチ(画素幅にも相当する。)ppの整数倍に限られず、非整数倍で定められる。
 ここで、画素ピッチ(画素幅にも相当する。)がpp(規格化でpp=1)であるとすると、
    pp:g=IPD/x:L  (1≦x)         ・・・(2)
    P=n・pp (nは整数)
    P=n    (nは整数、規格化でpp=1)      ・・・(3)
 従って、(1)及び(3)式より
    Pe=P×L/(L+g)=n×L/(L+g)   ・・・(4)
となる。すなわち、比較例1に係る多眼方式では、サブ画素領域の幅Pは、画素幅pp(規格化pp=1)のn倍(nは整数)とし、光学的開口部のピッチPeを規格化した画素幅を有するサブ画素のn倍の幅(P=n)よりL/(L+g)倍だけ狭く設計している(Pe≠P)。この距離Lは、視域最適化距離に相当し、(2)~(4)の設計を採用している方式が多眼方式と称せれている。
 この設計では、距離Lで眼間距離に集光点が発生するために、開口部に割り当てられている画素数nが比較的少なくても(例えば、2(=n)でも)、両眼視差により立体視が可能となる。しかしながら、図3に示すように整数個のサブ画素のみからなるサブ画素領域4のみを表示パネル1に表示することを前提とする多眼方式においては、視域を広げた観察距離Lが固定であるという問題が生ずる。しかし、(1-1)式に従い、図9及び図10を参照して詳細に説明するようにサブ画素領域4が非整数個のサブ画素領域で形成されてサブ画素幅Pが定められている本願の実施の形態では、この多眼方式における視域最適距離が固定される問題を解決することができる。
 多眼方式に比較してより実際の物体からの光線に近い光線を再現する方式としてII方式がある。II方式では、物体からの光を再生することに主眼を置いているために、図4及び図5に示すように観察距離Lの視域面で集光点を発生させることはしないが、視域を広げた観察距離Lは任意に制御することができる。図4及び図5に示される第2の比較例2に係るII方式では、各光学的開口部3に対応して各サブ画素領域4(一例として視差番号-2~2を有するサブ画素で構成される。)が同様に定められ、このサブ画素領域4がサブ画素領域として表示パネル4上に区分して表示さる。光学的開口部3は、同様に一定(固定)のピッチPeで配置され、サブ画素の幅ppで規格化(pp=1)した光学的開口部のピッチPeは、特許文献1に記載されるように、例えば、
    Pe=n・pp    
    Pe=n   (pp=1)     ・・・(5)
 に設定される。このII方式における設計方法の一例では、光学的開口部3のピッチPeは、基本的には、サブ画素の幅ppの整数倍に設定される。この設定によってサブ画素領域の幅Pも、多眼方式と同様に、P=n=5とすると、視域は狭いものの、図5に符号V1dで示されるように観察位置に応じて三次元映像が観察される。
 一方、上述した多眼方式における説明と同様に、図6及び図7に示されるように、通常のサブ画素領域4及び特異サブ画素領域4Pを構成する画素の数をn及び(n+1)の2値に設定し、(n+1)画素からなるサブ画素領域4の発生頻度m(0≦m<1)を調節することで、有限の距離Lについて(1)式を満たすことができる。
 この第3の比較例3では、上述したと同様に、n画素で構成される通常のサブ画素領域4の繰り返し領域に(n+1)画素が挿入されて一対の互いに隣接する特異サブ画素領域4Pが表示パネル1上にある周期或いはある定まった配置で配置されている。
 すなわち(1)及び(5)式より、
    P=(L+g)/L×Pe
     =(L+g)/L×n
     =n×(1-m)+(n+1)×m
 ここで、両辺をnで割ると、
    (L+g)/L=(n+m)/n ・・・(6)
 を満たすようにmを設定すればよいこととなる。
 (4)及び(5)式より、サブ画素領域の幅Pを
    P≠n          ・・・(7)
 に設計すると、(1)式或いは(1-1)式を満たすことで、図7に示すように視域が図5に比べて拡大される。この拡大された視域内の観察位置で符号V1d、V1e及びV1fで示されるように異なる3次元映像を見ることができる。
 このように、観察距離Lで集光点を設けない方式(一例として集光点が無限遠に設定される。)は、この明細書において、II方式と称する。多眼方式との比較から明らかなように、多眼方式では、光学的開口部3を通る光線から構成される光線群が視域基準面に集光されるのに対して、II方式では、光学的開口部3を通る光線から構成される光線群が視域基準面で集光しない((5)式に基づいて集光点を無限遠に設定した場合は、図4のように平行に射出される。)
 ここで、第2の比較例2として記載するように、サブ画素領域を構成する画素数をnのみにすると、全てのレンズから出る光線が重畳する距離は、観察距離Lとは異なり無限遠になることから、観察距離Lにおける視域は狭くなる。よって、比較例3として記載するように、nと(n+1)の2値に設定、即ち、(6)式を充足するように設定してそのサブ画素領域の平均値Pが(1)式を満たすようにすることで、有限の観察距離Lで視域(3D画像が見える範囲)を最大にすることができる。ここで、視域角度2θ、観察距離Lでの視域の幅VWLは以下で定義される。
    2θ=2×atan(P×pp/2/g)
      =2×atan(VWL/2/L)       ・・・(8)
 ところが視域最適化を適用した状態では、視域幅が(8)式で与えられる値より若干狭くなることが明らかになっている。この比較例3における問題は、後に説明する実施の形態では、この視域の狭さを解消することができる。II方式において、この視域最適化によって視域が狭くなる現象について次に説明する。
 始めに、多眼方式の視域について説明する。図3には、多眼方式の装置におけるP=n=5の場合について、一部のレンズとサブ画素を拡大して光線軌跡を示している。領域幅Pに比べて開口ピッチPeを若干小さい値にすることにより、観察距離Lで画素から出た光線が集光される。この光線が集光する様子は、サブ画素領域4の右端の画素(視差画像番号2)について示している。ここで、同一の視差画像番号、例えば、視差画像番号2が振られたサブ画素は、単一の視点画像(ある視点から撮影した画像)に由来することを意味している。視点画像が平行投影画像の場合は、同一の視差画像番号が振られていることは、同一の方向から撮影された画像であることを意味する。視点画像が透視投影画像の場合は、同一の視差画像番号が振られていることは、同一の位置から撮影された画像であることを意味する。いずれにしろ、同一の視差画像番号が振られたサブ画素と光学的開口部3の主点とを結んだ方向の交点が視点画像の取得位置に基本的に相当している。しかしながら、交点は、様々な画像処理を施す場合には、意図的に取得位置からずらされる場合もあることに注意されたい。図示はされていないが、他の視差画像番号が振られた光線も同様にそれぞれ観察距離Lで、(2)式で定まる間隔で集光点を形成している。
 一方、図4には、(5)式を満たしたII方式の装置において、P=n=5の場合について、一部のレンズとサブ画素を拡大した光線軌跡を示している。サブ画素領域の右端の画素(視差画像番号2)からの光線は、観察距離Lでも間隔Peを維持したまま基準面に入射されている。この光線軌跡は、視点画像を平行光線で取得する必要があることを意味している。図8に示されるように、他の視差画像番号が振られた光線もそれぞれ観察距離Lで、間隔Peで視域基準面に入射される。すなわち、レンズからの光線が観察距離Lで入射する範囲は、互いに間隔Peだけずれて基準面に入射され、この結果、図5に示すように視域VAが非常に狭くなってしまう。図4と同様の構成のまま、視域最適化を施し、図6のように(n+1)画素からなる特異サブ画素領域が挿入した光線軌跡が図7に示されている。(n+1)画素からなる特異サブ画素領域4の両側において、サブ画素領域から射出される光線の方向をずらすことができる。図7には、(n+1)画素からなる特異サブ画素領域4の左側のサブ画素領域4からの光線に比較して右側のサブ画素領域4からの光線(破線で示されている。)がより左向きに射出している様子が示されている。結果として、図7に示されるように、視域を広げることができる。
 基本のサブ画素領域4がn画素(例えば、視差番号-2~2までの5画素)で構成されていると、サブ画素領域4からの光線が視域基準面に入射される入射範囲は、光学的開口部3の間隔Peだけ次々にシフトされることとなる。ここで、視域基準面上における入射位置範囲の設計値(VWL)からのずれの絶対値(|VWLshift|)が、
 |VWLshift|>|P×pp×(L/g)×1/2|
となった場合に、(n+1)画素(ここでは6画素)からなるサブ画素領域が生じると、観察距離Lで1画素に相当する範囲(pp×L/g)だけ、光学的開口部3の間隔Peによる入射範囲のシフトを打ち消す方向にシフトされる。このシフトを繰り返すことにより視域を広げることができる半面、1視差分が光線の入射範囲のシフトで消費され、残りの(n-1)視差分が視域として利用されることとなる。すなわち、(8)式で定義される視域幅VWLのうち、実効的に視域として利用されるのは、VWL×(n-1)/nとなる。
 発明者は、以上の視域が狭くなるメカニズムを明らかにしたうえで、次の対策を加えた実施の形態が視域狭小を防止するに有効であることを確認している。即ち、全レンズからの光線の視域基準面への入射範囲をサブ画素単位で制御するのではなく、サブ画素に表示する画像情報で制御することに着目し、結果として、より高い精度で視域を制御することができる。より詳細には、既に説明したようにサブ画素を画素セグメントに分離し、当該セグメントで構成される画素には、混合した明度(画像情報)を与えている。この着想を適用した実施の形態と既存の方法との差異を明確にするべく、図8~図10には、図1と(1)式から定まるサブ画素領域4の幅Pと、サブ画素ピッチppとの関係が模式的に示されている。
 これまで説明したように、観察距離Lrefを固定し、仮に多眼方式で設計したとしても、観察者が観察距離Lrefを前後に外れた際にその観察距離Lで視域を最大にしようとするともはや(3)式を満たすことはできない。よって、以後は多眼方式、II方式問わず、(3)式を満たさない観察位置において視域を最大にするための処理について述べる。
 図8は、サブ画素領域4の幅Pがサブ画素ピッチppの整数倍で構成される典型的な画像表示装置における光線軌跡を示している。サブ画素領域4の境界は、サブ画素の境界に一致する。サブ画素領域4からの光線は、対向する光学的開口部3に殆どが向けられ、この光学的開口部3を介して観察者に向けられている。全てのサブ画素領域4は、光学的開口部3の夫々に対応関係にあり、図8では光学的開口部のピッチPeがサブ画素ピッチppのn倍より僅かに狭く設定されていることから、有限の距離で光線が集光していると思われるが、これが観察位置Lに一致しているとは限らない。
 図9及び図10は、図8に示す構造から定まる集光する距離、すなわち、P=nで決まる視域が最大になる距離より短い観察距離Lで視域最適化を適用した実施の形態を示している(II方式の設計の一例では、集光点が無限遠に設定されるので、有限の距離は全てこれに該当する。有限の距離に集光点が設定される多眼方式では、その距離より手前の距離が該当する)。説明の簡略化のために、この実施の形態では、サブ画素領域4の幅PがP=5.25(説明の便宜上無単位とする。)であるとした場合の領域幅とこれによる光学的開口部ごとの理想的な視域を破線で示した。P=5に設定した場合より、サブ画素領域4の幅Pは、開口ピッチPeよりさらに大きくなり(P>Peとなる。)、より近い距離で視域が最大にされる。このとき、各サブ画素領域4は、図8に示すように整数個のサブ画素で構成するのではなく、視域最適化処理によって、表示パネル1の領域は、図9に通常サブ画素領域4に実質的に特異サブ画素領域4Pが周期的に挿入されることで、実線で示すような特性を実現し、破線で示した特性に近づける。一方、本願では、図10に示すようにサブ画素幅Pの非整数倍のサブ画素領域4に破線20で示す区分を、5つのサブ画素に加えて1つのサブ画素の一部(セグメント)、或いは、4つのサブ画素に加えて1つのサブ画素の一部(セグメント)及び残る部分(残存するセグメント)で構成することにより、等ピッチPでの配置、すなわち、破線で示した特性を実現する。よって、特異サブ画素領域4Pが周期的に挿入されたときより高精度に、近い距離で視域を広くすることができる。サブ画素領域4の境界に位置するサブ画素Xaについては、物理的にはこれ以上分割できないが、分割できたと仮定して(セグメント)、そのセグメントが存在した場合に表示されるべき画素情報をセグメントの割合で混合された画素情報が与えられて表示される。
 より具体的には、図9において、符号Xa2で特定されるサブ画素に着目すると、理想的には、サブ画素の半分の画素セグメント(0.5の割合)は、符号24で示すサブ画素領域4に含まれ。ここには視差番号-2が割り当てられる。一方、残る半分の画素セグメント(残る0.5の割合)は、符号23で示す隣接するサブ画素領域4に含まれ、ここには、視差画像番号3が割り当てられる。ところが、視域最適化処理においては、Sb>Scの場合は、サブ画素領域23に、SbScの場合は、サブ画素領域24に含むとように、いずれかのサブ画素領域に含まれるように判定する(図9とは異なるが、SbSとSb<Scで場合分けしても良い)。 図9においては、左端に位置するサブ画素領域4の左端がサブ画素領域の幅Pの始点に定められ、サブ画素領域4の幅PがP=5.25に定められている。この図9に示す例を参照してより具体的に説明する。サブ画素領域の境界に位置するサブ画素のうち、図面中最も左の第1の画素Xa1は、Sb:Sc=0.25:0.75で区分されていることから、この第1のサブ画素Xa1は、右のサブ画素領域4(right)に属する。その次の第2の画素Xa2は、上述したようにSb:Sc=0.5:0.5で区分されていることから、この第2の画素Xa2は、右のサブ画素領域4(right)に属する。更に、その次の第3の画素Xaは、Sb:Sc=0.75:0.25に区分され、距離Sb及び距離Scの大小関係が逆転するので、この第3の画素Xa3は、左のサブ画素領域4(left)に属する。このようにサブ画素領域4が選定される結果、光線の入射範囲は、距離Lに定められた視域基準面で略一致される。
 実施の形態に係る図10は、上述した実施の形態がサブ画素の境界Pの位置に応じてどちらのサブ画素領域に属するかを2値化判定していたのに対し、サブ画素の境界Pの位置に応じた割合で、両方のサブ画素領域に属する視差情報を混ぜて表示する手法を一般化して説明する為の模式図を示している。図8及び図9と同様の構造において、この実施の形態においては、構造から定まる視域が最大になる距離より短い距離Lに実施の形態に係る手法を適用している。図10を参照する説明を簡略化するために、このサブ画素領域PがP=5.25に設定されるものとする。
 図10において、サブ画素領域4の境界に位置するサブ画素Xaについては、サブ画素領域4の境界と該当するサブ画素Xaとの相対関係によって、二つのサブ画素領域4のそれぞれに所属した場合におけるサブ画素Xaにおける画像を図9で説明したように混ぜる割合が定められる。すなわち、サブ画素Xaが二つのサブ画素領域4のそれぞれに所属しているとし、その混ぜる割合を、サブ画素をさらに分割したサブ画素Xaのセグメントの幅もしくは面積として定められる。図10に示す配分例においては、左端に位置するサブ画素領域4の左端がサブ画素領域の幅Pの始点に定められ、サブ画素領域4の幅PがP=5.25に定められている。図10においては、光学的開口3(h)~3(m)が示され、この光学的開口3(h)~3(m)に対応するサブ画素領域4がある。また、サブ画素領域4の境界には、サブ画素Xa1からXa6がある。そして、サブ画素Xa1からXa6には、下記に説明されるように括弧内に視差情報(ここで、数字は、視差番号を示し、添え字は、対応する光学的開口部を示している。)が混ぜられる旨が示されている。一例として、サブ画素Xa1(3h+(-2i))では、視差番号3の視差情報が光学開口3(h)を経由することを前提とするとともに視差番号(-2)の視差情報が光学開口3(i)を経由することを前提とすることを意味している。同様に、サブ画素Xa5(4l+(-1m))は、視差番号4の視差情報が光学開口3(l)を経由することを前提とするとともに視差番号(-1)の視差情報が光学開口3(m)を経由することを前提としていることを意味している。
 この図10に示す実施の形態では、サブ画素領域の境界に位置するサブ画素Xaのうち、図面中最も左の第1の画素Xa1(3h+(-2i))は、Sb:Sc=0.25:0.75で区分されていることから、この第1のサブ画素Xa1が左のサブ画素領域4(left)に所属しているとする場合に、サブ画素領域4(left)内において第1のサブ画素Xa1に与えられるべき視差情報3(開口3hを経由することを前提とした情報)と、右のサブ画素領域4(right)に所属しているとした場合にサブ画素領域4(right)内において第1のサブ画素Xa1に与えられるべき視差情報-2(開口3iを経由することを前提とした情報)の割合が0.25:0.75、またはこれに視感度等を考慮した割合に設定され、この割合で混合される。その次の第2の画素Xa2(3i+(-2j))は、Sb:Sc=0.5:0.5で区分されていることから、同様に、この第2のサブ画素Xa2が左のサブ画素領域4(left)に所属しているとする場合に、サブ画素領域4(left)内において第2のサブ画素Xa2に与えられるべき視差情報3(開口iを経由することを前提とした情報)と、右のサブ画素領域4(right)に所属しているとした場合にサブ画素領域4(right)内において第2のサブ画素Xa2に与えられるべき視差情報-2(開口jを経由することを前提とした情報)の割合が0.5:0.5、またはこれに視感度等を考慮した割合に設定され、この割合で混合される。このような設定によって、光線の入射範囲は距離Lで一致するとともに、視域最適化適用時に視域幅が(n-1)/n倍に狭くなる現象も回避することができる。
 図9から明らかなように、視域最適化時に(n+1)画素からなるサブ画素領域4に相当する位置に近いほど、サブ画素領域4の境界と実際の画素の境界が乖離することから(サブ画素領域4の境界がサブ画素の中央にくる)、視域を狭くする影響が大きいこととなる。この事実を考慮すると、視域最適化を適用した場合に(n+1)画素からなるサブ画素領域4が発生する位置からごく近傍のサブ画素Xaについてのみ、サブ画素領域4の境界と該当するサブ画素Xaの相対関係を反映して、二つのサブ画素領域のそれぞれに所属した場合の画像を混ぜるだけでも、視域を広げる効果を得ることができる。
 図8~図10で説明したように、この実施の形態に係るII方式((7)式の関係を有する方式)のみならず、多眼方式((3)式の関係を有する方式)にあっても適用することができる。すなわち、多眼方式にあっては、構造から決まる設定距離が視距離に一致しておりII式では異なっているが、これらの構造から決まる設定距離からはずれた観察距離Lにおいて、実施の形態に係る手法によって視域を広げることができる。また、(3)式で決まる関係において観察距離Lにいる観察者が、左右に移動し、これに応じて視域を連続的に(サブ画素単位より細かく)シフトさせたい場合には、本願の手法が多眼方式において有用である。図8でn=5だった場合と比較する為に、n=5のまま、サブ画素領域の幅Pを0.5サブ画素幅だけシフトさせた状態が図11に示されている。図11には、図10に示すと同様の符号を付していることから、図11に示す実施の形態に関しては、その説明を省略する。
 図1~図11においける実施の形態の説明では、第1の方向(水平方向、またはディスプレイ長辺方向)の面内(水平面内)についてのみ着目してサブ画素領域での画像表示を説明している。しかし、実際の光学的開口部3は、図1に示すように、第1の方向と略直交する第2の方向(垂直方向、またはディスプレイ短辺方向)に延伸されている。また、光学的開口部3の延伸方向がサブ画素の形成方向とある角度をなしている場合がある。このように光学的開口部3が延伸されていることを考慮した実施の形態について詳しく説明する。
 図1に示された装置では、光学的開口部3が第2の方向(垂直方向)に延伸されている。サブ画素の形成方向も、一般的なフラットパネルディスプレイでは、第2の方向に延伸され、サブ画素領域4も第2の方向に延伸される。第2の方向の延伸されていることを考慮する場合には、既に述べた第1の方向に関する概念を第2の方向に適用してサブ画素領域4に画素情報を表示すれば良いこととなる。
 図12A~12Cには、垂直に延伸した光学的開口部3を有する光線制御子2を備える表示装置において、サブ画素領域3が概略的に示されている。図12A及び12Bに示すように、観察者30が表示装置から基準距離L0だけ離れた面内の基準位置に位置されている。ここで、図12Aには、水平断面内(第1の方向に沿った断面内)の光線軌跡を模示的に示し、図12Bは、垂直断面内(第2の方向に沿った断面内)の光線軌跡を模示的に示している。また、図12Cには、装置前面の光線制御素子2が取り除かれた状態におけるサブ画素領域3の形状が透視的に示されている。一つの光線制御素子3に該当するサブ画素領域3は、第2の方向に延伸される長方形状に形成される。第2の方向に延伸するサブ画素領域3に関しては、視域を最大にする距離L0で(3)式の関係を満たし、かつ、そのサブ画素領域3が画素境界に一致している場合のみ、上述した実施の形態の適用は不要である。視域を最大にしたい位置は、構造より既定される集光点の形成範囲より左右にずらしたい場合を含め、その他の場合は上述した実施の形態における処理の適用により視域を最大にすることができる。
 図13A~図13Cは、より近い観察位置で視域を最大にしたい場合、すなわち、観察者30が装置に近づいて観察距離L0より観察距離L1が短くなった場合における光線軌跡を示している。この観察者30の位置は、図1に示す位置センサ5によって検出され、(1)式に従って図13Cに示すようにサブ画素領域3の幅Pが大きく設定される。従って、サブ画素領域4の境界が実際のサブ画素の境界に一致しなくなり、視域を最大にしたい場合は、上述したようにサブ画素領域4の境界画素がセグメントに分割されてサブ画素領域4の幅Pが拡大される。
 図14Aから図14Cには、例えば、図12Aに位置している観察者が図14Aの水平断面図において右に移動した場合を示している。同様に、観察者30の右への移動は、図1に示す位置センサ5によって検出される。この観察者の基準位置からのシフトΔxに対して、サブ画素領域4のシフトΔxpは、
    Δxp=g/L×Δx       ・・・(9)
で与えられ、図14Cに示すようにサブ画素領域4のシフト方向は、観察者の移動方向と逆方向となる。もし、多眼方式にて、P=nに設定されていたとしても、この観察者30のシフトによって、図11で既に説明したように、サブ画素領域4の境界が実際のサブ画素の境界に一致しなくなり、サブ画素領域4の境界画素がセグメントに分割されて上述した(1)式でサブ画素領域4の幅Pが設定される。
 図15は、更に他の実施の形態に係る3次元画像表示装置を示している。この図15に示す装置では、光線制御素子2の光学的開口部3が第1の方向(水平方向)に対して角度φを成すように配列されている。図16A及び図16Bには、図15に示す装置において、第1の方向(水平方向)に対して角度φを成して延伸した光学的開口部2を有する光線制御子2からの光線軌跡が示されている。この図16A及び16Bに示される装置では、図16Cに示されるように第1の方向に対してある角度を成すようにサブ画素領域4が延伸されている。ここで、図16Aは、水平断面図内における表示装置からの光線軌跡を示し、図16Bは、垂直断面図内における表示装置からの光線軌跡を示し、図16Cは、表示装置前面の光線制御素子2を取り除いた状態でのサブ画素領域3の形状を透視的に示している。一つの光線制御素子4に対応するサブ画素領域3は、平行四辺形をしていることから、サブ画素領域4が画素境界に一致することは決してない。よって、サブ画素領域4の境界画素がセグメントに分割されて、上述した(1)式でサブ画素領域4の幅Pにより導出された面積Sを用いて、視域の最大化が実現される。これについては、図22を用いて後段でより詳しく述べる。
 図17A~17Cには、より近い観察位置で視域を最大にしたい場合、すなわち、観察者30が装置に近づいて観察距離L0より観察距離L1が短くなった場合における光線軌跡を示している。この観察者30の位置は、図1に示す位置センサ5によって検出され、(1)式に従ってサブ画素領域3の幅Pが大きくなり、図17Cに示すようにサブ画素領域3の傾きも変化されることによって、視域を最大にすることができる。
 図18A及び18Bは、図17Cに示すサブ画素領域4の変化をより詳しく説明するための模式図を示している。図18Aは、表示の垂直面内の光線軌跡を示し、図18Bは、サブ画素領域4を拡大して模示的に示している。図18A及び18Bおける、白丸は、観察者30が無限遠に位置している際における表示パネル1において観察されるあるサブ画素領域の位置を示しその下の双方向矢印は、白丸を決めた際の観察位置を中心として視域を最大にするためのサブ画素領域の範囲を示す。黒丸は、図17A及び図17Bに示すように観察者30が実線で示す位置に移動した際に同一の光学的開口部3を経由して、観察される表示パネル1における位置を、その下の双方向矢印は、その観察位置を中心として視域を最大にするためのサブ画素領域の範囲を示している。ここで、レンズの傾きをφ、視距離をLとすると、サブ画素領域4の傾きαは次のように求まる。
 透視度を考慮しない場合(観察者30が無限遠に位置している場合)は、傾きαは、φに一致するが、有限の観察距離から観察する場合は、透視度を考慮すると、経由した光学的開口部の真後ろではなく、上または下にずれた位置を観察することとなる。有限の距離Lから観察した場合に、仮定した光学的開口部から透視度を考慮して視域を最大にするために設定するべきサブ画素領域3の範囲は、観察位置のy方向のずれsを考慮して黒丸の下に示した矢印の範囲になる。このとき、
    (yd+s):yd=(L+g):L=tanα:tanφ・・・(10)
の関係が成立する。この関係に従って、サブ画素領域を変形させることで、短視距離でも垂直方向(第2の方向)で視域が狭くなる現象を抑えることができる。距離Lが大きい場合に、s≒0となり、α≒φとなる。距離Lが小さい場合に、s>0となり、α<φとなる(より垂直になる)。ここでは、サブ画素領域の傾きの初期値を無限遠から見た場合である角φとして計算しているが、有限の観察距離Lから、傾きφのサブ画素領域で視域が最大になるようにレンズの傾きを微調整したうえで、そこから視距離が前後に変化した場合のαを(10)式で与えても良い。
 図18Bに示したように、該当するサブ画素領域は、第1の方向(水平方向)だけではなく、第2の方向(垂直方向)に距離sだけシフトされることから、このシフトに応じて、視差画像を距離sだけシフトさせてもよいが、第2の方向にはもともと視差を与えていないのでシフトされても違和感は少ない。
 図19Cには、例えば観察者が図19Aに示す水平断面内において右に移動した場合のサブ画素領域4が矢印shift(x)だけシフトされことを示している。ここで、図19Bに示されるように観察者は、垂直方向には、シフトされないものとする。図19Cに示されるサブ画素領域4のシフトshift(x)は、(9)式で与えられる。
 図20A~20Cには、観察者30が第2の方向(垂直方向)を含む面内において、矢印で示すようにシフトした際の表示パネル1上におけるサブ画素領域4のシフトを示している。図20Aは、第1の方向を含む面内(水平面内)における光線軌跡を示し、図20Bは、第2の方向(垂直方向)を含む面内(垂直面内)における光線軌跡を示している。図20Bに示すように観察者30が第2の方向にシフトされると、視域を最大化したい位置が、図20Cに示すように第1の方向(水平方向)にサブ画素領域4がシフトされる。
 図21A及び21Bは、図20Cに示すサブ画素領域4の変化をより詳しく説明するための模式図を示している。図21Aは、表示の垂直面内の光線軌跡を示し、図21Bは、サブ画素領域4を拡大して模示的に示している。図21A及び21Bおける、白丸は、図20B及び図21Aに示すように観察者30が破線で示す基準位置に位置している際に表示パネル1において観察されるあるサブ画素領域の位置を示しその下の双方向矢印は、白丸を決めた際の観察位置を中心として視域を最大にするためのサブ画素領域の範囲を示す。黒丸は、図20B及び図21Aに示すように観察者30が実線で示す位置に移動した際に同一の光学的開口部3を経由して、観察される表示パネル1における位置を、その表示パネル1に沿って示した双方向の矢印は、その観察位置を中心として視域を最大にするためのサブ画素領域の範囲を示している。ここで、レンズの傾きをφ、視距離をLとすると、サブ画素領域のシフト量uは次のように求められる。
 図21B及び図21Aに示す基準座標位置からの観察では、シフト量uを0とする。ここで、基準座標位置からから距離Δyだけ観察位置が第二の方向(垂直方向)にシフトされる場合、観察者30が観察する白丸に相当する画像は、黒丸で示されるようにシフトされて経由した光学的開口部3の真後ろではなく、上または下(ここでは下)にずれた位置で画像を観察することとなる。ここで、白丸で示した位置(y座標=0)を観察する光学的開口部3に対応した、初期のサブ画素領域3の範囲を白丸の下に示した矢印36で示す。有限の距離Lで観察位置がΔyだけずれた位置から観察した場合には、先ほどの光学的開口部3から透視度を考慮して設定するべきサブ画素領域3の幅は、矢印36で示す幅から黒丸の下に示した矢印の範囲38になる。y方向のずれをtとしたときにシフト量uは、
    t:yo=g:L   ・・・(11)
    u=t/tanφ   ・・・(12)
 で与えられる。この関係に従って、サブ画素領域4を第1の方向にシフトさせることで、観察位置が第2の方向にずれたときに視域が狭くなる現象を抑えることができる。
 図22には、サブ画素領域4における具体的なマッピングの一例が示されている。サブ画素は、通常の平面パネルと同様に行列に沿った水平及び垂直方向(第1及び第2の方向に)に配列され、第1の方向と第2の方向との辺の長さの比は1:3に定められている。光学的開口部の傾きαを、α=atan(1/2)としたときに、図22では、光学的開口部hと光学的開口部iとに応じて4視差が画素に割り振られている。光学的開口部3に対する相対位置から、視差番号は、非整数(視差番号0.00000~視差番号3.66670)で示されているが、これはPe=6であるのに対し、視差が4であることから、視差番号が、4/6=2/3ずつずれて割り当てられているためである。また、太線で囲んだ領域は、サブ画素領域の境界が画素をまたいでいるために本願の実施の形態を適用すべき領域で、図22では、視域最適化処理によって、サブ画素及びサブ画素のセグメント領域が符号h或いは符号iで指定される光学的開口部3のいずれかに属するかを一義的に決められている。図22には、上記実施の形態の手法を適用した例を拡大して示され、2つのサブ画素42、44の境界は、サブ画素領域の境界に一致せず、サブ画素領域の境界は、サブ画素42、44上を破線で示すように横切っている。ここでは、符号hで示される光学的開口部3に属する視差番号の画像情報、符号iで示される光学的開口部3に属する視差番号の画像情報をこの境界で分けられた面積に応じて混ぜて表示している。数字に添えたアルファベットは、その視差番号がどちらの光学的開口部3に属しているかを示している。また、符号So、Sp、Sq、Srは、面積を示している。一例として、符号So及びSpで示されるセグメント領域で構成される画素は、視差番号hで示される光学的開口部3に属する視差番号の画像情報と視差番号iで示される光学的開口部3に属する視差番号の画像情報とが面積So、Spの割合で混合されて表示されことを示している。
 ここでは単純に面積で示したが、視感度を考慮することが好ましい。さらには、より多い視差情報を必要とする(ここでは面積qに割り当てられた視差番号4.3333など)という点で画像処理負荷が高まるという課題がある場合は、隣接した視差番号3.6670が代用されても、一定の効果が得られる。
 以上、一例について述べたが、図1に示したように第2の方向に延伸した光学的開口部を設けつつ、サブ画素が例えばデルタ配列のように、行毎に第1の方向の座標がずれるような場合も、この実施の形態を適用するのが有効である。すなわち、サブ画素領域3とサブ画素の物理的な境界が一致しない場合全てに有用である。
 図1に示される表示パネルドライバ8は、図23或いは図24に示すように画像処理部を備えて構成される。図23では、図24に示される観察位置を取得する観察位置取得部52を備えていない点が異なっていることから、図24を参照してこの画像処理部を説明する。
 観察者30の位置は、図1に示す位置センサ5から信号が観察位置取得部52で処理されてx、y及びzの座標信号に変換される。この観察者30の座標信号は、観察位置の信号を保持する観察位置保持部54に与えられる。図23に示す監察位置保持部54では、予め外部からリモコン等で複数の位置、例えば、リビングにおいて、ソファーの位置が標準位置として登録され、それ以外、例えば、ダイニングの椅子の位置から視聴等の異なる位置が登録され、これらの位置を座標信号の情報として選択することが可能としている。
 また、画像処理部は、三次元表示装置の特性を定める各種のパラメータ、例えば、ギャップg、開口ピッチPe、画素ピッチpp及び光学開口の傾きΦ又はこれらに類するパラメータ情報を保持する三次元表示装置情報保持部56が設けられている。観察位置保持部54に保持された観察者の位置情報及び三次元表示装置情報保持部56に保持された三次元画像表示装置の特性を定めるパラメータ情報から、光学的開口部3に割り当てられるサブ画素領域4の幅Pが式(1)、より具体的には、式(1-1)からサブ画素領域算出部58において算出され、また、図12Aから図14C並びに図16Aから図22を参照して説明したサブ画素領域4の傾き及びシフト量等のパラメータが算出される。サブ画素領域情報算出部58が算出したサブ画素領域に関するサブ画素領域4の幅P等のパラメータは、各サブ画素に表示する視差画像情報を生成する三次元画像情報生成部62に与えられる。この三次元画像情報生成部62には、視差画像を保持している視差画像保持部60から供給される視差画像データが与えられ、この視差画像データは、パラメータで処理されて図22に示すように実際にサブ画素として表示される画素情報に変換されて画素信号として表示部2に供給される。その結果、観察者30の位置に応じて最適な映像が表示パネル2に表示されて三次元映像が三次元映像装置によって観察可能に表示される。
 位置情報は、センサ5で検出されるリアルタイムに計測した位置情報であっても良く、複数人数が観察する場合は、複数人数が視域内に入っても、サイドローブと呼ばれる、サブ画素領域の画像情報が隣接した光学的開口部から観察されることによる擬似的な視域に入っても良い。いずれにしろ、検出した位置情報を反映して、複数人数にとって視域が確保される状態を実現することが好ましい。ここで、多人数視聴である旨は、監察位置保持部54に与えられてサブ画素領域4の幅Pが決められ、また、三次元画像生成部62において、サブ画素領域4の境界に位置する画素Xaには、隣接した光学的開口部3を経由したことを仮定した情報をサブ画素領域の境界と画素の中心との相対関係を反映した割合で混ぜられることが好ましい。
 この発明は、上記実施形態そのままに限定されるものでなく、実施段階では、その要旨を逸脱しない範囲で構成要素を変形して具体化できる。特に、図を含めて一次元の方向についてのみ説明したが、二次元に展開しても良い。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合わせてもよい。
 上述したように、光線制御素子と平面表示装置を組み合わせた、メガネ無しで三次元映像を観察可能な三次元映像表示装置において、表示画像を工夫することで、視点位置の制約をなくしながらも、最大限に視域を確保した三次元映像表示装置が提供される。

Claims (14)

  1.   第1の方向と前記第1の方向に直交する第2の方向とに沿ってサブ画素がマトリクス状に配列された表示部と、
     前記表示部に対向して設置されて前記表示部からの光線を制御する光線制御素子であって、前記光線制御素子が前記第1及び第2の方向にマトリクス状に設けられた複数の第1タイプの光学的開口部、または前記第2の方向に沿って略直線状に延出され、前記第1の方向に沿って配列されている複数の第2タイプの光学的開口部のいずれかで構成されている光線制御素子と、
     を備え、前記サブ画素に前記光学的開口部を経由して観察される視差画像情報を表示することにより、観察位置において三次元画像を視認することができる三次元画像表示装置において、
     前記観察位置に応じて、前記光学的開口部に割り当てられるサブ画素領域を定めること、
     前記サブ画素領域に含まれる、互いに隣接する前記サブ画素領域の境界で前記サブ画素を区分したサブ画素セグメントを特定し、
     前記互いに隣接するサブ画素領域に対応し、互いに隣接する光学的開口部を経由して観察される前記サブ画素セグメントを構成するサブ画素には、前記互いに隣接するサブ画素領域に属する視差情報を混合させたサブ画素表示情報を生成する、
     画像表示方法。
  2.   前記サブ画素領域は、前記第1の方向に沿う整数個のサブ画素及びサブ画素セグメントの組み合わせで構成されて、この第1の方向にはこのサブ画素領域の幅の非整数倍の幅を有する請求項1に記載の画像表示方法。
  3.   前記サブ画素セグメントは、前記第1の方向又は前記第1及び第2の方向に沿って一定幅を有するようにある周期で繰りかえされる請求項2に記載の画像表示方法。
  4.   前記サブ画素領域は、前記サブ画素の幅の整数倍の領域幅を有し、互いに隣接する前記サブ画素領域の境界は、前記サブ画素に定められている請求項1に記載の画像表示方法。
  5.   前記光学的開口部は、前記第1の方向或いは前記第2の方向に対してある角度を成すように前記第2の方向に沿って略直線状に延出され、この角度を成す延出方向が前記サブ画素を斜めに横切っている請求項1に記載の画像表示方法。
  6.   前記光学的開口部に割り当てられる前記サブ画素領域の幅を前記サブ画素幅で規格化した値Pは、前記観察位置からの光線制御素子までの距離L、前記開口部のピッチをサブ画素幅で規格化して表したPe、前記表示部の面と前記光線制御子の面との間の距離gより、
        L:(L+g)=Pe:P
    を満たすように定める請求項1に記載の画像表示方法。
  7.   三次元画像が見える範囲の角度2θは、前記サブ画素ピッチをpp、観察距離Lでの視域幅をVWとしたときに、
        tanθ=(pp×P/2)/g=(VW/2/L)
     で与えられ、前記二つのサブ画素領域の境界に位置する前記サブ画素には、角度2θだけ離れた方向から観察されるように視差画像情報が混ぜて表示される請求項1に記載の画像表示方法。
  8.   第1の方向と前記第1の方向に直交する第2の方向とに沿ってサブ画素がマトリクス状に配列された表示部と、
     前記表示部に対向して設置されて前記表示部からの光線を制御する光線制御素子であって、前記光線制御素子が前記第1及び第2の方向にマトリクス状に設けられた複数の第1タイプの光学的開口部、または前記第2の方向に沿って略直線状に延出され、前記第1の方向に沿って配列されている複数の第2タイプの光学的開口部のいずれかで構成されている光線制御素子と、
     観察位置に応じて、前記光学的開口部に割り当てられるサブ画素領域が定められ、サブ画素領域は、互いに隣接するサブ画素領域の境界でサブ画素を区分したサブ画素セグメントを含み、前記サブ画素セグメントは、前記互いに隣接するサブ画素領域に対応し、互いに隣接する光学的開口部を経由して観察され、前記サブ画素セグメントを構成するサブ画素には、前記互いに隣接するサブ画素領域に属する視差情報が混合されて表示させるようにサブ画素表示情報を生成する生成部と、
     を備え、前記サブ画素に前記光学的開口部を経由して観察される視差画像情報を表示することにより、前記観察位置において三次元画像を視認することができる三次元画像表示装置。
  9.   前記サブ画素領域は、前記第1の方向に沿う整数個のサブ画素及びサブ画素セグメントの組み合わせで構成されて、この第1の方向にはこのサブ画素領域の幅の非整数倍の幅を有する請求項8に記載の三次元画像表示装置。
  10.   前記サブ画素セグメントは、前記第1の方向又は前記第1及び第2の方向に沿って一定幅を有するようにある周期で繰りかえされる請求項9に記載の三次元画像表示装置。
  11.   前記サブ画素領域は、前記サブ画素の幅の整数倍の領域幅を有し、互いに隣接する前記サブ画素領域の境界は、前記サブ画素に定められている請求項8に記載の三次元画像表示装置。
  12.   前記光学的開口部は、前記第1の方向或いは前記第2の方向に対してある角度を成すように前記第2の方向に沿って略直線状に延出され、この角度を成す延出方向が前記サブ画素を斜めに横切っている請求項8に記載の三次元画像表示装置。
  13.   前記光学的開口部に割り当てられる前記サブ画素領域の幅を前記サブ画素幅で規格化した値Pは、前記観察位置からの光線制御素子までの距離L、前記開口部のピッチをサブ画素幅で規格化して表したPe、前記表示部の面と前記光線制御子の面との間の距離gより、
        L:(L+g)=Pe:P
    を満たすように定める請求項8に記載の三次元画像表示装置。
  14.   三次元画像が見える範囲の角度2θは、前記サブ画素ピッチをpp、観察距離Lでの視域幅をVWとしたときに、
        tanθ=(pp×P/2)/g=(VW/2/L)
     で与えられ、前記二つのサブ画素領域の境界に位置する前記サブ画素には、角度2θだけ離れた方向から観察されるように視差画像情報が混ぜて表示される請求項8に記載の三次元画像表示装置。
PCT/JP2011/057732 2011-03-29 2011-03-29 三次元映像表示装置 WO2012131887A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP11813860.1A EP2696233A4 (en) 2011-03-29 2011-03-29 THREE-DIMENSIONAL PICTURE-GENERATING DEVICE
CN201180002445.8A CN102822724B (zh) 2011-03-29 2011-03-29 三维图像显示装置以及图像显示方法
JP2011546367A JP5342017B2 (ja) 2011-03-29 2011-03-29 三次元映像表示装置
KR1020117030062A KR101290908B1 (ko) 2011-03-29 2011-03-29 3차원 영상 표시 장치
PCT/JP2011/057732 WO2012131887A1 (ja) 2011-03-29 2011-03-29 三次元映像表示装置
TW100133442A TWI452340B (zh) 2011-03-29 2011-09-16 Dimensional image display device, image display method
US13/404,637 US9237335B2 (en) 2011-03-29 2012-02-24 Three-dimensional image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/057732 WO2012131887A1 (ja) 2011-03-29 2011-03-29 三次元映像表示装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/404,637 Continuation US9237335B2 (en) 2011-03-29 2012-02-24 Three-dimensional image display apparatus

Publications (1)

Publication Number Publication Date
WO2012131887A1 true WO2012131887A1 (ja) 2012-10-04

Family

ID=46926581

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/057732 WO2012131887A1 (ja) 2011-03-29 2011-03-29 三次元映像表示装置

Country Status (7)

Country Link
US (1) US9237335B2 (ja)
EP (1) EP2696233A4 (ja)
JP (1) JP5342017B2 (ja)
KR (1) KR101290908B1 (ja)
CN (1) CN102822724B (ja)
TW (1) TWI452340B (ja)
WO (1) WO2012131887A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015045251A1 (ja) * 2013-09-27 2015-04-02 パナソニックIpマネジメント株式会社 裸眼立体視映像装置
WO2015132828A1 (ja) * 2014-03-06 2015-09-11 パナソニックIpマネジメント株式会社 映像表示方法、及び、映像表示装置
WO2015198607A1 (en) * 2014-06-25 2015-12-30 Sharp Kabushiki Kaisha Variable barrier pitch correction
CN105681778A (zh) * 2016-01-05 2016-06-15 京东方科技集团股份有限公司 一种三维显示装置及其驱动方法
JP2016126318A (ja) * 2014-12-31 2016-07-11 深▲セン▼超多▲維▼光▲電▼子有限公司 広視野角の裸眼立体画像表示方法及び表示デバイス
JP2017138498A (ja) * 2016-02-04 2017-08-10 株式会社ジャパンディスプレイ 表示装置
WO2020130049A1 (ja) * 2018-12-21 2020-06-25 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
JP7456290B2 (ja) 2020-05-28 2024-03-27 日本精機株式会社 ヘッドアップディスプレイ装置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004698A (ja) * 2011-10-25 2015-01-08 シャープ株式会社 立体表示装置
JP6099892B2 (ja) * 2012-07-09 2017-03-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 映像表示装置
MX348257B (es) * 2012-11-30 2017-06-05 Lumenco Llc Intercalado de lente oblicuo.
KR20140089860A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR101413244B1 (ko) * 2013-02-19 2014-06-30 한국과학기술연구원 변형된 공통시역을 이용하는 다시점 3차원 영상표시장치
KR20150108989A (ko) * 2014-03-18 2015-10-01 삼성디스플레이 주식회사 표시장치
KR102135686B1 (ko) * 2014-05-16 2020-07-21 삼성디스플레이 주식회사 입체영상 표시장치 및 이의 구동 방법
KR102030830B1 (ko) 2014-07-18 2019-10-10 삼성전자주식회사 곡면형 다시점 영상 디스플레이 장치 및 그 제어 방법
US9754053B2 (en) * 2014-08-11 2017-09-05 The Boeing Company System and method for reading geometric data from a computer-aided design (CAD) model
KR102185130B1 (ko) * 2015-05-21 2020-12-01 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 제어 방법
CN104965308B (zh) * 2015-08-05 2017-12-22 京东方科技集团股份有限公司 三维显示装置及其显示方法
KR102522397B1 (ko) * 2016-11-29 2023-04-17 엘지디스플레이 주식회사 무안경 방식의 입체영상 표시장치
KR101963392B1 (ko) * 2017-08-16 2019-03-28 한국과학기술연구원 무안경식 3차원 영상표시장치의 동적 최대 시역 형성 방법
CN107991838B (zh) * 2017-11-06 2020-10-23 万维科研有限公司 自适应三维立体成像系统
CN110806646B (zh) * 2018-07-20 2021-01-22 京东方科技集团股份有限公司 显示面板及其驱动方法、显示装置
JPWO2020241264A1 (ja) * 2019-05-31 2020-12-03
CN110989192B (zh) * 2020-01-11 2023-10-24 成都工业学院 一种图像显示轴向可变的显示装置
CN115808784A (zh) 2021-09-15 2023-03-17 群创光电股份有限公司 显示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185095A (ja) * 1997-09-05 1999-03-30 Fujitsu Ltd 画像表示装置
JP2004271617A (ja) * 2003-03-05 2004-09-30 Sanyo Electric Co Ltd 立体映像表示装置
JP2006091642A (ja) * 2004-09-27 2006-04-06 Sanyo Electric Co Ltd 映像表示装置
JP2006309178A (ja) * 2005-03-28 2006-11-09 Toshiba Corp 画像表示装置
JP2009239665A (ja) * 2008-03-27 2009-10-15 Toshiba Corp 三次元画像表示方法および装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064424A (en) * 1996-02-23 2000-05-16 U.S. Philips Corporation Autostereoscopic display apparatus
GB2317291A (en) * 1996-09-12 1998-03-18 Sharp Kk Observer tracking directional display
EP1045596A2 (en) * 1999-04-12 2000-10-18 Mixed Reality Systems Laboratory Inc. Stereoscopic image display apparatus
JP2003337303A (ja) * 2002-05-17 2003-11-28 Canon Inc 立体画像表示装置および立体画像表示システム
JP3892808B2 (ja) * 2002-12-27 2007-03-14 株式会社東芝 3次元画像表示装置、この表示装置に視差画像を配分する方法及びこの表示装置に3次元画像を表示する方法
US7425951B2 (en) 2002-12-27 2008-09-16 Kabushiki Kaisha Toshiba Three-dimensional image display apparatus, method of distributing elemental images to the display apparatus, and method of displaying three-dimensional image on the display apparatus
JP4015124B2 (ja) 2004-03-03 2007-11-28 株式会社東芝 三次元画像表示装置
JP4227076B2 (ja) * 2004-05-24 2009-02-18 株式会社東芝 立体画像を表示する表示装置及び立体画像を表示する表示方法
US7859529B2 (en) * 2004-08-18 2010-12-28 Sharp Kabushiki Kaisha Image data display apparatus
DE102004059729B3 (de) 2004-12-11 2006-04-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur autostereoskopischen Erzeugung von dreidimensionalen Bildinformationen aus gerasterten Subpixelauszügen und Anordnung zur Verfahrensdurchführung
JP2006174258A (ja) * 2004-12-17 2006-06-29 Namco Bandai Games Inc プログラム,立体視画像生成装置及び立体視画像表示装置
US20060215018A1 (en) * 2005-03-28 2006-09-28 Rieko Fukushima Image display apparatus
JP4476905B2 (ja) * 2005-08-31 2010-06-09 株式会社東芝 立体表示画像データの構造、立体表示画像データの記録方法、表示再生方法、記録プログラム、および表示再生プログラム
KR100781278B1 (ko) * 2006-05-04 2007-11-30 엘지전자 주식회사 입체영상 표시장치
JP2010503009A (ja) * 2006-08-31 2010-01-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動立体ディスプレイデバイス
JP4714116B2 (ja) * 2006-09-07 2011-06-29 株式会社東芝 立体映像表示装置および立体映像表示方法
JP2008083600A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 表示制御装置、3次元画像表示装置およびプログラム
EP3480649B1 (en) * 2007-02-13 2021-08-25 Samsung Display Co., Ltd. Subpixel layouts and subpixel rendering methods for directional displays and systems
JP2008228199A (ja) * 2007-03-15 2008-09-25 Toshiba Corp 立体画像表示装置及び立体画像表示方法並びに立体画像用データの構造
JP5207175B2 (ja) * 2008-03-31 2013-06-12 Nltテクノロジー株式会社 表示装置、電子機器、光学部材、表示パネル、コントローラ、及び表示パネルの駆動制御方法
JP5487668B2 (ja) 2009-03-24 2014-05-07 株式会社カネカ 発泡性スチレン系樹脂粒子
TWI439730B (zh) * 2010-07-16 2014-06-01 Au Optronics Corp 視差控制元件及其應用
JP5269027B2 (ja) * 2010-09-30 2013-08-21 株式会社東芝 三次元画像表示装置および画像処理装置
JP5900818B2 (ja) * 2011-03-29 2016-04-06 Nltテクノロジー株式会社 液晶表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185095A (ja) * 1997-09-05 1999-03-30 Fujitsu Ltd 画像表示装置
JP2004271617A (ja) * 2003-03-05 2004-09-30 Sanyo Electric Co Ltd 立体映像表示装置
JP2006091642A (ja) * 2004-09-27 2006-04-06 Sanyo Electric Co Ltd 映像表示装置
JP2006309178A (ja) * 2005-03-28 2006-11-09 Toshiba Corp 画像表示装置
JP2009239665A (ja) * 2008-03-27 2009-10-15 Toshiba Corp 三次元画像表示方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2696233A4 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015045251A1 (ja) * 2013-09-27 2015-04-02 パナソニックIpマネジメント株式会社 裸眼立体視映像装置
JPWO2015045251A1 (ja) * 2013-09-27 2017-03-09 パナソニックIpマネジメント株式会社 裸眼立体視映像装置
JPWO2015132828A1 (ja) * 2014-03-06 2017-03-30 パナソニックIpマネジメント株式会社 映像表示方法、及び、映像表示装置
WO2015132828A1 (ja) * 2014-03-06 2015-09-11 パナソニックIpマネジメント株式会社 映像表示方法、及び、映像表示装置
US9986226B2 (en) 2014-03-06 2018-05-29 Panasonic Intellectual Property Management Co., Ltd. Video display method and video display apparatus
WO2015198607A1 (en) * 2014-06-25 2015-12-30 Sharp Kabushiki Kaisha Variable barrier pitch correction
US10075703B2 (en) 2014-12-31 2018-09-11 Superd Technology Co., Ltd. Wide-angle autostereoscopic three-dimensional (3D) image display method and device
JP2016126318A (ja) * 2014-12-31 2016-07-11 深▲セン▼超多▲維▼光▲電▼子有限公司 広視野角の裸眼立体画像表示方法及び表示デバイス
CN105681778A (zh) * 2016-01-05 2016-06-15 京东方科技集团股份有限公司 一种三维显示装置及其驱动方法
US10317689B2 (en) 2016-01-05 2019-06-11 Boe Technology Group Co., Ltd. 3D display device and driving method thereof
JP2017138498A (ja) * 2016-02-04 2017-08-10 株式会社ジャパンディスプレイ 表示装置
WO2020130049A1 (ja) * 2018-12-21 2020-06-25 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
JP7456290B2 (ja) 2020-05-28 2024-03-27 日本精機株式会社 ヘッドアップディスプレイ装置

Also Published As

Publication number Publication date
JP5342017B2 (ja) 2013-11-13
EP2696233A1 (en) 2014-02-12
KR101290908B1 (ko) 2013-07-29
EP2696233A4 (en) 2014-12-10
TW201239399A (en) 2012-10-01
KR20120140590A (ko) 2012-12-31
CN102822724A (zh) 2012-12-12
CN102822724B (zh) 2015-04-08
TWI452340B (zh) 2014-09-11
US9237335B2 (en) 2016-01-12
US20120249530A1 (en) 2012-10-04
JPWO2012131887A1 (ja) 2014-07-24

Similar Documents

Publication Publication Date Title
JP5342017B2 (ja) 三次元映像表示装置
JP3966830B2 (ja) 立体表示装置
JP4002875B2 (ja) 立体画像表示装置
JP4937424B1 (ja) 立体画像表示装置および方法
JP4327758B2 (ja) 立体画像表示装置
JP6012764B2 (ja) オートステレオスコピックディスプレイおよび3d画像の表示方法
US20140139651A1 (en) Naked-eye 3d tv wall
US9438893B2 (en) Method for setting stereoscopic image data at a stereoscopic image display system by shifting data to a vertical direction
JP2008015188A (ja) 画像提示装置および画像提示方法
JP2008527456A (ja) マルチビューディスプレイ装置
JP2005086506A (ja) 映像表示装置
JP2012068338A (ja) 裸眼立体視ディスプレイ
CN113687523B (zh) 一种基于投射光非对称分布的裸眼光场显示方法
US20150130916A1 (en) Three-dimensional image display device
Kakeya et al. Time-division quadruplexing parallax barrier with subpixel-based slit control
JP5439686B2 (ja) 立体画像表示装置及び立体画像表示方法
JP2006309178A (ja) 画像表示装置
JP4892205B2 (ja) 立体画像表示装置及び立体画像表示方法
KR20160028596A (ko) 입체 영상 표시 장치
TW201320719A (zh) 立體畫像顯示裝置、畫像處理裝置及畫像處理方法
JP5214746B2 (ja) 三次元映像表示装置
JP4095635B2 (ja) 立体画像表示装置
JP2005091447A (ja) 立体表示装置
KR101103710B1 (ko) 투사광학계를 이용한 영상 디스플레이 장치
JP2005115364A (ja) 三次元画像表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180002445.8

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2011546367

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20117030062

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2011813860

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11813860

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE