KR20130123693A - An apparatus for processing autostereoscopic image - Google Patents

An apparatus for processing autostereoscopic image Download PDF

Info

Publication number
KR20130123693A
KR20130123693A KR1020120047010A KR20120047010A KR20130123693A KR 20130123693 A KR20130123693 A KR 20130123693A KR 1020120047010 A KR1020120047010 A KR 1020120047010A KR 20120047010 A KR20120047010 A KR 20120047010A KR 20130123693 A KR20130123693 A KR 20130123693A
Authority
KR
South Korea
Prior art keywords
image
display panel
filter
stereoscopic
subpixel
Prior art date
Application number
KR1020120047010A
Other languages
Korean (ko)
Inventor
김동욱
정동만
이재용
신운서
김진범
박태수
김우태
김주영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120047010A priority Critical patent/KR20130123693A/en
Publication of KR20130123693A publication Critical patent/KR20130123693A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

A stereoscopic image processing apparatus without glasses is disclosed. A display panel includes subpixels which generate a display. A stereoscopic image filter is arranged on the front side of the display panel and controls the directivity of light which passes through or is outputted from the display panel. The stereoscopic image filter is tilted at 21.8 degrees with regard to the display panel.

Description

무안경 입체영상 처리 장치{An apparatus for processing autostereoscopic image}An autostereoscopic image processing apparatus

본 발명은 무안경 입체영상 처리 장치에 관한 것으로, 보다 상세하게는, 3차원 안경을 착용하지 않고 입체영상을 볼 수 있도록 하는 무안경 입체영상 처리 장치에 관한 것이다.The present invention relates to an autostereoscopic 3D image processing apparatus, and more particularly, to an autostereoscopic 3D image processing apparatus that enables a 3D image to be viewed without wearing 3D glasses.

최근 3 차원 영상을 표현하는 디스플레이 기술이 다양한 분야에서 연구 및 활용되고 있다. 특히 3차원 영상을 디스플레이하는 기술을 활용하여, 3차원 영상을 디스플레이하는 전자 장치가 주목을 받고 있다.Recently, display technology for representing 3D images has been researched and utilized in various fields. In particular, an electronic device displaying a 3D image by using a technology of displaying a 3D image is attracting attention.

3 차원 영상을 디스플레이하는 기술은 양안의 시차로 관찰자가 입체감을 느끼게 되는 양안 시차의 원리를 이용하는 것으로, 안경 방식(shutter glass method), 무안경 방식, 완전 3차원 방식 등으로 구분된다. The technique of displaying a 3D image uses the principle of binocular parallax, in which an observer feels a stereoscopic feeling due to binocular disparity, and is classified into a shutter glass method, a glasses-free method, a full three-dimensional method, and the like.

도 1은 무안경 입체영상 디스플레이의 구조를 도시한 구조도이다.1 is a structural diagram showing the structure of an autostereoscopic 3D display.

도 1을 참조하면, 무안경 입체영상 디스플레이(1)는 디스플레이 패널(10) 및 입체영상 필터(20)를 포함한다. 입체영상 필터(20)는 디스플레이 패널(10)과 위치 일정한 간격(15)을 두고 배치된다. 입체영상 필터(20)는 복수의 렌티큘러 또는 복수의 배리어를 포함할 수 있다.Referring to FIG. 1, the autostereoscopic 3D display 1 includes a display panel 10 and a 3D image filter 20. The stereoscopic filter 20 is disposed at a predetermined distance 15 from the display panel 10. The stereoscopic filter 20 may include a plurality of lenticulars or a plurality of barriers.

사용자(11)는 지정된 관찰거리(25)에서 설계된 시점수와 시점 간격에 따라서 입체영상을 시청하게 된다. 여기서 시점수는 다시점(Multi-View) 디스플레이에서 각기 다른 영상을 볼 수 있는 위치의 개수를 의미한다. 관찰거리(25), 시점수 및 시점 간격은 입체영상 필터의 설계 조건에 의한다. 입체영상 필터(20)는 자연스러운 입체영상과 좀 더 넓은 단위시역을 제공하기 위하여 다시점으로 설계된다. 여기서, 자연스러운 입체영상은 양안시차 및 단안운동시차를 갖는 영상을 의미할 수 있다. 입체영상 필터의 설계시에, 디스플레이될 영상의 가로 해상도 및 세로 해상도 비율을 맞추기 위하여 입체영상 필터는 기울어진 형태로 디스플레이 패널에 부착된다.The user 11 views the stereoscopic image according to the number of viewpoints and the viewpoint intervals designed at the designated viewing distance 25. Here, the number of views means the number of positions where different images can be viewed on a multi-view display. The viewing distance 25, the number of viewpoints, and the viewing intervals depend on the design conditions of the stereoscopic image filter. The stereoscopic image filter 20 is designed as a multi-view in order to provide a natural stereoscopic image and a wider unit of view. Here, the natural stereoscopic image may mean an image having binocular parallax and monocular parallax. In designing the stereoscopic filter, the stereoscopic filter is attached to the display panel in an inclined form so as to match the horizontal and vertical resolution ratios of the image to be displayed.

도 2는 입체영상 필터의 배치의 일실시예를 도시한 도면이다.2 is a diagram illustrating an embodiment of arrangement of a stereoscopic image filter.

도 2를 참조하면, 무안경 입체영상 디스플레이(2)는 디스플레이 패널(30) 및 입체영상 필터(50)를 포함한다. 디스플레이 패널(30)의 시점수는 9이다. 즉 디스플레이 패널(30)은 9개의 시점 영상을 디스플레이한다. 또한 입체영상 필터(50)는 18.43도의 기울기 각도(51)를 갖는다. 입체영상 필터의 기울기는 디스플레이 패널의 수직축(21)에 대하여 입체영상 필터의 배리어의 테두리가 기울어진 각도(51)를 의미할 수 있고, 입체영상 필터의 렌즈의 테두리 또는 종축이 기울어진 각도(51)를 의미할 수 있다.Referring to FIG. 2, the autostereoscopic 3D display 2 includes a display panel 30 and a 3D image filter 50. The number of viewpoints of the display panel 30 is nine. That is, the display panel 30 displays nine viewpoint images. In addition, the stereoscopic filter 50 has an inclination angle 51 of 18.43 degrees. The inclination of the stereoscopic image filter may mean an angle 51 at which the edge of the barrier of the stereoscopic image filter is inclined with respect to the vertical axis 21 of the display panel, and the angle at which the edge or the vertical axis of the lens of the stereoscopic image filter is inclined (51). May mean.

도 3은 입체영상 필터의 배치의 다른 실시예를 도시한 도면이다.3 is a view showing another embodiment of the arrangement of the stereoscopic image filter.

도 3을 참조하면, 무안경 입체영상 디스플레이(3)는 디스플레이 패널(60) 및 입체영상 필터(70)를 포함한다. 디스플레이 패널(30)의 시점수는 9이다. 즉, 디스플레이 패널(60)은 9개의 시점 영상을 디스플레이한다. 또한, 입체영상 필터(70)는 9.46도의 기울기 각도(71)를 갖는다.Referring to FIG. 3, the autostereoscopic 3D display 3 includes a display panel 60 and a 3D image filter 70. The number of viewpoints of the display panel 30 is nine. That is, the display panel 60 displays nine viewpoint images. In addition, the stereoscopic image filter 70 has an inclination angle 71 of 9.46 degrees.

본 발명이 이루고자하는 기술적 과제는 모아레를 발생시키지 않으면서 입체영상을 디스플레이하는 무안경 입체영상 처리 장치를 제공하는데 있다.SUMMARY OF THE INVENTION The present invention has been made in an effort to provide an autostereoscopic 3D image processing apparatus for displaying 3D images without generating moiré.

본 발명이 이루고자하는 다른 기술적 과제는 빛의 세기 분포에 따라 발생하는 크로스턱(cross-talk) 현상을 이용하여 사용자에게 주관적으로 인지되는 크로스턱(cross-talk) 현상인 고스팅(Ghosting)을 감소시켜, 입체영상의 화질을 향상시킬 수 있는 무안경 입체영상 처리 장치를 제공하는데 있다. Another technical problem to be achieved by the present invention is to reduce ghosting, which is a cross-talk phenomenon subjectively perceived by a user, by using a cross-talk phenomenon generated according to the distribution of light intensity. The present invention provides an autostereoscopic 3D processing apparatus capable of improving the quality of 3D images.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 무안경 입체영상 처리 장치는, 디스플레이를 생성하는 서브 픽셀들을 포함하는 디스플레이 패널, 및 상기 디스플레이 패널의 전면에 배치되고, 상기 디스플레이 패널을 통과한 빛 또는 상기 디스플레이 패널로부터 출사된 빛의 방향성을 제어하는 입체영상 필터를 포함하고,상기 입체영상 필터는 상기 디스플레이 패널에 대하여 21.8도 만큼 기울어지게 형성된다.In order to achieve the above technical problem, an autostereoscopic 3D processing apparatus according to the present invention includes a display panel including subpixels for generating a display, and light disposed on a front surface of the display panel and passing through the display panel. Or a stereoscopic image filter for controlling the direction of light emitted from the display panel, wherein the stereoscopic image filter is formed to be inclined by 21.8 degrees with respect to the display panel.

상기 입체영상 필터는, 다수의 렌즈를 구비하는 렌티큘러 렌즈 기판일 수 있다. 상기 렌티큘러 렌즈 기판은, 투과하는 빛을 원편광으로 변환하는 렌티큘러 어레이를 더 포함하고, 상기 디스플레이 패널이 디스플레이하는 영상의 종류에 따라 상기 렌티큘러 어레이가 활성화 또는 비활성화될 수 있다.The stereoscopic image filter may be a lenticular lens substrate having a plurality of lenses. The lenticular lens substrate further includes a lenticular array for converting transmitted light into circularly polarized light, and the lenticular array may be activated or deactivated according to the type of an image displayed by the display panel.

상기 입체영상 필터는, 투과영역와 불투과영역을 교번적으로 형성하는 패럴랙스 배리어일 수 있다. 상기 디스플레이 패널이 디스플레이되는 영상의 종류에 따라 상기 입체영상 필터의 불투과영역이 활성화 또는 비활성될 수 있다.The stereoscopic image filter may be a parallax barrier that alternately forms a transmission region and an opacity region. The opaque region of the stereoscopic filter may be activated or deactivated according to the type of the image on which the display panel is displayed.

상기 입체영상 필터의 피치(Pich)의 폭은 2.4개 내지 13개의 서브 픽셀의 가로 폭과 대응될 수 있다.The width of the pitch of the stereoscopic image filter may correspond to the horizontal width of 2.4 to 13 subpixels.

상기 입체영상 필터의 피치(Pitch)의 폭은 서브 픽셀의 가로 폭의 정수배 또는 비정수배의 크기일 수 있다.The width of the pitch of the stereoscopic image filter may be an integer multiple of the horizontal width of the subpixel or a non-integral multiple.

상기 디스플레이 패널이 디스플레이하는 영상은 2차원 영상, 스테레오 영상 및 다시점 영상 중 적어도 하나를 포함할 수 있다.The image displayed by the display panel may include at least one of a 2D image, a stereo image, and a multiview image.

상기 디스플레이 패널은 PDP(Plasma Display Panel), LCD(Liquid Crystal Display) 및 LED(Light-Emitting Diode) 패널 중 하나일 수 있다.The display panel may be one of a plasma display panel (PDP), a liquid crystal display (LCD), and a light-emitting diode (LED) panel.

상기 무안경 입체영상 처리 장치는, 상기 디스플레이 패널의 배면에 배치되고, 상기 표시 패널로 빛을 공급하는 백라이트를 더 포함할 수 있다.The autostereoscopic 3D image processing apparatus may further include a backlight disposed on a rear surface of the display panel and supplying light to the display panel.

상기 디스플레이 패널이 디스플레이하는 다시점 영상의 시점수는 12개 내지 65개 사이일 수 있다.The number of viewpoints of the multiview image displayed by the display panel may be between 12 and 65.

시점 영상은 가로 방향으로 5시점씩 증가하고 세로 방향으로 6시점씩 증가하는 방식으로 디스플레이 패널 상에 배치될 수 있다.The viewpoint image may be disposed on the display panel in such a manner that the viewpoint image increases by 5 viewpoints in the horizontal direction and increases by 6 viewpoints in the vertical direction.

상기 무안경 입체영상 처리 장치는 사용자의 이미지를 촬상하는 카메라 및 상기 촬상된 이미지를 이용하여 상기 사용자의 위치에 관련된 사용자 위치 정보를 결정하고, 상기 결정된 사용자 위치 정보를 기초로 상기 시점 영상들의 디스플레이를 제어하기 위한 제어신호를 생성하는 제어부를 더 포함할 수 있다. 상기 입체영상 필터의 피치는 상기 제어신호에 따라 이동할 수 있다. 또한 상기 디스플레이 패널에 디스플레이될 복수의 시점 영상은 상기 제어신호에 따라 배치될 수 있다.The autostereoscopic 3D image processing apparatus determines user location information related to the location of the user using a camera photographing an image of the user and the captured image, and displays the view of the viewpoint images based on the determined user location information. The control unit may further include a control unit for generating a control signal for controlling. The pitch of the stereoscopic image filter may move according to the control signal. In addition, a plurality of viewpoint images to be displayed on the display panel may be arranged according to the control signal.

본 발명에 따른 무안경 입체영상 처리 장치에 의하면, 모아레를 발생시키지 않으면서 입체영상을 디스플레이하며, 사용자에게 인지되는 크로스턱(Cross-talk)인 고스팅(Ghosting)을 감소시키므로 입체영상의 화질을 향상시킬 수 있다.According to the autostereoscopic 3D image processing apparatus according to the present invention, the 3D image is displayed without generating moiré, and the image quality of the 3D image is reduced since the ghosting, which is a cross-talk perceived by the user, is reduced. Can be improved.

도 1은 무안경 입체영상 디스플레이의 구조를 도시한 구조도,
도 2는 입체영상 필터의 배치의 일실시예를 도시한 도면,
도 3은 입체영상 필터의 배치의 다른 실시예를 도시한 도면,
도 4는 본 발명에 따른 무안경 입체영상 처리 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 5는 디스플레이 패널의 패턴과 입체영상 필터의 패턴 사이에서 발생하는 모아레의 일예를 도시한 도면,
도 6은 디스플레이 패널의 패턴 및 입체영상 필터의 패턴에 의해 생성되는 모아레를 설명하기 위한 도면,
도 7은 디스플레이 패널 및 입체영상 필터의 배치를 도시한 도면,
도 8은 디스플레이 패널이 방출한 빛의 세기 분포로 발생하는 크로스턱(Cross-talk)과 사용자가 인지하는 크로스턱인 고스팅(Ghosting)을 설명하기 위한 도면,
도 9는 본 발명에 따른 입체영상 필터의 배치의 일실시예를 도시한 도면,
도 10은 본 발명에 따른 입체영상 필터의 배치의 다른 실시예를 도시한 도면,
도 11은 입체영상 필터가 18.43도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면,
도 12는 입체영상 필터가 12.53도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면,
도 13은 입체영상 필터가 14.93도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면,
도 14는 입체영상 필터가 23.96도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면,
도 15는 입체영상 필터가 21.8도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면,
도 16은 양안 사이에 시점수의 일실시예를 도시한 도면,
도 17은 도 16의 실시예에 따라 나타나는 크로스턱(Crross-talk)과 고스팅(Ghosting) 현상을 설명하기 위한 도면,
도 18은 양안 사이에 시점수의 다른 실시예를 도시한 도면,
도 19는 도 18의 실시예에 따라 나타나는 크로스턱(Crross-talk)과 고스팅(Ghosting) 현상을 설명하기 위한 도면,
도 20은 본 발명에 따른 입체영상 필터의 배치의 또 다른 실시예를 도시한 도면,
도 21은 액정 Lenticular의 원리를 도시한 도면,
도 22는 렌티큘러 렌즈 기판에 대한 바람직한 일실시예의 구조를 도시한 도면, 그리고,
도 23은 도 12의 렌티큘러 렌즈 기판에 입사되는 빛의 편광형태에 따라 조절되는 빛의 경로를 도시한 도면이다.
1 is a structural diagram showing a structure of an autostereoscopic 3D display;
2 is a diagram illustrating an embodiment of arrangement of a stereoscopic image filter;
3 is a view showing another embodiment of arrangement of a stereoscopic image filter;
4 is a block diagram showing the configuration of a preferred embodiment of an autostereoscopic 3D image processing apparatus according to the present invention;
5 illustrates an example of moiré generated between a pattern of a display panel and a pattern of a stereoscopic image filter;
6 is a view for explaining a moiré generated by a pattern of a display panel and a pattern of a stereoscopic image filter;
7 is a diagram illustrating an arrangement of a display panel and a stereoscopic image filter;
FIG. 8 is a diagram illustrating cross-talk generated by a distribution of intensity of light emitted by a display panel and ghosting which is a cross-tuck perceived by a user;
9 is a view showing an embodiment of arrangement of a stereoscopic image filter according to the present invention;
10 is a view showing another embodiment of an arrangement of a stereoscopic image filter according to the present invention;
FIG. 11 is a view showing an image of a moiré generated when a stereoscopic image filter is disposed to have an inclination of 18.43 degrees; FIG.
FIG. 12 is a view showing an image of a moiré generated when a stereoscopic image filter is disposed to have a slope of 12.53 degrees; FIG.
FIG. 13 is a view showing an image of a moiré generated when a stereoscopic image filter is disposed to have a tilt of 14.93 degrees; FIG.
FIG. 14 is a view showing an image of a moiré generated when a stereoscopic image filter is arranged to have a tilt of 23.96 degrees; FIG.
FIG. 15 is a view showing an image of a moiré generated when a stereoscopic image filter is disposed to have a tilt of 21.8 degrees; FIG.
16 is a view showing an embodiment of the number of viewpoints between both eyes;
FIG. 17 is a view illustrating a cross-talk and ghosting phenomenon according to the embodiment of FIG. 16; FIG.
18 is a view showing another embodiment of the number of viewpoints between both eyes;
FIG. 19 is a view illustrating a cross-talk and ghosting phenomenon according to the embodiment of FIG. 18; FIG.
20 is a view showing another embodiment of arrangement of a stereoscopic image filter according to the present invention;
21 is a view showing the principle of the liquid crystal Lenticular,
22 illustrates a structure of a preferred embodiment of a lenticular lens substrate, and
FIG. 23 is a view illustrating a path of light adjusted according to a polarization pattern of light incident on the lenticular lens substrate of FIG. 12.

이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.Although the terms used in the present invention have been selected in consideration of the functions of the present invention, it is possible to use general terms that are currently widely used, but this may vary depending on the intention or custom of a person skilled in the art or the emergence of new technology. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, it is to be understood that the term used in the present invention should be defined based on the meaning of the term rather than the name of the term, and on the contents of the present invention throughout.

도 4는 본 발명에 따른 무안경 입체영상 처리 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.Figure 4 is a block diagram showing the configuration of a preferred embodiment of the autostereoscopic 3D image processing apparatus according to the present invention.

도 4를 참조하면, 본 발명에 따른 무안경 입체영상 처리 장치(100)는 수신부(101), 역다중화부(130), 비디오 디코더(134), 오디오 디코더(138), 버퍼(140), 그래픽 프로세서(145), 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180) 및 제어부(190) 중 적어도 하나를 포함할 수 있다. 실시예에 따라서 무안경 입체영상 처리 장치(100)는 카메라(195)를 포함할 수 있다.Referring to FIG. 4, the autostereoscopic 3D image processing apparatus 100 according to the present invention includes a receiver 101, a demultiplexer 130, a video decoder 134, an audio decoder 138, a buffer 140, and graphics. The processor 145 may include at least one of a display 150, a voice output unit 160, an input device 170, a storage unit 180, and a controller 190. According to an embodiment, the autostereoscopic 3D image processing apparatus 100 may include a camera 195.

무안경 입체영상 처리 장치(100)는 예컨대 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 디스플레이기기로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린, 터치 패드 또는 매직 리모컨 등 사용에 편리한 인터페이스를 갖출 수 있다. 그리고 무안경 입체영상 처리 장치(100)는 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다. 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 보다 구체적으로 예를 들면, 무안경 입체영상 처리 장치(100)는 네트워크 TV, HBBTV, 스마트 TV 및 오픈하이브리드TV(OHTV) 등이 될 수 있으며, 경우에 따라 이동 단말기, 스마트폰, PC 및 가전기기에도 적용 가능하다.The autostereoscopic 3D image processing apparatus 100 is, for example, an intelligent display device in which a computer support function is added to a broadcast reception function. Or, it can be equipped with a convenient interface such as Magic Remote Control. The autostereoscopic 3D image processing apparatus 100 is connected to the Internet and a computer with the support of a wired or wireless Internet function, and can also perform functions such as e-mail, web browsing, banking, or gaming. A standardized general-purpose OS can be used for these various functions. For example, on a general-purpose OS kernel, various applications can be freely added or removed, so that various user-friendly functions can be performed. More specifically, for example, the autostereoscopic 3D image processing apparatus 100 may be a network TV, an HBBTV, a smart TV, an open hybrid TV (OHTV), or the like, and in some cases, a mobile terminal, a smartphone, a PC, and a home appliance. Applicable to

수신부(101)는 방송 데이터, 영상 데이터, 음성 데이터, 정보 데이터 및 애플리케이션 데이터를 수신할 수 있다. 영상 데이터는 2차원 영상을 디스플레이하기 위한 영상 데이터 및 3차원 영상을 디스플레이하기 위한 영상 데이터일 수 있다. 또한 상기 3차원 영상은 스테레오 이미지 또는 다시점 영상 중 적어도 하나를 포함할 수 있다.The receiver 101 may receive broadcast data, video data, audio data, information data, and application data. The image data may be image data for displaying a 2D image and image data for displaying a 3D image. In addition, the 3D image may include at least one of a stereo image or a multiview image.

상기 3차원 영상은 복수의 입체영상 프레임을 포함하는 3차원 동영상(3차원 비디오)일 수 있다. 일부 실시예로, 입체영상 프레임은 특정 폭과 넓이를 갖는 2차원 영상 프레임과 이에 대응하는 깊이 영상을 포함할 수 있다. 여기서 2차원 영상 프레임은 칼라 영상 데이터를 포함한다. 상기 칼라 영상 데이터는 픽셀값을 포함한다. 이하에서 2차원 영상 프레임을 칼라 영상이라고 명명한다. 상기 깊이 영상은 그레이 레벨(Grey Level)로 표현될 수 있고, 상기 2차원 영상 프레임의 픽셀 해상도와 동일한 해상도를 가질 수 있다. 상기 깊이 영상에 포함된 픽셀들은 각각 상기 2차원 영상 프레임에 포함된 픽셀들과 일대 일로 대응되는 깊이값을 가질 수 있다. 상기 깊이값은 그레이 레벨로 표시될 수 있다. 일예로, 상기 그레이 레벨은 0에서 255의 값을 가질 수 있다.The 3D image may be a 3D video (3D video) including a plurality of 3D image frames. In some embodiments, the 3D image frame may include a 2D image frame having a specific width and width and a depth image corresponding thereto. Here, the 2D image frame includes color image data. The color image data includes pixel values. Hereinafter, the two-dimensional image frame is called a color image. The depth image may be represented by a gray level and may have the same resolution as the pixel resolution of the 2D image frame. The pixels included in the depth image may each have a depth value corresponding one-to-one with the pixels included in the 2D image frame. The depth value may be displayed in gray level. For example, the gray level may have a value of 0 to 255.

수신부(101)는 튜너부(110), 복조부(120), 이동 통신부(115), 네트워크 인터페이스부(125), 음성 감지부(133) 및 외부 신호 수신부(135)를 포함할 수 있다. 튜너부(110)는 방송망을 통해 데이터를 포함하는 스트림 신호를 수신할 수 있고, 복조부(120)는 상기 수신된 스트림 신호를 복조한다. 이동 통신부(115)는 2G 통신망, 3G 통신망, 4G 통신망 등의 이동 통신망을 통해 데이터를 수신할 수 있다. 또한 네트워크 인터페이스(125)는 네트워크를 통해 데이터를 송수신할 수 있으며, 외부 신호 수신부(125)는 외부 장치로부터 애플리케이션 및 컨텐츠를 수신할 수 있고, 카메라(195)로부터 영상 프레임을 수신할 수 있다. 여기서 상기 영상 프레임은 사용자가 촬상된 영상 프레임일 수 있다.The receiver 101 may include a tuner 110, a demodulator 120, a mobile communication unit 115, a network interface 125, a voice detector 133, and an external signal receiver 135. The tuner unit 110 may receive a stream signal including data through a broadcasting network, and the demodulator 120 demodulates the received stream signal. The mobile communication unit 115 may receive data through a mobile communication network such as a 2G communication network, a 3G communication network, and a 4G communication network. In addition, the network interface 125 may transmit and receive data through a network, the external signal receiver 125 may receive an application and content from an external device, and may receive an image frame from the camera 195. The image frame may be an image frame captured by the user.

역다중화부(130)는 복조부(120)가 출력한 스트림 신호를 비디오 신호 및 오디오 신호로 역다중화한다. 또한 역다중화부(130)는 이동 통신부(115), 네트워크 인터페이스부(125) 및 외부 신호 수신부(135)로부터 영상 데이터, 음성 데이터, 방송 데이터, 정보 데이터 및 애플리케이션 데이터를 수신할 수 있다. The demultiplexer 130 demultiplexes the stream signal output from the demodulator 120 into a video signal and an audio signal. In addition, the demultiplexer 130 may receive image data, audio data, broadcast data, information data, and application data from the mobile communication unit 115, the network interface unit 125, and the external signal receiving unit 135.

비디오 디코더(134)는 역다중화부(130)가 역다중화한 비디오 신호를 디코딩하고, 디코딩한 비디오 신호를 버퍼(140)에 저장한다.The video decoder 134 decodes the video signal demultiplexed by the demultiplexer 130 and stores the decoded video signal in the buffer 140.

그래픽 프로세서(145)는 버퍼(140)에 저장된 영상 데이터가 디스플레이되도록 디스플레이(150)를 제어한다. 그래픽 프로세서(145)는 영상 데이터에 포함된 시점 영상들의 배치하여 합성하고, 합성된 이미지를 디스플레이(150)에 출력할 수 있다. 그래픽 프로세서(145)는 제어부(190)의 제어에 따라 시점 영상들을 배치할 수 있다. 즉 그래픽 프로세서(145)는 제어부(190)가 생성한 시점 영상의 배치를 조절하기 위한 제어 신호에 따라 시점 영상들을 배치할 수 있다.The graphics processor 145 controls the display 150 to display image data stored in the buffer 140. The graphic processor 145 may arrange and synthesize the viewpoint images included in the image data, and output the synthesized image to the display 150. The graphic processor 145 may arrange viewpoint images under the control of the controller 190. That is, the graphic processor 145 may arrange the viewpoint images according to a control signal for adjusting the arrangement of the viewpoint images generated by the controller 190.

오디오 디코더(138)는 역다중화부(130)가 역다중화한 오디오 신호를 디코딩하고, 디코딩한 오디오 신호를 음성 출력부(160)로 출력한다.The audio decoder 138 decodes the audio signal demultiplexed by the demultiplexer 130, and outputs the decoded audio signal to the voice output unit 160.

디스플레이(150)는 영상(152)을 디스플레이한다. 영상(152)은 스테레오 영상에 포함된 시점 영상들이 합성된 이미지일 수 있다. 디스플레이(150)는 디스플레이 패널 및 입체영상 필터를 포함할 수 있다. 상기 디스플레이 패널은 복수의 서브 픽셀(Subpixel)을 포함하고, 적어도 하나의 시점 영상을 디스플레이할 수 있다. 서브 픽셀은 단위픽셀로 명명될 수 있고, 디스플레이 패널에서 각각 적색(R), 녹색(G) 및 청색(B)을 표현할 수 있는 최소 픽셀 단위를 의미한다.The display 150 displays the image 152. The image 152 may be an image obtained by synthesizing the viewpoint images included in the stereo image. The display 150 may include a display panel and a stereoscopic filter. The display panel may include a plurality of subpixels and display at least one viewpoint image. The subpixel may be referred to as a unit pixel, and means a minimum pixel unit capable of representing red (R), green (G), and blue (B), respectively, in the display panel.

상기 입체영상 필터는 디스플레이 패널에 디스플레이된 시점 영상이 각기 다른 위치에서 보여질 수 있도록 디스플레이 패널로부터 출사된 광의 방향성을 제어한다. 상기 입체영상 필터의 기울기는 20도 내지 23도 사이의 값을 가질 수 있다. 보다 바람직하게 입체영상 필터의 기울기는 21.8도가 될 수 있다. The stereoscopic filter controls the direction of light emitted from the display panel so that the viewpoint image displayed on the display panel can be viewed at different positions. The slope of the stereoscopic image filter may have a value between 20 degrees and 23 degrees. More preferably, the inclination of the stereoscopic filter may be 21.8 degrees.

또한, 디스플레이(150)는 제어부(190)와 연결되어 동작할 수 있다. 디스플레이(150)는 입체영상 처리 장치의 사용자와 운영 체제 또는 운영 체제상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 그래픽 사용자 인터페이스(GUI)(153)를 디스플레이할 수 있다.In addition, the display 150 may operate in connection with the controller 190. The display 150 may display a graphical user interface (GUI) 153 that provides an easy-to-use interface between a user of the stereoscopic image processing apparatus and an application running on the operating system or the operating system.

음성 출력부(160)는 오디오 디코더(138) 및 제어부(190)로부터 음성 데이터를 수신하고 수신한 음성 데이터가 재생된 음향(161)을 출력할 수 있다.The voice output unit 160 may receive voice data from the audio decoder 138 and the controller 190 and output a sound 161 in which the received voice data is reproduced.

입력장치(170)는 디스플레이(150) 상에 또는 그 전방에 배치되어 있는 터치 스크린일 수 있고 리모컨(111)으로부터 신호를 수신하는 통신부일 수 있다. 입력장치(170)는 리모컨(111)으로부터 리모컨 전송 신호를 수신할 수 있다.The input device 170 may be a touch screen disposed on or in front of the display 150, and may be a communication unit that receives a signal from the remote controller 111. The input device 170 may receive a remote control transmission signal from the remote control 111.

일부 실시예에 따라 수신부(101)가 리모컨(111)으로부터 신호를 수신하는 통신부일 수 있다. 즉 외부 신호 수신부(135)는 리모컨(111)으로부터 리모컨 전송 신호를 수신할 수 있다.According to some embodiments, the receiver 101 may be a communicator that receives a signal from the remote controller 111. That is, the external signal receiver 135 may receive a remote control transmission signal from the remote controller 111.

저장부(180)는 일반적으로 무안경 입체영상 처리 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 여기서 프로그램 코드는 수신부(101)가 수신한 애플리케이션의 프로그램 코드 및 무안경 입체영상 처리 장치(100)의 제조시 저장된 애플리케이션의 프로그램 코드일 수 있다. 또한 애플리케이션은 HTML, XML, HTML5, CSS, CSS3, 자바스크립트, 자바, C언어, C++, Visual C++ 및 C# 등의 프로그래밍 언어로 작성될 수 있다.The storage unit 180 generally provides a place for storing program codes and data used by the autostereoscopic 3D image processing apparatus 100. The program code may be a program code of an application received by the receiver 101 and a program code of an application stored when the autostereoscopic 3D image processing apparatus 100 is manufactured. Applications can also be written in programming languages such as HTML, XML, HTML5, CSS, CSS3, JavaScript, Java, C, C ++, Visual C ++, and C #.

저장부(180)는 카메라(195)가 촬상한 사용자의 안면 이미지를 저장할 수 있다. 제어부(190)는 저장부(180)에 저장된 사용자의 안면 이미지를 이용하여, 카메라(195)가 촬상한 영상에서 사용자를 탐지할 수 있다.The storage unit 180 may store a face image of the user captured by the camera 195. The controller 190 may detect a user from an image captured by the camera 195 by using a face image of the user stored in the storage 180.

저장부(180)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 무안경 입체영상 처리 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함할 수 있다.The storage unit 180 may be implemented as a read only memory (ROM), a random access memory (RAM), a hard disk drive, or the like. The program code and data may reside in a removable storage medium, and may be loaded or installed onto the autostereoscopic image processing apparatus 100 as needed. Removable storage media may include CD-ROM, PC-CARD, memory cards, floppy disks, magnetic tape, and network components.

제어부(190)는 명령어를 실행하고 무안경 입체영상 처리 장치(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(180)로부터 검색된 명령어를 사용하여, 제어부(190)는 무안경 입체영상 처리 장치(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다.The controller 190 executes a command and performs an operation associated with the autostereoscopic 3D image processing apparatus 100. For example, the controller 190 may control input and output between the components of the autostereoscopic 3D processing apparatus 100 and reception and processing of data by using a command retrieved from the storage unit 180.

제어부(190)는 운영 체제와 함께 프로그램 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(190)와 연결되어 동작하는 저장부(180) 내에 존재할 수 있다.The controller 190 executes program code along with an operating system and generates and uses data. The operating system is generally known and will not be described in more detail. By way of example, the operating system may be a Window based OS, Unix, Linux, Palm OS, DOS, Android, Macintosh, and the like. The operating system, other computer code, and data may be present in the storage unit 180 that operates in conjunction with the control unit 190.

제어부(190)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(190)에 대해 사용될 수 있다.The controller 190 may be implemented on a single chip, multiple chips, or multiple electrical components. For example, various architectures may be used for the controller 190, including dedicated or embedded processors, single purpose processors, controllers, ASICs, and the like.

제어부(190)는 사용자 조치(User Action)를 인식하고 인식한 사용자 조치에 기초하여 무안경 입체영상 처리 장치(100)를 제어할 수 있다. 여기서 사용자 조치는 입체영상 처리 장치 또는 리모컨의 물리적인 버튼의 선택, 터치 스크린 디스플레이면상의 소정의 제스처의 실시 또는 소프트 버튼의 선택 및 촬상 장치(195)로 촬영된 영상으로부터 인식되는 소정의 제스처의 실시 및 음성 인식에 의해 인식되는 소정의 발성의 실시를 포함할 수 있다. 제스처는 터치 제스처와 공간 제스처를 포함할 수 있다.The controller 190 may recognize the user action and control the autostereoscopic 3D processing apparatus 100 based on the recognized user action. The user action may include selecting a physical button of a stereoscopic image processing apparatus or a remote control, performing a predetermined gesture on the touch screen display surface, or selecting a soft button, and performing a predetermined gesture recognized from an image captured by the imaging device 195. And the execution of a predetermined utterance recognized by speech recognition. The gesture may include a touch gesture and a space gesture.

입력장치(170)는 제스처(171)를 수신하고, 제어부(190)는 제스처(171)와 연관된 동작들을 수행하는 명령어들을 실행한다. 게다가, 저장부(180)는 운영 체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램(181)을 포함할 수 있다. 제스처 작동 프로그램(181)은 일반적으로 제스처(171)의 발생을 인식하고 그 제스처(171) 및/또는 제스처(171)에 응답하여 무슨 조치(들)이 취해져야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.The input device 170 receives the gesture 171, and the controller 190 executes commands for performing operations associated with the gesture 171. In addition, the storage unit 180 may include a gesture operating program 181 which may be part of an operating system or a separate application. Gesture operator 181 generally recognizes the occurrence of gesture 171 and in turn responds to gesture 171 and / or gesture 171 to inform one or more software agents of what action (s) should be taken. Contains the command of.

제어부(190)는 헤드 트레킹의 기능을 수행할 수 있다. 제어부(190)는 카메라(195)로부터 출력된 이미지에서 복수의 사용자들을 탐지하고, 탐지한 복수의 사용자들의 위치를 지시하는 사용자 위치 정보를 획득한다. 제어부(190)는 여러 사람의 눈의 위치를 추적해서 사용자의 위치를 파악할 수 있다. 사용자 위치 정보는 제1 사용자의 위치를 지시하는 사용자 위치 정보 및 제2 사용자의 위치를 지시하는 사용자 위치 정보를 포함할 수 있다. 또한 사용자 위치 정보는 사용자의 눈의 위치를 지시하는 눈 위치 정보를 포함할 수 있다. The controller 190 may perform a function of head trekking. The controller 190 detects a plurality of users in the image output from the camera 195 and obtains user location information indicating the locations of the detected plurality of users. The controller 190 may determine the location of the user by tracking the location of various eyes. The user location information may include user location information indicating the location of the first user and user location information indicating the location of the second user. In addition, the user location information may include eye location information indicating the location of the user's eyes.

일부 실시예로, 제어부(190)는 카메라(195)로부터 출력된 이미지에서 사용자의 눈을 탐지하고, 눈의 위치를 파악하여 눈의 위치를 지시하는 눈 위치 정보를 생성할 수 있다. 제어부(190)는 사전에 촬상되어 저장부(180)에 저장된 사용자의 안면 이미지를 이용하여 사용자의 눈을 탐지할 수 있다.In some embodiments, the controller 190 may detect the eyes of the user in the image output from the camera 195, and determine eye positions to generate eye position information indicating the position of the eyes. The controller 190 may detect the eyes of the user by using a face image of the user which is previously captured and stored in the storage 180.

일부 실시예로, 제어부(190)는 획득한 사용자 위치 정보를 이용하여 디스플레이(150)가 디스플레이한 시점 영상의 광 경로를 조절하도록 제어하여, 상기 시점 영상이 복수의 사용자의 눈 위치에 할당된 스윗 스포트에 입사되도록 할 수 있다. 일부 실시예로, 제어부(190)는 디스플레이(150)에 포함된 입체영상 필터의 배리어 또는 렌즈의 위치를 제어하여 상기 시점 영상이 상기 스윗 스포트로 전달되도록 조절할 수 있다. 제어부(190)는 획득한 사용자 위치 정보를 이용하여 상기 배리어 또는 상기 렌즈의 배치를 결정하고, 결정한 배치에 따라 필터의 배리어 또는 렌즈의 위치를 조절할 수 있다.In some embodiments, the controller 190 controls the display 150 to adjust the optical path of the view image displayed by the display 150 by using the acquired user position information, so that the view image is assigned to eye positions of a plurality of users. It can be made to enter the spot. In some embodiments, the controller 190 may control the position of the barrier image or the lens of the stereoscopic image filter included in the display 150 to adjust the viewpoint image to be delivered to the sweet spot. The controller 190 may determine the arrangement of the barrier or the lens by using the acquired user position information, and adjust the position of the barrier or the lens of the filter according to the determined arrangement.

일부 실시예로, 제어부(190)는 획득한 사용자 위치 정보를 이용하여 복수의 시점 영상의 배치를 결정하고, 결정한 배치에 따라 시점 영상들을 배치하여 합성할 수 있다.In some embodiments, the controller 190 may determine the arrangement of the plurality of viewpoint images by using the acquired user location information, and arrange and synthesize the viewpoint images according to the determined arrangement.

일부 실시예로, 제어부(190)는 획득한 사용자 위치 정보를 이용하여 복수의 시점 영상의 배치를 조절하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 그래픽 프로세서(145)로 출력할 수 있다.In some embodiments, the controller 190 may generate a control signal for adjusting the arrangement of the plurality of viewpoint images using the obtained user location information, and may output the generated control signal to the graphic processor 145.

일부 실시예로, 제어부(190)는 획득한 사용자 위치 정보를 이용하여 디스플레이(150)에 포함된 디스플레이 패널과 입체영상 필터 간의 간격을 결정하고, 결정된 간격에 따라 디스플레이 패널과 입체영상 필터 간의 간격을 조절할 수 있다.In some embodiments, the controller 190 determines an interval between the display panel included in the display 150 and the stereoscopic image filter by using the acquired user location information, and adjusts an interval between the display panel and the stereoscopic image filter according to the determined interval. I can regulate it.

일부 실시예로, 제어부(190)는 획득한 사용자 위치 정보를 이용하여 입체영상 픽셀주기 및 디스플레이(150)에 포함된 디스플레이 패널과 입체영상 필터 간의 간격을 결정할 수 있다. 그리고, 제어부(190)는 결정한 입체영상 픽셀주기에 따라 시점 영상들을 배치하여 합성하고, 합성한 시점 영상들이 디스플레이되도록 디스플레이(150)를 제어한다. 또한 제어부(190)는 결정한 간격에 따라 디스플레이 패널과 필터 간의 간격을 조절할 수 있다.In some embodiments, the controller 190 may determine the interval between the 3D image pixel period and the display panel included in the display 150 and the 3D image filter using the obtained user location information. The controller 190 arranges and views viewpoint images according to the determined stereoscopic pixel period, and controls the display 150 to display the synthesized viewpoint images. In addition, the controller 190 may adjust the distance between the display panel and the filter according to the determined interval.

일부 실시예로, 제어부(190)는 획득한 사용자 위치 정보를 이용하여 입체영상 픽셀주기 및 디스플레이(150)에 포함된 디스플레이 패널과 입체영상 필터 간의 간격을 결정할 수 있다. 제어부(190)는 결정한 입체영상 픽셀주기에 따라 복수의 시점 영상의 배치를 조절하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 그래픽 프로세서(145)로 출력할 수 있다.In some embodiments, the controller 190 may determine the interval between the 3D image pixel period and the display panel included in the display 150 and the 3D image filter using the obtained user location information. The controller 190 may generate a control signal for adjusting the arrangement of the plurality of viewpoint images according to the determined stereoscopic pixel period, and output the generated control signal to the graphic processor 145.

일부 실시예로, 제어부(190)는 사용자 위치 정보, 입체영상 필터의 기울기, 입체영상 필터의 주기, 시점수 중 적어도 하나를 기초로 시점 영상의 배치를 결정할 수 있다. 결정된 시점 영상의 배치에 따라 서브 픽셀이 디스플레이이할 시점 영상을 결정된다. 즉, 제어부(190)는 사용자 위치 정보, 입체영상 필터의 기울기, 입체영상 필터의 주기, 시점수 중 적어도 하나를 기초로 서브 픽셀이 디스플레이이할 시점 영상을 결정할 수 있다. 그래픽 프로세서(145)는 제어부(190)가 결정한 시점 영상을 배치에 따라 시점 영상에 대한 단위 픽셀 재배치를 수행한다.In some embodiments, the controller 190 may determine the layout of the viewpoint image based on at least one of user location information, a slope of the stereoscopic image filter, a period of the stereoscopic image filter, and the number of viewpoints. The viewpoint image to be displayed by the subpixel is determined according to the arrangement of the viewpoint image determined. That is, the controller 190 may determine a viewpoint image to be displayed by the subpixel based on at least one of user position information, a slope of the stereoscopic image filter, a period of the stereoscopic image filter, and the number of viewpoints. The graphic processor 145 rearranges unit pixels with respect to the viewpoint image according to the arrangement of the viewpoint image determined by the controller 190.

일부 실시예로, 입체영상 처리 장치(100)는 사용되는 시점수에 따라 입체영상 필터의 주기를 다르게 적용한다. 이에 따라 본 발명은 사용되는 시점수에 맞추어 최적의 입체영상 필터의 주기를 갖는 입체영상 필터를 설계 및 이용할 수 있고, 모아레가 없는 입체영상을 디스플레이할 수 있다. 입체영상 필터의 주기는 단위 픽셀의 정수배가 될 수 있고 비정수배가 될 수 있다.In some embodiments, the 3D image processing apparatus 100 applies a period of the 3D image filter differently according to the number of viewpoints used. Accordingly, the present invention can design and use a stereoscopic image filter having a period of an optimal stereoscopic image filter according to the number of viewpoints used, and display a stereoscopic image without moiré. The period of the stereoscopic image filter may be an integer multiple of unit pixels and may be a non-integer multiple.

바람직하게, 입체영상 처리 장치(100)에 사용되는 시점수는 최소 12개 내지 65개 사이의 값을 갖는다. 이를 서브 픽셀 수로 환산하면 2.4 내지 13개 사이다. 21.8도 기울기는 구조상 최소 12개 이상의 시점수를 사용해야만 다른 단위 시역의 영상이 침범하여 발생하는 역입체시 (Pseudoscopic image) 공간이 아닌 관찰 위치가 존재하게 된다. 또한 65개 이하의 시점수를 사용하는 경우에는, 적정 관찰거리에서 사용자에게 제공되는 영상의 해상도 저하를 막을 수 있고, 입체영상 필터가 불인지되는 피치 폭이 고려될 수 있다.Preferably, the number of viewpoints used in the 3D image processing apparatus 100 has a value between at least 12 and 65. In terms of the number of subpixels, it is between 2.4 and 13 pixels. The slope of 21.8 degrees requires the use of at least 12 viewpoints, so that the observation position is not a pseudoscopic image space caused by the intrusion of images of different unit views. In addition, in the case of using the number of view points of 65 or less, it is possible to prevent the resolution of the image provided to the user at an appropriate viewing distance, and the pitch width at which the stereoscopic image filter is unknown may be considered.

도 5는 디스플레이 패널의 패턴과 입체영상 필터의 패턴 사이에서 발생하는 모아레의 일예를 도시한 도면이고, 도 6은 디스플레이 패널의 패턴 및 입체영상 필터의 패턴에 의해 생성되는 모아레를 설명하기 위한 도면이며, 도 7은 디스플레이 패널 및 입체영상 필터의 배치를 도시한 도면이다.FIG. 5 is a diagram illustrating an example of moiré generated between a pattern of a display panel and a pattern of a stereoscopic image filter, and FIG. 6 is a view for explaining a moiré generated by a pattern of a display panel and a pattern of a stereoscopic image filter. 7 is a diagram illustrating an arrangement of a display panel and a stereoscopic image filter.

도 5 내지 도 7을 참조하면, 입체영상 필터(720)의 기울기 각도와 입체영상 필터(720)의 주기에 따라서 디스플레이 패널(710)의 단위 픽셀 패턴과의 간섭으로 인하여 도 5와 같이 모아레가 발생할 수 있다. 모아레는 2개의 규칙적인 패턴(610, 710)이 겹쳐졌을 때 발생하는 새로운 줄무늬 모양(511)을 의미한다. 또한 입체영상 필터의 주기는 피치의 폭을 의미한다.5 to 7, moiré may occur as shown in FIG. 5 due to interference between the unit pixel pattern of the display panel 710 according to the inclination angle of the stereoscopic image filter 720 and the period of the stereoscopic image filter 720. Can be. Moirre refers to a new stripe shape 511 that occurs when two regular patterns 610 and 710 overlap. In addition, the period of the stereoscopic image filter means the width of the pitch.

도 8은 디스플레이 패널이 방출한 빛의 세기 분포로 인근 시점위치에서 발생하는 크로스턱(Cross-talk)과 이와 관련하여 사용자가 인지하는 크로스턱인 고스팅(Ghosting)을 설명하기 위한 도면이다.FIG. 8 is a diagram illustrating a cross-talk generated at a neighboring view point as a distribution of light intensity emitted by a display panel and ghosting which is a cross-tuck perceived by a user in connection with the cross-talk.

도 8을 참조하면, X축(810)은 각 시점 영상을 시청하기 위한 위치인 시점 위치(1시점, 2시점, 3시점, 4시점, 5시점, 6시점, 7시점)를 의미하고, Y축(820)은 빛의 세기를 의미한다. 그래프(833, 834, 835, 836, 837)는 각각 시점 영상의 세기 분포를 도시한다. 예를 들면, 그래프(833)는 제3 시점 영상의 세기 분포를 도시하고, 그래프(834)는 제4 시점 영상의 세기 분포를 도시한다. 이 세기 분포들은 인근 시점 위치에 침범하여 크로스턱을 발생시킨다.Referring to FIG. 8, the X-axis 810 denotes a viewpoint position (1 viewpoint, 2 viewpoints, 3 viewpoints, 4 viewpoints, 5 viewpoints, 6 viewpoints, and 7 viewpoints) which are positions for viewing each viewpoint image. Axis 820 represents the intensity of light. Graphs 833, 834, 835, 836, 837 show the intensity distribution of the viewpoint image, respectively. For example, the graph 833 illustrates the intensity distribution of the third viewpoint image, and the graph 834 illustrates the intensity distribution of the fourth viewpoint image. These intensity distributions involve nearby viewpoint locations and generate cross chins.

그리고, 사용자의 관점에서 일정 깊이 이상의 영상을 디스플레이할 때, 인근 시점 영상이 침범하여 고스팅이 발생할 수 있다. 시점 위치(4시점)에서 사용자의 좌안(801)은 제4 시점 영상(834)의 인근 영상인 제3 시점 영상(833) 및 제5 시점 영상(835)이 침범하여 제공된 영상에서 고스팅(841)을 관찰하게 된다. 또한 시점 위치(6시점)에서 사용자의 우안(802)은 제6 시점 영상(836)의 인근 영상인 제5 시점 영상(835) 및 제7 시점 영상(837)이 침범하여 제공된 영상에서 고스팅(841)을 관찰하게 된다. 크로스턱(cross-talk)과 고스팅은 무안경식 스테레오스코픽 디스플레이에서 의도치 않은 시점의 영상이 다른 시점 위치에서 보이는 것을 의미하지만, 크로스턱은 측정기기에 의하여 측정되는 항목이고, 고스팅은 사용자의 주관적 판단에 의하여 인지되는 항목이다. In addition, when displaying an image of a predetermined depth or more from the user's point of view, the nearby viewpoint image may be invaded and ghosting may occur. The left eye 801 of the user at the viewpoint position (four views) is ghosted from an image provided by the third viewpoint image 833 and the fifth viewpoint image 835 that are adjacent images of the fourth viewpoint image 834. ). In addition, at the viewpoint location (6 views), the right eye 802 of the user is ghosted from an image provided by the involvement of the fifth viewpoint image 835 and the seventh viewpoint image 837, which are neighboring images of the sixth viewpoint image 836. 841). Cross-talk and ghosting mean that an unintended point of view image is seen at a different point of view on an autostereoscopic display, but cross chin is an item measured by a measuring device. This item is recognized by subjective judgment.

도 9는 본 발명에 따른 디스플레이의 구조의 일실시예를 도시한 도면이다.9 is a view showing an embodiment of the structure of a display according to the present invention.

도 9를 참조하면, 디스플레이(150)는 디스플레이 패널(910) 및 입체영상 필터(950)를 포함한다.Referring to FIG. 9, the display 150 includes a display panel 910 and a stereoscopic image filter 950.

디스플레이 패널(910)은 행 방향으로 녹색, 청색 및 적색 서브 픽셀이 서로 교번적으로 배열된다. 여기서 행 방향은 서브 픽셀(911)에서 서브 픽셀(912) 및 서브 픽셀(913)을 거쳐 서브 픽셀(914)로 향하는 방향을 의미한다. 또한, 행 방향으로 녹색, 청색 및 적색 서브 픽셀이 서로 교번적으로 배열됨으로, 1행 1열의 서브 픽셀인 서브 픽셀(911)에 녹색(G) 서브 픽셀이 위치하므로, 1행 2열의 서브 픽셀인 서브 픽셀(912)은 청색(B) 서브 픽셀이 되고, 1행 3열의 서브 픽셀인 서브 픽셀(913)은 적색(R) 서브 픽셀이 된다. 또한, 1행 4열의 서브 픽셀인 서브 픽셀(914)은 다시 녹색 서브 픽셀이 된다.The display panel 910 alternately arranges green, blue, and red subpixels in a row direction. Here, the row direction refers to a direction from the subpixel 911 to the subpixel 914 through the subpixel 912 and the subpixel 913. In addition, since the green, blue, and red subpixels are alternately arranged in the row direction, the green (G) subpixel is positioned in the subpixel 911 that is the subpixel of the first row and the first column. The subpixel 912 becomes a blue (B) subpixel, and the subpixel 913, which is a subpixel of one row and three columns, becomes a red (R) subpixel. Also, the subpixel 914 which is the subpixel of the first row and the fourth column becomes the green subpixel.

디스플레이 패널(910)에는 열 방향으로 동일한 색의 서브 픽셀이 배열된다. 여기서 열 방향은 서브 픽셀(911)에서 서브 픽셀(921)을 거쳐 서브 픽셀(931)로 향하는 방향을 의미한다. 또한, 열 방향으로 동일한 색의 서브 픽셀이 배열됨으로, 2행 1열의 서브 픽셀인 서브 픽셀(921)은 서브 픽셀(911)과 동일한 서브 픽셀인 녹색 서브 픽셀이 된다. 또한 2행 2열의 서브 픽셀인 서브 픽셀(922)은 서브 픽셀(912)과 동일한 서브 픽셀인 청색 서브 픽셀이 된다. 그리고 2행 3열의 서브 픽셀인 서브 픽셀(923)은 서브 픽셀(913)과 동일한 서브 픽셀인 적색 서브 픽셀이 되고, 2행 4열의 서브 픽셀인 서브 픽셀(924)은 서브 픽셀(914)과 동일한 서브 픽셀인 녹색 서브 픽셀이 된다.The sub-pixels having the same color are arranged in the display panel 910 in the column direction. The column direction refers to a direction from the subpixel 911 to the subpixel 931 through the subpixel 921. Further, since the subpixels of the same color are arranged in the column direction, the subpixel 921 which is the subpixel of the second row and the first column becomes the green subpixel which is the same subpixel as the subpixel 911. The subpixel 922, which is a subpixel of two rows and two columns, becomes a blue subpixel that is the same subpixel as the subpixel 912. Subpixel 923, which is a subpixel of two rows and three columns, becomes a red subpixel that is the same subpixel as subpixel 913, and a subpixel 924, which is a subpixel of two rows and four columns, is the same as the subpixel 914. It becomes a green sub pixel which is a sub pixel.

서브 픽셀에 표시된 숫자는 서브 픽셀이 디스플레이할 시점 영상을 지시한다. 예를 들면, 서브 픽셀(911)은 제11 시점 영상을 디스플레이하고, 서브 픽셀(912)은 제16 시점 영상을 디스플레이하며, 서브 픽셀(923)은 제27 시점 영상을 디스플레이한다. The number displayed on the subpixel indicates the viewpoint image to be displayed by the subpixel. For example, the subpixel 911 displays the eleventh viewpoint image, the subpixel 912 displays the sixteenth viewpoint image, and the subpixel 923 displays the 27th viewpoint image.

도 9의 실시예는, 시점수가 45개일 때, 45개의 시점 영상을 가로 방향으로 5시점 주기, 세로 방향으로 6시점 주기에 따라 단위 픽셀 재배치가 수행된 것이다.In the embodiment of FIG. 9, when the number of viewpoints is 45, the unit pixel rearrangement is performed on the 45 viewpoint images in a 5 viewpoint period in a horizontal direction and a 6 viewpoint period in a vertical direction.

서브 픽셀의 위치에 따라 시점 영상에서 디스플레이할 픽셀값이 정해진다. 예를 들면, 서브 픽셀(911)은 1행 1열에 위치하므로, 제11 시점 영상의 1행 1열에 해당하는 픽셀값을 디스플레이한다. 또한 서브 픽셀(922)은 2행 2열에 위치하므로, 제22 시점 영상의 2행 2열에 해당하는 픽셀값을 디스플레이한다.The pixel value to be displayed in the view image is determined according to the position of the subpixel. For example, since the subpixels 911 are located in one row and one column, the pixel values corresponding to one row and one column of the eleventh viewpoint image are displayed. In addition, since the subpixels 922 are positioned in 2 rows and 2 columns, the pixel values corresponding to 2 rows and 2 columns of the 22nd viewpoint image are displayed.

또한, 서브 픽셀의 종류에 따라 시점 영상에서 디스플레이할 픽셀값이 정해진다. 예를 들면, 서브 픽셀(911)의 종류는 녹색 서브 픽셀이므로, 제11 시점 영상의 1행 1열에 해당하는 픽셀값 중 녹색 픽셀값을 디스플레이한다. 또한 서브 픽셀(922)의 종류는 청색 서브 픽셀이므로, 제22 시점 영상의 2행 2열에 해당하는 픽셀값 중 청색 픽셀값을 디스플레이한다.In addition, the pixel value to be displayed in the view image is determined according to the type of the subpixel. For example, since the type of the subpixel 911 is a green subpixel, a green pixel value is displayed among pixel values corresponding to one row and one column of the eleventh viewpoint image. In addition, since the type of the subpixel 922 is a blue subpixel, a blue pixel value is displayed among pixel values corresponding to 2 rows and 2 columns of the 22nd viewpoint image.

입체영상 필터(950)는 디스플레이 패널(910)의 전면에 배치되고, 디스플레이 패널(910)에 표시된 두 개 또는 두 개 이상의 시점 영상이 다른 위치에서 보여질 수 있도록 디스플레이 패널(910)이 출사한 광의 방향성을 제어한다. 여기서 광의 방향성을 제어한다는 것은 시점 영상들 중의 일부의 광경로를 차단하는 것을 의미할 수 있고, 시점 영상들을 굴절시킨다는 것을 의미할 수 있다. The stereoscopic filter 950 is disposed in front of the display panel 910, and the display panel 910 emits light so that two or more viewpoint images displayed on the display panel 910 can be viewed at different positions. Control directionality Here, controlling the directionality of the light may mean blocking the optical path of some of the viewpoint images, and may mean refracting the viewpoint images.

디스플레이 패널(910)이 각 서브 픽셀을 통해 다시점 영상에 포함된 시점 영상을 디스플레이하면, 사용자는 디스플레이된 시점 영상들을 입체영상 필터(950)를 통하여 보게 되고, 사용자의 좌안 및 우안은 각각 디스플레이 패널(910)에서 제공되는 시점 영상들 중 하나를 독립적으로 보게 되어, 사용자는 입체감을 느낄 수 있다.When the display panel 910 displays a viewpoint image included in a multiview image through each subpixel, the user views the displayed viewpoint images through the stereoscopic filter 950, and the left and right eyes of the user are respectively displayed on the display panel. One of the viewpoint images provided at 910 may be viewed independently, so that the user may feel a 3D effect.

입체영상 필터(950)는 액정 패럴랙스 배리어(Parallax Barrier) 및 액정 렌티큘러 필터(Lenticular filter) 중 하나일 수 있다.The stereoscopic filter 950 may be one of a liquid crystal parallax barrier and a liquid lenticular filter.

일부 실시예로, 입체영상 필터(950)는 일정한 간격으로 배열된 투과영역들과 불투과영역들을 포함할 수 있다. 디스플레이 패널(910)에서 방출된 빛은 투과영역을 통해 투과되어 사용자의 우안 또는 좌안에 도달된다. 입체영상 필터(950)가 액정 패럴랙스 배리어인 경우에는, 불투과영역은 배리어로 구성될 수 있고, 한쌍의 투과영역과 불투과영역은 피치(Pitch)로 명명될 수 있다. 입체영상 필터(950)의 투과영역 및 불투과영역은 제어부(190)의 제어에 따라 이동될 수 있다. 이때, 입체영상 필터(950)는 디스플레이(150)에 고정될 수 있다. 또한 입체영상 필터(950)는 불투과영역의 위치를 지시하는 복수의 스위치 모드를 갖는다. 즉 입체영상 필터(950)는 불투과영역의 위치별로 상기 불투과영역의 위치를 지시하는 스위치 모드를 가질 수 있다.In some embodiments, the 3D image filter 950 may include transmission regions and opacity regions arranged at regular intervals. The light emitted from the display panel 910 is transmitted through the transmission area to reach the user's right eye or left eye. When the stereoscopic image filter 950 is a liquid crystal parallax barrier, the opaque region may be configured as a barrier, and the pair of transmissive and opaque regions may be referred to as pitch. The transmission region and the non-transmission region of the stereoscopic image filter 950 may be moved under the control of the controller 190. In this case, the 3D image filter 950 may be fixed to the display 150. In addition, the stereoscopic image filter 950 has a plurality of switch modes indicating the position of the opaque region. That is, the stereoscopic image filter 950 may have a switch mode indicating the position of the opaque region for each position of the opaque region.

또한 입체영상 필터(950)의 불투과영역은 활성화 및 비활성화될 수 있다. 상기 불투과영역이 활성화된 경우에는, 불투과영역은 자신으로 입사된 빛의 투과를 차단한다. 상기 불투과영역이 비활성화된 경우에는, 불투과영역은 자신으로 입사된 빛을 투과시킨다.In addition, the opaque region of the stereoscopic filter 950 may be activated and deactivated. When the opaque region is activated, the opaque region blocks the transmission of light incident thereon. When the opaque region is inactivated, the opaque region transmits light incident thereto.

일부 실시예로, 입체영상 필터(950)가 액정 렌티큘러 필터인 경우에는, 투과영역과 불투과영역은 렌즈에 의해 구분될 수 있고, 하나의 렌즈는 피치(Pitch)로 명명될 수 있다. 입체영상 필터(950)의 렌즈는 제어부(190)의 제어에 따라 이동될 수 있다. 이때, 입체영상 필터(950)는 디스플레이(150)에 고정될 수 있다. 또한 입체영상 필터(950)는 렌즈의 위치를 지시하는 복수의 스위치 모드를 갖는다. 즉 입체영상 필터(950)는 렌즈의 위치별로 상기 렌즈의 위치를 지시하는 스위치 모드를 가질 수 있다.In some embodiments, when the stereoscopic filter 950 is a liquid crystal lenticular filter, the transmission region and the non-transmission region may be distinguished by a lens, and one lens may be referred to as a pitch. The lens of the stereoscopic image filter 950 may be moved under the control of the controller 190. In this case, the 3D image filter 950 may be fixed to the display 150. In addition, the stereoscopic image filter 950 has a plurality of switch modes indicating the position of the lens. That is, the stereoscopic image filter 950 may have a switch mode indicating the position of the lens for each lens position.

입체영상 필터(950)의 기울기는 20도 내지 23도 사이의 값을 가질 수 있다. 보다 바람직하게 입체영상 필터(950)의 기울기는 21.8도가 될 수 있다. 입체영상 필터(950)의 기울기 21.8도는 디스플레이 패널(910)의 패턴과의 관계에서 그 각도의 특징으로 인하여 모아레가 인지되지 않는다. 다만 사용되는 각 디스플레이 패널의 크기와 해상도에 따라서 단위 픽셀의 폭이 달라지므로, 모아레 감소 조건은 디스플레이의 조건에 따라 입체영상 필터의 주기가 최적 조건으로 맞춰져야 한다.The slope of the stereoscopic filter 950 may have a value between 20 degrees and 23 degrees. More preferably, the inclination of the stereoscopic filter 950 may be 21.8 degrees. The inclination of 21.8 degrees of the stereoscopic filter 950 is not recognized as moiré due to the characteristic of the angle in relation to the pattern of the display panel 910. However, since the width of the unit pixel varies according to the size and resolution of each display panel used, the moire reduction condition should be optimized to the period of the stereoscopic image filter according to the display conditions.

도 9의 실시예에서, 입체영상 필터(950)의 주기는 단위 픽셀의 9배가 된다. 즉 입체영상 필터(950)의 주기는 단위 픽셀의 폭의 9배이다. 또한 입체영상 필터(950)는 21.8도의 기울기를 가지고 있으며, 상기 기울기는 도 9의 실시예에서 가로 방향으로는 6개의 서브 픽셀, 세로 방향으로는 5개의 픽셀주기에 해당하는 기울기이다.In the embodiment of FIG. 9, the period of the stereoscopic image filter 950 is nine times the unit pixel. That is, the period of the stereoscopic image filter 950 is 9 times the width of the unit pixel. In addition, the stereoscopic filter 950 has an inclination of 21.8 degrees, and the inclination corresponds to six subpixels in the horizontal direction and five pixel periods in the vertical direction in the embodiment of FIG. 9.

도 10은 본 발명에 따른 입체영상 필터의 배치의 다른 실시예를 도시한 도면이다.10 is a view showing another embodiment of the arrangement of the three-dimensional image filter according to the present invention.

도 10을 참조하면, 디스플레이(150)는 디스플레이 패널(1010) 및 입체영상 필터(1050)를 포함한다.Referring to FIG. 10, the display 150 includes a display panel 1010 and a stereoscopic image filter 1050.

디스플레이 패널(1010)은 행 방향으로 녹색, 청색 및 적색 서브 픽셀이 서로 교번적으로 배열된다. 여기서 행 방향은 서브 픽셀(1011)에서 서브 픽셀(1012) 및 서브 픽셀(1013)을 거쳐 서브 픽셀(1014)로 향하는 방향을 의미한다. 또한, 행 방향으로 녹색, 청색 및 적색 서브 픽셀이 서로 교번적으로 배열됨으로, 1행 1열의 서브 픽셀인 서브 픽셀(1011)에 녹색(G) 서브 픽셀이 위치하므로, 1행 2열의 서브 픽셀인 서브 픽셀(1012)은 청색(B) 서브 픽셀이 되고, 1행 3열의 서브 픽셀인 서브 픽셀(1013)은 적색(R) 서브 픽셀이 된다. 또한, 1행 4열의 서브 픽셀인 서브 픽셀(1014)은 다시 녹색 서브 픽셀이 된다.The display panel 1010 alternately arranges green, blue, and red subpixels in a row direction. In this case, the row direction refers to a direction from the subpixel 1011 to the subpixel 1014 through the subpixel 1012 and the subpixel 1013. In addition, since the green, blue, and red subpixels are alternately arranged in the row direction, the green (G) subpixel is positioned in the subpixel 1011 which is the subpixel of the first row and the first column. The subpixel 1012 becomes a blue (B) subpixel, and the subpixel 1013, which is a subpixel of one row and three columns, becomes a red (R) subpixel. In addition, the subpixel 1014, which is a subpixel of one row and four columns, becomes a green subpixel again.

디스플레이 패널(1010)에는 열 방향으로 동일한 색의 서브 픽셀이 배열된다. 여기서 열 방향은 서브 픽셀(1011)에서 서브 픽셀(1021)을 거쳐 서브 픽셀(1031)로 향하는 방향을 의미한다. 또한, 열 방향으로 동일한 색의 서브 픽셀이 배열됨으로, 2행 1열의 서브 픽셀인 서브 픽셀(1021)은 서브 픽셀(1011)과 동일한 서브 픽셀인 녹색 서브 픽셀이 된다. 또한 2행 2열의 서브 픽셀인 서브 픽셀(1022)은 서브 픽셀(1012)과 동일한 서브 픽셀인 청색 서브 픽셀이 된다. 그리고 2행 3열의 서브 픽셀인 서브 픽셀(1023)은 서브 픽셀(1013)과 동일한 서브 픽셀인 적색 서브 픽셀이 되고, 2행 4열의 서브 픽셀인 서브 픽셀(1024)은 서브 픽셀(1014)과 동일한 서브 픽셀인 녹색 서브 픽셀이 된다.Sub-pixels of the same color are arranged in the display panel 1010 in the column direction. In this case, the column direction refers to a direction from the subpixel 1011 to the subpixel 1031 through the subpixel 1021. Further, since the subpixels of the same color are arranged in the column direction, the subpixel 1021 which is the subpixel of the second row and the first column becomes the green subpixel which is the same subpixel as the subpixel 1011. Also, the subpixel 1022, which is a subpixel of two rows and two columns, becomes a blue subpixel that is the same subpixel as the subpixel 1012. The subpixel 1023, which is a subpixel of 2 rows and 3 columns, becomes a red subpixel, which is the same subpixel as the subpixel 1013, and the subpixel 1024, which is a subpixel of 2 rows and 4 columns, is the same as the subpixel 1014. It becomes a green sub pixel which is a sub pixel.

도 10의 실시예는, 시점수가 23일 때, 23개의 시점 영상을 가로 방향으로 5시점 주기, 세로 방향으로 6시점 주기에 따라 단위 픽셀 재배치가 수행된 것이다.서브 픽셀에 표시된 숫자는 서브 픽셀이 디스플레이할 시점 영상을 지시한다. 예를 들면, 서브 픽셀(1011)은 제3 시점 영상을 디스플레이하고, 서브 픽셀(1012)은 제8 시점 영상을 디스플레이하며, 서브 픽셀(1023)은 제19 시점 영상을 디스플레이한다. In the embodiment of FIG. 10, when the number of views is 23, unit pixel rearrangement is performed according to a period of 5 viewpoints in a horizontal direction and a period of 6 viewpoints in a vertical direction. Indicates the view image to be displayed. For example, the subpixel 1011 displays the third viewpoint image, the subpixel 1012 displays the eighth viewpoint image, and the subpixel 1023 displays the nineteenth viewpoint image.

서브 픽셀의 위치에 따라 시점 영상에서 디스플레이할 픽셀값이 정해진다. 예를 들면, 서브 픽셀(1011)은 1행 1열에 위치하므로, 제3 시점 영상의 1행 1열에 해당하는 픽셀값을 디스플레이한다. 또한 서브 픽셀(1022)은 2행 2열에 위치하므로, 제14 시점 영상의 2행 2열에 해당하는 픽셀값을 디스플레이한다.The pixel value to be displayed in the view image is determined according to the position of the subpixel. For example, since the subpixels 1011 are positioned in one row and one column, the subpixels 1011 display pixel values corresponding to one row and one column of the third view image. In addition, since the subpixels 1022 are positioned in two rows and two columns, the pixel values corresponding to the two rows and two columns of the fourteenth viewpoint image are displayed.

또한, 서브 픽셀의 종류에 따라 시점 영상에서 디스플레이할 픽셀값이 정해진다. 예를 들면, 서브 픽셀(1011)의 종류는 녹색 서브 픽셀이므로, 제3 시점 영상의 1행 1열에 해당하는 픽셀값 중 녹색 픽셀값을 디스플레이한다. 또한 서브 픽셀(1022)의 종류는 청색 서브 픽셀이므로, 제14 시점 영상의 2행 2열에 해당하는 픽셀값 중 청색 픽셀값을 디스플레이한다.In addition, the pixel value to be displayed in the view image is determined according to the type of the subpixel. For example, since the type of the subpixel 1011 is a green subpixel, the green pixel value is displayed among pixel values corresponding to one row and one column of the third view image. In addition, since the type of the subpixel 1022 is a blue subpixel, a blue pixel value is displayed among pixel values corresponding to 2 rows and 2 columns of the 14th viewpoint image.

입체영상 필터(1050)는 디스플레이 패널(1010)의 전면에 배치되고, 디스플레이 패널(1010)에 표시된 두 개 또는 두 개 이상의 시점 영상이 다른 위치에서 보여질 수 있도록 디스플레이 패널(1010)이 출사한 광의 방향성을 제어한다. The stereoscopic filter 1050 is disposed in front of the display panel 1010, and the display panel 1010 may be used to display two or more viewpoint images displayed on the display panel 1010 at different positions. Control directionality

디스플레이 패널(1010)이 각 서브 픽셀을 통해 다시점 영상에 포함된 시점 영상을 디스플레이하면, 사용자는 디스플레이된 시점 영상들을 입체영상 필터(320)를 통하여 보게 되고, 사용자의 좌안 및 우안은 각각 디스플레이 패널(1010)에서 제공되는 시점 영상들 중 하나를 독립적으로 보게 되어, 사용자는 입체감을 느낄 수 있다.When the display panel 1010 displays a viewpoint image included in a multiview image through each sub-pixel, the user views the displayed viewpoint images through the stereoscopic filter 320, and the left and right eyes of the user are respectively displayed on the display panel. One of the viewpoint images provided at 1010 may be viewed independently, so that the user may feel a 3D effect.

입체영상 필터(1050)는 액정 패럴랙스 배리어(Parallax Barrier) 및 액정 렌티큘러 필터(Lenticular filter) 중 하나일 수 있다.The stereoscopic filter 1050 may be one of a liquid crystal parallax barrier and a liquid lenticular filter.

일부 실시예로, 입체영상 필터(1050)는 일정한 간격으로 배열된 투과영역들과 불투과영역들을 포함할 수 있다. 디스플레이 패널(1010)에서 방출된 빛은 투과영역을 통해 투과되어 사용자의 우안 또는 좌안에 도달된다. 입체영상 필터(1050)가 액정 패럴랙스 배리어인 경우에는, 불투과영역은 배리어로 구성될 수 있고, 한쌍의 투과영역과 불투과영역은 피치(Pitch)로 명명될 수 있다. 입체영상 필터(1050)의 투과영역 및 불투과영역은 제어부(190)의 제어에 따라 이동될 수 있다. 이때, 입체영상 필터(1050)는 디스플레이(150)에 고정될 수 있다. 또한 입체영상 필터(1050)는 불투과영역의 위치를 지시하는 복수의 스위치 모드를 갖는다. 즉 입체영상 필터(1050)는 불투과영역의 위치별로 상기 불투과영역의 위치를 지시하는 스위치 모드를 가질 수 있다.In some embodiments, the stereoscopic image filter 1050 may include transmission regions and opacity regions arranged at regular intervals. Light emitted from the display panel 1010 is transmitted through the transmission area to reach the right eye or the left eye of the user. When the stereoscopic image filter 1050 is a liquid crystal parallax barrier, the opaque region may be configured as a barrier, and the pair of transmissive and opaque regions may be referred to as pitch. The transmission region and the non-transmission region of the stereoscopic image filter 1050 may be moved under the control of the controller 190. In this case, the 3D image filter 1050 may be fixed to the display 150. In addition, the stereoscopic image filter 1050 has a plurality of switch modes indicating the position of the opaque region. That is, the stereoscopic image filter 1050 may have a switch mode indicating the position of the opaque region for each position of the opaque region.

일부 실시예로, 입체영상 필터(1050)가 액정 렌티큘러 필터인 경우에는, 투과영역과 불투과영역은 렌즈에 의해 구분될 수 있고, 하나의 렌즈는 피치(Pitch)로 명명될 수 있다. 입체영상 필터(1050)의 렌즈는 제어부(190)의 제어에 따라 이동될 수 있다. 이때, 입체영상 필터(1050)는 디스플레이(150)에 고정될 수 있다. 또한 입체영상 필터(1050)는 렌즈의 위치를 지시하는 복수의 스위치 모드를 갖는다. 즉 입체영상 필터(1050)는 렌즈의 위치별로 상기 렌즈의 위치를 지시하는 스위치 모드를 가질 수 있다.In some embodiments, when the stereoscopic image filter 1050 is a liquid crystal lenticular filter, the transmission region and the non-transmission region may be distinguished by a lens, and one lens may be referred to as a pitch. The lens of the stereoscopic filter 1050 may be moved under the control of the controller 190. In this case, the 3D image filter 1050 may be fixed to the display 150. In addition, the stereoscopic image filter 1050 has a plurality of switch modes indicating the position of the lens. That is, the stereoscopic filter 1050 may have a switch mode indicating the position of the lens for each lens position.

도 10의 실시예에서, 입체영상 필터(1050)의 주기는 단위 픽셀의 비정수배가 된다. 입체영상 필터(1050)의 주기는 단위 픽셀의 4.6배가 된다. 즉 입체영상 필터(1050)의 주기는 단위 픽셀의 폭의 4.6배이다. 또한 입체영상 필터(1050)는 21.8도의 기울기를 가지고 있으며, 상기 기울기는 도 10의 실시예에서 가로 방향으로는 6개의 서브 픽셀, 세로 방향으로는 5개의 픽셀주기에 해당하는 기울기이다.In the embodiment of FIG. 10, the period of the stereoscopic image filter 1050 is a non-integer multiple of a unit pixel. The period of the stereoscopic image filter 1050 is 4.6 times the unit pixel. That is, the period of the stereoscopic image filter 1050 is 4.6 times the width of the unit pixel. In addition, the stereoscopic filter 1050 has an inclination of 21.8 degrees, and the inclination corresponds to six subpixels in the horizontal direction and five pixel periods in the vertical direction in the embodiment of FIG. 10.

도 11은 입체영상 필터가 18.43도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면이고, 도 12는 입체영상 필터가 12.53도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면이며 도 13은 입체영상 필터가 14.93도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면이고, 도 14는 입체영상 필터가 23.96도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면이며, 도 15는 입체영상 필터가 21.8도의 기울기를 갖도록 배치된 상태에서 발생하는 모아레를 촬상한 이미지를 도시한 도면이다.FIG. 11 is a diagram illustrating an image of a moiré generated when the stereoscopic image filter is disposed to have an inclination of 18.43 degrees, and FIG. 12 is a diagram of a moire generated when the stereoscopic image filter is arranged to have an inclination of 12.53 degrees. FIG. 13 is a diagram illustrating an image of a moiré generated when the stereoscopic image filter is disposed to have an inclination of 14.93 degrees, and FIG. 14 is a stereoscopic image filter arranged to have an inclination of 23.96 degrees. It is a figure which shows the image which picked up the moire which generate | occur | produces in the state, and FIG. 15 is a figure which shows the image which imaged the moire which arises in the state in which the stereoscopic image filter was arrange | positioned so that it may have inclination of 21.8 degree | times.

도 11 내지 도 15에서, 입체영상 필터의 주기는 10 서브 픽셀 내외의 폭을 갖는다.11 to 15, the period of the stereoscopic image filter has a width of about 10 subpixels.

도 11 내지 도 15를 참조하면, 18.43도의 기울기를 갖는 입체영상 필터는 도 11과 같이 디스플레이 패널의 패턴과 입체영상 필터의 패턴(1110)과의 간섭으로 인하여 모아레(1120)를 발생시켜 화질 저하시키는 한계를 가지고 있다. 또한 12.53도의 기울기를 갖는 입체영상 필터는 도 12와 같이 디스플레이 패널의 패턴과 입체영상 필터의 패턴(1210)과의 간섭으로 인하여 모아레(1220)를 발생시켜 화질 저하시키는 한계를 가지고 있다. 또한 14.93도의 기울기를 갖는 입체영상 필터는 도 13과 같이 디스플레이 패널의 패턴과 입체영상 필터의 패턴(1310)과의 간섭으로 인하여 모아레(1320)를 발생시켜 화질 저하시키는 한계를 가지고 있다. 또한 23.96도의 기울기를 갖는 입체영상 필터는 도 14와 같이 디스플레이 패널의 패턴과 입체영상 필터의 패턴(1410)과의 간섭으로 인하여 모아레(1420)를 발생시켜 화질 저하시키는 한계를 가지고 있다. 그러나, 도 15에서 21.8도의 기울기를 갖는 입체영상 필터(1510)는 모아레를 발생시키지 않고 있음을 확인할 수 있다. 입체영상 필터(1510)는 최적 조건의 입체영상 필터의 주기를 가지고 있다.11 to 15, the stereoscopic image filter having an inclination of 18.43 degrees generates a moiré 1120 due to interference between the pattern of the display panel and the pattern 1110 of the stereoscopic image filter as shown in FIG. There is a limit. In addition, the stereoscopic image filter having a slope of 12.53 degrees has a limit of lowering image quality by generating the moiré 1220 due to the interference between the pattern of the display panel and the pattern 1210 of the stereoscopic image filter as shown in FIG. 12. In addition, the stereoscopic image filter having an inclination of 14.93 degrees has a limit of lowering image quality by generating the moire 1320 due to the interference between the pattern of the display panel and the pattern 1310 of the stereoscopic image filter as shown in FIG. 13. In addition, the stereoscopic image filter having a slope of 23.96 degrees has a limit of deteriorating image quality by generating the moiré 1420 due to the interference between the pattern of the display panel and the pattern 1410 of the stereoscopic image filter as shown in FIG. 14. However, it can be seen in FIG. 15 that the stereoscopic filter 1510 having the inclination of 21.8 degrees does not generate moiré. The stereoscopic image filter 1510 has a period of the stereoscopic image filter under optimal conditions.

도 16은 양안 사이에 시점수의 일실시예를 도시한 도면이고, 도 17은 도 16의 실시예에 따라 나타나는 크로스턱(Crross-talk)과 고스팅(Ghosting)현상을 설명하기 위한 도면, 도 18은 양안 사이에 시점수의 다른 실시예를 도시한 도면이며, 도 19는 도 18의 실시예에 따라 나타나는 크로스턱(Crross-talk)과 고스팅(Ghosting)현상을 설명하기 위한 도면이다.FIG. 16 is a diagram illustrating an example of the number of viewpoints between both eyes, and FIG. 17 is a diagram illustrating cross-talk and ghosting phenomena according to the embodiment of FIG. 16. FIG. 18 is a diagram illustrating another embodiment of the number of viewpoints between both eyes, and FIG. 19 is a diagram for describing cross-talk and ghosting phenomena shown in accordance with the embodiment of FIG. 18.

도 16 내지 도 19를 참조하면, 도 16의 입체영상 처리 장치(1600) 및 도 18의 입체영상 처리 장치(1800)는 서로 동일한 시역폭(1610, 1810) 및 동일한 양안시차(1620, 1820)를 사용자에게 제공한다. 또한 입체영상 처리 장치(1600)가 사용자의 좌안(1601) 및 우안(1602) 사이에 제공하는 시점수는 3개이고, 입체영상 처리 장치(1800)가 사용자의 좌안(1801) 및 우안(1802) 사이에 제공하는 시점수는 9개이다. 많은 시점수를 제공하는 입체영상 처리 장치(1800)의 단위 시점 간격(1840)이 적은 시점수를 제공하는 입체영상 처리 장치(1600)의 단위 시점 간격(1630) 보다 좁게 형성된다. 이때 사용자는 동일한 깊이감(1650, 1850)을 인지하게 된다. 도 16은 도 2 내지 도 3의 입체영상 필터에 대응하는 조건을 나타내고, 도 18은 도 9 내지 도 10의 입체영상 필터에 대응하는 조건을 나타낸다. 16 to 19, the stereoscopic image processing apparatus 1600 of FIG. 16 and the stereoscopic image processing apparatus 1800 of FIG. 18 have the same viewing widths 1610 and 1810 and the same binocular disparity 1620 and 1820. To the user. In addition, the number of viewpoints provided by the stereoscopic image processing apparatus 1600 between the left eye 1601 and the right eye 1602 of the user is three, and the stereoscopic image processing apparatus 1800 is provided between the left eye 1801 and the right eye 1802 of the user. The number of viewpoints provided in is nine. The unit viewpoint interval 1840 of the stereoscopic image processing apparatus 1800 providing a large number of viewpoints is formed to be narrower than the unit viewpoint interval 1630 of the stereoscopic image processing apparatus 1600 providing a small number of viewpoints. At this time, the user perceives the same depth (1650, 1850). 16 illustrates conditions corresponding to the stereoscopic image filters of FIGS. 2 to 3, and FIG. 18 illustrates conditions corresponding to the stereoscopic filters of FIGS. 9 to 10.

도 16의 입체영상 처리 장치(1600)는 도 17과 같이 좌안 영상(1711) 및 우안 영상(1713)에 한쪽 방향에서 1개의 인근 시점(1712) 침범만이 관찰되므로, 크로스턱은 입체영상 처리 장치(1800)보다 더 적게 발생시키지만, 사용자의 좌안(1601) 및 우안(1602) 사이에 3개 시점 영상만을 제공하므로 시점 영상(1711, 1712, 1713) 간의 시차량(Disparity)이 크게 적용되어 사용자는 고스팅이 큰 영상을 보게 된다. 이 현상은 영상의 깊이감이 커질수록 더 크게 발생한다. 여기서 시차량(Disparity)은 좌안에 입사되는 영상과 우안에 입사되는 영상의 다른 정도를 의미한다.In the stereoscopic image processing apparatus 1600 of FIG. 16, only one neighboring viewpoint 1712 is invaded in one direction from the left eye image 1711 and the right eye image 1713, as shown in FIG. 17. Although less than 1800, only three viewpoint images are provided between the left eye 1601 and the right eye 1602 of the user, so that the disparity between the viewpoint images 1711, 1712, and 1713 is largely applied. You'll see a big video of ghosting. This phenomenon occurs larger as the depth of the image increases. Here, disparity means a degree of difference between an image incident on the left eye and an image incident on the right eye.

도 18의 입체영상 처리 장치(1800)는 도 19와 같이 좌안 영상(1911)에 한쪽 방향에서 5개 인근 시점(1912, 1913, 1914, 1915, 1916) 그리고 우안 영상(1919)에 한쪽 방향에서 5개의 인근 시점(1914, 1915, 1916, 1917, 1918) 침범이 관찰되므로, 크로스턱을 입체영상 처리 장치(1600)보다 더 많이 발생시키지만, 사용자의 좌안(1801) 및 우안(1802) 사이에 9개의 시점 영상을 제공하므로, 시점 영상(1911 내지 1919) 간의 시차량이 적어 전체적으로는 자연스러운 블러(Blur) 현상이 발생하고, 영상의 겹침 현상이 발생하지 않아 사용자는 고스팅이 낮은 영상을 보게 된다. 이에 따라, 입체영상 처리 장치(1800)는 사용자에게 인지되는 크로스턱인 고스팅을 입체영상 처리 장치(1600)보다 더 적게 발생시킨다.The stereoscopic image processing apparatus 1800 of FIG. 18 has five neighboring viewpoints 1912, 1913, 1914, 1915, and 1916 in one direction in the left eye image 1911 and five in one direction in the right eye image 1919, as shown in FIG. 19. Invasion of the two adjacent viewpoints 1914, 1915, 1916, 1917, 1918 is observed, resulting in more cross chins than the stereoscopic image processing device 1600, but there are nine between the left eye 1801 and the right eye 1802 of the user. Since the viewpoint image is provided, the amount of parallax between the viewpoint images 1911 to 1919 is small, so that a natural blur phenomenon occurs in general, and the overlapping image does not occur, so the user sees an image with low ghosting. Accordingly, the stereoscopic image processing apparatus 1800 generates less ghosting, which is a cross tuck perceived by the user, than the stereoscopic image processing apparatus 1600.

그러므로, 동일한 시역폭에서 더 많은 시점수를 사용자에게 제공하는 경우에는, 사용자에게 인지되는 고스팅이 저하된다. 도 9에 도시된 입체영상 필터(950)는 전술된 단위 픽셀에 시점 배치 특성(시점 영상을 가로 방향 5시점씩 증가 및 세로 방향 6시점씩 증가하는 방식으로 배치)으로 인하여 9개의 단위 픽셀 폭에 45시점을 갖고, 도 10에 도시된 입체영상 필터(1050)는 전술된 단위 픽셀에 시점 배치 특성(시점 영상을 가로 방향 5시점씩 증가 및 세로 방향 6시점씩 증가하는 방식으로 배치)으로 인하여 4.6개의 단위 픽셀 폭에 23시점을 갖는다. 그러나, 도 2에 도시된 입체영상 필터(50)는 9개의 단위 픽셀 폭에 9시점을 갖고, 도 3에 도시된 입체영상 필터(70)는 4.5개의 단위 픽셀 폭에 9시점을 갖는다. 이에 따라, 본 발명은 동일한 입체영상 필터 주기에서 더 많은 시점수를 사용자에게 제공할 수 있다. 따라서, 본 발명은 동일한 시역폭에서 더 많은 시점수를 사용자에게 제공하므로, 사용자에게 인지되는 입체영상의 크로스턱인 고스팅을 종래 보다 저하시킨다.Therefore, when providing the user with more viewpoints in the same viewing range, the ghosting perceived by the user is degraded. The stereoscopic image filter 950 illustrated in FIG. 9 has a width of nine unit pixels due to the viewpoint arrangement characteristics (arranged in a manner in which the viewpoint image is increased by 5 points in the horizontal direction and 6 points in the vertical direction) in the aforementioned unit pixels. The stereoscopic image filter 1050 shown in FIG. 10 has a view point of 4.6 due to the viewpoint disposition characteristics (arrangement of the view image in increments of 5 points in the horizontal direction and 6 points in the vertical direction) in the aforementioned unit pixels. Has 23 views in unit pixel widths. However, the stereoscopic image filter 50 illustrated in FIG. 2 has 9 views at 9 unit pixel widths, and the stereoscopic image filter 70 illustrated in FIG. 3 has 9 views at 4.5 unit pixel widths. Accordingly, the present invention can provide the user with more view counts in the same stereoscopic filter filter period. Therefore, since the present invention provides the user with more viewpoints in the same viewing area width, ghosting, which is a cross tuck of a stereoscopic image perceived by the user, is lowered than before.

도 20은 본 발명에 따른 입체영상 필터의 배치의 또 다른 실시예를 도시한 도면이다.20 is a view showing another embodiment of the arrangement of the three-dimensional image filter according to the present invention.

도 20을 참조하면, 디스플레이(150)는 디스플레이 패널(2010), 입체영상 필터(2020) 및 백라이트(2040)를 포함한다.Referring to FIG. 20, the display 150 includes a display panel 2010, a stereoscopic filter 2020, and a backlight 2040.

디스플레이 패널(2010)은 도 9의 디스플레이 패널(910)과 대응하는 구성요소로 이하 구체적인 설명은 생략한다.The display panel 2010 is a component corresponding to the display panel 910 of FIG. 9 and will not be described in detail below.

입체영상 필터(2020)는 액정 패럴랙스 배리어(Parallax Barrier) 및 렌티큘러 렌즈 기판 중 하나일 수 있다. 입체영상 필터(2020)는 도 9의 입체영상 필터(950)과 대응하는 구성요소로 이하 구체적인 설명은 생략한다.The stereoscopic filter 2020 may be one of a liquid crystal parallax barrier and a lenticular lens substrate. The stereoscopic image filter 2020 is a component corresponding to the stereoscopic image filter 950 of FIG. 9 and a detailed description thereof will be omitted.

렌티큘러 렌즈 기판(2020)은 디스플레이 패널(2010)의 전면에 배치될 수 있다. 이때, 렌티큘러 렌즈 기판(2020)은 영상이 렌티큘러 렌즈의 초점면에 놓이도록 디스플레이 패널(2010)로부터 소정거리(ℓ)만큼 이격되도록 배치될 수 있다.The lenticular lens substrate 2020 may be disposed on the front surface of the display panel 2010. In this case, the lenticular lens substrate 2020 may be disposed to be spaced apart from the display panel 2010 by a predetermined distance l so that the image is placed on the focal plane of the lenticular lens.

렌티큘러 렌즈 기판(2020)은 액정 렌티큘러 필터(Lenticular filter)일 수 있다. 이러한 경우에, 렌티큘러 렌즈 기판(2020)에 구비된 렌즈(2021), 렌즈(2022), 렌즈(2023), 렌즈(2024) 및 렌즈(2025)는 액정 렌즈일 수 있다.The lenticular lens substrate 2020 may be a liquid crystal lenticular filter. In this case, the lens 2021, the lens 2022, the lens 2023, the lens 2024, and the lens 2025 included in the lenticular lens substrate 2020 may be liquid crystal lenses.

백라이트(2040)는 디스플레이 패널(2010)에 빛을 공급한다. 백라이트(2040)는 디스플레이 패널(2010)의 배면에 배치되고, 하나 또는 하나 이상의 백라이트램프 및 이의 구동회로를 포함할 수 있다. 백라이트(2040)가 공급하는 빛은 편광성분이 없는 형태의 빛일 수 있다. 디스플레이 패널(2010)이 PDP일 때는, 디스플레이(150)는 백라이트(2040)를 구비하지 않을 수 있다.The backlight 2040 supplies light to the display panel 2010. The backlight 2040 is disposed on the back of the display panel 2010 and may include one or more backlight lamps and a driving circuit thereof. The light supplied by the backlight 2040 may be light having no polarization component. When the display panel 2010 is a PDP, the display 150 may not include the backlight 2040.

도 21은 액정 Lenticular의 원리를 도시한 도면이다.21 is a view showing the principle of the liquid crystal Lenticular.

도 21을 참조하면, 액정 렌티큘러 필터(2120)는 투명전극(ITO)(2121, 2122) 및 투명전극 사이에 위치하는 액정(LC: Liquid Crystal)으로 구성될 수 있다. 액정 렌티큘러 필터(2120)는 액정(LC, Liquid Crystal)을 통해 디스플레이 패널(2110)이 방출하는 빛의 굴절을 조절하여 시점 영들이 적정한 스윗 스포트 상에 위치되게 한다. 즉 액정(LC, Liquid Crystal)은 빛을 굴절시키는 렌즈들을 형성한다. 여기서 액정 렌티큘러 필터(2120)는 투명전극(ITO)으로 인가되는 전압을 조절하여 액정(LC, Liquid Crystal)의 위치, 방향 및 배치를 조절할 수 있다. 액정(LC, Liquid Crystal)의 위치, 방향 및 배치에 따라 형성되는 렌즈의 위치가 변경될 수 있고, 그에 따라 스윗 스포트는 변경될 수 있다.Referring to FIG. 21, the liquid crystal lenticular filter 2120 may include a liquid crystal (LC) disposed between the transparent electrodes (ITO) 2121 and 2122 and the transparent electrode. The liquid crystal lenticular filter 2120 adjusts the refraction of light emitted from the display panel 2110 through liquid crystal (LC) so that the viewpoint zeros are positioned on an appropriate sweet spot. That is, liquid crystal (LC) forms lenses that refract light. The liquid crystal lenticular filter 2120 may adjust the position, direction, and arrangement of the liquid crystal (LC) by adjusting a voltage applied to the transparent electrode ITO. The position of the lens to be formed may be changed according to the position, direction, and arrangement of the liquid crystal (LC), and thus the sweet spot may be changed.

액정 렌티큘러 필터(2120)는 렌즈 안의 전극이 사전에 설정된 개수로 분할된 단위 전극을 가질 수 있고, 형성 하려는 렌즈의 형상에 해당하는 전압을 상기 단위 전극별로 분포를 가지게 인가하여 액정의 굴절률을 변화시켜 렌즈를 형성할 수 있다. The liquid crystal lenticular filter 2120 may have a unit electrode in which the electrodes in the lens are divided into a predetermined number, and a refractive index of the liquid crystal is changed by applying a voltage corresponding to the shape of the lens to be formed to have a distribution for each unit electrode. A lens can be formed.

또한 액정 렌티큘러 필터(2120)는 단위 전극에 인가되는 전압을 조절하여 렌즈를 이동시킬 수 있다. 즉 액정 렌티큘러 필터(2120)는 렌즈를 형성하기 위해 단위 전극에 각각 인가된 전압을 이동량에 해당하는 길이를 갖는 단위 전극의 개수만큼 이동된 단위 전극에 각각 인가하여, 단위 렌즈가 상기 이동량만큼 이동된 위치에서 단위 렌즈가 형성되도록 할 수 있다.In addition, the liquid crystal lenticular filter 2120 may move the lens by adjusting a voltage applied to the unit electrode. That is, the liquid crystal lenticular filter 2120 applies voltages respectively applied to the unit electrodes to the unit electrodes moved by the number of unit electrodes having a length corresponding to the movement amount to form the lens, so that the unit lenses are moved by the movement amount. The unit lens may be formed at the position.

액정 렌티큘러 필터(2120)는 액정(LC)을 활성화 및 비활성화시킬 수 있다. 액정이 활성화되면 복수의 렌즈가 형성되고, 액정이 비활성화되면 액정 렌티큘러 필터(2120)는 입사되는 빛을 굴절시키지 않고 투과시킨다.The liquid crystal lenticular filter 2120 may activate and deactivate the liquid crystal LC. When the liquid crystal is activated, a plurality of lenses are formed. When the liquid crystal is deactivated, the liquid crystal lenticular filter 2120 transmits the incident light without refracting.

제어부(190)는 액정 렌티큘러 필터(2120)의 액정(LC)의 활성화 및 비활성화를 제어할 수 있다. 제어부(190)는 2차원 영상을 디스플레이하는 경우에는, 액정 렌티큘러 필터(2120)의 액정(LC)이 비활성화되도록 제어할 수 있다. 그리고 제어부(190)는 입체영상을 디스플레이하는 경우에는, 액정 렌티큘러 필터(2120)의 액정(LC)이 활성화되도록 제어할 수 있다.The controller 190 may control activation and deactivation of the liquid crystal LC of the liquid crystal lenticular filter 2120. When the 2D image is displayed, the controller 190 may control the liquid crystal LC of the liquid crystal lenticular filter 2120 to be inactivated. In addition, when the stereoscopic image is displayed, the controller 190 may control the liquid crystal LC of the liquid crystal lenticular filter 2120 to be activated.

도 22는 렌티큘러 렌즈 기판에 대한 바람직한 일실시예의 구조를 도시한 도면이다.FIG. 22 illustrates a structure of a preferred embodiment of a lenticular lens substrate. FIG.

도 22는 렌티큘러 렌즈 기판의 일실시예의 구조를 설명하기 위한 단면도이다. 도 22를 참조하면, 렌티큘러 렌즈 기판(2210)은 디스플레이 패널(2010)의 정면에 배치되거나, 또는 디스플레이 패널(2010)의 배면으로, 디스플레이 패널(2010) 및 백라이트 유닛(1640)의 사이에 배치될 수 있다.22 is a cross-sectional view illustrating a structure of an embodiment of a lenticular lens substrate. Referring to FIG. 22, the lenticular lens substrate 2210 may be disposed in front of the display panel 2010 or on the rear surface of the display panel 2010, between the display panel 2010 and the backlight unit 1640. Can be.

또한, 렌티큘러 렌즈 기판(2210)은 디스플레이 패널(2010)로부터 공급되는 빛의 경로를 선택적으로 굴절시키는 렌티큘러 렌즈(2230) 및 빛의 편광형태에 따라 렌티큘러 렌즈(2230)의 굴절률을 결정하는 렌티큘러 어레이(2240)를 포함할 수 있다.In addition, the lenticular lens substrate 2210 may include a lenticular lens 2230 that selectively deflects a path of light supplied from the display panel 2010 and a lenticular array that determines the refractive index of the lenticular lens 2230 according to the polarization form of light. 2240).

렌티큘러 렌즈(2230)는 오목한 등방매질층(2234)과 비등방매질층(2236)으로 구성되며, 등방매질층(2234)은 설계자의 의도에 따라 볼록한 형태일 수 있다.The lenticular lens 2230 includes a concave isotropic medium layer 2234 and an anisotropic medium layer 2236, and the isotropic medium layer 2234 may have a convex shape according to a designer's intention.

렌티큘러 어레이(2240)는 두개의 기판(2242) 및 두개의 기판(2242) 사이에 위치하는 액정층(2245)을 포함할 수 있다. 액정층(2245)은 액정이 수직방향으로 회전하는 TN(Twist Nematic), VA(Vertical Align)등과, 수평방향으로 회전하는 IPS(In-Plane Switching), FLC(Ferroelectric Liquid Crystal)등의 액정모드가 적용될 수 있으며, 특정 액정모드에 한정되지는 않는다.The lenticular array 2240 may include two substrates 2242 and a liquid crystal layer 2245 positioned between the two substrates 2242. The liquid crystal layer 2245 includes liquid crystal modes such as twist nematic (TN), vertical alignment (VA), and the like, in-plane switching (IPS), and ferroelectric liquid crystal (FLC), which rotate in the horizontal direction. It can be applied, and is not limited to a specific liquid crystal mode.

다만, 액정이 수직방향으로 회전하는 TN, VA 등은 액정층에서 빛의 편광성분 중 타원편광성분이 존재하고, 상기의 타원편광성분의 빛은 렌티큘러 렌즈(2230)에 의하여, 빛의 경로가 바뀌지 않는 특성이 있으며, 따라서, 렌티큘러 렌즈(2230)에 적용되는 액정모드는 액정이 수평방향으로 회전하는 IPS, FLC모드가 적용되는 것이 바람직하다.However, in the TN, VA, etc., in which the liquid crystal rotates in the vertical direction, an elliptical polarization component exists among the polarization components of light in the liquid crystal layer, and the light path of the elliptical polarization component is changed by the lenticular lens 2230. Therefore, the liquid crystal mode applied to the lenticular lens 2230 is preferably applied to the IPS and FLC modes in which the liquid crystal rotates in the horizontal direction.

도 23은 도 22의 렌티큘러 렌즈 기판에 입사되는 빛의 편광형태에 따라 조절되는 빛의 경로를 도시한 도면이다.FIG. 23 is a view illustrating a path of light adjusted according to a polarization pattern of light incident on the lenticular lens substrate of FIG. 22.

도 23을 참조하면, 2차원 영상을 디스플레이하는 경우에는, 제어부(190)는 두 기판(2242) 사이에 전원이 오프되도록 제어한다. 이에 따라, 두 기판(2242) 사이에 전계가 형성되지 않고, 액정층(2245)의 굴절률은 차이가 없게 된다. Referring to FIG. 23, when displaying a 2D image, the controller 190 controls the power to be turned off between two substrates 2242. Accordingly, no electric field is formed between the two substrates 2242, and the refractive index of the liquid crystal layer 2245 is not different.

따라서, 디스플레이 패널(2010)로부터 입사되는 선편광상태의 빛(C1)은 액정층(2245)을 그대로 통과하여, 렌티큘러 렌즈(2230)에 입사된다. 또한 액정층(2245)을 통과한 빛(b2)은, 렌티큘러 렌즈(2230)의 등방매질층(2234)과 비등방매질층(2236)을 그대로 통과하게 된다. 렌티큘러 렌즈(2230)를 통과한 빛(C3)은 시청자(2001)의 좌안 및 우안에 입사된다. 시청자(2001)는 빛(C3)을 통해 2차원 영상을 인지하게 된다.Therefore, the light C1 of the linearly polarized state incident from the display panel 2010 passes through the liquid crystal layer 2245 as it is and is incident on the lenticular lens 2230. In addition, the light b2 passing through the liquid crystal layer 2245 passes through the isotropic medium layer 2234 and the anisotropic medium layer 2236 of the lenticular lens 2230 as it is. Light C3 passing through the lenticular lens 2230 is incident to the left and right eyes of the viewer 2001. The viewer 2001 perceives the 2D image through the light C3.

입체영상을 디스플레이하는 경우에는, 제어부(190)는 두 기판(2242) 사이에 전원이 인가되도록 제어한다. 이에 따라, 두 기판(2242) 사이에 전계가 형성되고, 액정층(2245)의 굴절률이 변화하게 된다.When displaying a stereoscopic image, the controller 190 controls power to be applied between the two substrates 2242. As a result, an electric field is formed between the two substrates 2242, and the refractive index of the liquid crystal layer 2245 is changed.

따라서, 디스플레이 패널(2010)로부터 입사되는 선편광상태의 빛(D1)은 액정층(2245)을 통과하면서, 원편광상태로 변환되어, 렌티큘러 렌즈(2230)에 입사된다. 액정층(2245)을 통과한 원편광상태의 빛(D2)은, 렌티큘러 렌즈(2230)의 비등방매질층(2236)까지는 상태변화 없이 입사되나, 등방매질층(2234)과 비등방매질층(2236)의 계면에서 원편광상태에 따라, 일정한 각도로 굴절되어, 빛의 경로가 달라지게 된다. 경로가 달라진 빛(D3)은 해당 스윗 스포트 지점으로 이동하게 되고, 시청자의 좌안 및 우안에 입사된다. 시청자는 좌안에 입사된 시점 영상 및 우안에 입사된 시점 영상을 통해 3차원 영상을 인지하게 된다.Therefore, the light D1 of the linearly polarized state incident from the display panel 2010 is converted into the circularly polarized state while passing through the liquid crystal layer 2245 and is incident on the lenticular lens 2230. The circularly polarized light D2 passing through the liquid crystal layer 2245 is incident on the anisotropic medium layer 2236 of the lenticular lens 2230 without changing its state, but the isotropic medium layer 2234 and the anisotropic medium layer 2236 are incident. Depending on the circularly polarized state at the interface of the refracted at a predetermined angle, the path of light is changed. The light D3 whose path is changed is moved to the corresponding sweet spot and is incident on the left and right eyes of the viewer. The viewer perceives the 3D image through the viewpoint image incident to the left eye and the viewpoint image incident to the right eye.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer apparatus is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

Claims (15)

디스플레이를 생성하는 서브 픽셀들을 포함하는 디스플레이 패널; 및
상기 디스플레이 패널의 전면에 배치되고, 상기 디스플레이 패널을 통과한 빛 또는 상기 디스플레이 패널로부터 출사된 빛의 방향성을 제어하는 입체영상 필터를 포함하고,
상기 입체영상 필터는 상기 디스플레이 패널에 대하여 21.8도 만큼 기울어지게 형성된 것을 특징으로 하는 무안경 입체영상 처리 장치.
A display panel including subpixels for generating a display; And
It is disposed in front of the display panel, and includes a three-dimensional filter for controlling the direction of the light passing through the display panel or the light emitted from the display panel,
And the stereoscopic image filter is inclined by 21.8 degrees with respect to the display panel.
제 1항에 있어서,
상기 입체영상 필터는,
다수의 렌즈를 구비하는 렌티큘러 렌즈 기판인 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 1,
The stereoscopic filter,
Autostereoscopic image processing apparatus, characterized in that the lenticular lens substrate having a plurality of lenses.
제 2항에 있어서,
상기 렌티큘러 렌즈 기판은,
투과하는 빛을 원편광으로 변환하는 렌티큘러 어레이를 더 포함하고,
상기 디스플레이 패널이 디스플레이하는 영상의 종류에 따라 상기 렌티큘러 어레이가 활성화 또는 비활성화되는 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 2,
The lenticular lens substrate,
Further comprising a lenticular array for converting transmitted light into circularly polarized light,
And the lenticular array is activated or deactivated according to a type of an image displayed by the display panel.
제 1항에 있어서,
상기 입체영상 필터는,
투과영역와 불투과영역을 교번적으로 형성하는 패럴랙스 배리어인 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 1,
The stereoscopic filter,
An autostereoscopic 3D image processing apparatus, characterized in that the parallax barrier alternately forms a transmission region and an opacity region.
제 4항에 있어서,
상기 디스플레이 패널이 디스플레이되는 영상의 종류에 따라 상기 입체영상 필터의 불투과영역이 활성화 또는 비활성되는 것을 특징으로 하는 무안경 입체영상 처리 장치.
5. The method of claim 4,
And an opaque region of the stereoscopic filter is activated or deactivated according to the type of the image on which the display panel is displayed.
제 1항에 있어서,
상기 입체영상 필터의 피치(Pich)의 폭은 2.4개 내지 13개의 서브 픽셀의 가로 폭과 대응되는 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 1,
The width of the pitch (Pich) of the three-dimensional image filter is autostereoscopic 3D image processing apparatus, characterized in that corresponding to the horizontal width of 2.4 to 13 sub-pixels.
제 1항에 있어서,
상기 입체영상 필터의 피치(Pitch)의 폭은 서브 픽셀의 가로 폭의 정수배 또는 비정수배의 크기인 것을 특징을 하는 무안경 입체영상 처리 장치.
The method of claim 1,
An autostereoscopic 3D image processing apparatus, characterized in that the width of the pitch (Pitch) of the three-dimensional image filter is an integer multiple of the horizontal width of the sub-pixel or a non-integer multiple.
제 1항에 있어서,
상기 디스플레이 패널이 디스플레이하는 영상은 2차원 영상, 스테레오 영상 및 다시점 영상 중 적어도 하나를 포함하는 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 1,
And the image displayed by the display panel includes at least one of a two-dimensional image, a stereo image, and a multi-view image.
제 1항에 있어서,
상기 디스플레이 패널은 PDP(Plasma Display Panel), LCD(Liquid Crystal Display) 및 LED(Light-Emitting Diode) 패널 중 하나인 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 1,
The display panel may be one of a plasma display panel (PDP), a liquid crystal display (LCD) and a light-emitting diode (LED) panel.
제 1항에 있어서,
상기 디스플레이 패널의 배면에 배치되고, 상기 표시 패널로 빛을 공급하는 백라이트를 더 포함하는 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 1,
The autostereoscopic 3D image processing apparatus further comprising a backlight disposed on a rear surface of the display panel and configured to supply light to the display panel.
제 1항에 있어서,
상기 디스플레이 패널이 디스플레이하는 다시점 영상의 시점수는 12개 내지 65개 사이인 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 1,
An autostereoscopic 3D image processing apparatus, characterized in that the number of viewpoints of the multi-view image displayed by the display panel is between 12 and 65.
제 1항에 있어서,
시점 영상은 가로 방향으로 5시점씩 증가하고 세로 방향으로 6시점씩 증가하는 방식으로 디스플레이 패널 상에 배치되는 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 1,
An eyeglass stereoscopic image processing apparatus, wherein the viewpoint image is disposed on the display panel in such a manner that the viewpoint image is increased by 5 points in the horizontal direction and 6 points in the vertical direction.
제 1항에 있어서,
사용자의 이미지를 촬상하는 카메라; 및
상기 촬상된 이미지를 이용하여 상기 사용자의 위치에 관련된 사용자 위치 정보를 결정하고, 상기 결정된 사용자 위치 정보를 기초로 상기 시점 영상들의 디스플레이를 제어하기 위한 제어신호를 생성하는 제어부를 더 포함하는 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 1,
A camera for photographing an image of a user; And
And a controller configured to determine user location information related to the location of the user by using the captured image and to generate a control signal for controlling the display of the viewpoint images based on the determined user location information. Glasses-free stereoscopic image processing device.
제 13항에 있어서,
상기 입체영상 필터의 피치는 상기 제어신호에 따라 이동하는 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 13,
Autostereoscopic 3D image processing apparatus, characterized in that the pitch of the stereoscopic filter is moved in accordance with the control signal.
제 13항에 있어서,
상기 디스플레이 패널에 디스플레이될 복수의 시점 영상은 상기 제어신호에 따라 배치되는 것을 특징으로 하는 무안경 입체영상 처리 장치.
The method of claim 13,
And a plurality of viewpoint images to be displayed on the display panel according to the control signal.
KR1020120047010A 2012-05-03 2012-05-03 An apparatus for processing autostereoscopic image KR20130123693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120047010A KR20130123693A (en) 2012-05-03 2012-05-03 An apparatus for processing autostereoscopic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120047010A KR20130123693A (en) 2012-05-03 2012-05-03 An apparatus for processing autostereoscopic image

Publications (1)

Publication Number Publication Date
KR20130123693A true KR20130123693A (en) 2013-11-13

Family

ID=49852860

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120047010A KR20130123693A (en) 2012-05-03 2012-05-03 An apparatus for processing autostereoscopic image

Country Status (1)

Country Link
KR (1) KR20130123693A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117955A1 (en) * 2019-12-12 2021-06-17 쓰리디아이즈 주식회사 Display device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040029755A (en) * 2002-10-02 2004-04-08 삼성에스디아이 주식회사 Autostereoscopic display device
KR100662429B1 (en) * 2005-11-01 2007-01-02 엘지전자 주식회사 Apparatus for holography display
KR100704634B1 (en) * 2005-12-19 2007-04-09 삼성전자주식회사 Apparatus and method for displaying three-dimensional picture according to the position of user
JP2009520232A (en) * 2005-12-20 2009-05-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Autostereoscopic display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040029755A (en) * 2002-10-02 2004-04-08 삼성에스디아이 주식회사 Autostereoscopic display device
KR100662429B1 (en) * 2005-11-01 2007-01-02 엘지전자 주식회사 Apparatus for holography display
KR100704634B1 (en) * 2005-12-19 2007-04-09 삼성전자주식회사 Apparatus and method for displaying three-dimensional picture according to the position of user
JP2009520232A (en) * 2005-12-20 2009-05-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Autostereoscopic display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117955A1 (en) * 2019-12-12 2021-06-17 쓰리디아이즈 주식회사 Display device

Similar Documents

Publication Publication Date Title
KR102030830B1 (en) Curved multiview image display apparatus and control method thereof
KR102140080B1 (en) Multi view image display apparatus and controlling method thereof
KR101856568B1 (en) Multi view image display apparatus and controlling method thereof
CN104272733B (en) Auto-stereoscopic display device and driving method
KR102185130B1 (en) Multi view image display apparatus and contorl method thereof
EP2268046B1 (en) Autostereoscopic display device and method
KR102076598B1 (en) Display apparatus and method for displaying multi view image using the same
KR101966152B1 (en) Multi view image display apparatus and contorl method thereof
KR102197382B1 (en) Bendable stereoscopic 3d display device
KR102174258B1 (en) Glassless 3d display apparatus and contorl method thereof
KR102143473B1 (en) Multi view image display apparatus and multi view image display method thereof
KR102121389B1 (en) Glassless 3d display apparatus and contorl method thereof
KR20140089860A (en) Display apparatus and display method thereof
CN107257937B (en) Display device and method of controlling the same
KR20170029210A (en) Multi view image display apparatus and contorl method thereof
KR20130123526A (en) Stereoscopic image display device and method of displaying stereoscopic image
KR20160006546A (en) multi view image display apparatus and multi view image display method thereof
KR102143463B1 (en) Multi view image display apparatus and contorl method thereof
KR102143472B1 (en) Multi view image processing apparatus and image processing method thereof
KR20130015936A (en) An apparatus and a method for displaying a 3-dimensional image
KR101980275B1 (en) Multi view image display apparatus and display method thereof
KR20130123693A (en) An apparatus for processing autostereoscopic image
KR102232462B1 (en) Autostereoscopic 3d display device
KR101954256B1 (en) Display apparatus and control method thereof
KR20150017199A (en) Display apparatus and controlling method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application