KR20160079555A - Autostereoscopic 3d display device - Google Patents

Autostereoscopic 3d display device Download PDF

Info

Publication number
KR20160079555A
KR20160079555A KR1020140191078A KR20140191078A KR20160079555A KR 20160079555 A KR20160079555 A KR 20160079555A KR 1020140191078 A KR1020140191078 A KR 1020140191078A KR 20140191078 A KR20140191078 A KR 20140191078A KR 20160079555 A KR20160079555 A KR 20160079555A
Authority
KR
South Korea
Prior art keywords
view
viewer
image
viewing
views
Prior art date
Application number
KR1020140191078A
Other languages
Korean (ko)
Other versions
KR102279816B1 (en
Inventor
안충환
이재우
정보균
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020140191078A priority Critical patent/KR102279816B1/en
Publication of KR20160079555A publication Critical patent/KR20160079555A/en
Application granted granted Critical
Publication of KR102279816B1 publication Critical patent/KR102279816B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

An autostereoscopic 3D display device according to the present invention enables a viewer to view a 3D image irrespective of a viewer position by transposing view data of an image panel according to the viewer position. In order to accomplish this, the autostereoscopic 3D display device according to the present invention mathematizes and analyzes the kinds and the number of images recognized by left and right eyes of a user as well as the distribution of the images on the image panel according to the viewer position. At this time, the autostereoscopic 3D display device according to the present invention increases a ratio of a 3D area by overlapping viewing diamonds or decreases a 2D area by inserting black data into a view of the 2D area. Also, the autostereoscopic 3D display device according to the present invention suppresses crosstalk resulting from a view overlapping through a view data rendering. As described above, according to the present invention, a degree of freedom in viewing can be increased by enlarging a 3D viewing area and costs can be reduced by removing a gap glass. The autostereoscopic 3D display device comprises: the image panel which displays input data of a multi-view, wherein first to m-th views are sequentially allocated in m (m is a natural number) sub pixels; a 3D filter which is arranged in front of the image panel and separates optical axes of the input data to generate a viewing diamond in which first to K^th (K is a natural number satisfying 1<=K<=m) view images are displayed at an optimum viewing distance; and a timing controller which calculates a position of the viewer and a view corresponding to the 2D area, and overlaps the viewing diamonds with one another based on the calculated position and view.

Description

무안경 입체영상표시장치{AUTOSTEREOSCOPIC 3D DISPLAY DEVICE}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a three-

본 발명은 입체영상표시장치에 관한 것으로, 보다 상세하게는 안경을 착용하지 않는 방식의 무안경 입체영상표시장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereoscopic image display apparatus, and more particularly, to a non-eyeglass stereoscopic image display apparatus which does not wear glasses.

3D 디스플레이(display)란 간단히 정의를 내리자면 "인위적으로 3D 화면을 재생시켜 주는 시스템의 총체"라고 할 수 있다.A simple definition of 3D display is "the total system that artificially reproduces the 3D screen".

여기서, 시스템이란 3D로 보여질 수 있는 소프트웨어적인 기술과 그 소프트웨어적 기술로 만든 컨텐츠를 실제로 3D로 구현해내는 하드웨어를 동시에 포함한다. 소프트웨어 영역까지 포함시키는 이유는 3D 디스플레이 하드웨어의 경우 각각의 입체 구현방식마다 별도의 소프트웨어적 방식으로 구성된 컨텐츠가 따로 필요하기 때문이다.Here, the system includes a software technique that can be viewed in 3D and a hardware that actually realizes the content created by the software technique in 3D. The reason for incorporating the software area is that the 3D display hardware requires separately configured contents in a separate software manner for each stereoscopic implementation method.

또한, 가상 3D 디스플레이(이하, 입체영상표시장치라 함)는 사람이 입체감을 느끼는 여러 요인 중 우리 눈이 가로방향으로 약 65mm 떨어져 있어서 나타나게 되는 양안시차(binocular disparity)를 이용하여 평면적인 디스플레이 하드웨어에서 말 그대로 가상적으로 입체감을 느낄 수 있게 하는 시스템의 총체이다. 다시 말해 우리의 눈은 양안시차 때문에 똑같은 사물을 바라보더라도 각각 약간은(정확히 말하면 좌우의 공간적 정보를 약간씩 나눠 가지고 있는) 다른 화상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면 뇌는 이를 정확히 서로 융합시킴으로써 우리가 입체감을 느낄 수 있게 되는데, 그것을 이용하여 2D 디스플레이 장치에서 좌우 화상 2개를 동시에 표시하여 각각의 눈으로 보내는 설계를 통해 가상적인 입체감을 만들어 내는 것이 바로 입체영상표시장치인 것이다.In addition, a virtual 3D display (hereinafter, referred to as a stereoscopic image display device) is a type of stereoscopic image display device that uses a binocular disparity, which is caused by a distance of about 65 mm It is the totality of the system that allows you to literally feel the stereoscopic effect. In other words, our eyes see a different image (a little bit of space between the left and the right, respectively) even if we look at the same things because of binocular parallax. When these two images are transmitted to the brain through the retina, Dimensional stereoscopic image display apparatus is a stereoscopic image display apparatus in which two left and right images are simultaneously displayed on a 2D display apparatus and sent to each eye by using a stereoscopic image display apparatus .

이러한 입체영상표시장치에서 하나의 화면으로 두 채널의 화상을 나타내기 위해서는 대부분의 경우 하나의 화면에서 가로나 세로의 한쪽 방향으로 줄을 한 줄씩 바꿔가며 한 채널씩 출력하게 된다. 그렇게 동시에 두 채널의 화상이 하나의 디스플레이 장치에서 출력되면 하드웨어적 구조상 무안경 방식의 경우에는 오른쪽 화상은 그대로 오른쪽 눈으로 들어가고, 왼쪽 화상은 왼쪽 눈으로만 들어가게 된다. 또한, 안경을 착용하는 방식의 경우에는 각각의 방식에 맞는 특수한 안경을 통하여 오른쪽 화상은 왼쪽 눈이 볼 수 없게 가려주고, 왼쪽 화상은 오른쪽 눈이 볼 수 없게 각각 가려주는 방법을 사용한다.In order to display images of two channels in one screen in such a stereoscopic image display device, in most cases, one line is changed one line at a time horizontally or vertically in one screen and outputted one channel at a time. At the same time, when images of two channels are output from one display device, in the case of a non-eyeglass system due to the hardware structure, the right image enters the right eye as it is, and the left image enters only the left eye. In addition, in the case of wearing the glasses, the right image is visually obscured by the special glasses suitable for each method, and the left image is obscured by the right eye so that the right eye can not be seen.

이와 같이 사람이 입체감과 깊이감을 느끼는 요인으로 가장 중요하게는 두 눈 사이의 간격에 의한 양안시차를 들 수 있지만, 이외에도 심리적, 기억적 요인에도 깊은 관계가 있고, 이에 따라 입체 구현방식 역시 관찰자에게 어느 정도의 3차원 영상정보를 제공할 수 있는지를 기준으로 통상 부피표현방식(volumetric type), 3차원표현방식(holographic type), 입체감표현방식(stereoscopic type)으로 구분된다.As mentioned above, the binocular parallax due to the interval between the two eyes is the most important factor for the person to feel the three-dimensional feeling and the depth feeling, but there is also a deep relationship with the psychological and memory factors. Accordingly, Dimensional image information, a volumetric type, a holographic type, and a stereoscopic type based on whether the three-dimensional image information can be provided.

부피표현방식은 심리적인 요인과 흡입효과에 의해 깊이방향에 대한 원근감이 느껴지도록 하는 방법으로서, 투시도법, 중첩, 음영과 명암, 움직임 등을 계산에 의해 표시하는 3차원 컴퓨터그래픽, 또는 관찰자에게 시야각이 넓은 대화면을 제공하여 그 공간 내로 빨려 들어가는 것 같은 착시현상을 불러일으키는 이른바 아이맥스 영화 등에 응용되고 있다.The volume expression method is a method for making the depth direction perceive by the psychological factors and the suction effect, and is a three-dimensional computer graphic which displays the perspective method, overlapping, shading, contrast, and movement by calculation, So-called IMAX films, which give rise to an optical illusion that it is sucked into the space by providing a large screen.

가장 완전한 입체영상 구현기술이라 알려져 있는 3차원표현방식은 레이저광 재생 홀로그래피(holography) 내지 백색광 재생 홀로그래피로 대표될 수 있다.The three-dimensional representation known as the most complete stereoscopic imaging technique can be represented by laser light reproduction holography or white light reproduction holography.

그리고, 입체감표현방식은 양안의 생리적 요인을 이용하여 입체감을 느끼는 방식으로, 전술한 바와 같이 약 65㎜ 떨어져 존재하는 인간의 좌, 우안에 시차정보가 포함된 평면의 연관 영상이 보일 경우에 뇌가 이들을 융합하는 과정에서 표시면 전후의 공간정보를 생성해 입체감을 느끼는 능력, 즉 입체 사진술(stereography)을 이용한 것이다. 이러한 입체감표현방식은 크게 안경을 착용하는 방식과 안경을 착용하지 않는 무안경 방식이 있다.As described above, when an association image of a plane including parallax information is displayed on the left and right sides of a human being present at a distance of about 65 mm as described above, the brain expresses three-dimensional images using the physiological factors of both eyes. And the ability to generate spatial information before and after the display surface in the process of fusing them to sense a stereoscopic effect, that is, stereography. Such a three-dimensional expression system is largely classified into a system in which glasses are worn and a system in which glasses are not worn.

안경을 착용하지 않는 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈를 수직으로 배열한 렌티큘러(lenticular) 렌즈판을 영상패널 전방에 설치하는 렌티큘러 렌즈 방식과 패러렉스 배리어(parallax barrier) 방식이 있다.Representative known methods of not wearing glasses include a lenticular lens method and a parallax barrier method in which a lenticular lens plate vertically arranging a cylindrical lens is installed in front of the image panel.

도 1은 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치의 개념을 설명하기 위한 도면으로써, 렌즈의 배면거리(S)와 시청거리(v) 사이의 관계를 보여주고 있다.FIG. 1 is a view for explaining the concept of a general lenticular lens type stereoscopic image display apparatus, and shows a relationship between a rear distance S of a lens and a viewing distance v.

도 1을 참조하면, 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치는 상, 하부 기판과 그 사이에 액정이 충진된 액정패널(10), 액정패널(10)의 후면(後面)에 위치하여 광을 조사하는 백라이트 유닛(미도시) 및 입체영상의 구현을 위해 액정패널(10) 전면(前面)에 위치하는 렌티큘러 렌즈판(20)을 포함하여 이루어진다.Referring to FIG. 1, a typical lenticular lens type stereoscopic image display device includes a liquid crystal panel 10 filled with liquid crystal between upper and lower substrates, a liquid crystal panel 10 disposed therebetween, And a lenticular lens plate 20 positioned on the front surface of the liquid crystal panel 10 for realizing a stereoscopic image.

렌티큘러 렌즈판(20)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층으로 이루어진 다수의 렌티큘러 렌즈가 형성되어 이루어진다.The lenticular lens plate 20 is formed by forming, on a flat substrate, a plurality of lenticular lenses whose upper surfaces are formed of a material layer of a convex lens shape.

이러한 렌티큘러 렌즈판(20)은 좌, 우안 영상을 나누어주는 역할을 수행하고 있으며, 렌티큘러 렌즈판(20)으로부터 최적 시청거리 v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(viewing diamond)(정시영역)(미도시)가 형성되어 있다.The lenticular lens plate 20 serves to divide the left and right eye images. The optimum viewing distance v from the lenticular lens plate 20 is a distance between the left and right eyes of the lenticular lens plate 20, A viewing diamond (regular area) (not shown) is formed.

뷰잉 다이아몬드의 하나의 폭은 시청자의 양안 간격 크기로 형성되는데, 이는 시청자의 좌안과 우안에 각각 시차가 있는 영상을 입력함으로써 입체영상으로 인식하게 하기 위함이다.One width of the viewing diamond is formed by the size of the viewer's eyes in both sides to input stereoscopic images in the left and right eyes of the viewer so that stereoscopic images can be recognized.

이때, 각 뷰잉 다이아몬드에는 대응되는 액정패널(10)의 서브-픽셀의 뷰 데이터, 즉 이미지가 형성된다.At this time, view data, that is, an image, of the corresponding sub-pixel of the liquid crystal panel 10 is formed in each of the viewing diamonds.

뷰 데이터는 양안 간격의 기준만큼 떨어진 카메라에서 촬영된 영상을 의미한다. 이하에서는 뷰 데이터와 뷰 영상을 동일한 의미로 사용하고자 한다.View data refers to images taken by cameras separated by a distance of the binocular interval. Hereinafter, the view data and the view image are used in the same meaning.

이러한 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치는 액정패널(10)과 렌티큘러 렌즈판(20)이 기구물(미도시) 등에 의해 지지되어, 액정패널(10)과 렌티큘러 렌즈판(20) 사이가 소정 간격(배면 거리; S) 이격되어 있다.The liquid crystal panel 10 and the lenticular lens plate 20 are supported by an instrument (not shown) or the like so that the liquid crystal panel 10 and the lenticular lens plate 20 are spaced apart from each other by a predetermined distance (Back surface distance S).

이때, 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치에서는 배면 거리(S)를 일정하게 유지하기 위해 갭 글라스(26)가 삽입되어 있다.At this time, in a typical lenticular lens type stereoscopic image display apparatus, a gap glass 26 is inserted to keep the rear distance S constant.

전술한 바와 같이, 렌티큘러 렌즈 방식의 입체영상표시장치에서는 초기에 설계된 뷰-맵(view map)에 따라 형성되는 멀티 뷰(multi view) 방식으로 구현되기 때문에 시청자는 정해진 뷰의 영역으로 들어갈 때 3D 영상을 시청할 수 있다.As described above, in the stereoscopic image display apparatus using the lenticular lens system, since the stereoscopic image display apparatus is implemented as a multi view system which is formed according to a view map designed in the beginning, when a viewer enters a predetermined view area, .

본 출원인이 기 출원한 대한민국 출원 10-2012-0108794를 참조하면, 시청자의 좌안과 우안에 인지되는 영상에 따라 적절히 뷰 데이터를 치환함으로써, 3D 시청영역(viewing zone)의 확장 및 깊이 정도를 제어할 수 있다.Reference is made to Korean Patent Application No. 10-2012-0108794 filed by the applicant of the present application to control the extent and depth of a 3D viewing zone by appropriately replacing view data according to an image recognized in the left and right eyes of a viewer .

다만, 이 경우에는 시청자가 입체영상표시장치의 최적 시청거리에서 앞이나 뒤로 이동함에 따라 발생하는 2D 영역(즉, 2D 시청영역)의 처리에 대해 언급하고 있지 않다.In this case, however, the processing of the 2D area (i.e., the 2D viewing area) generated as the viewer moves forward or backward from the optimum viewing distance of the stereoscopic image display device is not mentioned.

도 2a 및 도 2b는 2D 영역이 발생하는 예를 보여주는 도면이다.2A and 2B are diagrams showing an example in which a 2D region is generated.

이때, 도 2a 및 도 2b는 시청자가 최적 시청거리의 바로 뒤(제 1, 제 2 후방 시청영역)에 위치할 때 시청자의 좌, 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주고 있다. 2A and 2B show examples of sub-pixels and views recognized in the left and right eyes of the viewer when the viewer is located immediately behind the optimal viewing distance (first and second rear viewing areas).

이때, 도 2a는 시청자의 좌안에서 인지되는 서브-픽셀과 뷰를 보여주며, 도 2b는 시청자의 우안에서 인지되는 서브-픽셀과 뷰를 예로 보여주고 있다.At this time, FIG. 2A shows sub-pixels and views recognized in the viewer's left eye, and FIG. 2B shows sub-pixels and views recognized in the viewer's right eye.

도 2a 및 도 2b를 참조하면, 시청자의 좌안 및 우안이 제 1 후방 시청영역 및 제 2 후방 시청영역에 위치하면, 시청자의 좌안은 제 1 뷰 영상(1)을 표시하는 서브-픽셀들 및 제 3 뷰 영상(3)을 표시하는 서브-픽셀들을 함께 보고, 시청자의 우안은 제 3 뷰 영상(3)을 표시하는 서브-픽셀들을 보게 된다.2A and 2B, when the left and right eyes of the viewer are located in the first and second rear view regions, the left eye of the viewer is divided into sub-pixels displaying the first view image 1 and sub- The sub-pixels displaying the 3-view image 3 together and the right-eye of the viewer see the sub-pixels displaying the 3rd view image 3.

즉, 시청자의 좌안 및 우안이 제 1 후방 시청영역 및 제 2 후방 시청영역에 위치하면 시청자는 영상패널의 일부에서 2D 영역을 느끼게 된다.That is, when the left and right eyes of the viewer are located in the first rearview area and the second rearview area, the viewer feels the 2D area in a part of the image panel.

본 발명은 상기한 문제를 해결하기 위한 것으로, 시청자 위치에 따라 영상패널의 뷰 데이터를 치환함으로써 2D 시청영역 및 역입체시 영역을 제거하여, 어느 위치에서나 3D 영상을 시청할 수 있는 무안경 입체영상표시장치를 제공하는데 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a non-eyeglass stereoscopic image display device capable of eliminating a 2D viewing area and an inverse stereoscopic area by replacing view data of a video panel according to a viewer position, Device. &Lt; / RTI &gt;

기타, 본 발명의 다른 목적 및 특징들은 후술되는 발명의 구성 및 특허청구범위에서 설명될 것이다.Other objects and features of the present invention will be described in the following description of the invention and the claims.

상기한 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 시청자 위치에 따라 영상패널의 뷰 데이터를 치환하고, 뷰잉 다이아몬드(viewing diamond)를 겹쳐 3D 영역의 비율을 증가시키거나 2D 영역의 뷰에 블랙 데이터를 삽입하는 것을 특징으로 한다.In order to achieve the above object, according to one embodiment of the present invention, a non-eyeglass stereoscopic image display apparatus replaces view data of an image panel according to a viewer position, overlays a viewing diamond, Or insert black data into the view of the 2D area.

또한, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 뷰 데이터 렌더링(view data rendering)을 통해 뷰 겹침에 따라 발생하는 크로스토크를 제거하는 것을 특징으로 한다.In addition, the non-eyeglass stereoscopic image display device according to an embodiment of the present invention is characterized by removing crosstalk caused by view overlapping through view data rendering.

이를 위해 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 m(m은 자연수)개의 서브-픽셀에 순차적으로 첫 번째 뷰 내지 m번째 뷰가 할당되어 멀티 뷰의 입력 데이터를 표시하는 영상패널, 영상패널의 전면에 배치되며, 입력 데이터의 광축을 분리하여 최적 시청거리에 제 1 뷰 영상 내지 제 K(K는 1≤K≤m을 만족하는 자연수) 뷰 영상이 표시되는 뷰잉 다이아몬드를 형성하는 3D 필터 및 시청자의 위치 및 2D 영역에 해당하는 뷰를 연산하고, 이를 바탕으로 뷰잉 다이아몬드를 상호 중첩시키는 타이밍 컨트롤러를 포함하여 구성할 수 있다.For this purpose, in the non-eyeglass stereoscopic image display apparatus according to an embodiment of the present invention, a first view to an m-th view are sequentially allocated to m (m is a natural number) sub- A viewing diamond disposed on the front face of the image panel and separating the optical axis of the input data to form a viewing diamond in which the first view image to K (K is a natural number satisfying 1? K? M) A 3D controller, and a timing controller for calculating a position of a viewer and a view corresponding to the 2D area, and superimposing the viewing diamonds on the basis of the computed views.

이때, 시청자의 위치가 최적 시청거리의 N배에 해당하는 경우 뷰잉 다이아몬드를 N번 이상 중첩시킬 수 있다.At this time, if the position of the viewer corresponds to N times the optimal viewing distance, the viewing diamond can be superimposed N times or more.

타이밍 컨트롤러는 시청자의 위치에 따라 시청자의 좌안과 우안이 인지하는 뷰 및 뷰의 수를 연산할 수 있다.The timing controller can calculate the number of views and views recognized by the viewer's left and right eyes according to the position of the viewer.

이때, 연산된 뷰 및 뷰의 수를 바탕으로 뷰 데이터 렌더링 영역을 선정할 수 있다.At this time, the view data rendering area can be selected based on the number of calculated views and views.

이때, 선정된 뷰 데이터 렌더링 영역을 바탕으로 뷰 영상을 시청자의 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 영상으로 각각 치환할 수 있다.At this time, the view image can be replaced with one view image having a disparity with respect to the left and right eyes of the viewer based on the selected view data rendering region.

이때, 일 예로 좌안의 경우에는 인지되는 다수의 뷰 영상들 중 어느 하나의 뷰 영상으로 치환하며, 우안의 경우에는 인지되는 다수의 뷰 영상들 중 좌안에서 치환된 뷰 영상을 제외한 다른 하나의 뷰 영상으로 치환할 수 있다.In this case, for example, one of the plurality of view images recognized in the case of the left eye is replaced with one of the plurality of view images. In the case of the right eye, among the plurality of view images recognized, . &Lt; / RTI &gt;

상술한 바와 같이, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 3D 시청영역이 확장되어 시청 자유도가 높아지며, 초점 거리와 배면거리의 설계 자유도가 강화되는 효과를 제공한다.As described above, the non-eyeglass stereoscopic image display apparatus according to an embodiment of the present invention expands the 3D viewing area to increase the degree of viewing freedom, and enhances the degree of freedom in designing the focal distance and the back distance.

또한, 갭 글라스를 제거할 수 있어 비용이 감소되는 효과를 제공한다.Further, the gap glass can be removed, thereby providing a cost-reducing effect.

도 1은 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치의 개념을 설명하기 위한 도면.
도 2a 및 도 2b는 2D 영역이 발생하는 예를 보여주는 도면.
도 3은 본 발명의 실시예에 따른 무안경 입체영상표시장치의 구성을 개략적으로 보여주는 블록도.
도 4는 본 발명의 실시예에 따른 무안경 입체영상표시장치를 개략적으로 보여주는 사시도.
도 5는 무안경 입체영상표시장치에 있어, 시청영역(viewing zone)을 설명하기 위한 예시도.
도 6은 뷰잉 다이아몬드(viewing diamond)를 XZ-평면에 투사시켜 보여주는 도면.
도 7a 및 도 7b는 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 8은 최적 시청거리의 2배 거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 9는 최적 시청거리를 포함하는 전 영역에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 10은 최적 시청거리의 k배의 시청거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 11은 XZ-평면에서의 뷰잉 다이아몬드 셀(cell)을 예로 들어 보여주는 도면.
도 12는 P1 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면.
도 13a 및 도 13b는 P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 14는 P1 위치에서 2D, 3D 영역을 보여주는 도면.
도 15는 P2 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면.
도 16a 및 도 16b는 P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 17은 P2 위치에서 2D, 3D 영역을 보여주는 도면.
도 18은 P2 위치에서 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면.
도 19a 및 도 19b는 P3 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 20은 P3 위치에서 2D, 3D 영역을 보여주는 도면.
도 21a 및 도 21b는 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 22a 및 도 22b는 최적 시청거리의 2배 이상의 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 23은 최적 시청거리의 2배가 넘는 시청거리에서, 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면.
도 24a 및 도 24b는 시청자의 위치에 따른 멀티 뷰 영상의 시청영역을 예로 들어 보여주는 도면.
도 25는 2중첩 구조에 있어, P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 26은 2중첩 구조에 있어, P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 27은 2중첩 구조에 있어, P2 위치에서 2D, 3D 영역을 보여주는 도면.
도 28은 본 발명의 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이 및 렌티큘러 렌즈 배치를 예로 들어 보여주는 도면.
도 29a 및 도 29b는 P1 위치에서 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 30a 및 도 30b는 P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 31a 및 도 31b는 P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 32a 및 도 32b는 뷰 데이터 렌더링(view data rendering)을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 33a 및 도 33b는 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 34 및 도 35는 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면.
도 36은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 다른 예를 보여주는 도면.
도 37은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 38은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
1 is a view for explaining a concept of a stereoscopic image display apparatus using a general lenticular lens system.
2A and 2B show an example in which a 2D region is generated;
3 is a block diagram schematically showing the configuration of a spectacle-free three-dimensional image display apparatus according to an embodiment of the present invention.
4 is a perspective view schematically showing a non-eyeglass stereoscopic image display apparatus according to an embodiment of the present invention.
FIG. 5 is an exemplary view for explaining a viewing zone in a spectacle-free three-dimensional image display apparatus. FIG.
6 is a view showing a viewing diamond projected on an XZ-plane.
Figures 7A and 7B illustrate viewing diamond coordinates as examples.
8 is an illustration showing viewing diamond coordinates in the XZ-plane at a distance of twice the optimal viewing distance.
9 is a view showing, as an example, the viewing diamond coordinates in the XZ-plane in the entire region including the optimum viewing distance.
FIG. 10 illustrates viewing diamond coordinates in the XZ-plane at k viewing distances of the optimal viewing distance; FIG.
11 is a view showing a viewing diamond cell in an XZ-plane as an example;
12 illustrates an example of viewing area coordinates including a binocular position in the XZ-plane at the P1 position;
FIGS. 13A and 13B illustrate a view that is perceived in the left and right eyes of a viewer at a position P1; FIG.
14 is a view showing 2D and 3D regions at a P1 position;
15 illustrates an example of viewing area coordinates including a binocular position in the XZ-plane at the P2 position;
FIGS. 16A and 16B are views showing, for example, a view recognized in the left and right eyes of a viewer at a position P2; FIG.
17 is a view showing 2D and 3D regions at P2 position;
18 is a view showing an example of the position of the binocular applied to the viewing diamond at the P2 position;
Figs. 19A and 19B show examples of views recognized in the left and right eyes of a viewer at a position P3. Fig.
20 is a view showing 2D and 3D regions at a position P3;
Figs. 21A and 21B illustrate examples of views recognized in the left and right eyes of a viewer at a position Pj. Fig.
Figures 22A and 22B illustrate examples of views perceived in the left and right eyes of a viewer at Pj locations that are at least twice the optimal viewing distance.
Fig. 23 is a view showing an example of the position of both eyes applied to a viewing diamond at a viewing distance of more than twice the optimum viewing distance. Fig.
24A and 24B are views showing an example of a viewing area of a multi-view image according to the position of a viewer.
Fig. 25 is a view showing an example of a view recognized in the left and right eyes of a viewer at a position P1 in a two-layer structure; Fig.
Fig. 26 is a view showing an example of a view recognized in the left and right eyes of a viewer at a P2 position in a two-layer structure; Fig.
FIG. 27 is a view showing 2D and 3D regions at a P2 position in a two-layer structure; FIG.
28 is a view showing an example of a pixel array and a lenticular lens arrangement in which a view-map is written, in the non-eyeglass stereoscopic image display apparatus according to the embodiment of the present invention.
29A and 29B illustrate examples of sub-pixels and views perceived in the left and right eyes at the P1 position;
Figures 30A and 30B illustrate examples of sub-pixels and views perceived in the left eye at the P2 position.
Figures 31A and 31B illustrate examples of sub-pixels and views perceived in the right eye at the P2 position.
Figures 32A and 32B illustrate examples of sub-pixels and views perceived in the left eye at a position P2 when view data rendering is applied;
Figures 33A and 33B illustrate examples of sub-pixels and views perceived in the right eye at the P2 position in the case of applying view data rendering.
Figures 34 and 35 illustrate an example of transforming input data through view data rendering.
36 is a view showing another example of converting input data through view data rendering;
Fig. 37 is a view showing an example of a sub-pixel and a view recognized in the left eye at the P2 position in the case of applying the view data rendering shown in Fig. 36;
Fig. 38 is a view showing examples of sub-pixels and views recognized in the right eye at the P2 position in the case of applying the view data rendering shown in Fig. 36;

이하, 첨부한 도면을 참조하여 본 발명에 따른 무안경 입체영상표시장치의 바람직한 실시예를 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the present embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 도면에서 층 및 영역들의 크기 및 상대적인 크기는 설명의 명료성을 위해 과장될 수 있다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but is capable of many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification. The dimensions and relative sizes of the layers and regions in the figures may be exaggerated for clarity of illustration.

소자(element) 또는 층이 다른 소자 또는 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 소자 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다. 반면, 소자가 "직접 위(directly on)" 또는 "바로 위"로 지칭되는 것은 중간에 다른 소자 또는 층을 개재하지 않는 것을 나타낸다.It will be understood that when an element or layer is referred to as being another element or "on" or "on ", it includes both intervening layers or other elements in the middle, do. On the other hand, when a device is referred to as "directly on" or "directly above ", it does not intervene another device or layer in the middle.

공간적으로 상대적인 용어인 "아래(below, beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 소자 또는 구성 요소들과 다른 소자 또는 구성 요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 소자의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들면, 도면에 도시되어 있는 소자를 뒤집을 경우, 다른 소자의 "아래(below)" 또는 "아래(beneath)"로 기술된 소자는 다른 소자의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다.The terms spatially relative, "below," "lower," "above," "upper," and the like, And may be used to easily describe the correlation with other elements or components. Spatially relative terms should be understood to include, in addition to the orientation shown in the drawings, terms that include different orientations of the device during use or operation. For example, when inverting an element shown in the figures, an element described as "below" or "beneath" of another element may be placed "above" another element. Thus, the exemplary term "below" can include both downward and upward directions.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 따라서 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. &Quot; comprise "and / or" comprising ", as used in the specification, means that the presence of stated elements, Or additions.

도 3은 본 발명의 실시예에 따른 무안경 입체영상표시장치의 구성을 개략적으로 보여주는 블록도이다.3 is a block diagram schematically illustrating the configuration of a non-eyeglass stereoscopic image display apparatus according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에 따른 무안경 입체영상표시장치는 크게 영상패널(110), 영상패널 구동부(111, 112), 3D 필터(120), 3D 필터 구동부(미도시), 타이밍 컨트롤러(113) 등을 포함하여 구성될 수 있다.3 is a block diagram illustrating a stereoscopic image display apparatus according to an exemplary embodiment of the present invention. The stereoscopic image display apparatus includes an image panel 110, image panel drivers 111 and 112, a 3D filter 120, a 3D filter driver (not shown) A timing controller 113, and the like.

본 발명의 실시예에 따른 입체영상표시장치는 액정표시장치(Liquid Crystal Display; LCD), 유기발광표시장치(Organic Light Emitting Diode Display; OLED), 전계발광표시장치(Field Emission Display; FED), 플라즈마영상표시장치(Plasma Display Panel; PDP), 전기발광표시장치(Electroluminescent Display; EL) 등의 평판표시소자로 구현될 수 있다. 본 발명은 아래의 실시예에서 영상패널(110)을 액정표시장치로 구성한 경우를 예시하였지만, 본 발명이 이에 한정되는 것은 아니다.The stereoscopic image display device according to an exemplary embodiment of the present invention may be applied to a liquid crystal display (LCD), an organic light emitting diode (OLED) display, a field emission display (FED) A flat panel display device such as a plasma display panel (PDP), an electroluminescent display (EL), or the like. In the following description, the present invention is applied to a case where the image panel 110 is constituted by a liquid crystal display device, but the present invention is not limited thereto.

이때, 영상패널(110)에는 적, 녹 및 청색을 표시하는 다수의 서브-픽셀들이 형성되어 있으며, 이러한 서브-픽셀들은 3D 필터(120)와 작용하여 입체영상을 표시하기 위해, 좌안영상과 우안영상을 표시하는 좌안픽셀과 우안픽셀이 구분되어 있다.At this time, a plurality of sub-pixels for displaying red, green and blue colors are formed on the image panel 110. These sub-pixels act on the 3D filter 120 to display a stereoscopic image, A left-eye pixel and a right-eye pixel that display an image are separated.

일 예로, 영상패널(110)을 액정표시장치로 구성하는 경우, 본 발명은 액정 모드, 즉 트위스티드 네마틱(Twisted Nematic; TN) 모드, 인-플레인 스위칭(In Plane Switching; IPS) 모드, 프린지-필드 스위칭(Fringe Field Switching; FFS) 모드 및 수직배향(Vertical Alignment; VA) 모드에 상관없이 적용 가능하다.For example, when the image panel 110 is a liquid crystal display device, the present invention can be applied to a liquid crystal mode, i.e., a twisted nematic (TN) mode, an in-plane switching (IPS) mode, The present invention is applicable regardless of the Fringe Field Switching (FFS) mode and the Vertical Alignment (VA) mode.

이때, 도시하지 않았지만, 영상패널(110)은 크게 컬러필터(color filter) 기판과 어레이(array) 기판 및 컬러필터 기판과 어레이 기판 사이에 형성된 액정층으로 구성될 수 있다.Although not shown, the image panel 110 may include a color filter substrate, an array substrate, and a liquid crystal layer formed between the color filter substrate and the array substrate.

컬러필터 기판은 적, 녹 및 청의 색상을 구현하는 다수의 서브-컬러필터로 구성된 컬러필터와 서브-컬러필터 사이를 구분하고 액정층을 투과하는 광을 차단하는 블랙매트릭스(Black Matrix; BM), 그리고 액정층에 전압을 인가하는 투명한 공통전극으로 이루어질 수 있다.The color filter substrate includes a black matrix (BM) for separating a sub-color filter from a color filter composed of a plurality of sub-color filters for realizing colors of red, green and blue and blocking light transmitted through the liquid crystal layer, And a transparent common electrode for applying a voltage to the liquid crystal layer.

어레이 기판은 종횡으로 배열되어 다수의 화소영역을 정의하는 다수의 게이트라인(G1, G2, G3,..., Gn)과 데이터라인(D1, D2, D3,..., Dm), 게이트라인(G1, G2, G3,..., Gn)과 데이터라인(D1, D2, D3,..., Dm)의 교차영역에 형성된 스위칭소자인 박막 트랜지스터 및 화소영역에 형성된 화소전극으로 이루어져 있다.The array substrate includes a plurality of gate lines G1, G2, G3, ..., Gn and data lines D1, D2, D3, ..., Dm arranged vertically and horizontally to define a plurality of pixel regions, And a pixel electrode formed in a pixel region, which are switching elements formed in intersections of the data lines D1, D2, D3, ..., Dm and the data lines D1, D2, D3, ..., Dm.

박막 트랜지스터는 게이트라인(G1, G2, G3,..., Gn)에 연결된 게이트전극, 데이터라인(D1, D2, D3,..., Dm)에 연결된 소오스전극 및 화소전극에 전기적으로 접속된 드레인전극으로 구성되어 있다. 또한, 박막 트랜지스터는 게이트전극과 소오스/드레인전극 사이의 절연을 위한 게이트절연막 및 게이트전극에 공급되는 게이트 전압에 의해 소오스전극과 드레인전극간에 전도채널(conductive channel)을 형성하는 액티브층을 포함한다.The thin film transistor includes a source electrode connected to a gate electrode connected to the gate lines G1, G2, G3, ..., Gn, a source electrode connected to the data lines D1, D2, D3, ..., Dm, Drain electrodes. The thin film transistor includes a gate insulating film for insulation between the gate electrode and the source / drain electrode, and an active layer forming a conductive channel between the source electrode and the drain electrode by a gate voltage supplied to the gate electrode.

컬러필터 기판의 외면에는 상부 편광판이 부착되고, 어레이 기판의 외면에는 하부 편광판이 부착된다. 상부 편광판의 광투과축과 하부 편광판의 광투과축은 서로 직교되도록 형성될 수 있다. 그리고, 컬러필터 기판과 어레이 기판의 내면에는 액정층의 프리틸트 각(pre-tilt angle)을 설정하기 위한 배향막이 형성되는 한편, 컬러필터 기판과 어레이 기판 사이에는 영상패널(110)의 셀 갭(cell gap)을 유지하기 위한 스페이서가 형성된다.An upper polarizer is attached to the outer surface of the color filter substrate, and a lower polarizer is attached to the outer surface of the array substrate. The light transmission axis of the upper polarizer and the light transmission axis of the lower polarizer may be formed to be orthogonal to each other. An alignment film for setting a pre-tilt angle of the liquid crystal layer is formed on the inner surface of the color filter substrate and the array substrate. An alignment film for setting the pre-tilt angle of the liquid crystal layer is formed between the color filter substrate and the array substrate. a cell gap is formed.

이와 같이 구성되는 영상패널(110)은 타이밍 컨트롤러(113)의 제어 하에 영상을 표시한다.The image panel 110 configured as described above displays an image under the control of the timing controller 113.

영상패널(110)은 타이밍 컨트롤러(113)의 제어 하에 2D 모드에서 2D 영상을 표시하고, 3D 모드에서 멀티 뷰 영상을 표시할 수 있다.The image panel 110 may display a 2D image in a 2D mode and a multi-view image in a 3D mode under the control of the timing controller 113.

입체영상의 뷰는 시청자의 양안 간격만큼 카메라들을 이격하고 객체에 대한 이미지를 촬영하여 생성할 수 있다. 일 예로, 9대의 카메라를 이용하여 객체를 촬영하는 경우, 영상패널(110)은 9뷰의 입체영상을 표시할 수 있다.The view of the stereoscopic image can be generated by separating the cameras from each other by an interval of the viewer's eyes and taking an image of the object. For example, when capturing an object using nine cameras, the image panel 110 can display a three-dimensional image of nine views.

영상패널 구동부(111, 112)는 영상패널(110)의 데이터라인(D1, D2, D3,..., Dm)에 2D/3D 영상의 데이터전압들을 공급하기 위한 데이터 구동부(111)와 영상패널(110)의 게이트라인(G1, G2, G3,..., Gn)들에 스캔 펄스(또는 게이트 펄스)를 순차적으로 공급하기 위한 게이트 구동부(112)를 포함한다. 영상패널 구동부(111, 112)는 3D 모드에서 멀티 뷰 영상 데이터 포맷의 데이터로 입력된 좌안 및 우안 영상 데이터를 영상패널(110)의 서브-픽셀들에 공간적으로 분산하여 기입한다.The image panel driving units 111 and 112 include a data driver 111 for supplying data voltages of the 2D / 3D image to the data lines D1, D2, D3, ..., Dm of the image panel 110, And a gate driver 112 for sequentially supplying scan pulses (or gate pulses) to the gate lines G1, G2, G3, ..., Gn of the scan driver 110. [ The image panel driving units 111 and 112 spatially distribute the left eye and right eye image data input as data of the multi view image data format in the 3D mode to the sub-pixels of the image panel 110 and write them.

이때, 도시하지 않았지만, 호스트 시스템(115)에 연결되는 시청거리 감지부는 센서를 이용하여 시청자의 거리, 시청자의 양안 위치를 감지하여 그 결과를 디지털 데이터로 변화하여 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 공급한다. 센서는 자외선 센서나 고주파 센서 등이 적용될 수 있다.In this case, although not shown, the viewing distance sensing unit connected to the host system 115 senses the distance of the viewer and the binocular position of the viewer using the sensor, converts the result into digital data, and transmits the digital data to the host system 115 or the timing controller 113). The sensor may be an ultraviolet sensor or a high frequency sensor.

시청거리 감지부는 2개의 센서 출력을 삼각 측량법으로 분석하여 영상패널(110)과 시청자 사이의 거리를 계산하여 그 결과를 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 전송할 수 있다. 시청거리 감지부는 공지된 얼굴 인식 알고리즘을 통해 센서 출력을 분석하여 시청자의 양안 위치를 감지하고, 그 결과를 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 전송할 수 있다.The viewing distance sensing unit may analyze the two sensor outputs using a triangulation method to calculate the distance between the image panel 110 and the viewer and transmit the result to the host system 115 or the timing controller 113. The viewing distance sensing unit may analyze the sensor output through a known face recognition algorithm to sense the position of the viewer's binocular position and transmit the result to the host system 115 or the timing controller 113. [

타이밍 컨트롤러(113)는 데이터 인에이블 신호(Data Enable, DE), 도트 클럭(CLK) 등의 타이밍신호를 입력받아 게이트 구동부(111)와 데이터 구동부(112)의 동작 타이밍을 제어하기 위한 제어신호들(GCS, DCS)을 발생한다.The timing controller 113 receives timing signals such as a data enable signal DE and a dot clock signal CLK and generates control signals for controlling the operation timings of the gate driver 111 and the data driver 112 (GCS, DCS).

즉, 타이밍 컨트롤러(113)는 멀티 뷰 영상 변환부(114)(또는 호스트 시스템(115))로부터 입력받은 영상 데이터와 타이밍 신호들에 기초하여 소정의 프레임 주파수로 영상패널(110)을 구동시키고, 소정의 프레임 주파수를 기준으로 게이트 구동부 제어신호(GCS), 데이터 구동부 제어신호(DCS)를 발생할 수 있다. 타이밍 컨트롤러(113)는 게이트 구동부 제어신호(GCS)를 게이트 구동부(111)로 공급하고, 영상 데이터(R, G, B)와 데이터 구동부 제어신호(DCS)를 데이터 구동부(112)로 공급한다.That is, the timing controller 113 drives the image panel 110 at a predetermined frame frequency based on the image data and the timing signals received from the multi-view image converter 114 (or the host system 115) The gate driving unit control signal GCS and the data driving unit control signal DCS can be generated based on a predetermined frame frequency. The timing controller 113 supplies a gate driving unit control signal GCS to the gate driving unit 111 and supplies the video data R, G and B and a data driving unit control signal DCS to the data driving unit 112.

게이트 구동부(111)를 제어하기 위한 게이트 구동부 제어신호(GCS)는 게이트 스타트 펄스(Gate Start Pulse), 게이트 쉬프트 클럭(Gate Shift Clock) 및 게이트 출력 인에이블 신호(Gate Output Enable) 등을 포함한다. 게이트 스타트 펄스는 첫 번째 게이트 펄스의 타이밍을 제어한다. 게이트 쉬프트 클럭은 게이트 스타트 펄스를 쉬프트 시키기 위한 클럭신호이다. 게이트 출력 인에이블 신호는 게이트 구동부(111)의 출력 타이밍을 제어한다.The gate driving unit control signal GCS for controlling the gate driving unit 111 includes a gate start pulse, a gate shift clock and a gate output enable signal. The gate start pulse controls the timing of the first gate pulse. The gate shift clock is a clock signal for shifting the gate start pulse. The gate output enable signal controls the output timing of the gate driver 111.

데이터 구동부(112)를 제어하기 위한 데이터 구동부 제어신호(DCS)는 소스 스타트 펄스(Source Start Pulse), 소스 샘플링 클럭(Source Sampling Clock), 소스 출력 인에이블 신호(Source Output Enable), 극성제어신호 등을 포함한다. 소스 스타트 펄스는 데이터 구동부(112)의 데이터 샘플링 시작 시점을 제어한다. 소스 샘플링 클럭은 라이징 또는 폴링 에지에 기준 하여 데이터 구동부(112)의 샘플링 동작을 제어하는 클럭신호이다. 데이터 구동부(112)에 입력될 디지털 비디오 데이터가 mini LVDS(Low Voltage Differential Signaling) 인터페이스 규격으로 전송된다면, 소스 스타트 펄스와 소스 샘플링 클럭은 생략될 수 있다. 극성제어신호는 데이터 구동부(112)로부터 출력되는 데이터전압의 극성을 L(L은 자연수) 수평기간 주기로 반전시킨다. 소스 출력 인에이블 신호는 데이터 구동부(112)의 출력 타이밍을 제어한다.The data driver control signal DCS for controlling the data driver 112 includes a source start pulse, a source sampling clock, a source output enable signal, a polarity control signal, . The source start pulse controls the data sampling start timing of the data driver 112. The source sampling clock is a clock signal for controlling the sampling operation of the data driver 112 based on the rising or falling edge. If the digital video data to be input to the data driver 112 is transmitted in mini LVDS (Low Voltage Differential Signaling) interface standard, the source start pulse and the source sampling clock may be omitted. The polarity control signal inverts the polarity of the data voltage output from the data driver 112 to L (L is a natural number) horizontal period period. The source output enable signal controls the output timing of the data driver 112.

데이터 구동부(112)는 다수의 소스 드라이브 IC를 포함한다. 소스 드라이브 IC들은 타이밍 컨트롤러(113)로부터 입력되는 영상 데이터(R, G, B)를 정극성/부극성 감마보상전압으로 변환하여 정극성/부극성 아날로그 데이터전압들을 발생한다. 소스 드라이브 IC들로부터 출력되는 정극성/부극성 아날로그 데이터전압들은 영상패널(110)의 데이터라인(D1, D2, D3,..., Dm)들에 공급된다.The data driver 112 includes a plurality of source drive ICs. The source drive ICs convert the image data (R, G, B) input from the timing controller 113 into a positive / negative gamma compensation voltage to generate positive / negative analog data voltages. Positive / negative polarity analog data voltages output from the source drive ICs are supplied to the data lines D1, D2, D3, ..., Dm of the image panel 110.

게이트 구동부(111)는 하나 이상의 게이트 드라이브 IC를 포함한다. 게이트 구동부(111)는 쉬프트 레지스터, 쉬프트 레지스터의 출력신호를 액정 셀의 TFT 구동에 적합한 스윙 폭으로 변환하기 위한 레벨 쉬프터 및 출력 버퍼 등을 포함한다. 게이트 구동부(111)는 타이밍 컨트롤러(113)의 제어 하에 데이터 전압에 동기되는 게이트 펄스를 영상패널(110)의 게이트라인(G1, G2, G3,..., Gn)들에 순차적으로 공급한다.The gate driver 111 includes one or more gate driver ICs. The gate driver 111 includes a shift register, a level shifter and an output buffer for converting an output signal of the shift register into a swing width suitable for TFT driving of the liquid crystal cell. The gate driver 111 sequentially supplies a gate pulse synchronized with the data voltage to the gate lines G1, G2, G3, ..., Gn of the image panel 110 under the control of the timing controller 113. [

특히, 본 발명의 실시예에 따른 타이밍 컨트롤러(113)는 시청자 위치에 따라 좌, 우안이 인지하는 영상의 종류 및 수, 그리고 영상패널(110) 상의 분포를 연산을 통해 분석하는 기능을 수행할 수 있다. 이때, 2D 영역을 줄이기 위해 뷰잉 다이아몬드를 겹쳐 3D 영역의 비율을 증가시키거나 2D 영역의 뷰에 블랙 데이터를 삽입할 수 있다. 또는, 2D 영역의 뷰에 인접한 뷰 데이터와 동일하거나 유사한 뷰 데이터를 입력할 수도 있다.In particular, the timing controller 113 according to the embodiment of the present invention can perform a function of analyzing the types and the number of images recognized by the left and right eyes and the distribution on the image panel 110 according to viewer positions have. At this time, in order to reduce the 2D area, the ratio of the 3D area can be increased by overlapping the viewing diamond, or the black data can be inserted into the view of the 2D area. Alternatively, view data that is the same as or similar to the view data adjacent to the view of the 2D area may be input.

뷰잉 다이아몬드를 겹치는 경우 시청거리의 확장이 가능하다. 일 예로, 시청거리를 N배 확장하기 위해서는 뷰잉 다이아몬드를 N번 이상 겹치도록 구성할 수 있다.If viewing diamonds overlap, viewing distance can be extended. For example, in order to expand the viewing distance N times, the viewing diamond may be configured to overlap N times or more.

또한, 후술하겠지만, 본 발명의 실시예에 따른 타이밍 컨트롤러(113)는 본 출원인이 고안한 수학식을 바탕으로 시청자의 좌안과 우안이 인지하는 뷰 및 뷰의 수를 연산하는 기능을 수행할 수 있다. 이렇게 연산된 뷰 및 뷰의 수를 기반으로 뷰 데이터 렌더링 영역, 또는 서브-픽셀이나 뷰를 선정하여 적용할 수 있다.As will be described later, the timing controller 113 according to the embodiment of the present invention can perform a function of calculating the number of views and views recognized by the left and right eyes of a viewer based on mathematical equations devised by the present applicant . Based on the number of views and views thus calculated, a view data rendering region, or a sub-pixel or a view, can be selected and applied.

또한, 본 발명의 실시예에 따른 타이밍 컨트롤러(113)는 뷰 데이터 렌더링 과정을 통해 입력 데이터를 영상패널(110)의 서브-픽셀별로 새롭게 매핑하여 뷰 겹침에 따라 발생하는 크로스토크(crosstalk)를 제거하는 기능을 수행할 수 있다.In addition, the timing controller 113 according to the embodiment of the present invention newly maps the input data to the sub-pixels of the image panel 110 through the view data rendering process, thereby eliminating the crosstalk generated according to the view overlapping Can be performed.

이러한 타이밍 컨트롤러(113)와 호스트 시스템(115) 사이에는 멀티 뷰 영상변환부(114)가 설치될 수 있다. 멀티 뷰 영상변환부(114)는 3D 모드에서 호스트 시스템(115)으로부터 입력되는 3D 영상의 좌안 및 우안 영상 데이터를 멀티 뷰 영상 데이터 포맷으로 재 정렬하여 타이밍 컨트롤러(113)에 전송한다.A multi-view image converting unit 114 may be installed between the timing controller 113 and the host system 115. The multi-view image converting unit 114 rearranges the left-eye and right-eye image data of the 3D image input from the host system 115 in the 3D mode into the multi-view image data format and transmits the same to the timing controller 113.

즉, 멀티 뷰 영상변환부(114)는 3D 모드에서 2D 영상 데이터가 입력되면 미리 설정된 2D-3D 영상 변환 알고리즘을 실행하여 2D 영상 데이터로부터 좌안 및 우안 영상 데이터를 생성하고, 그 데이터들을 멀티 뷰 영상 데이터 포맷으로 재 정렬하여 타이밍 컨트롤러(113)에 전송한다.That is, when the 2D image data is input in the 3D mode, the multi-view image conversion unit 114 executes a predetermined 2D-3D image conversion algorithm to generate left eye and right eye image data from 2D image data, Rearranged into the data format and transmitted to the timing controller 113. [

호스트 시스템(115)은 TV(television) 시스템, 셋톱박스, 네비게이션 시스템, DVD 플레이어, 블루레이 플레이어, 개인용 컴퓨터(personal computer), 홈 시어터 시스템, 폰 시스템 중 어느 하나로 구현될 수 있다. 호스트 시스템(115)은 스케일러(scaler)를 이용하여 2D/3D 입력 영상의 디지털 비디오 데이터를 영상패널(110)의 해상도에 맞는 포맷으로 변환하고, 그 데이터와 함께 타이밍 신호를 타이밍 컨트롤러(113)로 전송한다.The host system 115 may be implemented in any one of a television system, a set top box, a navigation system, a DVD player, a Blu-ray player, a personal computer, a home theater system, and a phone system. The host system 115 converts the digital video data of the 2D / 3D input image into a format suited to the resolution of the image panel 110 using a scaler, and transmits a timing signal to the timing controller 113 send.

호스트 시스템(115)은 2D 모드에서 2D 영상을 타이밍 컨트롤러(113)에 공급하는 한편, 3D 모드에서 3D 영상 또는 2D 영상 데이터를 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 유저 인터페이스(User Interface; UI)(미도시)를 통해 입력되는 사용자 데이터에 응답하여 타이밍 컨트롤러(113)에 모드 신호를 전송하여 무안경 입체표시장치의 동자 모드를 2D 모드와 3D 모드에서 스위칭 할 수 있다. 유저 인터페이스는 키패드, 키보드, 마우스, 온 스크린 디스플레이(On Screen Display; OSD), 리모트 컨트롤러, 그래픽 유저 인터페이스(Graphic User Interface; GUI), 터치 UI 등으로 구현될 수 있다. 사용자는 유저 인터페이스를 통해 2D 모드와 3D 모드를 선택할 수 있고, 3D 모드에서 2D-3D 영상 변환을 선택할 수 있다.The host system 115 supplies the 2D image to the timing controller 113 in the 2D mode, and supplies the 3D image or the 2D image data to the multi-view image conversion unit 114 in the 3D mode. The host system 115 transmits a mode signal to the timing controller 113 in response to user data input through a user interface (UI) (not shown) to change the mode of the eyeglass stereoscopic display device to the 2D mode You can switch in 3D mode. The user interface may be implemented by a keypad, a keyboard, a mouse, an on-screen display (OSD), a remote controller, a graphical user interface (GUI) The user can select the 2D mode and the 3D mode through the user interface, and select the 2D-3D image conversion in the 3D mode.

즉, 호스트 시스템(115)은 LVDS(Low Voltage Differential Signaling) 인터페이스, TMDS(Transition Minimized Differential Signaling) 인터페이스 등의 인터페이스를 통해 영상 데이터와 타이밍신호들 등을 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 좌안 영상 데이터와 우안 영상 데이터를 포함하는 3D 영상 데이터를 멀티 뷰 영상변환부(114)에 공급한다. 전술한 바와 같이 타이밍신호들은 수직동기신호, 수평동기신호, 데이터 인에이블 신호(Data Enable), 도트 클럭 등을 포함한다.That is, the host system 115 supplies image data, timing signals, and the like to the multi-view image conversion unit 114 through an interface such as a Low Voltage Differential Signaling (LVDS) interface and a TMDS (Transition Minimized Differential Signaling) interface. The host system 115 supplies the 3D image data including the left eye image data and the right eye image data to the multi-view image conversion unit 114. As described above, the timing signals include a vertical synchronization signal, a horizontal synchronization signal, a data enable signal (Data Enable), a dot clock, and the like.

호스트 시스템(115)은 시청거리 감지부로부터 시청자 감지정보를 입력받고, 시청자 감지정보에 따라 최적 뷰의 수를 산출한다. 호스트 시스템(115)은 최적 뷰의 수에 따른 뷰 제어신호를 생성하여 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 시청자 감지정보의 시청자 수를 입력 어드레스로 받고, 해당 입력 어드레스에 저장된 뷰의 수를 출력하는 룩업테이블을 이용하여 뷰 제어신호를 생성할 수 있다.The host system 115 receives the viewer detection information from the viewing distance detection unit, and calculates the number of optimal views according to the viewer detection information. The host system 115 generates a view control signal according to the number of optimal views and supplies the view control signal to the multi-view image conversion unit 114. [ The host system 115 may generate the view control signal using a lookup table that receives the number of viewers of the viewer detection information as an input address and outputs the number of views stored in the input address.

다음으로, 3D 필터(120)는 이미지의 경로를 광학적으로 분리하는 매개체로서, 영상패널(110)의 좌안픽셀과 우안픽셀로부터 출력된 좌안영상과 우안영상을 투과시키거나 차단시키기 위한 광투과 영역과 광차단 영역을 형성하는 기능을 수행한다.Next, the 3D filter 120 is a medium for optically separating the path of the image, and includes a light transmitting region for transmitting or blocking the left eye image and the right eye image output from the left eye pixel and the right eye pixel of the image panel 110, And functions to form a light shielding region.

이러한 3D 필터(120)는 다음의 렌티큘러 렌즈 또는 배리어와 같이 기 공지되어 있는 기술들을 이용하여 다양하게 구성될 수 있다. 렌티큘러 렌즈와 배리어는 액정패널을 이용하여 전기적으로 제어되는 스위처블 렌즈(switchable lens)나 스위처블 배리어(switchable barrier)로 구현될 수 있다. 참고로, 본 출원인은 미국출원 13/077565, 미국출원 13/325272, 대한민국 출원 10-2010-0030531 등을 통해 스위처블 렌즈나 스위처블 배리어를 제안한 바 있다.This 3D filter 120 can be configured in a variety of ways using well known techniques such as the following lenticular lenses or barriers. The lenticular lens and the barrier may be implemented by a switchable lens or a switchable barrier which is electrically controlled using a liquid crystal panel. For reference, the present applicant has proposed a switchable lens or a switchable barrier through US Application No. 13/077565, US Application No. 13/325272, and Application No. 10-2010-0030531.

3D 필터 구동부는 타이밍 컨트롤러(113)의 제어 하에 3D 모드에서 영상패널(110)의 픽셀 어레이에 기입되는 영상 데이터와 동기되어 스위처블 렌즈나 스위처블 배리어를 시프트(shift)시킬 수 있다.The 3D filter driver can shift the switchable lens or the switchable barrier in synchronization with the image data written in the pixel array of the image panel 110 in the 3D mode under the control of the timing controller 113. [

도 4는 본 발명의 실시예에 따른 무안경 입체영상표시장치를 개략적으로 보여주는 사시도로서, 렌티큘러 렌즈 방식의 입체영상표시장치를 예를 들어 보여주고 있다.FIG. 4 is a perspective view schematically showing a non-eyeglass stereoscopic image display apparatus according to an embodiment of the present invention, and shows a stereoscopic image display apparatus using a lenticular lens system as an example.

도 4를 참조하면, 렌티큘러 렌즈 방식의 입체영상표시장치는 다수의 서브-픽셀(R, G, B)이 배치되는 영상패널(110) 전면에 소정의 폭(w)을 갖는 다수의 렌티큘러 렌즈(125)를 포함하는 3D 필터인 렌티큘러 렌즈판(120)이 배치된다.4, a stereoscopic image display apparatus using a lenticular lens system includes a plurality of lenticular lenses (for example, a liquid crystal display panel) having a predetermined width w on the entire surface of a video panel 110 on which a plurality of sub- And a lenticular lens plate 120, which is a 3D filter including a plurality of lens units 125, is disposed.

렌티큘러 렌즈판(120)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층이 형성되어 이루어진다.The lenticular lens plate 120 is formed by forming a material layer having a convex lens shape on its upper surface on a flat substrate.

이러한 렌티큘러 렌즈판(120)은 좌, 우안 영상을 나누어주는 역할을 수행하며, 렌티큘러 렌즈판(120)으로부터 최적 시청거리(Optimal Viewing Distance; OVD) v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 뷰잉 다이아몬드(정시영역)가 형성되어 있다.The lenticular lens plate 120 divides the left and right eye images. Optimal viewing distance (OVD) v from the lenticular lens plate 120 corresponds to left and right eyes, And a viewing diamond (regular region) in which the images normally reach is formed.

따라서, 영상패널(110)을 투과한 영상 이미지는 렌티큘러 렌즈판(120)을 통과하여 최종 시청자의 좌, 우안으로 다른 이미지 그룹이 들어오게 하여, 3차원의 입체영상을 느낄 수 있게 된다.Therefore, the image image transmitted through the image panel 110 passes through the lenticular lens plate 120, and another group of images enters the left and right eyes of the final viewer, so that a three-dimensional stereoscopic image can be felt.

이러한 렌티큘러 렌즈 방식의 입체영상표시장치는 영상패널(110)과 렌티큘러 렌즈판(120)이 기구물(미도시) 등에 의해 지지되어, 영상패널(110)과 렌티큘러 렌즈판(120) 사이가 소정 간격(배면 거리) 이격되어 있다.In the stereoscopic image display apparatus using the lenticular lens system, the image panel 110 and the lenticular lens plate 120 are supported by an instrument (not shown), so that the image panel 110 and the lenticular lens plate 120 are spaced apart from each other Back distance).

한편, 본 발명의 실시예에 따르면, 다수의 렌티큘러 렌즈(125)의 배열이 서브-픽셀(R, G, B)의 종 방향(Y축 방향)에 대해 제 1 각도(θ)를 갖고 기울어진 형태로 배치되고 있으며, 렌티큘러 렌즈(125)의 서브-픽셀(R, G, B)의 횡 방향(X축 방향)을 따르는 수평 폭(w)은 서브-픽셀(R, G, B)의 정수 배로 설정할 수 있다.On the other hand, according to the embodiment of the present invention, the arrangement of the plurality of lenticular lenses 125 is inclined at a first angle? With respect to the longitudinal direction (Y-axis direction) of the sub-pixels R, And the horizontal width w along the lateral direction (X-axis direction) of the sub-pixels R, G and B of the lenticular lens 125 is set to be an integer number of sub-pixels R, G, It can be set to double.

즉, 본 발명의 실시예에 따른 입체영상표시장치는 렌티큘러 렌즈판(120)에 구비되는 렌티큘러 렌즈(125)가 서브-픽셀(R, G, B)의 종 방향을 기준으로 제 1 각도(θ) 기울어져 배치될 수 있다.That is, in the stereoscopic image display apparatus according to the embodiment of the present invention, the lenticular lens 125 provided in the lenticular lens plate 120 is arranged at a first angle? (?) With respect to the longitudinal direction of the sub-pixels R, G, ). &Lt; / RTI &gt;

따라서, 2D 영상을 표시하는 영상패널(110)에 대해 이러한 렌티큘러 렌즈판(120)의 기울어진 배치에 의해 3D 영상시청을 위한 뷰 수를 조절할 수 있다.Accordingly, the number of views for viewing a 3D image can be adjusted by inclining the lenticular lens plate 120 with respect to the image panel 110 displaying the 2D image.

이러한 렌티큘러 렌즈판(120)에 있어서 렌티큘러 렌즈(125)의 서브-픽셀(R, G, B)의 종 방향을 기준으로 기울어진 제 1 각도 θ는 tan-1((M*Pa)/(N*Pb))라는 식으로 표현된다.The first angle? Inclined with respect to the longitudinal direction of the sub-pixels R, G and B of the lenticular lens 125 in the lenticular lens plate 120 is tan -1 ((M * Pa) / (N * Pb)).

이때, Pa는 서브-픽셀(R, G, B)의 단축피치, Pb는 서브-픽셀(R, G, B)의 장축피치이며, M과 N은 각각 임의의 자연수로서 렌티큘러 렌즈(125)가 다수의 서브-픽셀(R, G, B)을 하나의 그룹으로 하고, 하나의 그룹을 정확히 대각방향으로 꼭지점을 관통했을 때의 그룹 내의 서브-픽셀(R, G, B)의 횡 방향으로의 서브-픽셀(R, G, B)의 개수 및 서브-픽셀(R, G, B)의 종 방향으로의 서브-픽셀(R, G, B)의 개수로 정의된다. 이때, 통상적으로 M과 N은 M/N ≤ 2의 값을 만족하는 것이 일반적이다.Here, Pa is a short axis pitch of the sub-pixels R, G and B, Pb is a long axis pitch of the sub-pixels R, G and B, and M and N are arbitrary natural numbers, (R, G, B) in a group when a plurality of sub-pixels (R, G, B) are grouped and a group is exactly passed through a vertex in a diagonal direction G and B in the longitudinal direction of the sub-pixels R, G and B and the number of the sub-pixels R, G and B in the longitudinal direction. At this time, it is general that M and N generally satisfy a value of M / N? 2.

이때, 하나의 그룹 내부에 위치하는 다수의 서브-픽셀(R, G, B)에 부여된 숫자는 렌티큘러 렌즈판(120)의 렌티큘러 렌즈(125)를 제 1 각도(θ)로 기울여 배치한 입체영상표시장치의 3D 영상시청이 가능한 영역으로 정의되는 뷰의 개수가 되며, 각 뷰에 부여된 숫자는 각 뷰 영역에서 3D 영상시청 시 보여지는 서브-픽셀(R, G, B)이 된다.The number assigned to the plurality of sub-pixels R, G, and B located in one group is the number of the sub-pixels R, G, (R, G, B) that are displayed when a 3D image is viewed in each view region. The number of views is defined as an area capable of viewing a 3D image of the image display apparatus.

이렇게 렌티큘러 렌즈판(120)을 구비한 본 발명의 실시예에 따른 입체영상표시장치는 휘도 향상 측면에서 효과가 있으며, 나아가 뷰 수의 증가를 통해 3D 영상시청을 위한 시야각을 향상시키는 효과를 갖는다.The stereoscopic image display device having the lenticular lens plate 120 according to the embodiment of the present invention is advantageous in terms of luminance improvement and further has an effect of improving the viewing angle for viewing 3D images by increasing the number of views.

뷰 수의 증가는 렌티큘러 렌즈판(120)에 구비되는 렌티큘러 렌즈(125)를 서브-픽셀(R, G, B)의 종 방향을 기준으로 소정의 각도를 갖도록 배치한 구조 즉, 슬랜티드(slanted) 구조를 적용하여 이루어지게 된다. 이러한 슬랜티드 구조 적용에 의해 한쪽 방향으로의 해상도 저하를 방지할 수 있다.The increase in the number of views is achieved by a structure in which the lenticular lenses 125 provided on the lenticular lens plate 120 are arranged to have a predetermined angle with respect to the longitudinal directions of the sub-pixels R, G, and B, ) Structure. Application of such a slanted structure can prevent resolution degradation in one direction.

한편, 시청자는 최적 시청거리 이외의 시청거리, 즉 최적 시청거리의 앞이나 뒤에서 입체영상표시장치를 시청하는 것이 일반적이다.On the other hand, the viewer generally watches the stereoscopic image display device before or after the viewing distance other than the optimum viewing distance, that is, the optimum viewing distance.

본 출원인의 연구에 따르면, 최적 시청거리대비 영상패널에서 멀어질수록 2D 인지영역(이하 2D 영역이라 함)은 증가하고 3D 인지영역(이하 3D 영역이라 함)은 감소하는 것을 알 수 있다. 또한, 영상패널의 크기에 따라 뷰잉 다이아몬드의 좌표, 인지되는 뷰가 변하기 때문에 영상패널의 크기를 고려한 최적 시청거리 제어기술이 요구된다.According to the study of the present applicant, it can be seen that as the distance from the optimal viewing distance increases, the 2D recognition area (hereinafter referred to as the 2D area) increases and the 3D recognition area (hereinafter referred to as the 3D area) decreases. In addition, since the coordinates of the viewing diamond and the recognized view change according to the size of the image panel, an optimum viewing distance control technique considering the size of the image panel is required.

따라서, 입체영상표시장치의 뷰잉 다이아몬드를 수식으로 일반화하여, 시청자 위치에 따른 양안 인지 영상의 종류 및 중첩 영상의 변화를 수식화하고, 시청자 위치 변화와 최적 시청거리 제어와의 상관관계를 분석할 필요가 있다.Therefore, it is necessary to generalize the viewing diamond of the stereoscopic image display device by the equation, to formulate the type of binocular perception image and the change of the superimposed image according to the viewer position, and to analyze the correlation between the viewer position change and the optimum viewing distance control have.

우선, 입체영상표시장치의 3D 시청영역(viewing zone)을 다음의 도 5 및 도 6과 같이 입체적으로 표현할 수 있다.First, a 3D viewing area of the stereoscopic image display apparatus can be expressed in three dimensions as shown in FIGS. 5 and 6.

도 5는 무안경 입체영상표시장치에 있어, 시청영역을 설명하기 위한 예시도이다.5 is an exemplary diagram for explaining a viewing area in a spectacle-free three-dimensional image display apparatus.

그리고, 도 6은 뷰잉 다이아몬드를 XZ-평면에 투사(projection)시켜 보여주는 도면이다.6 is a view showing a viewing diamond projected on an XZ-plane.

도 5 및 도 6을 참조하면, 영상패널(110)로부터 최적 시청거리 v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(정시영역)(130)가 형성되어 있다.Referring to FIGS. 5 and 6, the optimal viewing distance v from the image panel 110 is formed in a diamond-shaped viewing diamond 130 (normal region) in which images corresponding to the left and right eyes normally reach the left and right eyes, respectively .

시청영역의 다이아몬드를 전방 삼각 존(front triangle zone)(130a)과 후방 삼각 존(rear triangle zone)(130b)으로 구분할 수 있다.The diamond in the viewing area can be divided into a front triangle zone 130a and a rear triangle zone 130b.

이하에서의 모든 수식 전계 과정은 최적 시청거리에 형성된 뷰잉 다이아몬드(130)의 폭이 양안 간격(e)과 같고, 광이 직진한다는 가정에서 진행될 수 있다.All of the following electric field processes can be performed on the assumption that the width of the viewing diamond 130 formed at the optimal viewing distance is equal to the binocular interval e and the light travels straight.

영상패널(110)의 폭 및 높이는 각각 W 및 H로 정할 수 있다.The width and height of the image panel 110 may be defined as W and H, respectively.

이때, (W/2, 0, 0)에서 (0, 0, v)를 통과하는 광은 R0으로 표시되며, (W/2, 0, 0)에서 (ne, 0, v)를 통과하는 광은 Rn으로 표시할 수 있다. (-W/2, 0, 0)에서 (0, 0, v)를 통과하는 광은 L0으로 표시되며, (-W/2, 0, 0)에서 (ne, 0, v)를 통과하는 광은 Ln으로 표시할 수 있다.The light passing through (0, 0, v) from (W / 2, 0, 0) is denoted by R 0 and passes through (ne, 0, v) from (W / The light can be represented by Rn. Light passing through (0, 0, v) from (-W / 2, 0, 0) is represented by L 0 and passes through (ne, 0, v) The light can be represented by Ln.

다음과 같이 3D 시청영역(또는 뷰잉 다이아몬드)을 공간상의 좌표로 일반화하여 표시할 수 있으며, 이를 이용하여 디스플레이 특성이 따른 시청영역의 크기 및 시청자의 3D 영역을 계산할 수 있다.The 3D viewing area (or viewing diamond) can be generalized as spatial coordinates and displayed, and the size of the viewing area and the 3D area of the viewer depending on the display characteristics can be calculated.

도 7a 및 도 7b는 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.Figs. 7A and 7B are views showing viewing diamond coordinates as an example. Fig.

이때, 도 7a는 XZ-평면에서의 뷰잉 다이아몬드 좌표를 보여주는 반면, 도 7b는 ZY-평면에서의 뷰잉 다이아몬드 좌표를 보여주고 있다.At this time, FIG. 7A shows the viewing diamond coordinates in the XZ-plane, while FIG. 7B shows the viewing diamond coordinates in the ZY-plane.

도 7a 및 도 7b를 참조하면, 전방 삼각 존(130a)의 꼭지점 (n-1)e, ne, fn의 공간 좌표는 다음의 수학식 1로 표현할 수 있다.7A and 7B, the spatial coordinates of the vertexes (n-1) e, ne, and fn of the forward triangular zone 130a can be expressed by the following equation (1).

[수학식 1]

Figure pat00001
[Equation 1]
Figure pat00001

이때, fn의 공간상의 좌표 (fnx, fny, fnz)는 다음의 수학식들과 같이 삼각형의 닮은비를 이용하면 구할 수 있다.At this time, the spatial coordinates (fnx, fny, fnz) of fn can be obtained by using the resemblance ratios of the triangles as shown in the following equations.

[수학식 2]

Figure pat00002
&Quot; (2) &quot;
Figure pat00002

따라서,

Figure pat00003
therefore,
Figure pat00003

마찬가지로,Likewise,

[수학식 3]

Figure pat00004
&Quot; (3) &quot;
Figure pat00004

따라서,

Figure pat00005
therefore,
Figure pat00005

[수학식 4]

Figure pat00006
&Quot; (4) &quot;
Figure pat00006

따라서,

Figure pat00007
therefore,
Figure pat00007

또한, 후방 삼각 존(130b)의 꼭지점 (n-1)e, ne, rn의 공간 좌표 역시 다음의 수학식 5로 표현할 수 있다.The spatial coordinates of the vertexes (n-1) e, ne, rn of the rear triangular zone 130b can also be expressed by the following equation (5).

[수학식 5]

Figure pat00008
&Quot; (5) &quot;
Figure pat00008

여기서, he는 XY-평면에서 시청거리에서 시청자의 양안과 X축과의 거리, 즉 시청자의 눈 높이를 의미한다. hp는 XY-평면에서 영상패널(110)상의 서브-픽셀과 X축과의 거리, 즉 서브-픽셀의 높이를 의미한다.Here, he means the distance between the viewer's binocular and X-axis, i.e., the viewer's eye height, in the XY-plane. hp means the distance between the sub-pixel and the X-axis on the image panel 110 in the XY-plane, i.e. the height of the sub-pixel.

이를 이용하여 최적 시청거리의 2배 지점의 3D 뷰잉 다이아몬드를 공간상의 좌표로 일반화된 표현이 가능하며, 최적 시청거리의 2배 지점의 뷰잉 다이아몬드 영역을 계산할 수 있다.By using this, it is possible to express the 3D viewing diamond which is twice the optimal viewing distance as a general coordinate in the space, and calculate the viewing diamond area which is twice the optimal viewing distance.

도 8은 최적 시청거리의 2배 거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.FIG. 8 is a diagram illustrating viewing diamond coordinates in the XZ-plane at a distance of twice the optimum viewing distance.

도 8을 참조하면, 위와 동일한 방식으로

Figure pat00009
에서 (0, 0, v)를 지나는 광은
Figure pat00010
을 지나므로, 최적 시청거리의 2배 지점의 전방 삼각 존(130a')의 꼭지점
Figure pat00011
의 공간좌표를 다음의 수학식 6과 같이 표현할 수 있다.Referring to Figure 8, in the same manner as above
Figure pat00009
The light passing through (0, 0, v)
Figure pat00010
So that the vertexes of the front triangular zone 130a ', which is twice the optimal viewing distance,
Figure pat00011
Can be expressed as the following Equation (6).

[수학식 6]

Figure pat00012
&Quot; (6) &quot;
Figure pat00012

또한, 동일한 방식으로 최적 시청거리의 2배 지점의 후방 삼각 존(130b')의 꼭지점

Figure pat00013
의 공간좌표 역시 다음의 수학식 7과 같이 표현할 수 있다.
Further, in the same manner, the vertexes of the rear triangular zone 130b 'at twice the optimum viewing distance
Figure pat00013
Can also be expressed by the following Equation (7).

[수학식 7]

Figure pat00014
&Quot; (7) &quot;
Figure pat00014

다음으로, 광에 대한 직선의 방정식을 일반화함으로써, 최적 시청거리를 포함한 전 영역에서의 뷰잉 다이아몬드 좌표 또한 일반화할 수 있다.Next, by generalizing the linear equation for light, viewing diamond coordinates in the entire region including the optimum viewing distance can be generalized.

이때, 수식의 단순화를 위해 XZ-평면에 투사시킨 경우를 예로 들고 있다.In this case, the projection is performed on the XZ plane in order to simplify the equation.

도 9는 최적 시청거리를 포함하는 전 영역에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.FIG. 9 is a view showing an example of a viewing diamond coordinate in the XZ-plane in the entire region including the optimum viewing distance.

도 9를 참조하면, 광 Rn에 대한 직선의 방정식은 다음 수학식 8과 같다.Referring to FIG. 9, a straight line equation for the light Rn is represented by the following equation (8).

[수학식 8]

Figure pat00015
&Quot; (8) &quot;
Figure pat00015

또한, 광 Lm에 대한 직선의 방정식은 다음 수학식 9와 같다.The equation of the straight line for the light Lm is expressed by the following equation (9).

[수학식 9]

Figure pat00016
&Quot; (9) &quot;
Figure pat00016

여기서, n, m은 유리수를 나타낸다.Here, n and m represent rational numbers.

위 수학식 8, 9를 연립하여 계산하면, 광 Rn과 Lm이 만나는 좌표인 f(n, m)를 다음 수학식 10과 같이 일반화할 수 있다.When the above equations (8) and (9) are calculated in tandem, it is possible to generalize the coordinate f (n, m) where the light Rn and Lm meet as shown in the following equation (10).

[수학식 10]

Figure pat00017
&Quot; (10) &quot;
Figure pat00017

참고로, XZ-평면에서 f(n-1, n)일 때 수학식 10은 수학식 1과 동일하다. 또한, XZ-평면에서 f(n, n-1)일 때 수학식 10은 수학식 5와 동일하다.For reference, Equation 10 is the same as Equation 1 when f (n-1, n) in the XZ-plane. Further, when f (n, n-1) in the XZ-plane, Equation (10) is the same as Equation (5).

수학식 10의 일반화된 뷰잉 다이아몬드의 좌표를 바탕으로 최적 시청거리의 k배 되는 지점의 좌표 또한 다음과 같이 일반화할 수 있다.Based on the coordinates of the generalized viewing diamond of Equation (10), the coordinates of the point k times the optimal viewing distance can be generalized as follows.

도 10은 최적 시청거리의 k배의 시청거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.FIG. 10 is a diagram showing viewing diamond coordinates in the XZ-plane at viewing distance k times the optimum viewing distance.

그리고, 도 11은 XZ-평면에서의 뷰잉 다이아몬드 셀(cell)을 예로 들어 보여주는 도면이다.11 is a view showing a viewing diamond cell in the XZ-plane as an example.

도 10 및 도 11을 참조하면, 최적 시청거리의 k배 지점의 좌표를 유도하기 위해 수학식 10의 Z좌표가 kv인 경우를 연산하면 다음 수학식 11과 같다.Referring to FIGS. 10 and 11, when the Z coordinate of Equation 10 is kv to derive the coordinates of the k-th point of the optimum viewing distance, the following equation (11) is obtained.

[수학식 11]

Figure pat00018
&Quot; (11) &quot;
Figure pat00018

여기서, k는 0보다 큰 유리수를 나타낸다.Where k represents a rational number greater than zero.

수학식 11을 m에 대해 정리하면 다음의 수학식 12와 같다.Equation (11) can be summarized as m as shown in Equation (12).

[수학식 12]

Figure pat00019
&Quot; (12) &quot;
Figure pat00019

따라서, 최적 시청거리의 k배 지점의 좌표를 다음 수학식 13과 같이 일반화할 수 있다.Therefore, the coordinates of the k-th point of the optimum viewing distance can be generalized as shown in the following equation (13).

[수학식 13]

Figure pat00020
&Quot; (13) &quot;
Figure pat00020

예를 들어, 수학식 13으로부터 최적 시청거리의 2배 지점의 좌표를 연산하면 다음 수학식 14와 같으며, 이는 수학식 6, 7의 뷰잉 다이아몬드 좌표와 동일하다.For example, from the equation (13), the coordinates of twice the optimum viewing distance are calculated as shown in the following equation (14), which is the same as the viewing diamond coordinates of the equations (6) and (7).

[수학식 14]

Figure pat00021
&Quot; (14) &quot;
Figure pat00021

다음으로, 뷰잉 다이아몬드의 평면좌표를 이용하여 전 영역에서의 뷰잉 다이아몬드의 폭을 일반화할 수 있다.Next, using the plane coordinates of the viewing diamond, the width of the viewing diamond in the entire area can be generalized.

f(n, m)를 상위 꼭지점으로 하는 뷰잉 다이아몬드(viewing diamond)의 폭

Figure pat00022
은 피타고라스 정리에 의해 다음 수학식 15와 같이 일반화할 수 있다.The width of the viewing diamond whose upper vertex is f (n, m)
Figure pat00022
Can be generalized by the following Pythagorean theorem.

[수학식 15]

Figure pat00023
&Quot; (15) &quot;
Figure pat00023

Figure pat00024
Figure pat00024

따라서, 수학식 10의 좌표를 수학식 15에 대입함으로써 뷰잉 다이아몬드의 폭을 다음 수학식 16과 같이 일반화할 수 있다.Therefore, by substituting the coordinates of Equation (10) into Equation (15), the width of the viewing diamond can be generalized as Equation (16).

[수학식 16]

Figure pat00025
&Quot; (16) &quot;
Figure pat00025

예를 들어, 최적 시청거리에 위치한 상위 꼭지점 f(n, m)에서 반시계 방향으로 f(0, 1)f(0, 0), f(1, 0)f(1, 1)의 좌표(n=0, m=1인 경우)를 갖는 뷰잉 다이아몬드의 최대 폭은 수학식 16으로부터 양안 간격과 동일하다는 것을 알 수 있다.For example, the coordinates of f (0,1) f (0,0), f (1,0) f (1,1) in the counterclockwise direction at the upper vertex f (n, m) the maximum width of the viewing diamond with n = 0, m = 1) is equal to the binocular interval from equation (16).

이와 같이 수학식 16을 통해 양안 간격이 상수(fixed)일 경우 뷰잉 다이아몬드의 폭은 영상패널(110)의 폭(W)에 영향을 받음을 알 수 있다.Thus, if the binocular interval is fixed through Equation (16), the width of the viewing diamond is influenced by the width W of the image panel 110.

다음으로, 앞에서 계산한 뷰잉 다이아몬드의 폭을 이용하여, 최적 시청거리의 k배 되는 지점의 뷰잉 다이아몬드의 폭을 수식화 할 수 있다.Next, using the width of the viewing diamond calculated above, the width of the viewing diamond at the point k times the optimum viewing distance can be expressed.

이는 수학식 12를 수학식 16에 대입함으로써 최적 시청거리의 k배 되는 지점의 뷰잉 다이아몬드의 폭을 다음 수학식 17과 같이 연산할 수 있다.By substituting the expression (12) into the expression (16), it is possible to calculate the width of the viewing diamond at the point at which the optimum viewing distance is multiplied by k times the following expression (17).

[수학식 17]

Figure pat00026
&Quot; (17) &quot;
Figure pat00026

여기서, 영상패널(110)의 폭(W)이 양안 간격(e)에 비해 충분히 클 경우, 다음 수학식 18과 같이 표현할 수 있다.Here, when the width W of the image panel 110 is sufficiently larger than the binocular interval e, the following expression (18) can be obtained.

[수학식 18]

Figure pat00027
&Quot; (18) &quot;
Figure pat00027

예를 들어, 영상패널(110)의 폭(W)이 양안 간격(e)보다 충분히 큰 최적 시청거리의 2배 지점의 뷰잉 다이아몬드의 폭을 계산하면 다음과 같다.For example, the width of the viewing diamond at twice the optimum viewing distance where the width W of the image panel 110 is sufficiently larger than the binocular interval e is calculated as follows.

[수학식 19]

Figure pat00028
&Quot; (19) &quot;
Figure pat00028

위 수학식 18로부터 영상패널(110)의 폭(W)이 양안 간격(e)보다 충분히 클 경우, 최적 시청거리의 k배 지점의 뷰잉 다이아몬드의 폭은 ke에 근사함을 알 수 있다.If the width W of the image panel 110 is sufficiently larger than the binocular interval e from Equation 18, it can be seen that the width of the viewing diamond at k times the optimal viewing distance is close to ke.

다음으로, 최적 시청거리(P1 위치)에 위치한 시청자기 인지하는 뷰와 2D, 3D 영역을 영상패널의 관점에서 표현하면 다음과 같다.Next, a viewing view and a 2D and 3D area located at the optimum viewing distance (P1 position) are expressed in terms of the image panel as follows.

도 12는 P1 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면이다.12 is a view showing an example of the viewing area coordinates including the binocular position in the XZ-plane at the P1 position.

그리고, 도 13a 및 도 13b는 P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 13a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 13b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.13A and 13B are views showing, for example, a view recognized in the left and right eyes of the viewer at the P1 position. 13A shows a view recognized in the left eye of the viewer, and FIG. 13B shows a view recognized in the viewer's right eye.

도 14는 P1 위치에서 2D, 3D 영역을 보여주는 도면이다.FIG. 14 is a view showing 2D and 3D regions at the P1 position. FIG.

도 12를 참조하면, 시청자의 좌안(1)과 우안(2)이 최적 시청거리(Ks=1인 지점; P1 위치)의 뷰잉 다이아몬드 중심에 위치할 경우, 좌안(1)과 우안(2)이 인지하는 영상은 도 13a와 도 13b와 같이 각각의 뷰로 분리된 영상인 것을 알 수 있다.12, when the left eye 1 and right eye 2 of the viewer are located at the center of the viewing diamond at the optimum viewing distance (point Ks = 1; position P1), the left eye 1 and the right eye 2 It can be seen that the image to be recognized is the image separated into the respective views as shown in FIGS. 13A and 13B.

즉, 시청자의 좌안(1)은 K번째 뷰의 영상을 인지하는 반면, 시청자의 우안(2)은 K+1번째 뷰의 영상을 인지한다. 여기서, K는 인지되는 뷰의 수를 의미한다.That is, the viewer's left eye 1 recognizes the image of the K-th view, whereas the viewer's right eye 2 recognizes the image of the (K + 1) -th view. Here, K means the number of views to be recognized.

이와 같이 좌안(1)과 우안(2)의 영상이 겹치는 부분이 없으므로, 시청자는 도 14와 같이 영상패널(110)의 전 영역에 걸쳐 3D로 인지한다.Since there is no overlapping portion of the images of the left eye 1 and the right eye 2, the viewer perceives the 3D image over the entire area of the image panel 110 as shown in Fig.

다음으로, 최적 시청거리를 벗어난 시청자가 인지하는 뷰와 2D, 3D 영역은 다음과 같다.Next, the view and the 2D and 3D areas recognized by viewers outside the optimal viewing distance are as follows.

도 15는 P2 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면이다.Fig. 15 is a view showing the viewing area coordinates including the binocular position in the XZ-plane at the P2 position as an example.

그리고, 도 16a 및 도 16b는 P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 16a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 16b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.16A and 16B are views showing, for example, a view recognized in the left and right eyes of the viewer at the P2 position. Here, FIG. 16A shows a view recognized in the viewer's left eye, and FIG. 16B shows a viewer's view in the viewer's right eye.

도 17은 P2 위치에서 2D, 3D 영역을 보여주는 도면이다.17 is a view showing 2D and 3D regions at P2 position.

도 15를 참조하면, 예를 들어 시청자의 좌안(3)이 Ks=2인 지점(최적 시청거리의 바로 뒤; P2 위치)의 뷰잉 다이아몬드의 중심에 위치할 경우, 좌안(3)과 우안(4)이 인지하는 영상은 도 16a와 도 16b와 같이 단안에 2개의 뷰가 함께 인지되는 것을 알 수 있다.15, for example, when the left eye 3 of a viewer is located at the center of the viewing diamond at a point of Ks = 2 (immediately after the optimal viewing distance; P2 position), the left eye 3 and the right eye 4 ) Can recognize that two views are recognized together in a single view as shown in Figs. 16A and 16B.

즉, 시청자의 좌안(3)은 K-1번째 뷰와 K번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안(4)은 K번째 뷰와 K+1번째 뷰의 영상을 함께 인지한다.That is, the left eye 3 of the viewer perceives the images of the K-1th view and the Kth view, while the viewer's right eye 4 recognizes the images of the Kth view and the K + 1th view together.

이때, 좌안(3)과 우안(4)에 인지되는 영상간에 동일 뷰(즉, K번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생하며, 이는 도 17과 같이 표현될 수 있다.At this time, an area in which the same view (i.e., K-th view) overlaps between the images recognized in the left eye 3 and the right eye 4, i.e., a 2D area, is generated.

이와 같이 최적 시청거리를 벗어난 시청자는 단안에 다수의 뷰 정보가 입력될 수 있으며, 이때 뷰간 차이(disparity)가 큰 영상이 입력될 경우 단안 내 영상간 차이가 인지될 수 있다.As described above, a viewer who is out of the optimal viewing distance can input a plurality of view information in a single view, and when an image with a large disparity is input, the difference between the monocular images can be recognized.

이때, 시청자가 수평 이동하거나 영상패널(110)의 구조(예를 들어, 스트라이프나 슬랜티드 구조)가 다를 경우에도 2D 위치와 영역의 형태는 변할 수 있으나, 해당하는 면적은 동일하다.At this time, even if the viewer moves horizontally or the structure of the image panel 110 (for example, a stripe or a slant structure) is different, the 2D position and the shape of the area may be changed, but the corresponding areas are the same.

한편, 도 16 및 도 17에 표시된 2D 영역은 동일 뷰를 표시한 영역이기 때문에 뷰 데이터를 치환할 경우에도 좌안(3)과 우안(4)에서 모두 변환되기 때문에 2D 영역은 여전히 유지된다. 따라서, 해당 구조에서는 2D 영역이 필수적으로 발생한다.On the other hand, since the 2D area shown in FIGS. 16 and 17 is the area displaying the same view, the 2D area is still maintained because both the left eye 3 and the right eye 4 are converted even when the view data is replaced. Therefore, a 2D region is essential in the structure.

이에 시청자의 양안 위치를 기준으로 인지되는 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화하며, 이를 도 16a, 도 16b 및 다음의 도 18을 참조하여 설명한다.Accordingly, the view area and the 2D and 3D areas of the image, which are recognized based on the binocular position of the viewer, are generalized by the formulas and will be described with reference to FIGS. 16A and 16B and FIG.

도 18은 P2 위치에서 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면이다.18 is a view showing an example of the position of the binocular applied to the viewing diamond at the P2 position.

이때, 시청자의 좌안은 뷰잉 다이아몬드의 중앙에 위치한다는 가정이 적용되며, 역시 등을 고려할 때 최소 2D 영역을 산출할 수 있다.At this time, it is assumed that the viewer's left eye is located at the center of the viewing diamond.

시청자의 양안(3, 4)이 Ks=2인 지점의 뷰잉 다이아몬드에 도 18과 같이 위치하면, 좌안(3)에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.When the viewer's binoculars 3 and 4 are positioned as shown in Fig. 18 on the viewing diamond at the point Ks = 2, the images perceived by the left eye 3 have a width of W / Ks uniformly in each view.

이와 달리 우안(4)의 경우 각 뷰의 폭(c, d)은 뷰잉 다이아몬드의 중심에서 떨어진 간격에 비례하므로 K+1번째 뷰의 폭(d)은 다음의 수학식 20과 같이 표현될 수 있다.In contrast, in the case of the right eye 4, since the widths (c, d) of each view are proportional to the distance apart from the center of the viewing diamond, the width (d) of the K + 1th view can be expressed by the following equation .

[수학식 20]

Figure pat00029
&Quot; (20) &quot;
Figure pat00029

도 16b로부터 c+d=W임을 알 수 있다. 따라서, K번째 뷰의 폭(c)은 다음 수학식 21과 같이 표현될 수 잇다.
From FIG. 16B, it can be seen that c + d = W. Therefore, the width c of the Kth view can be expressed by the following equation (21).

[수학식 21]

Figure pat00030
&Quot; (21) &quot;
Figure pat00030

수학식 16과 도 18로부터 뷰잉 다이아몬드의 폭(2(a+b))은 다음 수학식 22와 같다.From equation (16) and (18), the width (2 (a + b)) of the viewing diamond is given by the following equation (22).

[수학식 22]

Figure pat00031
&Quot; (22) &quot;
Figure pat00031

여기서, Ks=n-m+1이다.Here, Ks = n-m + 1.

또한, 2a+b=e이므로, 이를 수학식 22와 연립하여 계산하면, 우안(4)의 위치에 대한 a, b를 구할 수 있다.In addition, since 2a + b = e, it can be calculated in conjunction with equation (22) to obtain a and b for the position of the right eye 4.

[수학식 23]

Figure pat00032
&Quot; (23) &quot;
Figure pat00032

이를 이용하여 Ks=2인 지점에 위치한 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화할 수 있다.Using this, it is possible to generalize the view area and the 2D and 3D areas of the perceived image according to the binocular position of the viewer located at the point of Ks = 2.

즉, 도 16a와 도 16b로부터 양안의 뷰 겹침 구간을 계산하고, 이를 수학식 23에 대입하면 다음과 같이 2D 영역(region)을 수식화 할 수 있다.16A and 16B, a 2D overlap region is calculated and substituted into Equation 23 to form a 2D region as follows.

[수학식 24]

Figure pat00033
&Quot; (24) &quot;
Figure pat00033

이때, Ks=2이고,

Figure pat00034
이다.At this time, Ks = 2,
Figure pat00034
to be.

[수학식 25]

Figure pat00035
&Quot; (25) &quot;
Figure pat00035

여기서, 수학식 24 및 수학식 25의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.Equation (24) and Equation (25) are cases in which the influence by the view data is considered.

수학식 24로부터 Ks=2인 지점에서는 최소 2eH만큼의 2D 영역이 발생하는 것을 알 수 있다.From the equation (24), it can be seen that a 2D area of at least 2eH occurs at a point of Ks = 2.

앞에서 Ks=2인 지점의 2D 영역을 계산하였으므로, Ks=3인 지점과 그 이후 영역을 연산함으로써, 2D 발생 영역을 일반화할 수 있다. 그리고, 이 결과를 좌표로 변환하면 영상패널의 2D 발생 영역을 서브-픽셀별로 특정할 수 있다.Since the 2D region of Ks = 2 is calculated in the foregoing, the 2D generation region can be generalized by calculating the region where Ks = 3 and the region thereafter. Then, by converting the result into coordinates, the 2D generation region of the image panel can be specified for each sub-pixel.

이는 이후 본 발명에서 제안하는 방식에 의해 2D 영역을 정입체시 영역으로 변환함에 있어, 변환 영역의 크기와 위치, 그리고 이때 필요한 데이터 처리량 및 메모리 크기를 계산할 수 있다.In converting the 2D region into the stereoscopic region by the method proposed by the present invention, the size and position of the transformation region, and the required data throughput and memory size can be calculated.

도 19a 및 도 19b는 P3 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 19a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 19b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.Figs. 19A and 19B are views showing, for example, a view recognized in the left and right eyes of a viewer at a position P3. At this time, FIG. 19A shows a view recognized in the left eye of the viewer, and FIG. 19B shows a view recognized in the viewer's right eye.

그리고, 도 20은 P3 위치에서 2D, 3D 영역을 보여주는 도면이다.20 is a view showing 2D and 3D regions at a position P3.

도 19a 및 도 19b를 참조하면, Ks=3인 지점(Ks=2인 지점의 바로 뒤; P3 위치)에 위치한 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화할 수 있다.Referring to FIGS. 19A and 19B, a view-specific region and 2D and 3D regions of a perceived image according to a viewer's binocular position located at a point Ks = 3 (immediately after a point Ks = 2; P3) .

예를 들어, 시청자의 좌안이 Ks=3인 지점의 뷰잉 다이아몬드의 중심에 위치할 때, 좌안과 우안이 인지하는 영상은 단안에 3개의 뷰가 함께 인지되는 것을 알 수 있다.For example, when the left eye of the viewer is located at the center of the viewing diamond at the point Ks = 3, the images perceived by the left eye and right eye can be recognized as three views in a single view.

즉, 시청자의 좌안은 K-1번째 뷰, K번째 뷰 및 K+1번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안은 K번째 뷰, K+1번째 뷰 및 K+2번째 뷰의 영상을 함께 인지한다.That is, the left eye of the viewer perceives the images of the K-1th view, the Kth view and the K + 1th view, while the viewer's right eye recognizes the images of the Kth view, the K + 1th view, and the K + .

이때, 좌안과 우안에 인지되는 영상간에 동일 뷰(즉, K번째 뷰와 K+1번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생하며, 이는 도 20과 같이 표현될 수 있다.At this time, an area in which the same view (i.e., the K-th view and the (K + 1) -th view) overlap between the left eye and the right eye is generated, that is, a 2D area, which can be expressed as shown in FIG.

또한, 도 19a를 참조하면, 시청자의 좌안에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.Also, referring to FIG. 19A, the image perceived in the viewer's left eye has a width of W / Ks uniformly in each view.

이와 달리 우안의 경우, 도 19b를 참조하면 K+2번째 뷰의 폭(e)은 다음의 수학식 26과 같이 표현될 수 있다.On the other hand, in the case of the right eye, referring to FIG. 19B, the width e of the (K + 2) -th view can be expressed by Equation 26 below.

[수학식 26]

Figure pat00036
&Quot; (26) &quot;
Figure pat00036

도 19b로부터 c+d+e=W임을 알 수 있다. 그리고, c=d이므로, K번째 뷰와 K+1번째 뷰의 폭의 합(2c=c+d)은 다음 수학식 27과 같다.From FIG. 19B, it can be seen that c + d + e = W. Since c = d, the sum (2c = c + d) of the widths of the Kth view and the K + 1th view is expressed by the following equation (27).

[수학식 27]

Figure pat00037
&Quot; (27) &quot;
Figure pat00037

수학식 22와 수학식 23 및 수학식 27을 이용하면, Ks=3일 경우의 2D, 3D 영역은 다음 수학식 28과 수학식 29와 같다.Using the equations (22), (23) and (27), the 2D and 3D regions when Ks = 3 are expressed by the following equations (28) and (29).

[수학식 28]

Figure pat00038
&Quot; (28) &quot;
Figure pat00038

이때, Ks=3이고,

Figure pat00039
이다.At this time, Ks = 3,
Figure pat00039
to be.

[수학식 29]

Figure pat00040
&Quot; (29) &quot;
Figure pat00040

여기서, 수학식 28 및 수학식 29의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.Equation (28) and Equation (29) are cases in which the influence of the view data is taken into account.

수학식 29로부터 Ks=3인 지점에서의 2D 영역은 영상 데이터 및 뷰 수와 관계없이 최소 3eH만큼 발생하는 것을 알 수 있다.From the equation (29), it can be seen that the 2D area at the point of Ks = 3 is generated by at least 3eH regardless of the number of the image data and the number of views.

다음으로, 이상의 결과를 바탕으로 최적 시청거리에서 최적 시청거리의 2배 지점까지의 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화한다.Next, based on the above results, generalization of the view area and the 2D and 3D areas of the perceived image according to the viewer's binocular position from the optimum viewing distance to twice the optimum viewing distance is expressed by the formula.

이때, 최적 시청거리의 2배 지점은 좌안이 뷰 다이아몬드의 중앙에 위치할 때, 양안이 2개의 뷰 다이아몬드 내에 위치할 수 있는 최대거리이다.At this time, the double point of the optimum viewing distance is the maximum distance that the binocular can be located within the two view diamonds when the left eye is located at the center of the view diamond.

도 21a 및 도 21b는 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 21a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 21b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.Figs. 21A and 21B are views showing, for example, a view recognized in the left and right eyes of the viewer at the position Pj. At this time, FIG. 21A shows a view recognized in the left eye of the viewer, and FIG. 21B shows a view recognized in the viewer's right eye.

도 21a 및 도 21b를 참조하면, 예를 들어 시청자의 좌안이 Ks=j인 지점(Pj 위치)의 뷰잉 다이아몬드의 중심에 위치할 때, 좌안과 우안이 인지하는 영상은 단안에 j개의 뷰가 함께 인지되는 것을 알 수 있다.21A and 21B, for example, when the viewer's left eye is located at the center of the viewing diamond at a point (Pj position) where Ks = j, the images recognized by the left eye and right eye are It can be seen that it is perceived.

즉, 시청자의 좌안은 K-j-1번째 뷰, K-j번째 뷰, ...., K-1번째 뷰 및 K번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안은 K-j번째 뷰, K-j+1번째 뷰, ...., K번째 뷰 및 K+1번째 뷰의 영상을 함께 인지한다.That is, the left eye of the viewer perceives images of the Kj-1th view, the Kjth view, ...., the K-1th view and the Kth view, while the viewer's right eye recognizes the Kjth view, Kj + The first view, ...., the Kth view, and the (K + 1) th view.

이때, 좌안과 우안에 인지되는 영상간에 동일 뷰(즉, K-j번째 뷰에서부터 K번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생한다.At this time, an area where a same view (that is, a K-th view from the K-j-th view) overlaps between the images recognized in the left eye and the right eye, i.e., a 2D area occurs.

다시 도 21a를 참조하면, 시청자의 좌안에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.Referring again to FIG. 21A, the image perceived in the left eye of the viewer has a width of W / Ks uniformly in each view.

이와 달리 우안의 경우, 도 21b를 참조하면 K+1번째 뷰의 폭(d)은 다른 뷰들의 폭과 다르며, 다음의 수학식 30과 같이 표현될 수 있다.21B, the width d of the (K + 1) -th view is different from the width of the other views and can be expressed by Equation (30).

[수학식 30]

Figure pat00041
&Quot; (30) &quot;
Figure pat00041

도 21b로부터 (Ks-1)c+d=W임을 알 수 있다. 그리고, 수학식 30으로부터 다음을 알 수 있다.From FIG. 21B, it can be seen that (Ks-1) c + d = W. From the equation (30), the following can be found.

[수학식 31]

Figure pat00042
&Quot; (31) &quot;
Figure pat00042

수학식 22와 수학식 23 및 수학식 31을 이용하면, Ks=j일 경우(즉, 최적 시청거리에서 최적 시청거리의 2배 지점까지)의 2D, 3D 영역은 다음 수학식 32와 수학식 33과 같다.Using the equations (22), (23) and (31), the 2D and 3D regions of Ks = j (i.e., from the optimum viewing distance to twice the optimal viewing distance) can be expressed by the following equations (32) and Respectively.

[수학식 32]

Figure pat00043
(32)
Figure pat00043

[수학식 33]

Figure pat00044
&Quot; (33) &quot;
Figure pat00044

여기서, 수학식 32 및 수학식 33의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.Equation (32) and Equation (33) are cases in which the inequality is also taken into consideration by the influence of the view data.

수학식 32로부터 최적 시청거리에서 최적 시청거리의 2배 지점까지의 2D 영역은 영상 데이터 및 뷰 수와 관계없이 최소 eKsH만큼 발생하는 것을 알 수 있다.From Equation (32), it can be seen that the 2D region from the optimum viewing distance to twice the optimum viewing distance is generated by the minimum eKsH regardless of the number of the image data and the number of views.

다음으로, 최적 시청거리의 2배 이상의 지점에 위치한 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화한다.Next, the view area and the 2D and 3D areas of the perceived image according to the positions of the two eyes of the viewer located at a point twice or more than the optimum viewing distance are generalized by the formulas.

이때, 최적 시청거리의 2배 이상의 지점은 좌안이 뷰 다이아몬드의 중앙에 위치할 때, 양안이 하나의 뷰 다이아몬드 내에 위치하는 거리이다.At this point, the point at least twice the optimal viewing distance is the distance that the binocular is located within one view diamond when the left eye is located at the center of the view diamond.

도 22a 및 도 22b는 최적 시청거리의 2배 이상의 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 22a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 22b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.22A and 22B are views showing, for example, a view recognized in the left and right eyes of a viewer at a position Pj which is twice or more the optimum viewing distance. At this time, FIG. 22A shows a view recognized in the left eye of the viewer, and FIG. 22B shows a view recognized in the viewer's right eye.

그리고, 도 23은 최적 시청거리의 2배가 넘는 시청거리에서, 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면이다.FIG. 23 is a view showing an example of the position of both eyes applied to a viewing diamond at a viewing distance of more than twice the optimum viewing distance.

도 22a와 22b 및 도 23을 참조하면, 예를 들어 최적 시청거리의 2배 이상의 위치에서, 시청자의 양안이 Ks=j인 지점의 뷰잉 다이아몬드에 도 22와 같이 위치할 때, 좌안과 우안이 인지하는 영상은 단안에 j개의 뷰가 함께 인지되는 것을 알 수 있다.22A and 22B and FIG. 23, for example, when the viewer's binocular is positioned as shown in FIG. 22 in a viewing diamond at a point where Ks = j at a position twice or more than the optimum viewing distance, Can see that j views are recognized together in a single view.

즉, 시청자의 좌안은 K-j-1번째 뷰, K-j번째 뷰, ...., K-1번째 뷰 및 K번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안은 K-j-1번째 뷰, K-j번째 뷰, ...., K-1번째 뷰 및 K번째 뷰의 영상을 함께 인지한다.That is, the viewer's left eye recognizes the images of the Kj-1th view, the Kjth view, ...., the K-1th view, and the Kth view, while the viewer's right eye recognizes the Kj- View, ...., image of the (K-1) th view and the image of the (K) th view are recognized together.

다시 도 22a를 참조하면, 시청자의 좌안에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.Referring again to FIG. 22A, the image perceived in the viewer's left eye has a width of W / Ks uniformly in each view.

이와 달리 우안의 경우, 도 22b를 참조하면 K-j-1번째 뷰의 폭(c)은 다른 뷰들의 폭과 다르며, 다음의 수학식 34와 같이 표현될 수 있다.22B, the width c of the (K-j-1) -th view is different from the width of the other views and can be expressed by the following equation (34).

[수학식 34]

Figure pat00045
&Quot; (34) &quot;
Figure pat00045

도 22b로부터 c+(Ks-1)d=W임을 알 수 있다. 그리고, 수학식 34로부터 다음을 알 수 있다.From FIG. 22B, it can be seen that c + (Ks-1) d = W. From the equation (34), the following can be found.

[수학식 35]

Figure pat00046
&Quot; (35) &quot;
Figure pat00046

도 23으로부터 a=e이므로,23, since a = e,

수학식 22와 연립하여 계산하면

Figure pat00047
임을 알 수 있다.Calculated in tandem with equation (22)
Figure pat00047
.

그리고, 이를 수학식 22와 수학식 35와 함께 이용하면, 최적 시청거리의 2배 이상의 위치에서의 2D, 3D 영역은 다음 수학식 36과 수학식 37과 같다.Using the equations (22) and (35), the 2D and 3D regions at positions twice or more than the optimal viewing distance are expressed by the following equations (36) and (37).

[수학식 36]

Figure pat00048
&Quot; (36) &quot;
Figure pat00048

[수학식 37]

Figure pat00049
&Quot; (37) &quot;
Figure pat00049

여기서, 수학식 36 및 수학식 37의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.Equation (36) and Equation (37) are cases in which the influence of the view data is taken into account.

수학식 32와 수학식 37로부터 시청자 위치에 관계없이 2D 영역이 최소 eKsH만큼 발생하는 것을 알 수 있다.From Equation (32) and Equation (37), it can be seen that the 2D region is generated by the minimum eKsH regardless of the viewer position.

다음으로, 최적 시청거리 제어를 고려하여, 최적 시청거리의 2배되는 지점과 최적 시청거리의 3배되는 지점의 2D, 3D 영역을 수식으로 일반화한다.Next, considering the optimum viewing distance control, the 2D and 3D areas at the point where the optimum viewing distance is doubled and the optimal viewing distance is three times the generalized by the formula.

먼저, 최적 시청거리의 2배되는 지점의 좌표는 수학식 13으로부터,First, the coordinates of the point at which the optimum viewing distance is doubled can be calculated from Equation (13)

Figure pat00050
이며,
Figure pat00050
Lt;

이때의

Figure pat00051
이다.At this time
Figure pat00051
to be.

따라서, 수학식 32와 수학식 33으로부터 최적 시청거리의 2배 위치에서의 2D, 3D 영역을 다음 수학식 38과 수학식 39와 같이 일반화할 수 있다.Hence, from the equations (32) and (33), the 2D and 3D regions at the position twice the optimal viewing distance can be generalized as the following equations (38) and (39).

[수학식 38]

Figure pat00052
&Quot; (38) &quot;
Figure pat00052

[수학식 39]

Figure pat00053
[Equation 39]
Figure pat00053

또한, 최적 시청거리의 3배되는 지점의 좌표는 수학식 13으로부터,Further, the coordinates of the point at which the optimum viewing distance is tripled is obtained from the equation (13)

Figure pat00054
이며,
Figure pat00054
Lt;

이때의

Figure pat00055
이다.At this time
Figure pat00055
to be.

따라서, 수학식 36과 수학식 37로부터 최적 시청거리의 3배 위치에서의 2D, 3D 영역을 다음 수학식 40과 수학식 41과 같이 일반화할 수 있다.Therefore, from the equations (36) and (37), the 2D and 3D regions at the position three times the optimum viewing distance can be generalized as the following equations (40) and (41).

[수학식 40]

Figure pat00056
[Equation 40]
Figure pat00056

[수학식 41]

Figure pat00057
(41)
Figure pat00057

이와 같은 결과에 따르면, 뷰 독립 구조에서는 필연적으로 2D 영역이 발생하는 것을 알 수 있다.According to these results, it can be seen that a 2D region necessarily occurs in the view independent structure.

따라서, 본 발명에서는 시청거리를 N배로 확장하기 위한 무안경 입체영상표시장치에 있어, 뷰 겹침 구조, 즉 뷰잉 다이아몬드를 N번 이상 겹치도록 설계하는 것을 특징으로 한다.Therefore, in the present invention, in the non-eyeglass stereoscopic image display device for extending the viewing distance N times, the view overlapping structure, that is, the viewing diamond is designed to overlap N times or more.

도 24a 및 도 24b는 시청자의 위치에 따른 멀티 뷰 영상의 시청영역을 예로 들어 보여주는 도면으로서, 뷰잉 다이아몬드의 2중첩 구조를 예로 들어 보여주고 있다. 이때, 도 24b는 도 24a에 도시된 A부분을 확대하여 보여주는 도면이다.24A and 24B are views showing an example of a viewing area of a multi-view image according to the position of a viewer, and show a double-superimposed structure of a viewing diamond as an example. 24B is an enlarged view of a portion A shown in FIG. 24A.

이때, P1 위치가 시청자가 입체영상을 정상적으로 시청할 수 있는 최적 시청거리에 해당한다고 가정한다. 그리고, 도 24a 및 도 24b에는 편의상 일부 영역에서만 뷰잉 다이아몬드가 중첩된 상태를 보여주고 있으나, 실제로는 전 영역에 걸쳐 뷰잉 다이아몬드가 중첩되어 있다.At this time, it is assumed that the P1 position corresponds to the optimum viewing distance at which the viewer can normally view the stereoscopic image. 24A and 24B show a state in which the viewing diamond is superimposed only in a partial area for convenience, but in reality, the viewing diamond is superimposed over the entire area.

도 24a 및 도 24b를 참조하면, 마름모꼴 영역은 시청영역(viewing zone)으로 뷰잉 다이아몬드(130)를 의미한다.Referring to FIGS. 24A and 24B, the diamond shape area refers to the viewing diamond 130 as a viewing zone.

예로 들면, "K"는 영상패널(110)에 표시된 제 K 뷰 영상(또는 K번째 뷰의 영상)이 보이는 시청영역이고, "K+1"은 영상패널(110)에 표시된 제 K+1 뷰 영상이 보이는 시청영역이다. "K+2"는 영상패널(110)에 표시된 제 K+2 뷰 영상이 보이는 시청영역이고, "K+3"은 영상패널(110)에 표시된 제 K+3 뷰 영상이 보이는 시청영역이다.For example, "K" is a viewing area in which the K-th view image (or the image of the K-th view) displayed on the image panel 110 is visible, It is the viewing area where the image is visible. "K + 2" is a viewing area in which a K + 2 view image displayed on the image panel 110 is visible, and "K + 3" is a viewing area in which a K + 3 view image displayed in the image panel 110 is visible.

이때, 뷰 겹침 구조에 따라 뷰잉 다이아몬드(130)가 겹치는 영역은 뷰가 겹치는 영역으로, 여러 개의 뷰 영상이 인지된다.At this time, an area where the viewing diamond 130 overlaps according to the view overlapping structure is an area where views overlap, and a plurality of view images are recognized.

시청자가 P1 위치에서 P2 위치(최적 시청거리의 후방)로 이동할 때, 양안이 (1, 2) 위치에서 (3, 4) 위치로 이동한 것과 거의 유사하다.When the viewer moves from the P1 position to the P2 position (behind the optimal viewing distance), the binocular is almost similar to moving from position (1, 2) to position (3, 4).

뷰잉 다이아몬드의 2중첩 구조를 예로 들면, 다음과 같이 시청자가 인지하는 서브-픽셀 영역을 영상패널(110) 기준으로 나타낼 수 있다.As an example of a double-superimposed structure of a viewing diamond, a sub-pixel area recognized by the viewer can be represented by the image panel 110 as follows.

이하에서는 최적 시청거리의 바로 뒤의 P2 위치에 형성되는 시청영역들 및 뷰잉 다이아몬드에 대해서 설명하나, 이는 설명의 편의를 위한 것으로 최적 시청거리의 2배 지점 및 이외 다른 지점에서도 동일하게 적용 가능하다.Hereinafter, the viewing regions and the viewing diamond formed at the position P2 immediately after the optimum viewing distance will be described. However, this is for the convenience of explanation, and is equally applicable to a point twice the optimal viewing distance and other points.

도 25는 2중첩 구조에 있어, P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다.Fig. 25 is a diagram showing a view recognized in the left and right eyes of the viewer at the position P1 in the two-layer structure.

그리고, 도 26은 2중첩 구조에 있어, P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다.26 is a diagram showing a view recognized in the left and right eyes of the viewer at the P2 position in the double superposed structure as an example.

도 27은 2중첩 구조에 있어, P2 위치에서 2D, 3D 영역을 보여주는 도면이다.FIG. 27 is a view showing 2D and 3D regions at a P2 position in a two-layer structure. FIG.

도 25를 참조하면, P1 위치에서 시청자의 좌안(LE1)과 우안(RE1)이 최적 시청거리(Ks=1인 지점; P1 위치)의 뷰잉 다이아몬드 중심에 위치할 경우, 좌안(LE1)과 우안(RE1)이 인지하는 영상은 각각의 뷰로 분리된 영상인 것을 알 수 있다.25, when the left eye LE1 and the right eye RE1 of the viewer are positioned at the center of the viewing diamond at the optimum viewing distance (point Ks = 1; position P1) at the position P1, the left eye LE1 and the right eye RE1) is an image separated by each view.

다만, 양안 간격 기반의 뷰잉 다이아몬드 구조에서 뷰 독립 구조일 경우에는 Ks=1인 지점에서 하나의 뷰만 단안에 인지되나, 뷰 중첩 구조에서는 단안에 중첩되는 수만큼의 뷰가 인지된다. 그리고, 뒤로 갈수록 하나의 뷰씩 추가된다.However, in the case of a view-independent structure in a viewing diamond structure based on a binocular interval, only one view is recognized in a single view at a point Ks = 1, but in the view overlapping structure, And one more view is added to the back.

즉, 시청자의 좌안(LE1)은 K번째 뷰와 K+1번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안(RE1)은 K+2번째 뷰와 K+3번째 뷰의 영상을 함께 인지한다.That is, the left eye LE1 of the viewer perceives the images of the Kth view and the K + 1th view together, while the viewer's right eye RE1 recognizes the images of the K + 2th view and the K + 3th view together .

이와 같이 좌안(LE1)과 우안(RE1)의 영상이 겹치는 부분이 없으므로, 시청자는 영상패널의 전 영역에 걸쳐 3D로 인지한다.Since there is no part where the images of the left eye LE1 and the right eye RE1 overlap, the viewer perceives the 3D image over the entire area of the image panel.

도 26을 참조하면, 예를 들어 시청자의 좌안(LE2)이 Ks=2인 지점(최적 시청거리의 바로 뒤; P2 위치)의 뷰잉 다이아몬드의 중심에 위치할 경우, 좌안(LE2)과 우안(RE2)이 인지하는 영상은 단안에 3개의 뷰가 함께 인지되는 것을 알 수 있다.26, for example, when the left eye LE2 of the viewer is located at the center of the viewing diamond at a position of Ks = 2 (immediately after the optimal viewing distance; P2 position), the left eye LE2 and the right eye RE2 ) Recognizes that three views are recognized together in a single view.

이때, 시청자의 좌안(LE2)은 영상패널의 좌측에서 K번째 뷰와 K-1번째 뷰의 영상을 함께 인지하며, 영상패널의 우측에서 K번째 뷰와 K+1번째 뷰의 영상을 함께 인지한다.At this time, the left eye LE2 of the viewer recognizes the images of the Kth view and the K-1th view on the left side of the image panel, and recognizes the images of the Kth view and the (K + 1) th view on the right side of the image panel together .

반면에 시청자의 우안(RE2)은 영상패널의 좌측에서 K+2번째 뷰와 K+1번째 뷰의 영상을 함께 인지하며, 영상패널의 우측에서 K+2번째 뷰와 K+3번째 뷰의 영상을 함께 인지한다.On the other hand, the viewer's right eye RE2 recognizes the images of the (K + 2) -th view and the (K + 1) -th view from the left side of the image panel, .

이때, 좌안(LE2)과 우안(RE2)에 인지되는 영상간에 동일 뷰(즉, K+1번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생하며, 이는 도 27과 같이 표현될 수 있다.At this time, a region in which the same view (i.e., the (K + 1) th view) is overlapped, that is, a 2D region, is generated between the images recognized by the left eye LE2 and the right eye RE2.

다만, 이 경우에는 겹치는 영역이 전부 2D 영역으로 볼 수는 없으며, 2D 영역과 3D 영역과 혼재되어 있어 뷰 독립 구조에 비해 3D 시청영역이 실질적으로 증가하는 효과를 가진다. 이는 좌안(LE2)과 우안(RE2)에 인지되는 영상간에 동일 뷰가 겹치는 영역에서 일부는 뷰 겹침에 따라 3D 영역으로 구현되기 때문이다.However, in this case, the overlapped area is not seen as a 2D area at all, and the 3D viewing area is substantially increased as compared with the view independent structure because it is mixed with the 2D area and the 3D area. This is because an area in which the same view overlaps between the images recognized by the left eye LE2 and the right eye RE2 is implemented as a 3D area according to view overlapping.

이를 시청자가 인지하는 서브-픽셀 관점에서 보면 다음과 같다.From the viewpoint of the sub-pixel perceived by the viewer, it is as follows.

도 28은 본 발명의 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이 및 렌티큘러 렌즈 배치를 예로 들어 보여주는 도면이다.FIG. 28 is a view showing an example of a pixel array and a lenticular lens arrangement in which a view-map is written in a spectacle-free three-dimensional image display apparatus according to an embodiment of the present invention.

이때, 도 28은 16개의 뷰를 이용하는 경우의 픽셀 어레이를 예로 들어 보여주고 있다. 다만, 본 발명이 전술한 뷰 수에 한정되는 것은 아니다.At this time, FIG. 28 shows an example of a pixel array in which 16 views are used. However, the present invention is not limited to the above-described number of views.

도 28의 상단에 표시된 R, G 및 B는 R, G 및 B 서브-픽셀의 위치를 나타낸다.R, G, and B shown at the top of FIG. 28 indicate the positions of the R, G, and B sub-pixels.

도 28을 참조하면, m(m은 자연수)뷰를 이용하는 경우, 영상패널은 m개의 서브-픽셀들 단위로 m개의 서브-픽셀들에 순서대로 첫 번째 뷰 내지 m번째 뷰가 할당될 수 있다.Referring to FIG. 28, when m (m is a natural number) view is used, the image panel may be allocated m first sub-pixels to m sub-pixels in units of m sub-pixels sequentially.

즉, 영상패널의 m개의 서브-픽셀들 중 제 K(K는 1≤K≤m을 만족하는 자연수) 서브-픽셀에 K번째 뷰가 할당된다.That is, the K-th view is assigned to the K-th sub-pixel among the m sub-pixels of the image panel (K is a natural number satisfying 1? K? M).

일 예로 16개의 뷰를 이용하는 경우, 제 1 서브-픽셀에 첫 번째 뷰(1st view)가 할당되고, 제 2 서브-픽셀에 2번째 뷰(2nd view)가 할당되며, 제 3 서브-픽셀에 3번째 뷰(3rd view)가 할당되고, 제 4 서브-픽셀에 4번째 뷰(4th view)가 할당된다. 그리고, 제 5 서브-픽셀에 5번째 뷰(5th view)가 할당되고, 제 6 서브-픽셀에 6번째 뷰(6th view)가 할당되며, 제 7 서브-픽셀에 7번째 뷰(7th view)가 할당되고, 제 8 서브-픽셀에 8번째 뷰(8th view)가 할당된다. 제 9 서브-픽셀에 9번째 뷰(9th view)가 할당되고, 제 10 서브-픽셀에 10번째 뷰(10th view)가 할당되며, 제 11 서브-픽셀에 11번째 뷰(11th view)가 할당되고, 제 12 서브-픽셀에 12번째 뷰(12th view)가 할당된다. 제 13 서브-픽셀에 13번째 뷰(13th view)가 할당되고, 제 14 서브-픽셀에 14번째 뷰(14th view)가 할당되며, 제 15 서브-픽셀에 15번째 뷰(15th view)가 할당되고, 제 16 서브-픽셀에 16번째 뷰(16th view)가 할당된다.For example, if 16 views are used, a first view (1 st view) is assigned to the first sub-pixel, a second view (2 nd view) is assigned to the second sub- A third view (3 rd view) is allocated to the fourth sub-pixel, and a fourth view (4 th view) is allocated to the fourth sub-pixel. A fifth view (5 th view) is assigned to the fifth sub-pixel, a sixth view (6 th view) is assigned to the sixth sub-pixel, a seventh view (7 th view) view, and the eighth view (8 th view) is allocated to the eighth sub-pixel. A ninth sub-is assigned a 10 second view (10 th view) to a pixel, an eleventh sub-11th view of the pixel (11 th view) 9 second view to a pixel (9 th view) is, the tenth sub-assigned the allocation is, 12 sub-assigned to the 12th view (view 12 th) in the pixel. 13th sub-is assigned a 14 second view (14 th view) to the pixel, the 15 sub-15th view of the pixel (15 th view) 13 second view to a pixel (13 th view) is, 14 sub-assigned the allocation is, 16 sub-views assigned to the 16th to the pixel (16 th view).

이를 위해 3D 필터는 서브-픽셀들 대비 소정의 각도로 비스듬하게 형성된 슬랜티드 구조의 렌티큘러 렌즈(125)로 구현될 수 있다. 보다 구체적으로, 슬랜티드 구조의 렌티큘러 렌즈(125)는 서브-픽셀들의 장축 변을 기준으로 소정의 각도만큼 비스듬하게 형성된다.For this purpose, the 3D filter may be implemented as a lenticular lens 125 of a slant structure formed obliquely at a predetermined angle with respect to the sub-pixels. More specifically, the lenticular lens 125 of the slanted structure is formed obliquely by a predetermined angle with respect to the long axis sides of the sub-pixels.

이에 따라 3D 필터는 m개의 서브-픽셀들에 표시된 제 1 내지 제 m 뷰 영상(변환되기 전의 뷰 영상)들 각각을 첫 번째 뷰 내지 m번째 뷰 각각으로 분할한다. 따라서, 3D 필터는 제 K 서브-픽셀에 표시되는 제 K 뷰 영상을 K번째 뷰로 출력한다.Accordingly, the 3D filter divides each of the first to m-th view images (before-converted view images) displayed on the m sub-pixels into the first view to the m-th view. Thus, the 3D filter outputs the Kth view image displayed on the Kth sub-pixel to the Kth view.

참고로, 본 발명에서 설명되는 뷰-맵이란, 영상패널의 서브-픽셀에 반복적으로 매핑(mapping)되는 각각의 뷰의 데이터 순서 및 위치를 표현하는 것으로서, 시청영역에는 정시영역, 역시영역 및 시청불가 영역이 있다.For reference, the view-map described in the present invention expresses data order and position of each view repeatedly mapped to sub-pixels of a video panel, and the viewing area includes a regular area, There is a non-existent area.

여기서, 정시영역은 시청자가 입체영상을 정상적으로 시청할 수 있는 영역으로서 시청자의 우안에는 우안영상이 맺히고, 좌안에는 좌안영상이 맺히는 영역을 말한다.Here, the regular time region refers to an area in which a viewer can normally view a stereoscopic image, in which a right eye image is formed in the right eye of the viewer and a left eye image is formed in the left eye.

또한, 역시영역은 영상의 차이 정보가 전달되기 때문에, 시청자가 입체적으로 영상을 인식할 수는 있으나, 우안에는 좌안영상이 맺히고 좌안에는 우안영상이 맺히는 영역이기 때문에, 시청자가 눈의 피로를 보다 빨리 느끼게 되는 영역이다.In addition, since the difference information of the image is transmitted to the region, the viewer can recognize the image in three dimensions. However, since the left eye image is formed in the right eye and the right eye image is formed in the left eye, It is an area to be felt.

또한, 시청불가 영역은 입체영상의 시청 자체가 불가능한 영역을 말한다In addition, the unviewable area refers to an area where viewing of stereoscopic images is impossible

즉, 뷰-맵에는 전술한 3가지 영역들이 표시되는 위치들에 대한 좌표정보(즉, 첫 번째 뷰 내지 m번째 뷰)들이 포함되어 있다.That is, the view-map includes coordinate information (i.e., the first view to the m-th view) for the positions where the three regions are displayed.

그러나, 정시영역과 역시영역을 제외한 영역을 시청불가 영역으로 판단할 수 있음으로, 뷰-맵에는 시청불가 영역에 대한 좌표정보가 생략되어 있을 수도 있다.However, since the regular time zone and the area other than the area can also be determined as the un-viewable area, the coordinate information for the un-viewable area may be omitted in the view-map.

도 29a 및 도 29b는 P1 위치에서 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.Figs. 29A and 29B are views showing examples of sub-pixels and views recognized in the left eye and right eye at the P1 position. Fig.

이때, 도 29a는 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주며, 도 29b는 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주고 있다.At this time, FIG. 29A shows sub-pixels and views recognized in the left eye, and FIG. 29B shows sub-pixels and views recognized in the right eye as an example.

이하에서는 해당 뷰 구조 및 맵핑(mapping)이 전 영역에 걸쳐 반복적으로 구성되는 경우를 가정한다.Hereinafter, it is assumed that the corresponding view structure and mapping are repeatedly formed over the entire area.

인접하는 뷰 상호간에 3D 크로스토크가 없는 이상적인 경우, 뷰잉 다이아몬드의 2중첩 구조에서 시청자가 인지하는 뷰는 단안 기준으로 2개이다. 따라서, 도 29a 및 도 29b와 같이 좌안과 우안이 인지하는 서브-픽셀을 표현할 수 있다.In an ideal case where there is no 3D crosstalk between neighboring views, there are two views per view of the viewers in the double-layered structure of the viewing diamond. Therefore, as shown in FIGS. 29A and 29B, sub-pixels recognized by the left eye and the right eye can be expressed.

이때, 본 발명의 실시예에 따른 무안경 입체영상표시장치는 뷰잉 다이아몬드의 폭을 양안 간격을 기준으로 하고 있어, 뷰잉 다이아몬드의 중첩이 없다면 좌안이 첫 번째 뷰를 인지할 경우 우안은 2번째 뷰를 인지한다.In the non-eyeglass stereoscopic image display apparatus according to the embodiment of the present invention, the width of the viewing diamond is based on the binocular interval. If there is no overlap of the viewing diamonds, if the left eye recognizes the first view, I know.

따라서, 2중첩의 경우에는 좌안과 우안 사이에 뷰잉 다이아몬드가 한 개 더 존재하게 됨에 따라 도 29a 및 도 29b와 같이, 좌안이 첫 번째 뷰와 2번째 뷰를 인지할 경우 우안은 3번째 뷰와 4번째 뷰를 인지한다.29A and 29B, when the left eye recognizes the first view and the second view, the right eye has the third view and the fourth view as shown in FIG. 29A and FIG. 29B because there is one viewing diamond between the left eye and the right eye. Lt; / RTI &gt; view.

즉, 2중첩의 경우에는 좌안이 제 1 뷰 영상과 제 2 뷰 영상을 볼 경우 우안은 제 3 뷰 영상과 제 4 뷰 영상을 보게 된다.That is, when the left eye views the first view image and the second view image in the case of the double overlap, the right eye sees the third view image and the fourth view image.

도 30a 및 도 30b는 P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.Figs. 30A and 30B are views showing examples of sub-pixels and views recognized in the left eye at the P2 position. Fig.

그리고, 도 31a 및 도 31b는 P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.Figs. 31A and 31B are views showing examples of sub-pixels and views recognized in the right eye at the P2 position.

이때, 도 30a 및 도 31b는 3D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다. 그리고, 도 30b 및 도 31a는 2D 영역(실제는 2D, 3D 혼재영역; 도 27 참조)에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다.Here, FIGS. 30A and 31B show examples of sub-pixels and views recognized in the left and right eyes in the 3D region. 30B and 31A show examples of sub-pixels and views recognized in the left and right eyes in the 2D area (actually, 2D, 3D mixed area; see FIG. 27).

즉, 도 30a는 영상패널 좌측의 3D 영역에서의 좌안에서 인지되는 서브-픽셀과 뷰를 보여주며, 도 31b는 영상패널 우측의 3D 영역에서의 우안에서 인지되는 서브-픽셀과 뷰를 보여준다. 그리고, 도 30b는 영상패널 중앙(실제는 중앙에서 약간 우측)의 2D 영역에서의 좌안에서 인지되는 서브-픽셀과 뷰를 보여주며, 도 31a는 영상패널 중앙의 2D 영역에서의 우안에서 인지되는 서브-픽셀과 뷰를 보여준다.That is, FIG. 30A shows sub-pixels and views perceived in the left eye in the 3D region on the left side of the image panel, and FIG. 31B shows sub-pixels and views perceived in the right eye in the 3D region on the right side of the image panel. FIG. 30B shows sub-pixels and views recognized in the left eye in the 2D region of the image panel center (actually, slightly right in the center), FIG. 31A shows the sub- - Show pixels and views.

다만, 이는 2중첩 구조의 P2 위치에서 인지되는 서브-픽셀과 뷰를 예로 들어 설명하는 것이며, 본 발명이 이에 한정되는 것은 아니다.However, this explains the sub-pixel and the view that are recognized at the P2 position of the double superposition structure, and the present invention is not limited thereto.

2중첩의 경우에 P2 위치에서는 좌안과 우안 사이에 뷰잉 다이아몬드가 한 개 더 존재하여 도 30a와 도 30b 및 도 31a와 도 31b와 같이, 좌안이 첫 번째 뷰와 2번째 뷰 및 16번째 뷰를 인지할 경우 우안은 2번째 뷰와 3번째 뷰 및 4번째 뷰를 인지한다.In the case of the two overlapping, there is one viewing diamond between the left eye and the right eye at the position P2, so that the left eye recognizes the first view, the second view, and the 16th view as shown in FIGS. 30A and 30B and FIGS. 31A and 31B The right eye recognizes the second view, the third view, and the fourth view.

즉, 2중첩의 경우에 P2 위치에서는 좌안이 제 1 뷰 영상과 제 2 뷰 영상 및 제 16 뷰 영상을 볼 경우 우안은 제 2 뷰 영상과 제 3 뷰 영상 및 제 4 뷰 영상을 보게 된다.That is, when the left eye views the first view image, the second view image, and the 16th view image at the P2 position in the case of the double overlap, the right eye sees the second view image, the third view image, and the fourth view image.

이와 같이 도 27 및 도 30a, 도 30b, 도 31a, 도 31b로부터 좌안 및 우안에서 인지되는 서브-픽셀은 영상패널의 일부 영역에 2D 영역이 일부 발생하는 것을 알 수 있다.As can be seen from FIG. 27, FIG. 30A, FIG. 30B, FIG. 31A, and FIG. 31B, the sub-pixels recognized in the left eye and the right eye partially have 2D regions in some regions of the image panel.

즉, 전술한 바와 같이 도 27에서는 영상패널의 중앙에서 중앙 우측 일부 영역에 K+1번째 뷰가 좌안과 우안에 동시에 입력되는 것을 확인할 수 있다. 그리고, 도 30b 및 도 31a에서는 점선의 사각형으로 표시한 2번째 뷰가 겹치는 것을 알 수 있다.That is, as shown in FIG. 27, it can be seen that the (K + 1) -th view is input to the left eye and the right eye simultaneously from a center portion to a center right portion of the image panel. 30B and 31A, it can be seen that the second views indicated by the rectangles of the dotted lines overlap.

이때, 도 30b 및 도 31a는 전술한 바와 같이 영상패널 중앙(실제는 중앙에서 약간 우측)의 2D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 보여준다.Here, FIGS. 30B and 31A show sub-pixels and views recognized in the left and right eyes in the 2D region at the center of the image panel (actually, slightly right at the center) as described above.

다만, 이러한 본 발명의 실시예의 경우에는 시청자의 좌안이 K-1번째 뷰와 K번째 뷰 및 K+1번째 뷰를 인지할 때, 시청자의 우안은 K+1번째 뷰와 K+2번째 뷰 및 K+3번째 뷰를 인지하기 때문에 좌안대비 우안이 인지하는 영상이 상대적으로 오른쪽 뷰 영상이다. 이는 영상 정보를 적분해서 인지하는 눈의 특성상 시청자는 다수의 뷰를 인지하는 좌안과 우안 사이에 차이(disparity)가 존재한다고 판단하므로 3D 영상을 시청할 수 있다. 또한, 뷰 독립 구조에 비해 실질적으로 3D 시청영역이 증가하기 때문에 뷰잉 다이아몬드의 중첩 수를 증가시킬수록 2D 인지 서브-픽셀의 비율이 줄어드는 것을 알 수 있다.However, in this embodiment of the present invention, when the viewer's left eye recognizes the K-1th view, the Kth view, and the K + 1th view, the viewer's right eye is a K + 1th view and a K + Since the K + 3th view is recognized, the image perceived by the right eye relative to the left eye is a relatively right view image. This is because the viewer recognizes that there is a disparity between the left eye and the right eye recognizing a plurality of views due to the characteristics of the eye that integrates the image information, so that the 3D image can be viewed. In addition, since the 3D viewing area is substantially increased as compared with the view independent structure, it can be seen that the ratio of 2D or sub-pixels decreases as the number of superimposed views is increased.

다만, 이 경우에도 단안에 영역별로 다수의 뷰가 동시에 인지되기 때문에 크로스토크가 발생할 수 있다. 따라서, 본 발명의 실시예에서는 다음과 같이 뷰 데이터 렌더링(view data rendering) 기술을 적용하여 시청자 위치에 따라 영상패널의 뷰 데이터를 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 데이터로 각각 치환하는 것을 특징으로 한다.In this case, however, crosstalk may occur because a plurality of views are simultaneously recognized per area in a single view. Therefore, in the embodiment of the present invention, the view data rendering technique is applied as follows to convert the view data of the image panel into one view data having a disparity with respect to the left and right eyes according to the viewer position .

도 32a 및 도 32b는 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.32A and 32B are views showing examples of sub-pixels and views recognized in the left eye at the position P2 when the view data rendering is applied.

그리고, 도 33a 및 도 33b는 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.33A and 33B are views showing examples of sub-pixels and views recognized in the right eye at the P2 position when the view data rendering is applied.

이때, 도 32a 및 도 33b는 3D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다. 그리고, 도 32b 및 도 33a는 2D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다.Here, FIGS. 32A and 33B show examples of sub-pixels and views recognized in the left and right eyes in the 3D region. 32B and 33A show examples of sub-pixels and views recognized in the left and right eyes in the 2D region.

도 34 및 도 35는 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면이다.34 and 35 are views showing an example of transforming input data through rendering of view data.

이때, 도 35에 도시된 1, 2, 3,... 및 16은 각각 제 1 뷰 영상, 제 2 뷰 영상, 제 3 뷰 영상,... 및 제 16 뷰 영상을 의미한다.In this case, 1, 2, 3, ..., and 16 shown in FIG. 35 indicate the first view image, the second view image, the third view image, ..., and the 16th view image, respectively.

도 32a, 도 32b, 도 33a, 도 33b, 도 34 및 도 35를 참조하면, 본 발명의 실시예에 따른 뷰 데이터 렌더링 기술을 적용하여 영역별로 인지되는 다수의 뷰를 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 데이터로 각각 치환한다. 즉, 일 예로 좌안의 경우에는 인지되는 다수의 뷰의 데이터들 중 어느 하나의 뷰 데이터로 치환하며, 우안의 경우에는 인지되는 다수의 뷰의 데이터들 중 좌안에서 치환된 뷰 데이터를 제외한 다른 하나의 뷰 데이터로 치환할 수 있다.Referring to FIGS. 32A, 32B, 33A, 33B, 34, and 35, by applying the view data rendering technique according to the embodiment of the present invention, disparity), respectively. In other words, for example, one of view data of a plurality of views recognized in the case of the left eye is replaced with one of view data in the right eye, and the other one of the plurality of view data recognized in the right eye, Can be replaced with view data.

일 예로 16개의 뷰를 이용하는 경우, 좌안의 16번째 뷰(도 34, 도 35에 도시된 16th view) 및 첫 번째 뷰(1st view)의 입력 데이터가 제 16 뷰 영상 및 제 1 뷰 영상에서 제 1 뷰 영상으로 변환된다.As an example the case of using the 16 views, 16th view of the left input data for and the first view (1 st view) (Fig. 34, the 16-th view shown in FIG. 35) is in claim 16, the view image and the first view image And converted into a first view image.

그리고, 좌, 우안의 2번째 뷰(2nd view) 및 우안의 3번째 뷰(3rd view)와 4번째 뷰(4th view)의 입력 데이터가 제 2 뷰 영상 및 제 3 뷰 영상과 제 4 뷰 영상에서 제 2 뷰 영상으로 변환된다.Then, the left and the second view of the right eye (2 nd view) and the third view of the right eye (3 rd view) and fourth views of input data (4 th view) and a second view image and the third-view image and the fourth The second view image is converted from the view image.

이때, 예로 든 제 1 뷰 영상과 제 2 뷰 영상은 양안 간격의 차이(disparity)를 갖는 영상을 의미하나, 깊이 조절을 위하여 그 이상 또는 그 이하의 차이를 갖는 뷰 영상도 가능하다.In this case, the first and second view images are images having a disparity of binocular disparity, but a view image having a difference of more than or equal to the disparity is also possible for the depth control.

이와 같이 변환된 뷰 영상을 입력할 경우 도 32a와 도 32b 및 도 33a와 도 33b와 같이 맵핑되며, 도시하진 않았지만 주변 뷰의 영상 또한 적절하게 변환시킬 수 있다. 이에 따라 크로스토크가 감소된다.When the converted view image is input, it is mapped as shown in FIGS. 32A and 32B, FIGS. 33A and 33B, and the image of the neighboring view is not properly shown. As a result, the crosstalk is reduced.

한편, 좌안과 우안에서 동일한 뷰를 인지하는 2D 영역을 완전히 제거하기 위해서 2D 영역에 해당하는 서브-픽셀의 뷰 영상만 제거할 수 있다. 일 예로, 2D 영역에 해당하는 서브-픽셀의 뷰에 블랙 데이터를 삽입하면, 좌안과 우안의 인지 서브-픽셀이 겹치는 부분이 제거된다.On the other hand, it is possible to remove only the view image of the sub-pixel corresponding to the 2D region in order to completely remove the 2D region recognizing the same view in the left eye and the right eye. For example, inserting black data into a view of a sub-pixel corresponding to a 2D region eliminates the overlap of the left eye and the perceived sub-pixels of the right eye.

도 36은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 다른 예를 보여주는 도면이다.36 is a diagram showing another example of converting input data through view data rendering.

이때, 도 36은 2D 영역에 해당하는 2번째 뷰(도 36에 도시된 2nd view)에 블랙 데이터를 삽입한 것을 제외하고는 전술한 도 34와 실질적으로 동일하다.In this case, Figure 36 is substantially the same as the FIG. 34 described above, except that insert the black data (the 2 nd view shown in Fig. 36), the second view corresponding to the 2D area.

그리고, 도 37은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.37 is a diagram showing examples of sub-pixels and views recognized in the left eye at the P2 position in the case of applying the view data rendering shown in Fig.

도 38은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.FIG. 38 is a view showing examples of sub-pixels and views recognized in the right eye at the P2 position in the case of applying the view data rendering shown in FIG.

도 36과 도 37 및 도 38을 참조하면, 본 발명의 실시예에 따른 뷰 데이터 렌더링 기술을 적용하여 영역별로 인지되는 다수의 뷰의 데이터들을 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 데이터로 각각 치환하는 동시에 2D 영역에 해당하는 뷰에는 블랙 데이터를 삽입한다.Referring to FIGS. 36, 37, and 38, the view data rendering technology according to the embodiment of the present invention is applied to the data of a plurality of views per area, and a view having disparity with respect to the left and right Data, and black data is inserted into a view corresponding to the 2D area.

즉, 일 예로 좌안의 경우에는 인지되는 다수의 뷰의 데이터들 중 어느 하나의 뷰 데이터로 치환하며, 우안의 경우에는 인지되는 다수의 뷰의 데이터들 중 좌안에서 치환된 뷰 데이터를 제외한 다른 하나의 뷰 데이터로 치환할 수 있다. 그리고, 이와 동시에 2D 영역에 해당하는 뷰에는 블랙 데이터를 삽입한다.In other words, for example, one of view data of a plurality of views recognized in the case of the left eye is replaced with one of view data in the right eye, and the other one of the plurality of view data recognized in the right eye, Can be replaced with view data. At the same time, black data is inserted into the view corresponding to the 2D area.

일 예로 16개의 뷰를 이용하는 경우, 좌안의 16번째 뷰(도 36에 도시된 16th view) 및 첫 번째 뷰(1st view)의 입력 데이터가 제 16 뷰 영상 및 제 1 뷰 영상에서 제 1 뷰 영상으로 변환된다.If the example using the 16 views, 16th view of the left eye (the 16-th view shown in Fig. 36) and the first view, the input data of the (1 st view) of claim 16, the view image and the first view in a first view image Image.

그리고, 우안의 3번째 뷰(3rd view) 및 4번째 뷰(4th view)의 입력 데이터가 제 3 뷰 영상 및 제 4 뷰 영상에서 제 2 뷰 영상으로 변환된다.Then, the input data of the third view (3 rd view) and the fourth view (4 th view) of the right eye are converted into the second view image from the third view image and the fourth view image.

이와 동시에 2D 영역에 해당하는 좌, 우안의 2번째 뷰(2nd view)의 입력 데이터는 블랙 데이터로 변환된다.At the same time, the input data of the second view (2 nd view) of the left and right eyes corresponding to the 2D area is converted into black data.

이때, 예로 든 제 1 뷰 영상과 제 2 뷰 영상은 양안 간격의 차이(disparity)를 갖는 영상을 의미하나, 깊이 조절을 위하여 그 이상 또는 그 이하의 차이를 갖는 뷰 영상도 가능하다.In this case, the first and second view images are images having a disparity of binocular disparity, but a view image having a difference of more than or equal to the disparity is also possible for the depth control.

이와 같이 변환된 뷰 영상을 입력할 경우 도 37 및 도 38과 같이 맵핑되어 좌안과 우안에서 인지되는 서브-픽셀의 겹치는 부분이 완전히 제거된다.When the converted view image is input, overlapping portions of the sub-pixels recognized in the left eye and the right eye are mapped as shown in FIG. 37 and FIG.

다만, 이 경우에는 휘도가 감소될 수 있으며, 이에 따라 2D 영역의 뷰에 블랙 데이터 대신에 인접한 뷰와 동일하거나 유사한 뷰 데이터를 입력할 수도 있다.However, in this case, the brightness may be reduced, so that the view data that is the same as or similar to the adjacent view instead of the black data may be input to the view of the 2D area.

이때, 2D 영역의 비율은 뷰 겹침의 수를 증가시킴으로써 줄일 수 있다.At this time, the ratio of the 2D region can be reduced by increasing the number of view overlaps.

이러한 본 발명에 따르면, 3D 시청영역이 확장되어 시청 자유도가 높아짐과 동시에 초점 거리와 배면거리의 설계 자유도가 높아진다. 이 경우 시청거리와 초점거리를 조절하기 위해 사용되는 갭 글라스(또는 갭 필름)를 제거할 수 있어 비용이 감소되는 효과를 제공한다.According to the present invention, the 3D viewing area is expanded to increase the degree of viewing freedom, and at the same time, the degree of freedom in designing the focal distance and the back distance can be increased. In this case, the gap glass (or the gap film) used for adjusting the viewing distance and the focal length can be removed, thereby providing a cost reduction effect.

이와 같이 시청자의 위치를 인식한 후에 시청자의 위치를 기반으로 시청자가 인지하는 서브-픽셀과 그 서브-픽셀에 대응되는 뷰, 그리고 영상패널을 기준으로 몇 개의 뷰가 시청자의 좌안과 우안에 인지되는 지를 전술한 수학식 등을 통해 연산할 수 있다.After recognizing the position of the viewer, a sub-pixel recognized by the viewer based on the position of the viewer, a view corresponding to the sub-pixel, and several views based on the image panel are recognized in the left and right eyes of the viewer Can be calculated through the above-described equations or the like.

또한, 2D 발생 영역을 좌표로 표현할 수 있어 이를 바탕으로 뷰 데이터 렌더링의 적용 여부 및 적용이 필요한 뷰를 선택적으로 적용할 수 있다.In addition, it is possible to express the 2D occurrence area by coordinates, and thus, it is possible to selectively apply the view that needs to apply view data rendering or apply it.

참고로, 시청거리 감지부에 의한 아이-트랙킹(eye tracking) 알고리즘은 다음과 같다. 본원 출원인은 대한민국 출원 10-2013-0038815 등을 통해 아이-트랙킹 알고리즘을 제안한 바 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.For reference, an eye tracking algorithm by the viewing distance detection unit is as follows. The applicant of the present application has proposed an eye-tracking algorithm through Korean Application No. 10-2013-0038815. However, the present invention is not limited thereto.

우선, 카메라를 통해 촬영된 입력 영상으로부터 사용자의 수 및 사용자의 얼굴을 검출한다. 예를 들면, 하르 분류기(Haar Classifier) 등과 같은 얼굴 검출 방법을 이용하여 입력 영상으로부터 사용자의 얼굴을 검출한다.First, the number of users and the user's face are detected from the input image captured through the camera. For example, a user's face is detected from an input image using a face detection method such as Haar Classifier.

이후, 검출된 사용자의 얼굴에서 눈 중심 좌표, 즉 좌안과 우안 사이의 중심 좌표를 검출한다. 예를 들면, AAM(Active Appearance Model) 등과 같은 눈 모델을 이용하여 좌안 및 우안과 같은 초기의 특징 점들을 선정한 다음, EBGM 모델 등을 통해 최종 특징점인 눈 중심 좌표를 검출한다.Then, the center coordinates of the eyes of the detected face of the user, that is, the center coordinates between the left eye and the right eye are detected. For example, eye feature models such as AAM (Active Appearance Model) are used to select initial feature points such as the left eye and right eye, and eye center coordinates, which are the final feature points, are detected through the EBGM model.

이후, 검출된 눈 중심 좌표를 이용하여 눈을 이용한 거리 모델에 적용하여 사용자의 눈 위치 정보를 산출한다. 사용자의 눈 위치 정보는 입체영상표시장치의 중심점을 기준으로 한 X, Y, Z 좌표 값으로 산출된다.Then, the eye position information of the user is calculated by applying the detected eye center coordinates to the distance model using the eyes. The user's eye position information is calculated as X, Y, Z coordinate values based on the center point of the stereoscopic image display device.

시청자의 좌안과 우안이 위치하는 시청영역의 위치 판단은 전술한 바와 같이 시청 거리 감지부에 의해 감지된 시청자 양안 위치 정보(좌표 값)와 룩업테이블에 저장된 시청영역 위치 정보(좌표 정보)를 비교하는 방법으로 판단할 수 있다. 이렇게 시청자의 양안이 위치하는 시청영역이 판단되면, 시청자의 양안이 위치하는 시청영역들 내에서 우안 또는 좌안의 위치와 그 시청영역들 내에서 보여지는 좌측과 우측 영상의 비율을 파악하여야 한다. 이와 관련된 상세한 설명은 기 출원된 대한민국 출원 10-2012-0108794를 참조할 수 있으며, 전술한 수학식들과 같이 수식으로 일반화할 수 있다.The determination of the position of the viewing area where the left and right eyes of the viewer are located is performed by comparing the viewer's binocular positional information (coordinate value) sensed by the viewing distance sensing unit with the viewing area positional information (coordinate information) stored in the look- It can be judged by the method. When the viewing area where the viewer's binocular is located is determined, the ratio of the position of the right eye or the left eye and the ratio of the left and right images in the viewing areas within the viewing areas where the viewer's binocular is located should be grasped. A detailed description thereof can be found in Korean Patent Application No. 10-2012-0108794 filed in the same year, and can be generalized by a formula as shown in the above-mentioned mathematical formulas.

상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.While a great many are described in the foregoing description, it should be construed as an example of preferred embodiments rather than limiting the scope of the invention. Therefore, the invention should not be construed as limited to the embodiments described, but should be determined by equivalents to the appended claims and the claims.

110 : 영상패널 120 : 렌티큘러 렌즈판
125 : 렌티큘러 렌즈 130 : 뷰잉 다이아몬드
110: image panel 120: lenticular lens plate
125: Lenticular lens 130: Viewing diamond

Claims (9)

m(m은 자연수)개의 서브-픽셀에 순차적으로 첫 번째 뷰 내지 m번째 뷰가 할당되어 멀티 뷰의 입력 데이터를 표시하는 영상패널;
상기 영상패널의 전면에 배치되며, 상기 입력 데이터의 광축을 분리하여 최적 시청거리에 제 1 뷰 영상 내지 제 K(K는 1≤K≤m을 만족하는 자연수) 뷰 영상이 표시되는 뷰잉 다이아몬드(viewing diamond)를 형성하는 3D 필터; 및
시청자의 위치 및 2D 영역에 해당하는 뷰를 연산하고, 이를 바탕으로 상기 뷰잉 다이아몬드를 상호 중첩시키는 타이밍 컨트롤러를 포함하는 무안경 입체영상표시장치.
an image panel for displaying input data of a multi-view in which first to m-th views are sequentially assigned to m (m is a natural number) sub-pixels sequentially;
Wherein a viewing angle of the first view image to a K (K is a natural number satisfying 1 &lt; K &lt; m) is displayed on an optimal viewing distance by separating an optical axis of the input data, diamond); And
And a timing controller for calculating a position of the viewer and a view corresponding to the 2D region and superimposing the viewing diamond on the basis of the calculated view.
제 1 항에 있어서, 상기 시청자의 위치가 상기 최적 시청거리의 N배에 해당하는 경우 상기 뷰잉 다이아몬드를 N번 이상 중첩시키는 것을 특징으로 하는 무안경 입체영상표시장치.The stereoscopic image display apparatus of claim 1, wherein when the position of the viewer corresponds to N times the optimal viewing distance, the viewing diamond is overlapped N times or more. 제 1 항에 있어서, 상기 타이밍 컨트롤러는 상기 시청자의 위치에 따라 시청자의 좌안과 우안이 인지하는 뷰 및 뷰의 수를 연산하는 것을 특징으로 하는 무안경 입체영상표시장치.The stereoscopic image display apparatus according to claim 1, wherein the timing controller calculates the number of views and views recognized by the viewer's left and right eyes according to the position of the viewer. 제 3 항에 있어서, 상기 연산된 뷰 및 뷰의 수를 바탕으로 뷰 데이터 렌더링 영역을 선정하는 것을 특징으로 하는 무안경 입체영상표시장치.The apparatus according to claim 3, wherein the view data rendering region is selected based on the number of the calculated views and views. 제 4 항에 있어서, 상기 선정된 뷰 데이터 렌더링 영역을 바탕으로 상기 뷰 영상을 상기 시청자의 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 영상으로 각각 치환하는 것을 특징으로 하는 무안경 입체영상표시장치.The method of claim 4, wherein the view image is replaced with a view image having disparity with respect to left and right eyes of the viewer based on the selected view data rendering region, Display device. 제 5 항에 있어서, 상기 좌안의 경우에는 인지되는 다수의 뷰 영상들 중 어느 하나의 뷰 영상으로 치환하며, 우안의 경우에는 인지되는 다수의 뷰 영상들 중 좌안에서 치환된 뷰 영상을 제외한 다른 하나의 뷰 영상으로 치환하는 것을 특징으로 하는 무안경 입체영상표시장치.6. The method according to claim 5, wherein one of the plurality of view images recognized in the case of the left eye is replaced with one of the plurality of view images, and the remaining one of the plurality of view images recognized in the right eye, Eye stereoscopic image display device. 제 1 항에 있어서, 상기 2D 영역은 eKsH(이때, e는 양안 간격을 의미하며, Ks 및 H는 각각 상기 최적 시청거리로부터 후방에 순서대로 형성되는 뷰잉 다이아몬드의 순서 및 상기 영상패널의 높이를 의미)와 같거나 큰 것을 특징으로 하는 무안경 입체영상표시장치.[2] The method of claim 1, wherein the 2D region is represented by eKsH (where e denotes a binocular interval, Ks and H denote the order of the viewing diamond formed in order from the optimum viewing distance, Eye stereoscopic image display device. 제 7 항에 있어서, 상기 2D 영역에 해당하는 서브-픽셀의 뷰에 블랙 데이터를 삽입하는 것을 특징으로 하는 무안경 입체영상표시장치.The apparatus according to claim 7, wherein black data is inserted into a view of a sub-pixel corresponding to the 2D region. 제 7 항에 있어서, 상기 2D 영역에 해당하는 서브-픽셀의 뷰에 인접한 뷰와 동일하거나 유사한 뷰 데이터를 입력하는 것을 특징으로 하는 무안경 입체영상표시장치.The apparatus according to claim 7, wherein view data identical or similar to a view adjacent to a view of a sub-pixel corresponding to the 2D region is input.
KR1020140191078A 2014-12-26 2014-12-26 Autostereoscopic 3d display device KR102279816B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140191078A KR102279816B1 (en) 2014-12-26 2014-12-26 Autostereoscopic 3d display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140191078A KR102279816B1 (en) 2014-12-26 2014-12-26 Autostereoscopic 3d display device

Publications (2)

Publication Number Publication Date
KR20160079555A true KR20160079555A (en) 2016-07-06
KR102279816B1 KR102279816B1 (en) 2021-07-21

Family

ID=56502494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140191078A KR102279816B1 (en) 2014-12-26 2014-12-26 Autostereoscopic 3d display device

Country Status (1)

Country Link
KR (1) KR102279816B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190078881A (en) * 2017-12-27 2019-07-05 엘지디스플레이 주식회사 Head up display device
US11051003B2 (en) 2017-09-12 2021-06-29 Samsung Electronics Co., Ltd. Image processing method and apparatus for autostereoscopic three-dimensional display
US11641455B2 (en) 2020-10-06 2023-05-02 Samsung Electronics Co., Ltd. Method and apparatus for measuring dynamic crosstalk

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100033107A (en) * 2008-09-19 2010-03-29 삼성전자주식회사 Apparatus for multiplexing 2 dimensional and 3 dimensional image and video
KR101296901B1 (en) * 2010-10-12 2013-08-14 엘지디스플레이 주식회사 3d image display device and driving method thereof
US20130321246A1 (en) * 2012-05-30 2013-12-05 Superd Co., Ltd. Stereoscopic display apparatus and adjustment method
KR101380517B1 (en) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 Multi-view autostereoscopic image display and method of controlling optimal viewing distance
KR101449748B1 (en) * 2011-08-18 2014-10-13 엘지디스플레이 주식회사 Display Apparatus For Displaying Three Dimensional Picture And Driving Method For The Same
EP2811746A1 (en) * 2012-02-02 2014-12-10 Korea Institute of Science and Technology Glasses-free 3d image display device for flattening field of view and minimizing dynamic crosstalk

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100033107A (en) * 2008-09-19 2010-03-29 삼성전자주식회사 Apparatus for multiplexing 2 dimensional and 3 dimensional image and video
KR101296901B1 (en) * 2010-10-12 2013-08-14 엘지디스플레이 주식회사 3d image display device and driving method thereof
KR101449748B1 (en) * 2011-08-18 2014-10-13 엘지디스플레이 주식회사 Display Apparatus For Displaying Three Dimensional Picture And Driving Method For The Same
EP2811746A1 (en) * 2012-02-02 2014-12-10 Korea Institute of Science and Technology Glasses-free 3d image display device for flattening field of view and minimizing dynamic crosstalk
US20130321246A1 (en) * 2012-05-30 2013-12-05 Superd Co., Ltd. Stereoscopic display apparatus and adjustment method
KR101380517B1 (en) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 Multi-view autostereoscopic image display and method of controlling optimal viewing distance

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11051003B2 (en) 2017-09-12 2021-06-29 Samsung Electronics Co., Ltd. Image processing method and apparatus for autostereoscopic three-dimensional display
KR20190078881A (en) * 2017-12-27 2019-07-05 엘지디스플레이 주식회사 Head up display device
US11641455B2 (en) 2020-10-06 2023-05-02 Samsung Electronics Co., Ltd. Method and apparatus for measuring dynamic crosstalk

Also Published As

Publication number Publication date
KR102279816B1 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
KR101777875B1 (en) Stereoscopic image display and method of adjusting stereoscopic image thereof
US9838674B2 (en) Multi-view autostereoscopic display and method for controlling optimal viewing distance thereof
KR102197382B1 (en) Bendable stereoscopic 3d display device
KR101380517B1 (en) Multi-view autostereoscopic image display and method of controlling optimal viewing distance
KR102284841B1 (en) Autostereoscopic 3d display device
US8743111B2 (en) Stereoscopic image display and method for driving the same
KR102218777B1 (en) Autostereoscopic 3d display device
KR20120119982A (en) 3d display apparatus and method thereof
US9509984B2 (en) Three dimensional image display method and device utilizing a two dimensional image signal at low-depth areas
KR20120069303A (en) Method of providing 3-dimensional image and apparatus of enabling the method
KR102279816B1 (en) Autostereoscopic 3d display device
KR101721103B1 (en) Stereoscopic 3d display device and method of driving the same
KR102233116B1 (en) Stereopsis image display device and method of driving the same
KR102334031B1 (en) Autostereoscopic 3d display device and driving method thereof
US9756321B2 (en) Three-dimensional image display device and method of displaying three dimensional image
KR101697591B1 (en) Stereoscopic 3d display device and method of driving the same
KR102189009B1 (en) Three Dimensional Image Display Device
KR20160024283A (en) Lenticular lens type stereoscopic 3d display device
KR102232462B1 (en) Autostereoscopic 3d display device
KR102293837B1 (en) 3D display device and driving method thereof
KR20140079532A (en) Three Dimensional Image Display Device
KR102143944B1 (en) Method of adjusting three-dimensional effect and stereoscopic image display using the same
KR20160080874A (en) Stereoscopic display device and method of displaying 3d image having goold quality
KR20160080875A (en) Stereoscopic display device and method of displaying 3d image having good quality to multi-user
KR20150034377A (en) Device and method of generating a new image for multi-view autostereoscopic image display

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant