KR102279816B1 - Autostereoscopic 3d display device - Google Patents

Autostereoscopic 3d display device Download PDF

Info

Publication number
KR102279816B1
KR102279816B1 KR1020140191078A KR20140191078A KR102279816B1 KR 102279816 B1 KR102279816 B1 KR 102279816B1 KR 1020140191078 A KR1020140191078 A KR 1020140191078A KR 20140191078 A KR20140191078 A KR 20140191078A KR 102279816 B1 KR102279816 B1 KR 102279816B1
Authority
KR
South Korea
Prior art keywords
view
image
viewer
viewing
views
Prior art date
Application number
KR1020140191078A
Other languages
Korean (ko)
Other versions
KR20160079555A (en
Inventor
안충환
이재우
정보균
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020140191078A priority Critical patent/KR102279816B1/en
Publication of KR20160079555A publication Critical patent/KR20160079555A/en
Application granted granted Critical
Publication of KR102279816B1 publication Critical patent/KR102279816B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

본 발명의 무안경 입체영상표시장치는 시청자 위치에 따라 영상패널의 뷰 데이터(view data)를 치환하여 어느 위치에서나 3D 영상을 시청하는 것을 특징으로 한다. 이를 위해 시청자 위치에 따라 좌, 우안이 인지하는 영상의 종류 및 수, 그리고 영상패널 상의 분포를 수식으로 일반화하여 분석한다.
이때, 본 발명은 뷰잉 다이아몬드(viewing diamond)를 겹쳐 3D 영역의 비율을 증가시키거나 2D 영역의 뷰에 블랙 데이터를 삽입함으로써 2D 영역을 줄이는 것을 특징으로 한다. 또한, 본 발명은 뷰 데이터 렌더링(view data rendering)을 통해 뷰 겹침에 따라 발생하는 크로스토크(crosstalk)를 제거하는 것을 특징으로 한다.
이와 같이 3D 시청영역의 확장으로 시청 자유도가 높아지며, 갭 글라스를 제거할 수 있어 비용이 감소되는 효과를 제공한다.
The glasses-free stereoscopic image display device of the present invention is characterized in that the 3D image is viewed at any position by substituting view data of the image panel according to the position of the viewer. To this end, the type and number of images perceived by the left and right eyes according to the viewer's position, and the distribution on the image panel are generalized into equations and analyzed.
In this case, the present invention is characterized in that the ratio of the 3D area is increased by overlapping the viewing diamonds or the 2D area is reduced by inserting black data into the view of the 2D area. In addition, the present invention is characterized in that crosstalk that occurs due to overlapping views is eliminated through view data rendering.
As described above, the degree of viewing freedom is increased by the expansion of the 3D viewing area, and the gap glass can be removed, thereby providing the effect of reducing the cost.

Description

무안경 입체영상표시장치{AUTOSTEREOSCOPIC 3D DISPLAY DEVICE}Glasses-free stereoscopic image display device {AUTOSTEREOSCOPIC 3D DISPLAY DEVICE}

본 발명은 입체영상표시장치에 관한 것으로, 보다 상세하게는 안경을 착용하지 않는 방식의 무안경 입체영상표시장치에 관한 것이다.The present invention relates to a stereoscopic image display device, and more particularly, to a glasses-free stereoscopic image display device in which no glasses are worn.

3D 디스플레이(display)란 간단히 정의를 내리자면 "인위적으로 3D 화면을 재생시켜 주는 시스템의 총체"라고 할 수 있다.A 3D display can be simply defined as "the totality of a system that artificially reproduces a 3D screen".

여기서, 시스템이란 3D로 보여질 수 있는 소프트웨어적인 기술과 그 소프트웨어적 기술로 만든 컨텐츠를 실제로 3D로 구현해내는 하드웨어를 동시에 포함한다. 소프트웨어 영역까지 포함시키는 이유는 3D 디스플레이 하드웨어의 경우 각각의 입체 구현방식마다 별도의 소프트웨어적 방식으로 구성된 컨텐츠가 따로 필요하기 때문이다.Here, the system includes a software technology that can be viewed in 3D and hardware that actually implements the contents made by the software technology in 3D. The reason for including the software area is that, in the case of 3D display hardware, content composed of a separate software method is required for each three-dimensional implementation method.

또한, 가상 3D 디스플레이(이하, 입체영상표시장치라 함)는 사람이 입체감을 느끼는 여러 요인 중 우리 눈이 가로방향으로 약 65mm 떨어져 있어서 나타나게 되는 양안시차(binocular disparity)를 이용하여 평면적인 디스플레이 하드웨어에서 말 그대로 가상적으로 입체감을 느낄 수 있게 하는 시스템의 총체이다. 다시 말해 우리의 눈은 양안시차 때문에 똑같은 사물을 바라보더라도 각각 약간은(정확히 말하면 좌우의 공간적 정보를 약간씩 나눠 가지고 있는) 다른 화상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면 뇌는 이를 정확히 서로 융합시킴으로써 우리가 입체감을 느낄 수 있게 되는데, 그것을 이용하여 2D 디스플레이 장치에서 좌우 화상 2개를 동시에 표시하여 각각의 눈으로 보내는 설계를 통해 가상적인 입체감을 만들어 내는 것이 바로 입체영상표시장치인 것이다.In addition, a virtual 3D display (hereinafter referred to as a stereoscopic image display device) uses binocular disparity, which appears because our eyes are about 65 mm apart in the horizontal direction, among various factors that a person feels a three-dimensional effect in a flat display hardware. In other words, it is the totality of the system that allows you to feel a virtual three-dimensional effect. In other words, even if our eyes look at the same object due to binocular disparity, each of us sees slightly different images (to be more precise, each has a small amount of left and right spatial information), and when these two images are transmitted to the brain through the retina, the brain By precisely fusion with each other, we can feel a three-dimensional effect, and it is a three-dimensional image display device that creates a virtual three-dimensional effect through the design of simultaneously displaying two left and right images on a 2D display device and sending them to each eye. .

이러한 입체영상표시장치에서 하나의 화면으로 두 채널의 화상을 나타내기 위해서는 대부분의 경우 하나의 화면에서 가로나 세로의 한쪽 방향으로 줄을 한 줄씩 바꿔가며 한 채널씩 출력하게 된다. 그렇게 동시에 두 채널의 화상이 하나의 디스플레이 장치에서 출력되면 하드웨어적 구조상 무안경 방식의 경우에는 오른쪽 화상은 그대로 오른쪽 눈으로 들어가고, 왼쪽 화상은 왼쪽 눈으로만 들어가게 된다. 또한, 안경을 착용하는 방식의 경우에는 각각의 방식에 맞는 특수한 안경을 통하여 오른쪽 화상은 왼쪽 눈이 볼 수 없게 가려주고, 왼쪽 화상은 오른쪽 눈이 볼 수 없게 각각 가려주는 방법을 사용한다.In order to display an image of two channels on a single screen in such a stereoscopic image display device, in most cases, one screen is outputted one by one while changing the lines in one of the horizontal or vertical directions on one screen. When images of two channels are simultaneously output from one display device, the right image enters the right eye and the left image enters only the left eye in the case of the glasses-free method due to the hardware structure. In addition, in the case of the method of wearing glasses, a method of covering the right image so that the left eye cannot see it and the left image so that the right eye cannot see it is used through special glasses suitable for each method.

이와 같이 사람이 입체감과 깊이감을 느끼는 요인으로 가장 중요하게는 두 눈 사이의 간격에 의한 양안시차를 들 수 있지만, 이외에도 심리적, 기억적 요인에도 깊은 관계가 있고, 이에 따라 입체 구현방식 역시 관찰자에게 어느 정도의 3차원 영상정보를 제공할 수 있는지를 기준으로 통상 부피표현방식(volumetric type), 3차원표현방식(holographic type), 입체감표현방식(stereoscopic type)으로 구분된다.As such, the most important factor for a person's sense of three-dimensionality and depth is binocular disparity due to the distance between the two eyes, but there is also a deep relationship to psychological and memory factors. It is usually divided into a volumetric type, a holographic type, and a stereoscopic type based on whether the 3D image information can be provided.

부피표현방식은 심리적인 요인과 흡입효과에 의해 깊이방향에 대한 원근감이 느껴지도록 하는 방법으로서, 투시도법, 중첩, 음영과 명암, 움직임 등을 계산에 의해 표시하는 3차원 컴퓨터그래픽, 또는 관찰자에게 시야각이 넓은 대화면을 제공하여 그 공간 내로 빨려 들어가는 것 같은 착시현상을 불러일으키는 이른바 아이맥스 영화 등에 응용되고 있다.The volume expression method is a method to feel a sense of perspective in the depth direction by psychological factors and suction effects, and is a 3D computer graphic that displays perspective, overlap, shading, contrast, and movement by calculation, or viewing angle to an observer. It is being applied to so-called IMAX movies, which provide an optical illusion of being sucked into the space by providing this wide screen.

가장 완전한 입체영상 구현기술이라 알려져 있는 3차원표현방식은 레이저광 재생 홀로그래피(holography) 내지 백색광 재생 홀로그래피로 대표될 수 있다.The three-dimensional expression method, which is known as the most complete stereoscopic image realization technology, can be represented by laser light reproduction holography or white light reproduction holography.

그리고, 입체감표현방식은 양안의 생리적 요인을 이용하여 입체감을 느끼는 방식으로, 전술한 바와 같이 약 65㎜ 떨어져 존재하는 인간의 좌, 우안에 시차정보가 포함된 평면의 연관 영상이 보일 경우에 뇌가 이들을 융합하는 과정에서 표시면 전후의 공간정보를 생성해 입체감을 느끼는 능력, 즉 입체 사진술(stereography)을 이용한 것이다. 이러한 입체감표현방식은 크게 안경을 착용하는 방식과 안경을 착용하지 않는 무안경 방식이 있다.And, the three-dimensional expression method is a method to feel a three-dimensional effect using physiological factors of both eyes, and as described above, when a flat related image including parallax information is seen in the left and right eyes of a human that are located about 65 mm apart, the brain In the process of merging them, spatial information before and after the display surface is generated and the ability to feel a three-dimensional effect, that is, stereoography is used. Such a three-dimensional expression method is largely divided into a method of wearing glasses and a method of not wearing glasses.

안경을 착용하지 않는 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈를 수직으로 배열한 렌티큘러(lenticular) 렌즈판을 영상패널 전방에 설치하는 렌티큘러 렌즈 방식과 패러렉스 배리어(parallax barrier) 방식이 있다.Representative examples of a method for not wearing glasses include a lenticular lens method in which a lenticular lens plate in which cylindrical lenses are vertically arranged in front of an image panel and a parallax barrier method.

도 1은 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치의 개념을 설명하기 위한 도면으로써, 렌즈의 배면거리(S)와 시청거리(v) 사이의 관계를 보여주고 있다.FIG. 1 is a diagram for explaining the concept of a general lenticular lens type stereoscopic image display device, and shows the relationship between the rear distance (S) of the lens and the viewing distance (v).

도 1을 참조하면, 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치는 상, 하부 기판과 그 사이에 액정이 충진된 액정패널(10), 액정패널(10)의 후면(後面)에 위치하여 광을 조사하는 백라이트 유닛(미도시) 및 입체영상의 구현을 위해 액정패널(10) 전면(前面)에 위치하는 렌티큘러 렌즈판(20)을 포함하여 이루어진다.Referring to FIG. 1 , a general lenticular lens type stereoscopic image display device is positioned on the upper and lower substrates, a liquid crystal panel 10 filled with liquid crystals therebetween, and the rear surface of the liquid crystal panel 10 to irradiate light. a backlight unit (not shown) and a lenticular lens plate 20 positioned on the front surface of the liquid crystal panel 10 to implement a stereoscopic image.

렌티큘러 렌즈판(20)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층으로 이루어진 다수의 렌티큘러 렌즈가 형성되어 이루어진다.The lenticular lens plate 20 is formed by forming a plurality of lenticular lenses whose upper surface is made of a convex lens-shaped material layer on a flat substrate.

이러한 렌티큘러 렌즈판(20)은 좌, 우안 영상을 나누어주는 역할을 수행하고 있으며, 렌티큘러 렌즈판(20)으로부터 최적 시청거리 v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(viewing diamond)(정시영역)(미도시)가 형성되어 있다.The lenticular lens plate 20 serves to divide the left and right eye images, and at the optimal viewing distance v from the lenticular lens plate 20, the images corresponding to the left and right eyes in the left and right eyes, respectively, normally reach diamonds. A viewing diamond (mechanical region) (not shown) in the form of a viewing diamond is formed.

뷰잉 다이아몬드의 하나의 폭은 시청자의 양안 간격 크기로 형성되는데, 이는 시청자의 좌안과 우안에 각각 시차가 있는 영상을 입력함으로써 입체영상으로 인식하게 하기 위함이다.One width of the viewing diamond is formed by the size of the distance between the viewers' eyes, and this is to recognize a stereoscopic image by inputting images with parallax to the left and right eyes of the viewer.

이때, 각 뷰잉 다이아몬드에는 대응되는 액정패널(10)의 서브-픽셀의 뷰 데이터, 즉 이미지가 형성된다.At this time, view data of a corresponding sub-pixel of the liquid crystal panel 10, that is, an image is formed in each viewing diamond.

뷰 데이터는 양안 간격의 기준만큼 떨어진 카메라에서 촬영된 영상을 의미한다. 이하에서는 뷰 데이터와 뷰 영상을 동일한 의미로 사용하고자 한다.The view data refers to an image captured by a camera that is spaced apart by the standard of the distance between the eyes. Hereinafter, view data and view image will be used with the same meaning.

이러한 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치는 액정패널(10)과 렌티큘러 렌즈판(20)이 기구물(미도시) 등에 의해 지지되어, 액정패널(10)과 렌티큘러 렌즈판(20) 사이가 소정 간격(배면 거리; S) 이격되어 있다.In such a general lenticular lens type stereoscopic image display device, the liquid crystal panel 10 and the lenticular lens plate 20 are supported by a mechanism (not shown), etc., and a predetermined distance between the liquid crystal panel 10 and the lenticular lens plate 20 is provided. (back distance; S) spaced apart.

이때, 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치에서는 배면 거리(S)를 일정하게 유지하기 위해 갭 글라스(26)가 삽입되어 있다.At this time, in a stereoscopic image display device of a general lenticular lens type, a gap glass 26 is inserted to keep the rear distance S constant.

전술한 바와 같이, 렌티큘러 렌즈 방식의 입체영상표시장치에서는 초기에 설계된 뷰-맵(view map)에 따라 형성되는 멀티 뷰(multi view) 방식으로 구현되기 때문에 시청자는 정해진 뷰의 영역으로 들어갈 때 3D 영상을 시청할 수 있다.As described above, since the lenticular lens type stereoscopic image display device is implemented in a multi-view method formed according to an initially designed view map, the viewer enters the 3D image area when entering a predetermined view area. can watch

본 출원인이 기 출원한 대한민국 출원 10-2012-0108794를 참조하면, 시청자의 좌안과 우안에 인지되는 영상에 따라 적절히 뷰 데이터를 치환함으로써, 3D 시청영역(viewing zone)의 확장 및 깊이 정도를 제어할 수 있다.Referring to the Korean application 10-2012-0108794 previously filed by the present applicant, it is possible to control the extent of the extension and depth of the 3D viewing zone by replacing the view data appropriately according to the images perceived by the viewer's left and right eyes. can

다만, 이 경우에는 시청자가 입체영상표시장치의 최적 시청거리에서 앞이나 뒤로 이동함에 따라 발생하는 2D 영역(즉, 2D 시청영역)의 처리에 대해 언급하고 있지 않다.However, in this case, the processing of the 2D area (ie, the 2D viewing area) generated as the viewer moves forward or backward at the optimal viewing distance of the stereoscopic image display device is not mentioned.

도 2a 및 도 2b는 2D 영역이 발생하는 예를 보여주는 도면이다.2A and 2B are diagrams illustrating an example in which a 2D region is generated.

이때, 도 2a 및 도 2b는 시청자가 최적 시청거리의 바로 뒤(제 1, 제 2 후방 시청영역)에 위치할 때 시청자의 좌, 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주고 있다. At this time, FIGS. 2A and 2B show sub-pixels and views recognized by the viewer's left and right eyes when the viewer is positioned immediately behind the optimal viewing distance (first and second rear viewing areas) as an example.

이때, 도 2a는 시청자의 좌안에서 인지되는 서브-픽셀과 뷰를 보여주며, 도 2b는 시청자의 우안에서 인지되는 서브-픽셀과 뷰를 예로 보여주고 있다.In this case, FIG. 2A shows sub-pixels and views perceived by the viewer's left eye, and FIG. 2B shows sub-pixels and views perceived by the viewer's right eye as examples.

도 2a 및 도 2b를 참조하면, 시청자의 좌안 및 우안이 제 1 후방 시청영역 및 제 2 후방 시청영역에 위치하면, 시청자의 좌안은 제 1 뷰 영상(1)을 표시하는 서브-픽셀들 및 제 3 뷰 영상(3)을 표시하는 서브-픽셀들을 함께 보고, 시청자의 우안은 제 3 뷰 영상(3)을 표시하는 서브-픽셀들을 보게 된다.2A and 2B , when the viewer's left and right eyes are located in the first rear viewing area and the second rear viewing area, the viewer's left eye includes sub-pixels displaying the first view image 1 and the second Viewing the sub-pixels displaying the three-view image 3 together, the viewer's right eye sees the sub-pixels displaying the third-view image 3 .

즉, 시청자의 좌안 및 우안이 제 1 후방 시청영역 및 제 2 후방 시청영역에 위치하면 시청자는 영상패널의 일부에서 2D 영역을 느끼게 된다.That is, when the viewer's left and right eyes are located in the first rear viewing area and the second rear viewing area, the viewer feels the 2D area in a part of the image panel.

본 발명은 상기한 문제를 해결하기 위한 것으로, 시청자 위치에 따라 영상패널의 뷰 데이터를 치환함으로써 2D 시청영역 및 역입체시 영역을 제거하여, 어느 위치에서나 3D 영상을 시청할 수 있는 무안경 입체영상표시장치를 제공하는데 목적이 있다.The present invention is to solve the above problem, and by replacing the view data of the image panel according to the position of the viewer, the 2D viewing area and the inverse stereoscopic viewing area are removed, so that the 3D image can be viewed from any position. The purpose is to provide a device.

기타, 본 발명의 다른 목적 및 특징들은 후술되는 발명의 구성 및 특허청구범위에서 설명될 것이다.In addition, other objects and features of the present invention will be described in the following description of the invention and claims.

상기한 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 시청자 위치에 따라 영상패널의 뷰 데이터를 치환하고, 뷰잉 다이아몬드(viewing diamond)를 겹쳐 3D 영역의 비율을 증가시키거나 2D 영역의 뷰에 블랙 데이터를 삽입하는 것을 특징으로 한다.In order to achieve the above object, the glasses-free stereoscopic image display device according to an embodiment of the present invention replaces the view data of the image panel according to the position of the viewer, and increases the ratio of the 3D area by overlapping the viewing diamonds. It is characterized by inserting black data into the view of the 2D area.

또한, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 뷰 데이터 렌더링(view data rendering)을 통해 뷰 겹침에 따라 발생하는 크로스토크를 제거하는 것을 특징으로 한다.In addition, the glasses-free stereoscopic image display device according to an embodiment of the present invention is characterized in that crosstalk generated due to overlapping views is eliminated through view data rendering.

이를 위해 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 m(m은 자연수)개의 서브-픽셀에 순차적으로 첫 번째 뷰 내지 m번째 뷰가 할당되어 멀티 뷰의 입력 데이터를 표시하는 영상패널, 영상패널의 전면에 배치되며, 입력 데이터의 광축을 분리하여 최적 시청거리에 제 1 뷰 영상 내지 제 K(K는 1≤K≤m을 만족하는 자연수) 뷰 영상이 표시되는 뷰잉 다이아몬드를 형성하는 3D 필터 및 시청자의 위치 및 2D 영역에 해당하는 뷰를 연산하고, 이를 바탕으로 뷰잉 다이아몬드를 상호 중첩시키는 타이밍 컨트롤러를 포함하여 구성할 수 있다.To this end, in the autostereoscopic 3D display device according to an embodiment of the present invention, the first view to the mth view are sequentially allocated to m (m is a natural number) sub-pixel image panel to display input data of multi-views. , disposed in front of the image panel, separating the optical axis of the input data to form a viewing diamond in which the first view image to the Kth view image (K is a natural number satisfying 1≤K≤m) is displayed at the optimal viewing distance A timing controller that calculates a view corresponding to a 3D filter and a viewer's position and a 2D region, and overlaps the viewing diamonds based on this, may be included.

이때, 시청자의 위치가 최적 시청거리의 N배에 해당하는 경우 뷰잉 다이아몬드를 N번 이상 중첩시킬 수 있다.In this case, if the viewer's position corresponds to N times the optimal viewing distance, the viewing diamond may be superimposed N or more times.

타이밍 컨트롤러는 시청자의 위치에 따라 시청자의 좌안과 우안이 인지하는 뷰 및 뷰의 수를 연산할 수 있다.The timing controller may calculate the views and the number of views perceived by the viewer's left and right eyes according to the viewer's position.

이때, 연산된 뷰 및 뷰의 수를 바탕으로 뷰 데이터 렌더링 영역을 선정할 수 있다.In this case, the view data rendering area may be selected based on the calculated views and the number of views.

이때, 선정된 뷰 데이터 렌더링 영역을 바탕으로 뷰 영상을 시청자의 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 영상으로 각각 치환할 수 있다.In this case, the view image may be replaced with one view image having a disparity for the viewer's left and right eyes, respectively, based on the selected view data rendering area.

이때, 일 예로 좌안의 경우에는 인지되는 다수의 뷰 영상들 중 어느 하나의 뷰 영상으로 치환하며, 우안의 경우에는 인지되는 다수의 뷰 영상들 중 좌안에서 치환된 뷰 영상을 제외한 다른 하나의 뷰 영상으로 치환할 수 있다.In this case, for example, in the case of the left eye, any one view image among the plurality of recognized view images is replaced, and in the case of the right eye, another view image other than the view image replaced by the left eye among the plurality of view images recognized. can be replaced with

상술한 바와 같이, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 3D 시청영역이 확장되어 시청 자유도가 높아지며, 초점 거리와 배면거리의 설계 자유도가 강화되는 효과를 제공한다.As described above, the glasses-free stereoscopic image display device according to an embodiment of the present invention provides the effect of increasing the viewing freedom by expanding the 3D viewing area, and enhancing the design freedom of the focal length and the rear distance.

또한, 갭 글라스를 제거할 수 있어 비용이 감소되는 효과를 제공한다.In addition, it is possible to remove the gap glass provides an effect of reducing the cost.

도 1은 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치의 개념을 설명하기 위한 도면.
도 2a 및 도 2b는 2D 영역이 발생하는 예를 보여주는 도면.
도 3은 본 발명의 실시예에 따른 무안경 입체영상표시장치의 구성을 개략적으로 보여주는 블록도.
도 4는 본 발명의 실시예에 따른 무안경 입체영상표시장치를 개략적으로 보여주는 사시도.
도 5는 무안경 입체영상표시장치에 있어, 시청영역(viewing zone)을 설명하기 위한 예시도.
도 6은 뷰잉 다이아몬드(viewing diamond)를 XZ-평면에 투사시켜 보여주는 도면.
도 7a 및 도 7b는 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 8은 최적 시청거리의 2배 거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 9는 최적 시청거리를 포함하는 전 영역에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 10은 최적 시청거리의 k배의 시청거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 11은 XZ-평면에서의 뷰잉 다이아몬드 셀(cell)을 예로 들어 보여주는 도면.
도 12는 P1 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면.
도 13a 및 도 13b는 P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 14는 P1 위치에서 2D, 3D 영역을 보여주는 도면.
도 15는 P2 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면.
도 16a 및 도 16b는 P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 17은 P2 위치에서 2D, 3D 영역을 보여주는 도면.
도 18은 P2 위치에서 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면.
도 19a 및 도 19b는 P3 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 20은 P3 위치에서 2D, 3D 영역을 보여주는 도면.
도 21a 및 도 21b는 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 22a 및 도 22b는 최적 시청거리의 2배 이상의 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 23은 최적 시청거리의 2배가 넘는 시청거리에서, 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면.
도 24a 및 도 24b는 시청자의 위치에 따른 멀티 뷰 영상의 시청영역을 예로 들어 보여주는 도면.
도 25는 2중첩 구조에 있어, P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 26은 2중첩 구조에 있어, P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 27은 2중첩 구조에 있어, P2 위치에서 2D, 3D 영역을 보여주는 도면.
도 28은 본 발명의 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이 및 렌티큘러 렌즈 배치를 예로 들어 보여주는 도면.
도 29a 및 도 29b는 P1 위치에서 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 30a 및 도 30b는 P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 31a 및 도 31b는 P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 32a 및 도 32b는 뷰 데이터 렌더링(view data rendering)을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 33a 및 도 33b는 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 34 및 도 35는 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면.
도 36은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 다른 예를 보여주는 도면.
도 37은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 38은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
1 is a view for explaining the concept of a stereoscopic image display device of a general lenticular lens type.
2A and 2B are views showing an example in which a 2D region is generated;
3 is a block diagram schematically showing the configuration of an autostereoscopic image display device according to an embodiment of the present invention.
4 is a perspective view schematically showing an autostereoscopic image display device according to an embodiment of the present invention;
5 is an exemplary view for explaining a viewing zone in the glasses-free stereoscopic image display device.
6 is a view showing a viewing diamond projected on the XZ-plane.
7A and 7B are views showing the viewing diamond coordinates as an example;
Fig. 8 is a view showing the viewing diamond coordinates in the XZ-plane as an example at a distance of twice the optimal viewing distance;
9 is a view showing, for example, the viewing diamond coordinates in the XZ-plane in the entire area including the optimal viewing distance.
FIG. 10 is a view showing, as an example, viewing diamond coordinates in the XZ-plane at a viewing distance k times the optimal viewing distance.
Fig. 11 shows by way of example a viewing diamond cell in the XZ-plane;
12 is a view showing, as an example, the coordinates of the viewing area including the position of both eyes in the XZ-plane at the position P1;
13A and 13B are views illustrating views perceived by left and right eyes of a viewer at a position P1 as an example;
Fig. 14 shows the 2D and 3D regions at the P1 position;
Fig. 15 is a view showing, as an example, the coordinates of the viewing area including the positions of both eyes in the XZ-plane at the position P2;
16A and 16B are views illustrating views perceived by the viewer's left and right eyes at a position P2 as an example;
Fig. 17 shows the 2D and 3D regions at the P2 position.
18 is a view showing, for example, the position of both eyes applied to the viewing diamond at the position P2.
19A and 19B are views illustrating views perceived from left and right eyes of a viewer at a position P3 as an example;
Fig. 20 is a diagram showing 2D and 3D regions at the P3 position;
21A and 21B are views illustrating views perceived from the left and right eyes of a viewer at a position Pj as an example;
22A and 22B are views illustrating views perceived by the viewer's left and right eyes at a position Pj that is twice or more of an optimal viewing distance.
23 is a view showing, as an example, the positions of both eyes applied to the viewing diamond at a viewing distance that is more than twice the optimal viewing distance.
24A and 24B are views illustrating a viewing area of a multi-view image according to a viewer's position as an example;
25 is a view showing, as an example, views recognized from the left and right eyes of a viewer at a position P1 in a two-layered structure;
26 is a view showing, as an example, views recognized by a viewer's left and right eyes at a position P2 in a two-layered structure;
Fig. 27 is a diagram showing 2D and 3D regions at a P2 position in a two-layered structure;
28 is a view illustrating an arrangement of a pixel array and a lenticular lens in which a view-map is written in the autostereoscopic image display device according to an embodiment of the present invention.
29A and 29B are views by way of example showing sub-pixels and views perceived in the left and right eyes at the P1 position;
Figures 30a and 30b are views by way of example showing sub-pixels and views perceived in the left eye at position P2;
31A and 31B show by way of example sub-pixels and views perceived in the right eye at position P2;
32A and 32B are diagrams showing sub-pixels and views recognized from the left eye at a P2 position as an example when view data rendering is applied;
33A and 33B are diagrams showing sub-pixels and views recognized by the right eye at the P2 position as an example in the case of applying view data rendering;
34 and 35 are diagrams showing examples of converting input data through view data rendering;
Fig. 36 is a diagram showing another example of transforming input data through view data rendering;
FIG. 37 is a view showing sub-pixels and views recognized in the left eye at a position P2 as an example in the case of applying the view data rendering shown in FIG. 36; FIG.
FIG. 38 is a view showing sub-pixels and views recognized by the right eye at the P2 position as an example in the case of applying the view data rendering shown in FIG. 36; FIG.

이하, 첨부한 도면을 참조하여 본 발명에 따른 무안경 입체영상표시장치의 바람직한 실시예를 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, with reference to the accompanying drawings, a preferred embodiment of the glasses-free stereoscopic image display device according to the present invention will be described in detail so that a person of ordinary skill in the art can easily implement it.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 도면에서 층 및 영역들의 크기 및 상대적인 크기는 설명의 명료성을 위해 과장될 수 있다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout. The sizes and relative sizes of layers and regions in the drawings may be exaggerated for clarity of description.

소자(element) 또는 층이 다른 소자 또는 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 소자 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다. 반면, 소자가 "직접 위(directly on)" 또는 "바로 위"로 지칭되는 것은 중간에 다른 소자 또는 층을 개재하지 않는 것을 나타낸다.Reference to an element or layer to another element or “on” or “on” includes not only directly on the other element or layer, but also with other layers or other elements interposed therebetween. do. On the other hand, reference to an element "directly on" or "directly on" indicates that there are no intervening elements or layers.

공간적으로 상대적인 용어인 "아래(below, beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 소자 또는 구성 요소들과 다른 소자 또는 구성 요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 소자의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들면, 도면에 도시되어 있는 소자를 뒤집을 경우, 다른 소자의 "아래(below)" 또는 "아래(beneath)"로 기술된 소자는 다른 소자의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다.The spatially relative terms "below, beneath", "lower", "above", "upper", etc. are one element or component as shown in the drawings. and can be used to easily describe the correlation with other devices or components. Spatially relative terms should be understood as terms including different orientations of the device during use or operation in addition to the orientation shown in the drawings. For example, if an element shown in the figures is turned over, an element described as "beneath" or "beneath" another element may be placed "above" the other element. Accordingly, the exemplary term “below” may include both directions below and above.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 따라서 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments, and thus is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprise” and/or “comprising” refers to the presence of one or more other components, steps, operations and/or elements mentioned. or addition is not excluded.

도 3은 본 발명의 실시예에 따른 무안경 입체영상표시장치의 구성을 개략적으로 보여주는 블록도이다.3 is a block diagram schematically showing the configuration of an autostereoscopic image display device according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에 따른 무안경 입체영상표시장치는 크게 영상패널(110), 영상패널 구동부(111, 112), 3D 필터(120), 3D 필터 구동부(미도시), 타이밍 컨트롤러(113) 등을 포함하여 구성될 수 있다.3, the glasses-free stereoscopic image display device according to the embodiment of the present invention is largely an image panel 110, image panel drivers 111 and 112, 3D filter 120, 3D filter driver (not shown), The timing controller 113 may be included.

본 발명의 실시예에 따른 입체영상표시장치는 액정표시장치(Liquid Crystal Display; LCD), 유기발광표시장치(Organic Light Emitting Diode Display; OLED), 전계발광표시장치(Field Emission Display; FED), 플라즈마영상표시장치(Plasma Display Panel; PDP), 전기발광표시장치(Electroluminescent Display; EL) 등의 평판표시소자로 구현될 수 있다. 본 발명은 아래의 실시예에서 영상패널(110)을 액정표시장치로 구성한 경우를 예시하였지만, 본 발명이 이에 한정되는 것은 아니다.A stereoscopic image display device according to an embodiment of the present invention includes a liquid crystal display (LCD), an organic light emitting diode display (OLED), a field emission display (FED), and a plasma. It may be implemented as a flat panel display device such as a plasma display panel (PDP) or an electroluminescent display (EL). Although the present invention exemplifies the case in which the image panel 110 is configured as a liquid crystal display in the following embodiment, the present invention is not limited thereto.

이때, 영상패널(110)에는 적, 녹 및 청색을 표시하는 다수의 서브-픽셀들이 형성되어 있으며, 이러한 서브-픽셀들은 3D 필터(120)와 작용하여 입체영상을 표시하기 위해, 좌안영상과 우안영상을 표시하는 좌안픽셀과 우안픽셀이 구분되어 있다.At this time, a plurality of sub-pixels displaying red, green, and blue are formed in the image panel 110 , and these sub-pixels work with the 3D filter 120 to display a stereoscopic image, a left eye image and a right eye image. A left-eye pixel and a right-eye pixel for displaying an image are separated.

일 예로, 영상패널(110)을 액정표시장치로 구성하는 경우, 본 발명은 액정 모드, 즉 트위스티드 네마틱(Twisted Nematic; TN) 모드, 인-플레인 스위칭(In Plane Switching; IPS) 모드, 프린지-필드 스위칭(Fringe Field Switching; FFS) 모드 및 수직배향(Vertical Alignment; VA) 모드에 상관없이 적용 가능하다.For example, when the image panel 110 is configured as a liquid crystal display device, the present invention provides a liquid crystal mode, that is, a twisted nematic (TN) mode, an in-plane switching (IPS) mode, a fringe- It is applicable regardless of the field switching (Fringe Field Switching; FFS) mode and the vertical alignment (VA) mode.

이때, 도시하지 않았지만, 영상패널(110)은 크게 컬러필터(color filter) 기판과 어레이(array) 기판 및 컬러필터 기판과 어레이 기판 사이에 형성된 액정층으로 구성될 수 있다.At this time, although not shown, the image panel 110 may be largely composed of a color filter substrate, an array substrate, and a liquid crystal layer formed between the color filter substrate and the array substrate.

컬러필터 기판은 적, 녹 및 청의 색상을 구현하는 다수의 서브-컬러필터로 구성된 컬러필터와 서브-컬러필터 사이를 구분하고 액정층을 투과하는 광을 차단하는 블랙매트릭스(Black Matrix; BM), 그리고 액정층에 전압을 인가하는 투명한 공통전극으로 이루어질 수 있다.The color filter substrate is a color filter composed of a plurality of sub-color filters that implement red, green, and blue colors and a black matrix (BM) that separates the sub-color filters and blocks the light passing through the liquid crystal layer; And it may be formed of a transparent common electrode for applying a voltage to the liquid crystal layer.

어레이 기판은 종횡으로 배열되어 다수의 화소영역을 정의하는 다수의 게이트라인(G1, G2, G3,..., Gn)과 데이터라인(D1, D2, D3,..., Dm), 게이트라인(G1, G2, G3,..., Gn)과 데이터라인(D1, D2, D3,..., Dm)의 교차영역에 형성된 스위칭소자인 박막 트랜지스터 및 화소영역에 형성된 화소전극으로 이루어져 있다.The array substrate includes a plurality of gate lines (G1, G2, G3, ..., Gn), data lines (D1, D2, D3, ..., Dm), and gate lines arranged vertically and horizontally to define a plurality of pixel regions. It consists of a thin film transistor, which is a switching element, formed at the intersection of (G1, G2, G3,..., Gn) and the data lines D1, D2, D3,..., Dm, and a pixel electrode formed in the pixel area.

박막 트랜지스터는 게이트라인(G1, G2, G3,..., Gn)에 연결된 게이트전극, 데이터라인(D1, D2, D3,..., Dm)에 연결된 소오스전극 및 화소전극에 전기적으로 접속된 드레인전극으로 구성되어 있다. 또한, 박막 트랜지스터는 게이트전극과 소오스/드레인전극 사이의 절연을 위한 게이트절연막 및 게이트전극에 공급되는 게이트 전압에 의해 소오스전극과 드레인전극간에 전도채널(conductive channel)을 형성하는 액티브층을 포함한다.The thin film transistor is electrically connected to a gate electrode connected to the gate lines G1, G2, G3,..., Gn, a source electrode connected to the data lines D1, D2, D3,..., Dm, and a pixel electrode. It consists of a drain electrode. In addition, the thin film transistor includes a gate insulating film for insulation between the gate electrode and the source/drain electrodes, and an active layer that forms a conductive channel between the source electrode and the drain electrode by a gate voltage supplied to the gate electrode.

컬러필터 기판의 외면에는 상부 편광판이 부착되고, 어레이 기판의 외면에는 하부 편광판이 부착된다. 상부 편광판의 광투과축과 하부 편광판의 광투과축은 서로 직교되도록 형성될 수 있다. 그리고, 컬러필터 기판과 어레이 기판의 내면에는 액정층의 프리틸트 각(pre-tilt angle)을 설정하기 위한 배향막이 형성되는 한편, 컬러필터 기판과 어레이 기판 사이에는 영상패널(110)의 셀 갭(cell gap)을 유지하기 위한 스페이서가 형성된다.An upper polarizing plate is attached to the outer surface of the color filter substrate, and a lower polarizing plate is attached to the outer surface of the array substrate. The light transmission axis of the upper polarizing plate and the light transmission axis of the lower polarizing plate may be formed to be perpendicular to each other. In addition, an alignment layer for setting a pre-tilt angle of the liquid crystal layer is formed on the inner surfaces of the color filter substrate and the array substrate, while a cell gap of the image panel 110 is formed between the color filter substrate and the array substrate. A spacer for maintaining the cell gap) is formed.

이와 같이 구성되는 영상패널(110)은 타이밍 컨트롤러(113)의 제어 하에 영상을 표시한다.The image panel 110 configured in this way displays an image under the control of the timing controller 113 .

영상패널(110)은 타이밍 컨트롤러(113)의 제어 하에 2D 모드에서 2D 영상을 표시하고, 3D 모드에서 멀티 뷰 영상을 표시할 수 있다.The image panel 110 may display a 2D image in a 2D mode and a multi-view image in a 3D mode under the control of the timing controller 113 .

입체영상의 뷰는 시청자의 양안 간격만큼 카메라들을 이격하고 객체에 대한 이미지를 촬영하여 생성할 수 있다. 일 예로, 9대의 카메라를 이용하여 객체를 촬영하는 경우, 영상패널(110)은 9뷰의 입체영상을 표시할 수 있다.The view of the stereoscopic image may be generated by separating the cameras by the distance between both eyes of the viewer and photographing an image of the object. For example, when an object is photographed using nine cameras, the image panel 110 may display a stereoscopic image of nine views.

영상패널 구동부(111, 112)는 영상패널(110)의 데이터라인(D1, D2, D3,..., Dm)에 2D/3D 영상의 데이터전압들을 공급하기 위한 데이터 구동부(111)와 영상패널(110)의 게이트라인(G1, G2, G3,..., Gn)들에 스캔 펄스(또는 게이트 펄스)를 순차적으로 공급하기 위한 게이트 구동부(112)를 포함한다. 영상패널 구동부(111, 112)는 3D 모드에서 멀티 뷰 영상 데이터 포맷의 데이터로 입력된 좌안 및 우안 영상 데이터를 영상패널(110)의 서브-픽셀들에 공간적으로 분산하여 기입한다.The image panel drivers 111 and 112 include the data driver 111 for supplying data voltages of 2D/3D images to the data lines D1, D2, D3, ..., Dm of the image panel 110 and the image panel. and a gate driver 112 for sequentially supplying scan pulses (or gate pulses) to the gate lines G1 , G2 , G3 , ..., Gn of 110 . The image panel drivers 111 and 112 spatially disperse and write the left-eye and right-eye image data input as data of the multi-view image data format in the sub-pixels of the image panel 110 in the 3D mode.

이때, 도시하지 않았지만, 호스트 시스템(115)에 연결되는 시청거리 감지부는 센서를 이용하여 시청자의 거리, 시청자의 양안 위치를 감지하여 그 결과를 디지털 데이터로 변화하여 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 공급한다. 센서는 자외선 센서나 고주파 센서 등이 적용될 수 있다.At this time, although not shown, the viewing distance detecting unit connected to the host system 115 detects the viewer's distance and the viewer's binocular position using a sensor, and converts the result into digital data to convert the result into digital data to the host system 115 or timing controller ( 113) is supplied. As the sensor, an ultraviolet sensor or a high-frequency sensor may be applied.

시청거리 감지부는 2개의 센서 출력을 삼각 측량법으로 분석하여 영상패널(110)과 시청자 사이의 거리를 계산하여 그 결과를 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 전송할 수 있다. 시청거리 감지부는 공지된 얼굴 인식 알고리즘을 통해 센서 출력을 분석하여 시청자의 양안 위치를 감지하고, 그 결과를 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 전송할 수 있다.The viewing distance detecting unit may analyze the output of the two sensors by triangulation, calculate the distance between the image panel 110 and the viewer, and transmit the result to the host system 115 or the timing controller 113 . The viewing distance detector may detect the position of both eyes of the viewer by analyzing the sensor output through a known face recognition algorithm, and transmit the result to the host system 115 or the timing controller 113 .

타이밍 컨트롤러(113)는 데이터 인에이블 신호(Data Enable, DE), 도트 클럭(CLK) 등의 타이밍신호를 입력받아 게이트 구동부(111)와 데이터 구동부(112)의 동작 타이밍을 제어하기 위한 제어신호들(GCS, DCS)을 발생한다.The timing controller 113 receives timing signals such as a data enable signal DE and a dot clock CLK to control operation timings of the gate driver 111 and the data driver 112 . (GCS, DCS).

즉, 타이밍 컨트롤러(113)는 멀티 뷰 영상 변환부(114)(또는 호스트 시스템(115))로부터 입력받은 영상 데이터와 타이밍 신호들에 기초하여 소정의 프레임 주파수로 영상패널(110)을 구동시키고, 소정의 프레임 주파수를 기준으로 게이트 구동부 제어신호(GCS), 데이터 구동부 제어신호(DCS)를 발생할 수 있다. 타이밍 컨트롤러(113)는 게이트 구동부 제어신호(GCS)를 게이트 구동부(111)로 공급하고, 영상 데이터(R, G, B)와 데이터 구동부 제어신호(DCS)를 데이터 구동부(112)로 공급한다.That is, the timing controller 113 drives the image panel 110 at a predetermined frame frequency based on the image data and timing signals input from the multi-view image converter 114 (or the host system 115), A gate driver control signal GCS and a data driver control signal DCS may be generated based on a predetermined frame frequency. The timing controller 113 supplies the gate driver control signal GCS to the gate driver 111 , and supplies image data R, G, and B and the data driver control signal DCS to the data driver 112 .

게이트 구동부(111)를 제어하기 위한 게이트 구동부 제어신호(GCS)는 게이트 스타트 펄스(Gate Start Pulse), 게이트 쉬프트 클럭(Gate Shift Clock) 및 게이트 출력 인에이블 신호(Gate Output Enable) 등을 포함한다. 게이트 스타트 펄스는 첫 번째 게이트 펄스의 타이밍을 제어한다. 게이트 쉬프트 클럭은 게이트 스타트 펄스를 쉬프트 시키기 위한 클럭신호이다. 게이트 출력 인에이블 신호는 게이트 구동부(111)의 출력 타이밍을 제어한다.The gate driver control signal GCS for controlling the gate driver 111 includes a gate start pulse, a gate shift clock, and a gate output enable signal. The gate start pulse controls the timing of the first gate pulse. The gate shift clock is a clock signal for shifting the gate start pulse. The gate output enable signal controls the output timing of the gate driver 111 .

데이터 구동부(112)를 제어하기 위한 데이터 구동부 제어신호(DCS)는 소스 스타트 펄스(Source Start Pulse), 소스 샘플링 클럭(Source Sampling Clock), 소스 출력 인에이블 신호(Source Output Enable), 극성제어신호 등을 포함한다. 소스 스타트 펄스는 데이터 구동부(112)의 데이터 샘플링 시작 시점을 제어한다. 소스 샘플링 클럭은 라이징 또는 폴링 에지에 기준 하여 데이터 구동부(112)의 샘플링 동작을 제어하는 클럭신호이다. 데이터 구동부(112)에 입력될 디지털 비디오 데이터가 mini LVDS(Low Voltage Differential Signaling) 인터페이스 규격으로 전송된다면, 소스 스타트 펄스와 소스 샘플링 클럭은 생략될 수 있다. 극성제어신호는 데이터 구동부(112)로부터 출력되는 데이터전압의 극성을 L(L은 자연수) 수평기간 주기로 반전시킨다. 소스 출력 인에이블 신호는 데이터 구동부(112)의 출력 타이밍을 제어한다.The data driver control signal DCS for controlling the data driver 112 includes a source start pulse, a source sampling clock, a source output enable signal, a polarity control signal, and the like. includes The source start pulse controls the data sampling start time of the data driver 112 . The source sampling clock is a clock signal that controls the sampling operation of the data driver 112 based on a rising or falling edge. If digital video data to be input to the data driver 112 is transmitted in the mini LVDS (Low Voltage Differential Signaling) interface standard, the source start pulse and the source sampling clock may be omitted. The polarity control signal inverts the polarity of the data voltage output from the data driver 112 in L (L is a natural number) horizontal period period. The source output enable signal controls the output timing of the data driver 112 .

데이터 구동부(112)는 다수의 소스 드라이브 IC를 포함한다. 소스 드라이브 IC들은 타이밍 컨트롤러(113)로부터 입력되는 영상 데이터(R, G, B)를 정극성/부극성 감마보상전압으로 변환하여 정극성/부극성 아날로그 데이터전압들을 발생한다. 소스 드라이브 IC들로부터 출력되는 정극성/부극성 아날로그 데이터전압들은 영상패널(110)의 데이터라인(D1, D2, D3,..., Dm)들에 공급된다.The data driver 112 includes a plurality of source drive ICs. The source drive ICs convert the image data R, G, and B input from the timing controller 113 into positive/negative gamma compensation voltages to generate positive/negative analog data voltages. The positive/negative analog data voltages output from the source drive ICs are supplied to the data lines D1 , D2 , D3 , ..., Dm of the image panel 110 .

게이트 구동부(111)는 하나 이상의 게이트 드라이브 IC를 포함한다. 게이트 구동부(111)는 쉬프트 레지스터, 쉬프트 레지스터의 출력신호를 액정 셀의 TFT 구동에 적합한 스윙 폭으로 변환하기 위한 레벨 쉬프터 및 출력 버퍼 등을 포함한다. 게이트 구동부(111)는 타이밍 컨트롤러(113)의 제어 하에 데이터 전압에 동기되는 게이트 펄스를 영상패널(110)의 게이트라인(G1, G2, G3,..., Gn)들에 순차적으로 공급한다.The gate driver 111 includes one or more gate drive ICs. The gate driver 111 includes a shift register, a level shifter for converting an output signal of the shift register to a swing width suitable for driving a TFT of a liquid crystal cell, an output buffer, and the like. The gate driver 111 sequentially supplies a gate pulse synchronized with the data voltage to the gate lines G1 , G2 , G3 , ..., Gn of the image panel 110 under the control of the timing controller 113 .

특히, 본 발명의 실시예에 따른 타이밍 컨트롤러(113)는 시청자 위치에 따라 좌, 우안이 인지하는 영상의 종류 및 수, 그리고 영상패널(110) 상의 분포를 연산을 통해 분석하는 기능을 수행할 수 있다. 이때, 2D 영역을 줄이기 위해 뷰잉 다이아몬드를 겹쳐 3D 영역의 비율을 증가시키거나 2D 영역의 뷰에 블랙 데이터를 삽입할 수 있다. 또는, 2D 영역의 뷰에 인접한 뷰 데이터와 동일하거나 유사한 뷰 데이터를 입력할 수도 있다.In particular, the timing controller 113 according to an embodiment of the present invention may perform a function of analyzing the type and number of images recognized by the left and right eyes and the distribution on the image panel 110 through calculation according to the viewer's position. there is. In this case, in order to reduce the 2D area, the ratio of the 3D area may be increased by overlapping the viewing diamonds, or black data may be inserted into the view of the 2D area. Alternatively, view data that is the same as or similar to view data adjacent to the view in the 2D area may be input.

뷰잉 다이아몬드를 겹치는 경우 시청거리의 확장이 가능하다. 일 예로, 시청거리를 N배 확장하기 위해서는 뷰잉 다이아몬드를 N번 이상 겹치도록 구성할 수 있다.If the viewing diamonds are overlapped, the viewing distance can be extended. For example, in order to extend the viewing distance N times, the viewing diamond may be configured to overlap N times or more.

또한, 후술하겠지만, 본 발명의 실시예에 따른 타이밍 컨트롤러(113)는 본 출원인이 고안한 수학식을 바탕으로 시청자의 좌안과 우안이 인지하는 뷰 및 뷰의 수를 연산하는 기능을 수행할 수 있다. 이렇게 연산된 뷰 및 뷰의 수를 기반으로 뷰 데이터 렌더링 영역, 또는 서브-픽셀이나 뷰를 선정하여 적용할 수 있다.In addition, as will be described later, the timing controller 113 according to an embodiment of the present invention may perform a function of calculating the views and the number of views recognized by the viewer's left and right eyes based on the equation devised by the present applicant. . Based on the calculated views and the number of views, the view data rendering area or sub-pixels or views may be selected and applied.

또한, 본 발명의 실시예에 따른 타이밍 컨트롤러(113)는 뷰 데이터 렌더링 과정을 통해 입력 데이터를 영상패널(110)의 서브-픽셀별로 새롭게 매핑하여 뷰 겹침에 따라 발생하는 크로스토크(crosstalk)를 제거하는 기능을 수행할 수 있다.In addition, the timing controller 113 according to the embodiment of the present invention newly maps input data for each sub-pixel of the image panel 110 through a view data rendering process to eliminate crosstalk caused by overlapping views. function can be performed.

이러한 타이밍 컨트롤러(113)와 호스트 시스템(115) 사이에는 멀티 뷰 영상변환부(114)가 설치될 수 있다. 멀티 뷰 영상변환부(114)는 3D 모드에서 호스트 시스템(115)으로부터 입력되는 3D 영상의 좌안 및 우안 영상 데이터를 멀티 뷰 영상 데이터 포맷으로 재 정렬하여 타이밍 컨트롤러(113)에 전송한다.A multi-view image conversion unit 114 may be installed between the timing controller 113 and the host system 115 . The multi-view image converter 114 rearranges the left-eye and right-eye image data of the 3D image input from the host system 115 in the 3D mode into a multi-view image data format and transmits the rearranged data to the timing controller 113 .

즉, 멀티 뷰 영상변환부(114)는 3D 모드에서 2D 영상 데이터가 입력되면 미리 설정된 2D-3D 영상 변환 알고리즘을 실행하여 2D 영상 데이터로부터 좌안 및 우안 영상 데이터를 생성하고, 그 데이터들을 멀티 뷰 영상 데이터 포맷으로 재 정렬하여 타이밍 컨트롤러(113)에 전송한다.That is, the multi-view image conversion unit 114 generates left-eye and right-eye image data from the 2D image data by executing a preset 2D-3D image conversion algorithm when 2D image data is input in the 3D mode, and converts the data into a multi-view image. It is rearranged in a data format and transmitted to the timing controller 113 .

호스트 시스템(115)은 TV(television) 시스템, 셋톱박스, 네비게이션 시스템, DVD 플레이어, 블루레이 플레이어, 개인용 컴퓨터(personal computer), 홈 시어터 시스템, 폰 시스템 중 어느 하나로 구현될 수 있다. 호스트 시스템(115)은 스케일러(scaler)를 이용하여 2D/3D 입력 영상의 디지털 비디오 데이터를 영상패널(110)의 해상도에 맞는 포맷으로 변환하고, 그 데이터와 함께 타이밍 신호를 타이밍 컨트롤러(113)로 전송한다.The host system 115 may be implemented as any one of a television (television) system, a set-top box, a navigation system, a DVD player, a Blu-ray player, a personal computer, a home theater system, and a phone system. The host system 115 converts digital video data of the 2D/3D input image into a format suitable for the resolution of the image panel 110 using a scaler, and transmits a timing signal together with the data to the timing controller 113 . send.

호스트 시스템(115)은 2D 모드에서 2D 영상을 타이밍 컨트롤러(113)에 공급하는 한편, 3D 모드에서 3D 영상 또는 2D 영상 데이터를 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 유저 인터페이스(User Interface; UI)(미도시)를 통해 입력되는 사용자 데이터에 응답하여 타이밍 컨트롤러(113)에 모드 신호를 전송하여 무안경 입체표시장치의 동자 모드를 2D 모드와 3D 모드에서 스위칭 할 수 있다. 유저 인터페이스는 키패드, 키보드, 마우스, 온 스크린 디스플레이(On Screen Display; OSD), 리모트 컨트롤러, 그래픽 유저 인터페이스(Graphic User Interface; GUI), 터치 UI 등으로 구현될 수 있다. 사용자는 유저 인터페이스를 통해 2D 모드와 3D 모드를 선택할 수 있고, 3D 모드에서 2D-3D 영상 변환을 선택할 수 있다.The host system 115 supplies the 2D image to the timing controller 113 in the 2D mode, and supplies the 3D image or 2D image data to the multi-view image converter 114 in the 3D mode. The host system 115 transmits a mode signal to the timing controller 113 in response to user data input through a user interface (UI) (not shown) to change the motion mode of the autostereoscopic display device to the 2D mode and the 2D mode. You can switch in 3D mode. The user interface may be implemented as a keypad, a keyboard, a mouse, an on-screen display (OSD), a remote controller, a graphic user interface (GUI), a touch UI, and the like. The user can select 2D mode and 3D mode through the user interface, and can select 2D-3D image conversion in 3D mode.

즉, 호스트 시스템(115)은 LVDS(Low Voltage Differential Signaling) 인터페이스, TMDS(Transition Minimized Differential Signaling) 인터페이스 등의 인터페이스를 통해 영상 데이터와 타이밍신호들 등을 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 좌안 영상 데이터와 우안 영상 데이터를 포함하는 3D 영상 데이터를 멀티 뷰 영상변환부(114)에 공급한다. 전술한 바와 같이 타이밍신호들은 수직동기신호, 수평동기신호, 데이터 인에이블 신호(Data Enable), 도트 클럭 등을 포함한다.That is, the host system 115 supplies image data and timing signals to the multi-view image converter 114 through an interface such as a low voltage differential signaling (LVDS) interface or a transition minimized differential signaling (TMDS) interface. The host system 115 supplies 3D image data including left-eye image data and right-eye image data to the multi-view image converter 114 . As described above, the timing signals include a vertical synchronization signal, a horizontal synchronization signal, a data enable signal, a dot clock, and the like.

호스트 시스템(115)은 시청거리 감지부로부터 시청자 감지정보를 입력받고, 시청자 감지정보에 따라 최적 뷰의 수를 산출한다. 호스트 시스템(115)은 최적 뷰의 수에 따른 뷰 제어신호를 생성하여 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 시청자 감지정보의 시청자 수를 입력 어드레스로 받고, 해당 입력 어드레스에 저장된 뷰의 수를 출력하는 룩업테이블을 이용하여 뷰 제어신호를 생성할 수 있다.The host system 115 receives the viewer detection information from the viewing distance sensor, and calculates the optimal number of views according to the viewer detection information. The host system 115 generates a view control signal according to the optimal number of views and supplies it to the multi-view image converter 114 . The host system 115 may receive the number of viewers of the viewer detection information as an input address and generate a view control signal using a lookup table that outputs the number of views stored in the input address.

다음으로, 3D 필터(120)는 이미지의 경로를 광학적으로 분리하는 매개체로서, 영상패널(110)의 좌안픽셀과 우안픽셀로부터 출력된 좌안영상과 우안영상을 투과시키거나 차단시키기 위한 광투과 영역과 광차단 영역을 형성하는 기능을 수행한다.Next, the 3D filter 120 is a medium that optically separates the path of the image, and includes a light transmission region for transmitting or blocking the left eye image and the right eye image output from the left eye pixel and the right eye pixel of the image panel 110 , and It functions to form a light blocking region.

이러한 3D 필터(120)는 다음의 렌티큘러 렌즈 또는 배리어와 같이 기 공지되어 있는 기술들을 이용하여 다양하게 구성될 수 있다. 렌티큘러 렌즈와 배리어는 액정패널을 이용하여 전기적으로 제어되는 스위처블 렌즈(switchable lens)나 스위처블 배리어(switchable barrier)로 구현될 수 있다. 참고로, 본 출원인은 미국출원 13/077565, 미국출원 13/325272, 대한민국 출원 10-2010-0030531 등을 통해 스위처블 렌즈나 스위처블 배리어를 제안한 바 있다.The 3D filter 120 may be variously configured using known techniques such as the following lenticular lens or barrier. The lenticular lens and the barrier may be implemented as a switchable lens or a switchable barrier that is electrically controlled using a liquid crystal panel. For reference, the present applicant has proposed a switchable lens or a switchable barrier through US Application 13/077565, US Application 13/325272, Korean Application 10-2010-0030531, and the like.

3D 필터 구동부는 타이밍 컨트롤러(113)의 제어 하에 3D 모드에서 영상패널(110)의 픽셀 어레이에 기입되는 영상 데이터와 동기되어 스위처블 렌즈나 스위처블 배리어를 시프트(shift)시킬 수 있다.The 3D filter driver may shift the switchable lens or the switchable barrier in synchronization with image data written in the pixel array of the image panel 110 in the 3D mode under the control of the timing controller 113 .

도 4는 본 발명의 실시예에 따른 무안경 입체영상표시장치를 개략적으로 보여주는 사시도로서, 렌티큘러 렌즈 방식의 입체영상표시장치를 예를 들어 보여주고 있다.4 is a perspective view schematically showing a glasses-free stereoscopic image display device according to an embodiment of the present invention, illustrating a lenticular lens type stereoscopic image display device as an example.

도 4를 참조하면, 렌티큘러 렌즈 방식의 입체영상표시장치는 다수의 서브-픽셀(R, G, B)이 배치되는 영상패널(110) 전면에 소정의 폭(w)을 갖는 다수의 렌티큘러 렌즈(125)를 포함하는 3D 필터인 렌티큘러 렌즈판(120)이 배치된다.Referring to FIG. 4 , the lenticular lens type stereoscopic image display device includes a plurality of lenticular lenses (w) having a predetermined width (w) on the front surface of the image panel 110 on which a plurality of sub-pixels (R, G, B) are disposed. A lenticular lens plate 120 that is a 3D filter including 125 is disposed.

렌티큘러 렌즈판(120)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층이 형성되어 이루어진다.The lenticular lens plate 120 is formed by forming a material layer having a convex lens shape on an upper surface of a flat substrate.

이러한 렌티큘러 렌즈판(120)은 좌, 우안 영상을 나누어주는 역할을 수행하며, 렌티큘러 렌즈판(120)으로부터 최적 시청거리(Optimal Viewing Distance; OVD) v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 뷰잉 다이아몬드(정시영역)가 형성되어 있다.The lenticular lens plate 120 serves to divide the left and right eye images, and the optimal viewing distance (OVD) v from the lenticular lens plate 120 corresponds to the left and right eyes respectively for the left and right eyes. A viewing diamond (emphasis region) where images normally arrive is formed.

따라서, 영상패널(110)을 투과한 영상 이미지는 렌티큘러 렌즈판(120)을 통과하여 최종 시청자의 좌, 우안으로 다른 이미지 그룹이 들어오게 하여, 3차원의 입체영상을 느낄 수 있게 된다.Accordingly, the video image transmitted through the video panel 110 passes through the lenticular lens plate 120 to allow different image groups to enter the left and right eyes of the final viewer, so that a three-dimensional stereoscopic image can be felt.

이러한 렌티큘러 렌즈 방식의 입체영상표시장치는 영상패널(110)과 렌티큘러 렌즈판(120)이 기구물(미도시) 등에 의해 지지되어, 영상패널(110)과 렌티큘러 렌즈판(120) 사이가 소정 간격(배면 거리) 이격되어 있다.In this lenticular lens type stereoscopic image display device, the image panel 110 and the lenticular lens plate 120 are supported by a mechanism (not shown), etc., and the image panel 110 and the lenticular lens plate 120 are separated by a predetermined distance ( rear distance) are spaced apart.

한편, 본 발명의 실시예에 따르면, 다수의 렌티큘러 렌즈(125)의 배열이 서브-픽셀(R, G, B)의 종 방향(Y축 방향)에 대해 제 1 각도(θ)를 갖고 기울어진 형태로 배치되고 있으며, 렌티큘러 렌즈(125)의 서브-픽셀(R, G, B)의 횡 방향(X축 방향)을 따르는 수평 폭(w)은 서브-픽셀(R, G, B)의 정수 배로 설정할 수 있다.Meanwhile, according to the embodiment of the present invention, the arrangement of the plurality of lenticular lenses 125 is inclined with a first angle θ with respect to the longitudinal direction (Y-axis direction) of the sub-pixels R, G, and B. The horizontal width w along the lateral direction (X-axis direction) of the sub-pixels R, G, and B of the lenticular lens 125 is an integer of the sub-pixels R, G, and B. Can be set to double.

즉, 본 발명의 실시예에 따른 입체영상표시장치는 렌티큘러 렌즈판(120)에 구비되는 렌티큘러 렌즈(125)가 서브-픽셀(R, G, B)의 종 방향을 기준으로 제 1 각도(θ) 기울어져 배치될 수 있다.That is, in the stereoscopic image display device according to the embodiment of the present invention, the lenticular lens 125 provided in the lenticular lens plate 120 is positioned at a first angle θ with respect to the longitudinal direction of the sub-pixels R, G, and B. ) can be tilted.

따라서, 2D 영상을 표시하는 영상패널(110)에 대해 이러한 렌티큘러 렌즈판(120)의 기울어진 배치에 의해 3D 영상시청을 위한 뷰 수를 조절할 수 있다.Accordingly, the number of views for viewing a 3D image can be adjusted by the inclined arrangement of the lenticular lens plate 120 with respect to the image panel 110 displaying the 2D image.

이러한 렌티큘러 렌즈판(120)에 있어서 렌티큘러 렌즈(125)의 서브-픽셀(R, G, B)의 종 방향을 기준으로 기울어진 제 1 각도 θ는 tan-1((M*Pa)/(N*Pb))라는 식으로 표현된다.In the lenticular lens plate 120 , the first angle θ inclined with respect to the longitudinal direction of the sub-pixels R, G, B of the lenticular lens 125 is tan -1 ((M*Pa)/(N) *Pb)).

이때, Pa는 서브-픽셀(R, G, B)의 단축피치, Pb는 서브-픽셀(R, G, B)의 장축피치이며, M과 N은 각각 임의의 자연수로서 렌티큘러 렌즈(125)가 다수의 서브-픽셀(R, G, B)을 하나의 그룹으로 하고, 하나의 그룹을 정확히 대각방향으로 꼭지점을 관통했을 때의 그룹 내의 서브-픽셀(R, G, B)의 횡 방향으로의 서브-픽셀(R, G, B)의 개수 및 서브-픽셀(R, G, B)의 종 방향으로의 서브-픽셀(R, G, B)의 개수로 정의된다. 이때, 통상적으로 M과 N은 M/N ≤ 2의 값을 만족하는 것이 일반적이다.In this case, Pa is the pitch of the minor axes of the sub-pixels R, G, and B, Pb is the pitch of the major axes of the sub-pixels R, G, and B, M and N are each an arbitrary natural number, and the lenticular lens 125 is In the transverse direction of the sub-pixels (R, G, B) in the group when a plurality of sub-pixels (R, G, B) are grouped, and one group is passed through the vertices exactly diagonally. It is defined as the number of sub-pixels R, G, B and the number of sub-pixels R, G, B in the longitudinal direction of the sub-pixels R, G, B. In this case, in general, M and N generally satisfy the value of M/N ≤ 2.

이때, 하나의 그룹 내부에 위치하는 다수의 서브-픽셀(R, G, B)에 부여된 숫자는 렌티큘러 렌즈판(120)의 렌티큘러 렌즈(125)를 제 1 각도(θ)로 기울여 배치한 입체영상표시장치의 3D 영상시청이 가능한 영역으로 정의되는 뷰의 개수가 되며, 각 뷰에 부여된 숫자는 각 뷰 영역에서 3D 영상시청 시 보여지는 서브-픽셀(R, G, B)이 된다.At this time, the numbers assigned to the plurality of sub-pixels R, G, and B located in one group are three-dimensional in which the lenticular lens 125 of the lenticular lens plate 120 is tilted at a first angle θ. It becomes the number of views defined as the area where 3D image viewing of the image display device is possible, and the number assigned to each view becomes sub-pixels (R, G, B) displayed when 3D image is viewed in each view area.

이렇게 렌티큘러 렌즈판(120)을 구비한 본 발명의 실시예에 따른 입체영상표시장치는 휘도 향상 측면에서 효과가 있으며, 나아가 뷰 수의 증가를 통해 3D 영상시청을 위한 시야각을 향상시키는 효과를 갖는다.As described above, the stereoscopic image display device according to an embodiment of the present invention having the lenticular lens plate 120 has an effect in terms of improving luminance, and further has an effect of improving a viewing angle for viewing a 3D image through an increase in the number of views.

뷰 수의 증가는 렌티큘러 렌즈판(120)에 구비되는 렌티큘러 렌즈(125)를 서브-픽셀(R, G, B)의 종 방향을 기준으로 소정의 각도를 갖도록 배치한 구조 즉, 슬랜티드(slanted) 구조를 적용하여 이루어지게 된다. 이러한 슬랜티드 구조 적용에 의해 한쪽 방향으로의 해상도 저하를 방지할 수 있다.The increase in the number of views is a structure in which the lenticular lens 125 provided on the lenticular lens plate 120 is arranged to have a predetermined angle with respect to the longitudinal direction of the sub-pixels R, G, and B, that is, slanted. ) structure is applied. By applying such a slanted structure, it is possible to prevent a decrease in resolution in one direction.

한편, 시청자는 최적 시청거리 이외의 시청거리, 즉 최적 시청거리의 앞이나 뒤에서 입체영상표시장치를 시청하는 것이 일반적이다.On the other hand, it is common for the viewer to view the stereoscopic image display device at a viewing distance other than the optimal viewing distance, that is, before or after the optimal viewing distance.

본 출원인의 연구에 따르면, 최적 시청거리대비 영상패널에서 멀어질수록 2D 인지영역(이하 2D 영역이라 함)은 증가하고 3D 인지영역(이하 3D 영역이라 함)은 감소하는 것을 알 수 있다. 또한, 영상패널의 크기에 따라 뷰잉 다이아몬드의 좌표, 인지되는 뷰가 변하기 때문에 영상패널의 크기를 고려한 최적 시청거리 제어기술이 요구된다.According to the study of the present applicant, it can be seen that the 2D recognition area (hereinafter referred to as the 2D area) increases and the 3D recognition area (hereinafter referred to as the 3D area) decreases as the distance from the image panel increases compared to the optimal viewing distance. In addition, since the coordinates of the viewing diamond and the perceived view change according to the size of the image panel, an optimal viewing distance control technology considering the size of the image panel is required.

따라서, 입체영상표시장치의 뷰잉 다이아몬드를 수식으로 일반화하여, 시청자 위치에 따른 양안 인지 영상의 종류 및 중첩 영상의 변화를 수식화하고, 시청자 위치 변화와 최적 시청거리 제어와의 상관관계를 분석할 필요가 있다.Therefore, it is necessary to generalize the viewing diamond of the stereoscopic image display device into a formula, formulate the type of binocular perception image according to the viewer's position and the change of the overlapping image, and analyze the correlation between the change in the viewer's position and the optimal viewing distance control. there is.

우선, 입체영상표시장치의 3D 시청영역(viewing zone)을 다음의 도 5 및 도 6과 같이 입체적으로 표현할 수 있다.First, the 3D viewing zone of the stereoscopic image display apparatus can be three-dimensionally expressed as shown in FIGS. 5 and 6 below.

도 5는 무안경 입체영상표시장치에 있어, 시청영역을 설명하기 위한 예시도이다.5 is an exemplary view for explaining a viewing area in the glasses-free stereoscopic image display device.

그리고, 도 6은 뷰잉 다이아몬드를 XZ-평면에 투사(projection)시켜 보여주는 도면이다.And, FIG. 6 is a view showing a viewing diamond projected on the XZ-plane.

도 5 및 도 6을 참조하면, 영상패널(110)로부터 최적 시청거리 v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(정시영역)(130)가 형성되어 있다.5 and 6 , at the optimal viewing distance v from the image panel 110 , a diamond-shaped viewing diamond (embryonic region) 130 is formed in which images corresponding to the left and right eyes respectively reach the left and right eyes. has been

시청영역의 다이아몬드를 전방 삼각 존(front triangle zone)(130a)과 후방 삼각 존(rear triangle zone)(130b)으로 구분할 수 있다.The diamond in the viewing area may be divided into a front triangle zone 130a and a rear triangle zone 130b.

이하에서의 모든 수식 전계 과정은 최적 시청거리에 형성된 뷰잉 다이아몬드(130)의 폭이 양안 간격(e)과 같고, 광이 직진한다는 가정에서 진행될 수 있다.All the electric field processes described below may be performed on the assumption that the width of the viewing diamond 130 formed at the optimal viewing distance is equal to the binocular distance e, and the light travels straight.

영상패널(110)의 폭 및 높이는 각각 W 및 H로 정할 수 있다.The width and height of the image panel 110 may be determined by W and H, respectively.

이때, (W/2, 0, 0)에서 (0, 0, v)를 통과하는 광은 R0으로 표시되며, (W/2, 0, 0)에서 (ne, 0, v)를 통과하는 광은 Rn으로 표시할 수 있다. (-W/2, 0, 0)에서 (0, 0, v)를 통과하는 광은 L0으로 표시되며, (-W/2, 0, 0)에서 (ne, 0, v)를 통과하는 광은 Ln으로 표시할 수 있다.At this time, the light passing through (0, 0, v) at (W/2, 0, 0) is represented by R 0 , and the light passing through (ne, 0, v) at (W/2, 0, 0) Light can be denoted by Rn. The light passing through (0, 0, v) at (-W/2, 0, 0) is denoted by L 0 , and the light passing through (ne, 0, v) at (-W/2, 0, 0) Light can be denoted by Ln.

다음과 같이 3D 시청영역(또는 뷰잉 다이아몬드)을 공간상의 좌표로 일반화하여 표시할 수 있으며, 이를 이용하여 디스플레이 특성이 따른 시청영역의 크기 및 시청자의 3D 영역을 계산할 수 있다.As follows, the 3D viewing area (or viewing diamond) can be displayed by generalizing it to spatial coordinates, and using this, the size of the viewing area according to the display characteristics and the 3D area of the viewer can be calculated.

도 7a 및 도 7b는 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.7A and 7B are diagrams showing the viewing diamond coordinates as an example.

이때, 도 7a는 XZ-평면에서의 뷰잉 다이아몬드 좌표를 보여주는 반면, 도 7b는 ZY-평면에서의 뷰잉 다이아몬드 좌표를 보여주고 있다.Here, FIG. 7A shows the viewing diamond coordinates in the XZ-plane, while FIG. 7B shows the viewing diamond coordinates in the ZY-plane.

도 7a 및 도 7b를 참조하면, 전방 삼각 존(130a)의 꼭지점 (n-1)e, ne, fn의 공간 좌표는 다음의 수학식 1로 표현할 수 있다.Referring to FIGS. 7A and 7B , the spatial coordinates of the vertices (n-1)e, ne, and fn of the front triangular zone 130a can be expressed by Equation 1 below.

[수학식 1]

Figure 112014126610038-pat00001
[Equation 1]
Figure 112014126610038-pat00001

이때, fn의 공간상의 좌표 (fnx, fny, fnz)는 다음의 수학식들과 같이 삼각형의 닮은비를 이용하면 구할 수 있다.In this case, the spatial coordinates (fnx, fny, fnz) of fn can be obtained by using the similarity ratio of the triangles as shown in the following equations.

[수학식 2]

Figure 112014126610038-pat00002
[Equation 2]
Figure 112014126610038-pat00002

따라서,

Figure 112014126610038-pat00003
therefore,
Figure 112014126610038-pat00003

마찬가지로,Likewise,

[수학식 3]

Figure 112014126610038-pat00004
[Equation 3]
Figure 112014126610038-pat00004

따라서,

Figure 112014126610038-pat00005
therefore,
Figure 112014126610038-pat00005

[수학식 4]

Figure 112014126610038-pat00006
[Equation 4]
Figure 112014126610038-pat00006

따라서,

Figure 112014126610038-pat00007
therefore,
Figure 112014126610038-pat00007

또한, 후방 삼각 존(130b)의 꼭지점 (n-1)e, ne, rn의 공간 좌표 역시 다음의 수학식 5로 표현할 수 있다.In addition, the spatial coordinates of the vertices (n-1)e, ne, and rn of the rear triangular zone 130b can also be expressed by Equation 5 below.

[수학식 5]

Figure 112014126610038-pat00008
[Equation 5]
Figure 112014126610038-pat00008

여기서, he는 XY-평면에서 시청거리에서 시청자의 양안과 X축과의 거리, 즉 시청자의 눈 높이를 의미한다. hp는 XY-평면에서 영상패널(110)상의 서브-픽셀과 X축과의 거리, 즉 서브-픽셀의 높이를 의미한다.Here, he means the distance between both eyes of the viewer and the X-axis at the viewing distance in the XY-plane, that is, the height of the viewer's eyes. hp means the distance between the sub-pixel and the X-axis on the image panel 110 in the XY-plane, that is, the height of the sub-pixel.

이를 이용하여 최적 시청거리의 2배 지점의 3D 뷰잉 다이아몬드를 공간상의 좌표로 일반화된 표현이 가능하며, 최적 시청거리의 2배 지점의 뷰잉 다이아몬드 영역을 계산할 수 있다.Using this, a generalized expression of the 3D viewing diamond at a point twice the optimal viewing distance can be expressed in spatial coordinates, and the viewing diamond area at a point twice the optimal viewing distance can be calculated.

도 8은 최적 시청거리의 2배 거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.FIG. 8 is a diagram showing, for example, the viewing diamond coordinates in the XZ-plane at a distance twice the optimal viewing distance.

도 8을 참조하면, 위와 동일한 방식으로

Figure 112014126610038-pat00009
에서 (0, 0, v)를 지나는 광은
Figure 112014126610038-pat00010
을 지나므로, 최적 시청거리의 2배 지점의 전방 삼각 존(130a')의 꼭지점
Figure 112014126610038-pat00011
의 공간좌표를 다음의 수학식 6과 같이 표현할 수 있다.Referring to FIG. 8 , in the same manner as above
Figure 112014126610038-pat00009
The light passing through (0, 0, v) at
Figure 112014126610038-pat00010
As it passes through, the vertex of the front triangular zone 130a' at twice the optimal viewing distance
Figure 112014126610038-pat00011
The spatial coordinates of can be expressed as in Equation 6 below.

[수학식 6]

Figure 112014126610038-pat00012
[Equation 6]
Figure 112014126610038-pat00012

또한, 동일한 방식으로 최적 시청거리의 2배 지점의 후방 삼각 존(130b')의 꼭지점

Figure 112014126610038-pat00013
의 공간좌표 역시 다음의 수학식 7과 같이 표현할 수 있다.
In addition, in the same manner, the vertex of the rear triangular zone 130b' at a point twice the optimal viewing distance
Figure 112014126610038-pat00013
The spatial coordinates of can also be expressed as in Equation 7 below.

[수학식 7]

Figure 112014126610038-pat00014
[Equation 7]
Figure 112014126610038-pat00014

다음으로, 광에 대한 직선의 방정식을 일반화함으로써, 최적 시청거리를 포함한 전 영역에서의 뷰잉 다이아몬드 좌표 또한 일반화할 수 있다.Next, by generalizing the equation of a straight line for light, the viewing diamond coordinates in the entire area including the optimal viewing distance can also be generalized.

이때, 수식의 단순화를 위해 XZ-평면에 투사시킨 경우를 예로 들고 있다.In this case, the case of projection on the XZ-plane is exemplified to simplify the equation.

도 9는 최적 시청거리를 포함하는 전 영역에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.FIG. 9 is a view showing the viewing diamond coordinates in the XZ-plane as an example in the entire area including the optimal viewing distance.

도 9를 참조하면, 광 Rn에 대한 직선의 방정식은 다음 수학식 8과 같다.Referring to FIG. 9 , the equation of the straight line for the light Rn is the following Equation (8).

[수학식 8]

Figure 112014126610038-pat00015
[Equation 8]
Figure 112014126610038-pat00015

또한, 광 Lm에 대한 직선의 방정식은 다음 수학식 9와 같다.In addition, the equation of the straight line with respect to the light Lm is the following Equation (9).

[수학식 9]

Figure 112014126610038-pat00016
[Equation 9]
Figure 112014126610038-pat00016

여기서, n, m은 유리수를 나타낸다.Here, n and m represent rational numbers.

위 수학식 8, 9를 연립하여 계산하면, 광 Rn과 Lm이 만나는 좌표인 f(n, m)를 다음 수학식 10과 같이 일반화할 수 있다.If the above Equations 8 and 9 are simultaneously calculated, f(n, m), which is the coordinate where the light Rn and Lm meet, can be generalized as in Equation 10 below.

[수학식 10]

Figure 112014126610038-pat00017
[Equation 10]
Figure 112014126610038-pat00017

참고로, XZ-평면에서 f(n-1, n)일 때 수학식 10은 수학식 1과 동일하다. 또한, XZ-평면에서 f(n, n-1)일 때 수학식 10은 수학식 5와 동일하다.For reference, when f(n-1, n) in the XZ-plane, Equation 10 is the same as Equation 1. Also, when f(n, n-1) in the XZ-plane, Equation 10 is the same as Equation 5.

수학식 10의 일반화된 뷰잉 다이아몬드의 좌표를 바탕으로 최적 시청거리의 k배 되는 지점의 좌표 또한 다음과 같이 일반화할 수 있다.Based on the coordinates of the generalized viewing diamond of Equation 10, the coordinates of a point k times the optimal viewing distance can also be generalized as follows.

도 10은 최적 시청거리의 k배의 시청거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.FIG. 10 is a view showing the viewing diamond coordinates in the XZ-plane as an example at a viewing distance k times the optimal viewing distance.

그리고, 도 11은 XZ-평면에서의 뷰잉 다이아몬드 셀(cell)을 예로 들어 보여주는 도면이다.And, FIG. 11 is a view showing a viewing diamond cell in the XZ-plane as an example.

도 10 및 도 11을 참조하면, 최적 시청거리의 k배 지점의 좌표를 유도하기 위해 수학식 10의 Z좌표가 kv인 경우를 연산하면 다음 수학식 11과 같다.10 and 11 , in order to derive the coordinates of a point k times the optimal viewing distance, the case where the Z coordinate of Equation 10 is kv is calculated as in Equation 11 below.

[수학식 11]

Figure 112014126610038-pat00018
[Equation 11]
Figure 112014126610038-pat00018

여기서, k는 0보다 큰 유리수를 나타낸다.Here, k represents a rational number greater than zero.

수학식 11을 m에 대해 정리하면 다음의 수학식 12와 같다.If Equation 11 is rearranged for m, Equation 12 is given below.

[수학식 12]

Figure 112014126610038-pat00019
[Equation 12]
Figure 112014126610038-pat00019

따라서, 최적 시청거리의 k배 지점의 좌표를 다음 수학식 13과 같이 일반화할 수 있다.Accordingly, the coordinates of a point k times the optimal viewing distance can be generalized as in Equation 13 below.

[수학식 13]

Figure 112014126610038-pat00020
[Equation 13]
Figure 112014126610038-pat00020

예를 들어, 수학식 13으로부터 최적 시청거리의 2배 지점의 좌표를 연산하면 다음 수학식 14와 같으며, 이는 수학식 6, 7의 뷰잉 다이아몬드 좌표와 동일하다.For example, calculating the coordinates of a point twice the optimal viewing distance from Equation 13 is the following Equation 14, which is the same as the viewing diamond coordinates of Equations 6 and 7.

[수학식 14]

Figure 112014126610038-pat00021
[Equation 14]
Figure 112014126610038-pat00021

다음으로, 뷰잉 다이아몬드의 평면좌표를 이용하여 전 영역에서의 뷰잉 다이아몬드의 폭을 일반화할 수 있다.Next, the width of the viewing diamond in the entire area can be generalized using the plane coordinates of the viewing diamond.

f(n, m)를 상위 꼭지점으로 하는 뷰잉 다이아몬드(viewing diamond)의 폭

Figure 112014126610038-pat00022
은 피타고라스 정리에 의해 다음 수학식 15와 같이 일반화할 수 있다.The width of the viewing diamond with f(n, m) as the upper vertex
Figure 112014126610038-pat00022
can be generalized as in Equation 15 below by the Pythagorean theorem.

[수학식 15]

Figure 112014126610038-pat00023
[Equation 15]
Figure 112014126610038-pat00023

Figure 112014126610038-pat00024
Figure 112014126610038-pat00024

따라서, 수학식 10의 좌표를 수학식 15에 대입함으로써 뷰잉 다이아몬드의 폭을 다음 수학식 16과 같이 일반화할 수 있다.Accordingly, by substituting the coordinates of Equation 10 into Equation 15, the width of the viewing diamond can be generalized as Equation 16 below.

[수학식 16]

Figure 112014126610038-pat00025
[Equation 16]
Figure 112014126610038-pat00025

예를 들어, 최적 시청거리에 위치한 상위 꼭지점 f(n, m)에서 반시계 방향으로 f(0, 1)f(0, 0), f(1, 0)f(1, 1)의 좌표(n=0, m=1인 경우)를 갖는 뷰잉 다이아몬드의 최대 폭은 수학식 16으로부터 양안 간격과 동일하다는 것을 알 수 있다.For example, the coordinates of f(0, 1)f(0, 0), f(1, 0)f(1, 1) counterclockwise from the upper vertex f(n, m) located at the optimal viewing distance ( It can be seen from Equation (16) that the maximum width of the viewing diamond with n=0, m=1) is equal to the binocular spacing.

이와 같이 수학식 16을 통해 양안 간격이 상수(fixed)일 경우 뷰잉 다이아몬드의 폭은 영상패널(110)의 폭(W)에 영향을 받음을 알 수 있다.As described above, it can be seen through Equation 16 that when the distance between the eyes is fixed, the width of the viewing diamond is affected by the width W of the image panel 110 .

다음으로, 앞에서 계산한 뷰잉 다이아몬드의 폭을 이용하여, 최적 시청거리의 k배 되는 지점의 뷰잉 다이아몬드의 폭을 수식화 할 수 있다.Next, using the previously calculated width of the viewing diamond, it is possible to formulate the width of the viewing diamond at a point k times the optimal viewing distance.

이는 수학식 12를 수학식 16에 대입함으로써 최적 시청거리의 k배 되는 지점의 뷰잉 다이아몬드의 폭을 다음 수학식 17과 같이 연산할 수 있다.By substituting Equation 12 into Equation 16, the width of the viewing diamond at a point k times the optimal viewing distance can be calculated as in Equation 17 below.

[수학식 17]

Figure 112014126610038-pat00026
[Equation 17]
Figure 112014126610038-pat00026

여기서, 영상패널(110)의 폭(W)이 양안 간격(e)에 비해 충분히 클 경우, 다음 수학식 18과 같이 표현할 수 있다.Here, when the width W of the image panel 110 is sufficiently large compared to the distance e between the eyes, it can be expressed as in Equation 18 below.

[수학식 18]

Figure 112014126610038-pat00027
[Equation 18]
Figure 112014126610038-pat00027

예를 들어, 영상패널(110)의 폭(W)이 양안 간격(e)보다 충분히 큰 최적 시청거리의 2배 지점의 뷰잉 다이아몬드의 폭을 계산하면 다음과 같다.For example, if the width W of the image panel 110 is twice the optimal viewing distance, which is sufficiently larger than the binocular distance e, the width of the viewing diamond is calculated as follows.

[수학식 19]

Figure 112014126610038-pat00028
[Equation 19]
Figure 112014126610038-pat00028

위 수학식 18로부터 영상패널(110)의 폭(W)이 양안 간격(e)보다 충분히 클 경우, 최적 시청거리의 k배 지점의 뷰잉 다이아몬드의 폭은 ke에 근사함을 알 수 있다.From Equation 18 above, it can be seen that when the width W of the image panel 110 is sufficiently larger than the binocular distance e, the width of the viewing diamond at a point k times the optimal viewing distance is close to ke.

다음으로, 최적 시청거리(P1 위치)에 위치한 시청자기 인지하는 뷰와 2D, 3D 영역을 영상패널의 관점에서 표현하면 다음과 같다.Next, the view recognized by the viewer located at the optimal viewing distance (position P1) and the 2D and 3D regions are expressed in terms of the image panel as follows.

도 12는 P1 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면이다.12 is a view showing, for example, the coordinates of the viewing area including the position of both eyes in the XZ-plane at the position P1.

그리고, 도 13a 및 도 13b는 P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 13a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 13b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.And, FIGS. 13A and 13B are views showing views recognized by the viewer's left and right eyes at a position P1 as an example. In this case, FIG. 13A shows the view perceived by the viewer's left eye, and FIG. 13B shows the view perceived by the viewer's right eye.

도 14는 P1 위치에서 2D, 3D 영역을 보여주는 도면이다.14 is a diagram showing 2D and 3D regions at a location P1.

도 12를 참조하면, 시청자의 좌안(1)과 우안(2)이 최적 시청거리(Ks=1인 지점; P1 위치)의 뷰잉 다이아몬드 중심에 위치할 경우, 좌안(1)과 우안(2)이 인지하는 영상은 도 13a와 도 13b와 같이 각각의 뷰로 분리된 영상인 것을 알 수 있다.12, when the viewer's left eye (1) and right eye (2) are located at the center of the viewing diamond at the optimal viewing distance (point Ks = 1; P1 position), the left eye (1) and the right eye (2) It can be seen that the recognized image is an image divided into views as shown in FIGS. 13A and 13B .

즉, 시청자의 좌안(1)은 K번째 뷰의 영상을 인지하는 반면, 시청자의 우안(2)은 K+1번째 뷰의 영상을 인지한다. 여기서, K는 인지되는 뷰의 수를 의미한다.That is, the viewer's left eye (1) perceives the image of the Kth view, while the viewer's right eye (2) perceives the image of the K+1th view. Here, K means the number of recognized views.

이와 같이 좌안(1)과 우안(2)의 영상이 겹치는 부분이 없으므로, 시청자는 도 14와 같이 영상패널(110)의 전 영역에 걸쳐 3D로 인지한다.As such, since there is no overlapping portion of the images of the left eye 1 and the right eye 2 , the viewer perceives the image in 3D over the entire area of the image panel 110 as shown in FIG. 14 .

다음으로, 최적 시청거리를 벗어난 시청자가 인지하는 뷰와 2D, 3D 영역은 다음과 같다.Next, the views and 2D and 3D areas perceived by the viewer out of the optimal viewing distance are as follows.

도 15는 P2 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면이다.FIG. 15 is a view showing, for example, the coordinates of the viewing area including the positions of both eyes in the XZ-plane at the P2 position.

그리고, 도 16a 및 도 16b는 P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 16a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 16b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.And, FIGS. 16A and 16B are views showing views recognized by the viewer's left and right eyes at the P2 position as an example. In this case, FIG. 16A shows the view perceived by the viewer's left eye, and FIG. 16B shows the view perceived by the viewer's right eye.

도 17은 P2 위치에서 2D, 3D 영역을 보여주는 도면이다.17 is a diagram illustrating 2D and 3D regions at a location P2.

도 15를 참조하면, 예를 들어 시청자의 좌안(3)이 Ks=2인 지점(최적 시청거리의 바로 뒤; P2 위치)의 뷰잉 다이아몬드의 중심에 위치할 경우, 좌안(3)과 우안(4)이 인지하는 영상은 도 16a와 도 16b와 같이 단안에 2개의 뷰가 함께 인지되는 것을 알 수 있다.Referring to FIG. 15 , for example, when the viewer's left eye 3 is located at the center of the viewing diamond at a point Ks=2 (just after the optimal viewing distance; P2 location), the left eye 3 and the right eye 4 ), it can be seen that two views are recognized together in a single eye as shown in FIGS. 16A and 16B .

즉, 시청자의 좌안(3)은 K-1번째 뷰와 K번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안(4)은 K번째 뷰와 K+1번째 뷰의 영상을 함께 인지한다.That is, the viewer's left eye 3 recognizes the images of the K-1 th view and the K th view together, while the viewer's right eye 4 recognizes the images of the K th view and the K+1 th view together.

이때, 좌안(3)과 우안(4)에 인지되는 영상간에 동일 뷰(즉, K번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생하며, 이는 도 17과 같이 표현될 수 있다.At this time, a region where the same view (ie, the K-th view) overlaps between the images recognized by the left eye 3 and the right eye 4 , that is, a 2D region, which can be expressed as shown in FIG. 17 .

이와 같이 최적 시청거리를 벗어난 시청자는 단안에 다수의 뷰 정보가 입력될 수 있으며, 이때 뷰간 차이(disparity)가 큰 영상이 입력될 경우 단안 내 영상간 차이가 인지될 수 있다.As described above, a plurality of views information may be input to a viewer outside the optimal viewing distance, and in this case, when an image having a large disparity between views is input, the difference between images within the monocular may be recognized.

이때, 시청자가 수평 이동하거나 영상패널(110)의 구조(예를 들어, 스트라이프나 슬랜티드 구조)가 다를 경우에도 2D 위치와 영역의 형태는 변할 수 있으나, 해당하는 면적은 동일하다.In this case, even when the viewer moves horizontally or the structure (eg, a stripe or slanted structure) of the image panel 110 is different, the 2D position and shape of the region may change, but the corresponding area is the same.

한편, 도 16 및 도 17에 표시된 2D 영역은 동일 뷰를 표시한 영역이기 때문에 뷰 데이터를 치환할 경우에도 좌안(3)과 우안(4)에서 모두 변환되기 때문에 2D 영역은 여전히 유지된다. 따라서, 해당 구조에서는 2D 영역이 필수적으로 발생한다.On the other hand, since the 2D area shown in FIGS. 16 and 17 is an area displaying the same view, even when view data is replaced, both the left eye 3 and the right eye 4 are converted, so the 2D area is still maintained. Therefore, a 2D region is essentially generated in the structure.

이에 시청자의 양안 위치를 기준으로 인지되는 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화하며, 이를 도 16a, 도 16b 및 다음의 도 18을 참조하여 설명한다.Accordingly, the area for each view and the 2D and 3D areas of the image recognized based on the position of both eyes of the viewer are generalized into equations, which will be described with reference to FIGS. 16A, 16B and the following FIG. 18 .

도 18은 P2 위치에서 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면이다.18 is a view showing the position of both eyes applied to the viewing diamond at the position P2 as an example.

이때, 시청자의 좌안은 뷰잉 다이아몬드의 중앙에 위치한다는 가정이 적용되며, 역시 등을 고려할 때 최소 2D 영역을 산출할 수 있다.In this case, the assumption that the viewer's left eye is located at the center of the viewing diamond is applied, and the minimum 2D area can be calculated when considering the like.

시청자의 양안(3, 4)이 Ks=2인 지점의 뷰잉 다이아몬드에 도 18과 같이 위치하면, 좌안(3)에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.If both eyes 3 and 4 of the viewer are positioned on the viewing diamond at the point where Ks = 2 as shown in FIG. 18 , the image perceived by the left eye 3 has an equally wide W/Ks of each view.

이와 달리 우안(4)의 경우 각 뷰의 폭(c, d)은 뷰잉 다이아몬드의 중심에서 떨어진 간격에 비례하므로 K+1번째 뷰의 폭(d)은 다음의 수학식 20과 같이 표현될 수 있다.Contrary to this, in the case of the right eye 4, the widths c and d of each view are proportional to the distance away from the center of the viewing diamond, so the width d of the K+1th view can be expressed as Equation 20 below. .

[수학식 20]

Figure 112014126610038-pat00029
[Equation 20]
Figure 112014126610038-pat00029

도 16b로부터 c+d=W임을 알 수 있다. 따라서, K번째 뷰의 폭(c)은 다음 수학식 21과 같이 표현될 수 잇다.
It can be seen from FIG. 16B that c+d=W. Accordingly, the width c of the K-th view may be expressed as in Equation 21 below.

[수학식 21]

Figure 112014126610038-pat00030
[Equation 21]
Figure 112014126610038-pat00030

수학식 16과 도 18로부터 뷰잉 다이아몬드의 폭(2(a+b))은 다음 수학식 22와 같다.From Equation 16 and FIG. 18, the width (2(a+b)) of the viewing diamond is expressed as Equation 22 below.

[수학식 22]

Figure 112014126610038-pat00031
[Equation 22]
Figure 112014126610038-pat00031

여기서, Ks=n-m+1이다.Here, Ks=n-m+1.

또한, 2a+b=e이므로, 이를 수학식 22와 연립하여 계산하면, 우안(4)의 위치에 대한 a, b를 구할 수 있다.In addition, since 2a+b=e, if it is calculated in conjunction with Equation 22, a and b for the position of the right eye 4 can be obtained.

[수학식 23]

Figure 112014126610038-pat00032
[Equation 23]
Figure 112014126610038-pat00032

이를 이용하여 Ks=2인 지점에 위치한 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화할 수 있다.Using this, the area for each view and the 2D and 3D areas of the perceived image according to the position of both eyes of the viewer located at the point where Ks = 2 can be generalized into equations.

즉, 도 16a와 도 16b로부터 양안의 뷰 겹침 구간을 계산하고, 이를 수학식 23에 대입하면 다음과 같이 2D 영역(region)을 수식화 할 수 있다.That is, by calculating the view overlap section of both eyes from FIGS. 16A and 16B and substituting it into Equation 23, the 2D region can be formulated as follows.

[수학식 24]

Figure 112014126610038-pat00033
[Equation 24]
Figure 112014126610038-pat00033

이때, Ks=2이고,

Figure 112014126610038-pat00034
이다.At this time, Ks = 2,
Figure 112014126610038-pat00034
am.

[수학식 25]

Figure 112014126610038-pat00035
[Equation 25]
Figure 112014126610038-pat00035

여기서, 수학식 24 및 수학식 25의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.Here, the inequality sign in Equations 24 and 25 is a case in which the influence of and view data is also taken into consideration.

수학식 24로부터 Ks=2인 지점에서는 최소 2eH만큼의 2D 영역이 발생하는 것을 알 수 있다.From Equation 24, it can be seen that a 2D area of at least 2eH is generated at a point where Ks=2.

앞에서 Ks=2인 지점의 2D 영역을 계산하였으므로, Ks=3인 지점과 그 이후 영역을 연산함으로써, 2D 발생 영역을 일반화할 수 있다. 그리고, 이 결과를 좌표로 변환하면 영상패널의 2D 발생 영역을 서브-픽셀별로 특정할 수 있다.Since the 2D area of the point Ks=2 was calculated previously, the 2D generation area can be generalized by calculating the point Ks=3 and the area thereafter. And, if this result is converted into coordinates, the 2D generation area of the image panel can be specified for each sub-pixel.

이는 이후 본 발명에서 제안하는 방식에 의해 2D 영역을 정입체시 영역으로 변환함에 있어, 변환 영역의 크기와 위치, 그리고 이때 필요한 데이터 처리량 및 메모리 크기를 계산할 수 있다.It is possible to calculate the size and location of the transformation region, and the amount of data processing and memory required at this time, when converting the 2D region to the stereoscopic region by the method proposed in the present invention.

도 19a 및 도 19b는 P3 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 19a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 19b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.19A and 19B are diagrams illustrating views recognized from the left and right eyes of a viewer at a position P3 as an example. In this case, FIG. 19A shows the view perceived by the viewer's left eye, and FIG. 19B shows the view perceived by the viewer's right eye.

그리고, 도 20은 P3 위치에서 2D, 3D 영역을 보여주는 도면이다.And, FIG. 20 is a diagram showing 2D and 3D regions at a position P3.

도 19a 및 도 19b를 참조하면, Ks=3인 지점(Ks=2인 지점의 바로 뒤; P3 위치)에 위치한 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화할 수 있다.Referring to FIGS. 19A and 19B , the area for each view and the 2D and 3D areas of the perceived image according to the position of both eyes of the viewer located at the point Ks=3 (just after the point Ks=2; the P3 location) can be generalized by equations. can

예를 들어, 시청자의 좌안이 Ks=3인 지점의 뷰잉 다이아몬드의 중심에 위치할 때, 좌안과 우안이 인지하는 영상은 단안에 3개의 뷰가 함께 인지되는 것을 알 수 있다.For example, when the viewer's left eye is located at the center of the viewing diamond at a point where Ks = 3, it can be seen that the image recognized by the left eye and the right eye is recognized by three views together with a single eye.

즉, 시청자의 좌안은 K-1번째 뷰, K번째 뷰 및 K+1번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안은 K번째 뷰, K+1번째 뷰 및 K+2번째 뷰의 영상을 함께 인지한다.That is, the viewer's left eye perceives images of the K-1 th view, the K th view, and the K+1 th view together, while the viewer's right eye recognizes the images of the K th view, the K+1 th view, and the K + 2 th view. recognize together

이때, 좌안과 우안에 인지되는 영상간에 동일 뷰(즉, K번째 뷰와 K+1번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생하며, 이는 도 20과 같이 표현될 수 있다.In this case, a region in which the same view (ie, the K-th view and the K+1-th view) overlaps between the images recognized by the left eye and the right eye, that is, a 2D region, which may be expressed as shown in FIG. 20 .

또한, 도 19a를 참조하면, 시청자의 좌안에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.Also, referring to FIG. 19A , in the image perceived by the viewer's left eye, each view has the same width of W/Ks.

이와 달리 우안의 경우, 도 19b를 참조하면 K+2번째 뷰의 폭(e)은 다음의 수학식 26과 같이 표현될 수 있다.In contrast, in the case of the right eye, referring to FIG. 19B , the width e of the K+2 th view may be expressed as Equation 26 below.

[수학식 26]

Figure 112014126610038-pat00036
[Equation 26]
Figure 112014126610038-pat00036

도 19b로부터 c+d+e=W임을 알 수 있다. 그리고, c=d이므로, K번째 뷰와 K+1번째 뷰의 폭의 합(2c=c+d)은 다음 수학식 27과 같다.It can be seen from FIG. 19B that c+d+e=W. And, since c=d, the sum of the widths of the K-th view and the K+1-th view (2c=c+d) is expressed by Equation 27 below.

[수학식 27]

Figure 112014126610038-pat00037
[Equation 27]
Figure 112014126610038-pat00037

수학식 22와 수학식 23 및 수학식 27을 이용하면, Ks=3일 경우의 2D, 3D 영역은 다음 수학식 28과 수학식 29와 같다.Using Equations 22, 23, and 27, the 2D and 3D regions in the case of Ks=3 are the following Equations 28 and 29.

[수학식 28]

Figure 112014126610038-pat00038
[Equation 28]
Figure 112014126610038-pat00038

이때, Ks=3이고,

Figure 112014126610038-pat00039
이다.At this time, Ks = 3,
Figure 112014126610038-pat00039
am.

[수학식 29]

Figure 112014126610038-pat00040
[Equation 29]
Figure 112014126610038-pat00040

여기서, 수학식 28 및 수학식 29의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.Here, the inequality sign in Equations 28 and 29 is a case in which the influence of and view data is also taken into consideration.

수학식 29로부터 Ks=3인 지점에서의 2D 영역은 영상 데이터 및 뷰 수와 관계없이 최소 3eH만큼 발생하는 것을 알 수 있다.From Equation 29, it can be seen that the 2D region at the point where Ks=3 occurs by at least 3eH regardless of image data and the number of views.

다음으로, 이상의 결과를 바탕으로 최적 시청거리에서 최적 시청거리의 2배 지점까지의 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화한다.Next, based on the above results, the area for each view and the 2D and 3D areas of the perceived image according to the position of both eyes of the viewer from the optimal viewing distance to the point twice the optimal viewing distance are generalized into equations.

이때, 최적 시청거리의 2배 지점은 좌안이 뷰 다이아몬드의 중앙에 위치할 때, 양안이 2개의 뷰 다이아몬드 내에 위치할 수 있는 최대거리이다.At this time, the point twice the optimal viewing distance is the maximum distance that both eyes can be located within the two viewing diamonds when the left eye is located in the center of the viewing diamond.

도 21a 및 도 21b는 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 21a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 21b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.21A and 21B are diagrams illustrating views perceived from the left and right eyes of a viewer at a position Pj as an example. In this case, FIG. 21A shows the view perceived by the viewer's left eye, and FIG. 21B shows the view perceived by the viewer's right eye.

도 21a 및 도 21b를 참조하면, 예를 들어 시청자의 좌안이 Ks=j인 지점(Pj 위치)의 뷰잉 다이아몬드의 중심에 위치할 때, 좌안과 우안이 인지하는 영상은 단안에 j개의 뷰가 함께 인지되는 것을 알 수 있다.Referring to FIGS. 21A and 21B , for example, when the viewer's left eye is located at the center of the viewing diamond at the point where Ks = j (Pj position), the images perceived by the left and right eyes are j views together in a single eye. can be recognized.

즉, 시청자의 좌안은 K-j-1번째 뷰, K-j번째 뷰, ...., K-1번째 뷰 및 K번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안은 K-j번째 뷰, K-j+1번째 뷰, ...., K번째 뷰 및 K+1번째 뷰의 영상을 함께 인지한다.That is, the viewer's left eye perceives the images of the Kj-1th view, the Kjth view, ...., the K-1th view, and the Kth view together, while the viewer's right eye perceives the Kjth view, K-j+ Images of the 1st view, ...., the Kth view, and the K+1th view are recognized together.

이때, 좌안과 우안에 인지되는 영상간에 동일 뷰(즉, K-j번째 뷰에서부터 K번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생한다.In this case, a region where the same view (ie, the K-j th view to the K th view) overlaps between the images recognized by the left eye and the right eye, that is, a 2D region occurs.

다시 도 21a를 참조하면, 시청자의 좌안에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.Referring again to FIG. 21A , in the image perceived by the viewer's left eye, each view has an equal width of W/Ks.

이와 달리 우안의 경우, 도 21b를 참조하면 K+1번째 뷰의 폭(d)은 다른 뷰들의 폭과 다르며, 다음의 수학식 30과 같이 표현될 수 있다.In contrast, in the case of the right eye, referring to FIG. 21B , the width d of the K+1th view is different from the widths of other views, and can be expressed as Equation 30 below.

[수학식 30]

Figure 112014126610038-pat00041
[Equation 30]
Figure 112014126610038-pat00041

도 21b로부터 (Ks-1)c+d=W임을 알 수 있다. 그리고, 수학식 30으로부터 다음을 알 수 있다.It can be seen from FIG. 21b that (Ks-1)c+d=W. And, from Equation (30), the following can be found.

[수학식 31]

Figure 112014126610038-pat00042
[Equation 31]
Figure 112014126610038-pat00042

수학식 22와 수학식 23 및 수학식 31을 이용하면, Ks=j일 경우(즉, 최적 시청거리에서 최적 시청거리의 2배 지점까지)의 2D, 3D 영역은 다음 수학식 32와 수학식 33과 같다.Using Equations 22, 23, and 31, the 2D and 3D regions in the case of Ks = j (that is, from the optimal viewing distance to a point twice the optimal viewing distance) are obtained by the following Equations 32 and 33 same as

[수학식 32]

Figure 112014126610038-pat00043
[Equation 32]
Figure 112014126610038-pat00043

[수학식 33]

Figure 112014126610038-pat00044
[Equation 33]
Figure 112014126610038-pat00044

여기서, 수학식 32 및 수학식 33의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.Here, the inequality sign in Equations 32 and 33 is a case in which the influence of and view data is also taken into consideration.

수학식 32로부터 최적 시청거리에서 최적 시청거리의 2배 지점까지의 2D 영역은 영상 데이터 및 뷰 수와 관계없이 최소 eKsH만큼 발생하는 것을 알 수 있다.From Equation 32, it can be seen that the 2D region from the optimal viewing distance to a point twice the optimal viewing distance occurs by at least eKsH regardless of image data and the number of views.

다음으로, 최적 시청거리의 2배 이상의 지점에 위치한 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화한다.Next, the area for each view and the 2D and 3D areas of the perceived image according to the position of the viewer's binoculars located at a point at least twice the optimal viewing distance are generalized into equations.

이때, 최적 시청거리의 2배 이상의 지점은 좌안이 뷰 다이아몬드의 중앙에 위치할 때, 양안이 하나의 뷰 다이아몬드 내에 위치하는 거리이다.In this case, a point at least twice the optimal viewing distance is a distance at which both eyes are located within one viewing diamond when the left eye is located in the center of the viewing diamond.

도 22a 및 도 22b는 최적 시청거리의 2배 이상의 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 22a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 22b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.22A and 22B are diagrams illustrating views perceived by the viewer's left and right eyes at a position Pj that is twice the optimal viewing distance or more. In this case, FIG. 22A shows the view perceived by the viewer's left eye, and FIG. 22B shows the view perceived by the viewer's right eye.

그리고, 도 23은 최적 시청거리의 2배가 넘는 시청거리에서, 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면이다.And, FIG. 23 is a view showing, as an example, the positions of both eyes applied to the viewing diamond at a viewing distance that is more than twice the optimal viewing distance.

도 22a와 22b 및 도 23을 참조하면, 예를 들어 최적 시청거리의 2배 이상의 위치에서, 시청자의 양안이 Ks=j인 지점의 뷰잉 다이아몬드에 도 22와 같이 위치할 때, 좌안과 우안이 인지하는 영상은 단안에 j개의 뷰가 함께 인지되는 것을 알 수 있다.22A, 22B and 23 , for example, at a position twice or more of the optimal viewing distance, when the viewer's both eyes are located on the viewing diamond at the point where Ks = j, as shown in FIG. 22, the left and right eyes are recognized It can be seen that j views are recognized together in a single eye.

즉, 시청자의 좌안은 K-j-1번째 뷰, K-j번째 뷰, ...., K-1번째 뷰 및 K번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안은 K-j-1번째 뷰, K-j번째 뷰, ...., K-1번째 뷰 및 K번째 뷰의 영상을 함께 인지한다.That is, the viewer's left eye perceives images of the Kj-1th view, the Kjth view, ...., the K-1th view, and the Kth view together, while the viewer's right eye recognizes the Kj-1th view, the Kjth view. Views, ...., images of the K-1 th view and the K th view are recognized together.

다시 도 22a를 참조하면, 시청자의 좌안에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.Referring again to FIG. 22A , in the image perceived by the viewer's left eye, each view has an equal width of W/Ks.

이와 달리 우안의 경우, 도 22b를 참조하면 K-j-1번째 뷰의 폭(c)은 다른 뷰들의 폭과 다르며, 다음의 수학식 34와 같이 표현될 수 있다.On the other hand, in the case of the right eye, referring to FIG. 22B , the width c of the K-j-1th view is different from the widths of other views, and can be expressed as Equation 34 below.

[수학식 34]

Figure 112014126610038-pat00045
[Equation 34]
Figure 112014126610038-pat00045

도 22b로부터 c+(Ks-1)d=W임을 알 수 있다. 그리고, 수학식 34로부터 다음을 알 수 있다.It can be seen from FIG. 22B that c+(Ks-1)d=W. And, from Equation 34, it can be seen that:

[수학식 35]

Figure 112014126610038-pat00046
[Equation 35]
Figure 112014126610038-pat00046

도 23으로부터 a=e이므로,From Fig. 23, since a = e,

수학식 22와 연립하여 계산하면

Figure 112014126610038-pat00047
임을 알 수 있다.If calculated in conjunction with Equation 22,
Figure 112014126610038-pat00047
it can be seen that

그리고, 이를 수학식 22와 수학식 35와 함께 이용하면, 최적 시청거리의 2배 이상의 위치에서의 2D, 3D 영역은 다음 수학식 36과 수학식 37과 같다.And, when this is used together with Equations 22 and 35, the 2D and 3D regions at a position more than twice the optimal viewing distance are expressed by Equations 36 and 37 below.

[수학식 36]

Figure 112014126610038-pat00048
[Equation 36]
Figure 112014126610038-pat00048

[수학식 37]

Figure 112014126610038-pat00049
[Equation 37]
Figure 112014126610038-pat00049

여기서, 수학식 36 및 수학식 37의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.Here, the inequality sign in Equations 36 and 37 is a case in which the influence of and view data is also taken into consideration.

수학식 32와 수학식 37로부터 시청자 위치에 관계없이 2D 영역이 최소 eKsH만큼 발생하는 것을 알 수 있다.From Equations 32 and 37, it can be seen that the 2D area is generated by at least eKsH regardless of the viewer position.

다음으로, 최적 시청거리 제어를 고려하여, 최적 시청거리의 2배되는 지점과 최적 시청거리의 3배되는 지점의 2D, 3D 영역을 수식으로 일반화한다.Next, in consideration of the optimal viewing distance control, 2D and 3D regions of a point twice the optimal viewing distance and a point three times the optimal viewing distance are generalized into equations.

먼저, 최적 시청거리의 2배되는 지점의 좌표는 수학식 13으로부터,First, the coordinates of the point doubling the optimal viewing distance are from Equation 13,

Figure 112014126610038-pat00050
이며,
Figure 112014126610038-pat00050
is,

이때의

Figure 112014126610038-pat00051
이다.at this time
Figure 112014126610038-pat00051
am.

따라서, 수학식 32와 수학식 33으로부터 최적 시청거리의 2배 위치에서의 2D, 3D 영역을 다음 수학식 38과 수학식 39와 같이 일반화할 수 있다.Accordingly, from Equations 32 and 33, the 2D and 3D regions at a position twice the optimal viewing distance can be generalized as shown in Equations 38 and 39 below.

[수학식 38]

Figure 112014126610038-pat00052
[Equation 38]
Figure 112014126610038-pat00052

[수학식 39]

Figure 112014126610038-pat00053
[Equation 39]
Figure 112014126610038-pat00053

또한, 최적 시청거리의 3배되는 지점의 좌표는 수학식 13으로부터,In addition, the coordinates of a point that is three times the optimal viewing distance is from Equation 13,

Figure 112014126610038-pat00054
이며,
Figure 112014126610038-pat00054
is,

이때의

Figure 112014126610038-pat00055
이다.at this time
Figure 112014126610038-pat00055
am.

따라서, 수학식 36과 수학식 37로부터 최적 시청거리의 3배 위치에서의 2D, 3D 영역을 다음 수학식 40과 수학식 41과 같이 일반화할 수 있다.Accordingly, from Equations 36 and 37, the 2D and 3D regions at a position three times the optimal viewing distance can be generalized as shown in Equations 40 and 41 below.

[수학식 40]

Figure 112014126610038-pat00056
[Equation 40]
Figure 112014126610038-pat00056

[수학식 41]

Figure 112014126610038-pat00057
[Equation 41]
Figure 112014126610038-pat00057

이와 같은 결과에 따르면, 뷰 독립 구조에서는 필연적으로 2D 영역이 발생하는 것을 알 수 있다.According to these results, it can be seen that a 2D region is inevitably generated in the view independent structure.

따라서, 본 발명에서는 시청거리를 N배로 확장하기 위한 무안경 입체영상표시장치에 있어, 뷰 겹침 구조, 즉 뷰잉 다이아몬드를 N번 이상 겹치도록 설계하는 것을 특징으로 한다.Therefore, in the present invention, in the autostereoscopic 3D image display device for extending the viewing distance by N times, the overlapping view structure, that is, the viewing diamond is designed to overlap N times or more.

도 24a 및 도 24b는 시청자의 위치에 따른 멀티 뷰 영상의 시청영역을 예로 들어 보여주는 도면으로서, 뷰잉 다이아몬드의 2중첩 구조를 예로 들어 보여주고 있다. 이때, 도 24b는 도 24a에 도시된 A부분을 확대하여 보여주는 도면이다.24A and 24B are views illustrating a viewing area of a multi-view image according to a viewer's position as an example, illustrating a double-overlapping structure of a viewing diamond as an example. In this case, FIG. 24B is an enlarged view of part A shown in FIG. 24A.

이때, P1 위치가 시청자가 입체영상을 정상적으로 시청할 수 있는 최적 시청거리에 해당한다고 가정한다. 그리고, 도 24a 및 도 24b에는 편의상 일부 영역에서만 뷰잉 다이아몬드가 중첩된 상태를 보여주고 있으나, 실제로는 전 영역에 걸쳐 뷰잉 다이아몬드가 중첩되어 있다.In this case, it is assumed that the position P1 corresponds to the optimal viewing distance at which the viewer can normally view the stereoscopic image. 24A and 24B show a state in which the viewing diamonds are overlapped only in some areas for convenience, but in reality, the viewing diamonds are overlapped over the entire area.

도 24a 및 도 24b를 참조하면, 마름모꼴 영역은 시청영역(viewing zone)으로 뷰잉 다이아몬드(130)를 의미한다.24A and 24B , the diamond-shaped region is a viewing zone and means the viewing diamond 130 .

예로 들면, "K"는 영상패널(110)에 표시된 제 K 뷰 영상(또는 K번째 뷰의 영상)이 보이는 시청영역이고, "K+1"은 영상패널(110)에 표시된 제 K+1 뷰 영상이 보이는 시청영역이다. "K+2"는 영상패널(110)에 표시된 제 K+2 뷰 영상이 보이는 시청영역이고, "K+3"은 영상패널(110)에 표시된 제 K+3 뷰 영상이 보이는 시청영역이다.For example, "K" is the viewing area in which the K-th view image (or the K-th view image) displayed on the image panel 110 is visible, and "K+1" is the K+1-th view displayed on the image panel 110 . This is the viewing area where the video is visible. "K+2" is a viewing area in which the K+2th view image displayed on the image panel 110 is viewed, and "K+3" is a viewing area in which the K+3th view image displayed on the image panel 110 is visible.

이때, 뷰 겹침 구조에 따라 뷰잉 다이아몬드(130)가 겹치는 영역은 뷰가 겹치는 영역으로, 여러 개의 뷰 영상이 인지된다.In this case, the region where the viewing diamond 130 overlaps according to the view overlapping structure is the region where the views overlap, and multiple view images are recognized.

시청자가 P1 위치에서 P2 위치(최적 시청거리의 후방)로 이동할 때, 양안이 (1, 2) 위치에서 (3, 4) 위치로 이동한 것과 거의 유사하다.When the viewer moves from the P1 position to the P2 position (behind the optimal viewing distance), it is almost similar to moving both eyes from the (1,2) position to the (3, 4) position.

뷰잉 다이아몬드의 2중첩 구조를 예로 들면, 다음과 같이 시청자가 인지하는 서브-픽셀 영역을 영상패널(110) 기준으로 나타낼 수 있다.Taking the double overlapping structure of the viewing diamond as an example, the sub-pixel area recognized by the viewer may be represented by the image panel 110 as follows.

이하에서는 최적 시청거리의 바로 뒤의 P2 위치에 형성되는 시청영역들 및 뷰잉 다이아몬드에 대해서 설명하나, 이는 설명의 편의를 위한 것으로 최적 시청거리의 2배 지점 및 이외 다른 지점에서도 동일하게 적용 가능하다.Hereinafter, the viewing areas and the viewing diamond formed at the position P2 immediately after the optimum viewing distance will be described, but this is for convenience of explanation and is equally applicable to points twice the optimum viewing distance and other points.

도 25는 2중첩 구조에 있어, P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다.25 is a diagram illustrating views recognized from the left and right eyes of a viewer at a position P1 in a two-layered structure as an example.

그리고, 도 26은 2중첩 구조에 있어, P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다.And, FIG. 26 is a diagram showing views recognized by the viewer's left and right eyes at the P2 position as an example in a two-layered structure.

도 27은 2중첩 구조에 있어, P2 위치에서 2D, 3D 영역을 보여주는 도면이다.27 is a diagram illustrating 2D and 3D regions at a position P2 in a two-layered structure.

도 25를 참조하면, P1 위치에서 시청자의 좌안(LE1)과 우안(RE1)이 최적 시청거리(Ks=1인 지점; P1 위치)의 뷰잉 다이아몬드 중심에 위치할 경우, 좌안(LE1)과 우안(RE1)이 인지하는 영상은 각각의 뷰로 분리된 영상인 것을 알 수 있다.Referring to FIG. 25, when the viewer's left eye (LE1) and right eye (RE1) are located at the center of the viewing diamond at the optimal viewing distance (point Ks = 1; P1 position) at position P1, left eye (LE1) and right eye ( It can be seen that the image recognized by RE1) is an image separated into each view.

다만, 양안 간격 기반의 뷰잉 다이아몬드 구조에서 뷰 독립 구조일 경우에는 Ks=1인 지점에서 하나의 뷰만 단안에 인지되나, 뷰 중첩 구조에서는 단안에 중첩되는 수만큼의 뷰가 인지된다. 그리고, 뒤로 갈수록 하나의 뷰씩 추가된다.However, in the case of the view-independent structure in the viewing diamond structure based on the binocular interval, only one view is recognized by a single eye at a point Ks=1, but in the view overlapping structure, as many views as the number of overlapping monocular views are recognized. And, one view is added one by one as you go back.

즉, 시청자의 좌안(LE1)은 K번째 뷰와 K+1번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안(RE1)은 K+2번째 뷰와 K+3번째 뷰의 영상을 함께 인지한다.That is, the viewer's left eye LE1 recognizes the images of the K-th view and the K+1th view together, while the viewer's right eye RE1 recognizes the images of the K+2th view and the K+3rd view together. .

이와 같이 좌안(LE1)과 우안(RE1)의 영상이 겹치는 부분이 없으므로, 시청자는 영상패널의 전 영역에 걸쳐 3D로 인지한다.As such, since there is no overlapping portion of the images of the left eye LE1 and the right eye RE1, the viewer perceives the image as 3D over the entire area of the image panel.

도 26을 참조하면, 예를 들어 시청자의 좌안(LE2)이 Ks=2인 지점(최적 시청거리의 바로 뒤; P2 위치)의 뷰잉 다이아몬드의 중심에 위치할 경우, 좌안(LE2)과 우안(RE2)이 인지하는 영상은 단안에 3개의 뷰가 함께 인지되는 것을 알 수 있다.Referring to FIG. 26 , for example, when the viewer's left eye LE2 is located at the center of the viewing diamond at a point Ks=2 (just after the optimal viewing distance; P2 location), the left eye LE2 and the right eye RE2 ), it can be seen that three views are recognized together in a single eye.

이때, 시청자의 좌안(LE2)은 영상패널의 좌측에서 K번째 뷰와 K-1번째 뷰의 영상을 함께 인지하며, 영상패널의 우측에서 K번째 뷰와 K+1번째 뷰의 영상을 함께 인지한다.At this time, the viewer's left eye LE2 recognizes the images of the K-th view and the K-1th view from the left side of the image panel together, and recognizes the images of the K-th view and the K+1th view from the right side of the image panel together. .

반면에 시청자의 우안(RE2)은 영상패널의 좌측에서 K+2번째 뷰와 K+1번째 뷰의 영상을 함께 인지하며, 영상패널의 우측에서 K+2번째 뷰와 K+3번째 뷰의 영상을 함께 인지한다.On the other hand, the viewer's right eye (RE2) perceives the images of the K+2th view and the K+1th view from the left side of the image panel together, and the images of the K+2th view and the K+3th view from the right side of the image panel. recognize together

이때, 좌안(LE2)과 우안(RE2)에 인지되는 영상간에 동일 뷰(즉, K+1번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생하며, 이는 도 27과 같이 표현될 수 있다.In this case, a region where the same view (ie, the K+1th view) overlaps between the images recognized by the left eye LE2 and the right eye RE2 , that is, a 2D region, which may be expressed as shown in FIG. 27 .

다만, 이 경우에는 겹치는 영역이 전부 2D 영역으로 볼 수는 없으며, 2D 영역과 3D 영역과 혼재되어 있어 뷰 독립 구조에 비해 3D 시청영역이 실질적으로 증가하는 효과를 가진다. 이는 좌안(LE2)과 우안(RE2)에 인지되는 영상간에 동일 뷰가 겹치는 영역에서 일부는 뷰 겹침에 따라 3D 영역으로 구현되기 때문이다.However, in this case, not all overlapping regions can be viewed as 2D regions, and since the 2D region and the 3D region are mixed, the 3D viewing region substantially increases compared to the view-independent structure. This is because, in an area where the same view overlaps between images recognized by the left eye LE2 and the right eye RE2, a part is implemented as a 3D area according to the overlapping views.

이를 시청자가 인지하는 서브-픽셀 관점에서 보면 다음과 같다.From the point of view of sub-pixels perceived by viewers, it is as follows.

도 28은 본 발명의 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이 및 렌티큘러 렌즈 배치를 예로 들어 보여주는 도면이다.28 is a view illustrating an arrangement of a pixel array and a lenticular lens in which a view-map is written in the autostereoscopic image display device according to an embodiment of the present invention as an example.

이때, 도 28은 16개의 뷰를 이용하는 경우의 픽셀 어레이를 예로 들어 보여주고 있다. 다만, 본 발명이 전술한 뷰 수에 한정되는 것은 아니다.In this case, FIG. 28 shows a pixel array when 16 views are used as an example. However, the present invention is not limited to the above-described number of views.

도 28의 상단에 표시된 R, G 및 B는 R, G 및 B 서브-픽셀의 위치를 나타낸다.R, G and B indicated at the top of FIG. 28 indicate the positions of the R, G and B sub-pixels.

도 28을 참조하면, m(m은 자연수)뷰를 이용하는 경우, 영상패널은 m개의 서브-픽셀들 단위로 m개의 서브-픽셀들에 순서대로 첫 번째 뷰 내지 m번째 뷰가 할당될 수 있다.Referring to FIG. 28 , when m (m is a natural number) view is used, the first view to the mth view may be sequentially allocated to the m sub-pixels in the image panel in units of m sub-pixels.

즉, 영상패널의 m개의 서브-픽셀들 중 제 K(K는 1≤K≤m을 만족하는 자연수) 서브-픽셀에 K번째 뷰가 할당된다.That is, the K-th view is allocated to the Kth sub-pixel (where K is a natural number satisfying 1≤K≤m) among the m sub-pixels of the image panel.

일 예로 16개의 뷰를 이용하는 경우, 제 1 서브-픽셀에 첫 번째 뷰(1st view)가 할당되고, 제 2 서브-픽셀에 2번째 뷰(2nd view)가 할당되며, 제 3 서브-픽셀에 3번째 뷰(3rd view)가 할당되고, 제 4 서브-픽셀에 4번째 뷰(4th view)가 할당된다. 그리고, 제 5 서브-픽셀에 5번째 뷰(5th view)가 할당되고, 제 6 서브-픽셀에 6번째 뷰(6th view)가 할당되며, 제 7 서브-픽셀에 7번째 뷰(7th view)가 할당되고, 제 8 서브-픽셀에 8번째 뷰(8th view)가 할당된다. 제 9 서브-픽셀에 9번째 뷰(9th view)가 할당되고, 제 10 서브-픽셀에 10번째 뷰(10th view)가 할당되며, 제 11 서브-픽셀에 11번째 뷰(11th view)가 할당되고, 제 12 서브-픽셀에 12번째 뷰(12th view)가 할당된다. 제 13 서브-픽셀에 13번째 뷰(13th view)가 할당되고, 제 14 서브-픽셀에 14번째 뷰(14th view)가 할당되며, 제 15 서브-픽셀에 15번째 뷰(15th view)가 할당되고, 제 16 서브-픽셀에 16번째 뷰(16th view)가 할당된다.As an example, when 16 views are used, a first view (1 st view) is assigned to a first sub-pixel, a second view (2 nd view) is assigned to a second sub-pixel, and a third sub-pixel the third view is assigned the (3 rd view), the fourth sub-pixel is assigned a fourth view to (4 th view). And, a 5 th view is assigned to a 5 th sub-pixel, a 6 th view is assigned to a 6 th sub-pixel, and a 7 th view is assigned to a 7 th sub-pixel. view) is assigned, and the 8 th view is assigned to the 8 th sub-pixel. A ninth sub-is assigned a 10 second view (10 th view) to a pixel, an eleventh sub-11th view of the pixel (11 th view) 9 second view to a pixel (9 th view) is, the tenth sub-assigned the allocation is, 12 sub-assigned to the 12th view (view 12 th) in the pixel. 13th sub-is assigned a 14 second view (14 th view) to the pixel, the 15 sub-15th view of the pixel (15 th view) 13 second view to a pixel (13 th view) is, 14 sub-assigned is assigned, and the 16 th view is assigned to the 16 th sub-pixel.

이를 위해 3D 필터는 서브-픽셀들 대비 소정의 각도로 비스듬하게 형성된 슬랜티드 구조의 렌티큘러 렌즈(125)로 구현될 수 있다. 보다 구체적으로, 슬랜티드 구조의 렌티큘러 렌즈(125)는 서브-픽셀들의 장축 변을 기준으로 소정의 각도만큼 비스듬하게 형성된다.To this end, the 3D filter may be implemented as a lenticular lens 125 having a slanted structure that is obliquely formed at a predetermined angle with respect to the sub-pixels. More specifically, the lenticular lens 125 of the slanted structure is obliquely formed by a predetermined angle with respect to the long axis sides of the sub-pixels.

이에 따라 3D 필터는 m개의 서브-픽셀들에 표시된 제 1 내지 제 m 뷰 영상(변환되기 전의 뷰 영상)들 각각을 첫 번째 뷰 내지 m번째 뷰 각각으로 분할한다. 따라서, 3D 필터는 제 K 서브-픽셀에 표시되는 제 K 뷰 영상을 K번째 뷰로 출력한다.Accordingly, the 3D filter divides each of the first to m-th view images (view images before transformation) displayed in the m sub-pixels into first to m-th views, respectively. Accordingly, the 3D filter outputs the K-th view image displayed in the K-th sub-pixel as the K-th view.

참고로, 본 발명에서 설명되는 뷰-맵이란, 영상패널의 서브-픽셀에 반복적으로 매핑(mapping)되는 각각의 뷰의 데이터 순서 및 위치를 표현하는 것으로서, 시청영역에는 정시영역, 역시영역 및 시청불가 영역이 있다.For reference, the view-map described in the present invention represents the data order and position of each view that is repeatedly mapped to sub-pixels of the image panel, and the viewing area includes a regular area, a reverse area, and a viewing area. There is an impossible area.

여기서, 정시영역은 시청자가 입체영상을 정상적으로 시청할 수 있는 영역으로서 시청자의 우안에는 우안영상이 맺히고, 좌안에는 좌안영상이 맺히는 영역을 말한다.Here, the emmetropic region refers to an area in which a viewer can normally view a stereoscopic image, and refers to an area in which the right eye image is formed in the viewer's right eye and the left eye image is formed in the left eye.

또한, 역시영역은 영상의 차이 정보가 전달되기 때문에, 시청자가 입체적으로 영상을 인식할 수는 있으나, 우안에는 좌안영상이 맺히고 좌안에는 우안영상이 맺히는 영역이기 때문에, 시청자가 눈의 피로를 보다 빨리 느끼게 되는 영역이다.In addition, since the image difference information is transmitted to the reverse region, the viewer can recognize the image three-dimensionally, but since the left eye image is formed in the right eye and the right eye image is formed in the left eye, the viewer can relieve eye fatigue more quickly. It is an area of feeling.

또한, 시청불가 영역은 입체영상의 시청 자체가 불가능한 영역을 말한다In addition, the viewing impossible area refers to an area in which viewing of a stereoscopic image itself is impossible.

즉, 뷰-맵에는 전술한 3가지 영역들이 표시되는 위치들에 대한 좌표정보(즉, 첫 번째 뷰 내지 m번째 뷰)들이 포함되어 있다.That is, the view-map includes coordinate information (ie, the first view to the m-th view) for positions where the three regions are displayed.

그러나, 정시영역과 역시영역을 제외한 영역을 시청불가 영역으로 판단할 수 있음으로, 뷰-맵에는 시청불가 영역에 대한 좌표정보가 생략되어 있을 수도 있다.However, since it is possible to determine an area excluding the normal area and the still area as the unviewable area, coordinate information on the viewable area may be omitted from the view-map.

도 29a 및 도 29b는 P1 위치에서 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.29A and 29B are diagrams showing sub-pixels and views recognized by the left and right eyes at the P1 position by way of example.

이때, 도 29a는 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주며, 도 29b는 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주고 있다.In this case, FIG. 29A shows a sub-pixel and a view recognized by the left eye as an example, and FIG. 29B shows a sub-pixel and a view recognized by the right eye as an example.

이하에서는 해당 뷰 구조 및 맵핑(mapping)이 전 영역에 걸쳐 반복적으로 구성되는 경우를 가정한다.Hereinafter, it is assumed that the corresponding view structure and mapping are repeatedly configured over the entire area.

인접하는 뷰 상호간에 3D 크로스토크가 없는 이상적인 경우, 뷰잉 다이아몬드의 2중첩 구조에서 시청자가 인지하는 뷰는 단안 기준으로 2개이다. 따라서, 도 29a 및 도 29b와 같이 좌안과 우안이 인지하는 서브-픽셀을 표현할 수 있다.In an ideal case where there is no 3D crosstalk between adjacent views, the viewer perceives two views in the two-layered structure of the viewing diamond on a monocular basis. Accordingly, sub-pixels recognized by the left eye and the right eye may be represented as shown in FIGS. 29A and 29B .

이때, 본 발명의 실시예에 따른 무안경 입체영상표시장치는 뷰잉 다이아몬드의 폭을 양안 간격을 기준으로 하고 있어, 뷰잉 다이아몬드의 중첩이 없다면 좌안이 첫 번째 뷰를 인지할 경우 우안은 2번째 뷰를 인지한다.At this time, the autostereoscopic image display device according to the embodiment of the present invention uses the width of the viewing diamond as the distance between the binoculars, so if the left eye recognizes the first view, the right eye takes the second view if there is no overlap of the viewing diamonds. recognize

따라서, 2중첩의 경우에는 좌안과 우안 사이에 뷰잉 다이아몬드가 한 개 더 존재하게 됨에 따라 도 29a 및 도 29b와 같이, 좌안이 첫 번째 뷰와 2번째 뷰를 인지할 경우 우안은 3번째 뷰와 4번째 뷰를 인지한다.Therefore, in the case of two overlapping, as one more viewing diamond exists between the left and right eyes, as shown in FIGS. 29A and 29B, when the left eye recognizes the first view and the second view, the right eye is the third view and the fourth view. Recognize the second view.

즉, 2중첩의 경우에는 좌안이 제 1 뷰 영상과 제 2 뷰 영상을 볼 경우 우안은 제 3 뷰 영상과 제 4 뷰 영상을 보게 된다.That is, in the case of two overlapping, when the left eye sees the first-view image and the second-view image, the right eye sees the third-view image and the fourth-view image.

도 30a 및 도 30b는 P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.30A and 30B are diagrams illustrating sub-pixels and views perceived by the left eye at a position P2 by way of example.

그리고, 도 31a 및 도 31b는 P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.31A and 31B are diagrams illustrating sub-pixels and views recognized by the right eye at a position P2 as an example.

이때, 도 30a 및 도 31b는 3D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다. 그리고, 도 30b 및 도 31a는 2D 영역(실제는 2D, 3D 혼재영역; 도 27 참조)에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다.In this case, FIGS. 30A and 31B show sub-pixels and views recognized by the left and right eyes in the 3D region as an example. And, FIGS. 30B and 31A show sub-pixels and views perceived by the left and right eyes in a 2D area (actually a 2D and 3D mixed area; see FIG. 27) as examples.

즉, 도 30a는 영상패널 좌측의 3D 영역에서의 좌안에서 인지되는 서브-픽셀과 뷰를 보여주며, 도 31b는 영상패널 우측의 3D 영역에서의 우안에서 인지되는 서브-픽셀과 뷰를 보여준다. 그리고, 도 30b는 영상패널 중앙(실제는 중앙에서 약간 우측)의 2D 영역에서의 좌안에서 인지되는 서브-픽셀과 뷰를 보여주며, 도 31a는 영상패널 중앙의 2D 영역에서의 우안에서 인지되는 서브-픽셀과 뷰를 보여준다.That is, FIG. 30A shows sub-pixels and views perceived by the left eye in the 3D area on the left side of the image panel, and FIG. 31B shows sub-pixels and views recognized by the right eye in the 3D area on the right side of the image panel. And, FIG. 30B shows the sub-pixel and view perceived by the left eye in the 2D area in the center of the image panel (actually, slightly right from the center), and FIG. 31A is the sub-pixel perceived by the right eye in the 2D area at the center of the image panel. - Display pixels and views.

다만, 이는 2중첩 구조의 P2 위치에서 인지되는 서브-픽셀과 뷰를 예로 들어 설명하는 것이며, 본 발명이 이에 한정되는 것은 아니다.However, this is described by taking the sub-pixel and the view recognized at the P2 position of the two-overlapping structure as an example, and the present invention is not limited thereto.

2중첩의 경우에 P2 위치에서는 좌안과 우안 사이에 뷰잉 다이아몬드가 한 개 더 존재하여 도 30a와 도 30b 및 도 31a와 도 31b와 같이, 좌안이 첫 번째 뷰와 2번째 뷰 및 16번째 뷰를 인지할 경우 우안은 2번째 뷰와 3번째 뷰 및 4번째 뷰를 인지한다.In the case of 2 overlapping, at the P2 position, there is one more viewing diamond between the left and right eyes, and as shown in FIGS. 30A and 30B and 31A and 31B, the left eye perceives the first view, the second view, and the 16th view. In this case, the right eye perceives the 2nd view, the 3rd view, and the 4th view.

즉, 2중첩의 경우에 P2 위치에서는 좌안이 제 1 뷰 영상과 제 2 뷰 영상 및 제 16 뷰 영상을 볼 경우 우안은 제 2 뷰 영상과 제 3 뷰 영상 및 제 4 뷰 영상을 보게 된다.That is, in the case of two overlapping, when the left eye sees the first-view image, the second-view image, and the 16th-view image at the P2 position, the right eye sees the second-view image, the third-view image, and the fourth-view image.

이와 같이 도 27 및 도 30a, 도 30b, 도 31a, 도 31b로부터 좌안 및 우안에서 인지되는 서브-픽셀은 영상패널의 일부 영역에 2D 영역이 일부 발생하는 것을 알 수 있다.As described above, it can be seen from FIGS. 27, 30A, 30B, 31A, and 31B that a 2D area is partially generated in a partial area of the image panel in the sub-pixels recognized by the left and right eyes.

즉, 전술한 바와 같이 도 27에서는 영상패널의 중앙에서 중앙 우측 일부 영역에 K+1번째 뷰가 좌안과 우안에 동시에 입력되는 것을 확인할 수 있다. 그리고, 도 30b 및 도 31a에서는 점선의 사각형으로 표시한 2번째 뷰가 겹치는 것을 알 수 있다.That is, as described above, in FIG. 27 , it can be seen that the K+1th view is simultaneously input to the left eye and the right eye in a partial region right of the center from the center of the image panel. In addition, it can be seen that the second views indicated by the dotted rectangles overlap with each other in FIGS. 30B and 31A .

이때, 도 30b 및 도 31a는 전술한 바와 같이 영상패널 중앙(실제는 중앙에서 약간 우측)의 2D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 보여준다.At this time, FIGS. 30B and 31A show sub-pixels and views perceived by the left and right eyes in the 2D area of the center of the image panel (actually, slightly right from the center) as described above.

다만, 이러한 본 발명의 실시예의 경우에는 시청자의 좌안이 K-1번째 뷰와 K번째 뷰 및 K+1번째 뷰를 인지할 때, 시청자의 우안은 K+1번째 뷰와 K+2번째 뷰 및 K+3번째 뷰를 인지하기 때문에 좌안대비 우안이 인지하는 영상이 상대적으로 오른쪽 뷰 영상이다. 이는 영상 정보를 적분해서 인지하는 눈의 특성상 시청자는 다수의 뷰를 인지하는 좌안과 우안 사이에 차이(disparity)가 존재한다고 판단하므로 3D 영상을 시청할 수 있다. 또한, 뷰 독립 구조에 비해 실질적으로 3D 시청영역이 증가하기 때문에 뷰잉 다이아몬드의 중첩 수를 증가시킬수록 2D 인지 서브-픽셀의 비율이 줄어드는 것을 알 수 있다.However, in this embodiment of the present invention, when the viewer's left eye recognizes the K-1th view, the Kth view, and the K+1th view, the viewer's right eye is the K+1th view, the K+2th view, and Since the K+3th view is recognized, the image perceived by the right eye compared to the left eye is a relatively right-view image. This is because the viewer can view the 3D image because it is determined that there is a disparity between the left eye and the right eye for recognizing multiple views due to the characteristics of the eye that integrates image information. Also, since the 3D viewing area is substantially increased compared to the view independent structure, it can be seen that the ratio of 2D perceived sub-pixels decreases as the overlapping number of viewing diamonds increases.

다만, 이 경우에도 단안에 영역별로 다수의 뷰가 동시에 인지되기 때문에 크로스토크가 발생할 수 있다. 따라서, 본 발명의 실시예에서는 다음과 같이 뷰 데이터 렌더링(view data rendering) 기술을 적용하여 시청자 위치에 따라 영상패널의 뷰 데이터를 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 데이터로 각각 치환하는 것을 특징으로 한다.However, even in this case, crosstalk may occur because a plurality of views for each region are simultaneously recognized by a single eye. Therefore, in the embodiment of the present invention, view data rendering technology is applied as follows to convert view data of an image panel into one view data having a disparity for the left and right eyes according to the viewer position, respectively. It is characterized by substitution.

도 32a 및 도 32b는 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.32A and 32B are diagrams showing sub-pixels and views recognized from the left eye at the P2 position as an example when view data rendering is applied.

그리고, 도 33a 및 도 33b는 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.And, FIGS. 33A and 33B are diagrams showing sub-pixels and views recognized by the right eye at the P2 position as an example when view data rendering is applied.

이때, 도 32a 및 도 33b는 3D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다. 그리고, 도 32b 및 도 33a는 2D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다.In this case, FIGS. 32A and 33B show sub-pixels and views recognized by the left and right eyes in the 3D region as an example. And, FIGS. 32B and 33A show sub-pixels and views recognized by the left and right eyes in the 2D region as an example.

도 34 및 도 35는 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면이다.34 and 35 are diagrams illustrating examples of converting input data through view data rendering.

이때, 도 35에 도시된 1, 2, 3,... 및 16은 각각 제 1 뷰 영상, 제 2 뷰 영상, 제 3 뷰 영상,... 및 제 16 뷰 영상을 의미한다.At this time, 1, 2, 3, ... and 16 shown in FIG. 35 mean a first-view image, a second-view image, a third-view image, ..., and a sixteenth-view image, respectively.

도 32a, 도 32b, 도 33a, 도 33b, 도 34 및 도 35를 참조하면, 본 발명의 실시예에 따른 뷰 데이터 렌더링 기술을 적용하여 영역별로 인지되는 다수의 뷰를 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 데이터로 각각 치환한다. 즉, 일 예로 좌안의 경우에는 인지되는 다수의 뷰의 데이터들 중 어느 하나의 뷰 데이터로 치환하며, 우안의 경우에는 인지되는 다수의 뷰의 데이터들 중 좌안에서 치환된 뷰 데이터를 제외한 다른 하나의 뷰 데이터로 치환할 수 있다.32A, 32B, 33A, 33B, 34 and 35 , by applying the view data rendering technique according to the embodiment of the present invention, a plurality of views recognized for each area are different ( disparity), replacing each view with one view data. That is, for example, in the case of the left eye, any one view data among the data of a plurality of recognized views is substituted, and in the case of the right eye, the data of the other one excluding the view data substituted for the left eye among the data of a plurality of recognized views. It can be replaced with view data.

일 예로 16개의 뷰를 이용하는 경우, 좌안의 16번째 뷰(도 34, 도 35에 도시된 16th view) 및 첫 번째 뷰(1st view)의 입력 데이터가 제 16 뷰 영상 및 제 1 뷰 영상에서 제 1 뷰 영상으로 변환된다.As an example the case of using the 16 views, 16th view of the left input data for and the first view (1 st view) (Fig. 34, the 16-th view shown in FIG. 35) is in claim 16, the view image and the first view image converted into a first view image.

그리고, 좌, 우안의 2번째 뷰(2nd view) 및 우안의 3번째 뷰(3rd view)와 4번째 뷰(4th view)의 입력 데이터가 제 2 뷰 영상 및 제 3 뷰 영상과 제 4 뷰 영상에서 제 2 뷰 영상으로 변환된다.Then, the left and the second view of the right eye (2 nd view) and the third view of the right eye (3 rd view) and fourth views of input data (4 th view) and a second view image and the third-view image and the fourth The view image is converted into a second view image.

이때, 예로 든 제 1 뷰 영상과 제 2 뷰 영상은 양안 간격의 차이(disparity)를 갖는 영상을 의미하나, 깊이 조절을 위하여 그 이상 또는 그 이하의 차이를 갖는 뷰 영상도 가능하다.In this case, the first-view image and the second-view image as an example mean an image having a disparity between the binoculars, but a view image having a greater or lesser difference for depth control is also possible.

이와 같이 변환된 뷰 영상을 입력할 경우 도 32a와 도 32b 및 도 33a와 도 33b와 같이 맵핑되며, 도시하진 않았지만 주변 뷰의 영상 또한 적절하게 변환시킬 수 있다. 이에 따라 크로스토크가 감소된다.When the transformed view image is input, it is mapped as shown in FIGS. 32A and 32B and FIGS. 33A and 33B , and although not shown, an image of a surrounding view can also be appropriately transformed. Accordingly, crosstalk is reduced.

한편, 좌안과 우안에서 동일한 뷰를 인지하는 2D 영역을 완전히 제거하기 위해서 2D 영역에 해당하는 서브-픽셀의 뷰 영상만 제거할 수 있다. 일 예로, 2D 영역에 해당하는 서브-픽셀의 뷰에 블랙 데이터를 삽입하면, 좌안과 우안의 인지 서브-픽셀이 겹치는 부분이 제거된다.Meanwhile, in order to completely remove the 2D region recognizing the same view in the left eye and the right eye, only the view image of the sub-pixel corresponding to the 2D region may be removed. For example, when black data is inserted into a view of a sub-pixel corresponding to a 2D region, a portion where the perception sub-pixels of the left eye and the right eye overlap are removed.

도 36은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 다른 예를 보여주는 도면이다.36 is a diagram illustrating another example of converting input data through view data rendering.

이때, 도 36은 2D 영역에 해당하는 2번째 뷰(도 36에 도시된 2nd view)에 블랙 데이터를 삽입한 것을 제외하고는 전술한 도 34와 실질적으로 동일하다.In this case, Figure 36 is substantially the same as the FIG. 34 described above, except that insert the black data (the 2 nd view shown in Fig. 36), the second view corresponding to the 2D area.

그리고, 도 37은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.And, FIG. 37 is a diagram illustrating sub-pixels and views recognized from the left eye at a position P2 as an example when the view data rendering shown in FIG. 36 is applied.

도 38은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.FIG. 38 is a diagram illustrating sub-pixels and views recognized by the right eye at the P2 position as an example when the view data rendering shown in FIG. 36 is applied.

도 36과 도 37 및 도 38을 참조하면, 본 발명의 실시예에 따른 뷰 데이터 렌더링 기술을 적용하여 영역별로 인지되는 다수의 뷰의 데이터들을 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 데이터로 각각 치환하는 동시에 2D 영역에 해당하는 뷰에는 블랙 데이터를 삽입한다.36, 37 and 38 , one view having a disparity with respect to left and right eyes of data of a plurality of views recognized for each region by applying the view data rendering technique according to an embodiment of the present invention At the same time replacing each data with data, black data is inserted into the view corresponding to the 2D area.

즉, 일 예로 좌안의 경우에는 인지되는 다수의 뷰의 데이터들 중 어느 하나의 뷰 데이터로 치환하며, 우안의 경우에는 인지되는 다수의 뷰의 데이터들 중 좌안에서 치환된 뷰 데이터를 제외한 다른 하나의 뷰 데이터로 치환할 수 있다. 그리고, 이와 동시에 2D 영역에 해당하는 뷰에는 블랙 데이터를 삽입한다.That is, for example, in the case of the left eye, any one view data among the data of a plurality of recognized views is substituted, and in the case of the right eye, the data of the other one excluding the view data substituted for the left eye among the data of a plurality of recognized views. It can be replaced with view data. At the same time, black data is inserted into the view corresponding to the 2D area.

일 예로 16개의 뷰를 이용하는 경우, 좌안의 16번째 뷰(도 36에 도시된 16th view) 및 첫 번째 뷰(1st view)의 입력 데이터가 제 16 뷰 영상 및 제 1 뷰 영상에서 제 1 뷰 영상으로 변환된다.If the example using the 16 views, 16th view of the left eye (the 16-th view shown in Fig. 36) and the first view, the input data of the (1 st view) of claim 16, the view image and the first view in a first view image converted to video.

그리고, 우안의 3번째 뷰(3rd view) 및 4번째 뷰(4th view)의 입력 데이터가 제 3 뷰 영상 및 제 4 뷰 영상에서 제 2 뷰 영상으로 변환된다.Then, the input data of the right-eye view of the third (3 rd view) and the fourth view (view 4 th) is converted to the second view image in the third image view, and the fourth view image.

이와 동시에 2D 영역에 해당하는 좌, 우안의 2번째 뷰(2nd view)의 입력 데이터는 블랙 데이터로 변환된다.At the same time, the left, the input data of the second view of the right eye (2 nd view) corresponding to the 2D area is converted into black data.

이때, 예로 든 제 1 뷰 영상과 제 2 뷰 영상은 양안 간격의 차이(disparity)를 갖는 영상을 의미하나, 깊이 조절을 위하여 그 이상 또는 그 이하의 차이를 갖는 뷰 영상도 가능하다.In this case, the first-view image and the second-view image as an example mean an image having a disparity between the binoculars, but a view image having a greater or lesser difference for depth control is also possible.

이와 같이 변환된 뷰 영상을 입력할 경우 도 37 및 도 38과 같이 맵핑되어 좌안과 우안에서 인지되는 서브-픽셀의 겹치는 부분이 완전히 제거된다.When the transformed view image is input as shown in FIGS. 37 and 38 , the overlapping portions of sub-pixels recognized by the left and right eyes are completely removed as shown in FIGS. 37 and 38 .

다만, 이 경우에는 휘도가 감소될 수 있으며, 이에 따라 2D 영역의 뷰에 블랙 데이터 대신에 인접한 뷰와 동일하거나 유사한 뷰 데이터를 입력할 수도 있다.However, in this case, luminance may be reduced, and accordingly, view data identical to or similar to that of an adjacent view may be input to the view of the 2D area instead of the black data.

이때, 2D 영역의 비율은 뷰 겹침의 수를 증가시킴으로써 줄일 수 있다.In this case, the ratio of the 2D area can be reduced by increasing the number of overlapping views.

이러한 본 발명에 따르면, 3D 시청영역이 확장되어 시청 자유도가 높아짐과 동시에 초점 거리와 배면거리의 설계 자유도가 높아진다. 이 경우 시청거리와 초점거리를 조절하기 위해 사용되는 갭 글라스(또는 갭 필름)를 제거할 수 있어 비용이 감소되는 효과를 제공한다.According to the present invention, the 3D viewing area is expanded to increase the viewing freedom and at the same time increase the design freedom of the focal length and the rear distance. In this case, it is possible to remove the gap glass (or gap film) used to adjust the viewing distance and the focal length, thereby providing an effect of reducing the cost.

이와 같이 시청자의 위치를 인식한 후에 시청자의 위치를 기반으로 시청자가 인지하는 서브-픽셀과 그 서브-픽셀에 대응되는 뷰, 그리고 영상패널을 기준으로 몇 개의 뷰가 시청자의 좌안과 우안에 인지되는 지를 전술한 수학식 등을 통해 연산할 수 있다.In this way, after recognizing the viewer's location, the sub-pixel recognized by the viewer based on the viewer's location, the views corresponding to the sub-pixel, and several views based on the image panel are recognized by the viewer's left and right eyes. It can be calculated through the above-described equations and the like.

또한, 2D 발생 영역을 좌표로 표현할 수 있어 이를 바탕으로 뷰 데이터 렌더링의 적용 여부 및 적용이 필요한 뷰를 선택적으로 적용할 수 있다.In addition, since the 2D generation area can be expressed as coordinates, based on this, whether or not to apply view data rendering and the view that needs to be applied can be selectively applied.

참고로, 시청거리 감지부에 의한 아이-트랙킹(eye tracking) 알고리즘은 다음과 같다. 본원 출원인은 대한민국 출원 10-2013-0038815 등을 통해 아이-트랙킹 알고리즘을 제안한 바 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.For reference, the eye tracking algorithm by the viewing distance sensor is as follows. The applicant of the present application has proposed an eye-tracking algorithm through Korean application 10-2013-0038815 and the like. However, the present invention is not limited thereto.

우선, 카메라를 통해 촬영된 입력 영상으로부터 사용자의 수 및 사용자의 얼굴을 검출한다. 예를 들면, 하르 분류기(Haar Classifier) 등과 같은 얼굴 검출 방법을 이용하여 입력 영상으로부터 사용자의 얼굴을 검출한다.First, the number of users and the user's faces are detected from an input image captured by a camera. For example, the user's face is detected from the input image using a face detection method such as a Haar classifier.

이후, 검출된 사용자의 얼굴에서 눈 중심 좌표, 즉 좌안과 우안 사이의 중심 좌표를 검출한다. 예를 들면, AAM(Active Appearance Model) 등과 같은 눈 모델을 이용하여 좌안 및 우안과 같은 초기의 특징 점들을 선정한 다음, EBGM 모델 등을 통해 최종 특징점인 눈 중심 좌표를 검출한다.Thereafter, eye center coordinates, ie, center coordinates between the left and right eyes, are detected from the detected user's face. For example, initial feature points such as the left eye and the right eye are selected using an eye model such as an Active Appearance Model (AAM), and then, eye center coordinates, which are final feature points, are detected through an EBGM model.

이후, 검출된 눈 중심 좌표를 이용하여 눈을 이용한 거리 모델에 적용하여 사용자의 눈 위치 정보를 산출한다. 사용자의 눈 위치 정보는 입체영상표시장치의 중심점을 기준으로 한 X, Y, Z 좌표 값으로 산출된다.Then, the user's eye position information is calculated by applying the detected eye center coordinates to the distance model using the eyes. The user's eye position information is calculated as X, Y, and Z coordinate values based on the center point of the stereoscopic image display device.

시청자의 좌안과 우안이 위치하는 시청영역의 위치 판단은 전술한 바와 같이 시청 거리 감지부에 의해 감지된 시청자 양안 위치 정보(좌표 값)와 룩업테이블에 저장된 시청영역 위치 정보(좌표 정보)를 비교하는 방법으로 판단할 수 있다. 이렇게 시청자의 양안이 위치하는 시청영역이 판단되면, 시청자의 양안이 위치하는 시청영역들 내에서 우안 또는 좌안의 위치와 그 시청영역들 내에서 보여지는 좌측과 우측 영상의 비율을 파악하여야 한다. 이와 관련된 상세한 설명은 기 출원된 대한민국 출원 10-2012-0108794를 참조할 수 있으며, 전술한 수학식들과 같이 수식으로 일반화할 수 있다.As described above, the determination of the position of the viewing area in which the left and right eyes of the viewer are located is performed by comparing the position information (coordinate values) of the viewer's eyes detected by the viewing distance sensing unit and the position information (coordinate information) of the viewing area stored in the lookup table. method can be judged. When the viewing area in which both eyes of the viewer are located is determined in this way, the position of the right eye or left eye in the viewing areas in which both eyes of the viewer are located and the ratio of the left and right images shown in the viewing areas should be grasped. For a detailed description related thereto, reference may be made to the previously filed Korean application 10-2012-0108794, and may be generalized to equations such as the above-described equations.

상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.Although many matters are specifically described in the above description, these should be construed as examples of preferred embodiments rather than limiting the scope of the invention. Therefore, the invention should not be defined by the described embodiments, but should be defined by the claims and equivalents to the claims.

110 : 영상패널 120 : 렌티큘러 렌즈판
125 : 렌티큘러 렌즈 130 : 뷰잉 다이아몬드
110: image panel 120: lenticular lens plate
125: lenticular lens 130: viewing diamond

Claims (9)

m(m은 자연수)개의 서브-픽셀에 순차적으로 첫 번째 뷰 내지 m번째 뷰가 할당되어 멀티 뷰의 입력 데이터를 표시하는 영상패널;
상기 영상패널의 전면에 배치되며, 상기 입력 데이터의 광축을 분리하여 최적 시청거리에 제 1 뷰 영상 내지 제 K(K는 1≤K≤m을 만족하는 자연수) 뷰 영상이 표시되는 뷰잉 다이아몬드(viewing diamond)를 형성하는 3D 필터; 및
시청자의 위치 및 2D 영역에 해당하는 뷰를 연산하고, 이를 바탕으로 상기 뷰잉 다이아몬드를 상호 중첩시키는 타이밍 컨트롤러를 포함하고,
상기 2D 영역은 eKsH(이때, e는 양안 간격을 의미하며, Ks 및 H는 각각 상기 최적 시청거리로부터 후방에 순서대로 형성되는 뷰잉 다이아몬드의 순서 및 상기 영상패널의 높이를 의미)와 같거나 큰 것을 특징으로 하는 무안경 입체영상표시장치.
an image panel in which first to m-th views are sequentially allocated to m (m is a natural number) sub-pixels to display input data of multi-views;
A viewing diamond disposed on the front side of the image panel and displaying a first view image to a Kth view image (K is a natural number satisfying 1≤K≤m) at an optimal viewing distance by separating the optical axis of the input data. 3D filter to form a diamond); and
a timing controller that calculates a view corresponding to a viewer's position and a 2D area, and overlaps the viewing diamonds based on this;
The 2D area is equal to or greater than eKsH (in this case, e means the distance between the eyes, and Ks and H are the order of the viewing diamonds and the height of the image panel formed in order from the optimal viewing distance, respectively). Glasses-free stereoscopic image display device.
제 1 항에 있어서, 상기 시청자의 위치가 상기 최적 시청거리의 N배에 해당하는 경우 상기 뷰잉 다이아몬드를 N번 이상 중첩시키는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic image display apparatus according to claim 1, wherein the viewing diamond is overlapped N times or more when the position of the viewer corresponds to N times the optimal viewing distance. 제 1 항에 있어서, 상기 타이밍 컨트롤러는 상기 시청자의 위치에 따라 시청자의 좌안과 우안이 인지하는 뷰 및 뷰의 수를 연산하는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic image display apparatus according to claim 1, wherein the timing controller calculates the views and the number of views recognized by the viewer's left and right eyes according to the viewer's position. 제 3 항에 있어서, 상기 연산된 뷰 및 뷰의 수를 바탕으로 뷰 데이터 렌더링 영역을 선정하는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic image display apparatus according to claim 3, wherein the view data rendering area is selected based on the calculated views and the number of views. 제 4 항에 있어서, 상기 선정된 뷰 데이터 렌더링 영역을 바탕으로 상기 뷰 영상을 상기 시청자의 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 영상으로 각각 치환하는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic stereoscopic image according to claim 4, wherein the view image is replaced with a single view image having a disparity for the left and right eyes of the viewer based on the selected view data rendering area. display device. 제 5 항에 있어서, 상기 좌안의 경우에는 인지되는 다수의 뷰 영상들 중 어느 하나의 뷰 영상으로 치환하며, 우안의 경우에는 인지되는 다수의 뷰 영상들 중 좌안에서 치환된 뷰 영상을 제외한 다른 하나의 뷰 영상으로 치환하는 것을 특징으로 하는 무안경 입체영상표시장치.The method according to claim 5, wherein in the case of the left eye, any one view image among a plurality of recognized view images is replaced, and in the case of the right eye, another view image is replaced with the view image replaced by the left eye among the plurality of view images recognized. A glasses-free stereoscopic image display device, characterized in that it is replaced with a view image of 삭제delete 제 1 항에 있어서, 상기 2D 영역에 해당하는 서브-픽셀의 뷰에 블랙 데이터를 삽입하는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic image display apparatus according to claim 1, wherein black data is inserted into a view of a sub-pixel corresponding to the 2D area. 제 8 항에 있어서, 상기 2D 영역에 해당하는 서브-픽셀의 뷰에 인접한 뷰와 동일하거나 유사한 뷰 데이터를 입력하는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic image display apparatus according to claim 8, wherein view data identical to or similar to a view adjacent to a view of a sub-pixel corresponding to the 2D region is input.
KR1020140191078A 2014-12-26 2014-12-26 Autostereoscopic 3d display device KR102279816B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140191078A KR102279816B1 (en) 2014-12-26 2014-12-26 Autostereoscopic 3d display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140191078A KR102279816B1 (en) 2014-12-26 2014-12-26 Autostereoscopic 3d display device

Publications (2)

Publication Number Publication Date
KR20160079555A KR20160079555A (en) 2016-07-06
KR102279816B1 true KR102279816B1 (en) 2021-07-21

Family

ID=56502494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140191078A KR102279816B1 (en) 2014-12-26 2014-12-26 Autostereoscopic 3d display device

Country Status (1)

Country Link
KR (1) KR102279816B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102447101B1 (en) 2017-09-12 2022-09-26 삼성전자주식회사 Image processing method and apparatus for autostereoscopic three dimensional display
KR102573104B1 (en) * 2017-12-27 2023-08-30 엘지디스플레이 주식회사 Head up display device
KR20220045862A (en) 2020-10-06 2022-04-13 삼성전자주식회사 Method and apparatus of measuring dynamic crosstalk

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101296901B1 (en) 2010-10-12 2013-08-14 엘지디스플레이 주식회사 3d image display device and driving method thereof
US20130321246A1 (en) * 2012-05-30 2013-12-05 Superd Co., Ltd. Stereoscopic display apparatus and adjustment method
KR101380517B1 (en) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 Multi-view autostereoscopic image display and method of controlling optimal viewing distance
KR101449748B1 (en) 2011-08-18 2014-10-13 엘지디스플레이 주식회사 Display Apparatus For Displaying Three Dimensional Picture And Driving Method For The Same
EP2811746A1 (en) 2012-02-02 2014-12-10 Korea Institute of Science and Technology Glasses-free 3d image display device for flattening field of view and minimizing dynamic crosstalk

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101497511B1 (en) * 2008-09-19 2015-03-02 삼성전자주식회사 APPARATUS FOR MULTIPLEXING 2 DIMENSIONAL and 3 DIMENSIONAL IMAGE AND VIDEO

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101296901B1 (en) 2010-10-12 2013-08-14 엘지디스플레이 주식회사 3d image display device and driving method thereof
KR101449748B1 (en) 2011-08-18 2014-10-13 엘지디스플레이 주식회사 Display Apparatus For Displaying Three Dimensional Picture And Driving Method For The Same
EP2811746A1 (en) 2012-02-02 2014-12-10 Korea Institute of Science and Technology Glasses-free 3d image display device for flattening field of view and minimizing dynamic crosstalk
US20130321246A1 (en) * 2012-05-30 2013-12-05 Superd Co., Ltd. Stereoscopic display apparatus and adjustment method
KR101380517B1 (en) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 Multi-view autostereoscopic image display and method of controlling optimal viewing distance

Also Published As

Publication number Publication date
KR20160079555A (en) 2016-07-06

Similar Documents

Publication Publication Date Title
EP2268046B1 (en) Autostereoscopic display device and method
KR101380517B1 (en) Multi-view autostereoscopic image display and method of controlling optimal viewing distance
JP6443654B2 (en) Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof
US9838674B2 (en) Multi-view autostereoscopic display and method for controlling optimal viewing distance thereof
KR102197382B1 (en) Bendable stereoscopic 3d display device
KR102284841B1 (en) Autostereoscopic 3d display device
KR102218777B1 (en) Autostereoscopic 3d display device
KR102121389B1 (en) Glassless 3d display apparatus and contorl method thereof
US20120120065A1 (en) Image providing apparatus and image providing method based on user's location
KR102175813B1 (en) Three dimensional image display device and method of processing image
US10939092B2 (en) Multiview image display apparatus and multiview image display method thereof
KR102279816B1 (en) Autostereoscopic 3d display device
KR101721103B1 (en) Stereoscopic 3d display device and method of driving the same
KR101717650B1 (en) Stereoscopic 3d display device and method of driving the same
KR102233116B1 (en) Stereopsis image display device and method of driving the same
KR102334031B1 (en) Autostereoscopic 3d display device and driving method thereof
KR101697591B1 (en) Stereoscopic 3d display device and method of driving the same
KR102189009B1 (en) Three Dimensional Image Display Device
KR20160024283A (en) Lenticular lens type stereoscopic 3d display device
KR102232462B1 (en) Autostereoscopic 3d display device
KR20120070362A (en) Stereoscopic 3d display device and method of driving the same
KR101950816B1 (en) Display Apparatus For Displaying Three Dimensional Picture And Driving Method For The Same
KR20160079552A (en) 3D display device and driving method thereof
KR20150035104A (en) Method of adjusting three-dimensional effect and stereoscopic image display using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant