KR20160079552A - 3D display device and driving method thereof - Google Patents

3D display device and driving method thereof Download PDF

Info

Publication number
KR20160079552A
KR20160079552A KR1020140191074A KR20140191074A KR20160079552A KR 20160079552 A KR20160079552 A KR 20160079552A KR 1020140191074 A KR1020140191074 A KR 1020140191074A KR 20140191074 A KR20140191074 A KR 20140191074A KR 20160079552 A KR20160079552 A KR 20160079552A
Authority
KR
South Korea
Prior art keywords
image
view
data
information
panel
Prior art date
Application number
KR1020140191074A
Other languages
Korean (ko)
Other versions
KR102293837B1 (en
Inventor
진경아
김혜진
박명수
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020140191074A priority Critical patent/KR102293837B1/en
Publication of KR20160079552A publication Critical patent/KR20160079552A/en
Application granted granted Critical
Publication of KR102293837B1 publication Critical patent/KR102293837B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Abstract

Provided is a stereoscopic image display device capable of improving quality of a 3D image, while alleviating level difference by conducting a compensation process only for data in an area in which the level difference has occurred. The stereoscopic image display device comprises: an image panel, an image compensation unit, and a data operation unit. The image compensation unit is configured to estimate a position on the image panel, on which the level difference is expected to occur so as to define a compensation area and compensate for data included in the compensation area to generate compensation image data.

Description

입체영상표시장치 및 이의 동작방법{3D display device and driving method thereof}[0001] The present invention relates to a stereoscopic image display device and a driving method thereof,

본 발명은 입체영상표시장치에 관한 것으로, 특히 멀티 뷰(multi view) 입체영상표시장치에서 뷰 어긋남에 의해 발생되는 단차현상을 완화시킬 수 있는 입체영상표시장치 및 이의 동작방법에 관한 것이다. The present invention relates to a stereoscopic image display apparatus, and more particularly, to a stereoscopic image display apparatus and a method of operating the same that can alleviate a step phenomenon caused by a view misalignment in a multi view stereoscopic image display apparatus.

3D 디스플레이(이하, 입체영상표시장치라 함)는 사람이 입체감을 느끼는 여러 요인 중 우리 눈이 가로방향으로 약 65mm 떨어져 있어서 나타나게 되는 양안시차(binocular disparity)를 이용하여 평면적인 디스플레이 하드웨어에서 말 그대로 가상적으로 입체감을 느낄 수 있게 하는 시스템의 총체이다. The 3D display (hereinafter, referred to as a stereoscopic image display device) is a stereoscopic image display device in which, by using binocular disparity, which is caused when the eye is separated from the lateral direction by about 65 mm, Which is a total system that allows you to feel a three-dimensional feeling.

다시 말해 우리의 눈은 양안시차 때문에 똑같은 사물을 바라보더라도 각각 다른 화상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면 뇌는 이를 정확히 서로 융합시킴으로써 우리가 입체감을 느낄 수 있게 되는데, 그것을 이용하여 2D 디스플레이 장치에서 좌우 화상 2개를 동시에 표시하여 각각의 눈으로 보내는 설계를 통해 가상적인 입체감을 만들어 내는 것이 바로 입체영상표시장치인 것이다.In other words, our eyes will see different images even if we look at the same things because of binocular parallax. When these two images are transmitted to the brain through the retina, the brain will be able to feel the stereoscopic effect by fusing them exactly with each other. It is the stereoscopic image display device that displays two right and left images at the same time in the 2D display device and sends them to each eye to create a virtual three-dimensional image.

이러한 입체영상표시장치에서 하나의 화면으로 두 채널의 화상을 나타내기 위해서는 대부분의 경우 하나의 화면에서 가로나 세로의 한쪽 방향으로 줄을 한 줄씩 바꿔가며 한 채널씩 출력하게 된다. In order to display images of two channels in one screen in such a stereoscopic image display device, in most cases, one line is changed one line at a time horizontally or vertically in one screen and outputted one channel at a time.

이와 같이, 동시에 두 채널의 화상이 하나의 디스플레이 장치에서 출력되면 하드웨어적 구조상 무안경 방식의 경우에는 오른쪽 화상은 그대로 오른쪽 눈으로 들어가고, 왼쪽 화상은 왼쪽 눈으로만 들어가게 된다. 또한, 안경을 착용하는 방식의 경우에는 각각의 방식에 맞는 특수한 안경을 통하여 오른쪽 화상은 왼쪽 눈이 볼 수 없게 가려주고, 왼쪽 화상은 오른쪽 눈이 볼 수 없게 각각 가려주는 방법을 사용한다.In this way, when images of two channels are output from one display device at the same time, in the case of the non-eyeglass system due to the hardware structure, the right image intact into the right eye, and the left image enters into the left eye only. In addition, in the case of wearing the glasses, the right image is visually obscured by the special glasses suitable for each method, and the left image is obscured by the right eye so that the right eye can not be seen.

무안경 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈를 수직으로 배열한 렌티큘러(lenticular) 렌즈판을 영상패널 전방에 설치하는 렌티큘러 방식과 패러렉스 배리어(parallax barrier) 방식이 있다.Representative examples of the non-eyewear method include a lenticular method and a parallax barrier method in which a lenticular lens plate in which cylindrical lenses are vertically arranged is installed in front of the image panel.

도 1은 일반적인 렌티큘러 방식의 입체영상표시장치의 개념을 설명하기 위한 도면으로써, 렌즈의 배면거리(S)와 시청거리(v) 사이의 관계를 보여주고 있다.FIG. 1 is a view for explaining the concept of a general lenticular stereoscopic image display apparatus, and shows a relationship between a rear distance S of a lens and a viewing distance v.

도 1을 참조하면, 일반적인 렌티큘러 방식의 입체영상표시장치는 상, 하부 기판과 그 사이에 액정이 충진된 액정패널(10), 액정패널(10)의 후면(後面)에 위치하여 광을 조사하는 백라이트 유닛(미도시) 및 입체영상의 구현을 위해 액정패널(10) 전면(前面)에 위치하는 렌티큘러 렌즈판(20)을 포함하여 이루어진다.Referring to FIG. 1, a typical lenticular stereoscopic image display device includes a liquid crystal panel 10 filled with a liquid crystal between upper and lower substrates, a liquid crystal panel 10 disposed therebetween, and a rear surface of the liquid crystal panel 10, And a lenticular lens plate 20 positioned on the front surface of the liquid crystal panel 10 for realizing a backlight unit (not shown) and a stereoscopic image.

렌티큘러 렌즈판(20)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층으로 이루어진 다수의 렌티큘러 렌즈가 형성되어 이루어진다. 렌티큘러 렌즈판(20)은 좌, 우안 영상을 나누어주는 역할을 수행하고 있으며, 렌티큘러 렌즈판(20)으로부터 최적 시청거리 v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(viewing diamond)(정시영역)(미도시)가 형성된다. 뷰잉 다이아몬드에는 대응되는 액정패널(10)의 서브-픽셀의 뷰 데이터, 즉 이미지가 형성된다. 뷰 데이터는 양안 간격의 기준만큼 떨어진 카메라에서 촬영된 영상을 의미한다. The lenticular lens plate 20 is formed by forming, on a flat substrate, a plurality of lenticular lenses whose upper surfaces are formed of a material layer of a convex lens shape. The lenticular lens plate 20 serves to divide the left and right eye images. The optimum viewing distance v from the lenticular lens plate 20 is a diamond shape in which images corresponding to the left and right eyes normally reach the left and right eyes, respectively A viewing diamond (regular region) (not shown) is formed. In the viewing diamond, view data, that is, an image, of the sub-pixels of the corresponding liquid crystal panel 10 is formed. View data refers to images taken by cameras separated by a distance of the binocular interval.

이러한 일반적인 렌티큘러 방식의 입체영상표시장치는 액정패널(10)과 렌티큘러 렌즈판(20)이 기구물(미도시) 등에 의해 지지되어, 액정패널(10)과 렌티큘러 렌즈판(20) 사이가 소정 간격(배면 거리; S) 이격되어 있다. 이때, 일반적인 렌티큘러 방식의 입체영상표시장치에서는 배면 거리(S)를 일정하게 유지하기 위해 갭 글라스(26)가 삽입되어 있다.The liquid crystal panel 10 and the lenticular lens plate 20 are supported by an instrument (not shown) or the like so that the liquid crystal panel 10 and the lenticular lens plate 20 are spaced apart from each other by a predetermined distance Back distance (S). At this time, in a general lenticular stereoscopic image display apparatus, a gap glass 26 is inserted to keep the rear distance S constant.

상술한 바와 같이, 렌티큘러 방식의 입체영상표시장치에서는 초기에 설계된 뷰 맵(view map)에 따라 형성되는 멀티 뷰(multi view) 방식으로 구현되기 때문에 시청자는 정해진 뷰의 영역으로 들어갈 때 3D 영상을 시청할 수 있다.As described above, since the stereoscopic image display apparatus of the lenticular system is implemented in a multi view manner formed according to a view map designed initially, the viewer can view the 3D image when entering the predetermined view area .

그러나, 종래의 렌티큘러 방식의 입체영상표시장치에서 렌티큘러 렌즈에 의해 뷰 맵이 어긋나게 되면, 시청자는 정해진 뷰의 영역에 해당되는 3D 영상을 시청할 수 없다. However, when the view map is shifted by the lenticular lens in the conventional lenticular stereoscopic image display apparatus, the viewer can not view the 3D image corresponding to the predetermined view area.

다시 말해, 도 2에 도시된 바와 같이, 종래의 렌티큘러 방식의 입체영상표시장치에서 뷰 맵의 어긋남에 의해 단차현상(Seam Line)이 발생된다. 이러한 단차현상으로 인해 시청자는 정해진 뷰의 영역에서의 영상이 아닌 다른 뷰의 영역에 해당되는 영상을 시청하게 된다.In other words, as shown in Fig. 2, in the conventional lenticular stereoscopic image display apparatus, a step sequence (seam line) is generated due to the shift of the view map. Due to such a step phenomenon, the viewer views the image corresponding to the area of the view other than the image in the predetermined view area.

종래에는 이러한 단차현상을 개선하기 위해 모든 영상, 즉 멀티 뷰 영상데이터 전체 영역에 대해 영상 보간(interpolation)을 수행한다. 그러나, 이러한 영상 보간에 의해 각 뷰에 표시되는 3D 영상이 흐릿하게 보이는 현상, 즉 영상 블로(blur)가 발생되며, 이는 3D 영상의 품질을 저하시킨다. Conventionally, in order to improve such a step difference, interpolation is performed on all the images, that is, the entire area of the multi-view image data. However, this image interpolation causes blurring of the 3D image displayed on each view, that is, blur, which degrades the quality of the 3D image.

본 발명은 영상에서 단차현상이 발생된 영역의 데이터에 대해서만 영상보상을 하여 단차현상을 개선하면서 3D 영상품질을 높일 수 있는 입체영상표시장치 및 이의 동작방법을 제공하고자 하는 데 있다. An object of the present invention is to provide a stereoscopic image display apparatus and a method for operating the stereoscopic image display apparatus capable of enhancing 3D image quality while improving a step phenomenon by performing image compensation only on data in a region where a step phenomenon occurs in an image.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 입체영상 표시장치는, 영상패널, 영상보상부 및 데이터구동부를 포함한다.According to an aspect of the present invention, there is provided a stereoscopic image display apparatus including an image panel, an image compensation unit, and a data driver.

영상보상부는 영상패널에서 단차현상이 발생될 위치를 추정하여 보상영역을 정의한다. 그리고, 외부로부터 입력된 영상신호에서 보상영역에 해당되는 데이터를 보상하여 보상영상데이터를 생성한다. The image compensation unit defines a compensation region by estimating a position at which a step phenomenon occurs in the image panel. In addition, compensated image data is generated by compensating data corresponding to the compensation region from an externally input video signal.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 입체영상표시장치의 동작방법은, 단차현상이 발생될 위치를 추정하여 단차좌표정보를 생성하고, 영상신호의 모든 뷰 영상에서 서로 대응되는 객체의 위치좌표로부터 시차정보를 생성하며, 뷰 맵, 단차좌표정보 및 시차정보에 따라 정의된 보상영역의 픽셀에 인가되는 데이터를 보상하여 보상영상데이터를 생성하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of operating a stereoscopic image display device, the method comprising: generating stepped coordinate information by estimating a position at which a stepped phenomenon occurs, And generating compensation image data by compensating data applied to the pixels of the compensation region defined according to the view map, the step coordinate information, and the time difference information.

본 발명에 따른 입체영상표시장치는 영상패널에서 뷰 어긋남에 따라 단차현상이 발생되는 위치에서만 영상 보상을 수행하여 보상영상데이터를 생성함으로써, 단차현상이 발생되지 않는 영역에서는 선명한 3D 영상이 표시될 수 있다. 이에 따라, 본 발명의 입체영상표시장치에서는 3D 영상의 품질을 높일 수 있다. In the stereoscopic image display apparatus according to the present invention, compensated image data is generated by performing image compensation only at a position where a step phenomenon occurs according to a view shift in an image panel, so that a clear 3D image can be displayed in a region where a step phenomenon does not occur have. Accordingly, in the stereoscopic image display device of the present invention, the quality of the 3D image can be enhanced.

도 1은 일반적인 렌티큘러 방식의 입체영상표시장치의 개념을 설명하기 위한 도면이다.
도 2는 종래의 입체영상표시장치에서 뷰 어긋남에 의해 발생되는 단차현상을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 입체영상표시장치의 구성을 나타내는 도면이다.
도 4는 도 3에 도시된 영상보상부의 구성을 나타내는 도면이다.
도 5는 도 4의 시차 산출부의 구성을 나타내는 도면이다.
도 6a 내지 도 6c는 영상보상부의 동작을 나타내는 동작 예시도들이다.
1 is a view for explaining the concept of a general lenticular stereoscopic image display apparatus.
2 is a view showing a step phenomenon caused by a view shift in a conventional stereoscopic image display apparatus.
3 is a diagram illustrating a configuration of a stereoscopic image display apparatus according to an exemplary embodiment of the present invention.
4 is a diagram showing the configuration of the image compensating unit shown in FIG.
Fig. 5 is a diagram showing the configuration of the parallax calculating unit of Fig. 4;
6A to 6C are operation examples showing the operation of the image compensating unit.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 도면에서 층 및 영역들의 크기 및 상대적인 크기는 설명의 명료성을 위해 과장될 수 있다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but is capable of many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification. The dimensions and relative sizes of the layers and regions in the figures may be exaggerated for clarity of illustration.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 따라서 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. &Quot; comprise "and / or" comprising ", as used in the specification, means that the presence of stated elements, Or additions.

이하, 첨부한 도면을 참조하여 본 발명에 따른 입체영상표시장치에 대해 상세히 설명한다. 설명의 편의를 위하여, 본 발명의 입체영상표시장치는 액정표시장치로 구성된 것을 예로 든다. 그러나, 본 발명의 입체영상표시장치는 유기발광표시장치 등 다양한 평판표시장치에서도 적용될 수 있다.
Hereinafter, a stereoscopic image display apparatus according to the present invention will be described in detail with reference to the accompanying drawings. For convenience of explanation, the stereoscopic image display apparatus of the present invention is exemplified by a liquid crystal display apparatus. However, the stereoscopic image display device of the present invention can be applied to various flat panel display devices such as organic light emitting display devices.

도 3은 본 발명의 일 실시예에 따른 입체영상표시장치의 구성을 나타내는 도면이다.3 is a diagram illustrating a configuration of a stereoscopic image display apparatus according to an exemplary embodiment of the present invention.

도 3을 참조하면, 본 실시예의 입체영상표시장치(100)는 영상패널(110), 게이트구동부(120), 데이터구동부(130), 타이밍제어부(140) 및 영상보상부(150)를 포함할 수 있다. 이러한 입체영상표시장치(100)는 무안경 방식의 표시장치일 수 있다.3, the stereoscopic image display apparatus 100 includes a video panel 110, a gate driver 120, a data driver 130, a timing controller 140, and an image compensator 150 . The stereoscopic image display apparatus 100 may be a non-spectacle type display apparatus.

영상패널(110)에는 R, G, B의 색을 표시하는 다수의 서브픽셀(P)이 형성되어 있고, 이러한 서브픽셀(P)은 3D 필터(미도시)와 작용하여 입체영상(이하, 3D 영상)을 표시하기 위해 좌안픽셀 및 우안픽셀로 구분되어 있다. 좌안픽셀에서는 좌안영상을 표시하고, 우안픽셀에서는 우안영상을 표시할 수 있다. A plurality of subpixels P representing the colors of R, G and B are formed on the image panel 110. These subpixels P act on a 3D filter (not shown) And left eye pixels and right eye pixels in order to display an image. The left eye image can be displayed in the left eye pixel, and the right eye image can be displayed in the right eye pixel.

영상패널(110)은 어레이기판(미도시), 컬러필터기판(미도시) 및 두 기판 사이의 액정층(미도시)로 구성될 수 있다. The image panel 110 may comprise an array substrate (not shown), a color filter substrate (not shown), and a liquid crystal layer (not shown) between the two substrates.

어레이기판은 서로 교차하며 형성된 다수의 게이트라인(GL) 및 다수의 데이터라인(DL), 게이트라인(GL)과 데이터라인(DL)의 교차영역에 정의된 화소영역마다 형성된 박막트랜지스터(T), 액정커패시터(Clc) 및 스토리지커패시터(Cst)를 포함할 수 있다. The array substrate includes a plurality of gate lines GL and a plurality of data lines DL formed to intersect with each other, a thin film transistor T formed for each pixel region defined in the intersection region of the gate line GL and the data line DL, A liquid crystal capacitor Clc and a storage capacitor Cst.

컬러필터기판는 R, G, B의 색상을 구현하는 다수의 컬러필터로 구성된 컬러필터층(미도시), 컬러필터 사이를 구분하는 블랙매트릭스(미도시) 및 컬러필터층과 블랙매트릭스 상에 형성된 공통전극(미도시)을 포함할 수 있다. The color filter substrate includes a color filter layer (not shown) composed of a plurality of color filters for realizing colors of R, G, and B, a black matrix (not shown) for separating color filters and a color filter layer and a common electrode Not shown).

상술한 영상패널(110)은 타이밍제어부(140)의 제어 하에 3D 필터를 통해 3D 영상을 표시할 수 있다. 본 실시예의 영상패널(110)은 다수의 사용자에게 3D 영상을 제공하기 위한 멀티 뷰(multi view) 3D 영상을 표시할 수 있다. 다시 말해, 영상패널(110)은 멀티 뷰 2D 영상을 표시하며, 이러한 멀티 뷰 2D 영상은 3D 필터를 통해 멀티 뷰 3D 영상으로 표시될 수 있다.The above-described image panel 110 can display a 3D image through a 3D filter under the control of the timing controller 140. The video panel 110 of the present embodiment may display a multi view 3D image for providing a 3D image to a plurality of users. In other words, the image panel 110 displays a multi-view 2D image, which can be displayed as a multi-view 3D image through a 3D filter.

3D 필터는 영상패널(110)에서 표시되는 멀티 뷰 2D 영상의 경로를 광학적으로 분리하는 매개체로, 영상패널(110)의 좌안픽셀 및 우안픽셀로부터 출력된 좌안영상 및 우안영상을 선택적으로 투과시키거나 차단할 수 있다. 3D 필터는 렌티큘러 렌즈 또는 배리어 등에 의해 구현될 수 있다. The 3D filter optically separates the path of the multi-view 2D image displayed on the image panel 110 and selectively transmits the left eye image and the right eye image output from the left eye pixels and the right eye pixels of the image panel 110 Can be blocked. The 3D filter can be implemented by a lenticular lens or a barrier or the like.

게이트구동부(120)는 타이밍제어부(140)로부터 제공된 게이트제어신호(GCS)에 따라 게이트신호를 생성할 수 있다. 게이트신호는 영상패널(110)의 다수의 게이트라인(GL)에 순차적으로 출력될 수 있다. 게이트구동부(120)는 쉬프트레지스터 및 레벨쉬프터를 포함하여 구성될 수 있으며, 영상패널(110) 내에 게이트 인 패널(Gate In Panel; GIP) 방식으로 형성될 수도 있다.The gate driver 120 may generate a gate signal according to the gate control signal GCS provided from the timing controller 140. [ The gate signal may be sequentially output to the plurality of gate lines GL of the image panel 110. [ The gate driver 120 may include a shift register and a level shifter, and may be formed in a gate in panel (GIP) manner in the image panel 110.

데이터구동부(130)는 타이밍제어부(140)로부터 제공된 데이터제어신호(DCS)에 따라 영상데이터(RGB')로부터 데이터신호를 생성할 수 있다. 데이터신호는 영상패널(110)의 다수의 데이터라인(DL)에 출력될 수 있다. 여기서, 영상데이터(RGB')는 후술될 영상보상부(150)에 의해 보상된 보상영상데이터(RGB')일 수 있다. The data driver 130 may generate a data signal from the video data RGB 'according to the data control signal DCS provided from the timing controller 140. [ The data signal may be output to a plurality of data lines DL of the image panel 110. Here, the image data RGB 'may be the compensated image data RGB' compensated by the image compensating unit 150 to be described later.

타이밍제어부(140)는 외부시스템(미도시)에서 제공된 제어신호(CNT)에 따라 게이트제어신호(GCS) 및 데이터제어신호(DCS)를 생성할 수 있다. 예컨대, 타이밍제어부(140)는 외부시스템에서 제공된 데이터클럭신호(DCLK), 수평동기신호(Hsync), 수직동기신호(Vsync) 및 데이터인에이블신호(DE) 등과 같은 타이밍 신호로부터 게이트제어신호(GCS) 및 데이터제어신호(DCS)를 생성할 수 있다. The timing controller 140 may generate a gate control signal GCS and a data control signal DCS according to a control signal CNT provided from an external system (not shown). For example, the timing controller 140 generates a gate control signal (GCS) from a timing signal such as a data clock signal DCLK, a horizontal synchronization signal Hsync, a vertical synchronization signal Vsync, and a data enable signal DE provided from an external system, And a data control signal DCS.

게이트제어신호(GCS)는 게이트 스타트 펄스(GSP), 게이트 출력 인에이블신호(GOE) 및 게이트 쉬프트 클럭(GSC) 등을 포함하며, 게이트구동부(120)로 출력될 수 있다. 데이터제어신호(DCS)는 소스 스타트 펄스(SSP), 소스 쉬프트 클럭(SSC), 소스 출력 인에이블(SOE), 극성제어신호(POL) 등을 포함하며, 데이터구동부(130)로 출력될 수 있다.The gate control signal GCS includes a gate start pulse GSP, a gate output enable signal GOE and a gate shift clock GSC and may be output to the gate driver 120. [ The data control signal DCS includes a source start pulse SSP, a source shift clock SSC, a source output enable SOE and a polarity control signal POL and may be output to the data driver 130 .

영상보상부(150)는 외부시스템에서 제공된 영상신호(RGB), 예컨대 멀티 뷰 영상신호에서 특정 영역을 보상하여 보상영상데이터(RGB')를 생성할 수 있다. 보상영상데이터(RGB')는 타이밍제어부(140)로 출력되어 데이터제어신호(DCS)와 함께 데이터구동부(130)로 출력될 수 있다. The image compensating unit 150 may generate the compensated image data RGB 'by compensating a specific region of the image signal RGB provided from the external system, for example, the multi-view image signal. The compensated image data RGB 'may be output to the timing controller 140 and output to the data driver 130 together with the data control signal DCS.

영상보상부(150)는 영상신호(RGB)에서 단차현상(seam line)이 발생되는 영역을 검출할 수 있다. 여기서, 단차현상이란 영상패널(110)을 통해 표시되는 멀티 뷰 3D 영상이 해당되는 뷰 영역이 아닌 다른 뷰 영역에서 표시될 때 영상 간 겹침 등에 의해 세로 선 형태로 나타나는 현상으로, 영상패널(110)의 특성에 따라 다수의 뷰 간 어긋남 등이 발생되었을 때 나타날 수 있다. The image compensating unit 150 can detect a region where a seam line is generated in the image signal RGB. The step difference phenomenon is a phenomenon in which a multi-view 3D image displayed through the image panel 110 appears in a vertical line shape by overlapping images when displayed in a view area other than the corresponding view area, When there is a large number of view-to-view misalignments, depending on the characteristics of the view.

영상보상부(150)는 검출된 단차현상 영역을 중심으로 일정한 픽셀 수를 포함하는 보상영역에 해당되는 영상패널(110)의 픽셀에 인가되는 데이터전압의 계조레벨을 보상하여 보상영상데이터(RGB')를 생성할 수 있다. The image compensating unit 150 compensates the gradation level of the data voltage applied to the pixels of the image panel 110 corresponding to the compensation region including a predetermined number of pixels around the detected stepped development region, Can be generated.

다시 말해, 영상보상부(150)는 외부에서 입력되는 영상신호(RGB) 중 보상영역에 인가될 영상데이터를 보상하여 보상영상데이터(RGB')를 생성할 수 있다. 이러한 영상보상부(150)는 타이밍제어부(140)와 독립적으로 구성되거나 또는 타이밍제어부(140) 내에 포함되어 구성될 수 있다. In other words, the image compensating unit 150 may generate the compensated image data RGB 'by compensating the image data to be applied to the compensation region among the image signals RGB input from the outside. The image compensator 150 may be configured independently of the timing controller 140 or may be included in the timing controller 140.

상술한 바와 같이, 영상보상부(150)는 입력되는 영상신호(RGB)에서 특정 영역에 대해서만 영상 보상을 수행하여 보상영상데이터(RGB')를 생성할 수 있다. 이에 따라, 본 실시예의 입체영상표시장치(100)에서는 보상영상데이터(RGB')에 의해 3D 영상에서 단차현상을 개선함과 더불어 3D 영상의 품질이 저하되는 것을 방지할 수 있다. As described above, the image compensating unit 150 may perform image compensation only on a specific region in the input image signal RGB to generate the compensated image data RGB '. Accordingly, in the stereoscopic image display apparatus 100 of the present embodiment, it is possible to improve a step phenomenon in the 3D image by the compensated image data RGB ', and to prevent the quality of the 3D image from deteriorating.

이하, 도면을 참조하여 상술한 영상보상부(150)의 구성 및 동작에 대해 상세히 설명하기로 한다.
Hereinafter, the configuration and operation of the image compensator 150 will be described in detail with reference to the drawings.

도 4는 도 3에 도시된 영상보상부의 구성을 나타내는 도면이고, 도 5는 도 4의 뷰 시차 산출부의 구성을 나타내는 도면이다. 또한, 도 6a 내지 도 6c는 영상보상부의 동작을 나타내는 동작 예시도들이다. FIG. 4 is a diagram showing the configuration of the image compensating unit shown in FIG. 3, and FIG. 5 is a diagram showing the configuration of the view parallax calculating unit of FIG. 6A to 6C are operation examples showing the operation of the image compensating unit.

도 3 및 도 4를 참조하면, 영상보상부(150)는 영상신호(RGB)에서 특정영역에 대한 데이터를 보상한 보상영상데이터(RGB')를 생성하여 출력할 수 있으며, 위치추정부(151), 시차산출부(153) 및 보간(interpolation)부(155)를 포함할 수 있다.3 and 4, the image compensating unit 150 may generate and output compensated image data RGB 'compensated for data of a specific region in the image signal RGB. The position estimating unit 151 ), A parallax calculating unit 153, and an interpolation unit 155.

위치추정부(151)는 영상패널(110)에서 단차현상이 발생될 위치를 추정하여 위치정보, 예컨대 단차좌표정보(SI)를 출력할 수 있다. 또한, 위치추정부(151)는 단차좌표정보(SI)와 함께 기 설계된 뷰 맵(VM)을 출력할 수 있다. The position estimating unit 151 may estimate the position where the step difference will occur in the image panel 110 and output position information, for example, the step coordinate information SI. In addition, the position estimating unit 151 can output the view map VM designed together with the step coordinate information SI.

도 6a에 도시된 바와 같이, 위치추정부(151)는 가상의 사용자 위치에서 뷰 맵(VM)이 정확하게 인지되는지 판단하고, 판단 결과에 따라 단차좌표정보(SI) 및 뷰 맵(VM)을 출력할 수 있다.6A, the position estimation unit 151 determines whether the view map VM is correctly recognized at a virtual user position, and outputs the step coordinate information SI and the view map VM according to the determination result can do.

다시 말하면, 뷰 맵(VM)이 3 뷰 영상에 대한 정보인 경우에, 위치추정부(151)는 3개의 가상 위치, 예컨대 제1위치(P1), 제2위치(P2) 및 제3위치(P3)를 설정할 수 있다. 여기서, 제1위치(P1)는 3 뷰 영상 중 제1뷰에 대한 영상이 시청되는 위치이고, 제2위치(P2)는 제2뷰에 대한 영상이 시청되는 위치이며, 제3위치(P3)는 제3뷰에 대한 영상이 시청되는 위치일 수 있다. 각 위치(P1, P2, P3) 간의 간격(T)은 뷰 맵(VM)에서 각 뷰의 주기와 동일할 수 있다. In other words, in the case where the view map VM is information on the 3-view image, the position estimating unit 151 calculates three virtual positions, for example, the first position P1, the second position P2, P3) can be set. Here, the first position P1 is a position at which the image for the first view is viewed, the second position P2 is a position at which the image for the second view is viewed, the third position P3, May be a position where an image for the third view is viewed. The interval T between the respective positions P1, P2, and P3 may be the same as the period of each view in the view map VM.

그리고, 위치추정부(151)는 설정된 3개의 위치(P1, P2, P3)에 해당되는 뷰 맵(VM)의 영상을 투영시키고, 투영영상과 뷰 맵(VM)의 영상의 일치 여부를 판단할 수 있다. 다시 말하면, 위치추정부(151)는 제1위치(P1)의 투영영상이 제1뷰의 영상인지 판단하고, 제2위치(P2)의 투영영상이 제2뷰의 영상인지 판단하며, 제3위치(P3)의 투영영상이 제3뷰의 영상인지를 판단할 수 있다. The position estimating unit 151 projects an image of the view map VM corresponding to the set three positions P1, P2 and P3 and judges whether or not the image of the projection image matches the image of the view map VM . In other words, the position estimation unit 151 determines whether the projection image of the first position P1 is the image of the first view, whether the projection image of the second position P2 is the image of the second view, It can be determined whether the projection image of the position P3 is the image of the third view.

여기서, 도 6a에 도시된 바와 같이, 영상패널(110)의 특정 위치에서는 렌티큘러 렌즈의 광학적 특성에 의해 뷰 맵(VM)의 영상과 투영영상 간의 불일치가 발생된다. Here, as shown in FIG. 6A, at the specific position of the image panel 110, there is a discrepancy between the image of the view map VM and the projected image due to the optical characteristics of the lenticular lens.

다시 말해, 영상패널(110)의 특정 위치에서 제1위치(P1)에는 제1뷰의 영상이 투영되나, 제2위치(P2)에서는 제3뷰의 영상이 투영되고, 제3위치(P3)에서는 제2뷰의 영상이 투영되어 제2뷰와 제3뷰에 대한 뷰 맵(VM)이 어긋남이 발생된 것을 알 수 있다. 이때, 위치추정부(151)는 뷰 맵(VM)의 어긋남이 발생된 위치의 좌표를 추출하고, 이를 단차좌표정보(SI)로 출력할 수 있다. In other words, the image of the first view is projected to the first position P1 at a specific position of the image panel 110, the image of the third view is projected at the second position P2, It can be seen that the image of the second view is projected and that the view map VM for the second view and the third view is displaced. At this time, the position estimating unit 151 extracts the coordinates of the position where the shift of the view map VM has occurred and outputs it as the step coordinate information SI.

상술한 바와 같이, 위치추정부(151)는 뷰 맵(VM)에 대한 영상을 투영시켜 각 위치(P1, P2, P3)에서 뷰 맵(VM)과 투영영상이 일치되는 지를 판단하고, 그로부터 단차좌표정보(SI)를 출력할 수 있다. As described above, the position estimation unit 151 projects an image for the view map VM to determine whether the view map VM and the projection image coincide at the respective positions P1, P2, and P3, The coordinate information SI can be outputted.

여기서, 위치추정부(151)는 영상패널(110)의 수평라인 별로 상술한 동작을 수행하여 단차좌표정보(SI), 즉 영상패널(110)의 1수평라인에 대한 단차좌표정보(SI)를 출력할 수 있다. 따라서, 위치추정부(151)는 영상패널(110)의 모든 수평라인, 즉 다수의 게이트라인(GL)의 수만큼 상술한 동작을 반복 수행하여 영상패널(110) 전체에 대해 특정 위치에서 발생되는 단차현상에 대해 단차좌표정보(SI)를 출력할 수 있다. Here, the position estimating unit 151 performs the above-described operation for each horizontal line of the image panel 110 to calculate the step coordinate information SI, that is, the step coordinate information SI for one horizontal line of the image panel 110 Can be output. Accordingly, the position estimating unit 151 repeatedly performs the above-described operations by the number of all the horizontal lines of the image panel 110, that is, the number of the plurality of gate lines GL, The step coordinate information SI can be outputted for the step difference phenomenon.

한편, 본 실시예에서는 뷰 맵(VM)이 3 뷰 영상에 대한 정보인 것을 예로 들어 설명하였으나, 본 발명은 이에 제한되지는 않는다. 다시 말해, 뷰 맵(VM)은 영상패널(110)에서 표시되는 3D 영상의 뷰 수에 따라 달라질 수 있다.In the present embodiment, the view map VM is information on three view images. However, the present invention is not limited thereto. In other words, the view map VM may vary according to the number of views of the 3D image displayed on the image panel 110.

시차산출부(153)는 외부에서 입력된 영상신호(RGB)에서 객체의 위치에 따른 시차정보(PI)를 산출하여 출력할 수 있다. 시차산출부(153)는 영상신호(RGB)의 각 뷰 영상에서 서로 대응되는 객체를 추출하고, 추출된 객체 간 위치좌표의 차이에 따라 시차정보(PI)를 산출할 수 있다. The parallax calculating unit 153 can calculate and output parallax information (PI) according to the position of the object from the externally input image signal RGB. The parallax calculating unit 153 can extract the objects corresponding to each other in the respective view images of the image signal RGB and calculate the parallax information PI according to the difference of the position coordinates between the extracted objects.

또한, 시차산출부(153)는 영상신호(RGB)의 각 뷰 영상에서 객체에 대한 깊이(depth) 정보를 추출하고, 깊이 정보로부터 객체 간 위치 차이에 따른 시차정보(PI)를 산출하여 출력할 수 있다. 이때, 시차산출부(153)는 추출된 객체의 깊이 정보 중 큰 값을 시차정보(PI)로 출력할 수 있다. The parallax calculating unit 153 extracts depth information about the object from each view image of the image signal RGB and calculates parallax information PI according to the positional difference between the objects from the depth information and outputs it . At this time, the parallax calculating unit 153 may output a larger value among the depth information of the extracted object as parallax information (PI).

시차산출부(153)는 위치좌표 차이에 따른 픽셀 수로 시차정보(PI)를 산출할 수 있다. 이러한 시차산출부(153)는 위치판단부(161) 및 좌표비교부(163)를 포함할 수 있다.The parallax calculating unit 153 can calculate the parallax information PI by the number of pixels corresponding to the position coordinate difference. The time difference calculating unit 153 may include a position determining unit 161 and a coordinate comparing unit 163. [

위치판단부(161)는 영상신호(RGB)의 각 뷰 영상에서 서로 대응되는 객체에 대한 위치좌표를 각각 추출하여 출력할 수 있다. 위치판단부(161)는 영상신호(RGB)의 모든 뷰 영상에서 서로 대응되는 객체의 위치좌표를 출력할 수 있다. 또, 위치판단부(161)는 영상신호(RGB)의 첫번째 뷰 영상 및 마지막 뷰 영상에서 서로 대응되는 객체의 위치좌표를 출력할 수도 있다. The position determination unit 161 may extract and output the position coordinates of the object corresponding to each of the view images of the video signal RGB. The position determination unit 161 can output the position coordinates of the objects corresponding to each other in all the view images of the video signal RGB. In addition, the position determination unit 161 may output the position coordinates of the objects corresponding to each other in the first view image and the last view image of the image signal RGB.

도 6b에 도시된 바와 같이, 영상신호(RGB)가 N(N은 자연수)개의 뷰 영상으로 구성된 경우에, 위치판단부(161)는 제1뷰 영상(V1)과 제N뷰 영상(Vn)에서 서로 대응되는 객체(ob1, obn)에 대한 위치좌표를 각각 출력할 수 있다. 6B, when the image signal RGB is composed of N (N is a natural number) view images, the position determination unit 161 determines the position of the first view image V1 and the Nth view image Vn, The position coordinates of the objects ob1 and obn corresponding to each other can be output.

다시 말해, 위치판단부(161)는 제1뷰 영상(V1)에서 제1객체(ob1)에 대한 위치좌표(x, y)를 추출하여 출력하고, 제N뷰 영상(Vn)에서 제1뷰 영상(V1)의 제1객체(ob1)와 대응되는 제n객체(obn)에 대한 위치좌표(x-a, y)를 추출하여 출력할 수 있다. 여기서, 영상신호(RGB)의 제N뷰 영상(Vn)에서는 제1뷰 영상(V1)에서 표시되는 제1객체(ob1)가 x축 방향으로 -a만큼, 즉 화면 좌측으로 쉬프트(shift)되어 제n객체(obn)로 표시되고 있음을 알 수 있다.In other words, the position determination unit 161 extracts position coordinates (x, y) of the first object ob1 from the first view image V1 and outputs the position coordinates (x, y) It is possible to extract and output the positional coordinates (xa, y) for the n-th object obn corresponding to the first object ob1 of the image V1. Here, in the Nth view image Vn of the image signal RGB, the first object ob1 displayed in the first view image V1 is shifted by -a in the x-axis direction, that is, to the left side of the screen (N) is displayed as an n-th object (obn).

좌표비교부(163)는 위치판단부(161)에서 산출된 각 뷰 영상의 객체 위치좌표를 비교하여 차이값을 산출하고, 이를 시차정보(PI)로 출력할 수 있다. 앞서 설명한 바와 같이, 시차정보(PI)는 위치좌표 차이에 따른 픽셀 수로 산출되어 출력될 수 있다. The coordinate comparing unit 163 compares the object position coordinates of each view image calculated by the position determining unit 161, calculates a difference value, and outputs the difference value as parallax information (PI). As described above, the parallax information PI can be calculated and output as the number of pixels according to the position coordinate difference.

예컨대, 앞서 도 6b에서 위치판단부(161)로부터 제1뷰 영상(V1)의 제1객체(ob1)의 위치좌표(x, y)가 출력되고, 제N뷰 영상(Vn)의 제n객체(obn)의 위치좌표(x-a, y)가 출력되었으므로, 좌표비교부(163)는 출력된 두 위치좌표의 차이값, 즉 a에 해당되는 픽셀의 수를 산출하여 시차정보(PI)로 출력할 수 있다. 6B, for example, the position coordinate (x, y) of the first object ob1 of the first view image V1 is output from the position determination unit 161, and the n-th object the coordinate comparing unit 163 calculates the difference value between the two output position coordinates, that is, the number of pixels corresponding to a, and outputs it as parallax information (PI) because the position coordinates (xa, y) .

한편, 도 6b에서는 하나의 예로 영상신호(RGB)의 제1뷰 영상(V1)과 제N뷰 영상(Vn)에서 대응되는 객체의 위치좌표 간 차이에 따른 시차정보(PI)를 산출하는 것을 설명하였다. 그러나, 본 발명은 영상신호(RGB)의 모든 뷰 영상 각각을 한 쌍씩 비교하여 서로 대응되는 객체의 위치좌표 간 차이를 산출하여 시차정보(PI)를 출력할 수도 있다. 이때, 시차정보(PI)는 산출된 차이값 중 가장 큰 값으로 출력될 수 있다. 6B, parallax information PI is calculated according to the difference between the position coordinates of the object corresponding to the first view image V1 and the N view image Vn of the image signal RGB, for example, Respectively. However, in the present invention, it is possible to compare each view image of each of the view images of the image signal (RGB) one by one, to calculate the difference between the position coordinates of the corresponding objects, and to output the time difference information (PI). At this time, the parallax information PI can be output as the largest value among the calculated difference values.

보간부(155)는 위치추정부(151)에서 출력된 단차좌표정보(SI) 및 뷰 맵(VM)에 따라 시차산출부(153)에서 출력된 시차정보(PI)로부터 영상신호(RGB)에서 특정 영역에 대한 영상 보상을 수행하고, 그에 따른 보상영상데이터(RGB')를 출력할 수 있다. The interpolating unit 155 extracts the video signal RGB from the parallax information PI output from the parallax calculating unit 153 according to the step coordinate information SI and the view map VM output from the position estimating unit 151 It is possible to perform image compensation for a specific area and output the compensated image data RGB 'corresponding thereto.

보간부(155)는 단차좌표정보(SI)를 중심으로 뷰 맵(VM) 및 시차정보(PI)에 따라 보상영역을 정의하고, 정의된 보상영역에 포함된 픽셀에 인가되는 계조레벨을 보상함으로써, 보상영상데이터(RGB')를 출력할 수 있다. 보간부(155)는 아래의 [수학식1]에 따라 보상영역(I_R)을 결정할 수 있다.The interpolation section 155 defines a compensation area based on the view map VM and the time difference information PI about the step coordinate information SI and compensates the gradation level applied to the pixels included in the defined compensation area , And the compensated image data (RGB '). The interpolation section 155 can determine the compensation area I_R according to the following equation (1).

[수학식1][Equation 1]

I_R = PI/2 * VMI_R = PI / 2 * VM

여기서, PI는 시차정보의 픽셀 수를 의미하고, VM은 뷰 맵의 폭을 의미한다.Here, PI denotes the number of pixels of the parallax information, and VM denotes the width of the view map.

다시 말하면, 시차산출부(153)에서 출력된 시차정보(PI)의 픽셀 수가 30이고, 뷰 맵(VM)의 폭이 3인 경우에, 보간부(155)는 영상신호(RGB)에서 단차좌표정보(SI)에 해당하는 좌표를 중심으로 좌/우 방향으로 각각 45픽셀에 해당되는 영역을 보상영역으로 정의할 수 있다.In other words, when the number of pixels of the parallax information PI outputted from the parallax calculating unit 153 is 30 and the width of the view map VM is 3, the interpolating unit 155 converts the interpolated image coordinates An area corresponding to 45 pixels in the left / right direction around the coordinate corresponding to the information SI can be defined as a compensation area.

그리고, 보간부(155)는 정의된 보상영역에 포함된 모든 픽셀에 대해 영상 보간을 수행하여 보상영상데이터(RGB')를 출력할 수 있다. 이러한 보상영상데이터(RGB')는 영상신호(RGB)에서 단차현상이 발생된 영역의 픽셀에 인가되는 계조레벨을 보상한 데이터일 수 있다. 보상영상데이터(RGB')는 타이밍제어부(140)를 통해 데이터구동부(130)로 출력될 수 있다. The interpolator 155 may perform image interpolation for all the pixels included in the defined compensation area to output the compensated image data RGB '. The compensated image data RGB 'may be data obtained by compensating a gradation level applied to a pixel in a region where a step phenomenon occurs in the image signal RGB. The compensated image data RGB 'may be output to the data driver 130 through the timing controller 140.

상술한 바와 같이, 본 실시예에 따른 영상보상부(150)는 영상패널(110)에서 뷰 어긋남에 따라 단차현상이 발생되는 위치에서만 영상 보상을 수행하여 보상영상데이터(RGB')를 생성할 수 있다. 이때, 단차현상이 발생된 영역은 영상 보상에 따라 3D 영상이 약간 흐릿하게 보일 수 있다. 그러나, 단차현상이 발생되지 않은 나머지 영역은 영상 보상이 수행되지 않기 때문에 선명한 3D 영상이 표시될 수 있다.As described above, the image compensating unit 150 according to the present embodiment performs image compensation only at a position where a step phenomenon occurs according to a view shift in the image panel 110 to generate compensated image data RGB ' have. At this time, the 3D image may appear slightly blurry according to the image compensation in the region where the step difference has occurred. However, a clear 3D image can be displayed because the image compensation is not performed in the remaining area in which the step difference phenomenon does not occur.

이에 따라, 본 발명의 입체영상표시장치(100)는 종래의 입체영상표시장치와 대비하여 단차현상이 발생된 영역을 제외한 나머지 영역에서는 선명한 3D 영상을 표시할 수 있어 3D 영상의 품질을 높일 수 있다.
Accordingly, the stereoscopic image display apparatus 100 of the present invention can display a clear 3D image in a region other than a region where a step phenomenon occurs, as compared with a conventional stereoscopic image display apparatus, thereby improving the quality of a 3D image .

전술한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.While a number of embodiments have been described in detail above, it should be construed as being illustrative of preferred embodiments rather than limiting the scope of the invention. Therefore, the invention should not be construed as limited to the embodiments described, but should be determined by equivalents to the appended claims and the claims.

100: 입체영상표시장치 110: 영상패널
120: 게이트구동부 130: 데이터구동부
140: 타이밍제어부 150: 영상보상부
151: 위치추정부 153: 시차산출부
155: 보간부 161: 위치판단부
163: 좌표비교부
100: stereoscopic image display device 110: image panel
120: Gate driver 130: Data driver
140: timing control unit 150:
151: Position estimation unit 153:
155: interpolator 161: position determining unit
163: coordinate comparison unit

Claims (12)

다수의 픽셀들로 구성되어 순차적으로 멀티 뷰 3D 영상을 표시하는 영상패널;
상기 영상패널에서 단차현상이 발생될 위치를 추정하여 보상영역을 정의하고, 외부로부터 입력된 멀티 뷰 영상신호에서 상기 보상영역에 해당되는 데이터를 보상하여 보상영상데이터를 생성하는 영상보상부; 및
상기 보상영상데이터에 따라 데이터신호를 생성하여 상기 영상패널로 출력하는 데이터구동부를 포함하는 입체영상표시장치.
A video panel composed of a plurality of pixels and sequentially displaying a multi-view 3D image;
An image compensation unit for defining a compensation region by estimating a position at which the step difference will occur in the image panel and generating compensated image data by compensating data corresponding to the compensation region in an externally inputted multi view image signal; And
And a data driver for generating a data signal according to the compensated image data and outputting the data signal to the image panel.
제1항에 있어서, 상기 영상보상부는,
뷰 맵에 따라 단차현상이 발생된 위치를 추정하여 단차좌표정보를 출력하는 위치추정부;
상기 영상신호의 적어도 한 쌍의 뷰 영상에서 서로 대응되는 객체의 위치차이에 따른 시차정보를 출력하는 시차산출부; 및
상기 뷰 맵 및 상기 시차정보에 따라 상기 단차좌표정보를 중심으로 상기 보상영역을 정의하고, 상기 영상신호에서 상기 보상영역의 픽셀에 인가되는 데이터를 보상하여 상기 보상영상데이터를 출력하는 보간부를 포함하는 것을 특징으로 하는 입체영상표시장치.
The apparatus of claim 1,
A position estimator for estimating a position at which the step difference has occurred according to the view map and outputting the step coordinate information;
A parallax calculating unit for outputting parallax information according to a positional difference between objects corresponding to each other in at least one pair of view images of the video signal; And
And an interpolation unit for defining the compensation region around the step coordinate information according to the view map and the parallax information and for compensating data applied to pixels of the compensation region in the video signal to output the compensation video data And the three-dimensional image display device.
제2항에 있어서,
상기 위치추정부는 상기 영상패널에서 상기 뷰 맵의 영상이 어긋나 표시되는 좌표를 추출하여 상기 단차좌표정보로 출력하는 것을 특징으로 하는 입체영상표시장치.
3. The method of claim 2,
Wherein the position estimating unit extracts coordinates in which the image of the view map is shifted and displayed in the image panel, and outputs the coordinates as the step coordinate information.
제2항에 있어서, 상기 시차산출부는,
상기 한 쌍의 뷰 영상에서 서로 대응되는 객체의 위치좌표를 각각 출력하는 위치판단부; 및
출력된 한 쌍의 위치좌표 간 차이값에 따라 픽셀 수로 상기 시차정보를 출력하는 좌표비교부를 포함하는 것을 특징으로 하는 입체영상표시장치.
The apparatus according to claim 2,
A position determiner for outputting position coordinates of objects corresponding to each other in the pair of view images; And
And outputting the parallax information as a number of pixels according to the difference value between the pair of position coordinates output.
제2항에 있어서,
상기 시차산출부는 상기 한 쌍의 뷰 영상에서 서로 대응되는 객체의 깊이 정보에 따라 상기 시차정보를 출력하는 것을 특징으로 하는 입체영상표시장치.
3. The method of claim 2,
Wherein the parallax calculating unit outputs the parallax information according to depth information of objects corresponding to each other in the pair of view images.
제1항에 있어서,
상기 보상영역은 상기 단차좌표정보의 좌표를 중심으로 좌/우로 1/2씩 정의되는 것을 특징으로 하는 입체영상표시장치.
The method according to claim 1,
Wherein the compensation region is defined by 1/2 in the left / right direction around the coordinate of the step coordinate information.
3D 영상이 표시되는 영상패널에서 뷰 맵에 따라 단차현상이 발생될 위치를 추정하여 단차좌표정보를 생성하는 단계;
외부로부터 입력되는 멀티 뷰 영상신호의 모든 뷰 영상에서 서로 대응되는 객체의 위치좌표로부터 시차정보를 생성하는 단계; 및
상기 뷰 맵, 상기 단차좌표정보 및 상기 시차정보에 따라 상기 영상신호의 보상영역을 정의하고, 상기 영상신호에서 상기 보상영역의 픽셀에 인가되는 데이터를 보상하여 보상영상데이터를 생성하는 단계를 포함하는 입체영상표시장치의 동작방법.
Generating stepped coordinate information by estimating a position where a step phenomenon will occur according to a view map in an image panel on which a 3D image is displayed;
Generating parallax information from position coordinates of objects corresponding to each other in all view images of a multi-view image signal input from the outside; And
Defining compensating regions of the image signal according to the view map, the step coordinate information, and the parallax information, and compensating the data applied to the pixels of the compensation region in the image signal to generate compensated image data A method of operating a stereoscopic image display apparatus.
제7항에 있어서, 상기 단차좌표정보를 생성하는 단계는,
상기 뷰 맵의 폭에 따라 하나 이상의 가상위치를 설정하는 단계;
상기 영상패널에 상기 뷰 맵의 영상을 표시하고, 상기 가상위치에서 해당 뷰 영역의 영상이 표시되는 지를 판단하는 단계; 및
상기 가상위치에서 상기 해당 뷰 영역의 영상이 표시되지 않는 상기 영상패널의 좌표를 추출하여 상기 단차좌표정보로 생성하는 단계를 포함하는 것을 특징으로 하는 입체영상표시장치의 동작방법.
8. The method of claim 7, wherein generating the step coordinate information comprises:
Setting one or more virtual positions according to the width of the view map;
Displaying an image of the view map on the image panel and determining whether an image of the corresponding view area is displayed at the virtual position; And
And extracting the coordinates of the image panel in which the image of the corresponding view region is not displayed at the virtual position, to generate the stepped coordinate information.
제8항에 있어서,
상기 영상패널의 수평라인 별로 상기 뷰 맵의 영상을 표시하여 상기 가상위치에서 해당 뷰 영역의 영상이 표시되는 지를 판단하는 것을 특징으로 하는 입체영상표시장치의 동작방법.
9. The method of claim 8,
And displaying the image of the view map for each horizontal line of the image panel to determine whether the image of the corresponding view area is displayed at the virtual position.
제7항에 있어서, 상기 시차정보를 생성하는 단계는,
상기 영상신호의 모든 뷰 영상 중 적어도 한 쌍의 뷰 영상에서 서로 대응되는 객체의 위치좌표를 각각 추출하는 단계; 및
추출된 한 쌍의 위치좌표 간 차이값에 따라 픽셀 수로 상기 시차정보를 생성하는 단계를 포함하는 것을 특징으로 하는 입체영상표시장치의 동작방법.
8. The method of claim 7, wherein generating the parallax information comprises:
Extracting position coordinates of objects corresponding to each other in at least one pair of view images among all view images of the image signal; And
And generating the parallax information by the number of pixels according to the difference between the extracted position coordinates.
제7항에 있어서,
상기 시차정보를 생성하는 단계는, 상기 영상신호의 모든 뷰 영상 중 적어도 한 쌍의 뷰 영상에서 서로 대응되는 객체의 깊이 정보를 추출하고, 추출된 상기 깊이 정보로부터 위치차이에 따른 상기 시차정보를 생성하는 것을 특징으로 하는 입체영상표시장치의 동작방법.
8. The method of claim 7,
The step of generating the parallax information may include extracting depth information of objects corresponding to each other in at least one pair of view images of all view images of the video signal and generating the parallax information according to the position difference from the extracted depth information And displaying the stereoscopic image on the stereoscopic image display device.
제7항에 있어서,
상기 보상영역은 상기 시차정보의 픽셀 수와 상기 뷰 맵의 폭의 곱으로 정의되되, 상기 단차좌표정보의 좌표를 중심으로 좌/우로 1/2씩 정의되는 것을 특징으로 하는 입체영상표시장치의 동작방법.
8. The method of claim 7,
Wherein the compensation region is defined as a product of a number of pixels of the parallax information and a width of the view map, and is defined by 1/2 in the left / right direction about the coordinates of the step coordinate information. Way.
KR1020140191074A 2014-12-26 2014-12-26 3D display device and driving method thereof KR102293837B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140191074A KR102293837B1 (en) 2014-12-26 2014-12-26 3D display device and driving method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140191074A KR102293837B1 (en) 2014-12-26 2014-12-26 3D display device and driving method thereof

Publications (2)

Publication Number Publication Date
KR20160079552A true KR20160079552A (en) 2016-07-06
KR102293837B1 KR102293837B1 (en) 2021-08-25

Family

ID=56502492

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140191074A KR102293837B1 (en) 2014-12-26 2014-12-26 3D display device and driving method thereof

Country Status (1)

Country Link
KR (1) KR102293837B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112992095A (en) * 2021-02-24 2021-06-18 福州京东方光电科技有限公司 Display panel with stacked screens, manufacturing method and driving method thereof, and display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120019613A1 (en) * 2009-12-11 2012-01-26 Tessera Technologies Ireland Limited Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device
KR20130020012A (en) * 2011-08-18 2013-02-27 엘지디스플레이 주식회사 Display apparatus for displaying three dimensional picture and driving method for the same
KR20130061287A (en) * 2011-12-01 2013-06-11 엘지디스플레이 주식회사 Method of multi-view image formation and stereoscopic image display device using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120019613A1 (en) * 2009-12-11 2012-01-26 Tessera Technologies Ireland Limited Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device
KR20130020012A (en) * 2011-08-18 2013-02-27 엘지디스플레이 주식회사 Display apparatus for displaying three dimensional picture and driving method for the same
KR20130061287A (en) * 2011-12-01 2013-06-11 엘지디스플레이 주식회사 Method of multi-view image formation and stereoscopic image display device using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112992095A (en) * 2021-02-24 2021-06-18 福州京东方光电科技有限公司 Display panel with stacked screens, manufacturing method and driving method thereof, and display device

Also Published As

Publication number Publication date
KR102293837B1 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
US8743111B2 (en) Stereoscopic image display and method for driving the same
KR101977251B1 (en) Multi-view autostereoscopic image display and method of controlling optimal viewing distance
KR101380517B1 (en) Multi-view autostereoscopic image display and method of controlling optimal viewing distance
KR101869872B1 (en) Method of multi-view image formation and stereoscopic image display device using the same
KR102197382B1 (en) Bendable stereoscopic 3d display device
KR20130002076A (en) Stereoscopic image display device and driving method thereof
KR20160079556A (en) Autostereoscopic 3d display device
KR101963385B1 (en) Disparity calculation method and stereoscopic image display device
KR102279816B1 (en) Autostereoscopic 3d display device
KR102233116B1 (en) Stereopsis image display device and method of driving the same
US9756321B2 (en) Three-dimensional image display device and method of displaying three dimensional image
KR101929042B1 (en) Disparity calculation unit and stereoscopic image display device including the same and disparity calculation method
KR102293837B1 (en) 3D display device and driving method thereof
US9877017B2 (en) Auto-stereoscopic display apparatus and method of driving the same
KR102334031B1 (en) Autostereoscopic 3d display device and driving method thereof
US20130063419A1 (en) Stereoscopic image display device and method of displaying stereoscopic image
KR101798236B1 (en) Stereoscopic image display and method of adjusting brightness thereof
KR20160024283A (en) Lenticular lens type stereoscopic 3d display device
KR102022527B1 (en) Stereoscopic image display device and disparity calculation method thereof
KR101671518B1 (en) Stereoscopic Image Display Device and Driving Method thereof
KR102586226B1 (en) View map data generaing method and apparatus using the same
KR101961943B1 (en) 3d image data formation method and stereoscopic image display device using the same
KR102232462B1 (en) Autostereoscopic 3d display device
KR102135914B1 (en) Image data processing method and multi-view autostereoscopic image display using the same
KR101983369B1 (en) Multiview image generation method and stereoscopic image display device using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant