KR101829459B1 - 영상처리방법과 이를 이용한 입체영상 표시장치 - Google Patents

영상처리방법과 이를 이용한 입체영상 표시장치 Download PDF

Info

Publication number
KR101829459B1
KR101829459B1 KR1020110070071A KR20110070071A KR101829459B1 KR 101829459 B1 KR101829459 B1 KR 101829459B1 KR 1020110070071 A KR1020110070071 A KR 1020110070071A KR 20110070071 A KR20110070071 A KR 20110070071A KR 101829459 B1 KR101829459 B1 KR 101829459B1
Authority
KR
South Korea
Prior art keywords
data
image data
mode
mask
eye image
Prior art date
Application number
KR1020110070071A
Other languages
English (en)
Other versions
KR20130009173A (ko
Inventor
박명수
이재우
김한석
김태욱
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020110070071A priority Critical patent/KR101829459B1/ko
Priority to US13/548,002 priority patent/US9137510B2/en
Priority to CN201210243510.2A priority patent/CN102883177B/zh
Priority to JP2012157286A priority patent/JP5496276B2/ja
Publication of KR20130009173A publication Critical patent/KR20130009173A/ko
Application granted granted Critical
Publication of KR101829459B1 publication Critical patent/KR101829459B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Abstract

본 발명은 텍스트 영역의 문자가독성을 높일 수 있는 영상처리방법과 이를 이용한 입체영상 표시장치에 관한 것이다. 본 발명의 영상처리방법은 2D 모드에서 2D 영상 데이터를 그대로 출력하고, 3D 모드에서 3D 영상 데이터를 좌안 영상 데이터와 우안 영상 데이터로 샘플링하는 단계; 상기 2D 모드에서 상기 2D 영상 데이터를 그레이 스케일 영상 데이터로 변환하고, 상기 3D 모드에서 상기 좌안 영상 데이터 또는 상기 우안 영상 데이터를 상기 그레이 스케일 영상 데이터로 변환하는 단계; 상기 그레이 스케일 영상 데이터의 에지를 검출하는 단계; 상기 에지가 검출된 영상으로부터 텍스트 영역을 검출하는 단계; 상기 3D 모드에서 상기 좌안 영상 데이터와 우안 영상 데이터의 상기 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 화소 데이터의 평균값을 적용하는 단계; 및 상기 3D 모드에서 상기 평균값이 적용된 상기 좌안 영상 데이터와 우안 영상 데이터를 3D 포맷으로 변환하여 출력하는 단계를 포함한다.

Description

영상처리방법과 이를 이용한 입체영상 표시장치{IMAGE PROCESSING METHOD AND STEREOSCOPIC IMAGE DISPLAY DEVICE USING THE SAME}
본 발명은 텍스트 영역의 문자가독성을 높일 수 있는 영상처리방법과 이를 이용한 입체영상 표시장치에 관한 것이다.
입체영상 표시장치는 양안시차방식(stereoscopic technique)과 복합시차지각방식(autostereoscopic technique)으로 나뉘어진다. 양안시차방식은 입체 효과가 큰 좌우 눈의 시차 영상을 이용하며, 안경방식과 무안경방식이 있고 두 방식 모두 실용화되고 있다. 안경방식은 직시형 표시소자나 프로젝터에 좌우 시차 영상의 편광 방향을 바꿔서 표시하고 편광 안경을 사용하여 입체영상을 구현하는 패턴 리타더 방식이 있다. 또한, 안경방식은 직시형 표시소자나 프로젝터에 좌우 시차 영상을 시분할하여 표시하고 액정셔터안경을 사용하여 입체영상을 구현하는 셔터안경 방식이 있다. 무안경 방식은 일반적으로 패럴렉스 베리어, 렌티큘러 렌즈 등의 광학판을 사용하여 좌우시차 영상의 광축을 분리하여 입체영상을 구현한다.
도 1은 패턴 리타더 방식의 입체영상 표시장치를 보여주는 도면이다. 도 1을 참조하면, 패턴 리타더 방식으로 입체영상을 구현하는 액정표시장치는 표시패널(DIS) 상에 배치된 패턴 리타더(Patterned Retarder)(PR)의 편광특성과, 사용자가 착용한 편광 안경(PG)의 편광특성을 이용하여 입체영상을 구현한다. 패턴 리타더 방식의 입체영상 표시장치는 표시패널(DIS)의 기수(홀수) 라인들에는 좌안 영상을 표시하고, 우수(짝수) 라인들에는 우안 영상을 표시한다. 표시패널(DIS)의 좌안 영상은 패턴 리타더(PR)를 통과하면 좌안 편광으로 변환되고, 우안 영상은 패턴 리타더(PR)를 통과하면 우안 편광으로 변환된다. 편광 안경(PG)의 좌안 편광필터는 좌안 편광만을 통과시키고, 우안 편광필터는 우안 편광만을 통과시킨다. 따라서, 사용자는 좌안을 통하여 좌안 영상만을 보게 되고, 우안을 통하여 우안 영상만을 보게 된다.
도 1과 같은 패턴 리타더 방식의 입체영상 표시장치는 2D 모드에서 2D 영상을 표시하고 3D 모드에서 입체영상(3D 영상)을 표시한다. 2D 영상 또는 3D 영상에 텍스트(text) 영역이 포함되어 있는 경우, 텍스트 영역의 문자가독성이 떨어지는 문제가 있다. 특히, 패턴 리타더 방식의 입체영상 표시장치는 3D 모드에서 기수 라인들에 좌안 영상을 표시하고 우수 라인들에 우안 영상을 표시하므로, 영상의 경계부가 매끄럽지 않고 계단처럼 보이는 재깅 현상으로 인해 텍스트 영역의 문자가독성이 더욱 떨어지는 문제가 있다.
본 발명은 2D 및 3D 모드에서 텍스트 영역의 문자가독성을 높일 수 있는 영상처리방법과 이를 이용한 입체영상 표시장치를 제공한다.
본 발명의 영상처리방법은 2D 모드에서 2D 영상 데이터를 그대로 출력하고, 3D 모드에서 3D 영상 데이터를 좌안 영상 데이터와 우안 영상 데이터로 샘플링하는 단계; 상기 2D 모드에서 상기 2D 영상 데이터를 그레이 스케일 영상 데이터로 변환하고, 상기 3D 모드에서 상기 좌안 영상 데이터 또는 상기 우안 영상 데이터를 상기 그레이 스케일 영상 데이터로 변환하는 단계; 상기 그레이 스케일 영상 데이터의 에지를 검출하는 단계; 상기 에지가 검출된 영상으로부터 텍스트 영역을 검출하는 단계; 상기 3D 모드에서 상기 좌안 영상 데이터와 우안 영상 데이터의 상기 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 화소 데이터의 평균값을 적용하는 단계; 및 상기 3D 모드에서 상기 평균값이 적용된 상기 좌안 영상 데이터와 우안 영상 데이터를 3D 포맷으로 변환하여 출력하는 단계를 포함한다.
본 발명의 입체영상 표시장치는 데이터 라인들과 게이트 라인들이 교차되는 표시패널; 입력되는 영상 데이터의 텍스트 영역을 검출하여 상기 텍스트 영역의 문자가독성을 개선하는 영상처리부; 상기 영상처리부로부터 출력된 영상 데이터를 데이터전압으로 변환하여 상기 데이터 라인들로 출력하는 데이터 구동부; 및 상기 데이터전압에 동기되는 게이트 펄스를 상기 게이트 라인들로 순차적으로 출력하는 게이트 구동부를 구비하고, 상기 영상처리부는, 2D 모드에서 2D 영상 데이터를 그대로 출력하고, 3D 모드에서 3D 영상 데이터를 좌안 영상 데이터와 우안 영상 데이터로 샘플링하는 데이터 샘플링부; 상기 2D 모드에서 상기 2D 영상 데이터를 그레이 스케일 영상 데이터로 변환하고, 상기 3D 모드에서 상기 좌안 영상 데이터 또는 상기 우안 영상 데이터를 상기 그레이 스케일 영상 데이터로 변환하는 그레이 스케일 변환부; 상기 그레이 스케일 영상 데이터의 에지를 검출하는 에지 검출부; 상기 에지가 검출된 영상으로부터 텍스트 영역을 검출하는 텍스트 영역 검출부; 상기 3D 모드에서 상기 좌안 영상 데이터와 우안 영상 데이터의 상기 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 화소 데이터의 평균값을 적용하는 데이터 변환부; 및 상기 3D 모드에서 상기 평균값이 적용된 상기 좌안 영상 데이터와 우안 영상 데이터를 3D 포맷으로 변환하여 출력하는 3D 포맷터를 포함한다.
본 발명은 입력 영상에서 텍스트 영역을 검출한 후, 2D 모드의 경우 검출된 텍스트 영역의 화소 데이터에 샤프니스 필터를 적용하고, 3D 모드의 경우 검출된 텍스트 영역의 화소 데이터에 그 화소 데이터와 인접한 화소 데이터와의 평균값을 적용한다. 그 결과, 본 발명은 텍스트 영역의 문자 가독성을 높일 수 있다.
도 1은 패턴 리타더 방식의 입체영상 표시장치를 보여주는 도면이다.
도 2는 본 발명의 실시예에 따른 입체영상 표시장치를 개략적으로 보여주는 블록도이다.
도 3은 표시패널, 패턴 리타더, 및 편광 안경을 보여주는 분해 사시도이다.
도 4는 도 2의 영상처리부를 상세히 나타내는 블록도이다.
도 5는 본 발명의 실시예에 따른 영상처리부의 영상처리방법을 보여주는 흐름도이다.
도 6a 내지 도 6f는 입력 영상, 단안 영상, 그레이 스케일 영상, 노이즈 제거 영상, 에지 검출 영상, 및 텍스트 영역이 강조된 영상을 보여주는 예시도면들이다.
도 7a 및 도 7b는 제1 내지 제3 마스크를 보여주는 예시도면들이다.
도 8a 내지 도 8c는 텍스트 후보 영역이 검출된 영상, 텍스트 후보 영역이 확장된 영상, 및 텍스트 영역이 최종 검출된 영상을 보여주는 예시도면들이다.
도 9a 및 도 9b는 단순한 영상과 복잡한 영상을 보여주는 예시도면들이다.
도 10은 본 발명의 제1 실시예에 따른 3D 포맷터의 3D 포맷 방법을 보여주는 도면이다.
도 11은 본 발명의 제2 실시예에 따른 3D 포맷터의 3D 포맷 방법을 보여주는 도면이다.
도 12a 및 도 12b는 종래 기술의 영상과 본 발명의 실시예에 따른 영상처리방법을 적용한 영상을 보여주는 실험결과 도면들이다.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 실질적으로 동일한 구성요소들을 의미한다. 이하의 설명에서, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다. 이하의 설명에서 사용되는 구성요소 명칭은 명세서 작성의 용이함을 고려하여 선택된 것일 수 있는 것으로서, 실제 제품의 부품 명칭과는 상이할 수 있다.
도 2는 본 발명의 실시예에 따른 입체영상 표시장치를 개략적으로 보여주는 블록도이다. 도 3은 표시패널, 패턴 리타더, 및 편광 안경을 보여주는 분해 사시도이다. 도 2 및 도 3을 참조하면, 본 발명의 입체영상 표시장치는 표시패널(10), 편광 안경(20), 게이트 구동부(110), 데이터 구동부(120), 타이밍 콘트롤러(130), 영상처리부(140), 및 호스트 시스템(150) 등을 포함한다. 본 발명의 입체영상 표시장치는 액정표시소자(Liquid Crystal Display, LCD), 전계 방출 표시소자(Field Emission Display, FED), 플라즈마 디스플레이 패널(Plasma Display Panel, PDP), 유기발광다이오드 소자(Organic Light Emitting Diode, OLED) 등의 평판 표시소자로 구현될 수 있다. 본 발명은 아래의 실시예에서 액정표시소자를 중심으로 예시하였지만, 액정표시소자에 한정되지 않는 것에 주의하여야 한다.
표시패널(10)은 타이밍 콘트롤러(130)의 제어 하에 영상을 표시한다. 표시패널(10)은 두 장의 유리기판 사이에 액정층이 형성된다. 표시패널(10)의 하부 유리기판상에는 데이터 라인(D)들과 게이트 라인(G)들(또는 스캔 라인들)이 상호 교차되도록 형성되고, 데이터 라인(D)들과 게이트 라인(G)들에 의해 정의된 셀영역들에 픽셀들이 매트릭스 형태로 배치된 TFT 어레이가 형성된다. 표시패널(10)의 픽셀들 각각은 박막 트랜지스터에 접속되어 화소전극과 공통전극 사이의 전계에 의해 구동된다.
표시패널(10)의 상부 유리기판상에는 블랙매트릭스, 컬러필터, 공통전극 등을 포함하는 컬러필터 어레이가 형성된다. 공통전극은 TN(Twisted Nematic) 모드와 VA(Vertical Alignment) 모드와 같은 수직전계 구동방식에서 상부 유리기판 상에 형성되며, IPS(In Plane Switching) 모드와 FFS(Fringe Field Switching) 모드와 같은 수평전계 구동방식에서 화소전극과 함께 하부 유리기판 상에 형성된다. 표시패널(10)의 액정모드는 전술한 TN 모드, VA 모드, IPS 모드, FFS 모드뿐 아니라 어떠한 액정모드로도 구현될 수 있다.
표시패널(10)은 대표적으로 백라이트 유닛으로부터의 빛을 변조하는 투과형 액정표시패널이 선택될 수 있다. 백라이트 유닛은 백라이트 유닛 구동부로부터 공급되는 구동전류에 따라 점등하는 광원, 도광판(또는 확산판), 다수의 광학시트 등을 포함한다. 백라이트 유닛은 직하형(direct type) 백라이트 유닛, 또는 에지형(edge type) 백라이트 유닛으로 구현될 수 있다. 백라이트 유닛의 광원들은 HCFL(Hot Cathode Fluorescent Lamp), CCFL(Cold Cathode Fluorescent Lamp), EEFL(External Electrode Fluorescent Lamp), LED(Light Emitting Diode) 중 어느 하나의 광원 또는 두 종류 이상의 광원들을 포함할 수 있다.
백라이트 유닛 구동부는 백라이트 유닛의 광원들을 점등시키기 위한 구동전류를 발생한다. 백라이트 유닛 구동부는 백라이트 제어부의 제어 하에 광원들에 공급되는 구동전류를 온/오프(ON/OFF)한다. 백라이트 제어부는 호스트 시스템으로부터 입력되는 글로벌/로컬 디밍신호(DIM)에 따라 백라이트 휘도와 점등 타이밍을 조정한 백라이트 제어 데이터를 SPI(Serial Pheripheral Interface) 데이터 포맷으로 백라이트 유닛 구동부에 출력한다.
도 3을 참조하면, 표시패널(10)의 상부 유리기판에는 상부 편광판(11a)이 부착되고, 하부 유리기판에는 하부 편광판(11b)이 부착된다. 상부 편광판(11a)의 광투과축(r1)과 하부 편광판(11b)의 광투과축(r2)은 직교된다. 또한, 상부 유리기판과 하부 유리기판에는 액정의 프리틸트각(pre-tilt angle)을 설정하기 위한 배향막이 형성된다. 표시패널(10)의 상부 유리기판과 하부 유리기판 사이에는 액정층의 셀갭(cell gap)을 유지하기 위한 스페이서가 형성된다.
2D 모드에서, 표시패널(10)의 기수 라인들의 픽셀들과 우수 라인들의 픽셀들은 2D 영상을 표시한다. 3D 모드에서, 표시패널(10)의 기수 라인들의 픽셀들은 좌안 영상(또는 우안 영상)을 표시하고 우수 라인들의 픽셀들은 우안 영상(또는 좌안 영상)을 표시한다. 표시패널(10)의 픽셀들에 표시된 영상의 빛은 상부 편광필름을 통해 표시패널(10) 상에 배치된 패턴 리타더(Patterned Retarder)(30)에 입사된다.
패턴 리타더(30)의 기수 라인들에는 제1 리타더(31)가 형성되고, 우수 라인들에는 제2 리타더(32)가 형성된다. 따라서, 표시패널(10)의 기수 라인들의 픽셀들은 패턴 리타더(30)의 기수 라인들에 형성되는 제1 리타더(31)와 대향되고, 표시패널(10)의 우수 라인들의 픽셀들은 패턴 리타더(30)의 우수 라인들에 형성되는 제2 리타더(32)와 대향된다.
제1 리타더(31)는 표시패널(10)로부터의 빛의 위상값을 +λ/4(λ는 빛의 파장) 만큼 지연시킨다. 제2 리타더(32)는 표시패널(10)로부터의 빛의 위상값을 -λ/4 만큼 지연시킨다. 제1 리타더(31)의 광축(optic axis)(r3)과 제2 리타더(32)의 광축(r4)은 서로 직교된다. 패턴 리타더(30)의 제1 리타더(31)는 제1 원편광(좌원편광)만을 통과시키도록 구현될 수 있다. 제2 리타더(32)는 제2 원편광(우원편광)만을 통과시키도록 구현될 수 있다.
편광 안경(20)의 좌안 편광필터는 패턴 리타더(30)의 제1 리타더(31)와 동일한 광축을 가진다. 편광 안경(20)의 우안 편광필터는 패턴 리타더(30)의 제2 리타더(32)와 동일한 광축을 가진다. 예를 들어, 편광 안경(20)의 좌안 편광필터는 좌원편광 필터로 선택될 수 있고, 편광 안경(20)의 우안 편광필터는 우원편광 필터로 선택될 수 있다. 사용자는 3D 영상을 감상할 때 편광 안경을 쓰고, 2D 영상을 감상할 때 편광 안경을 벗어야 한다.
결국, 패턴 리타더 방식의 입체영상 표시장치에서, 표시패널(10)의 기수 라인들의 픽셀들에 표시되는 좌안 영상은 제1 리타더(31)를 통과하여 좌원편광으로 변환되고, 우수 라인들의 픽셀들에 표시되는 우안 영상은 제2 리타더(32)를 통과하여 우원편광으로 변환된다. 좌원편광은 편광 안경(20)의 좌안 편광필터를 통과하여 사용자의 좌안에 도달하게 되고, 우원편광은 편광 안경(20)의 우안 편광필터를 통과하여 사용자의 우안에 도달하게 된다. 따라서, 사용자는 좌안을 통하여 좌안 영상만을 보게 되고, 우안을 통하여 우안 영상만을 보게 된다.
데이터 구동부(120)는 다수의 소스 드라이브 IC를 포함한다. 소스 드라이브 IC들은 타이밍 콘트롤러(130)로부터 입력되는 2D/3D 영상 데이터(RGB2D/RGB3D')를 정극성/부극성 감마보상전압으로 변환하여 정극성/부극성 아날로그 데이터전압들을 발생한다. 소스 드라이브 IC들로부터 출력되는 정극성/부극성 아날로그 데이터전압들은 표시패널(10)의 데이터 라인(D)들에 공급된다.
게이트 구동부(110)는 타이밍 콘트롤러(130)의 제어 하에 데이터전압에 동기되는 게이트 펄스를 표시패널(10)의 게이트 라인(G)들에 순차적으로 공급한다. 게이트 구동부(110)는 쉬프트 레지스터, 쉬프트 레지스터의 출력신호를 액정셀의 TFT 구동에 적합한 스윙폭으로 변환하기 위한 레벨 쉬프터, 및 출력 버퍼 등을 각각 포함하는 다수의 게이트 드라이브 집적회로들로 구성될 수 있다. 또는, 게이트 구동부(110)는 GIP(Gate Drive IC in Panel) 방식으로 표시패널(10)의 하부 기판상에 직접 형성될 수도 있다. GIP 방식의 경우, 레벨 쉬프터는 PCB(Printed Circuit Board)상에 실장되고, 쉬프트 레지스터는 표시패널(10)의 하부 기판상에 형성될 수 있다.
타이밍 콘트롤러(130)는 영상처리부(140)로부터 출력된 2D/3D 영상 데이터(RGB2D/RGB3D')와 타이밍 신호들(Vsync, Hsync, DE, CLK)과 모드신호(MODE)에 기초하여 게이트 구동부 제어신호를 게이트 구동부(110)로 출력하고, 데이터 구동부 제어신호를 데이터 구동부(120)로 출력한다. 게이트 구동부 제어신호는 게이트 스타트 펄스(Gate Start Pulse, GSP), 게이트 쉬프트 클럭(Gate Shift Clock, GSC), 및 게이트 출력 인에이블신호(Gate Output Enable, GOE) 등을 포함한다. 게이트 스타트 펄스(GSP)는 첫 번째 게이트 펄스의 타이밍을 제어한다. 게이트 쉬프트 클럭(GSC)은 게이트 스타트 펄스(GSP)를 쉬프트시키기 위한 클럭신호이다. 게이트 출력 인에이블신호(GOE)는 게이트 구동부(110)의 출력 타이밍을 제어한다.
데이터 구동부 제어신호는 소스 스타트 펄스(Source Start Pulse, SSP), 소스 샘플링 클럭(Source Sampling Clock, SSC), 소스 출력 인에이블신호(Source Output Enable, SOE), 극성제어신호(POL) 등을 포함한다. 소스 스타트 펄스(SSP)는 데이터 구동부(120)의 데이터 샘플링 시작 시점을 제어한다. 소스 샘플링 클럭은 라이징 또는 폴링 에지에 기준하여 데이터 구동부(120)의 샘플링 동작을 제어하는 클럭신호이다. 데이터 구동부(120)에 입력될 디지털 비디오 데이터가 mini LVDS(Low Voltage Differential Signaling) 인터페이스 규격으로 전송된다면, 소스 스타트 펄스(SSP)와 소스 샘플링 클럭(SSC)은 생략될 수 있다. 극성제어신호(POL)는 데이터 구동부(120)로부터 출력되는 데이터전압의 극성을 L(L은 자연수) 수평기간 주기로 반전시킨다. 소스 출력 인에이블신호(SOE)는 데이터 구동부(120)의 출력 타이밍을 제어한다.
호스트 시스템(150)은 LVDS(Low Voltage Differential Signaling) 인터페이스, TMDS(Transition Minimized Differential Signaling) 인터페이스 등의 인터페이스를 통해 2D/3D 영상 데이터(RGB2D/RGB3D)를 영상처리부(140)에 공급한다. 또한, 호스트 시스템(150)은 타이밍신호들(Vsync, Hsync, DE, CLK)과 모드신호(MODE) 등을 영상처리부(140)에 공급한다.
영상처리부(140)는 2D 모드와 3D 모드에 따라 구분되는 모드 신호(MODE)를 입력받는다. 영상처리부(140)는 모드 신호(MODE)에 따라 2D 모드와 3D 모드를 구분할 수 있다. 영상처리부(140)는 2D 모드에서 호스트 시스템(150)으로부터 입력된 2D 영상 데이터(RGB2D)를 본 발명의 영상처리방법에 따라 영상 처리한 후 타이밍 콘트롤러(130)로 출력한다. 영상처리부(140)는 3D 모드에서 호스트 시스템(150)으로부터 입력된 3D 영상 데이터(RGB3D)를 본 발명의 영상처리방법에 따라 영상 처리한 후 3D 포맷으로 변환하여 출력한다. 호스트 시스템(150)으로부터 입력된 타이밍신호들(Vsync, Hsync, DE, CLK)은 영상처리부(140)에서 영상 처리된 2D/3D 영상 데이터(RGB2D'/RGB3D')의 타이밍에 맞게 변환된다. 영상처리부(140)에서 영상 처리된 2D/3D 영상 데이터(RGB2D'/RGB3D')와 타이밍 신호들(Vsync, Hsync, DE, CLK)은 타이밍 콘트롤러(130)로 출력된다. 본 발명의 영상처리부(140)의 영상처리방법에 대한 자세한 설명은 도 4 및 도 5를 결부하여 후술한다.
도 4는 도 2의 영상처리부를 상세히 나타내는 블록도이다. 도 5는 본 발명의 실시예에 따른 영상처리부의 영상처리방법을 보여주는 흐름도이다. 도 4를 참조하면, 영상처리부(140)는 텍스트 처리부(141)와 3D 포맷터(142)를 포함한다. 또한, 텍스트 처리부(141)는 데이터 샘플링부(141a), 그레이 스케일(Gray Scale) 변환부(141b), 에지 검출부(141c), 텍스트 영역 검출부(141d), 데이터 변환부부(141e)를 포함한다. 텍스트 처리부(141)는 입력되는 영상에서 텍스트 영역을 찾아내어 텍스트 영역의 화질을 개선한다. 3D 포맷터(142)는 텍스트 처리부(141)를 통해 텍스트 영역이 화질 개선된 영상을 3D 포맷으로 변경한다. 이하에서, 도 4 및 도 5를 결부하여 영상처리부(140)의 영상처리방법에 대하여 상세히 설명한다.
첫 번째로, 데이터 샘플링부(141a)는 호스트 시스템(150)으로부터 2D 영상 데이터(RGB2D) 또는 3D 영상 데이터(RGB3D)를 입력받는다. 데이터 샘플링부(141a)는 모드 신호(MODE)를 통해 입력되는 영상 데이터가 2D 영상 데이터(RGB2D)인지 3D 영상 데이터(RGB3D)인지를 판단할 수 있다. 데이터 샘플링부(141a)는 2D 영상 데이터(RGB2D)가 입력되는 경우, 2D 영상 데이터(RGB2D)를 그대로 그레이 스케일 변환부(141b)로 출력한다.
데이터 샘플링부(141a)에 입력되는 3D 영상 데이터(RGB3D)에는 도 6a와 같이 좌반부에는 좌안 영상 데이터(RGBL)가 배열되고, 우반부에는 우안 영상 데이터(RGBR)가 배열되어 있다. 데이터 샘플링부(141a)는 3D 영상 데이터(RGB3D)를 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)로 분리한 후 확장하여, 도 6b와 같이 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 샘플링한다. 데이터 샘플링부(141a)는 샘플링된 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 그레이 스케일 변환부(141b)로 출력한다. (S101)
두 번째로, 그레이 스케일 변환부(141b)는 데이터 샘플링부(141a)로부터 입력된 영상 데이터를 도 6c와 같이 그레이 스케일 영상 데이터로 변환한다. 그레이 스케일 변환부(141b)는 수학식 1과 같이 그레이 스케일 영상 데이터(G(RGB))를 산출한다.
Figure 112011054296754-pat00001
수학식 1에서, G(RGB)는 그레이 스케일 영상 데이터, R은 R 데이터, G는 G 데이터, B는 B 데이터를 의미한다. 데이터 샘플링부(141a)로부터 입력된 영상 데이터가 8비트(bits)인 경우, R 데이터(R), G 데이터(G), B 데이터(B), 및 그레이 스케일 영상 데이터(G(RGB))는 0 내지 255 계조(G0~G255)로 표현될 수 있다.
또한, 그레이 스케일 변환부(141b)는 에지 검출의 정확도를 높이기 위해 도 6d와 같이 그레이 스케일 영상의 노이즈를 제거할 수 있다. 그레이 스케일 변환부(141b)는 노이즈 제거를 위해 메디안 필터(median filter) 등의 이미 알려진 공지의 필터를 사용한다. (S102)
세 번째로, 에지 검출부(141c)는 그레이 스케일 영상 데이터(G(RGB))로부터 에지(edge)를 검출한다. 에지 검출은 텍스트 영역을 찾기 위한 선행 단계이다. 에지 검출부(141c)는 도 6e와 같이 소벨 마스크(sobel mask) 등의 이미 알려진 공지의 마스크를 이용하여 그레이 스케일 영상 데이터(G(RGB))의 에지(edge)를 검출한다. 이때, 소벨 마스크는 p×q(p, q는 2 이상의 자연수) 마스크로 설정될 수 있고, 마스크 계수는 사전 실험에 의해 결정될 수 있다. (S103)
네 번째로, 텍스트 영역 검출부(141d)는 에지 검출 영상으로부터 텍스트 영역을 찾아낸다. 텍스트 영역 검출부(141d)는 텍스트 후보(candidate) 영역 검출부(201), 텍스트 후보 영역 확장부(202), 및 텍스트 후보 영역 처리부(203)를 포함한다.
먼저, 텍스트 후보 영역 검출부(201)는 에지 검출 영상을 이용하여 텍스트 후보 영역을 검출한다. 텍스트 후보 영역 검출부(201)는 에지 검출 영상에서 화소 데이터의 계조값이 제1 문턱값 이상이면 그 화소 데이터를 양자화(Quantization)한다. 양자화(Quantization)는 화소 데이터의 계조값이 제1 문턱값 이상인 경우 최대 계조값을 부여하고, 화소 데이터의 계조값이 제1 문턱값보다 작은 경우 최소 계조값을 부여하는 것을 의미한다. 입력된 영상 데이터가 8비트인 경우, 최대 계조값은 255 계조(G255)를 의미하고, 최소 계조값은 0 계조(G0)를 의미한다. 즉, 텍스트 영역에서 문자를 표시하는 화소 데이터의 계조값이 그 주변 화소 데이터의 계조값과 큰 차이가 나기 때문에, 텍스트 후보 영역 검출부(201)는 에지 검출 영상에서 화소 데이터의 계조값이 제1 문턱값 이상인 경우, 도 6f 및 도 8a와 같이 그 화소 데이터를 텍스트 후보 영역으로 검출한다. 제1 문턱값은 사전 실험에 의해 결정될 수 있다.
예를 들어, 제1 문턱값이 250 계조(G250)로 설정된 경우, 텍스트 후보 영역 검출부(201)는 에지 검출 영상에서 화소 데이터의 계조값이 250 계조(G250) 이상인지를 판단한다. 텍스트 후보 영역 검출부(201)는 에지 검출 영상에서 화소 데이터의 계조값이 250 계조(G250) 이상이라면, 그 화소 데이터를 255 계조(G255)로 변환한다. 즉, 텍스트 후보 영역 검출부(201)는 에지 검출 영상에서 화소 데이터의 계조값이 250 계조(G250) 이상이라면, 그 화소 데이터를 텍스트 후보 영역으로 검출한다.
그 다음, 텍스트 후보 영역 확장부(202)는 텍스트 후보 영역 검출부(201)로부터 텍스트 후보 영역이 검출된 영상을 입력받는다. 텍스트 후보 영역 확장부(202)는 제1 마스크(M1)를 이용하여 텍스트 후보 영역이 검출된 영상의 텍스트 후보 영역을 확장한다. 텍스트 후보 영역 확장부(202)는 제1 마스크(M1) 내의 모든 화소의 데이터를 제1 마스크(M1) 내의 최대값으로 변환한다. 텍스트 후보 영역 확장부(202)는 제1 마스크(M1)를 마스크 단위로 쉬프트하면서 텍스트 후보 영역을 확장할지를 결정한다. 제1 마스크(M1)는 1×t(t는 2 이상의 자연수) 수평 마스크로 설정될 수 있다.
한편, 텍스트 후보 영역 검출부(201)는 도 8a와 같이 양자화를 통해 최대 계조값(G255)과 최소 계조값(G0)으로 텍스트 후보 영역이 검출된 영상으로 변환하였다. 따라서, 텍스트 후보 영역 확장부(202)는 도 8b와 같이 텍스트 후보 영역이 검출된 영상에서 제1 마스크(M1) 내에 화소의 데이터 중 어느 하나가 최대 계조값(G255)인 경우, 제1 마스크(M1) 내의 모든 화소의 데이터를 최대 계조값(G255)으로 변환한다.
예를 들어, 도 7a와 같이 제1 마스크(M1)는 1×5 수평 마스크로 설정될 수 있다. 이 경우, 텍스트 후보 영역 확장부(202)는 제1 마스크(M1) 내의 화소 데이터(P(i-2,j), P(i-1,j), P(i,j), P(i+1,j), P(i+2,j)) 중 어느 하나가 최대 계조값(G255)인 경우, 제1 마스크(M1) 내의 화소 데이터(P(i-2,j), P(i-1,j), P(i,j), P(i+1,j), P(i+2,j))를 최대 계조값(G255)으로 변환한다.
마지막으로, 텍스트 후보 영역 처리부(203)는 텍스트 후보 영역 확장부(202)로부터 텍스트 후보 영역이 확장된 영상을 입력받는다. 텍스트 후보 영역 처리부(203)는 제2 마스크(M2)와 제3 마스크(M3)를 이용하여 텍스트 후보 영역이 확장된 영상으로부터 최종 텍스트 영역을 검출한다. 텍스트 후보 영역 처리부(203)는 제2 마스크(M2)를 이용하여 수평 방향으로 텍스트 영역을 스캔한 후에, 제3 마스크(M3)를 이용하여 수직 방향으로 텍스트 영역을 스캔함으로써, 최종 텍스트 영역을 검출한다.
텍스트 후보 영역 처리부(203)는 제2 마스크(M2) 내의 모든 화소 데이터가 최대 계조값(G255)인 경우, 제2 마스크(M2) 내의 모든 화소 데이터를 최대 계조값(G255)으로 유지한다. 텍스트 후보 영역 처리부(203)는 제2 마스크(M2) 내의 모든 화소 데이터 중 어느 하나라도 최대 계조값(G255)이 아닌 경우, 제2 마스크(M2) 내의 모든 화소 데이터를 최소 계조값(G0)으로 변환한다. 제2 마스크(M2)는 1×u(u는 2 이상의 자연수) 수평 마스크로 설정될 수 있다. 텍스트 후보 영역 처리부(203)는 제3 마스크(M3) 내의 모든 화소 데이터가 최대 계조값(G255)인 경우, 제3 마스크(M3) 내의 모든 화소 데이터를 최대 계조값(G255)으로 유지한다. 텍스트 후보 영역 처리부(203)는 제3 마스크(M3) 내의 모든 화소 데이터 중 어느 하나라도 최대 계조값(G255)이 아닌 경우, 제3 마스크(M3) 내의 모든 화소 데이터를 최소 계조값(G0)으로 변환한다. 제3 마스크(M3)는 v×1(v는 2 이상의 자연수) 수직 마스크로 설정될 수 있다.
텍스트 후보 영역 처리부(203)는 제3 마스크(M3)의 행만큼 제2 마스크(M2)를 마스크 단위로 쉬프트하며 텍스트 영역을 스캔한다. 텍스트 후보 영역 처리부(203)는 제2 마스크(M2)를 이용한 텍스트 영역의 스캔 후에, 제3 마스크(M3)를 마스크 단위로 쉬프트하며 텍스트 영역을 스캔한다. 예를 들어, 도 7b와 같이 제2 마스크(M2)는 제1 내지 제50 컬럼(C1~C50)을 포함하는 1×50 수평 마스크로 설정될 수 있고, 제3 마스크(M3)는 제1 내지 제3 로우(R1~R3)를 포함하는 3×1 수직 마스크로 설정될 수 있다. 텍스트 후보 영역 처리부(203)는 제3 마스크(M3)의 3행 만큼 1×50 수평 마스크인 제2 마스크(M2)를 쉬프트하며 텍스트 영역을 스캔한다. 텍스트 후보 영역 처리부(203)는 제2 마스크(M2)를 이용한 텍스트 영역의 스캔 후에, 제3 마스크(M3)를 마스크 단위로 쉬프트하며 텍스트 영역을 스캔한다. 결국, 텍스트 후보 영역 처리부(203)의 제2 마스크(M2)와 제3 마스크(M3)를 통해 최종 텍스트 영역으로 검출된 영상은 도 8c와 같다.
또한, 텍스트 후보 영역 처리부(203)는 영상의 복잡도에 따라 제2 마스크(M2)와 제3 마스크(M3)를 다르게 할 수 있다. 텍스트 후보 영역 처리부(203)는 도 9a와 같이 단순한 영상보다 도 9b와 같이 복잡한 영상에서 제2 마스크(M2)와 제3 마스크(M3)의 크기를 크게 한다. 복잡도 판단은 에지가 검출된 영상의 라인별로 에지의 개수가 제2 문턱값 이상인 경우를 카운트하고, 카운트한 값이 제3 문턱값 이상인 경우 복잡도가 높은 영상으로 판단하며, 카운트한 값이 제3 문턱값보다 작은 경우 복잡도가 낮은 영상으로 판단한다. 제2 및 제3 문턱값은 사전 실험을 통해 결정될 수 있다.
한편, 텍스트 후보 영역 처리부(203)는 제2 마스크(M2)와 제3 마스크(M3)를 이용하여 검출된 텍스트 영역의 에러(error)를 보완하기 위해, 최종 텍스트 영역에서 소정의 열과 소정의 행을 추가로 확장한다. 소정의 열은 제2 마스크(M2)의 1/2 크기로 설정될 수 있고, 소정의 행은 제3 마스크(M3)의 1/2 크기로 설정될 수 있으나, 이에 한정되지 않음에 주의하여야 한다. 결국, 제2 마스크(M2)는 수평 마스크이므로, 최종 텍스트 영역의 에러를 수평 방향으로 보완할 수 있다. 제3 마스크(M3)는 수직 마스크이므로, 최종 텍스트 영역의 에러를 수직 방향으로 보완할 수 있다. (S104)
데이터 변환부(141e)는 텍스트 영역 검출부(141d)로부터 텍스트 영역이 검출된 영상을 입력받고, 데이터 샘플링부(141a)로부터 2D 영상 데이터(RGB2D) 또는 샘플링된 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 입력받는다. 데이터 변환부(141e)는 텍스트 영역 검출부(141d)로부터 입력된 텍스트 영역의 좌표값을 데이터 샘플링부(141a)로부터 입력된 2D 영상 데이터(RGB2D) 또는 샘플링된 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)에 매핑한다. 데이터 변환부(141e)는 텍스트 영역 검출부(141d)로부터 입력된 텍스트 영역의 좌표값에 해당하는 2D 영상 데이터(RGB2D) 또는 샘플링된 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)의 화소 데이터를 변환한다.
데이터 변환부(141e)는 2D 모드와 3D 모드에서 텍스트 영역으로 검출된 화소 데이터를 다르게 변환한다. 데이터 변환부(141e)는 모드 신호(MODE)를 통해 2D 모드인지 3D 모드인지 판단할 수 있다. 데이터 변환부(141e)는 2D 모드에서 텍스트 영역으로 검출된 화소 데이터에 샤프니스 필터(Sharpness filter) 등의 이미 알려진 공지의 필터를 이용하여 텍스트 영역의 선명도를 높인다.
데이터 변환부(141e)는 3D 모드에서 제1 및 제2 실시예에 따라 텍스트 영역으로 검출된 화소 데이터를 변환할 수 있다. 한편, 데이터 변환부(141e)는 3D 모드에서도 텍스트 영역으로 검출된 화소 데이터에 샤프니스 필터(Sharpness filter) 등의 이미 알려진 공지의 필터를 이용하여 텍스트 영역의 선명도를 높인 후에, 본 발명의 제1 및 제2 실시예에 따라 텍스트 영역으로 검출된 화소 데이터를 변환할 수 있다.
첫 번째로, 본 발명의 제1 실시예에 따른 데이터 변환부(141e)는 3D 모드에서 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 이전 라인의 화소 데이터의 평균값을 적용한다. 예를 들어, 데이터 변환부(141e)는 3D 모드에서 텍스트 영역으로 검출된 제n(n은 1≤n≤k를 만족하는 자연수, k는 표시패널(10)의 화소 수평 라인의 수) 라인의 제m(m은 1≤m≤l를 만족하는 자연수, l은 표시패널(10)의 화소 수직 라인의 수) 화소 데이터에 제n 라인의 제m 화소 데이터와 제n-1 라인의 제m 화소 데이터의 평균값을 적용한다. 또는, 데이터 변환부(141e)는 3D 모드에서 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 이후 라인의 화소 데이터의 평균값을 적용한다. 예를 들어, 데이터 변환부(141e)는 3D 모드에서 텍스트 영역으로 검출된 제n 라인의 제m 화소 데이터에 제n 라인의 제m 화소 데이터와 제n+1 라인의 제m 화소 데이터의 평균값을 적용한다.
두 번째로, 본 발명의 제2 실시예에 따른 데이터 변환부(141e)는 3D 모드에서 텍스트 영역으로 검출된 화소 데이터가 기수 라인인 경우 그 화소 데이터와 이후 라인의 화소 데이터의 평균값을 적용하고, 우수 라인인 경우 그 화소 데이터와 이전 라인의 화소 데이터의 평균값을 적용할 수 있다. 예를 들어, 데이터 변환부(141e)는 3D 모드에서 제n 라인이 기수 라인인 경우, 텍스트 영역으로 검출된 제n 라인의 제m 화소 데이터에 제n 라인의 제m 화소 데이터와 제n+1 라인의 제m 화소 데이터의 평균값을 적용한다. 또한, 데이터 변환부(141e)는 3D 모드에서 제n 라인이 우수 라인인 경우, 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 이전 라인의 화소 데이터의 평균값을 적용한다. 예를 들어, 데이터 변환부(141e)는 3D 모드에서 텍스트 영역으로 검출된 제n 라인의 제m 화소 데이터에 제n 라인의 제m 화소 데이터와 제n-1 라인의 제m 화소 데이터의 평균값을 적용한다. (S105, S106, S107)
3D 포맷터(142)는 모드 신호(MODE)를 통해 2D 모드인지 3D 모드인지 판단할 수 있다. 3D 포맷터(142)는 2D 모드에서 데이터 변환부(141e)로부터 입력된 2D 영상 데이터(RGB2D)를 3D 포맷으로 변환하지 않고 그대로 출력한다. 3D 포맷터(142)는 3D 모드에서 제1 및 제2 실시예에 따라 데이터 변환부(141e)로부터 입력받은 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 3D 포맷한다.
도 10에는 본 발명의 제1 실시예에 따른 3D 포맷터(142)의 포맷 방법이 나타나 있다. 3D 포맷터(142)는 기수 라인들에 좌안 영상 데이터(RGBL)를 배열하고, 우수 라인들에 우안 영상 데이터(RGBR)를 배열한 3D 영상 데이터(RGB3D')를 출력한다. 또는, 3D 포맷터(142)는 기수 라인들에 우안 영상 데이터(RGBR)를 배열하고, 우수 라인들에는 좌안 영상 데이터(RGBL)를 배열한 3D 영상 데이터(RGB3D')를 출력할 수 있다. 즉, 3D 포맷터(142)의 3D 포맷 방법은 패턴 리타더(30)의 제1 리타더(31)와 제2 리타더(32)의 배치에 따라 달라질 수 있다.
도 11에는 본 발명의 제2 실시예에 따른 3D 포맷터(142)의 포맷 방법이 나타나 있다. 도 11에는 본 발명의 제2 실시예에 따른 3D 포맷터(142)의 포맷 방법이 나타나 있다. 3D 포맷터(142)는 도 11과 같이 기수 프레임과 우수 프레임으로 시분할하여 3D 포맷한다. 3D 포맷터(142)는 기수 프레임에는 기수 라인들에 좌안 영상 데이터(RGBL)를 배열하고, 우수 라인들에 우안 영상 데이터(RGBR)를 배열한 3D 영상 데이터(RGB3D')를 출력한다. 또한, 3D 포맷터(142)는 도 11과 같이 우수 프레임에는 기수 프레임에 배열되지 않은 좌안 영상 데이터(RGBL)를 기수 라인들에 배열하고, 기수 프레임에 배열되지 않은 우안 영상 데이터(RGBR)를 우수 라인에 배열한 3D 영상 데이터(RGB3D')를 출력한다. 예를 들어, 3D 포맷터(142)는 기수 프레임의 기수 라인들에는 좌안 영상 데이터(RGBL)의 기수 라인들(1L, 3L, …, 1079L)을 배열하고, 기수 프레임의 우수 라인들에는 우안 영상 데이터(RGBR)의 우수 라인들(2R, 4R, …, 1080R)을 배열한다. 3D 포맷터(142)는 우수 프레임의 기수 라인들에는 좌안 영상 데이터(RGBL)의 우수 라인들(2L, 4L, …, 1080L)을 배열하고, 우수 프레임의 우수 라인들에는 우안 영상 데이터(RGBR)의 기수 라인들(1R, 3R, …, 1079R)을 배열한다.
하지만, 3D 포맷터(142)의 3D 포맷 방법은 이에 한정되지 않음에 주의하여야 한다. 즉, 3D 포맷터(142)는 기수 프레임의 기수 라인들에 좌안 영상 데이터(RGBL)의 우수 라인들(2L, 4L, …, 1080L)을 배열하고, 기수 프레임의 우수 라인들에는 우안 영상 데이터(RGBR)의 기수 라인들(1R, 3R, …, 1079R)을 배열할 수 있다. 또한, 3D 포맷터(142)는 우수 프레임의 기수 라인들에는 좌안 영상 데이터(RGBL)의 기수 라인들(1L, 3L, …, 1079L)을 배열하고, 우수 프레임의 우수 라인들에는 우안 영상 데이터(RGBR)의 우수 라인들(2R, 4R, …, 1080R)을 배열할 수도 있다. 나아가, 3D 포맷터(142)의 3D 포맷 방법은 패턴 리타더(30)의 제1 리타더(31)와 제2 리타더(32)의 배치에 따라 달라질 수 있다.
한편, 본 발명의 제1 및 제2 실시예에 따른 데이터 변환부(141e)는 3D 모드에서 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 라인의 화소 데이터의 평균값을 적용한다. 그 결과, 본 발명의 제1 및 제2 실시예에 따른 3D 포맷터(142)에 의해 3D 포맷되는 경우라도, 기수 라인에 배열되지 않는 영상 데이터 또는 우수 라인에 배열되지 않는 영상 데이터를 보완할 수 있으므로, 본 발명은 텍스트 영역의 문자가독성을 높일 수 있다. (S108)
또한, 텍스트 영역 검출부(141d)가 텍스트 영역을 검출하지 못한 경우, 데이터 변환부(141e)는 데이터 샘플링부(141a)로부터 입력받은 2D 영상 데이터(RGB2D) 또는 샘플링된 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 3D 포맷터(142)로 그대로 출력한다. 3D 포맷터(142)는 2D 모드에서 데이터 변환부(141e)로부터 입력받은 2D 영상 데이터(RGB2D)를 3D 포맷으로 변환하지 않고 그대로 출력한다. 3D 포맷터(142)는 3D 모드에서 데이터 변환부(141e)로부터 입력받은 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 본 발명의 제1 또는 제2 실시예에 따른 3D 포맷 방법으로 변환하여 출력한다. (S109)
도 12a 및 도 12b는 종래 기술의 영상과 본 발명의 실시예에 따른 영상처리방법을 적용한 영상을 보여주는 실험결과 도면들이다. 도 12a 및 도 12b에는 3D 모드에서 사용자가 관찰한 텍스트 영역의 문자가 확대되어 나타나 있다.
도 12a와 같이 종래 기술의 영상은 텍스트 영역의 문자가 어떤 문자인지 확인할 수 없을 정도로 문자가독성이 크게 떨어진다. 이에 비해, 도 12b과 같이 본 발명의 실시예에 따른 영상처리방법을 적용한 영상은 텍스트 영역의 문자가 어떤 문자인지 쉽게 알 수 있으므로, 문자가독성이 크게 높아졌음을 알 수 있다. 즉, 본 발명의 실시예에 따른 영상처리방법은 텍스트 영역을 검출한 후, 텍스트 영역의 화소 데이터에 샤프니스 필터를 적용하거나, 텍스트 영역의 화소 데이터에 그 화소 데이터와 인접한 화소 데이터의 평균값을 적용함으로써, 텍스트 영역의 문자가독성을 크게 높일 수 있다.
이상, 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.
10: 표시패널 11a: 상부 편광판
11b: 하부 편광판 20: 편광안경
30: 패턴 리타더 31: 제1 리타더
32: 제2 리타더 110: 게이트 구동부
120: 데이터 구동부 130: 타이밍 콘트롤러
140: 영상처리부 141: 재깅 개선부
141a: 데이터 샘플링부 141b: 그레이 스케일 변환부
141c: 에지 검출부 141d: 텍스트 영역 검출부
141e: 데이터 변환부 142: 3D 포맷터
150: 호스트 시스템 201: 텍스트 후보 영역 검출부
202: 텍스트 후보 영역 확장부 203: 텍스트 후보 영역 처리부

Claims (20)

  1. 2D 모드에서 2D 영상 데이터를 그대로 출력하고, 3D 모드에서 3D 영상 데이터를 좌안 영상 데이터와 우안 영상 데이터로 샘플링하는 단계;
    상기 2D 모드에서 상기 2D 영상 데이터를 그레이 스케일 영상 데이터로 변환하고, 상기 3D 모드에서 상기 좌안 영상 데이터 또는 상기 우안 영상 데이터를 상기 그레이 스케일 영상 데이터로 변환하는 단계;
    상기 그레이 스케일 영상 데이터의 에지를 검출하는 단계;
    상기 에지가 검출된 영상으로부터 텍스트 영역을 검출하는 단계;
    상기 3D 모드에서 상기 좌안 영상 데이터와 우안 영상 데이터의 상기 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 화소 데이터의 평균값을 적용하는 단계; 및
    상기 3D 모드에서 상기 평균값이 적용된 상기 좌안 영상 데이터와 우안 영상 데이터를 3D 포맷으로 변환하여 출력하는 단계를 포함하고,
    상기 에지가 검출된 영상으로부터 텍스트 영역을 검출하는 단계는,
    상기 에지가 검출된 영상에서 화소 데이터의 계조값이 제1 문턱값 이상이면 그 화소 데이터를 양자화하여 텍스트 후보 영역을 검출하는 단계;
    상기 텍스트 후보 영역에서 수평 마스크인 제1 마스크 내의 모든 화소 데이터를 상기 제1 마스크 내의 최대값으로 변환하여 상기 텍스트 후보 영역을 확장하는 단계;
    확장된 텍스트 후보 영역에서 수평 마스크인 제2 마스크 내의 모든 화소의 데이터가 최대 계조값인 경우 상기 제2 마스크 내의 모든 화소의 데이터를 상기 최대 계조값으로 유지하고, 그렇지 않은 경우 상기 제2 마스크 내의 모든 화소의 데이터를 최소 계조값으로 변환하며, 수직 마스크인 제3 마스크 내의 모든 화소의 데이터가 최대 계조값인 경우 상기 제3 마스크 내의 모든 화소의 데이터를 상기 최대 계조값으로 유지하고, 그렇지 않은 경우 상기 제3 마스크 내의 모든 화소의 데이터를 최소 계조값으로 변환하여 최종 텍스트 영역을 검출하는 단계를 포함하는 것을 특징으로 하는 영상처리방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 에지가 검출된 영상으로부터 텍스트 영역을 검출하는 단계는,
    소정의 열만큼을 상기 최종 텍스트 영역에 추가로 확장하고, 소정의 행만큼을 상기 최종 텍스트 영역에 추가로 확장하는 단계를 더 포함하는 것을 특징으로 하는 영상처리방법.
  4. 제 1 항에 있어서,
    상기 에지가 검출된 영상으로부터 텍스트 영역을 검출하는 단계는,
    상기 에지로 검출된 영상 데이터의 복잡도를 판단하고, 복잡한 영상인 경우 단순한 영상보다 상기 제2 마스크와 제3 마스크의 크기를 크게 하는 단계를 더 포함하는 것을 특징으로 하는 영상처리방법.
  5. 제 4 항에 있어서,
    상기 에지로 검출된 영상 데이터의 복잡도를 판단하고, 복잡한 영상인 경우 단순한 영상보다 제2 마스크와 제3 마스크의 크기를 크게 하는 단계는,
    상기 에지가 검출된 영상의 라인별로 에지의 개수가 제2 문턱값 이상인 경우를 카운트하고, 카운트한 값이 제3 문턱값 이상인 경우 복잡도가 높은 영상으로 판단하며, 상기 카운트한 값이 제3 문턱값보다 작은 경우 복잡도가 낮은 영상으로 판단하는 것을 특징으로 하는 영상처리방법.
  6. 제 1 항에 있어서,
    상기 3D 모드에서 상기 좌안 영상 데이터와 우안 영상 데이터의 상기 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 화소 데이터의 평균값을 적용하는 단계는,
    상기 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 이전 라인 또는 이후 라인의 화소 데이터의 평균값을 적용하는 것을 특징으로 하는 영상처리방법.
  7. 제 1 항에 있어서,
    상기 3D 모드에서 상기 좌안 영상 데이터와 우안 영상 데이터의 상기 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 화소 데이터의 평균값을 적용하는 단계는,
    상기 텍스트 영역으로 검출된 화소 데이터가 기수 라인인 경우 상기 화소 데이터에 그 화소 데이터와 인접한 이후 라인의 화소 데이터의 평균값을 적용하고, 상기 화소 데이터가 우수 라인인 경우 상기 화소 데이터에 그 화소 데이터와 인접한 이전 라인의 화소 데이터의 평균값을 적용하는 것을 특징으로 하는 영상처리방법.
  8. 제 1 항에 있어서,
    상기 3D 모드에서 상기 평균값이 적용된 상기 좌안 영상 데이터와 우안 영상 데이터를 3D 포맷으로 변환하여 출력하는 단계는,
    상기 3D 모드에서 기수 라인에 상기 좌안 영상 데이터의 기수 라인을 배열하고, 우수 라인에 상기 우안 영상 데이터의 우수 라인을 배열하는 것을 특징으로 하는 영상처리방법.
  9. 제 1 항에 있어서,
    상기 3D 모드에서 상기 평균값이 적용된 상기 좌안 영상 데이터와 우안 영상 데이터를 3D 포맷으로 변환하여 출력하는 단계는,
    상기 3D 모드에서 기수 프레임의 기수 라인에 상기 좌안 영상 데이터의 기수 라인을 배열하고, 상기 기수 프레임의 우수 라인에 상기 우안 영상 데이터의 우수 라인을 배열하며, 우수 프레임의 기수 라인에 상기 좌안 영상 데이터의 우수 라인을 배열하고, 상기 우수 프레임의 우수 라인에 상기 우안 영상 데이터의 기수 라인을 배열하는 것을 특징으로 하는 영상처리방법.
  10. 제 1 항에 있어서,
    상기 2D 모드에서 상기 2D 영상 데이터의 상기 텍스트 영역으로 검출된 화소 데이터에 샤프니스 필터를 적용하는 단계; 및
    상기 2D 모드에서 상기 샤프니스 필터가 적용된 2D 영상 데이터를 그대로 출력하는 단계를 더 포함하는 영상처리방법.
  11. 데이터 라인들과 게이트 라인들이 교차되는 표시패널;
    입력되는 영상 데이터의 텍스트 영역을 검출하여 상기 텍스트 영역의 문자가독성을 개선하는 영상처리부;
    상기 영상처리부로부터 출력된 영상 데이터를 데이터전압으로 변환하여 상기 데이터 라인들로 출력하는 데이터 구동부; 및
    상기 데이터전압에 동기되는 게이트 펄스를 상기 게이트 라인들로 순차적으로 출력하는 게이트 구동부를 구비하고,
    상기 영상처리부는,
    2D 모드에서 2D 영상 데이터를 그대로 출력하고, 3D 모드에서 3D 영상 데이터를 좌안 영상 데이터와 우안 영상 데이터로 샘플링하는 데이터 샘플링부;
    상기 2D 모드에서 상기 2D 영상 데이터를 그레이 스케일 영상 데이터로 변환하고, 상기 3D 모드에서 상기 좌안 영상 데이터 또는 상기 우안 영상 데이터를 상기 그레이 스케일 영상 데이터로 변환하는 그레이 스케일 변환부;
    상기 그레이 스케일 영상 데이터의 에지를 검출하는 에지 검출부;
    상기 에지가 검출된 영상으로부터 텍스트 영역을 검출하는 텍스트 영역 검출부;
    상기 3D 모드에서 상기 좌안 영상 데이터와 우안 영상 데이터의 상기 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 화소 데이터의 평균값을 적용하는 데이터 변환부; 및
    상기 3D 모드에서 상기 평균값이 적용된 상기 좌안 영상 데이터와 우안 영상 데이터를 3D 포맷으로 변환하여 출력하는 3D 포맷터를 포함하고,
    상기 텍스트 영역 검출부는,
    상기 에지가 검출된 영상에서 화소 데이터의 계조값이 제1 문턱값 이상이면 그 화소 데이터를 양자화하는 텍스트 후보 영역 검출부;
    상기 텍스트 후보 영역에서 수평 마스크인 제1 마스크 내의 모든 화소 데이터를 상기 제1 마스크 내의 최대값으로 변환하는 텍스트 후보 영역 확장부; 및
    확장된 텍스트 후보 영역에서 수평 마스크인 제2 마스크 내의 모든 화소의 데이터가 최대 계조값인 경우 상기 제2 마스크 내의 모든 화소의 데이터를 상기 최대 계조값으로 유지하고, 그렇지 않은 경우 상기 제2 마스크 내의 모든 화소의 데이터를 최소 계조값으로 변환하며, 수직 마스크인 제3 마스크 내의 모든 화소의 데이터가 최대 계조값인 경우 상기 제3 마스크 내의 모든 화소의 데이터를 상기 최대 계조값으로 유지하고, 그렇지 않은 경우 상기 제3 마스크 내의 모든 화소의 데이터를 최소 계조값으로 변환하여 최종 텍스트 영역을 검출하는 텍스트 후보 영역 처리부를 포함하는 것을 특징으로 하는 입체영상 표시장치.
  12. 삭제
  13. 제 11 항에 있어서,
    상기 텍스트 후보 영역 처리부는,
    소정의 열만큼을 상기 최종 텍스트 영역에 추가로 확장하고, 소정의 행만큼을 상기 최종 텍스트 영역에 추가로 확장하는 것을 특징으로 하는 입체영상 표시장치.
  14. 제 11 항에 있어서,
    상기 텍스트 후보 영역 처리부는,
    상기 에지로 검출된 영상 데이터의 복잡도를 판단하고, 복잡한 영상인 경우 단순한 영상보다 상기 제2 마스크와 제3 마스크의 크기를 크게 하는 것을 특징으로 하는 입체영상 표시장치.
  15. 제 14 항에 있어서,
    상기 텍스트 후보 영역 처리부는,
    상기 에지가 검출된 영상의 라인별로 에지의 개수가 제2 문턱값 이상인 경우를 카운트하고, 카운트한 값이 제3 문턱값 이상인 경우 복잡도가 높은 영상으로 판단하며, 상기 카운트한 값이 제3 문턱값보다 작은 경우 복잡도가 낮은 영상으로 판단하는 것을 특징으로 하는 입체영상 표시장치.
  16. 제 11 항에 있어서,
    상기 데이터 변환부는,
    상기 텍스트 영역으로 검출된 화소 데이터에 그 화소 데이터와 인접한 이전 라인 또는 이후 라인의 화소 데이터의 평균값을 적용하는 것을 특징으로 하는 입체영상 표시장치.
  17. 제 11 항에 있어서,
    상기 데이터 변환부는,
    상기 텍스트 영역으로 검출된 화소 데이터가 기수 라인인 경우 상기 화소 데이터에 그 화소 데이터와 인접한 이후 라인의 화소 데이터의 평균값을 적용하고, 상기 화소 데이터가 우수 라인인 경우 상기 화소 데이터에 그 화소 데이터와 인접한 이전 라인의 화소 데이터의 평균값을 적용하는 것을 특징으로 하는 입체영상 표시장치.
  18. 제 11 항에 있어서,
    상기 3D 포맷터는,
    상기 3D 모드에서 기수 라인에 상기 좌안 영상 데이터의 기수 라인을 배열하고, 우수 라인에 상기 우안 영상 데이터의 우수 라인을 배열하는 것을 특징으로 하는 입체영상 표시장치.
  19. 제 11 항에 있어서,
    상기 3D 포맷터는,
    상기 3D 모드에서 기수 프레임의 기수 라인에 상기 좌안 영상 데이터의 기수 라인을 배열하고, 상기 기수 프레임의 우수 라인에 상기 우안 영상 데이터의 우수 라인을 배열하며, 우수 프레임의 기수 라인에 상기 좌안 영상 데이터의 우수 라인을 배열하고, 상기 우수 프레임의 우수 라인에 상기 우안 영상 데이터의 기수 라인을 배열하는 것을 특징으로 하는 입체영상 표시장치.
  20. 제 11 항에 있어서,
    상기 데이터 변환부는 상기 2D 모드에서 상기 2D 영상 데이터의 상기 텍스트 영역으로 검출된 화소 데이터에 샤프니스 필터를 적용하고,
    상기 3D 포맷터는 상기 2D 모드에서 상기 샤프니스 필터가 적용된 2D 영상 데이터를 그대로 출력하는 것을 특징으로 하는 입체영상 표시장치.
KR1020110070071A 2011-07-14 2011-07-14 영상처리방법과 이를 이용한 입체영상 표시장치 KR101829459B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020110070071A KR101829459B1 (ko) 2011-07-14 2011-07-14 영상처리방법과 이를 이용한 입체영상 표시장치
US13/548,002 US9137510B2 (en) 2011-07-14 2012-07-12 Image processing method, image processor and stereoscopic image display device using the image processor
CN201210243510.2A CN102883177B (zh) 2011-07-14 2012-07-13 图像处理方法、图像处理器及使用该图像处理器的立体图像显示装置
JP2012157286A JP5496276B2 (ja) 2011-07-14 2012-07-13 映像処理方法及び立体映像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110070071A KR101829459B1 (ko) 2011-07-14 2011-07-14 영상처리방법과 이를 이용한 입체영상 표시장치

Publications (2)

Publication Number Publication Date
KR20130009173A KR20130009173A (ko) 2013-01-23
KR101829459B1 true KR101829459B1 (ko) 2018-02-14

Family

ID=47484291

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110070071A KR101829459B1 (ko) 2011-07-14 2011-07-14 영상처리방법과 이를 이용한 입체영상 표시장치

Country Status (4)

Country Link
US (1) US9137510B2 (ko)
JP (1) JP5496276B2 (ko)
KR (1) KR101829459B1 (ko)
CN (1) CN102883177B (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101773616B1 (ko) * 2011-05-16 2017-09-13 엘지디스플레이 주식회사 영상처리방법과 이를 이용한 입체영상 표시장치
US9081195B2 (en) * 2012-08-13 2015-07-14 Innolux Corporation Three-dimensional image display apparatus and three-dimensional image processing method
CN103686141B (zh) * 2013-12-30 2016-08-17 京东方科技集团股份有限公司 3d显示方法及3d显示装置
US10459224B2 (en) 2014-09-29 2019-10-29 Honeywell International Inc. High transmittance eyewear for head-up displays
US9606355B2 (en) 2014-09-29 2017-03-28 Honeywell International Inc. Apparatus and method for suppressing double images on a combiner head-up display
KR102324867B1 (ko) * 2015-09-25 2021-11-12 엘지디스플레이 주식회사 텍스트 검출 방법 및 이를 이용한 표시장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005523530A (ja) * 2002-04-19 2005-08-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 取り込み画像データから文字列を識別して抜出するシステムおよび方法
JP2009049751A (ja) * 2007-08-21 2009-03-05 Toshiba Corp 立体画像表示装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0413370A (ja) * 1990-05-01 1992-01-17 Canon Inc 画像処理装置
JPH11102438A (ja) * 1997-09-26 1999-04-13 Minolta Co Ltd 距離画像生成装置及び画像表示装置
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
JP2002252764A (ja) * 2001-02-26 2002-09-06 Matsushita Graphic Communication Systems Inc 画像処理装置及び画像処理方法
JP4228646B2 (ja) * 2002-10-02 2009-02-25 株式会社セガ 立体視画像生成方法および立体視画像生成装置
JP2004208117A (ja) * 2002-12-26 2004-07-22 Nec Engineering Ltd 字幕合成時における画質劣化検知システム
JP3852934B2 (ja) * 2003-05-20 2006-12-06 株式会社バンダイナムコゲームス 画像処理システム、プログラム及び情報記憶媒体
JP4172793B2 (ja) * 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
KR100782811B1 (ko) 2005-02-04 2007-12-06 삼성전자주식회사 영상의 주파수 특성에 따라 포맷을 달리하는 스테레오 영상 합성 방법 및 장치와, 그 영상의 송신 및 수신 방법과, 그 영상의 재생 방법 및 장치
KR100898287B1 (ko) * 2005-07-05 2009-05-18 삼성모바일디스플레이주식회사 입체 영상 표시 장치
CN100409658C (zh) 2006-09-08 2008-08-06 南京大学 图像缩放器中抗边缘锯齿噪声的方法
JP5225662B2 (ja) 2007-11-21 2013-07-03 三桜工業株式会社 車両配管用鋼管
KR101279120B1 (ko) * 2009-05-15 2013-06-26 엘지디스플레이 주식회사 영상표시장치
JP5257243B2 (ja) * 2009-05-28 2013-08-07 株式会社Jvcケンウッド 立体映像表示装置および立体映像表示方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005523530A (ja) * 2002-04-19 2005-08-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 取り込み画像データから文字列を識別して抜出するシステムおよび方法
JP2009049751A (ja) * 2007-08-21 2009-03-05 Toshiba Corp 立体画像表示装置

Also Published As

Publication number Publication date
JP2013027041A (ja) 2013-02-04
CN102883177A (zh) 2013-01-16
JP5496276B2 (ja) 2014-05-21
US20130016095A1 (en) 2013-01-17
CN102883177B (zh) 2014-11-19
KR20130009173A (ko) 2013-01-23
US9137510B2 (en) 2015-09-15

Similar Documents

Publication Publication Date Title
KR101888672B1 (ko) 입체영상 표시장치와 그 구동방법
KR101831652B1 (ko) 입체영상 표시장치와 그 구동방법
KR101869872B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101330412B1 (ko) 입체영상 표시장치 및 그 구동방법
KR101829459B1 (ko) 영상처리방법과 이를 이용한 입체영상 표시장치
KR101793283B1 (ko) 재깅 개선방법과 이를 이용한 입체영상 표시장치
KR101296902B1 (ko) 영상처리부와 이를 이용한 입체영상 표시장치, 및 영상처리방법
KR101840876B1 (ko) 입체영상 표시장치와 그 구동방법
KR101773616B1 (ko) 영상처리방법과 이를 이용한 입체영상 표시장치
US9420269B2 (en) Stereoscopic image display device and method for driving the same
KR102126532B1 (ko) 멀티뷰 영상 생성 방법과 이를 이용한 입체 영상 표시 장치
KR101279129B1 (ko) 입체영상 표시장치와 그 구동방법
KR101894090B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
US9137520B2 (en) Stereoscopic image display device and method of displaying stereoscopic image
KR101870233B1 (ko) 3d 화질개선방법과 이를 이용한 입체영상 표시장치
KR101843198B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101763941B1 (ko) 입체영상 표시장치
KR20130012672A (ko) 입체영상 표시장치와 그 구동방법
KR101782648B1 (ko) 액정표시장치
KR101873475B1 (ko) 입체영상 표시장치와 그 구동방법
KR20130061287A (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101868604B1 (ko) 표시장치와 그 구동방법
KR101681777B1 (ko) 스캐닝 백라이트 구동방법과 이를 이용한 입체영상 표시장치
KR101800886B1 (ko) 입체영상 표시장치와 그 구동방법
KR101882937B1 (ko) 입체영상 표시장치와 그 구동방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant