KR20160129983A - 터치 스크린 표시 장치 및 그의 구동 방법 - Google Patents

터치 스크린 표시 장치 및 그의 구동 방법 Download PDF

Info

Publication number
KR20160129983A
KR20160129983A KR1020150061490A KR20150061490A KR20160129983A KR 20160129983 A KR20160129983 A KR 20160129983A KR 1020150061490 A KR1020150061490 A KR 1020150061490A KR 20150061490 A KR20150061490 A KR 20150061490A KR 20160129983 A KR20160129983 A KR 20160129983A
Authority
KR
South Korea
Prior art keywords
pixel
axis
touch
image data
touch position
Prior art date
Application number
KR1020150061490A
Other languages
English (en)
Other versions
KR102355516B1 (ko
Inventor
전병기
이주형
장원우
Original Assignee
삼성디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성디스플레이 주식회사 filed Critical 삼성디스플레이 주식회사
Priority to KR1020150061490A priority Critical patent/KR102355516B1/ko
Priority to US15/141,683 priority patent/US10402011B2/en
Priority to TW105113266A priority patent/TWI725967B/zh
Priority to EP16167776.0A priority patent/EP3089005B1/en
Priority to JP2016092361A priority patent/JP6779655B2/ja
Priority to CN201610286774.4A priority patent/CN106095157B/zh
Publication of KR20160129983A publication Critical patent/KR20160129983A/ko
Application granted granted Critical
Publication of KR102355516B1 publication Critical patent/KR102355516B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/007Use of pixel shift techniques, e.g. by mechanical shift of the physical pixels or by optical shift of the perceived pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0257Reduction of after-image effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0285Improving the quality of display appearance using tables for spatial correction of display data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명의 실시 예에 따른 터치 스크린 표시 장치는, 제1 화소에서 표시되는 제1 영상 데이터를 제2 화소에서 표시되는 제2 영상 데이터로 변환하고, 변환 결과에 따라 룩 업 테이블(LookUp table)을 생성하는 영상 보정부와, 상기 영상 보정부로부터 수신된 상기 룩 업 테이블을 이용하여, 상기 제2 영상 데이터의 터치 위치를 상기 제1 화소 상의 제1 터치 위치에서 상기 제2 화소 상의 제2 터치 위치로 보정하는 프로세서를 포함한다.

Description

터치 스크린 표시 장치 및 그의 구동 방법{TOUCH SCREEN DISPLAY DEVICE AND DRIVING METHOD THEREOF}
본 발명의 개념에 따른 실시 예는 터치 스크린 표시 장치 및 그의 구동방법에 관한 것이다.
최근에 유기전계발광 표시 장치(Organic Light Emitting Display Device), 액정 표시 장치(Liquid Crystal Display Device), 플라즈마 표시 장치(Plasma Display Device) 등 다양한 종류의 표시 장치들이 널리 사용된다.
이러한 표시 장치들은 구동 시간이 오래됨에 따라 특정 화소(Pixel)이 열화되어 성능저하를 발생시킬 수 있다.
예컨대, 공공 장소 등에서 정보 전달을 위하여 사용되는 디지털 정보 표시 장치(Digital Information Display Device)는 특정 영상 또는 글자를 오랜 시간 동안 지속적으로 출력하므로, 특정 화소의 열화가 가속되어 잔상이 발생할 수 있다.
이러한 문제점을 해결하기 위하여, 표시 패널 상에 일정 주기로 영상을 이동시켜 표시하는 화소 시프트(pixel shift) 기술이 사용되고 있다. 표시 패널 상에 일정 주기로 영상을 이동시켜 표시하면, 특정 화소에 동일한 데이터가 오랜 시간 출력되는 것을 방지하여 특정 화소이 열화되는 것을 개선할 수 있다.
한편, 사용자와의 원활한 상호 작용을 위하여, 상술한 표시 장치에 터치 스크린 기능을 부가하고 있다. 표시 장치는 터치 위치를 검출하기 위한 터치 센서를 구비하는데, 예컨대 정전용량 방식의 터치 센서(capacitive touch sensor), 저항막 방식의 터치 센서(resistive touch sensor), 광감지 방식의 터치 센서(optical touch sensor) 등이 사용될 수 있다.
터치 센서를 구비한 터치 스크린 표시 장치가 화소 시프트 기술을 사용하는 경우, 사용자는 일정 방향으로 이동된 영상을 보고 터치 동작을 수행하게 된다. 하지만, 종래에는 영상이 이동된 것을 고려하지 않은 상태로 터치 위치를 인식하였으므로, 실제 사용자가 의도한 터치 위치와 다르게 인식하는 오류가 있었다. 또한, 인식된 터치 위치를 사용자가 의도한 터치 위치로 보정하는 과정은 지연 시간을 발생시키는 문제가 있었다.
본 발명이 이루고자 하는 기술적인 과제는 사용자가 의도한 터치 동작에 따른 터치 위치 인식의 정확도를 높이고, 정확한 터치 위치를 인식하는데 소요되는 지연 시간을 감소시키기 위한 터치 스크린 표시 장치 및 그의 구동 방법을 제공하기 위한 것이다.
본 발명의 실시 예에 따른 터치 스크린 표시 장치는 제1 화소에서 표시되는 제1 영상 데이터를 제2 화소에서 표시되는 제2 영상 데이터로 변환하고, 변환 결과를 이용하여 룩 업 테이블(LookUp table)을 생성하는 영상 보정부와, 상기 영상 보정부로부터 수신된 상기 룩 업 테이블에 포함된 터치 위치 정보에 따라 상기 제1 화소 상의 제1 터치 위치에서 상기 제2 화소 상의 제2 터치 위치로 보정하는 프로세서를 포함한다.
실시 예에 따라, 상기 영상 보정부는, 상기 프로세서로부터 수신된 제어신호를 이용하여 상기 제1 영상 데이터를 상기 제2 영상 데이터로 변환하고, 상기 제1 화소로부터 상기 제2 화소가 떨어진 거리를 계산하여 화소 이동량 정보를 생성하는 영상 변환부와, 상기 화소 이동량 정보를 이용하여 표시 패널 상에서 상기 제1 터치 위치와 상기 제2 터치 위치를 정의하고, 정의된 위치 관계에 따라 룩 업 테이블을 생성하는 룩 업 테이블 생성부를 포함할 수 있다.
실시 예에 따라, 상기 영상 변환부는, 상기 제1 영상 데이터에 대한 X축 좌표와 Y축 좌표를 생성하고, 상기 제어신호에 따라 상기 X축 좌표와 상기 Y축 좌표를 보정하여 상기 제2 영상 데이터의 보정된 X축 좌표와 보정된 Y축 좌표를 생성하고, 상기 X축 좌표와 상기 보정된 X축 좌표 사이에서 X축 이동량을 계산하고, 상기 Y축 좌표와 상기 보정된 Y축 좌표 사이에서 Y축 이동량을 계산할 수 있다.
실시 예에 따라, 상기 화소 이동량 정보는 상기 X축 이동량과 상기 Y축 이동량을 포함할 수 있다.
실시 예에 따라, 상기 룩 업 테이블 생성부는, 순차적으로 배치된 복수의 화소들을 일정한 개수에 따라 화소 그룹들로 분류하고, 상기 화소 그룹들 각각은 적어도 하나의 화소를 포함할 수 있다.
실시 예에 따라, 상기 룩 업 테이블 생성부는, 적어도 하나의 화소를 포함하는 수직 라인의 X축 화소 그룹과 수평 라인의 Y축 화소 그룹을 생성하고, 상기 X축 화소 그룹과 상기 Y축 화소 그룹 각각에 해당되는 X축 터치 좌표와 Y축 터치 좌표를 생성하고, 상기 제1 터치 위치와 상기 제2 터치 위치는 상기 X축 터치 좌표와 상기 Y축 터치 좌표로 구성될 수 있다.
실시 예에 따라, 상기 룩 업 테이블 생성부는, 상기 제1 화소를 포함하는 제1 화소 그룹과 상기 제2 화소를 포함하는 제2 화소 그룹을 생성하고, 상기 제1 화소 그룹에 포함된 모든 화소 상의 터치 위치를 상기 제1 터치 위치로 설정하고, 상기 제 2 화소 그룹에 포함된 모든 화소 상의 터치 위치를 상기 제2 터치 위치로 설정할 수 있다.
실시 예에 따라, 상기 룩 업 테이블은 상기 제1 화소 그룹의 위치 정보, 상기 제2 화소 그룹의 위치 정보, 상기 제1 터치 위치, 및 상기 제2 터치 위치를 포함할 수 있다.
실시 예에 따라, 상기 룩 업 테이블은 상기 영상 보정부에서 상기 제1 영상 데이터가 상기 제2 영상 데이터로 변환될 때마다 생성될 수 있다.
실시 예에 따라, 상기 룩 업 테이블은 기 설정된 주기마다 생성될 수 있다.
실시 예에 따라, 상기 룩 업 테이블 생성부는, 제1 방향을 따라 순차적으로 배치된 상기 복수의 화소들을 포함하는 상기 화소 그룹들로 분류하고, 분류된 순서에 따라 상기 화소 그룹들의 위치 관계를 정의할 수 있다.
실시 예에 따라, 제1 방향은 표시 패널 상에서 시계 방향 및 반시계 방향 중에서 어느 하나일 수 있다.
본 발명의 다른 실시 예에 따른 터치 스크린 표시 장치의 구동 방법은 터치 센서에 의해 감지된 터치 신호에 따라 동작을 수행하는 터치 스크린 표시 장치의 구동 방법에 있어서, 제1 화소에서 표시되는 제1 영상 데이터를 제2 화소에서 표시되는 제2 영상 데이터로 변환하는 단계와, 변환 결과에 따라 룩 업 테이블을 생성하는 단계와, 상기 룩 업 테이블을 이용하여 상기 제2 영상 데이터의 터치 위치를 상기 제1 화소 상의 제1 터치 위치에서 상기 제2 화소 상의 제2 터치 위치로 보정하는 단계를 포함할 수 있다.
실시 예에 따라, 상기 변환하는 단계는, 상기 제1 영상 데이터에 대한 X축 좌표와 Y축 좌표를 생성하는 단계와, 제어 신호에 따라 상기 X축 좌표와 상기 Y축 좌표를 보정하여, 보정된 X축 좌표와 보정된 Y축 좌표를 생성하는 단계와, 상기 보정된 X축 좌표와 상기 보정된 Y축 좌표로 구성되는 보정 좌표에 상기 제1 영상 데이터를 맵핑하여 상기 제2 영상 데이터를 생성하는 단계를 포함할 수 있다.
실시 예에 따라, 상기 제2 영상 데이터를 생성하는 단계는, 순차적으로 배치된 복수의 화소들을 일정한 개수에 따라 화소 그룹들로 분류하는 단계와, 분류된 화소 그룹들 각각의 터치 위치를 설정하는 단계와, 상기 화소 그룹들 각각에 설정된 터치 위치 정보를 포함하는 룩 업 테이블을 생성하는 단계를 포함할 수 있다.
실시 예에 따라, 상기 분류하는 단계는, 표시 패널 상에서 각각이 적어도 하나의 화소를 포함하는 수직 라인의 X축 화소 그룹과 수평 라인의 Y축 화소 그룹을 생성하고, 상기 X축 화소 그룹과 상기 Y축 화소 그룹에 공통적으로 포함되는 화소 그룹들을 분류할 수 있다.
실시 예에 따라, 상기 분류하는 단계는, 표시 패널 상에서 시계 방향 및 반시계 방향 중에서 어느 하나의 방향을 따라 배치된 화소들을 상기 일정한 개수에 따라 상기 화소 그룹들로 분류할 수 있다.
실시 예에 따라, 상기 설정하는 단계는, 상기 X축 화소 그룹과 상기 Y축 화소 그룹 각각에 해당되는 X축 터치 좌표와 Y축 터치 좌표를 생성하고, 상기 화소 그룹들의 터치 위치를 상기 X축 터치 좌표와 상기 Y축 터치 좌표를 이용하여 설정할 수 있다.
실시 예에 따라, 상기 룩 업 테이블을 생성하는 단계는, 상기 제1 화소를 포함하는 제1 화소 그룹과 상기 제2 화소를 포함하는 제2 화소 그룹을 생성하고, 상기 제1 화소 그룹에 포함된 모든 화소 상의 터치 위치를 상기 제1 터치 위치로 설정하고, 상기 제 2 화소 그룹에 포함된 모든 화소 상의 터치 위치를 상기 제2 터치 위치로 설정하여 룩 업 테이블을 생성할 수 있다.
본 발명의 실시 예에 의한 터치 스크린 표시 장치 및 그의 구동 방법에 의하면, 룩 업 테이블을 이용하여 화소 이동량을 반영한 제2 터치 위치 좌표로 실제 인식되는 터치 위치를 보정할 수 있고, 이로써 사용자가 의도한 터치 동작에 따른 정확한 터치 위치가 인식될 수 있다.
또한, 본 발명의 실시 예에 의한 터치 스크린 표시 장치 및 그의 구동 방법에 의하면, 프로세서가 룩 업 테이블에 포함된 터치 위치 좌표에 따라 터치 위치를 변경함으로써 종래에 발생되었던 지연 시간 문제를 해결할 수 있다.
도 1은 본 발명의 실시 예에 따른 터치 스크린 표시 장치의 블록도이다.
도 2는 본 발명의 실시 예에 따른 프로세서, 표시 구동부, 및 표시 패널을 도시한 블록도이다.
도 3은 도 2에 도시된 프로세서와 영상 보정부 사이의 데이터 흐름을 설명하기 위한 블록도이다.
도 4는 본 발명의 실시 예에 따른 영상 변환부의 픽셀 시프트(pixel shift) 동작을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 복수의 화소들을 화소 그룹으로 분류하는 방법을 설명하기 위한 개념도이다.
도 6은 도 5에 도시된 화소 그룹에 따라 터치 위치를 변경하는 방법을 설명하기 위한 개념도이다.
도 7은 도 5에 도시된 화소 그룹에 따라 룩 업 테이블을 생성하는 방법을 설명하기 위한 개념도이다.
도 8은 도 7에 도시된 룩 업 테이블을 나타낸 개념도이다.
도 9는 본 발명의 다른 실시 예에 따른 복수의 화소들을 화소 그룹으로 분류하는 방법을 설명하기 위한 개념도이다.
도 10은 도 9에 도시된 화소 그룹에 따라 터치 위치를 변경하는 방법을 설명하기 위한 개념도이다.
도 11은 도 9에 도시된 화소 그룹에 따라 룩 업 테이블을 생성하는 방법을 설명하기 위한 개념도이다.
도 12는 11에 도시된 룩 업 테이블을 나타낸 개념도이다.
도 13은 본 발명의 실시 예에 따른 룩 업 테이블을 이용하여 터치 위치를 보정하는 터치 스크린 표시 장치의 구동 방법을 설명하기 위한 흐름도이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 벗어나지 않은 채, 제1구성 요소는 제2구성 요소로 명명될 수 있고 유사하게 제2구성 요소는 제1구성 요소로도 명명될 수 있다.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 명세서에 첨부된 도면들을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 본 발명의 실시 예에 따른 터치 스크린 표시 장치의 블록도이다.
도 1을 참조하면, 터치 스크린 표시 장치(100)는 표시 패널(160) 상에서 감지된 터치 동작에 따라 태스크(task)를 수행하는 장치이다.
본 발명의 실시 예에 따른 터치 스크린 표시 장치(100)는 프로세서(110), 터치 센서(130), 터치 제어부(120), 입출력 인터페이스(140), 표시 구동부(150), 표시 패널(160), 메모리 제어부(170), 메모리(180), 및 버스(190)를 포함할 수 있다.
예컨대, 터치 스크린 표시 장치(100)는 이동 전화기, 스마트 폰(smart phone), PDA (personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP (portable multimedia player), PND(personal navigation device 또는 portable navigation device), 모바일 인터넷 장치(mobile internet device(MID)), 웨어러블 컴퓨터, 유기전계발광 표시 장치(Organic Light Emitting Display Device), 액정 표시 장치(Liquid Crystal Display Device), 플라즈마 표시 장치(Plasma Display Device), 및 양자점 표시 장치(quantum dot display device 등으로 구현될 수 있다.
프로세서(110)는 특정한 계산들 또는 태스크들을 수행할 수 있다. 예컨대, 프로세서(110)는 집적 회로(integrated circuit(IC)), 애플리케이션 프로세서(application processor(AP)), 모바일(mobile) AP, 또는 표시 구동부(150)의 동작을 제어할 수 있는 프로세서로 구현될 수 있다.
터치 센서(130)는 사용자의 움직임을 인식하여 전기적 신호로 변환할 수 있다.
터치 센서(130)는 사용자에 의한 터치를 검출하도록 구성되고, 터치 신호를 생성하여 터치 제어부(120)로 공급할 수 있다. 이때, 터치 센서(130)는 사용자의 신체 일부 및 스타일러스(Stylus) 등에 의한 터치를 인식할 수 있다.
또한, 사용자에 의한 터치는 터치 스크린 표시 장치(100)에 손가락 등을 직접적으로 접촉하는 동작에 의해서 이루어질 수 있고, 또한 터치 스크린 표시 장치(100)에 손가락 등을 근접시키는 동작에 의해서도 이루어질 수 있다.
예컨대, 터치 센서(130)는 정전용량 방식의 터치 센서(capacitive type touch sensor), 저항막 방식의 터치 센서(resistive type touch sensor), 광 터치 센서(optical touch sensor), 표면 탄성파 터치 센서(surface acoustic wave touch sensor), 압력 터치 센서(pressure touch sensor) 및 하이브리드 방식의 터치 센서(hybrid touch sensor) 중 어느 하나로 구현될 수 있으나, 이에 한정되는 것은 아니다.
터치 제어부(120)는 터치 센서(130)로부터 공급된 터치 신호를 이용하여, 발생된 터치의 위치를 검출할 수 있다. 또한, 터치 제어부(120)는 검출된 터치 위치를 프로세서(110)로 전송할 수 있다.
실시 예에 따라, 터치 센서(130)는 표시 패널(160)과 별개로 분리되어 위치할 수 있다.
다른 실시 예에 따라, 터치 센서(130)는 표시 패널(160)에 통합되어 위치할 수 있다.
입출력 인터페이스(140)는 터치 스크린 표시 장치(100)에 접속된 입력 장치(미 도시)를 통해 입력을 프로세서(110)로 입력할 수 있다. 예컨대, 상기 입력 장치는 키보드, 마우스, 마이크로폰, 및 터치 패드 등으로 구현될 수 있다.
표시 패널(160)은 다수의 화소들을 포함하고, 프로세서(110)로부터 입력된 영상 데이터를 이용하여 영상을 표시할 수 있다. 예컨대, 표시 패널(160)은 유기전계발광 표시 패널(Organic Light Emitting Display Panel), 액정 표시 패널(Liquid Crystal Display Panel), 플라즈마 표시 패널(Plasma Display Panel) 등으로 구현될 수 있다.
표시 구동부(150)는 구동신호를 표시 패널(160)로 공급하여 표시 패널(160)의 영상 표시 동작을 제어할 수 있다.
메모리(180)는 프로세서(110)로부터 공급되는 영상 데이터를 저장할 수 있다. 예컨대, 메모리(180)는 EEPROM(electrically erasable programmable read-only memory), 플래시(flash) 메모리, MRAM(magnetic RAM), 스핀전달토크 MRAM (spin-transfer torque MRAM), FeRAM(ferroelectric RAM), PRAM(phase change RAM), RRAM(resistive RAM) 등과 같은 비휘발성 메모리 또는 RAM(random access memory), SRAM(static RAM), DRAM(dynamic RAM), SDRAM(synchronous DRAM), T-RAM(thyristor RAM), Z-RAM(zero capacitor RAM), TTRAM(Twin Transistor RAM) 등과 같은 휘발성 메모리로 구현될 수 있다.
메모리 제어부(170)는 프로세서(110)로부터 출력된 라이트 요청(write request)에 응답하여 영상 데이터를 메모리(180)에 라이트하거나, 리드 요청(read request)에 응답하여 메모리(180)로부터 영상 데이터를 리드할 수 있다.
프로세서(110), 터치 제어부(120), 입출력 인터페이스(140), 표시 구동부(150), 및 메모리 제어부(170)는 버스(190)를 통해 서로 통신할 수 있다.
예컨대, 버스(190)는 PCI 버스(Peripheral Component Interconnect Bus), PCI 익스프레스(PCI Express) 버스, AMBA(Advanced High Performance Bus), AHB(Advanced High Performance Bus), APB(Advanced Peripheral Bus), 또는 AXI 버스, 또는 이들의 결합으로 구현될 수 있다.
도 2는 본 발명의 실시 예에 따른 프로세서, 표시 구동부, 및 표시 패널을 도시한 블록도이다.
도 2를 참조하면, 프로세서(110)는 표시 구동부(150)로 제1 영상 데이터(DI1)와 제어신호(CS)를 공급하고, 표시 구동부(150)로부터 수신된 룩 업 테이블(lookup table; LUT)을 이용하여 터치 위치를 제어할 수 있다.
표시 구동부(150)는 영상 보정부(152), 타이밍 제어부(154), 주사 구동부(158), 및 데이터 구동부(156) 를 포함할 수 있다.
영상 보정부(152)는 프로세서(110)로부터 공급되는 제1 영상 데이터(DI1)와 제어신호(CS)를 이용하여 제2 영상 데이터(DI2)를 생성할 수 있다. 또한, 영상 보정부(152)는 제1 영상 데이터(DI1), 제2 영상 데이터(DI2), 및 제어신호(CS)를 타이밍 제어부(154)로 전송할 수 있다.
다른 실시 예에 따라, 영상 보정부(152)는 타이밍 제어부(154)를 통하지 않고 직접 제1 영상 데이터(DI1), 제2 영상 데이터(DI2), 및 제어신호(CS)를 데이터 구동부(156)로 공급할 수 있다.
영상 보정부(152)는 제2 영상 데이터(DI2)와 상응하는 터치 위치를 포함하는 룩 업 테이블(LUT)을 생성할 수 있다. 영상 보정부(152)는 생성된 룩 업 테이블(LUT)을 프로세서(110)로 전송할 수 있다.
실시 예에 따라, 영상 보정부(152)는 표시 구동부(150)와 별개로 분리되어 위치할 수 있다.
다른 실시 예에 따라, 영상 보정부(152)는 타이밍 제어부(154)에 통합될 수 있고, 타이밍 제어부(154)는 제1 영상 데이터(DI1)를 제2 영상 데이터(DI2)로 변환할 수 있다.
타이밍 제어부(154)는 영상 보정부(152)로부터 제1 영상 데이터(DI1), 제2 영상 데이터(DI2), 및 제어신호(CS)를 수신받을 수 있다.
타이밍 제어부(154)는 제어신호(CS)에 기초하여 주사 구동부(158)와 데이터 구동부(156)를 제어하기 위한 타이밍 제어신호를 생성할 수 있다.
예컨대, 타이밍 제어신호는 주사 구동부(158)를 제어하기 위한 주사 타이밍 제어신호(SCS)와, 데이터 구동부(156)를 제어하기 위한 데이터 타이밍 제어신호(DCS)를 포함할 수 있다. 타이밍 제어부(154)는 주사 타이밍 제어신호(SCS)를 주사 구동부(158)로 공급하고, 데이터 타이밍 제어신호(DCS)를 데이터 구동부(156)로 공급할 수 있다.
타이밍 제어부(154)는 제1 기간 동안에 제1 영상 데이터(DI1)를 데이터 구동부(156)에 공급하여 제1 영상을 표시할 수 있고, 제2 기간 동안에 제2 영상 데이터(DI2)를 데이터 구동부(156)로 공급하여 제2 영상을 표시할 수 있다.
데이터 구동부(156)는 타이밍 제어부(154)로부터 데이터 타이밍 제어신호(DCS), 제1 및 제2 영상 데이터(DI1 및 DI2)를 입력받아, 데이터 신호(DS)를 생성할 수 있다.
또한, 데이터 구동부(156)는 생성된 데이터 신호(DS)를 데이터 라인들에 공급할 수 있다.
데이터 구동부(156)는 별도의 구성 요소를 통해 표시 패널(160)에 위치한 데이터 라인들과 전기적으로 접속될 수 있다.
다른 실시 예에 따라, 데이터 구동부(156)는 표시 패널(160)에 직접 실장될 수 있다.
주사 구동부(158)는 주사 타이밍 제어신호(SCS)에 응답하여 주사 라인들에 주사신호들(SS)을 공급한다. 주사 구동부(158)는 표시 패널(160)에 위치한 주사 라인들(SS)과 전기적으로 접속될 수 있다.
다른 실시 예에 따라, 주사 구동부(158)는 표시 패널(160)에 직접 실장될 수 있다.
데이터 라인들을 통해 데이터 신호(DS)를 공급받은 표시 패널(160)의 화소들은 주사신호(SS)가 공급될 때, 데이터 신호(DS)에 대응되는 휘도로 발광할 수 있다.
예컨대, 타이밍 제어부(154) 또는 영상 보정부(152)가 제1 영상 데이터(DI1)를 공급하는 경우, 데이터 구동부(156)는 제1 영상 데이터(DI1)에 대응되는 데이터 신호(DS)를 화소들로 공급함으로써 제1 영상을 표시할 수 있다.
또한, 타이밍 제어부(154) 또는 영상 보정부(152)가 제2 영상 데이터(DI2)를 공급하는 경우, 데이터 구동부(156)는 제2 영상 데이터(DI2)에 대응되는 데이터 신호(DS)를 화소들로 공급함으로써 제2 영상을 표시할 수 있다.
데이터 구동부(156)는 주사 구동부(158)와 별개로 분리되어 위치할 수 있다.
다른 실시 예에 따라, 데이터 구동부(156)가 주사 구동부(158)에 통합될 수 있다.
도 3은 도 2에 도시된 프로세서와 영상 보정부 사이의 데이터 흐름을 설명하기 위한 블록도이다.
도 3을 참조하면, 영상 보정부(152)는 영상 변환부(152-1) 및 룩 업 테이블 생성부(152-2)를 포함할 수 있다.
영상 변환부(152-1)는 영상을 이동시켜 표시하는 픽셀 시프트(pixel shift) 동작을 이용하여 제1 영상 데이터(DI1)를 제2 영상 데이터(DI2)로 변환할 수 있다.
영상 변환부(152-1)는 제1 영상 데이터(DI1)를 표시 패널(160) 상에서 일정 주기 또는 불규칙 주기로 이동시켜서 잔상 발생을 방지할 수 있다.
또한, 영상 변환부(152-1)는 제1 영상 데이터(DI1)를 일정한 방향성을 가지고 이동시키거나 일정한 방향성을 가지지 않고 이동시켜서 잔상 발생을 방지할 수 있다. 영상 변환부(152-1)가 제1 영상 데이터(DI1)를 제2 영상 데이터(DI2)로 변환하는 방법은 도 4를 참조하여 상세히 설명될 것이다.
영상 변환부(152-1)는 제2 영상 데이터(DI2)를 타이밍 제어부(154)로 전송할 수 있다.
또한, 영상 변환부(152-1)는 영상이 이동된 거리(예컨대, 제1 영상 데이터(DI1)를 표시하는 제1 화소로부터 제2 영상 데이터(DI2)를 표시하는 제2 화소까지)를 포함하는 화소 이동량 정보(PSI)를 생성할 수 있다.
도 2를 참조하면, X축은 표시 패널(160)의 가로축을 나타내고, Y축은 표시 패널(160)의 세로축을 나타내고, X축은 Y축과 수직 방향에 위치한다고 가정한다. 영상 변환부(152-1)는 제1 화소와 제2 화소를 X 좌표와 Y 좌표로 나타낼 수 있다.
화소 이동량 정보(PSI)는 X축 이동량과 Y축 이동량을 포함할 수 있다. 여기서, X축 이동량은 제1 화소로부터 제2 화소가 X축 방향으로 떨어진 거리를 의미하고, Y축 이동량은 제1 화소로부터 제2 화소가 Y축 방향으로 떨어진 거리를 의미한다.
다시 도 3을 참조하면, 룩 업 테이블 생성부(152-2)는 영상 변환부(152-1)에서 생성된 화소 이동량 정보(PSI)를 이용하여 룩 업 테이블(LUT)을 생성할 수 있다.
영상 변환부(152-1)에서 제1 영상 데이터(DI1)가 제2 영상 데이터(DI2)로 변환되면, 사용자가 제2 터치 위치를 터치했을 때 변환 전 제1 터치 위치를 터치한 것과 같은 동작이 수행되어야 한다.
설명의 편의를 위해, 제1 영상 데이터(DI1)가 표시되는 제1 화소 상의 터치 위치를 제1 터치 위치라 하고, 제2 영상 데이터(DI2)가 표시되는 제2 화소 상의 터치 위치를 제2 터치 위치라 한다.
따라서, 룩 업 테이블 생성부(152-2)는 제1 터치 위치를 제2 터치 위치로 보정하기 위해 화소 이동량 정보(PSI)를 이용하여 룩 업 테이블(LUT)을 생성할 수 있다.
룩 업 테이블 생성부(152-2)는 제1 터치 위치와 제2 터치 위치를 포함하는 룩 업 테이블(LUT)을 생성할 수 있다.
실시 예에 따라, 룩 업 테이블 생성부(152-2)는 연산의 복잡성을 최소화하기 위해 복수의 화소를 포함하는 화소 그룹들을 생성하고, 각 화소 그룹에 포함된 화소의 터치 위치를 일괄적으로 보정하기 위한 룩 업 테이블(LUT)을 생성할 수 있다.
룩 업 테이블 생성부(152-2)는 제1 터치 위치를 제2 터치 위치로 보정하기 위한 룩 업 테이블(LUT)을 생성할 수 있다.
룩 업 테이블 생성부(152-2)는 영상 변환기에서 제1 영상 데이터(DI1)를 제2 영상 데이터(DI2)로 변환할 때마다 화소 이동량 정보(PSI)를 이용하여 룩 업 테이블(LUT)을 생성할 수 있다.
다른 실시 예에 따라, 룩 업 테이블 생성부(152-2)는 기 설정된 주기마다 룩 업 테이블(LUT)을 생성할 수 있다.
영상 보정부(152)는 룩 업 테이블 생성부(152-2)에서 생성된 룩 업 테이블(LUT)을 프로세서(110)로 전송할 수 있다.
프로세서(110)는 픽셀 시프트 동작에 따라 터치 위치를 보정하는 터치 위치 보정부(110-1)를 포함할 수 있다.
터치 위치 보정부(110-1)는 영상 보정부(152)로부터 수신된 룩 업 테이블(LUT)을 이용하여 제1 터치 위치를 제2 터치 위치로 보정할 수 있다.
룩 업 테이블(LUT)은 화소 그룹들에 대한 정보와 각 화소 그룹의 터치 위치를 보정하기 위한 정보를 포함할 수 있다.
따라서, 터치 위치 보정부(110-1)는 제1 화소 그룹에 해당되는 터치 위치를 일괄적으로 제2 화소 그룹에 해당되는 터치 위치로 보정함으로써, 각 화소마다 보정된 터치 위치를 계산해야하는 번거로움을 줄일 수 있다.
도 4는 본 발명의 실시 예에 따른 영상 변환부의 픽셀 시프트(pixel shift) 동작을 설명하기 위한 흐름도이다.
영상 변환부(152-1)는 제1 영상 데이터(DI1)를 표시하는 제1 화소와 제2 영상 데이터(DI2)를 표시하는 제2 화소를 비교하여, X축 이동량 및 Y축 이동량을 결정할 수 있다(S100). 여기서, X축 이동량은 제1 화소로부터 제2 화소가 X축 방향으로 떨어진 거리를 의미하고, Y축 이동량은 제1 화소로부터 제2 화소가 Y축 방향으로 떨어진 거리를 의미한다. 이때, X축은 표시 패널(160)의 가로축을 나타내고, Y축은 X축과 수직 방향인 표시 패널(160)의 세로축을 나타낼 수 있다.
제1 영상 데이터(DI1)는 프레임(frame) 단위로 이동할 수 있으며, 영상 변환부(152-1)는 제1 영상 데이터(DI1)의 수직 동기 신호에 기초하여 X축 이동량 및 Y축 이동량을 결정할 수 있다.
또한, 영상 변환부(152-1)는 X축 스케일링 비(Scaling Ratio)와 Y축 스케일링 비를 결정할 수 있다. 예컨대, 영상 변환부(152-1)는 제1 영상 데이터(DI1)의 수직 동기 신호에 기초하여 X축 스케일링 비와 Y축 스케일링 비를 결정할 수 있다.
영상 변환부(152-1)는 X축 이동량 및 X축 스케일링 비에 기초하여, 제1 영상 데이터(DI1)의 X축을 X축 확장 영역과 X축 축소 영역으로 구분할 수 있다(S110).
실시 예에 따라, 영상 변환부(152-1)는 X축 확장 영역의 면적과 X축 확장 영역의 위치를 설정하여 Y축 확장 영역을 결정할 수 있다.
예컨대, X축 확장 영역은 X축 이동량 및 X축 스케일링 비의 곱에 의해 X축 확장 영역의 면적을 구하고, X축 이동 방향에 기초하여 X축 확장 영역의 위치가 결정될 수 있다.
이때, X축 축소 영역은 X축 확장 영역을 제외한 나머지 영역으로 결정될 수 있다.
영상 변환부(152-1)는 Y축 이동량 및 Y축 스케일링 비에 기초하여 제1 영상 데이터(DI1)의 Y축을 Y축 확장 영역과 Y축 축소 영역으로 구분할 수 있다(S120).
실시 예에 따라, 영상 변환부(152-1)는 Y축 확장 영역의 면적과 Y축 확장 영역의 위치를 설정하여 Y축 확장 영역을 결정할 수 있다.
예컨대, 영상 변환부(152-1)는 Y축 이동량 및 Y축 스케일링 비의 곱에 의해 Y축 확장 영역의 면적을 구하고, Y축 이동 방향에 기초하여 Y축 확장 영역의 위치를 설정할 수 있다.
이때, Y축 축소 영역은 Y축 확장 영역을 제외한 나머지 영역으로 결정될 수 있다.
영상 변환부(152-1)는 제1 영상 데이터(DI1)를 구현하기 위한 제1 영상 데이터(DI1)의 X 좌표 및 Y 좌표를 생성할 수 있다(S130).
예컨대, 영상 변환부(152-1)는 프로세서(110)로부터 수신된 제1 영상 데이터(DI1)와 제어신호(CS)(예컨대, 수직 동기 신호, 수평 동기 신호, 데이터 인에이블 신호, 클럭 신호 등)를 이용하여 제1 영상 데이터(DI1)의 X 좌표 및 Y 좌표를 생성할 수 있다.
영상 변환부(152-1)는 제1 영상 데이터(DI1)의 X 좌표가 X축 확장 영역과 X축 축소 영역 중 어디에 위치하는지에 따라 X 보정 좌표를 산출할 수 있다(S140).
또한, 영상 변환부(152-1)는 제1 영상 데이터(DI1)의 Y 좌표가 Y축 확장 영역과 Y축 축소 영역 중 어디에 위치하는지에 따라 Y 보정 좌표를 산출할 수 있다(S150).
영상 변환부(152-1)는 X 보정 좌표 및 Y 보정 좌표로 이루어지는 보정 좌표로 제1 영상 데이터(DI1)를 맵핑(mapping)하여 제2 영상 데이터(DI2)를 생성할 수 있다(S160).
도 5는 본 발명의 실시 예에 따른 복수의 화소들을 화소 그룹으로 분류하는 방법을 설명하기 위한 개념도이다.
설명의 편의를 위해, 도 5에서는 화소 그룹의 X축 터치 좌표(X1, X2,…, Xn)와 Y축 터치 좌표(Y1, Y2, …, Ym)에 대한 4개의 블록들(X1-1, X2-1, Y1-1, 및 Y2-1)을 도시한다.
여기서, 룩 업 테이블 생성부(152-2)는 표시 패널(160)에 포함된 복수의 화소들을 화소 그룹(PG)으로 분류할 수 있다.
각 화소 그룹(PG)은 적어도 하나의 화소를 포함할 수 있다. 예컨대, 하나의 화소 그룹(PG)이 가로 방향으로 P개의 화소와 세로 방향으로 Q개의 화소를 포함하는 경우, 화소 그룹들(PG) 각각은
Figure pat00001
개의 화소들을 포함한다.
룩 업 테이블 생성부(152-2)는 화소 그룹들(PG) 각각에 X축 터치 좌표와 Y축 터치 좌표를 부여하고, 상기 X축 터치 좌표 및 Y축 터치 좌표에 대한 정보를 포함하는 화소 그룹 테이블(PGT)을 생성할 수 있다. 화소 그룹 테이블(PGT)은 도 7을 참조하여 상세히 설명될 것이다.
룩 업 테이블 생성부(152-2)는 표시 패널(160)의 좌측에서 우측 방향으로 화소 그룹의 X축 터치 좌표(X1, X2, …, Xn)를 생성할 수 있고, 표시 패널(160)의 상단에서 하단 방향으로 화소 그룹의 Y축 터치 좌표(Y1, Y2, …, Ym)를 생성할 수 있다.
예컨대, 첫 번째 X축 블록(X1-1)에 해당되는 화소 그룹의 X축 터치 좌표는 좌표 X1이고, 두 번째 X축 블록(X2-1)에 해당되는 화소 그룹의 X축 터치 좌표는 좌표 X2일 수 있다.
또한, 첫 번째 Y축 블록(Y1-1)에 해당되는 화소 그룹의 Y 좌표는 좌표 Y1이고, 두 번째 Y축 블록(Y2-1)에 해당되는 화소 그룹의 Y 좌표는 좌표 Y2일 수 있다.
다만, 본 발명의 X 좌표와 Y 좌표를 설정하는 방법은 설명의 편의를 위한 것 일뿐, X 좌표와 Y 좌표를 설정하는 기준은 다양하게 변경되어 실시될 수 있다.
도 6은 도 5에 도시된 화소 그룹에 따라 터치 위치를 변경하는 방법을 설명하기 위한 개념도이다.
도 6을 참조하면, 제1 화소 그룹들(PG1, PG2, PG3, 및 PG4)에서 표시되는 알파벳 'A' 영상은 제1 영상 데이터(DI1)가 표시된 영상이고, 제2 화소 그룹들(SPG1, SPG2, SPG3, 및 SPG4)에서 표시되는 알파벳 'A' 영상은 제2 영상 데이터(DI2)가 표시된 영상이다.
제1 영상 데이터(DI1)가 표시되는 제1 화소 그룹들(PG1, PG2, PG3, 및 PG4) 상의 터치 위치를 제1 터치 위치라 하고, 제2 영상 데이터(DI2)가 표시되는 제2 화소 그룹들(SPG1, SPG2, SPG3, 및 SPG4) 상의 터치 위치를 제2 터치 위치라 한다.
예컨대, 제1 터치 위치는 터치 좌표 (X1, Y1), 터치 좌표 (X2, Y1), 터치 좌표 (X1, Y2), 및 터치 좌표 (X2, Y2)일 수 있다.
예컨대, 제2 터치 위치는 터치 좌표 (Xn-1, Ym-1), 터치 좌표 (Xn, Ym-1), 터치 좌표 (Xn-1, Ym), 및 터치 좌표 (Xn, Ym)일 수 있다.
영상 변환부(152-1)는 픽셀 시프트 동작에 의해 제1 영상 데이터(DI1)를 제2 영상 데이터(DI2)로 이동시킬 수 있다. 제1 영상 데이터(DI1)가 제2 영상 데이터(DI2)로 변경되면, 각 영상 데이터에 상응하는 터치 위치의 이동이 수반되어야 한다.
즉, 영상 변환부(152-1)에서 제1 영상 데이터(DI1)가 제2 영상 데이터(DI2)로 변환되면, 사용자가 제2 터치 위치를 터치했을 때 변환 전 제1 터치 위치를 터치한 것과 같은 동작이 수행되어야 한다.
따라서, 룩 업 테이블 생성부(152-2)는 제2 터치 위치에 해당되는 터치 좌표들을 포함하는 룩 업 테이블(LUT)을 생성할 수 있다. 제2 터치 위치에 해당되는 터치 좌표들을 포함하는 룩 업 테이블(LUT)은 도 8을 참조하여 상세히 설명될 것이다.
도 7은 도 5에 도시된 화소 그룹에 따라 룩 업 테이블을 생성하는 방법을 설명하기 위한 개념도이다.
도 7을 참조하면, 룩 업 테이블 생성부(152-2)는 화소 그룹 테이블(PGT)과 화소 이동량 정보(PSI)를 이용하여 룩 업 테이블(LUT)을 생성할 수 있다.
화소 그룹 테이블(PGT)은 제1 테이블과 제2 테이블을 포함할 수 있다. 예컨대, 제1 테이블은 X축 방향의 화소 개수(x-axis Pixels No.), X축 이동량(x-axis Shift), 및 화소 그룹의 X축 터치 좌표(PGx)를 포함할 수 있고, 제2 테이블은 Y축 방향의 화소 개수(y-axis Pixels No.), Y축 이동량(y-axis Shift), 및 화소 그룹의 Y축 터치 좌표(PGy)를 포함할 수 있다.
도 6를 참조하면, 룩 업 테이블 생성부(152-2)는 복수의 화소들을 화소 그룹들로 분류할 수 있다. 각 화소 그룹은 X축 터치 좌표와 Y축 터치 좌표로 표시될 수 있다.
룩 업 테이블 생성부(152-2)는 X축 방향(예컨대, 표시 패널(160)의 가로축 방향)을 따라 배치된 일정한 개수의 화소들을 X축 화소 그룹으로 분류하고, 분류된 화소 그룹에 X축 터치 좌표를 설정할 수 있다.
예컨대, 룩 업 테이블 생성부(152-2)는 표시 패널(160)의 좌측에서 첫 번째 화소부터 우측 방향으로 오십 번째 화소까지를 하나의 X축 화소 그룹으로 분류하고, 분류된 화소 그룹에 첫 번째 X축 터치 좌표(X1)를 설정할 수 있다.
또한, 룩 업 테이블 생성부(152-2)는 그 다음 X축 방향으로 순차적으로 배치된 오십 개의 화소들을 다른 하나의 X축 화소 그룹으로 분류하고, 상기 다른 하나의 X축 화소 그룹에 두 번째 X축 터치 좌표(X2)를 설정할 수 있다.
룩 업 테이블 생성부(152-2)는 Y축 방향(예컨대, 표시 패널(160)의 세로축 방향)을 따라 배치된 일정한 개수의 화소들을 Y축 화소 그룹으로 분류하고, 분류된 Y축 화소 그룹에 Y축 터치 좌표를 설정할 수 있다.
예컨대, 룩 업 테이블 생성부(152-2)는 표시 패널(160)의 상단에서 첫 번째 화소부터 하단 방향으로 오십 번째 화소까지 하나의 Y축 화소 그룹으로 분류하고, 분류된 Y축 화소 그룹에 첫 번째 Y축 터치 좌표(Y1)를 설정할 수 있다.
또한, 룩 업 테이블 생성부(152-2)는 그 다음 Y축 방향으로 순차적으로 배치된 오십 개의 화소들을 다른 하나의 Y축 화소 그룹으로 분류하고, 상기 다른 하나의 Y축 화소 그룹에 두 번째 Y축 터치 좌표(Y2)를 설정할 수 있다.
이로써, 룩 업 테이블 생성부(152-2)는 모든 화소 그룹들에 대한 X축 터치 좌표와 Y축 터치 좌표를 생성할 수 있다.
다시 도 7을 참조하면, 룩 업 테이블 생성부(152-2)는 화소 그룹 테이블(PGT)을 이용하여 화소 그룹의 X축 터치 좌표와 Y축 터치 좌표를 확인할 수 있다.
룩 업 테이블 생성부(152-2)는 화소 그룹 테이블(PGT)과 화소 이동량 정보(PSI)를 이용하여 룩 업 테이블(LUT)을 생성할 수 있다.
예컨대, 룩 업 테이블 생성부(152-2)는 제1 화소가 포함된 화소 그룹으로부터 제2 화소가 포함된 화소 그룹의 X축 이동량(x-axis Shift) 및 Y축 이동량(y-axis Shift)을 계산하여 룩 업 테이블(LUT)을 생성할 수 있다.
도 8은 도 7에 도시된 룩 업 테이블을 나타낸 개념도이다.
도 8을 참조하면, 룩 업 테이블 생성기(152-2)는 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(PG1, PG2, PG3, PG4,…), 제1 터치 위치((X1, Y1), (X2, Y1), (X1, Y2), (X2, Y2), …), 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(SPG1, SPG2, SPG3, SPG4,…), 및 제2 터치 위치((Xn-1, Ym-1), (Xn, Ym-1), (Xn-1, Ym), (Xn, Ym), …)를 포함하는 룩 업 테이블(LUT)을 생성할 수 있다.
예컨대, 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(PG1)은 터치 좌표 (X1, Y1)로 설정될 수 있고, 제1 화소 그룹(PG1)로부터 이동되어 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(SPG1)은 터치 좌표 (Xn-1, Ym-1)로 설정될 수 있다.
예컨대, 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(PG2)은 터치 좌표 (X2, Y1)로 설정될 수 있고, 제1 화소 그룹(PG2)로부터 이동되어 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(SPG2)은 터치 좌표 (Xn, Ym-1)로 설정될 수 있다.
예컨대, 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(PG3)은 터치 좌표 (X1, Y2)로 설정될 수 있고, 제1 화소 그룹(PG3)로부터 이동되어 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(SPG3)은 터치 좌표 (Xn-1, Ym)로 설정될 수 있다.
예컨대, 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(PG4)은 터치 좌표 (X2, Y2)로 설정될 수 있고, 제1 화소 그룹(PG4)로부터 이동되어 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(SPG4)은 터치 좌표 (Xn, Ym)로 설정될 수 있다.
도 3에서 설명한 바와 같이, 프로세서(110)의 터치 위치 보정부(110-1)는 룩 업 테이블(LUT)을 이용하여 제2 영상 데이터(DI2)의 터치 좌표를 룩 업 테이블(LUT)에 포함된 제2 터치 위치로 보정할 수 있다.
예컨대, 프로세서(110)는 룩 업 테이블을 이용하여, 제2 화소 그룹(SPG1) 상에서 표시되는 제2 영상 데이터의 터치 좌표를 터치 좌표 (Xn-1, Ym-1)로 보정하고, 제2 화소 그룹(SPG2) 상에서 표시되는 제2 영상 데이터의 터치 좌표를 터치 좌표 (Xn, Ym-1)로 보정하고, 제2 화소 그룹(SPG3) 상에서 표시되는 제2 영상 데이터의 터치 좌표를 터치 좌표 (Xn-1, Ym)로 보정하고, 제2 화소 그룹(SPG4) 상에서 표시되는 제2 영상 데이터의 터치 좌표를 터치 좌표 (Xn, Ym)로 보정할 수 있다.
이로써, 프로세서(110)는 픽셀 시프트 동작에 의해 영상이 이동되더라도, 영상이 표시되는 실제 위치로 터치 위치를 보정할 수 있다. 또한, 프로세서(110)는 룩 업 테이블(LUT)을 이용하여 제2 영상 데이터(DI2)의 터치 좌표만을 보정하면 되기 때문에, 별도의 복잡한 연산 없이도 정확하게 터치 위치를 보정할 수 있다.
도 9는 본 발명의 다른 실시 예에 따른 복수의 화소들을 화소 그룹으로 분류하는 방법을 설명하기 위한 개념도이다.
도 9를 참조하면, 룩 업 테이블 생성부(152-2)는 표시 패널(160)에 포함된 복수의 화소들을 화소 그룹(PG')으로 분류할 수 있다. 즉, 룩 업 테이블 생성부(152-2)는 순차적으로 배열된 복수의 화소들을 포함하는 화소 그룹(PG')을 생성할 수 있다.
각 화소 그룹(PG')은 적어도 하나의 화소를 포함할 수 있다. 예컨대, 하나의 화소 그룹(PG')에 가로 방향으로 P개의 화소가 배치된 경우, 화소 그룹들(PG') 각각은 P개의 화소를 포함한다.
실시 예에 따라, 룩 업 테이블 생성부(152-2)는 좌측 상단부터 화살표 방향으로 순차적으로 배열된 복수의 화소들을 일정한 개수로 나누고, 일정한 개수로 나누어진 화소들을 포함하는 화소 그룹들(PG')을 생성할 수 있다.
도 9에서는 설명의 편의를 위해 화소 그룹(PG')이 화살표 방향을 따라 순차적으로 생성되는 방법을 도시하였지만, 화소 그룹(PG')이 생성되는 방향은 다양한 방법, 예컨대 시계 방향, 반시계 방향 등과 같이 다양하게 변형될 수 있다.
또한, 룩 업 테이블 생성부(152-2)는 화소 그룹(PG')에 대한 정보를 포함하는 화소 그룹 테이블(PGT')를 생성할 수 있다. 화소 그룹 테이블(PGT')은 도 11을 참조하여 상세히 설명될 것이다.
도 10은 도 9에 도시된 화소 그룹에 따라 터치 위치를 변경하는 방법을 설명하기 위한 개념도이다.
도 10을 참조하면, 제1 화소 그룹들(Z1, Z2, Zk, 및 Zk+1)에서 표시되는 알파벳 'A' 영상은 제1 영상 데이터(DI1)가 표시된 영상이고, 제2 화소 그룹들(Zm, Zm+1, Zn-1, 및 Zn)에서 표시되는 알파벳 'A' 영상은 제2 영상데이터(DI2)에 의해 표시된 영상이다.
제1 영상 데이터(DI1)가 표시되는 제1 화소 그룹들(Z1, Z2, Zk, 및 Zk+1) 상의 터치 위치를 제1 터치 위치라 하고, 제2 영상 데이터(DI2)가 표시되는 제2 화소 그룹들(Zm, Zm+1, Zn-1, 및 Zn) 상의 터치 위치를 제2 터치 위치라 한다.
영상 변환부(152-1)는 픽셀 시프트 동작에 의해 제1 영상 데이터(DI1)를 제2 영상 데이터(DI2)로 변경시킬 수 있다. 제1 영상 데이터(DI1)가 제2 영상 데이터(DI2)로 변경되면, 각 영상 데이터에 상응하는 터치 위치의 이동이 수반되어야 한다.
즉, 영상 변환부(152-1)에서 제1 영상 데이터(DI1)가 제2 영상 데이터(DI2)로 변환되면, 사용자가 제2 터치 위치를 터치했을 때 변환 전 제1 터치 위치를 터치한 것과 같은 동작이 수행되어야 한다.
따라서, 룩 업 테이블 생성부(152-2)는 제2 터치 위치에 해당되는 터치 위치들을 포함하는 룩 업 테이블(LUT')을 생성할 수 있다. 제2 터치 위치에 해당되는 터치 위치들을 포함하는 룩 업 테이블(LUT')은 도 12를 참조하여 상세히 설명될 것이다.
도 11은 도 9에 도시된 화소 그룹에 따라 룩 업 테이블을 생성하는 방법을 설명하기 위한 개념도이다.
도 11을 참조하면, 룩 업 테이블 생성부(152-2)는 화소 그룹 테이블(PGT')과 화소 이동량 정보(PSI)를 이용하여 룩 업 테이블(LUT')을 생성할 수 있다.
화소 그룹 테이블(PGT')은 화소 개수(Pixels No.) 및 화소 그룹의 좌표(PGx)를 포함할 수 있다.
도 9를 참조하면, 룩 업 테이블 생성부(152-2)는 복수의 화소들(Px)을 화소 그룹(PG')으로 분류할 수 있다. 화소 그룹들(Z1, Z2, …, Zn-1, Zn) 각각은 화살표 방향을 따라 순차적으로 배열된 일정한 개수의 화소들(Px)을 포함할 수 있다.
화소 그룹들(Z1, Z2, …, Zn-1, Zn)은 화살표 방향을 따라 순차적으로 생성되었기 때문에, 룩 업 테이블 생성부(152-2) 생성순서에 따른 화소 그룹들의 위치관계를 확인할 수 있다.
예컨대, 화살표 방향을 기준으로 첫 번째 화소 그룹(Z1)과 n 번째 화소 그룹(Zn)을 비교하면, n 번째 화소 그룹(Zn)은 첫 번째 화소 그룹(Z1)으로부터 n-1번째 뒤에 생성되었다. 따라서, 룩 업 테이블 생성부(152-2)는 n번째 화소 그룹(Zn)이 첫 번째 화소 그룹(Z1)으로부터 화살표 방향을 따라 n-1번 이동된 위치에 있음을 확인할 수 있다.
즉, 화소 그룹의 생성순서는 화소 그룹의 위치 관계를 의미할 수 있다.
다시 도 11을 참조하면, 룩 업 테이블 생성부(152-2)는 화소 그룹 테이블(PGT')에 포함된 화소 그룹들(Z1, Z2, …, Zn-1, Zn)을 이용하여 복수의 화소들(Px) 각각의 위치 관계를 확인하거나, 복수의 화소들(Px)을 포함하는 화소 그룹들(PG')의 위치 관계를 확인할 수 있다.
룩 업 테이블 생성부(152-2)는 화소 그룹 테이블(PGT')과 프로세서(110)로부터 전송된 화소 이동량 정보(PSI)를 이용하여 룩 업 테이블(LUT)을 생성할 수 있다.
예컨대, 화소 이동량 정보(PSI)는 제1 영상 데이터(DI1)를 표시하는 제1 화소로부터 제2 영상 데이터(DI2)를 표시하는 제2 화소로 영상이 이동된 거리를 포함할 수 있다.
룩 업 테이블 생성부(152-2)는 화소 그룹 테이블(PGT')을 이용하여 화소 그룹의 위치관계를 확인할 수 있고, 화소 이동량 정보(PSI)를 이용하여 각 화소 그룹의 터치 위치 이동량을 결정할 수 있다.
따라서, 룩 업 테이블 생성부(152-2)는 화소 그룹의 위치관계와 각 화소 그룹의 터치 위치 이동량에 대한 룩 업 테이블(LUT')을 생성할 수 있다.
도 12는 도 11에 도시된 룩 업 테이블을 나타낸 개념도이다.
도 9, 도 10, 및 도 12를 참조하면, 룩 업 테이블 생성부(152-2)는 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(Z1, Z2, Zk, 및 Zk+1)과 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(Zm, Zm+1, Zn-1, 및 Zn)에 대한 룩 업 테이블(LUT')을 생성할 수 있다.
화소 그룹들(Z1, Z2, …, Zn-1, Zn)은 화살표 방향을 따라 순차적으로 배치된 화소들을 포함하기 때문에, 룩 업 테이블 생성기(152-2)는 화소 그룹들(Z1, Z2, …, Zn-1, Zn)의 순서에 따라 화소 그룹들(Z1, Z2, …, Zn-1, Zn)에 포함된 화소들(Px)의 위치 관계를 확인할 수 있다.
예컨대, 제1 영상 데이터(DI1)가 제2 영상 데이터(DI2)로 변경된 경우, 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(Z1) 상의 터치 위치는 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(Zm) 상의 터치 위치로 변경되어야 한다. 이때, 제2 화소 그룹(Zm)은 제1 화소 그룹(Z1)에서 화살표 방향을 따라 (m-1)번 이동된 위치에 있기 때문에, 제2 화소 그룹(Zm)의 터치 위치는 제1 화소 그룹(Z1)의 터치 위치에서 화살표 방향을 따라 (m-1)번 이동시킨 지점이다.
예컨대, 제1 영상 데이터(DI1)가 제2 영상 데이터(DI2)로 변경된 경우, 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(Z2) 상의 터치 위치는 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(Zm+1) 상의 터치 위치로 변경되어야 한다. 이때, 제2 화소 그룹(Zm+1)은 제1 화소 그룹(Z2)에서 화살표 방향을 따라 (m-1)번 이동된 위치에 있기 때문에, 제2 화소 그룹(Zm+1)의 터치 위치는 제1 화소 그룹(Z2)의 터치 위치에서 화살표 방향을 따라 (m-1)번 이동시킨 지점이다.
예컨대, 제1 영상 데이터(DI1)가 제2 영상 데이터(DI2)로 변경된 경우, 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(Zk) 상의 터치 위치는 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(Zn-1) 상의 터치 위치로 변경되어야 한다. 이때, 제2 화소 그룹(Zn-1)은 제1 화소 그룹(Zk)에서 화살표 방향을 따라 (n-1-k)번 이동된 위치에 있기 때문에, 제2 화소 그룹(Zn-1) 상의 터치 위치는 제1 화소 그룹(Zk) 상의 터치 위치에서 화살표 방향을 따라 (n-1-k)번 이동시킨 지점이다.
예컨대, 제1 영상 데이터(DI1)가 제2 영상 데이터(DI2)로 변경된 경우, 제1 영상 데이터(DI1)를 표시하는 제1 화소 그룹(Zk+1) 상의 터치 위치는 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹(Zn) 상의 터치 위치로 변경되어야 한다. 이때, 제2 화소 그룹(Zn)은 제1 화소 그룹(Zk+1)에서 화살표 방향을 따라 (n-1-k)번 이동된 위치에 있기 때문에, 제2 화소 그룹(Zn) 상의 터치 위치는 제1 화소 그룹(Zk+1) 상의 터치 위치에서 화살표 방향을 따라 (n-1-k)번 이동시킨 지점이다.
도 3에서 설명한 바와 같이, 프로세서(110)의 터치 위치 보정부(110-1)는 룩 업 테이블(LUT')을 이용하여 제1 영상데이터(DI1)를 표시하는 제1 화소 그룹 상의 터치 위치를 제2 영상 데이터(DI2)를 표시하는 제2 화소 그룹의 상의 터치 위치로 보정해야 한다.
룩 업 테이블(LUT')에 포함된 화소 그룹들(Z1, Z2, …, Zn)은 순서에 따라 각 화소 그룹의 터치 위치를 의미할 수 있고, 프로세서(110)는 제1 화소 그룹들(Z1, Z2, Zk, Zk+1, …)의 터치 위치를 제2 화소 그룹들(Zm, Zm+1, Zn-1, Zn, …)의 터치 위치로 보정할 수 있다.
예컨대, 프로세서는 룩 업 테이블(LUT')를 이용하여, 제1 화소 그룹(Z1)의 터치 위치를 제2 화소 그룹(Zm)의 터치 위치로 보정하고, 제1 화소 그룹(Z2)의 터치 위치를 제2 화소 그룹(Zm+1)의 터치 위치로 보정하고, 제1 화소 그룹(Zk)의 터치 위치를 제2 화소 그룹(Zn-1)의 터치 위치로 보정하고, 제1 화소 그룹(Zk+1)의 터치 위치를 제2 화소 그룹(Zn)의 터치 위치로 보정할 수 있다.
이로써, 프로세서(110)는 픽셀 시프트 동작에 의해 영상이 이동되더라도, 영상이 표시되는 실제 위치로 터치 위치를 보정할 수 있다. 또한, 프로세서(110)는 룩 업 테이블(LUT')을 이용하여 제2 영상 데이터(DI2)의 터치 좌표만을 보정하면 되기 때문에, 별도의 복잡한 연산 없이도 정확하게 터치 위치를 보정할 수 있다.
도 13은 본 발명의 실시 예에 따른 룩 업 테이블을 이용하여 터치 위치를 보정하는 터치 스크린 표시 장치의 구동 방법을 설명하기 위한 흐름도이다.
도 13을 참조하면, 영상 변환부(152-1)는 제1 화소에서 표시되는 제1 영상 데이터(DI1)를 제2 화소에서 표시되는 제2 영상 데이터(DI2)로 변환할 수 있다(S200).
룩 업 테이블 생성부(152-2)는 변환 결과에 따라 제2 영상 데이터(DI2)의 보정된 터치 위치를 포함하는 룩 업 테이블(LUT)을 생성할 수 있다(S210).
터치 위치 보정부(110-1)는 룩 업 테이블(LUT)을 이용하여 제2 영상 데이터(DI2)의 터치 위치를 제1 화소 상의 제1 터치 위치에서 제2 화소 상의 제2 터치 위치로 보정할 수 있다(S220).
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 터치 스크린 표시 장치
110: 프로세서
120: 터치 제어부
130: 터치 센서
140: 입출력 인터페이스
150: 표시 구동부
160: 표시 패널
170: 메모리 제어부
180: 메모리
190: 버스

Claims (20)

  1. 제1 화소에서 표시되는 제1 영상 데이터를 제2 화소에서 표시되는 제2 영상 데이터로 변환하고, 변환 결과를 이용하여 룩 업 테이블(LookUp table)을 생성하는 영상 보정부; 및
    상기 영상 보정부로부터 수신된 상기 룩 업 테이블에 포함된 터치 위치 정보에 따라 상기 제1 화소 상의 제1 터치 위치를 상기 제2 화소 상의 제2 터치 위치로 보정하는 프로세서를 포함하는 터치 스크린 표시 장치.
  2. 제1항에 있어서, 상기 영상 보정부는,
    상기 프로세서로부터 수신된 제어신호를 이용하여 상기 제1 영상 데이터를 상기 제2 영상 데이터로 변환하고, 상기 제1 화소로부터 상기 제2 화소가 떨어진 거리를 계산하여 화소 이동량 정보를 생성하는 영상 변환부; 및
    상기 화소 이동량 정보를 이용하여 상기 제1 터치 위치와 상기 제2 터치 위치를 정의하고, 정의된 위치 관계에 따라 룩 업 테이블을 생성하는 룩 업 테이블 생성부를 포함하는 터치 스크린 표시 장치.
  3. 제2항에 있어서, 상기 영상 변환부는,
    상기 제1 영상 데이터에 대한 X축 좌표와 Y축 좌표를 생성하고, 상기 제어신호에 따라 상기 X축 좌표와 상기 Y축 좌표를 보정하여 상기 제2 영상 데이터의 보정된 X축 좌표와 보정된 Y축 좌표를 생성하고,
    상기 X축 좌표와 상기 보정된 X축 좌표 사이에서 X축 이동량을 계산하고, 상기 Y축 좌표와 상기 보정된 Y축 좌표 사이에서 Y축 이동량을 계산하는 터치 스크린 표시 장치.
  4. 제3항에 있어서,
    상기 화소 이동량 정보는 상기 X축 이동량과 상기 Y축 이동량을 포함하는 터치 스크린 표시 장치.
  5. 제2항에 있어서, 상기 룩 업 테이블 생성부는,
    순차적으로 배치된 복수의 화소들을 일정한 개수에 따라 화소 그룹들로 분류하고, 상기 화소 그룹들 각각은 적어도 하나의 화소를 포함하는 터치 스크린 표시 장치.
  6. 제5항에 있어서, 상기 룩 업 테이블 생성부는,
    적어도 하나의 화소를 포함하는 수직 라인의 X축 화소 그룹과 수평 라인의 Y축 화소 그룹을 생성하고,
    상기 X축 화소 그룹과 상기 Y축 화소 그룹 각각에 해당되는 X축 터치 좌표와 Y축 터치 좌표를 생성하고,
    상기 제1 터치 위치와 상기 제2 터치 위치는 상기 X축 터치 좌표와 상기 Y축 터치 좌표로 구성되는 터치 스크린 표시 장치.
  7. 제1항에 있어서, 상기 룩 업 테이블 생성부는,
    상기 제1 화소를 포함하는 제1 화소 그룹과 상기 제2 화소를 포함하는 제2 화소 그룹을 생성하고,
    상기 제1 화소 그룹에 포함된 모든 화소 상의 터치 위치를 상기 제1 터치 위치로 설정하고, 상기 제 2 화소 그룹에 포함된 모든 화소 상의 터치 위치를 상기 제2 터치 위치로 설정하는 터치 스크린 표시 장치.
  8. 제7항에 있어서,
    상기 룩 업 테이블은 표시 패널 상에서의 상기 제1 화소 그룹의 위치 정보, 상기 제2 화소 그룹의 위치 정보, 상기 제1 터치 위치, 및 상기 제2 터치 위치를 포함하는 터치 스크린 표시 장치.
  9. 제1항에 있어서,
    상기 룩 업 테이블은 상기 영상 보정부에서 상기 제1 영상 데이터가 상기 제2 영상 데이터로 변환될 때마다 생성되는 터치 스크린 표시 장치.
  10. 제1항에 있어서,
    상기 룩 업 테이블은 기 설정된 주기마다 생성되는 터치 스크린 표시 장치.
  11. 제5항에 있어서, 상기 룩 업 테이블 생성부는,
    제1 방향을 따라 순차적으로 배치된 상기 복수의 화소들을 포함하는 상기 화소 그룹들로 분류하고, 분류된 순서에 따라 상기 화소 그룹들의 위치 관계를 정의하는 터치 스크린 표시 장치.
  12. 제11항에 있어서,
    제1 방향은 표시 패널 상에서 시계 방향 및 반시계 방향 중에서 어느 하나인 터치 스크린 표시 장치.
  13. 터치 센서에 의해 감지된 터치 신호에 따라 동작을 수행하는 터치 스크린 표시 장치의 구동 방법에 있어서,
    제1 화소에서 표시되는 제1 영상 데이터를 제2 화소에서 표시되는 제2 영상 데이터로 변환하는 단계;
    변환 결과를 이용하여 상기 제2 영상 데이터의 보정된 터치 위치를 포함하는 룩 업 테이블을 생성하는 단계; 및
    상기 룩 업 테이블을 이용하여 상기 제2 영상 데이터의 터치 위치를 상기 제1 화소 상의 제1 터치 위치에서 상기 제2 화소 상의 제2 터치 위치로 보정하는 단계를 포함하는 터치 스크린 표시 장치의 구동 방법.
  14. 제13항에 있어서, 상기 변환하는 단계는,
    상기 제1 영상 데이터에 대한 X축 좌표와 Y축 좌표를 생성하는 단계;
    제어 신호에 따라 상기 X축 좌표와 상기 Y축 좌표를 보정하여, 보정된 X축 좌표와 보정된 Y축 좌표를 생성하는 단계; 및
    상기 보정된 X축 좌표와 상기 보정된 Y축 좌표로 구성되는 보정 좌표에 상기 제1 영상 데이터를 맵핑하여 상기 제2 영상 데이터를 생성하는 단계를 포함하는 터치 스크린 표시 장치의 구동 방법.
  15. 제13항에 있어서, 상기 제2 영상 데이터를 생성하는 단계는,
    순차적으로 배치된 복수의 화소들을 일정한 개수에 따라 화소 그룹들로 분류하는 단계;
    분류된 화소 그룹들 각각의 터치 위치를 설정하는 단계; 및
    상기 화소 그룹들 각각에 설정된 터치 위치 정보를 포함하는 룩 업 테이블을 생성하는 단계를 포함하는 터치 스크린 표시 장치의 구동 방법.
  16. 제15항에 있어서, 상기 분류하는 단계는,
    표시 패널 상에서 각각이 적어도 하나의 화소를 포함하는 수직 라인의 X축 화소 그룹과 수평 라인의 Y축 화소 그룹을 생성하고, 상기 X축 화소 그룹과 상기 Y축 화소 그룹에 공통적으로 포함되는 화소 그룹들을 분류하는 터치 스크린 표시 장치의 구동 방법.
  17. 제15항에 있어서, 상기 분류하는 단계는,
    표시 패널 상에서 시계 방향 및 반시계 방향 중에서 어느 하나의 방향을 따라 배치된 화소들을 상기 일정한 개수에 따라 상기 화소 그룹들로 분류하는 터치 스크린 표시 장치의 구동 방법.
  18. 제16항에 있어서, 상기 설정하는 단계는,
    상기 X축 화소 그룹과 상기 Y축 화소 그룹 각각에 해당되는 X축 터치 좌표와 Y축 터치 좌표를 생성하고, 상기 화소 그룹들의 터치 위치를 상기 X축 터치 좌표와 상기 Y축 터치 좌표를 이용하여 설정하는 터치 스크린 표시 장치의 구동 방법.
  19. 제15항에 있어서, 상기 룩 업 테이블을 생성하는 단계는,
    상기 제1 화소를 포함하는 제1 화소 그룹과 상기 제2 화소를 포함하는 제2 화소 그룹을 생성하고,
    상기 제1 화소 그룹에 포함된 모든 화소 상의 터치 위치를 상기 제1 터치 위치로 설정하고, 상기 제 2 화소 그룹에 포함된 모든 화소 상의 터치 위치를 상기 제2 터치 위치로 설정하여 룩 업 테이블을 생성하는 터치 스크린 표시 장치의 구동 방법.
  20. 제20항에 있어서,
    상기 룩 업 테이블은 표시 패널 상에서의 상기 제1 화소 그룹의 위치 정보, 상기 제2 화소 그룹의 위치 정보, 상기 제1 터치 위치, 및 상기 제2 터치 위치를 포함하는 터치 스크린 표시 장치의 구동 방법.
KR1020150061490A 2015-04-30 2015-04-30 터치 스크린 표시 장치 및 그의 구동 방법 KR102355516B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020150061490A KR102355516B1 (ko) 2015-04-30 2015-04-30 터치 스크린 표시 장치 및 그의 구동 방법
US15/141,683 US10402011B2 (en) 2015-04-30 2016-04-28 Touch screen display device and driving method thereof
TW105113266A TWI725967B (zh) 2015-04-30 2016-04-28 觸控螢幕顯示裝置
EP16167776.0A EP3089005B1 (en) 2015-04-30 2016-04-29 Touch screen display with touch position correction
JP2016092361A JP6779655B2 (ja) 2015-04-30 2016-05-02 タッチスクリーン表示装置及びその駆動方法
CN201610286774.4A CN106095157B (zh) 2015-04-30 2016-05-03 触摸屏显示设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150061490A KR102355516B1 (ko) 2015-04-30 2015-04-30 터치 스크린 표시 장치 및 그의 구동 방법

Publications (2)

Publication Number Publication Date
KR20160129983A true KR20160129983A (ko) 2016-11-10
KR102355516B1 KR102355516B1 (ko) 2022-01-26

Family

ID=55910791

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150061490A KR102355516B1 (ko) 2015-04-30 2015-04-30 터치 스크린 표시 장치 및 그의 구동 방법

Country Status (6)

Country Link
US (1) US10402011B2 (ko)
EP (1) EP3089005B1 (ko)
JP (1) JP6779655B2 (ko)
KR (1) KR102355516B1 (ko)
CN (1) CN106095157B (ko)
TW (1) TWI725967B (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9734801B2 (en) 2015-05-22 2017-08-15 Samsung Display Co., Ltd. Display device and method for displaying image using the same
US10088953B2 (en) 2015-10-22 2018-10-02 Samsung Display Co., Ltd. Touch screen display device and driving method for correcting touch position based on image shifting
US10140899B2 (en) 2015-04-30 2018-11-27 Samsung Display Co., Ltd. Image shift controller for changing a starting position of an image and display device including the same
US10163380B2 (en) 2015-05-06 2018-12-25 Samsung Display Co., Ltd. Image corrector, display device including the same and method for displaying image using display device
US10706757B2 (en) 2015-04-30 2020-07-07 Samsung Display Co., Ltd. Image correction unit, display device including the same, and method of displaying image of the display device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014207898A1 (ja) * 2013-06-28 2014-12-31 富士通株式会社 情報処理装置、入力制御プログラム、および入力制御方法
CN108304085B (zh) * 2017-01-11 2021-01-01 神盾股份有限公司 判断手指位移方向的方法和电子装置
US10991283B2 (en) * 2018-09-04 2021-04-27 Apple Inc. Decimated burn-in compensation with pixel shifting
KR20210109114A (ko) 2020-02-26 2021-09-06 삼성디스플레이 주식회사 표시장치 및 이의 구동 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07219711A (ja) * 1994-01-19 1995-08-18 Internatl Business Mach Corp <Ibm> 接触感知型ディスプレイ装置及び構成方法
KR20100124208A (ko) * 2009-05-18 2010-11-26 소니 주식회사 표시 장치 및 전자 기기
WO2013187021A1 (ja) * 2012-06-12 2013-12-19 パナソニック株式会社 画像表示装置、画像表示装置の駆動方法および画像表示システム
KR20140023460A (ko) * 2012-08-13 2014-02-27 엘지디스플레이 주식회사 터치 스크린 일체형 디스플레이 장치와 이의 구동방법

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56116113A (en) 1979-12-03 1981-09-11 Xerox Corp Machine controlling apparatus and method
JPH10108121A (ja) * 1996-09-25 1998-04-24 Nikon Corp 電子カメラ
JP2004048229A (ja) * 2002-07-10 2004-02-12 Toshiba Corp 電子機器およびデジタルスチルカメラおよび表示制御方法
US7256772B2 (en) * 2003-04-08 2007-08-14 Smart Technologies, Inc. Auto-aligning touch system and method
EP1679683A1 (en) * 2005-01-06 2006-07-12 Thomson Licensing Method and device for protecting display from burn-in effect
JP4869611B2 (ja) * 2005-03-17 2012-02-08 Necディスプレイソリューションズ株式会社 画面焼き付き防止装置および画面焼き付き防止方法
KR20080042997A (ko) 2006-11-13 2008-05-16 삼성전자주식회사 디스플레이 장치 및 그 방법
TWI413402B (zh) * 2007-12-13 2013-10-21 Altek Corp 具有影像加密功能之影像處理系統及方法
JP5082944B2 (ja) * 2008-03-10 2012-11-28 富士通モバイルコミュニケーションズ株式会社 情報処理装置
KR20100039024A (ko) * 2008-10-07 2010-04-15 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US20100220063A1 (en) * 2009-02-27 2010-09-02 Panasonic Corporation System and methods for calibratable translation of position
CA2763173A1 (en) * 2009-06-18 2010-12-23 Baanto International Ltd. Systems and methods for sensing and tracking radiation blocking objects on a surface
JP2011233019A (ja) * 2010-04-28 2011-11-17 Sony Corp タッチ検出機能付き表示装置、駆動回路、駆動方式、および電子機器
US8599155B2 (en) * 2010-04-30 2013-12-03 Microchip Technology Incorporated Touch sense using time domain reflectometry
JP5230684B2 (ja) * 2010-05-13 2013-07-10 パナソニック株式会社 電子機器、表示方法、及びプログラム
KR20110138095A (ko) * 2010-06-18 2011-12-26 삼성전자주식회사 터치 시스템에서 좌표 보정 방법 및 장치
TW201203027A (en) * 2010-07-14 2012-01-16 Benq Corp Positioning method and display system using the same
CN101930325B (zh) * 2010-07-22 2012-05-30 明基电通有限公司 定位方法及显示系统
US9289184B2 (en) * 2010-11-16 2016-03-22 Carestream Health, Inc. Systems and methods for calibrating, correcting and processing images on a radiographic detector
KR101890135B1 (ko) * 2011-03-18 2018-08-23 삼성전자주식회사 잔상 감소를 위한 gui 제공 방법 및 표시 장치
JP5472256B2 (ja) * 2011-05-06 2014-04-16 株式会社デンソー 車両用表示装置および情報表示システム
US10325571B2 (en) * 2011-05-24 2019-06-18 Osman Colakoglu Data communication method via touch surface
TR201105036A2 (tr) * 2011-05-24 2011-10-21 Datça Si̇gorta Aracilik Hi̇zmetleri̇ Ltd. Şti̇. Dokunmatik yüzey aracılığıyla veri iletişimi yöntemi.
WO2013161573A1 (ja) * 2012-04-23 2013-10-31 シャープ株式会社 タッチパネル入力装置、および、画像形成装置
KR101969456B1 (ko) * 2012-08-31 2019-08-14 삼성디스플레이 주식회사 화상 데이터 변환 장치 및 이를 포함하는 표시 장치
JP2014059851A (ja) * 2012-09-19 2014-04-03 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、及びコンピュータプログラム
TWI493399B (zh) 2012-10-30 2015-07-21 Mstar Semiconductor Inc 觸控座標邊緣效應校正的方法與相關系統
TWI507936B (zh) * 2013-02-07 2015-11-11 Mstar Semiconductor Inc 觸控面板及其校正裝置
TWI476754B (zh) * 2013-06-25 2015-03-11 Mstar Semiconductor Inc 應用於顯示裝置之校正系統及校正方法
KR102187867B1 (ko) * 2013-07-09 2020-12-07 삼성전자 주식회사 휴대단말기의 정보 처리 장치 및 방법
JP2015195551A (ja) * 2014-03-18 2015-11-05 株式会社東芝 画像表示装置及び画像表示方法
KR102308202B1 (ko) 2014-12-23 2021-10-06 삼성디스플레이 주식회사 터치 스크린 표시 장치 및 그의 구동방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07219711A (ja) * 1994-01-19 1995-08-18 Internatl Business Mach Corp <Ibm> 接触感知型ディスプレイ装置及び構成方法
KR20100124208A (ko) * 2009-05-18 2010-11-26 소니 주식회사 표시 장치 및 전자 기기
WO2013187021A1 (ja) * 2012-06-12 2013-12-19 パナソニック株式会社 画像表示装置、画像表示装置の駆動方法および画像表示システム
KR20140023460A (ko) * 2012-08-13 2014-02-27 엘지디스플레이 주식회사 터치 스크린 일체형 디스플레이 장치와 이의 구동방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10140899B2 (en) 2015-04-30 2018-11-27 Samsung Display Co., Ltd. Image shift controller for changing a starting position of an image and display device including the same
US10431133B2 (en) 2015-04-30 2019-10-01 Samsung Display Co., Ltd. Image shift control method for changing a starting position of an image
US10706757B2 (en) 2015-04-30 2020-07-07 Samsung Display Co., Ltd. Image correction unit, display device including the same, and method of displaying image of the display device
US10810919B2 (en) 2015-04-30 2020-10-20 Samsung Display Co., Ltd. Image shift controller for changing a starting position and display device including the same
US11568774B2 (en) 2015-04-30 2023-01-31 Samsung Display Co., Ltd. Image correction unit, display device including the same, and method of displaying image of the display device
US10163380B2 (en) 2015-05-06 2018-12-25 Samsung Display Co., Ltd. Image corrector, display device including the same and method for displaying image using display device
US9734801B2 (en) 2015-05-22 2017-08-15 Samsung Display Co., Ltd. Display device and method for displaying image using the same
US10088953B2 (en) 2015-10-22 2018-10-02 Samsung Display Co., Ltd. Touch screen display device and driving method for correcting touch position based on image shifting

Also Published As

Publication number Publication date
US10402011B2 (en) 2019-09-03
EP3089005A1 (en) 2016-11-02
EP3089005B1 (en) 2021-06-02
US20160320916A1 (en) 2016-11-03
CN106095157B (zh) 2021-07-09
TWI725967B (zh) 2021-05-01
CN106095157A (zh) 2016-11-09
TW201706801A (zh) 2017-02-16
JP2016212867A (ja) 2016-12-15
KR102355516B1 (ko) 2022-01-26
JP6779655B2 (ja) 2020-11-04

Similar Documents

Publication Publication Date Title
KR20160129983A (ko) 터치 스크린 표시 장치 및 그의 구동 방법
CN105718103B (zh) 触摸屏显示装置及其驱动方法
KR101480315B1 (ko) 터치스크린 일체형 표시장치 및 그 구동 방법
US20080246740A1 (en) Display device with optical input function, image manipulation method, and image manipulation program
US10110832B2 (en) Method and apparatus to reduce display lag using scaling
US11422653B2 (en) Touch and display control device with fast touch responsiveness, display device including the same, method of operating the same and electronic system including the same
US10088953B2 (en) Touch screen display device and driving method for correcting touch position based on image shifting
US20130342581A1 (en) Touch sensor navigation
US20160216839A1 (en) Display device and electronic device including the same
KR20190075656A (ko) 터치방식 표시장치
JP6505317B2 (ja) 表示制御装置
US10168823B2 (en) Data driver circuit and display device using the same
KR102020281B1 (ko) 터치드라이버 및 그 구동방법과 이를 이용한 표시장치
JP5309875B2 (ja) ポインタ表示制御装置及び表示装置
KR20150130592A (ko) 영상 보정 방법, 영상 보정 장치 및 이를 구비하는 표시 장치
CN115774494A (zh) 触摸显示装置的驱动设备和触摸显示装置的驱动方法
KR101633097B1 (ko) 멀티 터치 감지방법 및 장치
KR20190022087A (ko) 표시 장치
JPS6246330A (ja) 入力一体化平面デイスプレイシステム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right