KR20140124031A - 센싱 데이터 처리 방법 및 이를 수행하는 표시 장치 - Google Patents

센싱 데이터 처리 방법 및 이를 수행하는 표시 장치 Download PDF

Info

Publication number
KR20140124031A
KR20140124031A KR1020130040745A KR20130040745A KR20140124031A KR 20140124031 A KR20140124031 A KR 20140124031A KR 1020130040745 A KR1020130040745 A KR 1020130040745A KR 20130040745 A KR20130040745 A KR 20130040745A KR 20140124031 A KR20140124031 A KR 20140124031A
Authority
KR
South Korea
Prior art keywords
data
sensing
resolution
resolution data
low
Prior art date
Application number
KR1020130040745A
Other languages
English (en)
Inventor
노보루 타케우치
타다시 아미노
김대철
김웅권
조병훈
Original Assignee
삼성디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성디스플레이 주식회사 filed Critical 삼성디스플레이 주식회사
Priority to KR1020130040745A priority Critical patent/KR20140124031A/ko
Priority to US14/107,539 priority patent/US9081433B2/en
Publication of KR20140124031A publication Critical patent/KR20140124031A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/04Structural and physical details of display devices
    • G09G2300/0421Structural details of the set of electrodes
    • G09G2300/0426Layout of electrodes and connections
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/24Keyboard-Video-Mouse [KVM] switch

Abstract

센싱 데이터 처리 방법은 연속하는 복수의 저해상도 데이터 프레임들을 이용하여 복수의 움직임 벡터들을 산출하고, 상기 움직임 벡터들을 이용하여 상기 저해상도 데이터 프레임들에 포함된 피대상물의 센싱 데이터를 서로 중첩하고, 상기 중첩된 센싱 데이터를 이용하여 고해상도의 데이터로 맵핑하고, 상기 고해상도의 데이터를 이용하여 상기 피대상물의 터치 위치 데이터를 검출한다. 상기 센싱 데이터 처리 방법은 기저장된 상기 피대상물의 학습데이터를 이용하여 상기 고해상도의 데이터를 더 보정할 수 있다. 이에 따르면, 연속되는 복수의 저해상도 데이터 프레임들을 이용하여 고해상도의 센싱 데이터를 생성함으로써 터치 화면에 터치된 피대상물의 접촉 위치을 정확하게 검출할 수 있다.

Description

센싱 데이터 처리 방법 및 이를 수행하는 표시 장치{METHOD OF PROCESSING SENSING DATA AND DISPLAY APPARATUS FOR PERFORMING THE SAME}
본 발명은 센싱 데이터 처리 방법 및 이를 수행하는 표시 장치에 관한 것으로, 보다 상세하게는 고해상도의 센싱 데이터를 얻기 위한 센싱 데이터 처리 방법 및 이를 수행하는 표시 장치에 관한 것이다.
일반적으로 액정 표시 장치는 두께가 얇고 무게가 가벼우며 전력소모가 낮은 장점이 있어, 모니터, 노트북, 휴대폰 등에 주로 사용된다. 이러한 액정 표시 장치는 액정의 광투과율을 이용하여 영상을 표시하는 액정 표시 패널 및 상기 액정 표시 패널의 하부에 배치되어 상기 액정 표시 패널로 광을 제공하는 백라이트 어셈블리를 포함한다.
최근, 리모콘이나 별도의 입력 장치 없이, 스타일러스 펜, 손가락 등의 터치 수단에 의해 신호를 입력하는 터치 패널을 포함하는 터치 센싱 표시 장치가 널리 사용되고 있다. 상기 터치 센싱 표시 장치는 상기 터치 수단에 의한 터치를 센싱하는 센싱 데이터를 발생하는 터치 패널과, 영상을 표시하는 액정 표시 패널을 포함한다. 상기 터치 패널에 포함된 터치 센서의 센싱 방법은 정전 용량 방식(capacitive type), 저항막 방식(resistive type), 광 방식 (optical type) 등을 포함한다.
상기 터치 패널에 포함된 터치 센서는 고해상도를 위해서 터치 센서의 개수를 증가시키는 것이 좋다. 그러나, 터치 센서의 개수를 증가시키면 터치 패널의 개구율이 저하되는 문제점을 갖는다. 또한, 터치 센서의 사이즈를 줄이면 터치 센서의 센싱 감도가 저하되는 문제점을 갖는다.
이에 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로, 본 발명의 목적은 고해상도의 센싱 데이터를 얻기 위한 센싱 데이터 처리 방법을 제공하는 것이다.
본 발명의 다른 목적은 상기 센싱 데이터 처리 방법을 수행하는 표시 장치를 제공하는 것이다.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 센싱 데이터 처리 방법은 연속하는 복수의 저해상도 데이터 프레임들을 이용하여 복수의 움직임 벡터들을 산출하고, 상기 움직임 벡터들을 이용하여 상기 저해상도 데이터 프레임들에 포함된 피대상물의 센싱 데이터를 서로 중첩하고, 상기 중첩된 센싱 데이터를 이용하여 고해상도의 데이터로 맵핑하고, 상기 고해상도의 데이터를 이용하여 상기 피대상물의 터치 위치 데이터를 검출한다.
일 실시예에서, 상기 센싱 데이터 처리 방법은 기저장된 상기 피대상물의 학습 데이터를 이용하여 상기 고해상도의 데이터를 보정할 수 있다.
일 실시예에서, 상기 센싱 데이터는 다계조 데이터일 수 있다.
일 실시예에서, 상기 고해상도의 데이터 이격 거리는 상기 저해상도의 데이터 이격 거리의 1/2배일 수 있다.
일 실시예에서, 상기 고해상도의 데이터로 맵핑하는 단계는 터치 화면 전체에 대응하는 저해상도의 데이터를 상기 고해상도의 데이터로 맵핑할 수 있다.
일 실시예에서, 상기 고해상도의 데이터로 맵핑하는 단계는 터치 화면 중 상기 피대상물을 포함하는 제1 영역의 데이터를 상기 고해상도의 데이터로 맵핑할 수 있다.
일 실시예에서, 상기 고해상도의 데이터로 맵핑하는 단계는 상기 터치 화면 중 상기 제1 영역을 제외한 나머지 제2 영역의 데이터는 상기 저해상도 데이터 프레임들 중 마지막 저해상도 데이터 프레임의 데이터를 적용할 수 있다.
일 실시예에서, 상기 고해상도의 데이터로 맵핑하는 단계는 상기 터치 화면 중 상기 제1 영역을 제외한 나머지 제2 영역의 데이터는 생략할 수 있다.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 표시 장치는 영상을 표시하는 화소부 및 피대상물의 터치를 센싱하는 센서부를 포함하는 표시 센서 패널부와, 상기 화소부를 구동하는 표시 구동부와, 상기 센서부를 구동하는 상기 센싱 구동부 및 상기 센싱 구동부로부터 제공된 복수의 저해상도 데이터 프레임들로부터 산출된 복수의 움직임 벡터들을 이용하여 상기 저해상도 데이터 프레임들의 피대상물의 센싱 데이터를 서로 중첩하고 상기 중첩된 센싱 데이터를 이용하여 고해상도의 데이터로 맵핑하는 센싱 제어부를 포함한다.
일 실시예에서, 상기 센싱 제어부는 연속하는 복수의 저해상도 데이터 프레임들을 이용하여 복수의 움직임 벡터들을 산출하는 움직임 벡터 산출부와, 상기 움직임 벡터들을 이용하여 상기 저해상도 데이터 프레임들에 포함된 피대상물의 센싱 데이터를 서로 중첩하는 위치 맞춤부와, 상기 중첩된 센싱 데이터를 이용하여 고해상도의 데이터로 맵핑하는 고해상도 데이터 생성부, 및 상기 고해상도의 데이터를 이용하여 상기 피대상물의 터치 위치 데이터를 검출하는 위치 검출부를 포함한다.
일 실시예에서, 상기 고해상도 데이터 생성부는 기저장된 상기 피대상물의 학습 데이터를 이용하여 상기 고해상도의 데이터를 보정할 수 있다.
일 실시예에서, 상기 센서부는 다계조 데이터를 센싱하는 터치 센서를 포함할 수 있다.
일 실시예에서, 상기 고해상도의 데이터 이격 거리는 상기 저해상도의 데이터 이격 거리의 1/2배일 수 있다.
일 실시예에서, 상기 고해상도 데이터 생성부는 상기 표시 센서 패널부의 터치 화면 전체에 대응하는 저해상도의 데이터를 상기 고해상도의 데이터로 맵핑할 수 있다.
일 실시예에서, 상기 고해상도 데이터 생성부는 상기 표시 센서 패널부의 터치 화면 중 상기 피대상물을 포함하는 제1 영역의 데이터를 상기 고해상도의 데이터로 맵핑할 수 있다.
일 실시예에서, 상기 고해상도 데이터 생성부는 상기 터치 화면 중 상기 제1 영역을 제외한 나머지 제2 영역의 데이터는 상기 저해상도 데이터 프레임들 중 마지막 저해상도 데이터 프레임의 데이터를 적용할 수 있다.
일 실시예에서, 상기 고해상도 데이터 생성부는 상기 터치 화면 중 상기 제1 영역을 제외한 나머지 제2 영역의 데이터는 생략할 수 있다.
본 발명의 실시예들에 따르면, 연속되는 복수의 저해상도 데이터 프레임들을 이용하여 고해상도의 센싱 데이터를 생성함으로써 터치 화면에 터치된 피대상물의 접촉 위치을 정확하게 검출할 수 있다.
도 1은 본 발명의 일 실시예에 따른 표시 장치의 블록도이다.
도 2는 도 1에 도시된 센싱 제어부에 대한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 센싱 데이터 처리 방법을 설명하기 위한 흐름도이다.
도 4a 및 도 4b는 도 3의 센싱 데이터 처리 방법을 설명하기 위한 개념도들이다.
도 5는 본 발명의 다른 실시예에 따른 센싱 데이터 처리 방법을 설명하기 위한 흐름도이다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 표시 장치의 블록도이다.
도 1을 참조하면, 상기 표시 장치는 표시 센서 패널부(100), 영상 표시 구동부(200) 및 터치 센싱 구동부(300)를 포함한다.
상기 표시 센서 패널부(100)는 영상을 표시하는 화소부(PP) 및 피대상물의 터치를 센싱하는 센서부(SP)를 포함한다. 상기 화소부(PP)는 복수의 컬러 서브 화소들, 예를 들면, 레드, 그린 및 블루 서브 화소들(R, G, B)을 포함한다. 상기 컬러 서브 화소들(R, G, B) 각각은 영상을 표시하는 액정 커패시터를 포함한다.
상기 서브 화소들(R, G, B) 각각은 데이터 라인(DL) 및 게이트 라인(GL)과 전기적으로 연결되고, 상기 게이트 라인(GL)에 인가된 게이트 신호에 응답하여 상기 데이터 라인(DL)에 인가된 데이터 전압은 상기 액정 커패시터에 충전하여 영상을 표시한다.
상기 센서부(SP)는 다계조의 센싱 데이터를 발생할 수 있는 터치 센서를 포함한다. 상기 터치 센서의 센싱 방식은 접촉식 정전용량 방식(Capacitive overlay), 압력식 저항막 방식(Registive Overlay), 적외선 감지 방식(Infrared Beam), 적분식 장력측정 방식(Integral Strain Guage), 표면 초음파 전도 방식(Surface Acoustic Wave), 피에조 효과 방식(piezo Electric) 등을 포함할 수 있다.
상기 센서부(SP)는 센싱 데이터 라인(SDL) 및 센싱 게이트 라인(SGL)과 전기적으로 연결되고, 상기 센싱 게이트 라인(SGL)에 응답하여 상기 터치 센서로부터 센싱된 센싱 신호를 상기 센싱 데이터 라인(SDL)을 통해 출력한다. 상기 센서부(SP)는 도시된 바와 같이, 각 화소부(PP)에 대응하여 배치될 수 있고, 또는 각 서브 화소(R, G or B)에 대응하여 배치될 수 있다. 상기 센서부(SP)의 배치 위치는 다양하게 설계될 수 있다.
상기 표시 센서 패널부(100)는 상기 화소부(PP)를 포함하는 표시 패널과, 상기 센서부(SP)를 포함하는 센서 패널를 포함하고, 상기 표시 패널 및 상기 센서 패널은 독립적으로 분리될 수 있다. 또는 상기 화소부(PP)를 포함하는 표시 패널에 상기 센서부(SP)를 내장하여 상기 표시 패널과 상기 센서 패널을 일체로 형성할 수 있다. 상기 센서부(SP)를 내장하는 방식은 상기 데이터 라인(DL)과 상기 게이트 라인(GL)이 형성된 어레이 기판 내에 배치하거나, 상기 어레이 기판과 대향하는 컬러 필터 기판 내에 배치할 수 있다.
상기 영상 표시 구동부(200)는 표시 제어부(210) 및 화소 구동부(220)를 포함한다. 상기 표시 제어부(210)는 상기 화소부(PP)를 구동하기 위한 표시 제어 신호 및 데이터 신호를 출력한다. 상기 표시 제어 신호는 데이터 제어 신호 및 게이트 제어 신호를 포함한다. 상기 데이터 신호는 컬러 서브 화소에 대응하는 컬러 데이터를 포함한다. 상기 화소 구동부(220)는 상기 데이터 라인(DL)에 상기 데이터 신호를 출력하는 데이터 구동부(221) 및 상기 게이트 라인(GL)에 상기 게이트 신호를 출력하는 게이트 구동부(222)를 포함한다.
상기 터치 센싱 구동부(300)는 센싱 제어부(310) 및 센싱 구동부(320)를 포함한다. 상기 센싱 제어부(310)는 상기 센서부(SP)를 구동하기 위한 센서 제어 신호를 상기 센싱 구동부(320)에 제공하고, 상기 센싱 구동부(320)로부터 센싱 데이터를 수신한다.
상기 센싱 구동부(320)는 센싱 리드아웃부(321) 및 센싱 게이트 구동부(322)를 포함한다. 상기 센싱 리드아웃부(321)는 상기 터치 센서의 구동을 위해 상기 센싱 데이터 라인(DL)에 바이어스 신호를 제공하고, 상기 터치 센서로부터 센싱된 센싱 신호를 상기 센싱 데이터 라인(SDL)을 통해 수신하고 디지털 형태의 센싱 데이터로 출력한다. 상기 센싱 게이트 구동부(322)는 상기 센싱 게이트 라인(SGL)에 센싱 게이트 신호를 출력한다. 상기 센싱 게이트 구동부(322)는 상기 게이트 구동부(222)와 동기되어 구동될 수 있다.
본 실시예에 따르면, 상기 센싱 제어부(310)는 상기 센싱 구동부(320)로부터 수신된 센싱 데이터를 고해상도의 센싱 데이터로 처리하고, 상기 고해상도의 센싱 데이터를 이용하여 상기 피대상물의 터치 위치를 검출한다. 상기 센싱 제어부(310)에 의해 상기 센싱 데이터를 고해상도의 센싱 데이터로 처리하는 방식은 후술된다.
도 2는 도 1에 도시된 센싱 제어부에 대한 블록도이다. 도 3은 본 발명의 일 실시예에 따른 센싱 데이터 처리 방법을 설명하기 위한 흐름도이다.
도, 도 2 및 도 3을 참조하면, 상기 센싱 제어부(310)는 센싱제어신호 생성부(311), 센싱 데이터 처리부(317) 및 위치 검출부(319)를 포함한다.
상기 센싱제어신호 생성부(311)는 외부로부터 원시제어신호(OS)를 수신하고, 상기 원시제어신호(OS)를 이용하여 상기 센싱 구동부(320)를 구동하기 위한 센싱 제어신호(SC)를 생성한다.
상기 센싱 데이터 처리부(317)는 상기 센싱 리드아웃부(321)로부터 출력된 저해상도의 센싱 데이터(LD)를 고해상도의 센싱 데이터(HD)로 처리한다.
상기 위치 검출부(319)는 상기 고해상도의 센싱 데이터(HD)를 이용하여 상기 피대상물의 터치 위치 데이터(PD)를 검출한다.
구체적으로, 상기 센싱 데이터 처리부(317)는 제1 저장부(312), 움직임 벡터 산출부(313), 위치 맞춤부(314), 제2 저장부(315) 및 고해상도 데이터 생성부(316)를 포함한다.
상기 제1 저장부(312)는 상기 센싱 리드아웃부(321)로부터 수신된 저해상도의 센싱 데이터를 저장한다(단계 S110). 상기 센싱 데이터는 다계조 데이터이다. 이하에서는, 프레임 단위의 데이터를 '데이터 프레임'으로 명칭한다. 상기 제1 저장부(312)는 복수의 저해상도 데이터 프레임을 저장한다. 예를 들면, 상기 제1 저장부(312)는 제K-2, 제K-1 및 제K 저해상도 데이터 프레임들을 저장한다(K는 자연수). 상기 저해상도 데이터 프레임은 상기 센싱 리드아웃부(321)로부터 수신된 저해상도의 센싱 데이터를 포함하는 데이터 프레임이다.
상기 움직임 벡터 산출부(313)는 상기 제1 저장부(312)에 저장된 제K-2, 제K-1 및 제K 저해상도 데이터 프레임들을 이용하여 제1 움직임 벡터(MV1) 및 제2 움직임 벡터(MV2)를 산출한다(단계 S120). 예를 들면, 상기 제K-2 및 제K-1 저해상도 데이터 프레임들을 이용하여 제1 움직임 벡터(MV1)를 산출하고, 상기 제K-1 및 제K 저해상도 데이터 프레임들을 이용하여 제2 움직임 벡터(MV2)를 산출한다.
상기 위치 맞춤부(314)는 산출된 상기 제1 및 제2 움직임 벡터들(MV1, MV2)을 이용하여 상기 제K, 제K-1 및 제K-2 저해상도 데이터 프레임들 각각에 포함된 피대상물의 센싱 데이터를 서로 맞추어 중첩 데이터 프레임(ODF)을 생성한다(단계 S130).
상기 제2 저장부(315)는 상기 고해상도의 센싱 데이터를 생성하기 위한 학습 데이터(ED)를 저장한다. 상기 학습 데이터(ED)는 터치 화면들 및 상기 터치 화면에 대한 피대상물의 움직임 및 형상을 미리 측정하여 설정한 데이터이다.
상기 고해상도 데이터 생성부(316)는 상기 중첩 데이터 프레임(ODF)의 데이터를 이용하여 고해상도 데이터 프레임으로 맵핑한다(단계 S140). 또한, 상기 고해상도 데이터 생성부(316)는 상기 제2 저장부(315)에 저장된 상기 학습 데이터(ED)를 이용하여 상기 맵핑된 고해상도 데이터 프레임에 포함된 상기 피대상물의 데이터를 형상 및 윤곽을 자연스럽게 보정한다. 예를 들면, 상기 고해상도 데이터 프레임에 포함된 데이터간의 이격 거리는 상기 저해상도 데이터 프레임에 포함된 데이터간의 이격 거리 보다 1/2배 축소될 수 있다.
이와 같이 얻어진 상기 고해상도의 센싱 데이터(HD)는 위치 검출부(319)에 제공된다. 상기 위치 검출부(319)는 상기 고해상도의 데이터를 이용하여 상기 피대상물의 터치 위치 데이터(PD)를 검출한다(단계 S150).
도 4a 및 도 4b는 도 3의 센싱 데이터 처리 방법을 설명하기 위한 개념도들이다.
도 2, 도 4a 및 도 4b를 참조하면, 사용자는 피대상물을 이용하여 터치 화면에 터치를 수행한다. 상기 관찰자의 터치에 따라서, 연속되는 저해상도 데이터 프레임은 움직임을 갖는 피대상물에 대응하는 센싱 데이터를 포함할 수 있다.
구체적으로, 제K-2 프레임 터치 화면(LFK-2)은 제1 위치(OB1)의 피대상물의 영상을 포함한다. 상기 제K-2 프레임 터치 화면(LFK-2)은 매트릭스 형태로 배열된 제1 센싱 데이터(d11, d12, d13,...)를 포함하는 제K-2 저해상도 데이터 프레임(LDFK-2)에 의해 표시된다. 상기 제1 센싱 데이터(d11, d12, d13,...)의 이격 거리는 제1 이격 거리(L1)를 갖는다.
상기 제K-2 프레임 터치 화면(LFK-2)과 연속하는 제K-1 프레임 터치 화면(LFK-1)은 제2 위치(OB2)의 피대상물 영상을 포함한다. 제K-1 프레임 터치 화면(LFK-1)은 매트릭스 형태로 배열된 제2 센싱 데이터(d21, d22, d23,...)를 포함하는 제K-1 저해상도 데이터 프레임(LDFK-1)에 의해 표시된다. 상기 제2 센싱 데이터(d21, d22, d23,...)는 상기 제1 이격 거리(L1)를 갖는다.
상기 제K-1 프레임 터치 화면(LFK-1)과 연속하는 제K 프레임 터치 화면(LFK)은 제3 위치(OB3)의 피대상물 영상을 포함한다. 상기 제K 프레임 터치 화면(LFK)은 매트릭스 형태로 배열된 제3 센싱 데이터(d31, d32, d33,...)를 포함하는 제K 저해상도 데이터 프레임(LDFK)에 의해 표시된다. 상기 제3 센싱 데이터(d31, d32, d33,...)는 상기 제1 이격 거리(L1)를 갖는다.
연속하는 상기 제K-2, 제K-1 및 제K 저해상도 데이터 프레임들(LDFK-2, LDFK-1, LDFK)을 비교하여 피대상물의 움직임을 예측하고 움직임 벡터를 구한다. 예를 들면, 제K-2 및 제K-1 저해상도 데이터 프레임들(LDFK-2, LDFK-1)의 제1 및 제2 센싱 데이터를 비교하여 피대상물의 움직임, 즉, 제1 위치(OB1)에서 제2 위치(OB2)로 이동하는 것을 예측하고 제1 움직임 벡터(MV1)를 산출한다.
상기 제K-1 및 제K 저해상도 데이터 프레임들(LDFK-1, LDFK)의 제2 및 제3 센싱 데이터를 비교하여 피대상물의 움직임, 즉, 상기 제2 위치(OB2)에서 제3 위치(OB3)로 이동하는 것을 예측하고 제2 움직임 벡터(MV2)를 산출한다.
상기 제1 및 제2 움직임 벡터들(MV1, MV2)을 이용하여 상기 제K-2, 제K-1 및 제K 프레임 터치 화면들(LFK-2, LFK-1, LFK)에 포함된 피대상물들(OB1, OB2, OB3)을 서로 중첩시켜 상기 피대상물들(OB1, OB2, OB3)의 위치를 서로 맞춘다. 다시 말하면, 도 4b에 도시된 바와 같이, 상기 제K-2, 제K-1 및 제K 저해상도 데이터 프레임들(LDFK-2, LDFK-1, LDFK) 각각에 포함된 상기 피대상물의 센싱 데이터를 서로 중첩하여 중첩 데이터 프레임(ODF)을 생성한다.
상기 중첩 데이터 프레임(ODF)의 센싱 데이터를 이용하여 고해상도 데이터 프레임(HDFK)을 생성한다. 상기 고해상도 데이터 프레임에 포함된 데이터간의 이격 거리는 상기 제1 이격 거리(L1) 보다 작은 제2 이격 거리(L2)를 갖는다. 상기 제2 이격 거리(L2)는 상기 제1 이격 거리(L1)의 1/2일 수 있다.
예를 들면, 상기 중첩 데이터 프레임(ODF)은 상기 제1, 제2 및 제3 센싱 데이터(d11, d12, d13,..., d21, d22, d23,..., d31, d32, d33,...)를 포함한다. 상기 제1, 제2 및 제3 센싱 데이터(d11, d12, d13,..., d21, d22, d23,..., d31, d32, d33,...)를 이용하여 수학적으로 고해상도 데이터 프레임(HDFK)의 데이터를 생성한다.
도 4b에 도시된 바와 같이, 상기 고해상도 데이터 프레임(HDFK)의 데이터 좌표와 동일한 상기 중첩 데이터 프레임(ODF)의 상기 제1 및 제3 센싱 데이터(d11, d12, d13,..., d31, d32, d33,...)는 상기 고해상도 데이터 프레임(HDFK)의 데이터로 결정된다.
또한, 상기 고해상도 데이터 프레임(HDFK)의 데이터로 결정된 상기 제1 및 제3 센싱 데이터(d11, d12, d13,..., d31, d32, d33,...) 및 상기 중첩 데이터 프레임(ODF)의 제2 센싱 데이터(d21, d22, d23,...)를 이용하여, 나머지 상기 고해상도 데이터 프레임(HDFK)의 데이터(c1, c2, c3,...)를 수학적으로 산출한다. 예를 들면, 선형 보간 알고리즘을 이용하여 산출할 수 있다. 이와 같이, 상기 중첩 데이터 프레임(ODF)을 이용하여 상기 고해상도 데이터 프레임(HDFK)을 생성한다.
이후, 상기 고해상도 데이터 프레임(HDFK)에 포함된 상기 피대상물에 대응하는 데이터를 상기 학습 데이터를 이용하여 형상 및 윤곽을 자연스럽게 보정한다.
본 실시예와 같이, 연속되는 복수의 저해상도 데이터 프레임들(LDFK-2, LDFK-1, LDFK)을 이용하여 고해상도 데이터 프레임(HDFK)을 생성함으로써 상기 피대상물에 대한 정밀한 센싱 데이터를 얻을 수 있다. 결과적으로, 터치 화면에 터치된 상기 피대상물의 접촉 위치를 정확하게 검출할 수 있다.
도 5는 본 발명의 다른 실시예에 따른 센싱 데이터 처리 방법을 설명하기 위한 흐름도이다. 이하에서는 이전 실시예와 동일한 구성 요소는 동일한 도면 부호를 부여하고, 반복되는 설명은 간략하게 한다.
본 실시예에 따른 센싱 데이터 처리 방법은 이전 실시예의 센싱 데이터 처리 방법과 비교하여 고해상도 센싱 데이터를 생성하는 과정을 제외하고는 나머지는 실질적으로 동일하다.
도 2, 도 4b 및 도 5를 참조하면, 상기 제1 저장부(312)는 상기 센싱 리드아웃부(321)로부터 수신된 저해상도 센싱 데이터를 저장한다(단계 S110).
연속하는 제K-2, 제K-1 및 제K 저해상도 데이터 프레임들(LDFK-2, LDFK-1, LDFK)을 이용하여 제1 및 제2 움직임 벡터들(MV1, MV2)을 산출한다(단계 S120).
상기 제1 및 제2 움직임 벡터들(MV1, MV2)을 이용하여 상기 제K-2, 제K-1 및 제K 프레임 터치 화면들(LFK-2, LFK-1, LFK)에 포함된 피대상물들(OB1, OB2, OB3)을 서로 중첩시켜 상기 피대상물들의 위치를 서로 맞춘다. 즉, 도 4b에 도시된 바와 같이, 상기 제K-2, 제K-1 및 제K 저해상도 데이터 프레임들(LDFK-2, LDFK-1, LDFK) 각각에 포함된 상기 피대상물의 센싱 데이터를 서로 중첩하여 중첩 데이터 프레임(ODF)을 생성한다(단계 S130).
상기 중첩 데이터 프레임(ODF)의 센싱 데이터를 이용하여 전체 터치 화면 중 상기 피대상물을 포함하는 제1 영역의 센싱 데이터를 고해상도의 데이터로 맵핑한다(단계 S240). 상기 터치 화면 중 제1 영역을 제외한 나머지 영역의 센싱 데이터는 고해상도의 데이터로 맵핑하지 않는다.
예를 들면, 상기 제2 영역의 데이터는 상기 제K-2, 제K-1 및 제K 저해상도 데이터 프레임들 중 마지막 저해상도 데이터 프레임의 데이터를 적용할 수 있다. 또는 상기 제2 영역의 데이터는 생략할 수 있다.
상기 피대상물에 대응하는 센싱 데이터만 고해상도로 맵핑한 후, 상기 제2 저장부(315)에 저장된 학습데이터를 이용하여 부자연스러운 윤곽을 보정한다.
본 실시예에 따르면, 이전 실시예와 같이 전체 터치 화면의 센싱 데이터를 고해상도로 맵핑하는 방법과 비교하여 상기 피대상물을 포함하는 일부 영역의 센싱 데이터만을 고해상도로 맵핑함으로써 고속화를 도모할 수 있다.
상기 위치 검출부(319)는 상기 고해상도로 맵핑된 상기 피대상물의 센싱 데이터를 이용하여 상기 피대상물의 터치 위치 데이터(PD)를 검출한다(단계 S250).
본 실시예와 같이, 연속되는 복수의 저해상도 데이터 프레임들(LDFK-2, LDFK-1, LDFK)을 이용하여 고해상도 데이터 프레임(HDFK)을 생성함으로써 상기 피대상물에 대한 정밀한 센싱 데이터를 얻을 수 있다. 결과적으로, 터치 화면에 터치된 상기 피대상물의 접촉 위치을 정확하게 검출할 수 있다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100 : 표시 센서 패널부 200 : 영상 표시 구동부
300 : 터치 센싱 구동부 210 : 표시 제어부
220 : 화소 구동부 310 : 센싱 제어부
320 : 센싱 구동부 311 : 센싱제어신호 생성부
312 : 제1 저장부 313 : 움직임 벡터 산출부
314 : 위치 맞춤부 315 : 제2 저장부
316 : 고해상도 데이터 생성부

Claims (17)

  1. 연속하는 복수의 저해상도 데이터 프레임들을 이용하여 복수의 움직임 벡터들을 산출하는 단계;
    상기 움직임 벡터들을 이용하여 상기 저해상도 데이터 프레임들에 포함된 피대상물의 센싱 데이터를 서로 중첩하는 단계;
    상기 중첩된 센싱 데이터를 이용하여 고해상도의 데이터로 맵핑하는 단계; 및
    상기 고해상도의 데이터를 이용하여 상기 피대상물의 터치 위치 데이터를 검출하는 단계를 포함하는 센싱 데이터 처리 방법.
  2. 제1항에 있어서, 기저장된 상기 피대상물의 학습데이터를 이용하여 상기 고해상도의 데이터를 보정하는 단계를 더 포함하는 센싱 데이터 처리 방법.
  3. 제1항에 있어서, 상기 센싱 데이터는 다계조 데이터인 것을 특징으로 하는 센싱 데이터 처리 방법.
  4. 제1항에 있어서, 상기 고해상도의 데이터 이격 거리는 상기 저해상도의 데이터 이격 거리의 1/2배인 것을 특징으로 하는 센싱 데이터 처리 방법.
  5. 제1항에 있어서, 상기 고해상도의 데이터로 맵핑하는 단계는
    터치 화면 전체에 대응하는 저해상도의 데이터를 상기 고해상도의 데이터로 맵핑하는 것을 특징으로 하는 센싱 데이터 처리 방법.
  6. 제1항에 있어서, 상기 고해상도의 데이터로 맵핑하는 단계는
    터치 화면 중 상기 피대상물을 포함하는 제1 영역의 데이터를 상기 고해상도의 데이터로 맵핑하는 것을 특징으로 하는 센싱 데이터 처리 방법.
  7. 제6항에 있어서, 상기 고해상도의 데이터로 맵핑하는 단계는
    상기 터치 화면 중 상기 제1 영역을 제외한 나머지 제2 영역의 데이터는 상기 저해상도 데이터 프레임들 중 마지막 저해상도 데이터 프레임의 데이터를 적용하는 단계를 더 포함하는 센싱 데이터 처리 방법.
  8. 제6항에 있어서, 상기 고해상도의 데이터로 맵핑하는 단계는
    상기 터치 화면 중 상기 제1 영역을 제외한 나머지 제2 영역의 데이터는 생략하는 단계를 더 포함하는 센싱 데이터 처리 방법.
  9. 영상을 표시하는 화소부 및 피대상물의 터치를 센싱하는 센서부를 포함하는 표시 센서 패널부;
    상기 화소부를 구동하는 표시 구동부;
    상기 센서부를 구동하는 상기 센싱 구동부; 및
    상기 센싱 구동부로부터 제공된 복수의 저해상도 데이터 프레임들로부터 산출된 복수의 움직임 벡터들을 이용하여 상기 저해상도 데이터 프레임들에 포함된 피대상물의 센싱 데이터를 서로 중첩하고, 상기 중첩된 센싱 데이터를 이용하여 고해상도의 데이터로 맵핑하는 센싱 제어부를 포함하는 표시 장치.
  10. 제9항에 있어서, 상기 센싱 제어부는
    연속하는 복수의 저해상도 데이터 프레임들을 이용하여 복수의 움직임 벡터들을 산출하는 움직임 벡터 산출부;
    상기 움직임 벡터들을 이용하여 상기 저해상도 데이터 프레임들에 포함된 피대상물의 센싱 데이터를 서로 중첩하는 위치 맞춤부;
    상기 중첩된 센싱 데이터를 이용하여 고해상도의 데이터로 맵핑하는 고해상도 데이터 생성부; 및
    상기 고해상도의 데이터를 이용하여 상기 피대상물의 터치 위치 데이터를 검출하는 위치 검출부를 포함하는 표시 장치.
  11. 제10항에 있어서, 상기 고해상도 데이터 생성부는 기저장된 상기 피대상물의 학습 데이터를 이용하여 상기 고해상도의 데이터를 보정하는 것을 특징으로 하는 표시 장치.
  12. 제10항에 있어서, 상기 센서부는 다계조 데이터를 센싱하는 터치 센서를 포함하는 표시 장치.
  13. 제10항에 있어서, 상기 고해상도의 데이터 이격 거리는 상기 저해상도의 데이터 이격 거리의 1/2배인 것을 특징으로 하는 표시 장치.
  14. 제10항에 있어서, 상기 고해상도 데이터 생성부는 상기 표시 센서 패널부의 터치 화면 전체에 대응하는 저해상도의 데이터를 상기 고해상도의 데이터로 맵핑하는 것을 특징으로 표시 장치.
  15. 제10항에 있어서, 상기 고해상도 데이터 생성부는
    상기 표시 센서 패널부의 터치 화면 중 상기 피대상물을 포함하는 제1 영역의 데이터를 상기 고해상도의 데이터로 맵핑하는 것을 특징으로 하는 표시 장치.
  16. 제15항에 있어서, 상기 고해상도 데이터 생성부는
    상기 터치 화면 중 상기 제1 영역을 제외한 나머지 제2 영역의 데이터는 상기 저해상도 데이터 프레임들 중 마지막 저해상도 데이터 프레임의 데이터를 적용하는 것을 특징으로 하는 표시 장치.
  17. 제15항에 있어서, 상기 고해상도 데이터 생성부는
    상기 터치 화면 중 상기 제1 영역을 제외한 나머지 제2 영역의 데이터는 생략하는 것을 특징으로 하는 표시 장치.
KR1020130040745A 2013-04-15 2013-04-15 센싱 데이터 처리 방법 및 이를 수행하는 표시 장치 KR20140124031A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130040745A KR20140124031A (ko) 2013-04-15 2013-04-15 센싱 데이터 처리 방법 및 이를 수행하는 표시 장치
US14/107,539 US9081433B2 (en) 2013-04-15 2013-12-16 Method of processing touch-sensor data and apparatus for performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130040745A KR20140124031A (ko) 2013-04-15 2013-04-15 센싱 데이터 처리 방법 및 이를 수행하는 표시 장치

Publications (1)

Publication Number Publication Date
KR20140124031A true KR20140124031A (ko) 2014-10-24

Family

ID=51686446

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130040745A KR20140124031A (ko) 2013-04-15 2013-04-15 센싱 데이터 처리 방법 및 이를 수행하는 표시 장치

Country Status (2)

Country Link
US (1) US9081433B2 (ko)
KR (1) KR20140124031A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190081951A (ko) 2017-12-29 2019-07-09 주식회사 포스코아이씨티 용광로 센싱 데이터 처리 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109154872B (zh) * 2016-03-25 2020-06-30 森赛尔股份有限公司 用于检测和表征表面上的力输入的系统和方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060056634A (ko) 2004-11-22 2006-05-25 삼성전자주식회사 광센서를 내장하는 표시 장치 및 감지 신호 처리 방법
KR20070033532A (ko) 2005-09-21 2007-03-27 삼성전자주식회사 접촉 감지 기능이 있는 표시 장치, 그 구동 장치 및 감지신호 처리 방법
JP4160091B2 (ja) * 2006-12-08 2008-10-01 株式会社スクウェア・エニックス ゲーム装置及びゲーム要素の生成方法、並びにプログラム及び記録媒体
KR20080096975A (ko) 2007-04-30 2008-11-04 안영수 터치스크린의 구동방법
KR20090037535A (ko) 2007-10-12 2009-04-16 한국과학기술연구원 터치스크린의 입력 처리 방법
US8154523B2 (en) * 2007-12-13 2012-04-10 Eastman Kodak Company Electronic device, display and touch-sensitive user interface
US10031549B2 (en) * 2008-07-10 2018-07-24 Apple Inc. Transitioning between modes of input
KR101318756B1 (ko) 2009-02-20 2013-10-16 엘지디스플레이 주식회사 터치정보 처리방법 및 장치와 이를 이용한 평판표시장치
KR101352319B1 (ko) 2009-02-20 2014-01-16 엘지디스플레이 주식회사 터치위치 검출 방법 및 장치와 이를 이용한 평판표시장치
JP5202395B2 (ja) 2009-03-09 2013-06-05 株式会社半導体エネルギー研究所 タッチパネル、電子機器
KR101127334B1 (ko) 2010-01-25 2012-03-29 에이 마이스너 제임스 광고 영상용 프로젝터
KR101120164B1 (ko) 2010-03-16 2012-03-22 주식회사 지니틱스 터치스크린 장치의 동작 방법 및 이를 위한 터치 패널

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190081951A (ko) 2017-12-29 2019-07-09 주식회사 포스코아이씨티 용광로 센싱 데이터 처리 시스템

Also Published As

Publication number Publication date
US20140306901A1 (en) 2014-10-16
US9081433B2 (en) 2015-07-14

Similar Documents

Publication Publication Date Title
KR102223792B1 (ko) 영상왜곡 보정장치 및 보정방법, 이를 포함하는 곡면형 표시장치
JP5485512B2 (ja) 表示装置及びその駆動方法
US9805671B2 (en) Curved display and a driving method thereof
US10915189B2 (en) Display device with built-in touch screen and method for driving the same
KR101700842B1 (ko) 디스플레이 장치 및 디스플레이 장치의 터치 인식 방법
US8766943B2 (en) Display having touch sensor and method for improving touch performance thereof
KR101661454B1 (ko) 디스플레이 장치 및 디스플레이 장치의 터치 인식 방법
US10838553B2 (en) Display device with touch screen and related operation method involving identifying noise frequency band set
JP5805172B2 (ja) タッチセンサシステムのエッジ部の座標補償方法
KR102308202B1 (ko) 터치 스크린 표시 장치 및 그의 구동방법
JP2015072549A (ja) タッチパネル付液晶表示装置
KR20140074454A (ko) 디스플레이 장치 및 디스플레이 장치의 터치 인식 방법
JP2012043394A (ja) タッチパネル、タッチパネルの駆動方法、接触情報取得プログラム及び記録媒体
KR20140074133A (ko) 디스플레이 장치 및 디스플레이 장치의 터치 인식 방법
JP2017182185A (ja) タッチ検出機能付き表示装置及び制御方法
JP2015007924A (ja) タッチパネル付液晶表示装置
KR101419251B1 (ko) 터치 센서를 갖는 액정 표시 장치 및 그 구동 방법
KR20140124031A (ko) 센싱 데이터 처리 방법 및 이를 수행하는 표시 장치
JP2016061858A (ja) 画像表示パネル、画像表示装置及び電子機器
US10241608B2 (en) Display device and driving method for display device using the same
KR20130017888A (ko) 터치 위치의 중심좌표 추출방법 및 그를 이용한 터치표시장치
US20140368448A1 (en) Multi-touch system and method for processing multi-touch signal
KR102460241B1 (ko) 차량 핸들 장착용 표시장치
WO2021241057A1 (ja) 液晶表示装置
JP5120246B2 (ja) タッチパネル装置及びそのタッチ位置検出方法,プログラム

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid