KR20160092130A - 영상 표시 단말기 및 그 터치 제어 방법 - Google Patents

영상 표시 단말기 및 그 터치 제어 방법 Download PDF

Info

Publication number
KR20160092130A
KR20160092130A KR1020150012307A KR20150012307A KR20160092130A KR 20160092130 A KR20160092130 A KR 20160092130A KR 1020150012307 A KR1020150012307 A KR 1020150012307A KR 20150012307 A KR20150012307 A KR 20150012307A KR 20160092130 A KR20160092130 A KR 20160092130A
Authority
KR
South Korea
Prior art keywords
touch
area
widget
screen
region
Prior art date
Application number
KR1020150012307A
Other languages
English (en)
Inventor
이호응
Original Assignee
삼성디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성디스플레이 주식회사 filed Critical 삼성디스플레이 주식회사
Priority to KR1020150012307A priority Critical patent/KR20160092130A/ko
Priority to US14/850,484 priority patent/US20160216828A1/en
Publication of KR20160092130A publication Critical patent/KR20160092130A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04164Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • G06F3/041661Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving using detection at multiple resolutions, e.g. coarse and fine scanning; using detection within a limited area, e.g. object tracking window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper

Abstract

영상 표시 단말기의 터치 제어 방법은 터치스크린에서 표시되는 화면 내의 제1 영역에서 제1 위젯을 표시하고, 상기 화면 내의 상기 제1 영역과 서로 다른 제2 영역에서 제2 위젯을 표시하는 단계; 상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책을 추출하는 단계; 및 상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책에 기초하여 상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계를 포함한다.

Description

영상 표시 단말기 및 그 터치 제어 방법{IMAGE DISPLAY TERMINAL AND METHOD FOR CONTROLLING TOUCH THEREOF}
본 발명은 영상 표시 단말기 및 그 터치 제어 방법에 관한 것이다.
스마트폰, PDA, 및 태블릿 PC와 같은 단말기 사용이 보편화되고 있다. 이와 같은 단말기는 터치스크린 패널을 채용하므로, 사용자는 터치를 통해 GUI(Graphic User Interface)를 제어할 수 있다.
단말기에서 실행되는 복수 개의 어플리케이션 또는 하나의 어플리케이션의 복수 개의 결과물이 터치스크린 패널의 한 화면에서 복수 개의 영역에서 표시된다. 복수 개의 영역에서 표시되는 작업은 터치 사용 정책이 다를 수 있으나, 터치스크린 패널은 한 화면에 대해 동일한 터치 구동 정책을 적용한다.
이로 인하여 터치스크린 패널의 터치 감지 기능을 효율적으로 활용할 수 없으며, 불필요한 터치 구동 영역의 증가로 인한 소비 전력이 증가할 수 있다.
본 발명은 터치스크린 패널의 터치 감도 또는 터치 반응 속도가 향상되고, 소비 전력이 개선된 영상 표시 단말기 및 그 터치 제어 방법을 제공하는 것을 목적으로 한다.
본 발명의 실시예에 따른 영상 표시 단말기의 터치 제어 방법은, 터치스크린에서 표시되는 화면 내의 제1 영역에서 제1 위젯을 표시하고, 상기 화면 내의 상기 제1 영역과 서로 다른 제2 영역에서 제2 위젯을 표시하는 단계; 상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책을 추출하는 단계; 및 상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책에 기초하여 상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계를 포함할 수 있다.
상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계는, 상기 제1 영역과 상기 제2 영역이 서로 다른 터치 감도를 갖도록 제어할 수 있다.
상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계는, 상기 제1 영역과 상기 제2 영역이 서로 다른 터치 반응 속도를 갖도록 제어할 수 있다.
상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계는, 상기 제1 영역에 제1 방향으로 배치된 터치 라인들 중 스캔 구동되는 터치 라인들의 제1 비율과 상기 제2 영역에 상기 제1 방향으로 배치된 터치 라인들 중 스캔 구동되는 터치 라인들의 제2 비율을 서로 다르게 제어할 수 있다.
상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계는, 상기 제1 영역의 터치 감지를 활성화하고, 상기 제2 영역의 터치 감지를 비활성화할 수 있다.
영상 표시 단말기의 터치 제어 방법은 상기 화면의 내용이 변경되었는지 판단하는 단계를 더 포함할 수 있다. 상기 화면의 내용이 변경된 경우, 상기 화면 내의 제1 영역에서 제1 위젯을 표시하고, 상기 화면 내의 상기 제1 영역과 서로 다른 제2 영역에서 제2 위젯을 표시하는 단계로 진행할 수 있다.
상기 화면의 내용이 변경되었는지 판단하는 단계는, 상기 제1 영역 및 상기 제2 영역 중 적어도 하나가 변경되었는지 판단하는 단계; 및 상기 제1 위젯 및 상기 제2 위젯 중 적어도 하나가 변경되었는지 판단하는 단계를 포함할 수 있다.
상기 화면의 내용이 변경되었는지 판단하는 단계는, 상기 제1 영역 및 상기 제2 영역 중 적어도 하나가 변경되거나 상기 제1 위젯 및 상기 제2 위젯 중 적어도 하나가 변경되면 상기 화면의 내용이 변경된 것으로 판단할 수 있다.
본 발명의 실시예에 따른 영상 표시 단말기는 터치스크린 패널, 터치 구동부, 윈도우 매니저, 및 터치 매니저를 포함할 수 있다.
터치스크린 패널은 제1 영역에서 제1 위젯을 표시하고, 상기 제1 영역과 서로 다른 제2 영역에서 제2 위젯을 표시하고, 입력된 터치 이벤트를 감지할 수 있다.
터치 구동부는 상기 터치스크린 패널의 터치 감지를 제어하고, 상기 터치 이벤트의 좌표를 생성할 수 있다.
윈도우 매니저는 상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책을 관리할 수 있다.
터치 매니저는 상기 윈도우 매니저로부터 상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책을 추출하여 상기 터치 구동부에 제공할 수 있다.
상기 터치 구동부는 상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책에 기초하여 상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어할 수 있다.
상기 터치 구동부는 상기 제1 영역과 상기 제2 영역이 서로 다른 터치 감도를 갖도록 제어할 수 있다.
상기 터치 구동부는 상기 제1 영역과 상기 제2 영역이 서로 다른 터치 반응 속도를 갖도록 제어할 수 있다.
상기 터치스크린 패널은 제1 방향으로 배치된 복수의 터치 라인들을 포함할 수 있다. 상기 터치 구동부는 상기 제1 영역에 배치된 상기 터치 라인들 중 스캔 구동되는 터치 라인들의 제1 비율과 상기 제2 영역에 배치된 상기 터치 라인들 중 스캔 구동되는 터치 라인들의 제2 비율을 서로 다르게 제어할 수 있다.
상기 터치 구동부는 상기 제1 영역의 터치 감지를 활성화하고, 상기 제2 영역의 터치 감지를 비활성화할 수 있다.
상기 터치스크린 패널은 영상을 표시하는 표시 유닛과 상기 터치 이벤트를 감지하는 터치 유닛을 포함할 수 있다.
본 발명의 영상 표시 단말기 및 그 터치 제어 방법에 의하면, 터치스크린 패널의 터치 감도 또는 터치 반응 속도를 향상시키고, 소비 전력을 개선할 수 있다.
도 1은 본 발명의 실시예에 따른 영상 표시 단말기를 도시한 블록도이다.
도 2는 도 1의 터치 유닛을 예시적으로 도시한 도면이다.
도 3은 도 1의 실행중인 어플리케이션이 표시된 터치스크린 패널을 도시한 도면이다.
도 4는 본 발명의 실시예에 따른 영상 표시 단말기의 터치 제어 방법을 도시한 순서도이다.
도 5는 도 4의 S130 단계를 도시한 순서도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 실시예에 따른 영상 표시 단말기를 도시한 블록도이고, 도 2는 도 1의 터치 유닛을 예시적으로 도시한 도면이다.
영상 표시 단말기(1000)는 이동통신 단말기, 핸드헬드 컴퓨터(handheld computer), 태블릿(tablet) 컴퓨터, 멀티미디어 플레이어(Multimedia Player; PMP), 개인 정보 단말기(Personal Digital Assistant; PDA), 스마트 폰(Smart Phone), MP3 플레이어 등과 같은 정보 통신 기기 및 멀티미디어 기기로 구성될 수 있다.
영상 표시 단말기(1000)는 하드 웨어와 소프트 웨어로 구현될 수 있다.
영상 표시 단말기(1000)는 터치스크린 패널(100), 터치 구동부(200), 및 어플리케이션 프로세서(300)를 포함할 수 있다.
터치스크린 패널(100)은 영상을 표시하는 표시 유닛(110)과 입력된 터치를 인식하는 터치 유닛(120)을 포함할 수 있다. 상기 터치 스크린 패널(100)은 플렉시블할 수 있다.
표시 유닛(110)은 액정 표시패널(LCD, Liquid Crystal Display Panel), 유기 발광 표시패널(OLED, Organic Light Emitting Display Panel), 플라즈마 표시패널(plasma display panel), 전기영동 표시패널(electrophoretic display panel), 및 일렉트로웨팅 표시패널(electrowetting display panel) 등으로 형성될 수 있으며, 영상 표시 단말기(1000)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공한다.
터치 유닛(120)은 사용자에 의해 발생한 터치 이벤트를 인식한다. 터치 유닛(120)은 정전용량 방식(capacitive overlay), 압력식 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성될 수 있다.
도 2를 참조하여 정전 용량 방식의 터치 유닛(120)의 구조를 예시적으로 설명한다. 터치 유닛(120)은 기판(SB) 상에 형성된 제1 터치 라인들(RX) 및 제2 터치 라인들(TX)을 포함할 수 있다. 기판(SB)은 표시 유닛(110) 상에 배치되거나, 표시 유닛(110)에 포함된 기판일 수 있다.
제1 터치 라인들(RX)은 제1 방향(DR1)으로 연장될 수 있다. 제1 터치 라인들(RX)은 복수 개로 구비될 수 있으며, 제1 방향(DR1)에 교차하는 제2 방향(DR2)으로 서로 이격될 수 있다.
제2 터치 라인들(TX)은 제2 방향(DR2)으로 연장될 수 있다. 제2 터치 라인들(TX)은 복수개로 구비될 수 있으며, 제1 방향(DR1)으로 서로 이격될 수 있다. 상기 제1 터치 라인들(RX) 및 상기 제2 터치 라인들(TX)은 서로 절연될 수 있다.
터치 유닛(120)은 제1 터치 라인들(RX)과 제2 터치 라인들(TX)이 형성하는 커패시터의 커패시턴스 변화량을 기초로 터치 입력을 인식할 수 있다.
터치 구동부(200)는 상기 터치스크린 패널(100)의 터치 감지와 관련된 동작을 제어할 수 있다. 터치 구동부(200)는 터치 유닛(120)을 구동하고, 터치 유닛(120)에서 발생한 터치 이벤트의 좌표를 생성할 수 있다.
터치 구동부(200)는 제1 터치 라인들(RX) 및 제2 터치 라인들(TX)을 스캔 구동할 수 있다. 터치 구동부(200)는 제1 터치 라인들(RX)에 제1 터치 신호들을 제공하고, 제1 터치 신호들의 딜레이 값을 산출하여 발생된 터치 이벤트의 제2 방향(DR2) 좌표를 인식할 수 있다. 또한, 터치 구동부(200)는 제2 터치 라인들(TX)에 제2 터치 신호들을 제공하고, 제2 터치 신호들의 딜레이 값을 산출하여 발생된 터치 이벤트의 제1 방향(DR1) 좌표를 인식할 수 있다.
터치 구동부(200)는 집적 회로 칩의 형태로 터치스크린 패널(100)에 직접 실장되거나, 가요성 인쇄회로기판(flexible printed circuit board) 위에 장착되어 TCP(tape carrier package)의 형태로 터치스크린 패널(100)에 부착되거나, 별도의 인쇄회로기판(printed circuit board) 위에 장착될 수 있다.
어플리케이션 프로세서(300)는 영상 표시 단말기(1000)의 제반 동작을 제어하고, 논리 연산을 수행할 수 있다. 어플리케이션 프로세서(300)는 터치 구동부(200)로부터 터치 이벤트의 좌표를 수신할 수 있고, 터치 구동부(200)에 실행중인 어플리케이션(600)의 터치 사용 정책을 제공할 수 있다.
소프트웨어는 운영체제(400), 미들웨어(500), 및 어플리케이션(600)을 포함할 수 있다. 소프트웨어는 영상 표시 단말기(1000)의 메모리(미도시)에 저장될 수 있다.
운영체제(400)는 어플리케이션(600)과 어플리케이션 프로세서(300) 사이 또는 미들웨어(500)와 어플리케이션 프로세서(300) 사이의 인터페이스 역할을 한다. 예시적으로, 어플리케이션 프로세서(300)는 운영체제(400)를 통해 미들웨어(500)로부터 실행중인 어플리케이션(600)의 터치 사용 정책을 수신할 수 있다.
미들웨어(500)는 어플리케이션(600)과 운영체제(400) 사이에서 중계 역할을 하는 소프트웨어이다. 어플리케이션(600)과 운영체제(400)는 미들웨어(500)를 통해 데이터를 교환할 수 있다. 다만, 이에 제한되는 것은 아니고, 미들웨어(500)의 기능은 하드웨어로 구현될 수도 있을 것이다.
미들웨어(500)는 윈도우 매니저(510)와 터치 매니저(520)를 포함할 수 있다.
윈도우 매니저(510)는 어플리케이션(600)으로부터 출력 화면에 대한 요청들을 수신하고, 수신된 출력 화면에 대한 요청들을 조합하여 터치스크린 패널(100)에 표시될 하나의 영상을 생성한다.
윈도우 매니저(510)는 터치스크린 패널(100)에 표시된 실행중인 어플리케이션(600)에서 특정 작업이 실행될 입력 데이터와 입력 데이터에 따라 실행될 작업에 대한 정보를 가질 수 있다. 예를 들어, 이벤트가 발생할 입력 데이터는 터치 이벤트가 발생한 특정 터치 좌표일 수 있다. 윈도우 매니저(510)는 터치스크린 패널(100)에 표시된 실행중인 어플리케이션(600)의 터치 사용 정책에 대한 정보를 가질 수 있다.
터치 매니저(520)는 윈도우 매니저(510)로부터 터치스크린 패널(100)에 표시된 실행중인 어플리케이션(600)의 터치 사용 정책을 추출할 수 있다. 터치 매니저(520)는 추출된 터치 사용 정책을 운영체제(400) 및 어플리케이션 프로세서(300)를 통해 터치 구동부(200)에 제공할 수 있다.
도 3은 도 1의 실행중인 어플리케이션이 표시된 터치스크린 패널을 도시한 도면이다.
도 1 및 도 3을 참조하여 영상 표시 단말기에서 실행중인 어플리케이션은 메모 어플리케이션인 것을 일 예로 도시하였다.
메모 어플리케이션이 실행되면, 제1 위젯이 터치스크린 패널(100)의 제1 영역(AR1)에서 표시되고, 제2 위젯이 터치스크린 패널(100)의 제2 영역(AR2)에서 표시될 수 있다. 예시적으로, 제1 위젯은 터치에 의해 입력되는 키패드일 수 있다. 예시적으로, 제2 위젯은 제1 위젯으로부터 입력된 결과물을 출력할 수 있다.
제1 위젯과 제2 위젯은 서로 다른 터치 사용 정책을 가질 수 있다. 예시적으로, 제1 위젯은 사용자의 손가락을 감지할 수 있을 정도의 터치 감도로 충분하나 터치에 따른 빠른 반응속도가 필요할 수 있다. 예시적으로, 제2 위젯은 터치 이벤트가 발생하더라도 실행할 작업이 없으므로, 터치 좌표를 수신할 필요가 없을 수 있다.
윈도우 매니저(510)는 제1 위젯과 제2 위젯의 터치 사용 정책을 관리할 수 있다. 터치 매니저(520)는 윈도우 매니저(510)로부터 제1 위젯과 제2 위젯의 터치 사용 정책을 추출하고, 추출된 제1 위젯과 제2 위젯의 터치 사용 정책을 운영체제(400) 및 어플리케이션 프로세서(300)를 통해 터치 구동부(200)에 제공할 수 있다.
터치 구동부(200)는 제1 위젯과 제2 위젯의 터치 사용 정책에 기초하여 제1 영역(AR1)과 제2 영역(AR2)의 터치 구동 특성을 개별적으로 제어할 수 있다.
상기 터치 구동부(200)는 제1 영역(AR1)과 제2 영역(AR2)이 서로 다른 터치 감도를 갖도록 제어할 수 있다. 또한, 상기 터치 구동부(200)는 제1 영역(AR1)과 제2 영역(AR2)이 서로 다른 터치 반응 속도를 갖도록 제어할 수 있다. 터치 구동부(200)는 제1 영역(AR1)의 터치 감지를 비활성화하고, 제2 영역(AR2)의 터치 감지를 활성화할 수 있다.
예시적으로, 터치 구동부(200)는 제1 위젯의 터치 사용 정책에 따라 제1 영역(AR1)의 터치 감도를 비교적 낮게 제어하고 반응속도를 비교적 높게 제어할 수 있다. 또한, 터치 구동부(200)는 제2 위젯의 터치 사용 정책에 따라 제2 영역(AR2)의 터치 감지를 비활성화하여 제2 영역(AR2)에서 발생하는 터치 이벤트를 인식하지 않을 수 있다.
터치 구동부(200)는 제1 영역(AR1) 및 제2 영역(AR2) 각각 내에 배치된 제1 터치 라인들(RX) 및 제2 터치 라인들(TX) 중 스캔 구동하는 제1 터치 라인들의 개수 및 제2 터치 라인들의 개수를 조절하여 터치 감도와 터치 반응 속도를 제어할 수 있다. 스캔 구동하는 제1 터치 라인들의 개수 및 스캔 구동하는 제2 터치 라인들의 개수가 많아질수록 터치 감도는 향상되고, 터치 반응 속도는 감소될 수 있다.
도 2 및 도 3을 참조하면, 제1 영역(AR1) 및 제2 영역(AR2)에는 제1 방향(DR1)으로 연장되는 복수개의 제1 터치 라인들(RX)이 배치될 수 있다. 터치 구동부(200)는 제1 영역(AR1)에 배치된 제1 터치 라인들(RX) 중 스캔 구동되는 제1 터치 라인들의 제1 비율과 제2 영역(AR2)에 배치된 제1 터치 라인들(RX) 중 스캔 구동되는 제1 터치 라인들의 제2 비율을 서로 다르게 제어할 수 있다. 예를 들어, 제1 영역(AR1) 및 제2 영역(AR2) 각각에 5개의 제1 터치 라인들(RX)이 배치되는 경우를 가정한다. 터치 구동부(200)는 제1 영역(AR1)에 배치된 5개의 제1 터치 라인들을 모두 스캔 구동하지 않아 제1 비율을 0%로 제어할 수 있다. 이때, 터치 구동부(200)는 제2 영역(AR2)에 배치된 5개의 제1 터치 라인들 중 3개의 제1 터치 라인들을 스캔 구동하여 제2 비율을 60%로 제어할 수 있다.
도 3에 도시된 제1 영역(AR1) 및 제2 영역(AR2)의 경우, 제2 방향(DR2)으로 서로 인접하여 제2 터치 라인들(TX) 각각을 공유하므로, 제1 영역(AR1)에 배치된 제2 터치 라인들(Tx)의 스캔 구동 비율과 제2 영역(AR2)에 배치된 제2 터치 라인들(TX)의 스캔 구동 비율은 서로 동일할 수 있다. 다만, 도 3과 달리, 제1 영역(AR1) 및 제2 영역(AR2)이 제2 방향(DR2)으로 서로 인접하지 않고, 터치 라인들(TX) 각각을 공유하지 않는 경우, 터치 구동부(200)는 제1 영역(AR1)에 배치된 제2 터치 라인들(Tx)의 스캔 구동 비율과 제2 영역(AR2)에 배치된 제2 터치 라인들(TX)의 스캔 구동 비율은 서로 상이하게 제어할 수 있다.
본 발명의 실시예에서, 제1 영역(AR1) 및 제2 영역(AR2)에서 서로 다른 위젯을 실행하는 경우를 예시적으로 설명하였으나, 이에 제한되는 것은 아니다. 터치스크린 패널(100)은 3개 이상의 영역들에서 서로 다른 위젯 또는 어플리케이션을 실행할 수 있고, 터치 구동부(200)는 3개 이상의 영역들 각각에서 실행되는 위젯 또는 어플리케이션의 터치 사용 정책에 따라 3개 이상의 영역들의 터치 구동 특성을 개별적으로 제어할 수 있다.
본 발명의 실시예에서, 터치스크린 패널(100)은 플렉시블할 수 있으므로, 제1 영역(AR1)과 제2 영역(AR2) 사이를 경계로 하여 터치스크린 패널(100)은 휘어질 수도 있을 것이다.
본 발명의 실시예에 따른 영상 표시 단말기에 의하면, 위젯 또는 어플리케이션의 터치 사용 정책에 따라 위젯 또는 어플리케이션이 표시되는 영역의 터치 구동 특성을 개별적으로 제어할 수 있다. 따라서, 터치스크린 패널(100)의 특정 영역에 터치 감지 성능을 집중하여 터치 감도 또는 터치 반응 속도를 향상할 수 있다. 또한, 터치스크린 패널(100)에서 불필요한 터치 구동 영역을 최소화하여 소비 전력을 개선할 수 있다.
도 4는 본 발명의 실시예에 따른 영상 표시 단말기의 터치 제어 방법을 도시한 순서도이고, 도 5는 도 4의 S130 단계를 도시한 순서도이다.
도 1, 도 3 및 도 4를 참조하면, 화면의 제1 영역(AR1)에서 제1 위젯을 표시하고, 제2 영역(AR2)에서 제2 위젯을 표시한다(S100). 제1 영역(AR1)과 제2 영역(AR2)은 터치스크린 패널(100)에서 표시하는 한 화면의 서로 다른 일부 영역들일 수 있다.
윈도우 매니저(510)는 제1 위젯과 제2 위젯 각각의 터치 사용 정책을 관리한다. 터치 매니저(520)는 제1 위젯의 터치 사용 정책과 제2 위젯의 터치 사용 정책을 추출한다(S110). 터치 매니저(520)는 추출된 제1 위젯의 터치 사용 정책과 추출된 제2 위젯의 터치 사용 정책을 운영체제(400) 및 어플리케이션 프로세서(300)를 통해 터치 구동부(200)에 제공할 수 있다.
터치 구동부(200)는 제1 위젯의 터치 사용 정책과 제2 위젯의 터치 사용 정책에 기초하여 제1 영역(AR1)과 제2 영역(AR2)의 터치 구동 특성을 개별적으로 제어한다(S120). 구체적인 내용은 도 1 내지 도 3을 참조하여 설명하였으므로, 생략한다.
이후, 화면의 내용이 변경되었는지 여부를 판단한다(S130). S130 단계는 제1 영역(AR1) 및 제2 영역(AR2) 중 적어도 하나가 변경되었는지 판단하는 단계(S131); 및 제1 위젯 및 제2 위젯 중 적어도 하나가 변경되었는지 판단하는 단계(S133)를 포함할 수 있다.
S131 단계는 제1 영역(AR1) 및 제2 영역(AR2) 중 적어도 하나의 위치 또는 크기가 변경된 것되었는지 판단한다. S133 단계는 제1 위젯 및 제2 위젯 중 적어도 하나가 종료되거나, 다른 작업으로 전환되거나, 터치 사용 정책이 변경되었는지 판단한다.
S130 단계는 제1 영역(AR1) 및 제2 영역(AR2) 중 적어도 하나가 변경되거나 제1 위젯 및 제2 위젯 중 적어도 하나가 변경되면 화면의 내용이 변경된 것으로 판단한다. S130 단계에서, 화면의 내용이 변경된 것으로 판단하면, S100 단계로 진행한다. S130 단계에서, 화면의 내용이 변경되지 않은 것으로 판단하면, 제1 영역(AR1)과 제2 영역(AR2)의 터치 구동 특성을 유지한다.
한편 본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형을 할 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다. 따라서, 그러한 변형예 또는 수정예들은 본 발명의 특허청구범위에 속한다 해야 할 것이다.
100: 터치스크린 패널 110: 표시 유닛
120: 터치 유닛 200: 터치 구동부
300: 어플리케이션 프로세서 400: 운영체제
500: 미들웨어 510: 윈도우 매니저
520: 터치 매니저 600: 어플리케이션

Claims (14)

  1. 터치스크린에서 표시되는 화면 내의 제1 영역에서 제1 위젯을 표시하고, 상기 화면 내의 상기 제1 영역과 서로 다른 제2 영역에서 제2 위젯을 표시하는 단계;
    상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책을 추출하는 단계; 및
    상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책에 기초하여 상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계를 포함하는 영상 표시 단말기의 터치 제어 방법.
  2. 제1항에 있어서,
    상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계는
    상기 제1 영역과 상기 제2 영역이 서로 다른 터치 감도를 갖도록 제어하는 영상 표시 단말기의 터치 제어 방법.
  3. 제1항에 있어서,
    상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계는
    상기 제1 영역과 상기 제2 영역이 서로 다른 터치 반응 속도를 갖도록 제어하는 영상 표시 단말기의 터치 제어 방법.
  4. 제1항에 있어서,
    상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계는,
    상기 제1 영역에 제1 방향으로 배치된 터치 라인들 중 스캔 구동되는 터치 라인들의 제1 비율과 상기 제2 영역에 상기 제1 방향으로 배치된 터치 라인들 중 스캔 구동되는 터치 라인들의 제2 비율을 서로 다르게 제어하는 영상 표시 단말기의 터치 제어 방법.
  5. 제1항에 있어서,
    상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 단계는, 상기 제1 영역의 터치 감지를 활성화하고, 상기 제2 영역의 터치 감지를 비활성화하는 영상 표시 단말기의 터치 제어 방법.
  6. 제1항에 있어서,
    상기 화면의 내용이 변경되었는지 판단하는 단계를 더 포함하고,
    상기 화면의 내용이 변경된 경우, 상기 화면 내의 제1 영역에서 제1 위젯을 표시하고, 상기 화면 내의 상기 제1 영역과 서로 다른 제2 영역에서 제2 위젯을 표시하는 단계로 진행하는 영상 표시 단말기의 터치 제어 방법.
  7. 제6항에 있어서,
    상기 화면의 내용이 변경되었는지 판단하는 단계는,
    상기 제1 영역 및 상기 제2 영역 중 적어도 하나가 변경되었는지 판단하는 단계; 및
    상기 제1 위젯 및 상기 제2 위젯 중 적어도 하나가 변경되었는지 판단하는 단계를 포함하는 영상 표시 단말기의 터치 제어 방법.
  8. 제7항에 있어서,
    상기 화면의 내용이 변경되었는지 판단하는 단계는, 상기 제1 영역 및 상기 제2 영역 중 적어도 하나가 변경되거나 상기 제1 위젯 및 상기 제2 위젯 중 적어도 하나가 변경되면 상기 화면의 내용이 변경된 것으로 판단하는 영상 표시 단말기의 터치 제어 방법.
  9. 제1 영역에서 제1 위젯을 표시하고, 상기 제1 영역과 서로 다른 제2 영역에서 제2 위젯을 표시하고, 입력된 터치 이벤트를 감지하는 터치스크린 패널;
    상기 터치스크린 패널의 터치 감지를 제어하고, 상기 터치 이벤트의 좌표를 생성하는 터치 구동부;
    상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책을 관리하는 윈도우 매니저; 및
    상기 윈도우 매니저로부터 상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책을 추출하여 상기 터치 구동부에 제공하는 터치 매니저를 포함하고,
    상기 터치 구동부는 상기 제1 위젯의 터치 사용 정책과 상기 제2 위젯의 터치 사용 정책에 기초하여 상기 제1 영역과 상기 제2 영역의 터치 구동 특성을 개별적으로 제어하는 영상 표시 단말기.
  10. 제9항에 있어서,
    상기 터치 구동부는 상기 제1 영역과 상기 제2 영역이 서로 다른 터치 감도를 갖도록 제어하는 영상 표시 단말기.
  11. 제9항에 있어서,
    상기 터치 구동부는 상기 제1 영역과 상기 제2 영역이 서로 다른 터치 반응 속도를 갖도록 제어하는 영상 표시 단말기.
  12. 제9항에 있어서,
    상기 터치스크린 패널은 제1 방향으로 배치된 복수의 터치 라인들을 포함하고,
    상기 터치 구동부는 상기 제1 영역에 배치된 상기 터치 라인들 중 스캔 구동되는 터치 라인들의 제1 비율과 상기 제2 영역에 배치된 상기 터치 라인들 중 스캔 구동되는 터치 라인들의 제2 비율을 서로 다르게 제어하는 영상 표시 단말기.
  13. 제9항에 있어서,
    상기 터치 구동부는 상기 제1 영역의 터치 감지를 활성화하고, 상기 제2 영역의 터치 감지를 비활성화하는 영상 표시 단말기.
  14. 제9항에 있어서,
    상기 터치스크린 패널은 영상을 표시하는 표시 유닛과 상기 터치 이벤트를 감지하는 터치 유닛을 포함하는 영상 표시 단말기.
KR1020150012307A 2015-01-26 2015-01-26 영상 표시 단말기 및 그 터치 제어 방법 KR20160092130A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150012307A KR20160092130A (ko) 2015-01-26 2015-01-26 영상 표시 단말기 및 그 터치 제어 방법
US14/850,484 US20160216828A1 (en) 2015-01-26 2015-09-10 Image display terminal and method of controlling a touch thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150012307A KR20160092130A (ko) 2015-01-26 2015-01-26 영상 표시 단말기 및 그 터치 제어 방법

Publications (1)

Publication Number Publication Date
KR20160092130A true KR20160092130A (ko) 2016-08-04

Family

ID=56434082

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150012307A KR20160092130A (ko) 2015-01-26 2015-01-26 영상 표시 단말기 및 그 터치 제어 방법

Country Status (2)

Country Link
US (1) US20160216828A1 (ko)
KR (1) KR20160092130A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022103208A1 (ko) * 2020-11-12 2022-05-19 삼성전자 주식회사 롤러블 디스플레이를 포함하는 전자 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090027066A (ko) * 2007-09-11 2009-03-16 리디스 테크놀로지 인코포레이티드 터치 패드 구동 장치 및 구동 방법
US9519423B2 (en) * 2011-04-22 2016-12-13 Sony Corporation Information processing apparatus
US9710150B2 (en) * 2014-01-07 2017-07-18 Qualcomm Incorporated System and method for context-based touch processing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022103208A1 (ko) * 2020-11-12 2022-05-19 삼성전자 주식회사 롤러블 디스플레이를 포함하는 전자 장치

Also Published As

Publication number Publication date
US20160216828A1 (en) 2016-07-28

Similar Documents

Publication Publication Date Title
US20200319774A1 (en) Method and apparatus for displaying picture on portable device
US9298296B2 (en) Electronic apparatus and method of control thereof
EP2917814B1 (en) Touch-sensitive bezel techniques
US9720544B2 (en) Techniques for reducing jitter for taps
US9377868B2 (en) Sliding control method and terminal device thereof
WO2019201004A1 (en) Method, apparatus, storage medium, and electronic device of processing split screen display
WO2020010911A1 (zh) 分屏显示的处理方法、装置、存储介质及电子设备
US11003328B2 (en) Touch input method through edge screen, and electronic device
US11314411B2 (en) Virtual keyboard animation
JP2012168890A (ja) 表示装置、通信装置及びプログラム
US20120056831A1 (en) Information processing apparatus, information processing method, and program
US20210055809A1 (en) Method and device for handling event invocation using a stylus pen
US20170160856A1 (en) Smart touch location predictor based on direction vector
KR20200052956A (ko) 디스플레이 처리 방법 및 전자 디바이스
CN112433693A (zh) 分屏显示方法、装置及电子设备
US10338732B2 (en) Displaying method of touch input device
US20120162262A1 (en) Information processor, information processing method, and computer program product
CN105912151B (zh) 触摸感测设备及其驱动方法
US9342170B2 (en) Device and method for delaying adjustment of display content output on a display based on input gestures
CN111596836A (zh) 一种分屏显示方法及电子设备
US10303295B2 (en) Modifying an on-screen keyboard based on asymmetric touch drift
KR20160092130A (ko) 영상 표시 단말기 및 그 터치 제어 방법
KR20150122021A (ko) 디스플레이 대상의 이동 방향 조절 방법 및 단말기
US20160041749A1 (en) Operating method for user interface
KR102591832B1 (ko) 터치 디스플레이 장치, 터치 구동 회로 및 터치 구동 회로의 구동 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application