KR20100027863A - 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법 - Google Patents

터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법 Download PDF

Info

Publication number
KR20100027863A
KR20100027863A KR1020080086951A KR20080086951A KR20100027863A KR 20100027863 A KR20100027863 A KR 20100027863A KR 1020080086951 A KR1020080086951 A KR 1020080086951A KR 20080086951 A KR20080086951 A KR 20080086951A KR 20100027863 A KR20100027863 A KR 20100027863A
Authority
KR
South Korea
Prior art keywords
touch
user
points
key value
terminal
Prior art date
Application number
KR1020080086951A
Other languages
English (en)
Other versions
KR100993508B1 (ko
Inventor
안공혁
Original Assignee
안공혁
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안공혁 filed Critical 안공혁
Priority to KR1020080086951A priority Critical patent/KR100993508B1/ko
Priority to JP2009118903A priority patent/JP2010061636A/ja
Priority to EP09006868A priority patent/EP2166442A1/en
Priority to CN200910203260A priority patent/CN101667081A/zh
Priority to US12/541,854 priority patent/US20100053104A1/en
Publication of KR20100027863A publication Critical patent/KR20100027863A/ko
Application granted granted Critical
Publication of KR100993508B1 publication Critical patent/KR100993508B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Abstract

본 발명은 단말기의 사용자 인터페이스 방법에 관한 것으로, 특히 터치 스크린 혹은 터치 패드 등에 가해지는 사용자의 터치의 궤적 및 방향을 인식하고, 이를 기초로 하여 사용자의 명령을 처리하도록 한 단말기의 사용자 인터페이스 방법에 관한 것이다.
또한, 본 발명의 사용자 인터페이스 방법은 터치 수단을 구비하고, 사용자가 상기 터치 수단을 터치한 위치를 인식하는 단말기에 의해 수행되며, 사용자의 터치가 상기 단말기에 의해 미리 정해진 다수의 외점 중 어느 하나에서 시작하여 상기 다수의 외점에 둘러싸인 상기 단말기에 의해 미리 정해진 내점을 거친 후 상기 다수의 외점 중 어느 하나에서 끝나게 되면, 상기 단말기에 저장되어 있는 터치 대 키값 테이블을 탐색하여 상기 사용자의 터치의 궤적과 방향에 해당하는 키값을 확인하는 (a) 단계; 및 상기 확인된 키값에 해당하는 사용자 명령을 처리하는 (b) 단계를 포함하여 이루어진다.
터치, 궤적, 획, 방향, 인식, 문자, 비문자, 이동통신단말기

Description

터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법{user interface method}
본 발명은 단말기의 사용자 인터페이스 방법에 관한 것으로, 특히 터치 스크린 혹은 터치 패드 등에 가해지는 사용자의 터치의 궤적 및 방향을 인식하고, 이를 기초로 하여 사용자의 명령을 처리하도록 한 단말기의 사용자 인터페이스 방법에 관한 것이다.
주지되어 있는 바와 같이, 단말기의 입력장치로는 키보드(key board), 키패드(key pad), 터치패드(touch pad) 및 터치스크린(touch screen) 등이 있다. 즉, 사용자는 이러한 입력장치를 이용하여 단말기에 문자를 입력하거나 단말기에 설치된 각종 프로그램의 동작을 제어할 수 있는 것이다. 여기서, 문자는 표음문자 및 표의문자 이외에 숫자, 각종 특수기호 따위를 통틀어 일컫는 것이다.
한편, 휴대폰이나 PDA 및 MP3 등과 같이 핸드헬드(handheld) 기반의 단말기의 개발 동향을 보면, 키패드는 소형화되고 그에 반하여 디스플레이 화면은 커져 가는 추세에 있다.
그러나, 키패드의 소형화는 곧, 버튼을 작게 하고 버튼 간의 간격을 촘촘히 한다는 것을 의미하는 것인데, 이렇게 되면 목적 키를 정확히 누르기가 어렵다는 문제점이 있다.
물론, 버튼의 크기는 그대로 두되, 그 수는 줄임으로써 공간의 제약을 극복할 수 있다. 그러나, 이렇게 되면 하나의 버튼에 보다 많은 문자가 할당되어야 한다. 결국, 키 조작의 빈도만 높아질 뿐 편의성은 떨어지는 셈이다. 따라서, 사용자는 특정 문자를 입력하기 위해서는 여러 버튼을 연속하여 눌러야 하는 번거로움이 있다. 또한, 키패드가 비교적 작은 영역을 차지한다 하더라도 키패드의 존재는 디스플레이 화면의 크기를 확대하는데 큰 제약이 된다.
이에 따라, 최근의 단말기에는 입력 장치로써 터치스크린이 많이 채용되고 있다.
그러나, 터치스크린이라 할지라도 화면상에 표현될 수 있는 버튼의 수에는 한계가 있다. 따라서, 위에서 살펴본 바와 같이 하나의 버튼에 많은 수의 문자가 할당될 수밖에 없다.
본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 사용자가 터치 스크린이나 터치 패드를 이용하여 단말기를 조작할 때, 한 번의 획 긋기로 원하는 키 값을 입력할 수 있도록 한 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법을 제공하는데 그 목적이 있다.
전술한 목적을 달성하기 위해 본 발명의 일 실시예에 따른 사용자 인터페이스 방법은 터치 수단을 구비하고, 사용자가 상기 터치 수단을 터치한 위치를 인식하는 단말기에 의해 수행되며, 사용자의 터치가 상기 단말기에 의해 미리 정해진 다수의 외점 중 어느 하나에서 시작하여 상기 다수의 외점에 둘러싸인 상기 단말기에 의해 미리 정해진 내점을 거친 후 상기 다수의 외점 중 어느 하나에서 끝나게 되면, 상기 단말기에 저장되어 있는 터치 대 키값 테이블을 탐색하여 상기 사용자의 터치의 궤적과 방향에 해당하는 키값을 확인하는 (a) 단계; 및 상기 확인된 키값에 해당하는 사용자 명령을 처리하는 (b) 단계를 포함하여 이루어진다.
또한, 상기 (a) 단계에서 확인된 키값이 문자인 경우에는, 상기 (b) 단계는 상기 문자를 표시한다.
또한, 상기 터치 수단이 터치 스크린으로 구현된다면, 상기 단말기는 상기 내점, 상기 다수의 외점, 및 상기 내점과 상기 다수의 외점을 연결하는 가이드 라인을 표시하는 것이 바람직하다.
또한, 상기 터치 수단이 터치 패드로 구현된다면, 상기 터치 패드에는 상기 내점, 상기 다수의 외점, 및 상기 내점과 상기 다수의 외점을 연결하는 가이드 라인이 표시되어 있는 것이 바람직하다.
본 발명의 다른 실시예에 따른 사용자 인터페이스 방법은 터치 수단을 구비하고, 사용자가 상기 터치 수단을 터치한 위치를 인식하는 단말기에 의해 수행되며, 사용자의 터치가 상기 단말기에 의해 미리 정해진 다수의 외점 중 어느 하나에서 시작하여 상기 다수의 외점에 둘러싸인 상기 단말기에 의해 미리 정해진 내점을 거친 후 상기 다수의 외점 중 어느 하나에서 끝나거나, 사용자의 터치가 상기 다수의 외점 중 어느 하나에서 시작하여 상기 내점을 거치지 않고 다른 외점에서 끝나게 되면, 상기 단말기에 저장되어 있는 터치 대 키값 테이블을 탐색하여 상기 사용자의 터치의 궤적과 방향에 해당하는 키값을 확인하는 (a) 단계; 및 상기 확인된 키값에 해당하는 사용자 명령을 처리하는 (b) 단계를 포함하여 이루어진다.
또한, 상기 터치 대 키값 테이블에서 상기 내점을 거치는 사용자의 터치에는 문자 키값이 할당되고, 상기 내점을 거치지 않은 사용자의 터치에는 비문자 키값이 할당되는 것이 바람직하다.
또한, 상기 터치 수단이 터치 스크린으로 구현된다면, 상기 단말기는 상기 내점, 상기 다수의 외점, 및 상기 내점과 상기 다수의 외점을 연결하는 가이드 라인을 표시하는 것이 바람직하다.
또한, 상기 터치 수단이 터치 패드로 구현된다면, 상기 터치 패드에는 상기 내점, 상기 다수의 외점, 및 상기 내점과 상기 다수의 외점을 연결하는 가이드 라인이 표시되어 있는 것이 바람직하다.
이상에서 설명한 바와 같이, 본 발명의 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법에 따르면, 사용자는 터치 스크린이나 터치 패드의 일 부분인 제한된 공간 즉, 다수의 외점에 둘러싸인 공간 내에서 한 번의 획 긋기로 원하는 키값을 입력할 수 있다. 예컨대, 8개의 외점으로 최대 56(8*7)개, 혹은 최대 64(8*8)개의 키값 중 어느 하나를 한 번의 획 긋기로 입력할 수 있다.
따라서, 단말기의 버튼 수는 획기적으로 줄어들면서도, 키 조작의 정확성 및 편의성은 제고되는 효과가 있다.
또한, 한 번의 획 긋기로 원하는 키값을 입력할 수 있다는 것은 한 손으로 단말기를 조작하기가 용이하다는 것이다.
이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따라 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법에 대해서 상세하게 설명한다.
도 1 및 도 2는 각각, 본 발명의 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법이 적용될 수 있는 이동통신단말기와 노트북 컴퓨터의 외관을 보인 사시도이다. 물론, 본 발명이 이러한 외관을 갖는 단말기에 국한되는 것은 아니며, PDA, MP3 플레이어, 전자사전, 리모콘 및 네비게이션 등의 다양한 분야에 적용될 수 있음을 밝혀 둔다.
도 1에 도시한 바와 같이, 본 발명이 적용될 수 있는 이동통신단말기(100)에는 주회로와 안테나가 내장되어 있고, 전면에는 터치스크린(110) 및 키패드(115)가 배치된다.
또한, 이동통신단말기(100)의 전면에는 내부의 스피커(미도시)와 연통되어 있는 스피커 홀(105)과, 내부의 마이크(미도시)와 연통되어 있는 마이크 홀(미도시)이 천공된다.
또한, 배면의 적소, 예를 들어 상부에는 카메라 렌즈(미도시) 및 야간 촬영시의 조명을 위한 플래시(미도시)가 설치된다.
또한, 터치스크린(110)은 사용자의 키 입력을 가이드하기 위한 가이드 라인(111)을 표시한다.
도 2에 도시한 바와 같이, 본 발명이 적용될 수 있는 노트북 컴퓨터(100')에는 흔히, 마우스, 조이스틱 등의 포인팅 장치를 대신하여 쓰이는 터치 패드(110')가 배치된다.
또한, 터치 패드(110')에는 사용자의 키 입력을 가이드하기 위한 가이드 라인(111')이 표시된다. 이때, 터치 패드(110')의 표면에서 가이드 라인(111')에 해당하는 부위가 양각이나 음각 즉, 돌출되거나 파여 있을 수 있다.
도 3은 본 발명의 일 실시예에 따른 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법을 구현할 수 있는 단말기의 전기적인 블록 구성도이다.
도 3에 도시한 바와 같이, 본 발명에 따른 이동통신단말기(100)의 전기적인 블록 구성은 키입력부(130), 터치인식부(125), RF 송/수신부(135), 저장부(140), 표시부(165), 오디오처리부(160), 카메라구동부(155), 영상처리부(150) 및 제어부(120)를 포함하여 이루어질 수 있다.
구체적으로, 키입력부(130)는 사용자가 자신의 손가락이나 스타일러스 펜을 이용하여 터치스크린(110)(혹은 터치패드)를 터치하게 되면, 이에 상응하는 터치신호를 발생시키는 것이다. 또한, 키입력부(130)는 사용자가 키패드(115)를 누르게 되면, 이에 상응하는 키신호를 발생시키는 것이다.
다음으로, 터치인식부(125)는 키입력부(120)로부터 입력되는 터치신호를 분석하여 사용자가 터치스크린(100)을 터치한 위치를 인식하고, 터치의 궤적과 방향을 인식하는 것이다.
또한, 터치인식부(125)는, 사용자의 터치가 단말기(100)에 의해 미리 정해진 다수의 외점 중 어느 하나에서 시작하여 상기 다수의 외점에 둘러싸인 단말기(100)에 의해 미리 정해진 내점을 거친 후 다수의 외점 중 어느 하나에서 끝나게 되면, 이러한 사용자의 터치를 하나의 '획 긋기'로 인식하는 것이다. 여기서, 외점 및 내점은 앞서 설명한 가이드 라인(111 혹은 111') 상에 위치하는 것이다.
또한, 터치인식부(125)는, 사용자의 터치가 다수의 외점 중 어느 하나에서 시작하여 내점을 거치지 않고 다른 외점에서 끝나더라도, 이러한 사용자의 터치를 하나의 획 긋기로 인식하게 된다.
다음으로, RF 송/수신부(135)는 제어부(120)의 제어에 따라, 안테나를 통해 기지국과 무선주파신호를 송/수신하는 것이다.
다음으로, 저장부(140)는 단말기의 OS(operating system), 각종 어플리케이션 프로그램, 제어부(120)의 연산 과정에서 발생되는 데이터, 사용자가 설정한 데이터 및 터치 대 키값 테이블을 저장하기 위한 것이다. 여기서, 터치 대 키값 테이블은 하나의 획 긋기에 문자키나 비문자키가 대응되어 있는 것이다. 비문자키란, 문자 이외에 컨트롤(Ctrl), 알트(Alt), 시프트(Shift), 엔터(Enter), 탭(Tab) 및 한/영 전환키 등을 일컫는 것이다. 주지되어 있는 바와 같이, 이들 비문자키는 키의 본래 의미를 변경시키거나 프로그램 동작을 제어할 때 혹은 모니터 상에서 텍스트 또는 커서를 이동시키는데 사용되는 것이다.
다음으로, 비디오처리부(165)는 제어부(120)의 제어에 따라, 터치스크린(110)을 통해 영상이 출력되도록 영상신호를 처리하는 것이다.
다음으로, 오디오처리부(160)는 제어부(120)의 제어에 따라, 마이크(175)로부터 입력된 아날로그 형태의 음성신호를 상응하는 디지털 음성신호로 변환하고, 디지털 음성신호를 상응하는 아날로그 음성신호로 변환하여 스피커(170)로 출력하는 것이다.
다음으로, 카메라 구동부(155)는 제어부(120)의 제어에 따라, CCD 카메라(180)를 구동하는 것이고, 영상 처리부(150)는 CCD 카메라(282)로부터 출력된 이미지 데이터를 처리하는 것이다.
다음으로, 제어부(120)는 키입력부(130)가 발생시킨 터치신호나 키신호 혹은 RF 송/수신부(135)로부터 입력되는 RF신호에 의거하여, 단말기(100)를 총괄적으로 제어하는 것이다. 특히, 제어부(120)는 저장부(140)에 저장되어 있는 터치 대 키 값 테이블을 탐색하여, 터치인식부(125)에 의해 인식된 획 긋기의 궤적 및 방향에 해당하는 키값을 확인하고, 이렇게 확인된 키값에 해당하는 사용자 명령을 처리하도록 비디오처리부(165), RF 송/수신부(135), 오디오처리부(160) 혹은 카메라구동부(155)를 제어하는 것이다. 이를 테면, 문자를 표시하도록 비디오처리부(165)를 제어한다. 또는, 터치스크린(110) 상에 표시되는 화면을 전환하도록 비디오처리부(165)를 제어한다. 또는, 확인된 키값에 해당하는 단말기번호로 전화를 걸도록 RF 송/수신부(135)를 제어한다.
도 4는 본 발명의 일 실시예에 따른 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법을 설명하기 위한 흐름도인바, 이상으로 설명한 단말기(100, 100')에 의해 수행되는 것이다.
또한, 도 5 내지 도 8은 본 발명의 일 실시예에 따른 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법을 설명하기 위한 개념도이다. 제어부(120)는 도 5 내지 도 8에 도시한 바와 같이, 다수의 외점(21 내지 28), 다수의 외점(21 내지 28)을 잇는 폐루프 내에 위치한 내점(10), 내점(10)과 외점(21 내지 28)을 잇는 가이드라인(a 내지 h), 및 근접한 외점끼리 잇는 가이드라인(가 내지 아)을 터치스크린(110) 상에 표시하도록 비디오처리부(165)를 제어한다. 한편, 도 5 내지 도 8에 도시한 바와 같은 점들과 가이드라인은 터치패드(110') 상에 그려져 있을 수 있다.
도 4에 도시한 바와 같이, 단계 S11에서는 사용자의 터치가 다수의 외점(21 내지 28) 중 어느 하나에서 시작하여 내점(10)을 거친 후 다수의 외점(21 내지 28) 중 어느 하나에서 끝나게 되면, 이러한 사용자의 터치를 하나의 획 긋기로 인식하게 된다. 또는, 사용자의 터치가 다수의 외점(21 내지 28) 중 어느 하나에서 시작하여 내점(10)을 거치지 않고 다른 외점에서 끝나게 되면, 이러한 사용자의 터치도 하나의 획 긋기로 인식하게 된다.
다음으로, 단계 S13에서는 터치 대 키값 테이블을 탐색하여, 단계 S11에서 인식된 획 긋기의 궤적과 방향에 해당하는 키값을 확인한다.
도 5를 참조로 하여 제 1 예를 들자면, 사용자의 터치가 외점 21에서 시작하여 가이드라인 a를 따라가다가 내점 10을 거친 다음, 가이드라인 f를 따라가다가 외점 26에서 끝나게 되면, 이러한 획 긋기의 궤적과 방향에 해당하는 키값은 문자 'A'가 된다. 또한, 사용자의 터치가 '21 -> a -> 10 -> e -> 25'이면, 이에 해당하는 키값은 문자 'B'가 되는 것이다. 또한, 사용자의 터치가 '21 -> a -> 10 -> d -> 24'이면, 이에 해당하는 키값은 문자 'C'가 되는 것이다.
즉, 사용자는 A,B 혹은 C를 입력하기 위해서는 외점 21에서 터치를 시작하면 된다. 반면, D, E 혹은 F를 입력하고자 한다면 외점 22에서 시작하면 되고, G, H 혹은 I는 외점 23에서 시작하면 된다. 또한, L, K 혹은 J는 외점 24에서, O, N 혹은 M은 외점 25에서, R, Q 혹은 P는 외점 26에서, U, S 혹은 T는 외점 27에서, 마지막으로 Y, V, W, X 혹은 Z는 외점 28에서 시작하면 된다. 결국, 사용자는 한 번의 획 긋기로 알파벳 26자 중 어느 하나를 입력할 수 있게 된다.
여기서, 제어부(120)는 외점의 근처에는 해당 외점을 터치의 시점으로 하는 획 긋기에 대응되는 키값들을 터치스크린(110) 상에 표시하도록 비디오처리부(165) 를 제어하는 것이 바람직하다. 이에 따라, 사용자는 자신의 원하는 키값을 입력하기 위하여, 어느 외점에서 터치를 시작하여야 하는지를 쉽게 인지할 수 있게 된다.
한편, 외점 21 위에 표시되어 있는 ABC를 보면, A는 B의 왼쪽 편에 표시되어 있고 C는 B의 오른쪽 편에 표시되어 있는 것을 알 수 있다. 이에 따라, 사용자는 터치의 방향을 왼쪽으로 하면 A가 입력된다는 것, 터치의 방향을 일직선으로 하면 B가 입력된다는 것 그리고, 터치의 방향을 오른쪽으로 하면 C가 입력된다는 것을 직관적으로 인식할 수 있게 된다.
도 6을 참조로 하여 제 2 예를 들자면, 사용자의 터치가 '21 -> a -> 10 -> h -> 28'이면, 이에 해당하는 키값은 문자 '!'가 된다. 또한, 사용자의 터치가 '25 -> e -> 10 -> f -> 26'이면, 이에 해당하는 키값은 문자 ']'가 된다. 결국, 사용자는 한 번의 획 긋기로 알파벳 26 및 다수의 특수문자 중 어느 하나를 입력할 수 있게 된다.
도 7을 참조로 하여 제 3 예를 들자면, 사용자의 터치가 '27 -> g -> 10 -> b -> 22'이면, 이에 해당하는 키값은 문자 'ㅑ'가 된다. 또한, 사용자의 터치가 '27 -> g -> 10 -> c -> 23'이면, 이에 해당하는 키값은 'ㅏ'가 된다. 또한, 사용자의 터치가 '27 -> g -> 10 -> d -> 24'이면, 이에 해당하는 키값은 'ㅐ'가 된다. 결국, 사용자는 한 번의 획 긋기로 한글 자/모음 27자 중 어느 하나를 입력할 수 있게 된다.
이상으로, 외점의 개수가 'N'이라고 한다면, 한 번의 획 긋기로 최대 'N * (N - 1)'개의 키값 중 어느 하나를 입력할 수 있다. 예컨대, 8개의 외점으로 최대 56(8*7)개의 키값 중 어느 하나를 한 번의 획 긋기로 입력할 수 있는 것이다.
만약, 터치의 시점과 종점이 동일한 것도 하나의 획 긋기가 될 수 있다면, 한 번의 획 긋기로 최대 'N * N'개의 키값 중 어느 하나를 입력할 수 있다.
도 8을 참조로 하여 제 4 예를 들자면, 사용자의 터치가 '28 -> 아 -> 21 -> 가 -> 22'이면, 이에 해당하는 키값은 방향키 'UP'이 된다. 또한, 사용자의 터치가 '25 -> 마 -> 26 -> 바 -> 27'이면, 이에 해당하는 키값은 엔터키 'Enter'가 된다. 결국, 사용자는 외곽의 가이드 라인(가 내지 아)을 따라 획 긋기를 하게 되면, 비문자키를 입력할 수 있게 된다.
다시 도 4로 돌아가서, 단계 S15에서는 단계 S13에서 확인된 키값에 해당하는 사용자 명령을 처리하게 된다. 이를 테면, 단말기(100)는 문자를 표시하거나 터치스크린(110) 상에 표시되는 화면을 전환하거나 혹은, 키값에 해당하는 단말기번호로 전화를 거는 것이다.
본 발명의 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법은 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.
도 1 및 도 2는 각각, 본 발명의 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법이 적용될 수 있는 이동통신단말기와 노트북 컴퓨터의 외관을 보인 사시도이다.
도 3은 본 발명의 일 실시예에 따른 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법을 구현할 수 있는 단말기의 전기적인 블록 구성도이다.
도 4는 본 발명의 일 실시예에 따른 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법을 설명하기 위한 흐름도이다.
도 5 내지 도 8은 본 발명의 일 실시예에 따른 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법을 설명하기 위한 개념도이다.
*** 도면의 주요 부분에 대한 부호의 설명 ***
100, 100': 단말기
110: 터치스크린 110': 터치패드
120: 제어부 125: 터치인식부
130: 키입력부 135: RF 송/수신부
140: 저장부 150: 영상처리부
155: 카메라구동부 160: 오디오처리부
165: 비디오처리부 170: 스피커
175: 마이크 180: CCD 카메라

Claims (13)

  1. 터치 수단을 구비하고, 사용자가 상기 터치 수단을 터치한 위치를 인식하는 단말기에 의해 수행되며,
    사용자의 터치가 상기 단말기에 의해 미리 정해진 다수의 외점 중 어느 하나에서 시작하여 상기 다수의 외점에 둘러싸인 상기 단말기에 의해 미리 정해진 내점을 거친 후 상기 다수의 외점 중 어느 하나에서 끝나게 되면, 상기 단말기에 저장되어 있는 터치 대 키값 테이블을 탐색하여 상기 사용자의 터치의 궤적과 방향에 해당하는 키값을 확인하는 (a) 단계; 및
    상기 확인된 키값에 해당하는 사용자 명령을 처리하는 (b) 단계를 포함하여 이루어지는 사용자 인터페이스 방법.
  2. 제 1항에 있어서,
    상기 (a) 단계에서 확인된 키값이 문자인 경우에는, 상기 (b) 단계는 상기 문자를 표시하는 것을 특징으로 하는 사용자 인터페이스 방법.
  3. 제 1항에 있어서,
    상기 터치 수단은 터치 스크린이되,
    상기 내점 및 상기 다수의 외점을 표시하는 것을 특징으로 하는 사용자 인터페이스 방법.
  4. 제 3항에 있어서,
    상기 내점과 상기 다수의 외점을 연결하는 가이드 라인을 표시하는 것을 특징으로 하는 사용자 인터페이스 방법.
  5. 제 1항에 있어서,
    상기 터치 수단은 터치 패드이되,
    상기 터치 패드에는 상기 내점 및 상기 다수의 외점이 표시되어 있는 것을 특징으로 하는 사용자 인터페이스 방법.
  6. 제 5항에 있어서,
    상기 터치 패드에는 상기 내점과 상기 다수의 외점을 연결하는 가이드 라인이 표시되어 있는 것을 특징으로 하는 사용자 인터페이스 방법.
  7. 터치 수단을 구비하고, 사용자가 상기 터치 수단을 터치한 위치를 인식하는 단말기에 의해 수행되며,
    사용자의 터치가 상기 단말기에 의해 미리 정해진 다수의 외점 중 어느 하나에서 시작하여 상기 다수의 외점에 둘러싸인 상기 단말기에 의해 미리 정해진 내점을 거친 후 상기 다수의 외점 중 어느 하나에서 끝나거나, 사용자의 터치가 상기 다수의 외점 중 어느 하나에서 시작하여 상기 내점을 거치지 않고 다른 외점에서 끝나게 되면, 상기 단말기에 저장되어 있는 터치 대 키값 테이블을 탐색하여 상기 사용자의 터치의 궤적과 방향에 해당하는 키값을 확인하는 (a) 단계; 및
    상기 확인된 키값에 해당하는 사용자 명령을 처리하는 (b) 단계를 포함하여 이루어지는 사용자 인터페이스 방법.
  8. 제 7항에 있어서,
    상기 터치 대 키값 테이블에서 상기 내점을 거치는 사용자의 터치에는 문자 키값이 할당되고, 상기 내점을 거치지 않은 사용자의 터치에는 비문자 키값이 할당되는 것을 특징으로 하는 사용자 인터페이스 방법.
  9. 제 7항에 있어서,
    상기 터치 수단은 터치 스크린이되,
    상기 내점 및 상기 다수의 외점을 표시하는 것을 특징으로 하는 사용자 인터페이스 방법.
  10. 제 9항에 있어서,
    상기 내점과 상기 다수의 외점을 연결하는 가이드 라인을 표시하는 것을 특징으로 하는 사용자 인터페이스 방법.
  11. 제 7항에 있어서,
    상기 터치 수단은 터치 패드이되,
    상기 터치 패드에는 상기 내점 및 상기 다수의 외점이 표시되어 있는 것을 특징으로 하는 사용자 인터페이스 방법.
  12. 제 11항에 있어서,
    상기 터치 패드에는 상기 내점과 상기 다수의 외점을 연결하는 가이드 라인이 표시되어 있는 것을 특징으로 하는 사용자 인터페이스 방법.
  13. 제 1항 내지 제 12항 중 어느 한 항의 사용자 인터페이스 방법을 실행시키기 위한 프로그램을 기록한, 컴퓨터로 읽을 수 있는 매체.
KR1020080086951A 2008-09-03 2008-09-03 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법 KR100993508B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020080086951A KR100993508B1 (ko) 2008-09-03 2008-09-03 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법
JP2009118903A JP2010061636A (ja) 2008-09-03 2009-05-15 タッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法
EP09006868A EP2166442A1 (en) 2008-09-03 2009-05-21 User interface method
CN200910203260A CN101667081A (zh) 2008-09-03 2009-06-02 用户接口方法
US12/541,854 US20100053104A1 (en) 2008-09-03 2009-08-14 User interface method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080086951A KR100993508B1 (ko) 2008-09-03 2008-09-03 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법

Publications (2)

Publication Number Publication Date
KR20100027863A true KR20100027863A (ko) 2010-03-11
KR100993508B1 KR100993508B1 (ko) 2010-11-10

Family

ID=41166203

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080086951A KR100993508B1 (ko) 2008-09-03 2008-09-03 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법

Country Status (5)

Country Link
US (1) US20100053104A1 (ko)
EP (1) EP2166442A1 (ko)
JP (1) JP2010061636A (ko)
KR (1) KR100993508B1 (ko)
CN (1) CN101667081A (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170140169A1 (en) * 2013-04-01 2017-05-18 Passtouch, Llc System and method for signature pathway authentication and identification
FR2966945B1 (fr) * 2010-10-29 2014-03-21 Schlue Volker Dispositif de saisie de signes comprenant une zone de base et au moins deux zones peripheriques, procede et programme associe
JP5813948B2 (ja) * 2010-12-20 2015-11-17 株式会社バンダイナムコエンターテインメント プログラム及び端末装置
KR101799270B1 (ko) * 2010-12-29 2017-11-21 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
CN102426491A (zh) * 2011-05-12 2012-04-25 北京汇冠新技术股份有限公司 一种用于触摸屏的多点触控实现方法及系统
KR101323281B1 (ko) * 2012-04-06 2013-10-29 고려대학교 산학협력단 입력 장치 및 문자 입력 방법
KR101936090B1 (ko) 2012-08-29 2019-01-08 삼성전자주식회사 키 입력 제어 장치 및 방법
JP6273506B2 (ja) * 2014-02-18 2018-02-07 学校法人日本大学 情報処理装置、情報処理方法、及びプログラム
CN104317513B (zh) * 2014-10-17 2018-11-13 广东欧珀移动通信有限公司 一种控制蓝光播放器ui界面光标移动速度的方法
CN107635901A (zh) * 2015-05-20 2018-01-26 通力股份公司 具有辅助轮的控制面板
CN104865478B (zh) * 2015-06-12 2018-01-05 武汉精测电子技术股份有限公司 一种触控屏的划线检测系统及其检测方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764794A (en) * 1993-10-27 1998-06-09 Perlin; Kenneth Method and apparatus for electronically storing alphanumeric characters
JP3546337B2 (ja) 1993-12-21 2004-07-28 ゼロックス コーポレイション 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法
US6031525A (en) * 1998-04-01 2000-02-29 New York University Method and apparatus for writing
EP1183590B1 (en) * 1999-06-09 2005-08-17 Malvern Scientific Solutions Limited Communication system and method
US6967642B2 (en) * 2001-01-31 2005-11-22 Microsoft Corporation Input device with pattern and tactile feedback for computer input and control
GB0112870D0 (en) * 2001-05-25 2001-07-18 Koninkl Philips Electronics Nv Text entry method and device therefore
US7199786B2 (en) * 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US7729542B2 (en) * 2003-04-04 2010-06-01 Carnegie Mellon University Using edges and corners for character input
KR100593993B1 (ko) * 2003-10-22 2006-06-30 삼성전자주식회사 문자인식장치 및 방법
GB2431500B (en) * 2004-06-18 2009-03-25 Microth Inc Stroke-based data entry device, system, and method
JP4462120B2 (ja) 2005-06-13 2010-05-12 パナソニック株式会社 文字入力装置
CA2612489A1 (en) * 2005-06-16 2007-10-11 Firooz Ghassabian Data entry system
GB0516246D0 (en) * 2005-08-08 2005-09-14 Scanlan Timothy A data entry device and method
US8882590B2 (en) * 2006-04-28 2014-11-11 Nintendo Co., Ltd. Touch-controlled game character motion providing dynamically-positioned virtual control pad
TW200743993A (en) 2006-05-26 2007-12-01 Uniwill Comp Corp Input apparatus and input method thereof
CN101568894B (zh) * 2006-10-23 2012-07-18 吴谊镇 输入装置

Also Published As

Publication number Publication date
KR100993508B1 (ko) 2010-11-10
JP2010061636A (ja) 2010-03-18
US20100053104A1 (en) 2010-03-04
EP2166442A1 (en) 2010-03-24
CN101667081A (zh) 2010-03-10

Similar Documents

Publication Publication Date Title
KR100993508B1 (ko) 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법
KR100720335B1 (ko) 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
US8279182B2 (en) User input device and method using fingerprint recognition sensor
CN108121457B (zh) 提供字符输入界面的方法和设备
KR101115467B1 (ko) 가상 키보드 제공 단말 및 그 방법
TWI420889B (zh) 符號輸入用電子裝置與方法
US20180032831A1 (en) Character recognition and character input apparatus using touch screen and method thereof
US8581851B2 (en) Method and device for character input having a base character component and a supplemental character component
KR100821161B1 (ko) 터치스크린을 이용한 문자 입력방법 및 장치
US20070070045A1 (en) Entering a character into an electronic device
US9703418B2 (en) Mobile terminal and display control method
US9342155B2 (en) Character entry apparatus and associated methods
US20120086663A1 (en) Mobile terminal, language setting program and language setting method
KR102336329B1 (ko) 전자 기기 및 전자 기기의 작동 방법
WO2010109294A1 (en) Method and apparatus for text input
KR20070091529A (ko) 터치 센시티브 스크롤 방법 및 이를 위한 이동 헤드셋
KR100786446B1 (ko) 입력 장치 및 휴대 단말 장치 및 휴대 단말 장치에있어서의 콘텐츠 데이터의 조작 방법
JP2011113248A (ja) キー入力装置および携帯端末
US8890816B2 (en) Input system and related method for an electronic device
JP2010152759A (ja) 文字入力装置、文字入力支援方法、及び、文字入力支援プログラム
KR20110003130A (ko) 이동통신 단말기의 문자 입력 방법
KR20070100209A (ko) 터치펜과 같은 보조도구가 필요 없는 터치스크린버튼입력방법
KR101255801B1 (ko) 한글 입력 가능한 휴대 단말기 및 그것의 키패드 표시 방법
KR101261227B1 (ko) 가상 키보드 입력 장치 및 그의 데이터 입력 방법
JP2005258653A (ja) タッチパネルを用いた文字入力システムと該システムを備えた携帯端末装置

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee