KR20100093689A - 학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용단말기 - Google Patents

학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용단말기 Download PDF

Info

Publication number
KR20100093689A
KR20100093689A KR1020090012738A KR20090012738A KR20100093689A KR 20100093689 A KR20100093689 A KR 20100093689A KR 1020090012738 A KR1020090012738 A KR 1020090012738A KR 20090012738 A KR20090012738 A KR 20090012738A KR 20100093689 A KR20100093689 A KR 20100093689A
Authority
KR
South Korea
Prior art keywords
input
touch input
input control
touch
coordinates
Prior art date
Application number
KR1020090012738A
Other languages
English (en)
Inventor
김민철
김정호
Original Assignee
주식회사 케이티테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티테크 filed Critical 주식회사 케이티테크
Priority to KR1020090012738A priority Critical patent/KR20100093689A/ko
Publication of KR20100093689A publication Critical patent/KR20100093689A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

버튼 등의 입력 컨트롤 간의 경계 영역에서 터치 입력이 발생한 경우에 팝업 창 등을 통한 사용자 선택을 기억해 두었다가 다음 번 터치 입력 시 기억된 정보를 이용하는 학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용 단말기가 개시된다. 학습에 의한 터치 입력 인식 방법은, (a) 터치 입력을 검출하는 단계와, (b) 검출된 터치 입력으로부터 터치 입력 좌표를 산출하는 단계와, (c) 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 확인을 받는 단계 및 (d) 터치 입력 좌표 및 대응되는 입력 컨트롤 선택 정보를 저장하는 단계를 포함하되, (a) 내지 (d) 단계가 미리 정하여진 횟수만큼 반복된 후 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 저장된 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보에 기초하여 터치된 입력 컨트롤을 결정하는 것을 특징으로 한다. 따라서 입력 컨트롤 간의 경계 영역 상에서 터치 입력이 발생한 경우에 사용자가 목적했던 입력 컨트롤에 터치 입력이 발생한 것으로 인식하게 할 수 있고, 개인마다 서로 다른 신체 특성 및 터치 입력 습관에 맞추어 터치 입력의 인식을 조절함으로써 오인식을 줄일 수 있다.
학습, 터치, 인식, 팝업 창, 경계

Description

학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용 단말기{TOUCH INPUT RECOGNITION METHOD OF MOBILE TERMINAL USING LEARNING AND MOBILE TERMINAL PERFORMING THE SAME }
본 발명은 휴대용 단말기의 사용자 인터페이스에 관한 것으로, 더욱 상세하게는 터치 입력 인식 방법 및 이를 수행하는 휴대용 단말기에 관한 것이다.
휴대용 단말기 제품들은 사용자의 요구를 충족시키기 위해 다양한 기능과 서비스를 제공하고 있는데, 기존에 널리 사용되고 있는 키 패드/키 버튼을 사용자 인터페이스(User Interface, 이하 UI) 장치로서 사용하는 경우에 복잡한 UI 구조로 인해 사용자 편의성이 저하되는 문제가 있었다. 그 결과 최근 터치스크린(Touch Screen)의 가격이 낮아지면서, 사용자 편의성을 개선하기 위하여 장래 생산되는 전세계 휴대용 단말기의 상당수가 터치스크린을 채택할 것으로 예상되고 있다.
터치스크린은 화면상의 한 점을 손가락 등으로 누르면 그 접촉점의 좌표값을 출력하는 위치 감지기를 포함한다. 터치스크린의 구현 방식으로는 압력 감지 저항막 방식, 정전용량 방식, 표면초음파전도(Surface Acoustic Wave, 이하 SAW) 방식, 적외선 방식 등의 기술이 있다.
터치스크린을 구비하는 사용자 인터페이스에 있어서, 터치 입력을 이용한 다양한 동작 형태가 존재한다. 예를 들어, 버튼 또는 리스트 등의 조작 요소를 짧게 터치하는 동작인 탭(Tap), 화면의 특정 영역을 천천히 긋는 동작인 이동(Move), 특정 요소를 선택하여 이동시키는 동작인 드래그(Drag), 화면의 특정 영역을 빠르게 원형으로 긋는 동작인 휠(Wheel), 손가락으로 낙서하듯이 자유로이 움직이는 동작인 스크럽(Scrub), 버튼 또는 리스트 등의 조작 요소를 길게 터치하는 동작인 홀드(Hold), 화면의 특정 영역을 빠르게 직선으로 긋는 동작인 플릭(Flick), 특정 요소를 선택하여 특정 영역으로 끌어 넣는 동작인 드래그 앤 드랍(Drag & Drop), 보여지는 화면보다 큰 요소를 손가락으로 이동시키는 동작인 패닝(Panning), 손가락으로 특정 움직임을 취하면 설정된 명령/메뉴가 실행되는 제스쳐(Gesture) 등과 같은 동작 형태가 존재한다.
그런데 휴대용 단말기는 그 크기가 크게 제약되어 있어서 상술한 다양한 동작 형태를 입력하기 위하여 일반적으로 스타일러스에 의한 터치 입력보다는 사람의 손가락에 의한 터치 입력이 더 많이 사용되고 있다. 휴대용 단말기의 크기가 작아지고, 터치스크린 화면 상에 나타나는 버튼 등의 각종 입력 컨트롤의 면적도 작아지면서, 손가락에 의한 터치 입력 방식은 사용자가 원하는 것이 아닌 버튼 등이 눌린 것으로 인식되어 터치 입력 오류가 자주 발생하고 사용자 체감 조작성이 떨어지는 문제가 있다.
따라서 본 발명의 제1 목적은 터치 입력에 있어서 사용자 조작성을 개선할 수 있는 학습에 의한 터치 입력 인식 방법을 제공하는 것이다.
그리고 본 발명의 제2 목적은 상기와 같은 방법을 수행하는 휴대용 단말기를 제공하는 것이다.
상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법은, (a) 터치 입력을 검출하는 단계와, (b) 검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출하는 단계와, (c) 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 확인을 받는 단계 및 (d) 상기 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보를 저장하는 단계를 포함하되, 상기 (a) 내지 (d) 단계가 미리 정하여진 횟수만큼 반복된 후 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 저장된 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보에 기초하여 터치된 입력 컨트롤을 결정할 수 있다.
상기 터치 입력 인식 방법은, 상기 (a) 내지 (d) 단계가 미리 정하여진 횟수만큼 반복된 후 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우, 상기 경계 영역에 인접한 입력 컨트롤 각각에 대하여 저장된 상기 입력 컨트롤 선택 정보에 대응되는 적어도 하나의 터치 입력 좌표로부터 평균 터치 입력 좌표를 산출하고, 상기 평균 터치 입력 좌표로부터 상기 산출된 터치 입력 좌표가 미리 정하여진 범위 내인지 여부에 따라 상기 터치된 입력 컨트롤을 결정할 수 있다.
상기 (c) 단계는, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우, (c1) 사용자가 터치하려고 한 입력 컨트롤을 확인하는 입력 컨트롤 선택 화면을 표시하는 단계 및 (c2) 상기 입력 컨트롤 선택 화면 상에서 상기 입력 컨트롤 선택을 받는 단계를 포함할 수 있다.
상기 입력 컨트롤 선택 화면은 선택 가능한 입력 컨트롤의 정보를 포함하는 팝업 창 또는 산출된 상기 터치 입력 좌표 주위에 위치하는 서브 메뉴 화면일 수 있다.
상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 학습에 의한 터치 입력 인식 방법은, (a) 터치 입력을 검출하는 단계와, (b) 검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출하는 단계와, (c) 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 확인을 받는 단계 및 (d) 상기 입력 컨트롤 선택에 기초하여 상기 경계 영역을 조절하는 단계를 포함할 수 있다.
상기 (c) 단계는, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우, (c1) 사용자가 터치하려고 한 입력 컨트롤을 확인하는 입력 컨트롤 선택 화면을 표시하는 단계 및 (c2) 상기 입력 컨트롤 선택 화면 상에서 상기 입력 컨트롤 선택을 받는 단계를 포함할 수 있다.
상기 입력 컨트롤 선택 화면은 선택 가능한 입력 컨트롤의 정보를 포함하는 팝업 창 또는 산출된 상기 터치 입력 좌표 주위에 위치하는 서브 메뉴 화면일 수 있다.
상기 (d) 단계는, 상기 입력 컨트롤 선택에 기초하여 상기 경계 영역을 조절하되, 선택된 입력 컨트롤의 비경계 영역을 상기 터치 입력 좌표 방향으로 확장할 수 있다.
상기 (d) 단계는, 복수의 동일한 상기 입력 컨트롤 선택이 있는 경우에 상기 경계 영역을 조절할 수 있다.
상술한 본 발명의 제2 목적을 달성하기 위한 본 발명의 일 실시예에 따른 휴대용 단말기는, 터치 입력을 검출하는 터치 입력부 및 검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출하고, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 확인을 받으며, 상기 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보를 저장하는 제어부를 포함하되, 상기 제어부는, 입력 컨트롤 선택 확인이 미리 정하여진 횟수만큼 반복된 후 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 저장된 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보에 기초하여 터치된 입력 컨트롤을 결정할 수 있다.
상기 제어부는, 입력 컨트롤 선택 확인이 미리 정하여진 횟수만큼 반복된 후 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우, 상기 경계 영역에 인접한 입력 컨트롤 각각에 대하여 저장된 상기 입력 컨트롤 선택 정 보에 대응되는 적어도 하나의 터치 입력 좌표로부터 평균 터치 입력 좌표를 산출하고, 상기 평균 터치 입력 좌표로부터 상기 산출된 터치 입력 좌표가 미리 정하여진 범위 내인지 여부에 따라 상기 터치된 입력 컨트롤을 결정할 수 있다.
상기 휴대용 단말기는, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 화면을 표시하는 디스플레이부를 더 포함하되, 상기 제어부는, 상기 터치 입력부를 통하여 상기 입력 컨트롤 선택 화면 상에서 상기 입력 컨트롤 선택을 받을 수 있다.
상기 입력 컨트롤 선택 화면은 선택 가능한 입력 컨트롤의 정보를 포함하는 팝업 창 또는 산출된 상기 터치 입력 좌표 주위에 위치하는 서브 메뉴 화면일 수 있다.
상술한 본 발명의 제2 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 휴대용 단말기는, 터치 입력을 검출하는 터치 입력부 및 검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출하고, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 확인을 받으며, 상기 입력 컨트롤 선택에 기초하여 상기 경계 영역을 조절하는 제어부를 포함할 수 있다.
상기 휴대용 단말기는, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 화면을 표시하는 디스플레이부를 더 포함하되, 상기 제어부는, 상기 터치 입력부를 통하여 상기 입력 컨트롤 선택 화면 상에서 상기 입력 컨트롤 선택을 받을 수 있다.
상기 입력 컨트롤 선택 화면은 선택 가능한 입력 컨트롤의 정보를 포함하 는 팝업 창 또는 산출된 상기 터치 입력 좌표 주위에 위치하는 서브 메뉴 화면일 수 있다.
상기 제어부는, 상기 입력 컨트롤 선택에 기초하여 상기 경계 영역을 조절하되, 선택된 입력 컨트롤의 비경계 영역을 상기 터치 입력 좌표 방향으로 확장할 수 있다.
상기 제어부는, 복수의 동일한 상기 입력 컨트롤 선택이 있는 경우에 상기 경계 영역을 조절할 수 있다.
상기와 같은 학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용 단말기에 따르면, 휴대용 단말기의 제약된 구조에 의하여 사용자가 입력하고자 했던 입력 컨트롤과 그 외의 입력 컨트롤의 경계 상에서 터치 입력이 발생한 경우에 사용자가 목적했던 입력 컨트롤 상에서 터치 입력이 발생한 것으로 인식하게 할 수 있다.
그리고 개인마다 서로 다른 신체 특성 및 터치 입력 습관에 맞추어 터치 입력의 인식을 조절함으로써 오인식을 줄일 수 있고, 특히 빈번한 터치 입력이 요구되는 문자 메시지 입력 등에서 사용 편의성을 대폭 개선시킬 수 있다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발 명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또 는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1 내지 도 4는 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법을 설명하기 위한 개념도이다.
스타일러스를 이용한 터치 입력에 비하여 손가락을 이용한 터치 입력은 사용자가 의도하지 않은 위치에서 터치 입력이 발생한 것으로 인식될 가능성이 높고, 특히 사용자 고유의 터치 습관 또는 경향에 의하여 사용자가 의도한 정위치를 다소 벗어난 지점에서 반복적으로 터치 입력이 발생할 수 있다.
도 1을 참조하면, 사용자가 "전자사전" 애플리케이션을 실행시키려고 하는 경우 터치스크린 상에 표시된 "전자사전" 아이콘 위에서 정확히 터치 입력을 함으로써 "전자사전" 애플리케이션을 실행시킬 수 있다.
도 2를 참조하면, 도 1의 경우와 달리, 사용자가 "전자사전" 애플리케이션을 실행시키려고 하는 의도임에도 터치스크린 상에 표시된 "전자사전" 아이콘을 다소 벗어난 아래 위치에 터치 입력이 이루어진 것을 볼 수 있다. 이러한 터치 입력은 사용자의 실수에 의한 것일 수도 있고, 사용자가 항상 정위치보다 다소 아래에 입력하는 습관 또는 경향에 의한 것일 수도 있다. 이러한 경우에 휴대용 단말기는 입력이 발생한 위치의 좌표가 "전자사전" 애플리케이션 실행에 대응되는 것인지 그렇지 않으면 "음성메모" 애플리케이션 실행에 대응되는 것인지를 판단하게 되는데, 경우에 따라 사용자가 의도하지않은 "음성메모" 애플리케이션이 실행될 수 있다.
본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법은 도 1 및 도 2를 참조하여 상술한 문제점을 해결하기 위하여 버튼, 아이콘 등의 입력 컨트롤의 경계 영역에서 터치 입력이 발생한 경우 사용자로부터 어느 입력 컨트롤을 선택한 것인지 확인을 받고 그 확인 결과를 향후의 터치 입력 인식에 이용하는 방식을 취한다.
도 3을 참조하면, 도 2를 참조하여 설명한 바와 같이, 사용자가 "전자사전" 애플리케이션 아이콘과 "음성메모" 애플리케이션 아이콘 사이의 경계 영역 내에 터치 입력을 한 경우 휴대용 단말기는 어느 애플리케이션 아이콘을 터치한 것인지 확실치 않은 경우로 보고 사용자에게 어느 애플리케이션 아이콘을 선택한 것인지 확인을 요구하는 팝업 창을 띄운다. 사용자의 확인을 요구하는 방식은, 도 3에 나타난 팝업 창 방식에만 한정되는 것이 아니라, 사용자의 확인 내지 선택을 입력 받을 수 있는 가능한 모든 방식을 사용할 수 있다. 예를 들어, 팝업 창이 아니라 사용자의 터치 입력 위치 근처에 서브 메뉴를 표시할 수도 있고, 사용자의 터치 입력 위치를 기준으로 어느 방향의 애플리케이션 아이콘인지 화살표를 표시할 수도 있으며, 경고음을 발생시켜 사용자로 하여금 어느 애플리케이션 아이콘을 선택한 것인지 한번 더 터치 입력을 할 것을 요구할 수도 있다. 이하에서는 사용자의 확인을 요구하는 방식으로서 팝업 창을 사용하는 경우를 예로 들어 설명한다.
도 4를 참조하면, 도 3에 나타난 팝업 창을 보고, 사용자가 "전자사전" 애플리케이션을 선택하였음을 터치 입력으로 확인하는 과정이 나타나 있다. 이러한 과정이 적어도 한 번 이상 실행된 후 도 2에 나타난 바와 같은 "전자사전" 애플리케이션 아이콘과 "음성메모" 애플리케이션 아이콘 사이에 터치 입력이 발생하는 경우 이전의 사용자 확인에 대한 정보에 기초하여 더 이상 팝업 창을 띄우지 않고 "전자사전" 애플리케이션 아이콘 상에서 터치 입력이 발생한 것으로 인식하고, "전자사전" 애플리케이션을 실행시키게 된다.
도 5는 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법을 설명하기 위한 흐름도이다.
후술할 과정을 진행하기에 앞서, 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법이 개시되었는지 판단할 수 있다. 사용자가 상기 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법을 수행하는 휴대용 단말기에서 미 리 정하여진 "학습에 의한 터치 입력 인식" 기능 버튼을 누르거나, 본 발명을 지원하는 휴대용 단말기의 운영체제(Operating System, OS) 또는 애플리케이션 상에서 상기 "학습에 의한 터치 입력 인식" 모드 개시에 대응하는 메뉴를 선택함으로써 학습에 의한 터치 입력 인식 모드가 개시될 수 있다. 판단 결과 상기 학습에 의한 터치 입력 인식 모드가 개시된 경우에 후술할 과정을 진행할 수 있다.
본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법은 크게 학습 과정(S110 내지 S150) 및 인식 과정(S170 내지 S193)으로 나누어 볼 수 있다. 학습 과정에서는 터치 입력이 입력 컨트롤의 경계 영역에서 발생한 경우 사용자의 선택을 확인하여 그 선택에 대한 정보를 저장 또는 유지하게 된다. 인식 과정에서는 상기 선택에 대한 정보에 기초하여 입력 컨트롤의 경계 영역에서 발생한 터치 입력에 대하여 어느 입력 컨트롤이 선택된 것인지 결정하게 된다.
본 발명에서의 "입력 컨트롤"이란 사용자가 휴대용 단말기의 애플리케이션, 서비스 또는 기능을 이용할 수 있도록 사용자의 입력을 받아 들이는 사용자 인터페이스(User Interface, UI) 요소를 의미하며, 구체적으로 휴대용 단말기의 화면 상에 나타난 버튼, 아이콘, 슬라이드 바, 메뉴 아이템 등이 될 수 있다. 입력 컨트롤은 휴대용 단말기의 화면 상에서 각각의 영역을 차지하고 있으며, 원칙적으로 서로 겹치지 아니한다. 도 1 내지 도 4에 나타난 "전자사전" 애플리케이션 아이콘이나, "음성메모" 애플리케이션 아이콘 등이 모두 입력 컨트롤에 해당한다.
학습에 의한 터치 입력 인식 모드가 개시된 경우, 우선 휴대용 단말기의 터치 입력부 상에서 발생한 터치 입력을 검출한다(S110). 상기 터치 입력은, 상기 터치 입력부 상의 한 지점에 터치를 하고 동일한 지점에서 즉시 또는 소정의 시간 동안 터치를 유지한 후 터치를 떼는 형태이거나, 또는 상기 터치 입력부 상의 한 지점에 터치를 하고 터치를 유지한 상태로 이동하여 다른 지점에서 터치를 떼는 형태일 수 있다. 이러한 경우 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법에서는 터치 시작 지점 또는 터치 종료 지점에서 발생한 터치 입력을 검출 대상으로 할 수 있다. 이하에서는 상기 터치 입력부 상의 한 지점에 터치를 하고 터치를 유지한 상태로 이동하여 다른 지점에서 터치를 떼는 형태는 제외하고, 상기 터치 입력부 상의 한 지점에 터치를 하고 동일한 지점에서 즉시 또는 소정의 시간 동안 터치를 유지한 후 터치를 떼는 형태를 대상으로 하며, 상기 동일한 지점에서 발생한 터치 입력을 검출 대상으로 하는 경우를 예로 들어 설명한다.
상기 터치 입력은 저항막 방식의 경우에는 전위차, 정전용량 방식의 경우에는 커패시턴스(capacitance), 표면초음파전도 방식의 경우에는 파장, 적외선 방식의 경우에는 IR 광 인터럽트의 형태의 값을 가질 수 있다.
다음으로 검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출한다(S120). 저항막 방식의 경우에는 전위차, 정전용량 방식의 경우에는 커패시턴스(Capacitance), 표면초음파전도 방식의 경우에는 파장, 적외선 방식의 경우에는 IR 광 인터럽트의 형태의 값을 갖는 상기 터치 입력이 (X, Y) 등의 좌표 형태로 변환된다.
다음으로 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우인지를 판단하여(S130), 그렇다면 입력 컨트롤 선택을 확인 받는다(S140). 그 렇지 아니한 경우에는 입력 컨트롤 선택 단계(S140)와, 후술할 터치 입력 좌표 및 대응되는 입력 컨트롤 선택 정보 저장 단계(S150)를 수행하지 않는다.
입력 컨트롤의 경계 영역이란 그 영역 내에서 터치 입력이 발생한 경우 어느 입력 컨트롤에 대한 터치 입력인지 확실하지 않는 영역을 말한다. 반대로 입력 컨트롤의 비경계 영역이란 그 영역 내에서 터치 입력이 발생한 경우 어느 입력 컨트롤에 대한 터치 입력인지 확실한 영역을 말한다. 예를 들어, 상기 입력 컨트롤의 비경계 영역은 상기 입력 컨트롤이 차지하는 영역의 중심으로부터 외곽 테두리까지의 거리에서 80% 이내 거리의 영역일 수 있으며, 이 경우 상기 입력 컨트롤의 경계 영역은 상기 입력 컨트롤이 차지하는 영역의 중심으로부터 외곽 테두리까지의 거리에서 80% ~ 100% 거리의 영역일 수 있다.
운영체제 또는 애플리케이션은 사용자의 터치 입력에 대응하여 어느 입력 컨트롤에 대하여 터치 입력이 발생하였는지 판단하여야 하므로, 입력 컨트롤의 영역에 대한 정보를 보유하고 있으며, 이러한 정보로부터 입력 컨트롤의 경계 영역 또는 비경계 영역을 산출할 수 있다.
또는 입력 컨트롤의 경계 영역 및 비경계 영역을 결정하기 위한 정보가 입력 컨트롤이 배치되는 운영체제 또는 애플리케이션의 생성 또는 빌드(Build) 시에 운영체제 또는 애플리케이션의 바이너리 코드에 삽입될 수도 있다. 즉, 사용자 인터페이스 요소인 입력 컨트롤 객체에 대한 정보는 운영체제 또는 애플리케이션의 소스 코드 내지 리소스 파일에 기술되어 있으며, 이러한 정보는 통상 바이너리 코드의 생성 또는 빌드 후에는 버려지지만, 이러한 정보를 바이너리 코드에 삽입시켜 두었다가 입력 컨트롤이 차지하는 영역 등을 결정하는데 이용될 수 있다.
도 6은 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법에서 입력 컨트롤의 경계 영역을 설명하기 위한 개념도이다.
도 6의 왼쪽 그림을 보면 입력 컨트롤로서 버튼 1과 버튼 2가 휴대용 단말기의 화면 상에서 일정 영역을 차지하면 인접해 있는 것을 볼 수 있다. 그리고 도 6의 오른쪽 그림을 보면 버튼 1과 버튼 2가 휴대용 단말기의 화면 상에서 차지하는 영역이 버튼 1 비경계 영역, 버튼 1/2 경계 영역 및 버튼 2 비경계 영역으로 나뉘어 나타난 것을 볼 수 있다. 버튼 1 비경계 영역에서 터치 입력이 발생한 경우 버튼 1이 선택된 것으로 판단한다. 버튼 2 비경계 영역에서 터치 입력이 발생한 경우 버튼 2가 선택된 것으로 판단한다. 버튼 1/2 경계 영역에서 터치 입력이 발생한 경우에는 사용자로부터 버튼 1 또는 버튼 2 중 어느 입력 컨트롤을 터치하려고 했던 것인지 확인을 받아 그에 따른 동작 수행을 하게 되며, 상기 확인에 대한 정보를 저장해 두었다가 이후에는 버튼 1/2 경계 영역에서 터치 입력이 된 경우 별도의 확인 동작이 없이 버튼 1 또는 버튼 2 중 어느 하나의 버튼에 대하여 터치된 것으로 결정을 하게 된다.
다시 도 5를 참조하면, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우인지를 판단함에 있어서(S130), 상기 입력 컨트롤의 면적 상의 중심을 구하고, 상기 중심으로부터 상기 입력 컨트롤의 최외곽 테두리까지의 거리에 대하여, 상기 중심으로부터 상기 터치 입력 좌표까지의 거리가 미리 정하여진 범위를 벗어나는지 여부에 따라 판단할 수 있다. 상기 터치 입력 좌표가 입력 컨트 롤의 경계 영역 내에 포함되는 경우인지를 판단하는 방법은 상술한 방법에 제한되지 아니하며 어느 점이 영역의 중심으로부터 소정의 범위 내에 있는지 판단할 수 있는 가능한 모든 방식을 사용할 수 있다.
입력 컨트롤 선택을 확인 받는 데에 있어서(S140), 입력 컨트롤 선택 화면을 표시하고, 표시한 상기 입력 컨트롤 선택 화면 상에서 사용자로부터 상기 입력 컨트롤 선택을 받을 수 있다. 도 1 내지 도 4를 참조하여 설명한 바와 같이, 상기 입력 컨트롤 선택 화면은 선택 가능한 입력 컨트롤의 정보를 그 내부에 표시하는 팝업 창의 형태이거나, 또는 산출된 상기 터치 입력 좌표 주위에 위치하며 선택 가능한 입력 컨트롤의 정보를 표시하는 서브 메뉴 화면의 형태일 수 있다.
다음으로 상기 터치 입력 좌표와, 대응되는 상기 입력 컨트롤 선택 정보, 즉 사용자에 의하여 선택된 입력 컨트롤에 대한 정보를 저장한다(S150). 저장된 상기 터치 입력 좌표와, 저장된 상기 입력 컨트롤 선택 정보는 후술할 인식 과정(S170 내지 S193)에서 경계 영역에서 발생한 터치 입력을 인식하는데 이용된다.
상기 학습 과정, 즉 상기 S110 단계 내지 S150 단계는 미리 정하여진 횟수만큼 반복될 수 있다. 이러한 반복 과정을 통하여 입력 컨트롤의 경계 영역에서 검출된 터치 입력 좌표와, 대응되는 입력 컨트롤 선택 정보가 축적될 수 있다.
입력 컨트롤 선택이 미리 정하여진 횟수만큼 반복되었는지 판단한 후(S160), 상기 입력 컨트롤 선택이 미리 정하여진 횟수만큼 반복된 경우에는 상기 학습 과정(S110 내지 S150)을 종료하고, 인식 과정(S170 내지 S193)으로 진행할 수 있다. 다시 말해서, 어느 입력 컨트롤에 대하여 터치 입력이 된 것인지 모호한 경 우에 소정의 횟수 이상 사용자의 선택을 확인하고, 그 과정에서 축적된 정보에 기초하여 경계 영역에서 발생한 터치 입력에 대하여 더 이상의 선택 확인 없이 터치 입력이 어느 입력 컨트롤에 대하여 된 것인지 결정하는 것이다. 상기 미리 정하여진 횟수는 3 이상의 값을 가지는 것이 적절하다.
상기 인식 과정은 우선 터치 입력을 검출한 후 검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출하는 것에서 시작된(S170).
그리고 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는지를 판단하여(S180), 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우에는 이전 학습 과정(S110 내지 S150)에서 저장된 터치 입력 좌표 및 대응되는 입력 컨트롤 선택 정보에 기초하여 터치된 입력 컨트롤을 결정하고(S191), 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되지 않는 경우에는 비경계 영역에 터치된 입력 컨트롤을 결정한다(S193).
저장된 터치 입력 좌표 및 대응되는 입력 컨트롤 선택 정보에 기초하여 터치된 입력 컨트롤을 결정하는 방법으로는 다양한 것들이 이용될 수 있으나, 평균 터치 입력 좌표를 산출하여 이용하는 방법을 예로 들어 설명한다.
학습 과정이 끝나고, 인식 과정에 진입한 후 발생하는 터치 입력에 대응되는 터치 입력 좌표가 입력 컨트롤의 비경계 영역 내에 포함되는 경우에는 그 비경계 영역을 포함하는 입력 컨트롤에 대하여 터치 입력이 된 것으로 판단할 수 있다. 그러나 입력 컨트롤의 경계 영역 내에 포함되는 경우에는 학습 과정에서 저장된 정보들에 기초하여 어느 입력 컨트롤에 대하여 터치 입력이 된 것인지 판단할 수 있 다.
예를 들어, 상기 입력 컨트롤 선택 정보는 선택된 입력 컨트롤에 대한 정보를 포함하고 있으므로, 경계 영역에 인접한 입력 컨트롤 각각에 대한 입력 컨트롤 선택 정보를 선택하고, 선택된 입력 컨트롤 선택 정보에 대응되는 적어도 하나의 터치 입력 좌표로부터 평균 터치 입력 좌표를 산출할 수 있다. 그리고 평균 터치 입력 좌표를 중심으로 새로 산출된 터치 입력 좌표가 미리 정하여진 범위 내인지 여부에 따라 터치된 입력 컨트롤이 어느 것인지를 결정할 수 있다. 특히 상기 미리 정하여진 범위는 사용자의 손가락 크기일 수 있다.
도 7은 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법에서 평균 터치 입력 좌표의 산출 과정을 설명하기 위한 개념도이다.
도 7을 참조하면, 학습 과정에서 버튼 1/2 경계 영역에서 3개의 터치 입력이 검출되었고, 이들 터치 입력에 대하여 사용자가 버튼 1을 선택한 것으로 확인하였다. 학습 과정이 종료되면 인식 과정이 개시되는데, 상기 3개의 터치 입력에 대응되는 터치 입력 좌표들로부터 버튼 1에 대한 평균 터치 입력 좌표가 산출된다.
인식 과정에서 사용자가 각각의 영역에서 터치 입력을 한 경우를 나누어서 살펴 본다. 사용자가 a 터치 입력을 한 경우 이 터치 입력은 버튼 1 비경계 영역에서 발생한 것이므로 버튼 1에 대한 터치 입력이 된 것으로 판단한다. 사용자가 b 터치 입력을 한 경우 이 터치 입력은 버튼 1/2 경계 영역에서 발생한 것이므로 버튼 1에 대한 상기 평균 터치 입력 좌표로부터 미리 정하여진 범위 내인지를 판단하여야 한다. 도 7에서 점선으로 표시된 영역 내부가 상기 평균 터치 입력 좌표로부 터 미리 정하여진 범위에 해당한다. b 터치 입력은 점선으로 표시된 영역 내부에 해당하므로 상기 평균 터치 입력 좌표에 대응하는 버튼 1에 대하여 터치 입력이 된 것으로 판단한다. 사용자가 c 터치 입력을 한 경우 버튼 1/2 경계 영역에서 발생한 것이 아니므로 상기 평균 터치 입력 좌표로부터 미리 정하여진 범위 내인지를 추가적으로 판단하지 아니하고 버튼 2에 대한 터치 입력이 된 것으로 판단한다.
도 8은 본 발명의 다른 일 실시예에 따른 학습에 의한 터치 입력 인식 방법을 설명하기 위한 흐름도이다.
상기 도 8에 도시된 학습에 의한 터치 입력 인식 방법의 구성요소 중에서 터치 입력 검출 단계(S110), 터치 입력 좌표 산출 단계(S120), 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는지 판단하는 단계(S130) 및 입력 컨트롤 선택 확인 단계(S140)는 상기 도 5에 도시한 동일한 참조부호를 사용하며, 상기 도 5에 개시된 바와 그 기능 및 작용이 동일하므로 용이한 이해와 중복된 내용의 혼동을 회피하기 위해 동일한 구성요소에 대한 설명은 생략키로 한다. 다만, 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는지 판단한 결과 포함되지 않는 경우 입력 컨트롤 선택 확인 단계(S140) 및 후술할 경계 영역 조절 단계(S210)를 수행하지 않는다.
터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되어 사용자로부터 입력 컨트롤 선택을 확인 받은 경우(S140), 입력 컨트롤 선택 내용에 따라 경계 영역을 조절한다(S210). 이 경우 이전의 입력 컨트롤 선택에 대한 정보를 저장해 놓 았다가 복수의 동일한 입력 컨트롤 선택이 있는 경우에만 경계 영역을 조절할 수도 있다.
입력 컨트롤 선택에 기초하여 경계 영역을 조절함에 있어서, 터치 입력 좌표 방향으로 선택된 입력 컨트롤의 비경계 영역을 넓히고 경계 영역을 좁힐 수 있다.
도 9는 본 발명의 다른 일 실시예에 따른 학습에 의한 터치 입력 인식 방법에서 경계 영역 조절 과정을 설명하기 위한 개념도이다.
도 9의 좌측 그림에서와 같이 버튼 1/2 경계 영역에서 터치 입력이 검출되고, 사용자가 버튼 1을 선택한 것으로 확인한 경우, 도 9의 우측 그림에서와 같이 버튼 1 비경계 영역이 상기 터치 입력이 발생한 좌표 방향으로 확장되고, 버튼 1/2 경계 영역은 상기 터치 입력이 발생한 좌표 방향으로 축소될 수 있다.
도 9의 우측 그림에서 보는 바와 같이, 버튼 1 비경계 영역이 확장됨으로써 사용자가 습관적으로 정위치보다 아래 쪽에 터치하는 습관에 따라 터치 입력 인식을 조절할 수 있다. 즉, 버튼 1 비경계 영역이 점차 확장되고, 버튼 1/2 경계 영역이 점차 축소됨에 따라 원래 버튼 2가 차지하는 영역 부분까지도 터치 입력 시 버튼 1이 선택된 것으로 인식될 수 있다.
도 10은 본 발명의 일 실시예에 따른 휴대용 단말기의 구성을 나타내는 블록도이다. 여기서, 휴대용 단말기는 이동통신 단말기를 예로 들어 설명한다.
구체적으로, 터치 입력부(310)는 사용자로부터 상기 터치 입력부 상의 터 치 입력을 받아, 상기 터치 입력을 전위차, 커패시턴스, 파장, 또는 IR 광 인터럽트 등의 형태로 변환하고, 상기 변환한 결과를 터치 제어부(351)로 출력한다.
터치 제어부(351)는 터치 입력부(310)로부터 상기 터치 입력에 대한 전위차, 커패시턴스, 파장, 또는 IR 광 인터럽트 등의 형태를 갖는 값을 입력 받아, 입력된 값으로부터 터치 입력 좌표를 산출하고, 산출된 상기 터치 입력 좌표를 중앙 제어부(353)로 출력한다.
키 입력부(320)는 사용자로부터 키패드(Keypad) 상의 키 입력을 받아, 상기 키 입력을 상기 키 입력에 대응하는 키 코드(Key Code)의 형태로 변환하고, 상기 변환한 키 코드를 중앙 제어부(353)로 출력한다. 여기서, 상기 키 입력부(320)은 상기 본 발명의 일 실시에에 따른 휴대용 단말기가 전면 터치 스크린을 구비하는 경우 생략될 수 있다.
카메라 모듈부(330)는 사용자 및/또는 사용자의 주변 이미지를 촬영하여 화상 이미지를 생성하고, 상기 화상 이미지를 노이즈 제거 및 이미지 보정 등과 같은 영상 처리를 거쳐서 디스플레이 가능한 이미지 데이터 형태로 변환하여, 상기 이미지 데이터를 중앙 제어부(353)로 출력한다. 카메라 모듈부(330)는 CMOS 이미지 센서 또는 CCD 이미지 센서를 포함하는 카메라(미도시) 및 영상 처리부(미도시)를 포함할 수 있다.
마이크(340)는 사용자 및/또는 사용자의 주변 소리를 전기적 신호 형태로 변환하여, 상기 전기적 신호를 중앙 제어부(353)로 출력한다.
중앙 제어부(353)는 터치 제어부(351)로부터 산출된 상기 터치 입력 좌표 를 입력 받아, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는지 여부를 판단한다. 중앙 제어부(353)는 상기 판단 결과 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 화면을 구성하는 이미지 데이터를 생성하여 디스플레이부(370)로 출력하여 표시하고, 터치 입력부(310) 및 터치 제어부(320)를 통하여 어느 입력 컨트롤이 선택된 것인지 사용자로부터 확인 받는다. 그리고 중앙 제어부(353)는 상기 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보를 저장부(360)로 출력한다.
본 발명의 다른 실시예에서는, 중앙 제어부(353)는, 별개의 터치 제어부(351)를 거치지 아니하고, 터치 입력부(310)로부터 상기 터치 입력에 대한 전위차, 커패시턴스, 파장, 또는 IR 광 인터럽트 등의 형태를 갖는 값을 입력 받아, 상기 터치 입력에 대한 값에 대응되는 상기 터치 입력 좌표를 산출할 수 있다.
중앙 제어부(353)는, 상술한 입력 컨트롤 선택 확인을 미리 정하여진 횟수만큼 반복한 후, 그 이후 발생하는 터치 입력으로부터 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 저장부(360)에 저장된 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보를 입력으로 받아 터치된 입력 컨트롤이 어느 것인지 결정한다. 이 경우 어느 입력 컨트롤에 대하여 저장부(360)에 저장된 적어도 하나의 터치 입력 좌표로부터 각각의 입력 컨트롤에 대한 평균 터치 입력 좌표를 산출하고, 상기 평균 터치 입력 좌표로부터 상기 산출된 터치 입력 좌표가 미리 정하여진 범위 내인지 여부에 따라 터치된 입력 컨트롤이 어느 것인지 결정할 수 있다.
중앙 제어부(353)가 사용자로부터 입력 컨트롤 선택을 확인 받는 기능 및 터치된 입력 컨트롤이 어느 것인지 결정하는 기능에 대하여는 상기 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법에 있어서 상기 도 5 내지 도 7을 참조하여 입력 컨트롤 선택을 확인 받는 단계(S140) 및 터치된 입력 컨트롤 결정 단계(S191, S193)에 대하여 설명한 바와 유사하게 이해될 수 있으므로 이하 설명을 생략한다.
중앙 제어부(353)는 사용자로부터 학습에 의한 터치 입력 인식 모드가 개시되었는지 판단할 수 있다. 사용자가 휴대용 단말기에서 미리 정하여진 기능 버튼을 누르거나, 본 발명을 지원하는 운영체제 또는 애플리케이션 상에서 상기 학습에 의한 터치 입력 인식 모드 개시에 대응하는 메뉴를 선택함으로써 상기 학습에 의한 터치 입력 인식 모드가 개시될 수 있다. 중앙 제어부(353)는 상기 판단 결과 상기 학습에 의한 터치 입력 인식 모드가 개시된 경우에 본 발명을 수행할 수 있다. 중앙 제어부(353)는 상기 학습에 의한 터치 입력 인식 모드 개시에 상응하는 설정 정보를 저장부(260)에 저장할 수 있다.
중앙 제어부(353)는 키 입력부(320)로부터 키 코드를 입력 받아, 키 코드에 상응하는 문자 입력, 숫자 입력, 휴대용 단말기 설정 변경, 휴대용 단말기 설정 표시 및 애플리케이션 실행 중 적어도 하나의 동작을 수행할 수 있다.
중앙 제어부(353)는 카메라 모듈부(330)로부터 이미지 데이터를 입력 받아, 이미지 데이터를 FAT16, FAT32 등의 파일 시스템에서 인식될 수 있는 이미지 파일의 형태로 저장부(360)에 저장하고, 저장된 이미지 파일에 대하여 삭제, 이름 변경, 폴더 위치 이동 등의 조작을 하거나, 이미지 밝기 조절, 이미지 색상 조절, 이미지에 글자 삽입 등의 후처리를 할 수 있다.
중앙 제어부(353)는 마이크(340)로부터 전기적 신호를 입력 받아, 상기 전기적 신호에 대해 노이즈 제거 및 음성 보정 등과 같은 음성 처리를 거쳐서 송신 가능한 전기적 신호로 변환하여, 변환한 결과를 상기 무선 송수신부(390)로 출력할 수 있다.
저장부(360)는 중앙 제어부(353)로부터 상기 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보를 저장하고, 중앙 제어부(353)의 요청에 따라 상기 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보를 중앙 제어부(353)로 출력한다.
디스플레이부(370)는 상기 중앙 제어부(353)로부터 입력 컨트롤 선택 화면을 구성하는 이미지 데이터를 입력 받아, 상기 이미지 데이터를 화면 상에 출력한다. 디스플레이부(370)는 액정 표시 장치(liquid crystal display: LCD) 등과 같은 디스플레이 장치를 이용하여 구현될 수 있다.
스피커(380)는 중앙 제어부(353)로부터 전기적 신호를 입력 받아, 상기 전기적 신호를 소리로 변환하여 출력할 수 있다.
무선 송수신부(390)는 중앙 제어부(353)로부터 사용자 및/또는 사용자 주변의 소리에 대응하는 송신 가능한 전기적 신호를 입력 받아, 송신 가능한 전기적 신호를 유선 또는 무선 네트워크를 통하여 상대방 휴대용 단말기로 전송할 수 있다.
무선 송수신부(390)는 상대방 휴대용 단말기로부터 유선 또는 무선 네트워크를 통하여 상대방의 음성에 대응하는 전기적 신호를 입력 받아, 상대방의 음성에 대응하는 전기적 신호를 중앙 제어부(353)로 출력할 수 있다. 이 경우 중앙 제어부(353)는 무선 송수신부(390)로부터 상대방의 음성에 대응하는 전기적 신호를 입력 받아, 상기 전기적 신호에 대해 노이즈 제거 및 음성 보정 등과 같은 음성 처리를 거쳐서 음성 출력 가능한 전기적 신호로 변환하여, 변환한 결과를 스피커(380)로 출력할 수 있다.
터치 제어부(351) 및 중앙 제어부(353)는 제어부(350)와 같이 하나의 블록으로 구현되어 하나의 반도체 칩으로 구현될 수 있다.
본 발명의 다른 실시예에서는, 터치 입력부(310) 및 터치 제어부(351)는 터치 모듈부(미도시)와 같이 하나의 블록으로 구현될 수 있다. 예를 들어, 터치 제어부(351)가 터치 입력부(310) 제조 공정과 동일한 반도체 공정에 의해 함께 제조될 수 있다.
본 발명의 다른 실시예에서는, 중앙 제어부(353)가 상술한 입력 컨트롤 선택에 기초하여 상기 경계 영역을 조절할 수 있다. 이 경우 중앙 제어부(353)는 이전의 입력 컨트롤 선택에 대한 정보를 저장부(360)에 저장해 놓았다가 복수의 동일한 입력 컨트롤 선택이 있는 경우에만 상기 경계 영역을 조절할 수도 있다.
중앙 제어부(353)는 입력 컨트롤 선택에 기초하여 경계 영역을 조절함에 있어서, 터치 입력 좌표 방향으로 선택된 입력 컨트롤의 비경계 영역을 넓히고 경계 영역을 좁힐 수 있다.
중앙 제어부(353)가 사용자로부터 입력 컨트롤 선택을 확인 받는 기능 및 입력 컨트롤 선택에 기초하여 경계 영역을 조절하는에 대하여는 상기 본 발명의 다른 실시예에 따른 학습에 의한 터치 입력 인식 방법에 있어서 상기 도 8 내지 도 9을 참조하여 입력 컨트롤 선택을 확인 받는 단계(S140) 및 경계 영역을 조절하는 단계(S210)에 대하여 설명한 바와 유사하게 이해될 수 있으므로 이하 설명을 생략한다.
상기에서는 휴대용 단말기를 예로 들어 설명하였으나, 본 발명은 휴대용 단말기에만 한정되지 않으며, 터치 입력부를 가지는 개인 휴대정보 단말기(personal digital assistant: PDA), 휴대용 멀티미디어 플레이어(portable multimedia player: PMP), MP3 플레이어 등과 같은 다양한 휴대용 장치 및 터치 입력부를 가지는 텔레비전 등의 영상 처리 장치에도 적용될 수 있다.
이상 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
도 1 내지 도 4는 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법을 설명하기 위한 개념도이다.
도 5는 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법에서 입력 컨트롤의 경계 영역을 설명하기 위한 개념도이다.
도 7은 본 발명의 일 실시예에 따른 학습에 의한 터치 입력 인식 방법에서 평균 터치 입력 좌표의 산출 과정을 설명하기 위한 개념도이다.
도 8은 본 발명의 다른 일 실시예에 따른 학습에 의한 터치 입력 인식 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 다른 일 실시예에 따른 학습에 의한 터치 입력 인식 방법에서 경계 영역 조절 과정을 설명하기 위한 개념도이다.
도 10은 본 발명의 일 실시예에 따른 휴대용 단말기의 구성을 나타내는 블록도이다.
* 도면의 주요부분에 대한 부호의 설명 *
310 : 터치 입력부 320 : 키 입력부
330 : 카메라 모듈부 340 : 마이크
350 : 제어부 360 : 저장부
370 : 디스플레이부 380 : 스피커

Claims (18)

  1. (a) 터치 입력을 검출하는 단계;
    (b) 검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출하는 단계;
    (c) 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 확인을 받는 단계; 및
    (d) 상기 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보를 저장하는 단계를 포함하되,
    상기 (a) 내지 (d) 단계가 미리 정하여진 횟수만큼 반복된 후 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 저장된 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보에 기초하여 터치된 입력 컨트롤을 결정하는 것을 특징으로 하는 터치 입력 인식 방법.
  2. 제1항에 있어서,
    상기 터치 입력 인식 방법은, 상기 (a) 내지 (d) 단계가 미리 정하여진 횟수만큼 반복된 후 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우,
    상기 경계 영역에 인접한 입력 컨트롤 각각에 대하여 저장된 상기 입력 컨트롤 선택 정보에 대응되는 적어도 하나의 터치 입력 좌표로부터 평균 터치 입력 좌표를 산출하고, 상기 평균 터치 입력 좌표로부터 상기 산출된 터치 입력 좌표가 미리 정하여진 범위 내인지 여부에 따라 상기 터치된 입력 컨트롤을 결정하는 것을 특징으로 하는 터치 입력 인식 방법.
  3. 제1항에 있어서,
    상기 (c) 단계는, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우,
    (c1) 사용자가 터치하려고 한 입력 컨트롤을 확인하는 입력 컨트롤 선택 화면을 표시하는 단계; 및
    (c2) 상기 입력 컨트롤 선택 화면 상에서 상기 입력 컨트롤 선택을 받는 단계를 포함하는 것을 특징으로 하는 터치 입력 인식 방법.
  4. 제3항에 있어서,
    상기 입력 컨트롤 선택 화면은 선택 가능한 입력 컨트롤의 정보를 포함하는 팝업 창 또는 산출된 상기 터치 입력 좌표 주위에 위치하는 서브 메뉴 화면인 것을 특징으로 하는 터치 입력 인식 방법.
  5. (a) 터치 입력을 검출하는 단계;
    (b) 검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출하는 단계;
    (c) 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 확인을 받는 단계; 및
    (d) 상기 입력 컨트롤 선택에 기초하여 상기 경계 영역을 조절하는 단계를 포함하는 터치 입력 인식 방법.
  6. 제5항에 있어서,
    상기 (c) 단계는, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우,
    (c1) 사용자가 터치하려고 한 입력 컨트롤을 확인하는 입력 컨트롤 선택 화면을 표시하는 단계; 및
    (c2) 상기 입력 컨트롤 선택 화면 상에서 상기 입력 컨트롤 선택을 받는 단계를 포함하는 것을 특징으로 하는 터치 입력 인식 방법.
  7. 제6항에 있어서,
    상기 입력 컨트롤 선택 화면은 선택 가능한 입력 컨트롤의 정보를 포함하는 팝업 창 또는 산출된 상기 터치 입력 좌표 주위에 위치하는 서브 메뉴 화면인 것을 특징으로 하는 터치 입력 인식 방법.
  8. 제5항에 있어서,
    상기 (d) 단계는, 상기 입력 컨트롤 선택에 기초하여 상기 경계 영역을 조절하되, 선택된 입력 컨트롤의 비경계 영역을 상기 터치 입력 좌표 방향으로 확장하는 것을 특징으로 하는 터치 입력 인식 방법.
  9. 제5항에 있어서,
    상기 (d) 단계는, 복수의 동일한 상기 입력 컨트롤 선택이 있는 경우에 상기 경계 영역을 조절하는 것을 특징으로 하는 터치 입력 인식 방법.
  10. 터치 입력을 검출하는 터치 입력부; 및
    검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출하고, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 확인을 받으며, 상기 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보를 저장하는 제어부를 포함하되,
    상기 제어부는, 입력 컨트롤 선택 확인이 미리 정하여진 횟수만큼 반복된 후 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 저장된 터치 입력 좌표 및 대응되는 상기 입력 컨트롤 선택 정보에 기초하여 터치된 입력 컨트롤을 결정하는 것을 특징으로 하는 휴대용 단말기.
  11. 제10항에 있어서,
    상기 제어부는, 입력 컨트롤 선택 확인이 미리 정하여진 횟수만큼 반복된 후 산출된 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우,
    상기 경계 영역에 인접한 입력 컨트롤 각각에 대하여 저장된 상기 입력 컨트롤 선택 정보에 대응되는 적어도 하나의 터치 입력 좌표로부터 평균 터치 입력 좌표를 산출하고, 상기 평균 터치 입력 좌표로부터 상기 산출된 터치 입력 좌표가 미리 정하여진 범위 내인지 여부에 따라 상기 터치된 입력 컨트롤을 결정하는 것을 특징으로 하는 휴대용 단말기.
  12. 제10항에 있어서,
    상기 휴대용 단말기는,
    상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 화면을 표시하는 디스플레이부를 더 포함하되,
    상기 제어부는, 상기 터치 입력부를 통하여 상기 입력 컨트롤 선택 화면 상에서 상기 입력 컨트롤 선택을 받는 것을 특징으로 하는 휴대용 단말기.
  13. 제12항에 있어서,
    상기 입력 컨트롤 선택 화면은 선택 가능한 입력 컨트롤의 정보를 포함하는 팝업 창 또는 산출된 상기 터치 입력 좌표 주위에 위치하는 서브 메뉴 화면인 것을 특징으로 하는 휴대용 단말기.
  14. 터치 입력을 검출하는 터치 입력부; 및
    검출된 상기 터치 입력으로부터 터치 입력 좌표를 산출하고, 상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 확인을 받으며, 상기 입력 컨트롤 선택에 기초하여 상기 경계 영역을 조절하는 제어부를 포함하는 휴대용 단말기.
  15. 제14항에 있어서,
    상기 휴대용 단말기는,
    상기 터치 입력 좌표가 입력 컨트롤의 경계 영역 내에 포함되는 경우 입력 컨트롤 선택 화면을 표시하는 디스플레이부를 더 포함하되,
    상기 제어부는, 상기 터치 입력부를 통하여 상기 입력 컨트롤 선택 화면 상에서 상기 입력 컨트롤 선택을 받는 것을 특징으로 하는 휴대용 단말기.
  16. 제15항에 있어서,
    상기 입력 컨트롤 선택 화면은 선택 가능한 입력 컨트롤의 정보를 포함하는 팝업 창 또는 산출된 상기 터치 입력 좌표 주위에 위치하는 서브 메뉴 화면인 것을 특징으로 하는 휴대용 단말기.
  17. 제14항에 있어서,
    상기 제어부는, 상기 입력 컨트롤 선택에 기초하여 상기 경계 영역을 조절하되, 선택된 입력 컨트롤의 비경계 영역을 상기 터치 입력 좌표 방향으로 확장하는 것을 특징으로 하는 휴대용 단말기.
  18. 제14항에 있어서,
    상기 제어부는, 복수의 동일한 상기 입력 컨트롤 선택이 있는 경우에 상기 경계 영역을 조절하는 것을 특징으로 하는 휴대용 단말기.
KR1020090012738A 2009-02-17 2009-02-17 학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용단말기 KR20100093689A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090012738A KR20100093689A (ko) 2009-02-17 2009-02-17 학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용단말기

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090012738A KR20100093689A (ko) 2009-02-17 2009-02-17 학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용단말기

Publications (1)

Publication Number Publication Date
KR20100093689A true KR20100093689A (ko) 2010-08-26

Family

ID=42757965

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090012738A KR20100093689A (ko) 2009-02-17 2009-02-17 학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용단말기

Country Status (1)

Country Link
KR (1) KR20100093689A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011077308A1 (en) * 2009-12-23 2011-06-30 Nokia Corporation Overlay handling
WO2015130040A1 (en) * 2014-02-28 2015-09-03 Lg Electronics Inc. Mobile terminal and controlling method thereof
WO2023018110A1 (ko) * 2021-08-10 2023-02-16 삼성전자주식회사 핸들 부분을 이용한 어플리케이션의 이동 방법 및 장치

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011077308A1 (en) * 2009-12-23 2011-06-30 Nokia Corporation Overlay handling
US8378982B2 (en) 2009-12-23 2013-02-19 Nokia Corporation Overlay handling
WO2015130040A1 (en) * 2014-02-28 2015-09-03 Lg Electronics Inc. Mobile terminal and controlling method thereof
WO2023018110A1 (ko) * 2021-08-10 2023-02-16 삼성전자주식회사 핸들 부분을 이용한 어플리케이션의 이동 방법 및 장치

Similar Documents

Publication Publication Date Title
US9007314B2 (en) Method for touch processing and mobile terminal
US8271908B2 (en) Touch gestures for remote control operations
US10079972B2 (en) Method for controlling graphical user interface of camera application
US20140368442A1 (en) Apparatus and associated methods for touch user input
EP2854003A2 (en) Electronic device and method for converting image format object to text format object
EP3000016B1 (en) User input using hovering input
US20140181740A1 (en) Method and apparatus for related user inputs
US11106355B2 (en) Drag menu
WO2009074047A1 (fr) Procédé, système, dispositif et terminal pour la correction d'erreur d'écran tactile
EP2613247B1 (en) Method and apparatus for displaying a keypad on a terminal having a touch screen
WO2017092293A1 (zh) 对象操作方法及装置
KR20130097331A (ko) 터치 스크린을 구비하는 전자기기에서 객체를 선택하기 위한 장치 및 방법
WO2018010223A1 (zh) 应用程序的操控方法、操控装置和终端
CN109683802B (zh) 一种图标移动方法及终端
JP2011191927A (ja) 情報処理装置及び処理実行方法
WO2013182141A1 (zh) 一种人机交互方法、装置及其电子设备
JP2014035603A (ja) 情報処理装置、表示処理方法、表示処理制御プログラム、記録媒体
EP2517444B1 (en) Method and apparatus for performing a function in an electronic device
KR20150051409A (ko) 전자 장치 및 이의 어플리케이션 실행 방법
KR20100093689A (ko) 학습에 의한 터치 입력 인식 방법 및 이를 수행하는 휴대용단말기
KR101483301B1 (ko) 터치 입력부를 이용한 영상 처리 장치의 제어 방법 및 이를수행하는 영상 처리 장치
KR101387218B1 (ko) 멀티터치를 이용한 휴대용 단말기의 화면 확대 비율 조절방법 및 이를 수행하는 휴대용 단말기
KR20190001076A (ko) 사용자 터치 유지 시간에 기초한 이동단말기의 컨텐츠 제공 방법
WO2014148215A1 (ja) 端末装置及びオブジェクト選択方法
KR20090116843A (ko) 터치 입력부를 구비한 영상 처리 장치의 애플리케이션 실행방법 및 이를 수행하는 영상 처리 장치

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid