KR20140027838A - 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 및 제어 방법 - Google Patents

멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 및 제어 방법 Download PDF

Info

Publication number
KR20140027838A
KR20140027838A KR1020120093945A KR20120093945A KR20140027838A KR 20140027838 A KR20140027838 A KR 20140027838A KR 1020120093945 A KR1020120093945 A KR 1020120093945A KR 20120093945 A KR20120093945 A KR 20120093945A KR 20140027838 A KR20140027838 A KR 20140027838A
Authority
KR
South Korea
Prior art keywords
touch
input
output
handwriting
window
Prior art date
Application number
KR1020120093945A
Other languages
English (en)
Other versions
KR102051585B1 (ko
Inventor
나석희
잉 동
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120093945A priority Critical patent/KR102051585B1/ko
Priority to EP13181534.2A priority patent/EP2703981B1/en
Priority to US14/010,914 priority patent/US9207792B2/en
Priority to CN201310378630.8A priority patent/CN103631434B/zh
Publication of KR20140027838A publication Critical patent/KR20140027838A/ko
Application granted granted Critical
Publication of KR102051585B1 publication Critical patent/KR102051585B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법은 모바일 장치의 터치스크린상의 핸드 라이팅 입력창에서 핸드 라이팅 입력을 검출하는 단계와; 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분하는 단계와; 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성하는 단계와; 상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시하는 단계를 포함한다.

Description

멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 및 제어 방법{A MOBILE APPARATUS HAVING A FUNCTION OF HAND WRITING USING MULTI-TOUCH AND A CONTROL METHOD THEREOF}
본 발명은 모바일 장치 및 그 제어 방법에 관한 기술에 속한다. 특히 본 발명은 멀티 터치를 이용한 핸드 라이팅 기능을 제공하는 모바일 장치 및 제어 방법에 관한 것으로 핸드 라이팅의 인식률을 증대시키는 기술에 속한다.
근자에 모바일 장치에 관한 기술이 발전하면서 상기 모바일 장치에 문자를 입력하는 방법에 관한 기술도 함께 발전하고 있다. 상기 모바일 장치에 문자를 입력하는 방법은 먼저 키패드를 이용하여 입력하는 방법이다. 즉 상기 모바일 장치에 형성된 키패드가 눌려진 것을 감지하여 상기 모바일 장치에 문자를 입력할 수 있다.
또한 최근 터치스크린에 관한 기술이 발전하고 있다. 따라서 상기 터치스크린을 사용하여 모바일 장치에 문자를 입력하는 기술이 존재한다. 즉 상기 터치스크린에 가상의 키패드가 표시될 수 있다. 이렇게 표시된 가상의 키패드에 대한 터치를 검출하여 상기 모바일 장치에 문자를 입력할 수 있다.
그런데 최근에는 문자 입력 방법과 관련하여 필기 인식 기술이 발전하고 있다. 특히 상기 필기 인식 기술은 터치스크린 기술과 결합하여, 상기 터치스크린상에 사용자가 핸드 라이팅(Hand writing, 수기, 손글씨)을 터치로 입력하면, 상기 터치를 분석하여, 사용자가 입력하고자 하는 문자를 생성하고 이를 모바일 장치에 입력하는 기술이다.
그런데 사용자가 입력하고자 하는 문자는 그 형태가 매우 다양하여, 상기 터치스크린상에 터치된 핸드 라이팅을 상기 모바일 장치가 분석하는 경우, 사용자가 입력하고자 했던 문자와 다른 문자가 인식되는 경우가 많다. 특히 특정 문자와 크기만 다른 유사한 문자가 존재하는 경우, 상기 모바일 장치는 인식률이 매우 낮아지게 되는 문제가 발생한다. 예를 들어 영어 알파벳의 경우 소문자 'c'와 대문자 'C'는 그 크기만 다를 뿐 형태가 유사하므로 인식률이 매우 떨어지게 된다. 또한 특정 문자와 비교하여 ' 과 같은 점만 추가로 형성된 문자의 경우에도 그 인식률이 매우 떨어지게 되는 문제점이 발생하고 있는 실정이다.
본 발명의 일실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 및 제어 방법은 멀티 터치 입력에 대응하는 멀티 터치 출력을 생성하여 핸드 라이팅을 출력하는 기술을 제공한다.
본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법은 모바일 장치의 터치스크린상의 핸드 라이팅 입력창에서 핸드 라이팅 입력을 검출하는 단계와; 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분하는 단계와; 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성하는 단계와; 상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시하는 단계를 포함한다.
본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치는 모바일 장치의 화면을 표시하는 터치스크린과; 상기 터치스크린상의 핸드 라이팅 입력창에서 핸드 라이팅 입력을 검출하고, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분하고, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성하고, 상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시하는 제어부를 포함한다.
본 발명의 일실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 및 제어 방법은 멀티 터치 입력에 대응하는 멀티 터치 출력을 생성하여 인식률이 높은 핸드 라이팅을 출력하는 이점이 있다.
도 1은 본 발명의 일 실시예에 따른 모바일 장치를 나타내는 개략적인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 모바일 장치의 전면 사시도이다.
도 3은 본 발명의 일 실시예에 따른 모바일 장치의 후면 사시도이다.
도 4는 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법에 대한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 모바일 장치의 화면을 나타내는 도면이다.
도 6은 핸드 라이팅 기능을 가지는 모바일 장치의 비교 예를 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 모바일 장치의 화면을 나타내는 도면이다.
도 8은 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제1 예이다.
도 9는 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제2 예이다.
도 10은 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제3 예이다.
도 11은 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제4 예이다.
도 12는 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제5 예이다.
도 13은 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제6 예이다.
도 14는 본 발명의 다른 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법에 대한 흐름도이다.
도 15는 본 발명의 다른 실시예에 따른 모바일 장치의 화면을 나타낸 도면이다.
도 16은 본 발명의 다른 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제7 예이다.
도 17은 본 발명의 다른 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제8 예이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명의 일 실시예에 따른 모바일 장치를 나타내는 개략적인 블록도이다.
도 1을 참조하면, 장치(100)는 서브통신 모듈(130), 커넥터(165), 및 이어폰 연결잭(167)과 같은 외부 장치 연결부를 이용하여 외부 장치(도시되지 아니함)와 연결될 수 있다. “외부 장치”는 상기 장치(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들(Cradle), 도킹 스테이션(Docking station), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 내비게이션 장치 등 다양한 장치들을 포함할 수 있다. 또한 상기 "외부 장치"는 근거리 통신에 의하여 무선으로 상기 장치(100)에 연결될 수 있는 블루투스 통신 장치, NFC(Near Field Communication) 장치와 같은 근거리 통신 장치, 및 WiFi Direct 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 또한, 상기 외부 장치는 다른 장치, 휴대폰, 스마트폰, 태블릿PC, 데스크탑 PC, 및 서버를 포함할 수 있다.
도 1을 참조하면, 장치(100)는 표시부(190) 및 디스플레이 컨트롤러(195)를 포함한다. 또한, 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원공급부(180)를 포함한다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 키패드(166), 및 이어폰 연결잭(167) 중 적어도 하나를 포함한다. 이하에서는 상기 표시부(190) 및 디스플레이 컨트롤러(195)가 각각 터치스크린 및 터치스크린 컨트롤러인 경우를 예로 들어 설명한다.
제어부(110)는 CPU(111), 장치(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 112) 및 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 터치스크린(190), 및 터치스크린 컨트롤러(195)를 제어할 수 있다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈(120)은 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 장치(100)와 화상형성장치(도시되지 아니함) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.
장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(110)에 포함될 수 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 제1 카메라(151) 또는 제2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(도시되지 아니함))을 포함할 수 있다. 제1 카메라(151)는 상기 장치(100) 전면에 배치되고, 제2 카메라(152)는 상기 장치(100)의 후면에 배치될 수 있다. 달리 취한 방식으로, 제1 카메라(151)와 제2 카메라(152)는 인접(예, 제1 카메라(151)와 제2 카메라(152)의 간격이 1 cm 보다 크고, 8 cm 보다는 작은)하게 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 장치(100)의 위치를 산출할 수 있다.
입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 장치(100) 외부로 출력할 수 있다. 스피커(163)는 장치(100)가 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 상기 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 상기 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치스크린(190) 상을 터치하는 사용자의 터치 동작 및 터치스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 상기 장치(100)와 외부 장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 상기 장치(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)로부터 데이터를 수신할 수 있다. 또한 상기 장치(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)로부터 전원을 입력받거나, 상기 전원소스를 이용하여 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(도시되지 아니함)이 삽입되어 상기 장치(100)에 연결될 수 있다.
장치(100) 내부에 스타일러스 펜이 삽입되어 보관될 수 있으며, 사용시에는 상기 장치(100)로부터 인출 및 탈착될 수 있다.
센서 모듈(170)은 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 장치(100)에 대한 접근여부를 검출하는 근접센서(도시되지 아니함), 장치(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 아니함), 또는 장치(100)의 동작(예, 장치(100)의 회전, 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(도시되지 아니함), 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor, 도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor,도시되지 아니함), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter,도시되지 아니함)를 포함할 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서모듈(170)의 센서는 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.
“저장부”라는 용어는 저장부(175), 제어부(110)내 롬(112), 램(113) 또는 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
전원공급부(180)는 제어부(110)의 제어에 따라 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 장치(100)에 전원을 공급한다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 장치(100)로 공급할 수 있다. 또한, 전원공급부(180)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 장치(100)로 공급할 수도 있다.
터치스크린(190)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(190)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한, 터치스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.
본 발명에서 터치는 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉을 포함할 수 있다. 이때 터치스크린(190)에서 검출가능한 간격은 장치(100)의 성능 또는 구조에 따라 변경될 수 있다. 그리고 터치스크린(190)은 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 의한 터치 이벤트와, 비접촉 상태로의 입력(예컨대, 호버링(Hovering)) 이벤트를 구분하여 검출 가능하도록, 상기 터치 이벤트와 호버링 이벤트에 의해 검출되는 값(예컨대, 전류값 등)이 다르게 출력될 수 있도록 구성된다. 더 나아가, 터치스크린(190)은 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리에 따라, 검출되는 값(예컨대, 전류값 등)을 다르게 출력하는 것이 바람직하다.
터치스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
터치스크린 컨트롤러(195)는 터치스크린(190)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 이벤트 또는 호버링 이벤트에 응답하여 터치스크린(190)에 표시된 아이콘(도시되지 아니함)이 선택되게 하거나 또는 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 터치스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.
더 나아가, 터치스크린 컨트롤러(195)는 터치스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수 있다.
또한, 터치스크린(190)은 사용자의 신체 및 터치 가능한 입력 수단에 의한 입력을 동시에 입력받을 수 있도록, 사용자의 신체 및 터치 가능한 입력 수단의 터치나 근접을 각각 감지할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력값을 터치스크린 컨트롤러(195)에 제공하고, 터치스크린 컨트롤러(195)은 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치스크린으로부터의 입력이 사용자의 신체에 의한 입력인지, 터치 가능한 입력 수단에 의한 입력인지를 구분할 수 있다. 이때 상기 터치 가능한 입력 수단에 의한 입력을 받는 터치스크린 패널은 예를 들면 EMR 패드일 수 있다. 상기 EMR 패드는 예를 들면 스타일러스 펜과의 전자기(Electro Magnetic Radiation) 신호의 송수신을 통해 상기 출력값을 상기 터치스크린 컨트롤러(195)에 제공할 수 있다.
도 2는 본 발명의 일 실시예에 따른 모바일 장치의 전면 사시도이다. 도 3은 본 발명의 일 실시예에 따른 모바일 장치의 후면 사시도이다.
도 2를 참조하면, 장치(100)의 전면(100a) 중앙에는 터치스크린(190)이 배치된다. 상기 터치스크린(190)은 장치(100)의 전면(100a)의 대부분을 차지하도록 크게 형성된다. 도 2에서는, 상기 터치스크린(190)에 메인 홈 화면이 표시된 예를 나타낸다. 메인 홈 화면은 장치(100)의 전원을 켰을 때 상기 터치스크린(190) 상에 표시되는 첫 화면이다. 또한 상기 장치(100)가 여러 페이지의 서로 다른 홈화면들을 갖고 있을 경우, 메인 홈 화면은 상기 여러 페이지의 홈 화면들 중 첫 번째 홈 화면일 수 있다. 홈 화면에는 자주 사용되는 애플리케이션들을 실행하기 위한 단축 아이콘들(191-1, 191-2, 191-3), 애플리케이션 화면 실행 아이콘(191-4), 시간, 날씨 등이 표시될 수 있다. 상기 애플리케이션 화면 실행 아이콘(191-4)은 상기 터치스크린(190) 상에 애플리케이션 화면을 표시한다. 또한, 상기 터치스크린(190)의 상단에는 배터리 충전상태, 수신신호의 세기, 현재 시각과 같은 장치(100)의 상태를 표시하는 상태바(Status Bar, 192)가 형성될 수도 있다.
상기 터치스크린(190)의 하부에는 홈 버튼(161a), 메뉴 버튼(161b), 및 뒤로 가기 버튼(161c)이 형성될 수 있다.
홈 버튼(161a)은 터치스크린(190)에 메인 홈 화면(main Home screen)을 표시한다. 예를 들어, 터치스크린(190)에 상기 메인 홈 화면과 다른 홈 화면(any Home screen) 또는 메뉴화면이 표시된 상태에서, 상기 홈 버튼(161a)이 눌려지면(또는 터치되면), 터치스크린(190)에 메인 홈 화면이 디스플레이될 수 있다. 또한, 터치스크린(190) 상에서 애플리케이션들이 실행되는 도중 홈 버튼(161a)이 눌려지면(또는 터치되면), 상기 터치스크린(190)상에는 도 2에 도시된 메인 홈 화면이 디스플레이될 수 있다. 또한 홈 버튼(161a)은 상기 터치스크린(190) 상에 최근에(recently) 사용된 애플리케이션들을 디스플레이하도록 하거나, 태스크 매니저(Task Manager)를 디스플레이하기 위하여 사용될 수도 있다.
메뉴 버튼(161b)은 터치스크린(190) 상에서 사용될 수 있는 연결 메뉴를 제공한다. 상기 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다. 그리고 애플리케이션 실행시 상기 애플리케이션에 연결된 연결 메뉴를 제공할 수도 있다.
뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 디스플레이하거나, 가장 최근에 사용된 애플리케이션을 종료시킬 수 있다.
장치(100)의 전면(100a) 가장자리에는 제1 카메라(151)와 조도 센서(170a) 및 근접 센서(170b)가 배치될 수 있다. 장치(100)의 후면(100c)에는 제2 카메라(152), 플래시(flash, 153), 스피커(163)가 배치될 수 있다.
장치(100)의 측면(100b)에는 예를 들어 전원/리셋 버튼(161d), 음량 조절 버튼(161e), 방송 수신을 위한 지상파 DMB 안테나(141a), 하나 또는 복수의 마이크들(162) 등이 배치될 수 있다. 상기 DMB 안테나(141a)는 장치(100)에 고정되거나, 착탈 가능하게 형성될 수도 있다.
또한, 장치(100)의 하단 측면에는 커넥터(165)가 형성된다. 커넥터(165)에는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. 장치(100)의 상단 측면에는 이어폰 연결잭(167)이 형성될 수 있다. 이어폰 연결잭(167)에는 이어폰이 삽입될 수 있다.
도 4는 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법에 대한 흐름도이다.
도 4를 참조하면, 먼저 모바일 장치의 터치스크린상의 입력창에서 핸드 라이팅 입력을 검출한다(S110 단계). 그리고 도 5는 본 발명의 일 실시예에 따른 모바일 장치의 화면을 나타내는 도면이다.
도 5를 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 상기 화면(190)은 터치스크린으로 형성될 수 있다. 따라서 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 이때 상기 사용자 입력 수단은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치가능한 입력 수단(예, 스타일러스 펜)일 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력(Hand writing input)을 검출할 수 있다. 즉 상기 제어부(110)는 사용자 입력 수단에 의해 상기 입력창(220)에 핸드 라이팅된(수기된) 상기 핸드 라이팅 입력을 검출할 수 있다. 예를 들면 사용자가 손가락(사용자 입력 수단의 한 예)으로 상기 입력창(220)에 핸드 라이팅하는(손글씨를 쓰는, 또는 수기하는) 터치를 행하면, 상기 제어부(110)는 상기 터치를 검출하여 상기 핸드 라이팅 입력을 검출할 수 있다. 다른 예를 들면 사용자가 스타일러스 펜으로 상기 입력창(220)에 손글씨를 쓰는 터치를 행하면, 상기 제어부(110)는 상기 터치를 검출하여 상기 핸드 라이팅 입력을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다.
그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목(231 내지 237)이 포함될 수 있다. 상기 메뉴 항목에는 예를 들면 기호 항목(231)이 포함될 수 있다. 상기 기호 항목(231)에 대한 터치가 제어부(110)에 의해 검출되면, 상기 제어부(110)는 상기 입력창(220)에서 기호를 입력받을 수 있다. 그리고 상기 메뉴 항목에는 숫자 항목(232)이 포함될 수 있다. 상기 숫자 항목(232)에 대한 터치가 제어부(110)에 의해 검출되면, 상기 제어부(110)는 상기 입력창(220)에서 숫자를 입력받을 수 있다. 그리고 상기 메뉴 항목에는 설정(setup) 항목(233)이 포함될 수 있다. 상기 설정 항목(233)에 대한 터치가 상기 제어부(110)에 의해 검출되면, 상기 제어부(110)는 핸드 라이팅에 대한 기능 설정을 변경하는 상세 설정 항목을 상기 화면상에 표시할 수 있다. 이때 상기 상세 설정 항목에 대한 터치가 상기 제어부(110)에 의해 검출되면, 상기 제어부(110)는 터치된 상기 상세 설정 항목에 따라 상기 핸드 라이팅 기능을 변경할 수 있다. 그리고 상기 메뉴 항목에는 스페이스(space) 항목(234)이 포함될 수 있다. 상기 스페이스 항목(234)에 대한 터치가 제어부(110)에 의해 검출되면, 상기 제어부(110)는 상기 출력창(210)에 빈칸을 출력할 수 있다. 그리고 상기 메뉴 항목에는 백 스페이스(back space) 항목(235)이 포함될 수 있다. 상기 백 스페이스 항목(235)에 대한 터치가 제어부(110)에 의해 검출되면, 상기 제어부(110)는 상기 출력창(210)에서 바로 앞에서 출력된 하나의 데이터(예를 들면 문자)를 삭제할 수 있다. 그리고 상기 메뉴 항목에는 줄 바꾸기(enter) 항목(236)이 포함될 수 있다. 상기 줄 바꾸기 항목(236)에 대한 터치가 제어부(110)에 의해 검출되면, 상기 제어부(110)는 상기 출력창(210)에서 줄을 한 칸 아래로 바꾸어 커서(cursor)를 표시할 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S120 단계). 도 7은 본 발명의 일 실시예에 따른 모바일 장치의 화면을 나타내는 도면이다. 도 7을 참조하면, 상기 모바일 장치(100)의 화면은 터치스크린(190)으로 형성될 수 있다. 그리고 상기 터치스크린(190)에는 도 5에서 설명된 바와 같이, 핸드 라이팅을 출력하는 출력창(210), 핸드 라이팅을 입력받는 입력창(220), 및 메뉴창(230)이 표시될 수 있다. 그리고 상기 설명된 바와 같이 S110 단계에서, 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단의 터치를 검출하여 핸드 라이팅 입력(300)을 검출할 수 있다.
그리고 상기 제어부(110)는 S110 단계에서 검출된 핸드 라이팅 입력(300) 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 상기 싱글 터치 입력은 일반적인 하나의 단순 터치를 의미하고, 상기 멀티 터치 입력은 복수의 터치가 동시에 입력되는 터치를 의미한다(이때 상기 멀티 터치 입력은 터치가 특정 시간 간격으로 두 번의 터치 동작으로 수행되는 더블 터치와 구별된다).
그러므로 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력(300) 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력(300) 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 7a를 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자의 손가락 터치로부터 핸드 라이팅 입력(300)을 "Case"로 받을 수 있다. 이때 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐(302), 도 7a와 같이 두 개의 손가락으로 입력창(220)을 터치하는 제스쳐(302)로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(304)으로 구분할 수 있다. 즉 상기 도 7a의 예에서는 두 개의 손가락에 의해 두 개의 'C'가 멀티로 터치되는 제스쳐(302)에 의한 핸드 라이팅 입력이 상기 멀티 터치 입력(304)으로 상기 제어부(110)에 의해 구분될 수 있다. 그리고 상기 제어부(110)는 사용자의 의한 싱글 터치 제스쳐(312), 도 7a와 같이 한 개의 손가락으로 입력창(220)을 터치하는 제스쳐(312)로부터 발생한 핸드 라이팅 입력은 싱글 터치 입력(314)으로 구분할 수 있다. 즉 상기 도 7a의 예에서는 한 개의 손가락에 의해 'ase'가 싱글로 터치되는 제스쳐(312)에 의한 핸드 라이팅 입력이 상기 싱글 터치 입력(314)으로 상기 제어부(110)에 의해 구분될 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S130 단계). 상기 제어부(110)는 S120 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다. 예를 들면 도 7a에는 'c'에 대한 멀티 터치 입력(304)이 상기 입력창(220)에 표시되어 있다. 그리고 도 7b에는 상기 멀티 터치 입력(304)에 대응하는 멀티 터치 출력(404)이 출력창(210)에 표시되어 있다. 즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(304)에 대응하는 멀터 터치 출력(404)을 생성할 수 있다. 이때 상기 멀티 터치 입력(304)은 예를 들면 제1 터치와 제2 터치를 포함할 수 있다. 즉 도 7a와 같이, 'c'를 두 개의 손가락으로 입력창(220)을 터치하는 멀티 터치 제스쳐(302)에 의하면, 'c'를 터치하는 제1 터치와 제2 터치가 상기 제어부(110)에 의해 검출될 수 있다. 그리고 상기 제어부(110)는 상기 제1 터치 또는 상기 제2 터치와 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력(404)을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력(314)에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력(414)을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 영어이고, 상기 멀티 터치 출력은 영어의 알파벳의 대문자일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력(304)이 도 7a와 같이 영어인 경우에, 상기 멀티 터치 입력(304)에 대응하는 멀티 터치 출력(404)을 영어의 알파벳의 대문자로 생성할 수 있다. 예를 들면 도 7a와 같이 'c'로 멀티 터치 입력(304)이 검출된 경우에, 상기 제어부는 상기 'c'인 멀티 터치 입력(304)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'c'로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 'c'가 멀티 터치 입력으로 검출된 경우에는, 'c'를 대문자로 하여 'C'로 도 7b와 같이 멀티 터치 출력(404)을 생성할 수 있다.
본 발명의 일 실시예의 효과를 도 6을 참조하여 설명하면, 도 6은 핸드 라이팅 기능을 가지는 모바일 장치의 비교 예를 나타내는 도면이다. 도 6을 참조하면, 입력창(220)에서 싱글 터치로만 핸드 라이팅 입력 제스쳐(221)가 검출되고 있다. 상기와 같이 싱글 터치인 핸드 라이팅 입력 제스쳐(221)에 의해 핸드 라이팅 입력(222)이 검출된 경우에는, 도 7b와 같이 핸드 라이팅 출력(225)이 오출력될 수 있다. 즉 상기 핸드 라이팅 입력(222)이 대문자로 입력된 'C'인 제1 입력(223)과 소문자로 입력된 'ase'인 제2 입력(224)으로 형성된 경우, 실제로 출력창(210)에 'Case'로 출력되어야 하지만, 도 7b와 같이 'case'(225)로 출력될 수 있다. 왜냐하면 알파벳 'c'와 같은 경우 대문자와 소문자가 크기만 다를 뿐 형태는 같기 때문에 제어부가 대문자와 소문자를 구분하여 판단할 수 없는 경우가 자주 발생한다. 즉 대문자로 입력된 'C'인 제1 입력(223)에 대응한 제1 출력(226)이 소문자로 출력되는 경우가 자주 발생한다. 즉 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률이 떨어지게 된다.
그러나 본 발명의 일 실시예에 따르면, 멀티 터치 입력이 검출된 경우에는 싱글 터치 입력과 구분하여 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 생성할 수 있으므로 상기 도 6의 비교예의 문제점이 발생하지 아니한다.
즉 상기 제어부(110)는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 구분하여 생성할 수 있다. 즉, 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 영어인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 알파벳의 대문자로 생성할 수 있다. 따라서 사용자가 영어의 대문자를 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 사용자가 원하는 대문자를 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 구분하여 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
다음으로, 상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시한다(S140 단계). 도 7b를 참조하면, 상기 제어부(110)는 상기 S130 단계에서 생성된 멀티 터치 출력(404)과 싱글 터치 출력(414)을 포함하는 핸드 라이팅 출력(400)을 상기 터치스크린상의 출력창(210)에 표시할 수 있다. 즉 상기 출력창(210)은 상기 핸드 라이팅 출력(400)이 모바일 장치의 화면(190)상에 표시되는 창(window)를 의미한다. 예를 들어 도 7b의 모바일 장치(100)에서는 노트 애플리케이션이 실행되고 있으므로, 상기 제어부(110)는 상기 핸드 라이팅 출력(400)을 상기 출력창(210)에 표시할 수 있다. 그리고 상기 출력창(210)에 표시된 상기 핸드 라이팅 출력(400)은 예를 들면, 노트(note)에 해당하는 데이터로서 상기 모바일 장치의 저장부(175)에 저장될 수 있다.
도 8은 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제1 예이다. 도 4를 다시 참조하면, 먼저 모바일 장치의 터치스크린상의 입력창에서 핸드 라이팅 입력을 검출한다(S110 단계).
도 8을 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력(Hand writing input)을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다. 그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목(231 내지 237)이 포함될 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S120 단계). 상기 제어부(110)는 검출된 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 이때 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 8을 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력(320, 322)인 "ㄱ"(320)과 "ㅔ"(322)에 대하여 멀티 터치 입력으로 구분할 수 있다.
즉 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐, 예를 들어 도 8a와 같이 두 개의 손가락으로 입력창(220)을 'ㄱ'으로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(320)으로 구분할 수 있다. 그리고 상기 제어부(110)는 두 개의 손가락으로 입력창(220)을 'ㅔ'로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력도 멀티 터치 입력(322)으로 구분할 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S130 단계). 상기 제어부(110)는 S120 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다.
즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(304)에 대응하는 멀터 터치 출력(404)을 생성할 수 있다. 이때 상기 제어부(110)는 상기 멀티 터치 입력과 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력(404)을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 한글이고, 상기 멀티 터치 출력은 한글 자음의 된소리나 한글 모음의 이중모음일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력이 도 8a와 같이 한글인 경우에, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 한글 자음의 된소리나 한글 모음의 이중모음으로 생성할 수 있다. 예를 들면 도 8a와 같이 'ㄱ'으로 멀티 터치 입력(320)이 검출된 경우에, 상기 제어부는 상기 'ㄱ'인 멀티 터치 입력(320)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'ㄱ'으로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 'ㄱ'이 멀티 터치 입력으로 검출된 경우에는, 인식된 필기인 'ㄱ'을 한글 자음의 된소리인 'ㄲ'으로 도 8b와 같이 멀티 터치 출력(324)을 생성할 수 있다. 그리고 도 8a와 같이 'ㅔ'로 멀티 터치 입력(322)이 검출된 경우에, 상기 제어부는 상기 'ㅔ'인 멀티 터치 입력(322)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'ㅔ'로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 'ㅔ'가 멀티 터치 입력으로 검출된 경우에는, 'ㅔ'를 한글 모음의 이중모음인 'ㅖ'로 도 8b와 같이 멀티 터치 출력(326)을 생성할 수 있다. 이때 상기 한글 자음의 된소리는 예를 들면 ㄲ, ㄸ, ㅉ, ㅃ, ㅆ 중 하나일 수 있고, 상기 한글 모음의 이중모음은 예를 들면 ㅒ, ㅖ 중 하나일 수 있다.
즉 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 한글인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 한글 자음의 된소리나 한글 모음의 이중모음으로 생성할 수 있다. 따라서 사용자가 한글 자음의 된소리나 한글 모음의 이중모음을 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 사용자가 원하는 한글 자음의 된소리나 한글 모음의 이중모음을 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 한글인 멀티 터치 입력에 대응하는 멀티 터치 출력을 한글 자음의 된소리나 한글 모음의 이중모음으로 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
다음으로, 상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시한다(S140 단계). 도 8b를 참조하면, 상기 제어부(110)는 상기 S130 단계에서 생성된 멀티 터치 출력과 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 상기 터치스크린상의 출력창(210)에 표시할 수 있다. 즉 상기 출력창(210)은 상기 핸드 라이팅 출력(400)이 모바일 장치의 화면(190)상에 표시되는 창(window)를 의미한다. 예를 들어 도 8b의 모바일 장치(100)에서는 노트 애플리케이션이 실행되고 있으므로, 상기 제어부(110)는 상기 핸드 라이팅 출력(324, 326)을 상기 출력창(210)에 표시할 수 있다. 그리고 상기 출력창(210)에 표시된 상기 핸드 라이팅 출력(324, 326)은 예를 들면, 노트(note)에 해당하는 데이터로서 상기 모바일 장치의 저장부(175)에 저장될 수 있다.
도 9는 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제2 예이다. 도 4를 다시 참조하면, 먼저 모바일 장치의 터치스크린상의 입력창에서 핸드 라이팅 입력을 검출한다(S110 단계).
도 9를 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다. 그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목(231 내지 237)이 포함될 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S120 단계). 상기 제어부(110)는 검출된 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 이때 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 9를 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력(330)인 "
Figure pat00001
"(330)에 대하여 멀티 터치 입력으로 구분할 수 있다.
즉 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐, 예를 들어 도 9a와 같이 두 개의 손가락으로 입력창(220)을 '
Figure pat00002
'으로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(330)으로 구분할 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S130 단계). 상기 제어부(110)는 S120 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다.
즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(330)에 대응하는 멀터 터치 출력(332)을 생성할 수 있다. 이때 상기 제어부(110)는 상기 멀티 터치 입력과 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력(332)을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 중국어의 간체이고, 상기 멀티 터치 출력은 중국어의 번체일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력이 도 9a와 같이 중국어의 간체인 경우에, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 중국어의 번체로 생성할 수 있다. 예를 들면 도 9a와 같이 '
Figure pat00003
'으로 멀티 터치 입력(330)이 검출된 경우에, 상기 제어부는 상기 '
Figure pat00004
'인 멀티 터치 입력(330)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 '
Figure pat00005
'으로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 중국어의 간체인 '
Figure pat00006
'이 멀티 터치 입력으로 검출된 경우에는, 상기 '
Figure pat00007
'을 중국어의 번체인 '國'으로 도 9b와 같이 멀티 터치 출력(332)을 생성할 수 있다.
즉 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 중국어의 간체인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 중국어의 번체로 생성할 수 있다. 따라서 사용자가 중국어의 번체를 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 사용자가 원하는 중국어의 번체를 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 중국어의 간체인 멀티 터치 입력에 대응하는 멀티 터치 출력을 중국어의 번체로 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
다음으로, 상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시한다(S140 단계). 도 9b를 참조하면, 상기 제어부(110)는 상기 S130 단계에서 생성된 멀티 터치 출력과 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 상기 터치스크린상의 출력창(210)에 표시할 수 있다. 즉 상기 출력창(210)은 상기 핸드 라이팅 출력(400)이 모바일 장치의 화면(190)상에 표시되는 창(window)를 의미한다. 예를 들어 도 9b의 모바일 장치(100)에서는 노트 애플리케이션이 실행되고 있으므로, 상기 제어부(110)는 상기 핸드 라이팅 출력(332)을 상기 출력창(210)에 표시할 수 있다. 그리고 상기 출력창(210)에 표시된 상기 핸드 라이팅 출력(332)은 예를 들면, 노트(note)에 해당하는 데이터로서 상기 모바일 장치의 저장부(175)에 저장될 수 있다.
도 10은 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제3 예이다. 도 4를 다시 참조하면, 먼저 모바일 장치의 터치스크린상의 입력창에서 핸드 라이팅 입력을 검출한다(S110 단계).
도 10을 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력(Hand writing input)을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다. 그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목이 포함될 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S120 단계). 상기 제어부(110)는 검출된 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 이때 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 10을 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력(340)인 "ァ"에 대하여 멀티 터치 입력으로 구분할 수 있다.
즉 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐, 예를 들어 도 10a와 같이 두 개의 손가락으로 입력창(220)을 'ァ'으로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(320)으로 구분할 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S130 단계). 상기 제어부(110)는 S120 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다.
즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(340)에 대응하는 멀터 터치 출력(342)을 생성할 수 있다. 이때 상기 제어부(110)는 상기 멀티 터치 입력과 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력(342)을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 일본어의 카타카나이고, 상기 멀티 터치 출력은 일본어의 히라가나일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력이 도 10a와 같이 일본어의 카타카나인 경우에, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 일본어의 히라카나로 생성할 수 있다. 예를 들면 도 10a와 같이 일본어의 카타카나인 'ァ'으로 멀티 터치 입력(340)이 검출된 경우에, 상기 제어부는 상기 'ァ'인 멀티 터치 입력(340)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'ァ'으로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 'ァ'이 멀티 터치 입력으로 검출된 경우에는, 'ァ'을 일본어의 히라가나에 해당하는 'あ'으로 도 10b와 같이 멀티 터치 출력(342)을 생성할 수 있다.
즉 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 일본어의 카타카나인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 일본어의 히라가나로 생성할 수 있다. 따라서 사용자가 일본어의 히라가나를 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 사용자가 원하는 일본어의 히라가나를 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 일본어의 카타카나인 멀티 터치 입력에 대응하는 멀티 터치 출력을 일본어의 히라가나로 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
반대로, 이때 상기 멀티 터치 입력은 일본어의 히라가나이고, 상기 멀티 터치 출력은 일본어의 카타카나일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력이 도 10a와 같이 일본어의 히라가나인 경우에, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 일본어의 카타카나로 생성할 수 있다. 예를 들면 일본어의 히라가나인 'あ'으로 멀티 터치 입력(340)이 검출된 경우에, 상기 제어부는 상기 'あ'인 멀티 터치 입력(340)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'あ'으로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 'あ'이 멀티 터치 입력으로 검출된 경우에는, 'あ'을 일본어의 카타카나로 멀티 터치 출력(342)을 생성할 수 있다.
즉 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 일본어의 히라가나인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 일본어의 카타카나로 생성할 수 있다. 따라서 사용자가 일본어의 카타카나를 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 사용자가 원하는 일본어의 히라가나를 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 일본어의 히라가나인 멀티 터치 입력에 대응하는 멀티 터치 출력을 일본어의 카타카나로 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
다음으로, 상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시한다(S140 단계). 도 10b를 참조하면, 상기 제어부(110)는 상기 S130 단계에서 생성된 멀티 터치 출력과 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 상기 터치스크린상의 출력창(210)에 표시할 수 있다. 즉 상기 출력창(210)은 상기 핸드 라이팅 출력(400)이 모바일 장치의 화면(190)상에 표시되는 창(window)를 의미한다. 예를 들어 도 10b의 모바일 장치(100)에서는 노트 애플리케이션이 실행되고 있으므로, 상기 제어부(110)는 상기 핸드 라이팅 출력(342)을 상기 출력창(210)에 표시할 수 있다. 그리고 상기 출력창(210)에 표시된 상기 핸드 라이팅 출력(342)은 예를 들면, 노트(note)에 해당하는 데이터로서 상기 모바일 장치의 저장부(175)에 저장될 수 있다.
도 11은 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제4 예이다. 도 4를 다시 참조하면, 먼저 모바일 장치의 터치스크린상의 입력창에서 핸드 라이팅 입력을 검출한다(S110 단계).
도 11을 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력(Hand writing input)을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다. 그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목(231 내지 237)이 포함될 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S120 단계). 상기 제어부(110)는 검출된 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 이때 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 11을 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력(370)을 "123"(371)에 대하여 멀티 터치 입력으로 구분하고, "4"(372)에 대하여 싱글 터치 입력으로 구분할 수 있다.
즉 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐, 예를 들어 도 11a와 같이 두 개의 손가락으로 입력창(220)을 '123'으로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(371)으로 구분할 수 있다. 그리고 상기 제어부(110)는 한 개의 손가락으로 입력창(220)을 '4'로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 싱글 터치 입력(372)으로 구분할 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S130 단계). 상기 제어부(110)는 S120 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다.
즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(371)에 대응하는 멀터 터치 출력(373)을 생성할 수 있다. 이때 상기 제어부(110)는 상기 멀티 터치 입력과 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력(373)을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력(372)에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력(376)을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 하나의 문자이고, 상기 멀티 터치 출력은 복수개의 문자일 수 있다. 그리고 상기 문자는 예를 들면 숫자, 기호, 글자 중 어느 하나일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력이 도 11a와 같이 하나의 문자 중 숫자인 경우에, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 복수개의 문자 중 숫자로 생성할 수 있다. 예를 들면 도 11a와 같이 '1'로 멀티 터치 입력(371)이 검출된 경우에, 상기 제어부는 상기 '1'인 멀티 터치 입력(371)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 '1'로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 '1'이 멀티 터치 입력으로 검출된 경우에는, '1'을 복수개의 숫자인 예를 들면 두 개의 숫자인 '11'로 도 11b와 같이 멀티 터치 출력(374)을 생성할 수 있다. 그리고 상기 제어부(110)는 '2', '3'에 대한 멀티 터치 입력(371)에 대해서도 상기 '1'과 같이 '22', '33'으로 도 11b와 같이 멀티 터치 출력(374)을 생성할 수 있다.
그리고 상기 제어부(110)는 도 11a와 같이 '4'로 싱글 터치 입력(372)이 검출된 경우에, 상기 제어부는 상기 '4'인 싱글 터치 입력(372)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 '4'로 필기를 인식하여 싱글 터치 출력(376)을 생성할 수 있다.
즉 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 하나의 문자인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 복수개의 문자로 생성할 수 있다. 따라서 사용자가 복수개의 문자를 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 사용자가 원하는 복수개의 문자를 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 하나의 문자인 멀티 터치 입력에 대응하는 멀티 터치 출력을 복수개의 문자로 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
다음으로, 상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시한다(S140 단계). 도 11b를 참조하면, 상기 제어부(110)는 상기 S130 단계에서 생성된 멀티 터치 출력(374)과 싱글 터치 출력(376)을 포함하는 핸드 라이팅 출력(373)을 상기 터치스크린상의 출력창(210)에 표시할 수 있다. 즉 상기 출력창(210)은 상기 핸드 라이팅 출력(373)이 모바일 장치의 화면(190)상에 표시되는 창(window)를 의미한다. 예를 들어 도 11b의 모바일 장치(100)에서는 노트 애플리케이션이 실행되고 있으므로, 상기 제어부(110)는 상기 핸드 라이팅 출력(373)을 상기 출력창(210)에 표시할 수 있다. 그리고 상기 출력창(210)에 표시된 상기 핸드 라이팅 출력(373)은 예를 들면, 노트(note)에 해당하는 데이터로서 상기 모바일 장치의 저장부(175)에 저장될 수 있다.
도 12는 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제5 예이다. 도 4를 다시 참조하면, 먼저 모바일 장치의 터치스크린상의 입력창에서 핸드 라이팅 입력을 검출한다(S110 단계).
도 12를 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력(Hand writing input)을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다. 그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목(231 내지 237)이 포함될 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S120 단계). 상기 제어부(110)는 검출된 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 이때 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 12를 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력(378)을 "△△"(379)에 대하여 멀티 터치 입력으로 구분하고, "△"(380)에 대하여 싱글 터치 입력으로 구분할 수 있다.
즉 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐, 예를 들어 도 12a와 같이 두 개의 손가락으로 입력창(220)을 '△△'으로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(379)으로 구분할 수 있다. 그리고 상기 제어부(110)는 한 개의 손가락으로 입력창(220)을 '△'로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 싱글 터치 입력(380)으로 구분할 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S130 단계). 상기 제어부(110)는 S120 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다.
즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(379)에 대응하는 멀터 터치 출력(383)을 생성할 수 있다. 이때 상기 제어부(110)는 상기 멀티 터치 입력과 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력(383)을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력(380)에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력(384)을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 제1 기호이고, 상기 멀티 터치 출력은 제2 기호일 수 있다. 상기 제2 기호는 상기 제1 기호와 유사한 형태의 기호일 수 있다. 또한 상기 제1 기호가 음영이 없는 기호인 경우에, 상기 제2 기호는 상기 제1 기호에 음영을 추가한 기호일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력이 도 12a와 같이 제1 기호인 경우에, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 제2 기호로 생성할 수 있고, 이때 상기 제1 기호가 음영이 없는 기호인 경우에, 상기 제2 기호는 상기 제1 기호에 음영을 추가한 기호일 수 있다. 예를 들면 도 12a와 같이 '△△'로 멀티 터치 입력(379)이 검출된 경우에, 상기 제어부는 상기 '△△'인 멀티 터치 입력(379)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 '△'로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 '△'이 음영이 없는 기호인 멀티 터치 입력으로 검출된 경우에는, '△'을 음영이 추가된 기호인 '▲'로 도 12b와 같이 멀티 터치 출력(383)을 생성할 수 있다.
그리고 상기 제어부(110)는 도 12a와 같이 '△'로 싱글 터치 입력(380)이 검출된 경우에, 상기 제어부는 상기 '△'인 싱글 터치 입력(380)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 '△'으로 필기를 인식하여 싱글 터치 출력(384)을 생성할 수 있다.
즉 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 제1 기호인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 제2 기호로 생성할 수 있다. 이때 상기 제2 기호는 상기 제1 기호와 유사한 형태의 기호일 수 있다. 또한 상기 제1 기호가 음영이 없는 기호인 경우에, 상기 제2 기호는 상기 제1 기호에 음영을 추가한 기호일 수 있다. 따라서 사용자가 기호를 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 입력한 기호와 유사한 기호를 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 제1 기호인 멀티 터치 입력에 대응하는 멀티 터치 출력을 제2 기호로 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
다음으로, 상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시한다(S140 단계). 도 12b를 참조하면, 상기 제어부(110)는 상기 S130 단계에서 생성된 멀티 터치 출력(383)과 싱글 터치 출력(384)을 포함하는 핸드 라이팅 출력(382을 상기 터치스크린상의 출력창(210)에 표시할 수 있다. 즉 상기 출력창(210)은 상기 핸드 라이팅 출력(382)이 모바일 장치의 화면(190)상에 표시되는 창(window)를 의미한다. 예를 들어 도 12b의 모바일 장치(100)에서는 노트 애플리케이션이 실행되고 있으므로, 상기 제어부(110)는 상기 핸드 라이팅 출력(382)을 상기 출력창(210)에 표시할 수 있다. 그리고 상기 출력창(210)에 표시된 상기 핸드 라이팅 출력(382)은 예를 들면, 노트(note)에 해당하는 데이터로서 상기 모바일 장치의 저장부(175)에 저장될 수 있다.
도 13은 본 발명의 일 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제6 예이다. 도 4를 다시 참조하면, 먼저 모바일 장치의 터치스크린상의 입력창에서 핸드 라이팅 입력을 검출한다(S110 단계).
도 13을 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력(Hand writing input)을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다. 그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목(231 내지 237)이 포함될 수 있다.
그리고 상기 모바일 장치(100)에서 노트 애플리케이션(Note Application)이 도 13과 같이 실행되고 있는 경우에, 상기 화면(190)상에는 Save 아이콘(238)과 Cancel 아이콘(239)이 표시될 수 있다. 이때 상기 Save 아이콘(238)에 대한 터치가 제어부(110)에 의해 검출되면, 상기 제어부(110)는 상기 출력창(210)에 표시된 데이터를 저장부(175)에 저장할 수 있다. 그리고 Cancel 아이콘(239)에 대한 터치가 제어부(110)에 의해 검출되면, 상기 제어부(110)는 노트 입력을 취소시킬 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S120 단계). 상기 제어부(110)는 검출된 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 이때 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 13a를 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력인 "case"(390)에 대하여 싱글 터치 입력으로 구분할 수 있다. 그리고 도 13c를 참조하면, 상기 제어부(110)는 핸드 라이팅 입력인 "S"(394)에 대하여 멀티 터치 입력으로 구분할 수 있다.
즉 상기 제어부(110)는 상기 제어부(110)는 한 개의 손가락으로 입력창(220)을 'case'로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 싱글 터치 입력(390)으로 구분할 수 있다. 그리고 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐, 예를 들어 도 13c와 같이 두 개의 손가락으로 입력창(220)을 'S'로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(384)으로 구분할 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S130 단계). 상기 제어부(110)는 S120 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다.
즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(379)에 대응하는 멀터 터치 출력(383)을 생성할 수 있다. 이때 상기 제어부(110)는 상기 멀티 터치 입력과 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력(383)을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력(380)에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력(384)을 생성할 수 있다. 따라서 상기 제어부(110)는 도 13a와 같이 'case'로 싱글 터치 입력(390)이 검출된 경우에, 상기 제어부는 상기 'case'인 싱글 터치 입력(390)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'case'으로 필기를 인식하여 싱글 터치 출력(384)을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 명령어이며 상기 멀티 터치 출력은 상기 명령어의 실행일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 상기 멀티 터치 입력의 명령어의 실행으로 제어할 수 있다. 예를 들면 도 13c와 같이 'S'로 멀티 터치 입력(394)이 검출된 경우에, 상기 제어부는 상기 'S'인 멀티 터치 입력(394)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'S'로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 'S'에 대응하여 미리 저장된 명령어인 'Save'를 실행시킬 수 있다. 즉 상기 제어부(110)는 도 13c에서 인식된 필기인 'S'에 대응한 미리 저장된 명령어인 'Save'(238)를 실행시켜, 도 13d와 같이 상기 출력창(210)에 출력된 데이터 'case'를 모바일 장치의 저장부(175)에 저장시킬 수 있다. 그리고 상기 제어부(110)는 상기 데이터 'case'가 저장부(175)에 저장되었음을 알리는 팝업창(396)을 화면(190)상에 표시할 수도 있다.
즉 상기 제어부(110)는 예를 들면 멀티 터치 출력을 상기 멀티 터치 입력의 명령어의 실행으로 제어할 수 있다. 따라서 사용자가 명령어를 입력하고자 할 경우에는 멀티 터치로 미리 저장된 명령어를 터치하면, 상기 명령어를 실행시킬 수 있다. 따라서 본 발명의 일 실시예에 따르면, 별도의 명령어 아이콘을 터치하지 않고서도, 핸드 라이팅을 이용하여 멀티 터치로 명령어를 입력시킬 수 있는 이점이 있다.
도 14는 본 발명의 다른 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법에 대한 흐름도이다. 도 15는 본 발명의 다른 실시예에 따른 모바일 장치의 화면을 나타낸 도면이다.
도 14를 참조하면, 먼저 모바일 장치의 터치스크린상의 핸드 라이팅 입력창에서 핸드 라이팅 입력을 검출한다(S210 단계).
도 15를 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력(Hand writing input)을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다. 그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목이 포함될 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S220 단계). 상기 제어부(110)는 검출된 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 이때 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 15를 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력(300)에 포함된 "c"(304)에 대하여 멀티 터치 입력으로 구분할 수 있다. 그리고 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력(300)에 포함된 "ase"(314)에 대하여 싱글 터치 입력으로 구분할 수 있다.
즉 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐, 예를 들어 도 15a와 같이 두 개의 손가락으로 입력창(220)을 'c'로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(304)으로 구분할 수 있다. 그리고 상기 제어부(110)는 한 개의 손가락으로 입력창(220)을 'ase'로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 싱글 터치 입력(314)으로 구분할 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S230 단계). 상기 제어부(110)는 S220 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다.
즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(304)에 대응하는 멀터 터치 출력(242)을 생성할 수 있다. 이때 상기 제어부(110)는 상기 멀티 터치 입력과 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력(242)을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 영어이고, 상기 멀티 터치 출력은 영어의 알파벳의 대문자일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력이 도 15a와 같이 영어인 경우에, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 영어의 알페벳의 대문자로 생성할 수 있다. 예를 들면 도 15a와 같이 'c'로 멀티 터치 입력(320)이 검출된 경우에, 상기 제어부는 상기 'c'인 멀티 터치 입력(304)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'c'로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 'c'가 멀티 터치 입력으로 검출된 경우에는, 'c'를 영어의 알파벳의 대문자인 'C'로 도 15b와 같이 멀티 터치 출력(242)을 생성할 수 있다. 그리고 도 15a와 같이 'ase'로 싱글 터치 입력(314)이 검출된 경우에, 상기 제어부는 상기 'ase'인 싱글 터치 입력(314)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'ase'로 필기를 인식하여 멀티 터치 출력을 생성할 수 있다.
즉 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 영어인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 영어 알파벳의 대문자로 생성할 수 있다. 따라서 사용자가 영어의 대문자를 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 사용자가 원하는 영어의 대문자를 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 영어인 멀티 터치 입력에 대응하는 멀티 터치 출력을 영어 알파벳의 대문자로 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
다음으로, 상기 핸드 라이팅 출력을 이용하여 적어도 하나의 추천을 상기 터치스크린의 추천창에 표시한다(S240 단계). 즉 상기 제어부(110)는 S230 단계에서 생성된 상기 핸드 라이팅 출력을 이용하여 적어도 하나의 추천을 상기 터치스크린의 추천창에 표시할 수 있다. 예를 들어 도 15a의 'case'인 핸드 라이팅 입력(300)으로부터 S230 단계에서 'Case'인 핸드 라이팅 출력이 생성된 경우, 상기 제어부(110)는 상기 'Case'인 핸드 라이팅 출력을 이용하여 적어도 하나의 추천을 도 15b와 같이 추천창(240)에 표시할 수 있다. 예를 들면 상기 제어부(110)는 상기 핸드 라이팅 출력이 영어인 경우에는 상기 핸드 라이팅 출력이 단수인 경우에는 상기 핸드 라이팅 출력을 복수로 변환하여 적어도 하나의 추천을 상기 추천창에 표시할 수 있다. 즉 도 15b와 같이 상기 핸드 라이팅 출력이 영어인 'Case'로서 단수인 경우에는 복수인 'Cases'로 변환한 적어도 하나의 추천(244)을 상기 추천창(240)에 표시할 수 있다. 또한 예를 들면 상기 제어부(110)는 상기 핸드 라이팅 출력에 대한 맞춤법 검사를 실시하여 맞춤법에 맞는 적어도 하나의 추천을 상기 추천창에 표시할 수도 있다. 예를 들어 상기 핸드 라이팅 출력이 'caes'인 경우에 상기 제어부(110)는 맞춤법 검사를 실시하여 맞춤법에 맏는 'case'로 적어도 하나의 추천을 상기 추천창에 표시할 수도 있다.
다음으로, 상기 적어도 하나의 추천에 대한 선택을 검출한다(S250 단계). 상기 제어부(110)는 S250 단계에서 추천된 상기 적어도 하나의 추천에 대한 선택을 검출할 수 있다. 그리고 상기 적어도 하나의 추천에 대한 선택은 상기 적어도 하나의 추천에 대한 터치일 수 있다. 예를 들면 도 15b와 같이 상기 S250 단계에서 추천된 제1 추천(242)이 'Case'이고, 제2 추천(244)이 'Cases'인 경우에, 상기 제1 추천(242) 또는 제2 추천(244)에 대한 선택을 검출할 수 있다. 이때 상기 선택은 상기 적어도 하나의 추천에 대한 터치를 검출하는 것일 수 있으므로, 예를 들면 도 15b에서 제1 추천(242)에 대한 선택인 터치가 검출된 경우에는, 상기 제어부(110)는 상기 제1 추천(242)을 선택할 수 있다.
그리고 상기 적어도 하나의 추천에 대한 터치가 수초이상 검출되지 아니하는 경우, 상기 제어부(110)는 순차적으로 배열되어 표시된 상기 적어도 하나의 추천 중에서 맨처음으로 배열되어 표시된 추천을 선택할 수도 있다. 예를 들면, 도 15b와 같이 제1 추천(242), 제2 추천(244)이 순차적으로 배열되어 표시된 경우에, 상기 제어부(110)는 상기 제1 추천(242), 제2 추천(244)에 대한 터치가 수초이상 검출되지 아니할 시, 맨처음으로 배열되어 표시된 제1 추천(242)을 선택할 수 있다.
다음으로, 상기 선택된 추천을 최종 핸드 라이팅 출력으로 생성하여 상기 터치스크린상의 출력창에 표시한다(S260 단계). 도 15c를 참조하면, 상기 제어부(110)는 상기 S250 단계에서 선택된 추천을 최종 핸드 라이팅 출력으로 생성하여 상기 터치스크린상의 출력창(210)에 표시할 수 있다. 즉 상기 출력창(210)은 상기 핸드 라이팅 출력(400)이 모바일 장치의 화면(190)상에 표시되는 창(window)를 의미한다. 예를 들어 도 15c의 모바일 장치(100)에서는 노트 애플리케이션이 실행되고 있으므로, 상기 제어부(110)는 상기 S250 단계에서 선택된 제1 추천(242)인 'Case'를 상기 최종 핸드 라이팅 출력(246)으로 생성하여 상기 출력창(210)에 표시할 수 있다. 그리고 상기 출력창(210)에 표시된 상기 최종 핸드 라이팅 출력(246)은 예를 들면, 노트(note)에 해당하는 데이터로서 상기 모바일 장치의 저장부(175)에 저장될 수 있다.
도 16은 본 발명의 다른 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제7 예이다. 도 14를 다시 참조하면, 먼저 모바일 장치의 터치스크린상의 핸드 라이팅 입력창에서 핸드 라이팅 입력을 검출한다(S210 단계).
도 16을 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력(Hand writing input)을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다. 그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목이 포함될 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S220 단계). 상기 제어부(110)는 검출된 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 이때 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 16을 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력(300)에 포함된 "A"(350)에 대하여 멀티 터치 입력으로 구분할 수 있다. 즉 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐, 예를 들어 도 16a와 같이 두 개의 손가락으로 입력창(220)을 'A'로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(350)으로 구분할 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S230 단계). 상기 제어부(110)는 S220 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다.
즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(350)에 대응하는 멀터 터치 출력을 생성할 수 있다. 이때 상기 제어부(110)는 상기 멀티 터치 입력과 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 제1 문자이고, 상기 멀티 터치 출력은 상기 제1 문자와 유사한 제2 문자일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력이 도 16a와 같이 제1 문자인 경우에, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 상기 제1 문자와 유사한 제2 문자로 생성할 수 있다. 예를 들면 도 16a와 같이 'A'로 멀티 터치 입력(350)이 검출된 경우에, 상기 제어부는 상기 'A'인 멀티 터치 입력(350)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'A'로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 'A'가 멀티 터치 입력으로 검출된 경우에는, 'A'와 유사한 제2 문자인 '
Figure pat00008
'로 도 16b와 같이 멀티 터치 출력(252)을 생성할 수 있다. 이때 상기 제1 문자와 유사한 제2 문자는 상기 제1 문자에서 예를 들면 ' 과 같은 점이 추가되거나 ~ 과 같은 기호가 추가된 문자일 수 있다.
즉 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 문자인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 상기 문자와 유사한 문자로 생성할 수 있다. 따라서 사용자가 문자를 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 사용자가 원하는 제1 문자와 유사한 제2 문자를 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 제1 문자인 멀티 터치 입력에 대응하는 멀티 터치 출력을 상기 제1 문자와 유사한 제2 문자로 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
다음으로, 상기 핸드 라이팅 출력을 이용하여 적어도 하나의 추천을 상기 터치스크린의 추천창에 표시한다(S240 단계). 즉 상기 제어부(110)는 S230 단계에서 생성된 상기 핸드 라이팅 출력을 이용하여 적어도 하나의 추천을 상기 터치스크린의 추천창에 표시할 수 있다. 예를 들어 도 16a의 제1 문자 'A'인 핸드 라이팅 입력(300)으로부터 S230 단계에서 제1 문자와 유사한 제2 문자인 '
Figure pat00009
', '
Figure pat00010
', '
Figure pat00011
'가 핸드 라이팅 출력으로 생성된 경우, 상기 제어부(110)는 상기 제2 문자인 '
Figure pat00012
', '
Figure pat00013
', '
Figure pat00014
'에 대응하는 제1 추천(252), 제2 추천(254), 제3 추천(256)을 도 16b와 같이 추천창(240)에 표시할 수 있다.
다음으로, 상기 적어도 하나의 추천에 대한 선택을 검출한다(S250 단계). 상기 제어부(110)는 S250 단계에서 추천된 상기 적어도 하나의 추천에 대한 선택을 검출할 수 있다. 그리고 상기 적어도 하나의 추천에 대한 선택은 상기 적어도 하나의 추천에 대한 터치일 수 있다. 예를 들면 도 16b와 같이 상기 S250 단계에서 추천된 제1 추천(252), 제2 추천(254), 또는 제3 추천(256)이 추천창(240)에 표시된 경우에, 상기 제1 추천(252), 제2 추천(254), 또는 제3 추천(256)에 대한 선택을 검출할 수 있다. 이때 상기 선택은 상기 적어도 하나의 추천에 대한 터치를 검출하는 것일 수 있으므로, 예를 들면 도 16b에서 제1 추천(252)에 대한 선택인 터치가 검출된 경우에는, 상기 제어부(110)는 상기 제1 추천(252)을 선택할 수 있다.
그리고 상기 적어도 하나의 추천에 대한 터치가 수초이상 검출되지 아니하는 경우, 상기 제어부(110)는 순차적으로 배열되어 표시된 상기 적어도 하나의 추천 중에서 맨처음으로 배열되어 표시된 추천을 선택할 수도 있다. 예를 들면, 도 16b와 같이 제1 추천(252), 제2 추천(254), 제3 추천(256)이 순차적으로 배열되어 표시된 경우에, 상기 제어부(110)는 상기 제1 추천(252), 제2 추천(254), 제3 추천(256)에 대한 터치가 수초이상 검출되지 아니할 시, 맨처음으로 배열되어 표시된 제1 추천(252)을 선택할 수 있다.
다음으로, 상기 선택된 추천을 최종 핸드 라이팅 출력으로 생성하여 상기 터치스크린상의 출력창에 표시한다(S260 단계). 도 16c를 참조하면, 상기 제어부(110)는 상기 S250 단계에서 선택된 추천을 최종 핸드 라이팅 출력으로 생성하여 상기 터치스크린상의 출력창(210)에 표시할 수 있다. 즉 상기 출력창(210)은 상기 핸드 라이팅 출력(400)이 모바일 장치의 화면(190)상에 표시되는 창(window)를 의미한다. 예를 들어 도 16c의 모바일 장치(100)에서는 노트 애플리케이션이 실행되고 있으므로, 상기 제어부(110)는 상기 S250 단계에서 선택된 제1 추천(252)인 '
Figure pat00015
'를 상기 최종 핸드 라이팅 출력(258)으로 생성하여 상기 출력창(210)에 표시할 수 있다. 그리고 상기 출력창(210)에 표시된 상기 최종 핸드 라이팅 출력(258)은 예를 들면, 노트(note)에 해당하는 데이터로서 상기 모바일 장치의 저장부(175)에 저장될 수 있다.
도 17는 본 발명의 다른 실시예에 따른 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법의 제8 예이다. 도 14를 다시 참조하면, 먼저 모바일 장치의 터치스크린상의 핸드 라이팅 입력창에서 핸드 라이팅 입력을 검출한다(S210 단계).
도 17를 참조하면, 상기 화면(190)상에는 입력창(220)이 표시될 수 있다. 터치스크린으로 형성된 모바일 장치(100)의 화면(190)상에 표시된 입력창(220)에서는 사용자 입력 수단으로부터 터치를 입력받을 수 있다. 그러므로 상기 모바일 장치의 제어부(110)는 상기 입력창(220)에서 핸드 라이팅 입력(Hand writing input)을 검출할 수 있다.
그리고 상기 화면(190)상에는 출력창(210)이 표시될 수 있다. 상기 출력창은 상기 화면(190)의 상기 입력창(220)을 통하여 입력된 상기 핸드 라이팅 입력이 출력되어 표시되는 창(window)을 의미한다. 그리고 상기 화면(190)상에는 메뉴창(230)이 표시될 수 있다. 상기 메뉴창(230)에는 핸드 라이팅과 관련된 기능을 가지는 메뉴 항목이 포함될 수 있다.
다음으로, 상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분한다(S220 단계). 상기 제어부(110)는 검출된 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분할 수 있다. 이때 상기 제어부(110)는 상기 사용자 입력 수단의 터치로부터 검출된 상기 핸드 라이팅 입력 중에서 복수의 터치가 동시에 입력되는 터치가 검출된 경우에는 상기 멀티 터치 입력으로 구분하고, 상기 핸드 라이팅 입력 중에서 일반적인 하나의 단순 터치가 검출된 경우에는 상기 싱글 터치 입력으로 구분할 수 있다. 예를 들어 도 17을 참조하면, 상기 제어부(110)는 상기 입력창(220)에서 사용자 입력 수단으로부터 입력된 핸드 라이팅 입력(300)에 포함된 "O"(360)에 대하여 멀티 터치 입력으로 구분할 수 있다. 즉 상기 제어부(110)는 사용자에 의한 멀티 터치 제스쳐, 예를 들어 도 17a와 같이 두 개의 손가락으로 입력창(220)을 'O'로 터치하는 제스쳐로부터 발생한 핸드 라이팅 입력은 멀티 터치 입력(360)으로 구분할 수 있다.
다음으로, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성한다(S230 단계). 상기 제어부(110)는 S220 단계에서 구분된 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성할 수 있다.
즉 상기 제어부(110)는 복수의 터치에 의해 발생된 상기 멀티 터치 입력(350)에 대응하는 멀터 터치 출력을 생성할 수 있다. 이때 상기 제어부(110)는 상기 멀티 터치 입력과 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 멀티 터치 출력을 생성할 수 있다. 또한 상기 제어부(110)는 상기 싱글 터치 입력에 대해서도 미리 저장된 필기 인식 데이터베이스에 포함된 필기 인식 데이터를 비교하여 필기를 인식하여 싱글 터치 출력을 생성할 수 있다.
그런데 이때 상기 멀티 터치 입력은 제1 문자이고, 상기 멀티 터치 출력은 상기 제1 문자와 유사한 제2 문자일 수 있다. 즉 상기 제어부(110)는 상기 멀티 터치 입력이 도 17a와 같이 제1 문자인 경우에, 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 상기 제1 문자와 유사한 제2 문자로 생성할 수 있다. 예를 들면 도 17a와 같이 'O'로 멀티 터치 입력(360)이 검출된 경우에, 상기 제어부는 상기 'O'인 멀티 터치 입력(360)과 상기 미리 저장된 필기 인식 데이터베이스를 비교하여 'O'로 필기를 인식할 수 있다. 그런데 이때 상기 제어부(110)는 인식된 필기인 'O'가 멀티 터치 입력으로 검출된 경우에는, 'O'와 유사한 제2 문자인 '
Figure pat00016
'로 도 17b와 같이 멀티 터치 출력(262)을 생성할 수 있다. 이때 상기 제1 문자와 유사한 제2 문자는 상기 제1 문자에서 예를 들면 ' 또는 " 과 같은 점이 추가되거나, ~ 또는 / 과 같은 기호가 추가된 문자일 수 있다.
즉 상기 제어부(110)는 예를 들면 상기 멀티 터치 입력이 문자인 경우에는 상기 멀티 터치 입력에 대응하는 멀티 터치 출력을 상기 문자와 유사한 문자로 생성할 수 있다. 따라서 사용자가 문자를 입력하고자 할 경우에는 멀티 터치로 입력창을 터치하면, 사용자가 원하는 제1 문자와 유사한 제2 문자를 손쉽게 입력할 수 있게 된다. 즉 상기 제어부(110)는 제1 문자인 멀티 터치 입력에 대응하는 멀티 터치 출력을 상기 제1 문자와 유사한 제2 문자로 생성하여, 입력창에 입력된 사용자의 핸드 라이팅에 대한 인식률을 높일 수 있다.
다음으로, 상기 핸드 라이팅 출력을 이용하여 적어도 하나의 추천을 상기 터치스크린의 추천창에 표시한다(S240 단계). 즉 상기 제어부(110)는 S230 단계에서 생성된 상기 핸드 라이팅 출력을 이용하여 적어도 하나의 추천을 상기 터치스크린의 추천창에 표시할 수 있다. 예를 들어 도 17a의 제1 문자 'O'인 핸드 라이팅 입력으로부터 S230 단계에서 제1 문자와 유사한 제2 문자인 '
Figure pat00017
', '
Figure pat00018
', '
Figure pat00019
'가 핸드 라이팅 출력으로 생성된 경우, 상기 제어부(110)는 상기 제2 문자인 '
Figure pat00020
', '
Figure pat00021
', '
Figure pat00022
'에 대응하는 제1 추천(262), 제2 추천(264), 제3 추천(266)을 도 17b와 같이 추천창(240)에 표시할 수 있다.
다음으로, 상기 적어도 하나의 추천에 대한 선택을 검출한다(S250 단계). 상기 제어부(110)는 S250 단계에서 추천된 상기 적어도 하나의 추천에 대한 선택을 검출할 수 있다. 그리고 상기 적어도 하나의 추천에 대한 선택은 상기 적어도 하나의 추천에 대한 터치일 수 있다. 예를 들면 도 17b와 같이 상기 S250 단계에서 추천된 제1 추천(262), 제2 추천(264), 또는 제3 추천(266)이 추천창(240)에 표시된 경우에, 상기 제1 추천(262), 제2 추천(264), 또는 제3 추천(266)에 대한 선택을 검출할 수 있다. 이때 상기 선택은 상기 적어도 하나의 추천에 대한 터치를 검출하는 것일 수 있으므로, 예를 들면 도 17b에서 제1 추천(262)에 대한 선택인 터치가 검출된 경우에는, 상기 제어부(110)는 상기 제1 추천(262)을 선택할 수 있다.
그리고 상기 적어도 하나의 추천에 대한 터치가 수초이상 검출되지 아니하는 경우, 상기 제어부(110)는 순차적으로 배열되어 표시된 상기 적어도 하나의 추천 중에서 맨처음으로 배열되어 표시된 추천을 선택할 수도 있다. 예를 들면, 도 17b와 같이 제1 추천(262), 제2 추천(264), 제3 추천(266)이 순차적으로 배열되어 표시된 경우에, 상기 제어부(110)는 상기 제1 추천(262), 제2 추천(264), 제3 추천(266)에 대한 터치가 수초이상 검출되지 아니할 시, 맨처음으로 배열되어 표시된 제1 추천(262)을 선택할 수 있다.
다음으로, 상기 선택된 추천을 최종 핸드 라이팅 출력으로 생성하여 상기 터치스크린상의 출력창에 표시한다(S260 단계). 도 17c를 참조하면, 상기 제어부(110)는 상기 S250 단계에서 선택된 추천을 최종 핸드 라이팅 출력으로 생성하여 상기 터치스크린상의 출력창(210)에 표시할 수 있다. 즉 상기 출력창(210)은 상기 핸드 라이팅 출력(400)이 모바일 장치의 화면(190)상에 표시되는 창(window)를 의미한다. 예를 들어 도 17c의 모바일 장치(100)에서는 노트 애플리케이션이 실행되고 있으므로, 상기 제어부(110)는 상기 S250 단계에서 선택된 제1 추천(262)인 '
Figure pat00023
'를 상기 최종 핸드 라이팅 출력(268)으로 생성하여 상기 출력창(210)에 표시할 수 있다. 그리고 상기 출력창(210)에 표시된 상기 최종 핸드 라이팅 출력(268)은 예를 들면, 노트(note)에 해당하는 데이터로서 상기 모바일 장치의 저장부(175)에 저장될 수 있다.
본 발명의 실시예들은 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 또한 본 발명의 실시예들은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한, 상기 모바일 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 본 발명의 실시예들을 수행하도록 하는 지시들을 포함하는 프로그램, 본 발명의 실시예들에 필요한 정보 등을 저장하기 위한 메모리와, 상기 모바일 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 모바일 장치의 요청 또는 자동으로 해당 프로그램을 상기 송수신 장치로 전송하는 제어부를 포함할 수 있다.
100 : 모바일 장치
110 : 제어부
190 : 터치스크린

Claims (22)

  1. 모바일 장치의 터치스크린상의 핸드 라이팅 입력창에서 핸드 라이팅 입력을 검출하는 단계와;
    상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분하는 단계와;
    상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성하는 단계와;
    상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시하는 단계;
    를 포함하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  2. 제1항에 있어서,
    상기 멀티 터치 입력은 영어이고, 상기 멀티 터치 출력은 영어의 알파벳의 대문자인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  3. 제1항에 있어서,
    상기 멀티 터치 입력은 한글이고, 상기 멀티 터치 출력은 한글 자음의 된소리나 한글 모음의 이중모음인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  4. 제1항에 있어서,
    상기 멀티 터치 입력은 중국어의 간체이고, 상기 멀티 터치 출력은 중국어의 번체인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  5. 제1항에 있어서,
    상기 멀티 터치 입력은 일본어의 카타카나이고 상기 멀티 터치 출력은 일본어의 히라가나이거나, 상기 멀티 터치 입력은 일본어의 히라가나이고 상기 멀티 터치 출력은 일본어의 카타카나인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  6. 제1항에 있어서,
    상기 멀티 터치 입력은 하나의 문자이고, 상기 멀티 터치 출력은 복수개의 문자인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  7. 제1항에 있어서,
    상기 멀티 터치 입력은 제1 기호이고, 상기 멀티 터치 출력은 제2 기호인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  8. 제1항에 있어서,
    상기 멀티 터치 입력은 명령어이며 상기 멀티 터치 출력은 상기 명령어의 실행인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  9. 제1항에 있어서,
    상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시하는 단계는,
    상기 핸드 라이팅 출력을 이용하여 적어도 하나의 추천을 상기 터치스크린의 추천창에 표시하는 단계와;
    상기 적어도 하나의 추천에 대한 선택을 검출하는 단계와;
    상기 선택된 추천을 최종 핸드 라이팅 출력으로 생성하여 상기 터치스크린상의 출력창에 표시하는 단계를 포함하는 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  10. 제9항에 있어서,
    상기 적어도 하나의 추천에 대한 선택은 상기 적어도 하나의 추천에 대한 터치인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  11. 제9항에 있어서,
    상기 적어도 하나의 추천에 대한 선택을 검출하는 단계는,
    상기 적어도 하나의 추천에 대한 터치가 수초이상 검출되지 아니하는 경우, 순차적으로 배열되어 표시된 상기 적어도 하나의 추천 중에서 맨처음으로 배열되어 표시된 추천을 선택하는 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 제어 방법.
  12. 모바일 장치의 화면을 표시하는 터치스크린과;
    상기 터치스크린상의 핸드 라이팅 입력창에서 핸드 라이팅 입력을 검출하고,
    상기 핸드 라이팅 입력 중에서 멀티 터치 입력과 싱글 터치 입력을 구분하고,
    상기 멀티 터치 입력에 대응하는 멀티 터치 출력과 상기 싱글 터치 입력에 대응하는 싱글 터치 출력을 포함하는 핸드 라이팅 출력을 생성하고,
    상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시하는 제어부;
    를 포함하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  13. 제12항에 있어서,
    상기 멀티 터치 입력은 영어이고, 상기 멀티 터치 출력은 영어의 알파벳의 대문자인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  14. 제12항에 있어서,
    상기 멀티 터치 입력은 한글이고, 상기 멀티 터치 출력은 한글 자음의 된소리나 한글 모음의 이중모음인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  15. 제12항에 있어서,
    상기 멀티 터치 입력은 중국어의 간체이고, 상기 멀티 터치 출력은 중국어의 번체인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  16. 제12항에 있어서,
    상기 멀티 터치 입력은 일본어의 카타카나이고 상기 멀티 터치 출력은 일본어의 히라가나이거나, 상기 멀티 터치 입력은 일본어의 히라가나이고 상기 멀티 터치 출력은 일본어의 카타카나인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  17. 제12항에 있어서,
    상기 멀티 터치 입력은 하나의 문자이고, 상기 멀티 터치 출력은 복수개의 문자인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  18. 제12항에 있어서,
    상기 멀티 터치 입력은 제1 기호이고, 상기 멀티 터치 출력은 제2 기호인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  19. 제12항에 있어서,
    상기 멀티 터치 입력은 명령어이며 상기 멀티 터치 출력은 상기 명령어의 실행인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  20. 제12항에 있어서,
    상기 제어부는
    상기 핸드 라이팅 출력을 상기 터치스크린상의 출력창에 표시할 시,
    상기 핸드 라이팅 출력을 이용하여 적어도 하나의 추천을 상기 터치스크린의 추천창에 표시하고,
    상기 적어도 하나의 추천에 대한 선택을 검출하고,
    상기 선택된 추천을 최종 핸드 라이팅 출력으로 생성하여 상기 터치스크린상의 출력창에 표시하는 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  21. 제20항에 있어서,
    상기 적어도 하나의 추천에 대한 선택은 상기 적어도 하나의 추천에 대한 터치인 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
  22. 제20항에 있어서,
    상기 제어부는
    상기 적어도 하나의 추천에 대한 선택을 검출할 시,
    상기 적어도 하나의 추천에 대한 터치가 수초이상 검출되지 아니하는 경우, 순차적으로 배열되어 표시된 상기 적어도 하나의 추천 중에서 맨처음으로 배열되어 표시된 추천을 선택하는 것을 특징으로 하는 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치.
KR1020120093945A 2012-08-27 2012-08-27 멀티 터치를 이용한 핸드 라이팅 기능을 갖는 전자 장치 및 제어 방법 KR102051585B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120093945A KR102051585B1 (ko) 2012-08-27 2012-08-27 멀티 터치를 이용한 핸드 라이팅 기능을 갖는 전자 장치 및 제어 방법
EP13181534.2A EP2703981B1 (en) 2012-08-27 2013-08-23 Mobile apparatus having hand writing function using multi-touch and control method thereof
US14/010,914 US9207792B2 (en) 2012-08-27 2013-08-27 Mobile apparatus having hand writing function using multi-touch and control method thereof
CN201310378630.8A CN103631434B (zh) 2012-08-27 2013-08-27 具有使用多点触摸的手写功能的移动设备及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120093945A KR102051585B1 (ko) 2012-08-27 2012-08-27 멀티 터치를 이용한 핸드 라이팅 기능을 갖는 전자 장치 및 제어 방법

Publications (2)

Publication Number Publication Date
KR20140027838A true KR20140027838A (ko) 2014-03-07
KR102051585B1 KR102051585B1 (ko) 2019-12-17

Family

ID=49084760

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120093945A KR102051585B1 (ko) 2012-08-27 2012-08-27 멀티 터치를 이용한 핸드 라이팅 기능을 갖는 전자 장치 및 제어 방법

Country Status (4)

Country Link
US (1) US9207792B2 (ko)
EP (1) EP2703981B1 (ko)
KR (1) KR102051585B1 (ko)
CN (1) CN103631434B (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9377948B2 (en) * 2013-07-01 2016-06-28 Lenovo (Singapore) Pte. Ltd. Special input for general character inquiries for input to information handling device
US10360657B2 (en) 2014-06-16 2019-07-23 International Business Machines Corporations Scaling content of touch-based systems
KR102238531B1 (ko) * 2014-06-25 2021-04-09 엘지전자 주식회사 이동단말기 및 그 제어방법
US10007421B2 (en) * 2015-08-03 2018-06-26 Lenovo (Singapore) Pte. Ltd. Natural handwriting detection on a touch surface
KR20170031332A (ko) * 2015-09-11 2017-03-21 주식회사 현대아이티 화면에 표시된 소프트웨어에 따라 입력가능영역이 제한되는 디스플레이 장치 및 제어 방법
JP6907058B2 (ja) * 2017-07-14 2021-07-21 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及び、プログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101470578A (zh) * 2007-12-27 2009-07-01 英业达股份有限公司 触控式电子装置及其操作方法
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8908973B2 (en) 2008-03-04 2014-12-09 Apple Inc. Handwritten character recognition interface
US8289289B2 (en) * 2008-04-03 2012-10-16 N-trig, Ltd. Multi-touch and single touch detection
US8526767B2 (en) * 2008-05-01 2013-09-03 Atmel Corporation Gesture recognition
CN101581992A (zh) * 2008-05-16 2009-11-18 鸿富锦精密工业(深圳)有限公司 触摸屏装置及其输入方法
US9355090B2 (en) * 2008-05-30 2016-05-31 Apple Inc. Identification of candidate characters for text input
KR20100045617A (ko) 2008-10-24 2010-05-04 박대엽 멀티 터치 인식 터치스크린을 이용한 한글 입력 방법
TW201044234A (en) * 2009-06-08 2010-12-16 Chunghwa Picture Tubes Ltd Method of scanning touch panel
KR101075642B1 (ko) 2009-07-02 2011-10-21 삼성전자주식회사 터치스크린을 이용한 한글 입력 장치, 그 방법 및 터치스크린입력수단을 이용한 한글 입력 시스템
EP2522119A4 (en) * 2010-01-04 2016-03-30 Samsung Electronics Co Ltd KOREAN INPUT METHOD AND DEVICE HAVING A TOUCH SCREEN AND PORTABLE END DEVICE WITH KEY INPUT DEVICE
KR101650339B1 (ko) * 2010-03-12 2016-09-05 삼성전자 주식회사 휴대 단말기의 문자 입력 방법 및 이를 지원하는 휴대 단말기
EP2378403A1 (en) * 2010-04-19 2011-10-19 Tyco Electronics Services GmbH Method and device for determining a user's touch gesture
AU2010246373A1 (en) * 2010-11-23 2012-06-07 Hush Enterprises Pty Ltd On-screen reminder program
JP2012133729A (ja) * 2010-12-24 2012-07-12 Sony Corp 情報処理装置、情報処理方法、およびプログラム
KR101242620B1 (ko) * 2011-01-18 2013-03-19 주식회사 애트랩 터치 센서 제어기에서의 터치 신호 처리 방법 및 그 장치
KR101852428B1 (ko) * 2011-03-09 2018-04-26 엘지전자 주식회사 이동 단말기 및 그의 3d객체 제어방법
TWI516994B (zh) * 2011-03-15 2016-01-11 晨星半導體股份有限公司 多指觸控方法與相關裝置
US20120274585A1 (en) * 2011-03-16 2012-11-01 Xmg Studio, Inc. Systems and methods of multi-touch interaction with virtual objects
CN102156578B (zh) * 2011-03-30 2013-01-09 汉王科技股份有限公司 触摸设备的手写输入方法及装置和电子设备
KR101718984B1 (ko) * 2011-03-31 2017-03-23 삼성디스플레이 주식회사 터치스크린 및 터치스크린의 터치 위치를 산출하는 방법
CN202281975U (zh) * 2011-10-20 2012-06-20 刘运亮 用于遥控的设备
US9176666B2 (en) * 2011-12-23 2015-11-03 Symbol Technologies, Llc Method and device for a multi-touch based correction of a handwriting sentence system
US20130328617A1 (en) * 2012-06-11 2013-12-12 Himax Technologies Limited Touch device and method for detecting touch thereof

Also Published As

Publication number Publication date
EP2703981B1 (en) 2019-05-15
US9207792B2 (en) 2015-12-08
EP2703981A3 (en) 2017-06-07
EP2703981A2 (en) 2014-03-05
CN103631434A (zh) 2014-03-12
CN103631434B (zh) 2018-02-16
KR102051585B1 (ko) 2019-12-17
US20140056523A1 (en) 2014-02-27

Similar Documents

Publication Publication Date Title
US11474688B2 (en) User device and method for creating handwriting content
EP2720126B1 (en) Method and apparatus for generating task recommendation icon in a mobile device
US9261995B2 (en) Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point
KR102139526B1 (ko) 전자 장치의 화면상에 표시되는 복수의 객체들을 실행하는 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
EP2703979B1 (en) Method of controlling a list scroll bar and an electronic device using the same
KR102129374B1 (ko) 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR102264444B1 (ko) 전자 장치에서 기능 실행 방법 및 장치
US20160227010A1 (en) Device and method for providing lock screen
EP2808781A1 (en) Method, storage medium, and electronic device for mirroring screen data
US20140317555A1 (en) Apparatus, method, and computer-readable recording medium for displaying shortcut icon window
EP2811420A2 (en) Method for quickly executing application on lock screen in mobile device, and mobile device therefor
KR20140079012A (ko) 추가 구성 요소를 이용한 얼굴 인식 기능을 가지는 모바일 장치 및 그 제어 방법
US20140337720A1 (en) Apparatus and method of executing function related to user input on screen
KR102051585B1 (ko) 멀티 터치를 이용한 핸드 라이팅 기능을 갖는 전자 장치 및 제어 방법
EP2703978B1 (en) Apparatus for measuring coordinates and control method thereof
KR20170004220A (ko) 키패드를 표시하는 전자장치 및 그의 키패드 표시 방법
US20150331560A1 (en) Electronic device and method of displaying object
KR20150007577A (ko) 데이터 병합을 제어하는 휴대 단말 및 방법
KR20140111089A (ko) 오브젝트에 대한 사전 실행 기능을 가지는 모바일 장치 및 그 제어방법
EP3660635A1 (en) Integration of smart tags into handwriting input
KR20140131051A (ko) 압력 센서를 포함하는 전자 장치 및 그 제어 방법
KR102329496B1 (ko) 전자 장치 및 전자 장치에서 문자 입력을 처리하는 방법
KR102186819B1 (ko) 노트 기능을 지원하는 모바일 단말기 및 그의 제어 방법
KR102184797B1 (ko) 리스트 스크롤 바 제어 방법 및 모바일 장치
US20150067493A1 (en) Method of modifying text input from user and electronic device therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant