KR101639074B1 - 터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법 - Google Patents

터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법 Download PDF

Info

Publication number
KR101639074B1
KR101639074B1 KR1020090070657A KR20090070657A KR101639074B1 KR 101639074 B1 KR101639074 B1 KR 101639074B1 KR 1020090070657 A KR1020090070657 A KR 1020090070657A KR 20090070657 A KR20090070657 A KR 20090070657A KR 101639074 B1 KR101639074 B1 KR 101639074B1
Authority
KR
South Korea
Prior art keywords
character
area
input
touch screen
information
Prior art date
Application number
KR1020090070657A
Other languages
English (en)
Other versions
KR20110012791A (ko
Inventor
김도현
황성택
안희범
장동훈
권무식
오상욱
박정완
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090070657A priority Critical patent/KR101639074B1/ko
Priority to US12/848,327 priority patent/US8917248B2/en
Publication of KR20110012791A publication Critical patent/KR20110012791A/ko
Priority to US14/554,493 priority patent/US9811750B2/en
Application granted granted Critical
Publication of KR101639074B1 publication Critical patent/KR101639074B1/ko
Priority to US15/730,248 priority patent/US10373009B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Abstract

터치스크린을 이용한 필기 인식 및 문자 입력 방법에 있어서, 상기 터치스크린 내에서 사용자 입력이 필요한 영역의 개수를 정의하는 과정과, 상기 정의된 영역 별로 사전 인식 정보를 정의하는 과정과, 상기 정의된 영역 중 사용자가 원하는 위치의 영역에 문자 정보를 입력하는 과정과, 상기 문자 정보를 문자 인식기를 이용하여 인식하는 과정과, 상기 인식된 문자 정보를 상기 사용자의 원하는 위치의 영역에 업데이트하는 과정을 포함함을 특징으로 한다.
필기 인식, 입력 영역, 출력 영역

Description

터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법{APPARATUS AND METHOD FOR CHARACTER RECOGNITION AND INPUT USING TOUCH SCREEN}
본 발명은 필기 인식 및 자동 문자 입력 방법에 관한 것으로, 특히 터치스크린의 해당 영역에 원하는 정보를 직접 필기하고 이를 자동으로 입력하여 인식하는 장치 및 그 방법에 관한 것이다.
유선 또는 무선 통신 기술, 멀티미디어 기술, CPU 및 메모리 등과 같은 하드웨어 제작 기술, 전력 충전 기술 등의 제반 기술들이 발달함에 따라서 이동단말기의 기능이 더욱 강화되고 있다. 이전의 이동단말기는 통화를 위주로 사용되었기 때문에 전화 번호에 해당하는 숫자 위주의 키패드 버튼만 있어도 별다른 불편함이 없었지만 점차 문제 메시지가 널리 사용되면서 사용자들은 다양한 언어와 종류의 문자들을 입력함에 있어서 불편함이 증가하고 있는 추세이다.
한편 상기와 같은 불편함을 해소하기 위한 이동단말기에 관한 기술의 발전으로 인하여 PDA(Personal Digital Assistant), 랩탑(Laptop) 등의 기존 제품들뿐만 아니라 스마트폰(Smart Phone), 넷북(Netbook), 휴대 인터넷 장치(Mobile Internet Device : MID), 울트라 모바일 PC(Ultra Mobile PC : UMPC) 등 새로운 개념의 제품 들이 속속 출시되고 있다. 이러한 제반 기술의 발전에 힘입어 다양한 어플리케이션을 이동단말기에서 구동할 수 있게 되었고 이와 더불어 빠르고 편리한 문자 입력 방법이 요구되고 있다.
현재 자주 사용되는 대표적인 문자 입력 방법으로는 물리적인 키패드 버튼을 이용한 방법, 터치스크린의 가상 키패드를 이용한 방법, 터치스크린 상에 필기한 내용을 인식하는 방법 이렇게 세 가지 방법이 사용되고 있으며 상기 세 가지 방법에 대해서 자세히 살펴보면 다음과 같다.
도 1은 기존의 물리적인 키패드를 버튼을 이용한 문자 입력을 나타낸 예시도이다.
도 1을 참조하면, 사용자 입력에 의해 문자 메시지를 입력하는 화면을 정보표시영역(101)에 표시할 수 있다. 이동단말기는 사용자가 원하는 내용을 입력할 수 있는 다수의 키 버튼이 포함된 키 버튼 영역(103)과, 입력되는 문자나 숫자 또는 특수문자와 같은 정보가 출력되는 정보표시영역(101), 다수의 메뉴 키 버튼들(105, 107)로 구성된다. 한글, 영어, 숫자 및 특수문자를 선택할 수 있는 기능은 메뉴 키 버튼들 또한 기 설정된 버튼에 포함될 수 있으며 키 버튼 영역(103)의 각 키에 표시된 문자를 사용자가 확인하여 원하는 문자를 입력할 수 있다. 상기와 같은 구성들을 이용하여 사용자가 원하는 메시지를 작성 할 수 있다.
도 2는 기존의 터치스크린 상의 가상 키패드를 이용한 문자 입력을 나타낸 예시도이다.
도 2를 참조하면, 터치스크린은 사용자 입력에 의해 특정화면, 즉 가상 키패 드를 포함한 입력화면을 표시할 수 있다. 터치스크린(201) 상에 표시되는 메시지 입력화면은 사용자가 원하는 내용을 입력할 수 있는 다수의 키 버튼이 포함된 키 버튼 영역(203)과, 한글, 영어, 숫자 및 특수문자를 선택할 수 있는 다수의 키 버튼이 포함된 특수키 영역(205), 터치에 의해 입력되는 문자나 숫자 또는 특수문자와 같은 정보가 출력되는 정보표시영역(207), 다수의 메뉴 키 버튼들(209, 211)로 구성된다.
도 2에 도시한 메시지 입력화면의 경우에는 도 1의 물리적인 키패드 버튼을 이용하여 메시지를 작성하는 환경과 동일한 환경을 터치스크린을 통해서 구현할 수 있다. 따라서 터치스크린 상에 표시된 키 버튼 영역(203), 특수키 영역(205), 정보표시영역(207), 메뉴 키 버튼들(209)을 이용하여 물리적인 키패드 버튼을 이용하여 메시지를 작성하는 방법과 동일한 방식으로 메시지를 작성할 수 있다.
도 3은 기존의 터치스크린 상의 필기 내용 인식을 이용한 문자 입력을 나타낸 예시도이다.
도 3을 참조하면, 터치스크린(301)은 사용자 입력에 의해 특정화면, 도 2의 가상 키패드를 포함한 입력화면과는 다른 입력화면을 표시할 수 있다. 터치스크린 상에 표시되는 메시지 입력화면은 한글, 영어, 숫자 및 특수문자를 선택할 수 있는 다수의 키 버튼이 포함된 특수키 영역(303), 손가락 또는 스타일러스 펜을 이용하여 사용자가 원하는 정보를 직접 입력하기 위한 필기인식영역(305), 터치에 의해 입력되는 문자나 숫자 또는 특수문자와 같은 정보가 출력되는 정보표시영역(307), 다수의 메뉴 키 버튼들(209, 211)로 구성된다.
도 3에 도시한 메시지 입력화면에서 필기인식영역(305)의 경우에는 한번에 하나의 문자나 숫자, 특수문자 등을 인식하는 단일인식영역이 세 개로 구성되어 있으며 사용자가 원하는 정보가 손가락이나 스타일러스 펜과 같은 입력도구에 의해 입력되는 순서대로 정보표시영역(307)에 입력된다. 한글에서 영어, 또는 한글에서 숫자와 같이 다른 문자나 숫자, 특수문자를 입력하기 위해서는 특수키 영역(303)에서 해당키를 선택하여 원하는 문자를 입력할 수 있다. 이와 같이 사용자는 터치스크린(301) 상에 표시된 정보표시영역(307)과 메뉴 키 버튼들(309, 311), 필기인식영역(305)을 이용하여 노트에 손으로 글을 쓰는 방식과 동일한 방식으로 메시지를 작성할 수 있다.
하지만 상기의 방법들 중 키패드를 이용한 방법의 경우에는 문자 입력을 통해 이동단말기의 특정한 설정값을 변경하거나 어플리케이션의 정보를 설정해야 하는 경우, 특정 메뉴 또는 탐색 버튼 등으로 해당 입력창까지 이동하는 과정을 거쳐야 하는 번거로움이 존재한다. 또한 키패드 버튼은 그 개수가 물리적인 공간 상 제한되어 있으므로 동일한 언어라고 할지라도 다양한 문자를 입력하기 위해 하나의 버튼에 여러 개의 문자 코드를 할당하여 선택적으로 입력하거나 조합하여 사용해야 하므로 이러한 문자 입력 방법은 빠른 입력을 요구하는 사용자들에게 있어서는 불편함을 안겨주게 된다.
터치스크린 상의 가상 키패드를 이용한 문자 입력 방법 또한 터치스크린 내에 키패드를 배치해야 하므로 물리적인 키패드를 이용한 방법과 같이 여전히 공간상의 제약이 존재하며 사용자가 느끼는 불편함 역시 물리적인 키패드를 이용한 방 법과 크게 차이가 나지 않는다.
또한 해당 입력창에서 문자의 종류(숫자, 대문자 영어, 소문자 영어, 한글 등)를 변경하여 입력하고자 하는 경우 언어의 변경을 위하여 특정키를 눌러 변경을 설정하는 과정이 필요하게 되므로 그 입력의 속도가 느려질 수 밖에 없다.
상기와 같이 키패드를 사용하는 방법과는 별도로 터치스크린 상에 필기한 내용을 인식하여 문자를 입력하는 방법의 경우에는 키패드 버튼의 기능을 사용하지 않고 사용자가 직접 입력한 필기 패턴을 인식하여 문자를 입력하여 키패드 공간을 절약할 수 있는 장점은 있으나, 이 또한 입력한 언어의 변경이 필요한 경우에는 추가적인 설정 작업이 필요하고 기존에 입력된 내용의 일부를 수정할 경우 해당 내용을 터치스크린 상에서 먼저 선택하여 수정하고자 하는 내용을 삭제한 이후에 사용자가 원하는 내용을 입력해야 하는 번거로움이 존재한다.
본 발명은 이동단말기에서 사용자가 문자를 입력하고자 할 때 겪을 수 있는 어려움을 해소하기 위한 것으로, 사용자가 문자를 입력함에 있어서 여러 가지 복잡한 이동 과정이나 설정 과정을 거치지 않고 스타일러스 펜과 같은 입력 도구를 사용하여 입력하고자 하는 필드 영역에 직접 필기하여 문자를 입력하는 장치 및 방법을 제공하는 것이다.
본 발명의 일 견지에 따르면, 터치스크린을 이용한 필기 인식 및 문자 입력 방법에 있어서, 상기 터치스크린 내에서 사용자 입력이 필요한 영역의 개수를 정의하는 과정과, 상기 정의된 영역 별로 사전 인식 정보를 정의하는 과정과, 상기 정의된 영역 중 사용자가 원하는 위치의 영역에 문자 정보를 입력하는 과정과, 상기 문자 정보를 문자 인식기를 이용하여 인식하는 과정과, 상기 인식된 문자 정보를 상기 사용자의 원하는 위치의 영역에 업데이트하는 과정을 포함함을 특징으로 한다.
본 발명의 다른 견지에 따르면, 터치스크린을 이용한 필기 인식 및 문자 입력 장치에 있어서, 사용자가 원하는 문자 정보를 입력받아 송신하고 상기 문자 정보를 출력하는 터치스크린과, 이동 통신망을 통하여 다른 이동단말기와 통화에 관한 음성 신호 및 멀티미디어에 관한 데이터 등을 송수신하는 통신부와, 상기 터치스크린으로부터 상기 문자 정보를 수신하여 상기 문자 정보를 인식하고 상기 인식 된 문자 정보를 상기 터치스크린으로 송신하는 제어부와, 상기 터치스크린으로부터 수신되는 상기 문자 정보를 인식하기 위한 하나 이상의 문자 인식기를 저장하는 저장부를 포함함을 특징으로 한다.
본 발명은 입력 또는 수정이 필요한 입력 공간에 문자를 입력하기 위하여 사용자 인터페이스로 제공되는 여러 가지 복잡하고 번거로운 이동 및 언어 변환 등의 입력 과정을 거치지 않고 필요한 입력 영역에 직접 필기함으로 인하여 문자 입력 방법이 직관적이고 편리하며 입력 속도가 빨라지는 효과가 있다.
이하 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
도 4는 본 발명의 일 실시 예에 따른 터치스크린을 이용한 이동단말기의 내부 구성도이다. 도 4의 이동단말기는 터치스크린(401), 통신부(403), 제어부(405), 저장부(407)를 포함한다.
도 4를 참조하면, 터치스크린(401)은 사용자의 입력을 통하여 정보 또는 조작 명령을 입력받아 제어부(405)로 송신하는 역할을 한다. 또한 사용자의 입력을 통한 정보를 제어부(405)로부터 수신하여 터치스크린(401) 상에 표시하는 역할 또한 담 당한다.
상기와 같이 터치스크린(401)은 손가락이나 스타일러스 펜과 같은 입력 도구를 이용한 터치 방식으로 사용자의 필기 정보를 입력받는 입력 영역과, 입력된 필기 정보를 패턴으로 표시하거나 인식된 결과 또는 문자를 표시하는 출력 영역을 포함하고 있으며, 터치스크린(401) 상에는 별도의 구분 없이 입력 영역과 출력 영역이 서로 겹쳐지게 제공된다.
통신부(403)는 이동 통신망을 통하여 다른 이동단말기와 통화에 관한 음성 신호 및 멀티미디어에 관한 데이터 등을 송수신하여 이를 제어부(405)에 송신하는 역할을 한다. 또한 다른 이동단말기에 송신하고자 하는 정보를 제어부(405)로부터 수신하여 이동 통신망으로 송신하는 역할 또한 담당한다.
제어부(405)는 사용자로부터 원하는 정보를 수신하고 이를 터치스크린(401) 상에 표시하는 역할을 한다. 더 자세하게는 터치스크린(401)의 입력 영역으로부터 사용자 필기 정보를 제공받아 적절한 필기 문자 인식기를 선택하고, 선택된 필기 문자 인식기를 사용하여 사용자 필기 정보를 인식한 후 터치스크린(401)의 출력 영역으로 해당 인식 결과를 송신하는 역할을 한다.
저장부(407)는 터치스크린(401)을 통해 입력되는 정보를 인식하기 위한 하나 이상의 필기 문자 인식기를 포함한다. 이 외에도 이동단말기를 구동하는데 필요한 OS(Operating System)을 저장할 수 있으며, 다양한 형태의 이미지나 아이콘 등을 저장할 수 있다. 또한 기 설정된 제스쳐를 저장하는 역할을 한다. 이는 추후에 사용자가 상기 사용자가 기 설정된 제스쳐를 필기하는 경우에 제어부(405)는 이에 해 당하는 결과를 저장부(407)로부터 수신하여 그 결과를 터치스크린 상에 표시한다.
상기의 블록 구성도를 이용하여 사용자가 입력한 필기를 인식하고, 이를 자동으로 입력하는 과정을 하기의 흐름도를 이용하여 설명한다.
도 5는 본 발명의 일 실시 예에 따른 이동단말기의 터치스크린을 이용하여 정보를 입출력하는 과정을 나타낸 흐름도이다.
도 5를 참조하면, 501단계에서 제어부는 정보의 입력 또는 기존 정보의 수정이 필요한 경우 해당 어플리케이션을 실행한다. 503단계에서 제어부는 해당 어플리케이션에서 사용자 입력이 필요한 영역의 개수를 정의한다. 예를 들어 간단하게 현재 시각을 수정할 경우 터치스크린 상에서 표시된 시각 중 시간을 표시하는 영역과 분을 표시하는 영역을 구분할 수 있다. 이러한 경우 영역은 두 개로 나뉘어진다. 영역의 개수를 정의하는 과정은 해당 어플리케이션의 종류나 사용 환경에 따라 다르게 정의될 수 있다.
사용자 입력이 필요한 영역의 개수가 정의되었다면, 505단계로 진행하여 정의된 영역 별로 사전 인식 정보를 정의한다. 각 영역 별 사전 인식 정보는 해당 영역이 터치스크린 상에서 차지하는 위치 정보와, 해당 영역에 사용될 사용자의 필기 패턴을 인식할 문자 인식기 정보 등을 포함한다. 이러한 영역 별 문자 인식기 정보는 해당 입력 영역의 필기 패턴을 인식할 필기 문자 인식기의 연동 정보이다. 예를 들어 전화번호를 입력하는 경우에는 인식해야 할 문자가 숫자에 한정되므로, 한글이나 영어, 한자 등의 문자까지 인식할 수 있는 범용 필기체 문자 인식기를 사용할 필요가 없으며 숫자만을 인식할 수 있는 저 용량 고성능의 필기체 문자 인식기만을 포함하면 된다. 이와 같이 각 영역의 특성에 따라 입력되는 문자의 종류가 다른 경우가 많으므로 각각의 영역에 적합한 필기 문자 인식기를 사용하게 되면 필기 문자 인식의 정확도를 높일 수 있다.
이 후 507단계에서 제어부는 터치스크린의 입력 영역을 통하여 해당 영역 별로 사용자가 원하는 문자를 수신한다. 입력 방법으로는 터치스크린의 해당 영역에 손가락이나 스타일러스 펜 등으로 문자를 필하면 제어부에서 터치스크린의 입력 영역으로부터 연속된 필기 좌표 데이터, 즉 필기 패턴을 입력받는다. 509단계에서 수신되는 정보를 문자 인식기를 이용하여 인식한다. 문자 인식기는 해당 영역 별로 다르게 정의되어 있으므로 문자 인식기의 선택과정 없이 입력된 필기 패턴을 인식한다. 이렇게 인식된 문자는 511단계에서 터치스크린의 출력 영역에 업데이트된다. 사용자가 원하는 영역에 이미 문자가 표시되어 있다면, 해당 출력 영역에 새로운 문자를 미리 표시할 수 있다. 본 발명에서 입력 영역과 출력 영역은 서로 겹쳐지게 제공되므로 기존 문자와 새로운 문자의 색을 달리하거나 음영의 정도를 달리하여 두 문자를 구분하여 준다.
상기에서 제어부는 사용자의 필기 과정이 끝난 후 일정 시간이 지나면 필기된 좌표 데이터들의 중심점을 구하고 각 영역별 위치 정보와 비교하여 어떤 입력 영역의 입력 동작인지를 판단한다. 또한 입력 동작이 발생한 입력 영역과 연동되어 있는 인식기에 의해 사용자의 필기 패턴이 인식되고 인식된 문자들은 기존 입력 내용과 교체되어 터치스크린의 출력 영역에 표시된다. 상기와 같은 과정에서 새로운 문자의 입력만으로 기존의 문자가 새로운 문자로 업데이트되므로 기존에 입력된 문자 내용에 대한 사용자의 삭제 과정이 필요 없게 된다.
상기의 흐름도에 기초하여 문자를 업데이트하는 과정을 하기의 도면을 통하여 알기 쉽게 설명한다.
도 6은 본 발명의 일 실시 예에 따른 사전 입력 정보 표시 및 입력 영역 분할을 나타낸 예시도이다. 도 6은 알람을 설정하는 경우를 일 예로 들었으며, 다른 어플리케이션에도 적용 가능함은 물론이다.
도 6을 참조하면, 터치스크린은 크게 년, 월, 일, 시, 분 이렇게 다섯 개의 입력 영역으로 나뉘어진다. 본 도면에서는 점선으로 각 영역을 분할해 놓고 있으나 이는 사용자의 선택에 따라서 시각적으로 나타나지 않게 할 수도 있다. 다섯 개의 입력 영역이 정의되면 해당 영역 별로 사전 인식 정보를 정의한다. 알람 설정과 같은 어플리케이션은 숫자만을 인식하는 문자 인식기만을 필요로 하므로 다섯 개의 입력 영역 모두는 같은 문자 인식기를 가진다.
도 7, 8은 본 발명의 일 실시 예에 따른 입력 및 수정이 필요한 영역의 업데이트를 나타낸 예시도이다. 도 7은 해당 영역에 직접 다른 문자를 필기하여 업데이트하는 경우를 일 예로 들었으며, 도 8은 기 설정된 제스쳐를 필기하여 업데이트하는 경우를 일 예로 들었다.
도 7을 참조하면, 도 7의 (a)에서 사용자가 '시간'을 수정하고 싶은 경우, 7시라고 표시되어 있는 해당 영역 위에 '9'라는 문자를 필기한다. 필기된 문자가 해당 영역의 입력 영역을 통하여 제어부로 수신되면 해당 영역의 문자 인식기가 필기한 문자 '9'를 인식한다. 이렇게 인식된 문자 '9'는 기존에 표시된 7시 위에 다른 색으로 표시되고, 사용자 입력이 있을 경우 시간이 7시에서 9시로 업데이트되며 이를 도 7의 (b)에 도시하였다. 업데이트되는 과정은 설정에 따라서 사용자 입력 없이 필기된 문자가 인식되는 순간 자동으로 업데이트될 수도 있다.
도 8을 참조하면, 도 8의 (a)에서 사용자가 '분'을 수정하고 싶은 경우, 27분이라고 표시되어 있는 해당 영역 위에 기 설정된 간단한 제스쳐를 필기한다. 필기된 제스쳐는 해당 영역의 입력 영역을 통하여 제어부로 수신되고 해당 영역에서 정의된 제스쳐 패턴을 분석하여 이에 해당하는 출력 값을 업데이트하게되고 이를 도 8의 (b)에 도시하였다. 본 도면의 경우에는 가로 방향으로 드래그 시에는 초기 값을 입력하는 제스쳐를 수행하였다.
본 발명은 터치스크린은 필요한 영역으로 구분하고, 각 영역 별로 입력 영역과 출력 영역이 겹쳐있기 때문에 복잡하고 번거로운 입력 과정의 사용자 인터페이스를 사용하지 않고 필요한 영역에만 직접 필기하여 그 입력 방법이 직관적이다.
또한 각 영역 별로 사전 인식 환경 정보를 정의함으로 인하여 입력 언어를 설정하는 과정이 필요 없으며 입력 영역에 맞는 문자 인식기가 미리 선택되기 때문에 인식 성능이 향상된다.
상기와 같이 본 발명의 일 실시 예에 따른 터치스크린을 이용한 필기 인식 및 문자 입력 장치 및 그 방법의 구성 및 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나 여러 가지 변형이 본 발명의 범위를 벗어나지 않고 실시될 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 청구범위와 청구범위의 균등한 것에 의하여 정하 여져야 할 것이다.
도 1은 기존의 물리적인 키패드를 버튼을 이용한 문자 입력을 나타낸 예시도
도 2는 기존의 터치스크린 상의 가상 키패드를 이용한 문자 입력을 나타낸 예시도
도 3은 기존의 터치스크린 상의 필기 내용 인식을 이용한 문자 입력을 나타낸 예시도
도 4는 본 발명의 일 실시 예에 따른 터치스크린을 이용한 이동단말기의 내부 구성도
도 5는 본 발명의 일 실시 예에 따른 이동단말기의 터치스크린을 이용하여 정보를 입출력하는 과정을 나타낸 흐름도
도 6은 본 발명의 일 실시 예에 따른 사전 입력 정보 표시 및 입력 영역 분할을 나타낸 예시도
도 7, 8은 본 발명의 일 실시 예에 따른 입력 및 수정이 필요한 영역의 업데이트를 나타낸 예시도

Claims (10)

  1. 터치스크린을 이용한 필기 인식 및 문자 입력 방법에 있어서,
    상기 터치 스크린의 제1 문자가 표시되는 적어도 하나의 제1 영역 상에 제2 문자를 입력받는 동작;
    상기 입력된 제2 문자의 좌표 데이터의 중심점과 각 적어도 하나의 제1 영역을 비교하는 동작;
    상기 비교 결과에 기반하여 상기 적어도 하나의 제1 영역 중 하나의 제2 영역을 판단하는 동작;
    상기 제2 문자를 상기 하나의 제2 영역에 미리 정의된 사전 인식 정보를 이용하여 인식하는 동작; 및
    상기 인식된 제2 문자를 상기 하나의 제2 영역과 겹쳐지는 적어도 하나의 제3 영역 상에 상기 제1 문자와 구분하여 표시하는 동작을 포함함을 특징으로 하는 문자 입력 방법.
  2. 제 1항에 있어서, 상기 사전 인식 정보를 이용하여 인식하는 동작은
    상기 적어도 하나의 각 제1 영역의 상기 터치스크린 상에서의 위치 정보 및 상기 제2 문자의 필기 패턴을 인식할 문자 인식기 정보를 이용하여 인식하는 동작을 포함하는 것을 특징으로 하는 문자 입력 방법.
  3. 제 2항에 있어서, 상기 문자 인식기 정보는
    상지 적어도 하나의 제1 영역 별로 인식이 필요한 제2 문자의 종류에 따라서 다르게 정의됨을 특징으로 하는 문자 입력 방법.
  4. 제 1항에 있어서, 상기 제2 문자를 입력받는 동작은
    손가락 또는 스타일러스 펜과 같은 입력 도구를 사용하여 상기 제2 문자를 입력받는 동작을 포함함을 특징으로 하는 문자 입력 방법.
  5. 삭제
  6. 터치스크린을 이용한 필기 인식 및 문자 입력 장치에 있어서,
    제1 문자가 표시되는 적어도 하나의 제1 영역 상에 제2 문자를 입력받는 터치스크린과,
    상기 입력된 제2 문자의 좌표 데이터의 중심점과 각 적어도 하나의 제1 영역을 비교하고, 상기 비교 결과에 기반하여 상기 적어도 하나의 제1 영역 중 하나의 제2 영역을 판단하며, 상기 입력된 제2 문자를 상기 하나의 제2 영역에 미리 정의된 사전 인식 정보를 이용하여 인식하고, 상기 인식된 제2 문자를 상기 터치스크린의 하나의 제2 영역과 겹쳐지는 적어도 하나의 제3 영역 상에 상기 제1 문자와 구분하여 표시하는 제어부와,
    상기 미리 정의된 사전 인식 정보를 저장하는 저장부를 포함함을 특징으로 하는 문자 입력 장치.
  7. 제 6항에 있어서, 상기 적어도 하나의 제1 영역은 해당 어플리케이션의 종류에 따라 구분됨을 특징으로 하는 문자 입력 장치.
  8. 삭제
  9. 제 6항에 있어서,
    상기 미리 정의된 사전 인식 정보는 하나 이상의 문자 인식기를 포함하고,
    상기 제어부는,
    상기 하나 이상의 문자 인식기 중, 상기 적어도 하나의 제1 영역 별로 인식이 필요한 제2 문자의 종류에 따라 정의되는 문자 인식기를 이용하여 상기 제2 문자를 인식함을 특징으로 하는 문자 입력 장치.
  10. 삭제
KR1020090070657A 2009-07-31 2009-07-31 터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법 KR101639074B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020090070657A KR101639074B1 (ko) 2009-07-31 2009-07-31 터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법
US12/848,327 US8917248B2 (en) 2009-07-31 2010-08-02 Character recognition and character input apparatus using touch screen and method thereof
US14/554,493 US9811750B2 (en) 2009-07-31 2014-11-26 Character recognition and character input apparatus using touch screen and method thereof
US15/730,248 US10373009B2 (en) 2009-07-31 2017-10-11 Character recognition and character input apparatus using touch screen and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090070657A KR101639074B1 (ko) 2009-07-31 2009-07-31 터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20110012791A KR20110012791A (ko) 2011-02-09
KR101639074B1 true KR101639074B1 (ko) 2016-07-12

Family

ID=43526534

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090070657A KR101639074B1 (ko) 2009-07-31 2009-07-31 터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법

Country Status (2)

Country Link
US (3) US8917248B2 (ko)
KR (1) KR101639074B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10936184B2 (en) 2017-01-02 2021-03-02 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130059495A (ko) * 2011-11-29 2013-06-07 삼성전자주식회사 휴대단말기의 ui 제어 요소 처리 방법
KR20140008987A (ko) * 2012-07-13 2014-01-22 삼성전자주식회사 필기 이미지 인식을 이용한 어플리케이션 제어 방법 및 장치
US9262699B2 (en) * 2012-07-19 2016-02-16 Qualcomm Incorporated Method of handling complex variants of words through prefix-tree based decoding for Devanagiri OCR
GB201212878D0 (en) 2012-07-20 2012-09-05 Pike Justin Authentication method and system
KR101397711B1 (ko) * 2012-09-24 2014-05-26 주식회사 팬택 필기 기반으로 특정 기능을 실행하는 방법 및 그에 따른 디바이스
KR101394874B1 (ko) * 2012-09-24 2014-05-13 주식회사 팬택 필기 기반으로 특정 기능을 실행하는 방법 및 그에 따른 디바이스
JP6014170B2 (ja) * 2013-01-04 2016-10-25 株式会社Uei 情報処理装置及び情報更新プログラム
KR102048015B1 (ko) * 2013-02-22 2019-11-25 삼성전자주식회사 배경 이미지의 질감을 반영하여 사용자 입력을 표시하는 방법 및 장치
US10437350B2 (en) * 2013-06-28 2019-10-08 Lenovo (Singapore) Pte. Ltd. Stylus shorthand
JP6426417B2 (ja) * 2014-09-26 2018-11-21 株式会社東芝 電子機器、方法及びプログラム
GB201520760D0 (en) 2015-05-27 2016-01-06 Mypinpad Ltd And Licentia Group Ltd Encoding methods and systems
US9946397B2 (en) * 2015-06-15 2018-04-17 Microchip Technology Incorporated Sensor design for enhanced touch and gesture decoding
US20180095653A1 (en) * 2015-08-14 2018-04-05 Martin Hasek Device, method and graphical user interface for handwritten interaction
DE102015221304A1 (de) * 2015-10-30 2017-05-04 Continental Automotive Gmbh Verfahren und Vorrichtung zur Verbesserung der Erkennungsgenauigkeit bei der handschriftlichen Eingabe von alphanumerischen Zeichen und Gesten
US10359864B2 (en) * 2016-04-27 2019-07-23 Sharp Kabushiki Kaisha Input display device and input display method
JP6986848B2 (ja) * 2016-04-27 2021-12-22 シャープ株式会社 入力表示装置および入力表示方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090160785A1 (en) * 2007-12-21 2009-06-25 Nokia Corporation User interface, device and method for providing an improved text input

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5848187A (en) * 1991-11-18 1998-12-08 Compaq Computer Corporation Method and apparatus for entering and manipulating spreadsheet cell data
US5428805A (en) * 1992-12-22 1995-06-27 Morgan; Michael W. Method and apparatus for recognizing and performing handwritten calculations
US20020107885A1 (en) * 2001-02-01 2002-08-08 Advanced Digital Systems, Inc. System, computer program product, and method for capturing and processing form data
WO2002098049A2 (en) * 2001-05-31 2002-12-05 Empower Technologies, Inc. System and method of pen-based data input into a computing device
KR100813062B1 (ko) * 2006-05-03 2008-03-14 엘지전자 주식회사 휴대용 단말기 및 이를 이용한 텍스트 표시 방법
JP4281796B2 (ja) * 2006-12-20 2009-06-17 セイコーエプソン株式会社 画像印刷装置
KR20080068491A (ko) * 2007-01-19 2008-07-23 엘지전자 주식회사 터치 방식 정보 입력 단말기 및 그 방법
EP3139257A1 (en) * 2007-01-19 2017-03-08 LG Electronics Inc. Inputting information through touch input device
KR101358506B1 (ko) * 2007-02-23 2014-02-06 엘지전자 주식회사 필기입력방법 및 이를 이용한 이동통신단말기
KR100874044B1 (ko) 2007-02-28 2008-12-12 이화여자대학교 산학협력단 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및방법
US8296681B2 (en) * 2007-08-24 2012-10-23 Nokia Corporation Searching a list based upon user input
TW200930009A (en) * 2007-12-21 2009-07-01 Inventec Appliances Corp Procedure of acting personally hot function setting
US8116569B2 (en) * 2007-12-21 2012-02-14 Microsoft Corporation Inline handwriting recognition and correction
JP5125573B2 (ja) * 2008-02-12 2013-01-23 富士通株式会社 領域抽出プログラム、文字認識プログラム、および文字認識装置
KR101218820B1 (ko) 2008-09-19 2013-01-07 엘지전자 주식회사 터치 방식 정보 입력 단말기 및 그 방법
US8423916B2 (en) * 2008-11-20 2013-04-16 Canon Kabushiki Kaisha Information processing apparatus, processing method thereof, and computer-readable storage medium
US9147275B1 (en) * 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US20140181758A1 (en) * 2012-12-20 2014-06-26 Research In Motion Limited System and Method for Displaying Characters Using Gestures
JP6014170B2 (ja) * 2013-01-04 2016-10-25 株式会社Uei 情報処理装置及び情報更新プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090160785A1 (en) * 2007-12-21 2009-06-25 Nokia Corporation User interface, device and method for providing an improved text input

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10936184B2 (en) 2017-01-02 2021-03-02 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof

Also Published As

Publication number Publication date
US8917248B2 (en) 2014-12-23
US20150084901A1 (en) 2015-03-26
US20110025630A1 (en) 2011-02-03
KR20110012791A (ko) 2011-02-09
US10373009B2 (en) 2019-08-06
US20180032831A1 (en) 2018-02-01
US9811750B2 (en) 2017-11-07

Similar Documents

Publication Publication Date Title
KR101639074B1 (ko) 터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법
US10140284B2 (en) Partial gesture text entry
JP2022532326A (ja) 電子デバイス上の手書き入力
CN100407223C (zh) 一种用于手写识别的设备和方法
US8610672B2 (en) Device and method for stroke based graphic input
KR101633842B1 (ko) 연속적인 제스쳐 입력을 위한 복수의 그래픽 키보드들
US20090249203A1 (en) User interface device, computer program, and its recording medium
US10387033B2 (en) Size reduction and utilization of software keyboards
KR20080068491A (ko) 터치 방식 정보 입력 단말기 및 그 방법
US7973764B2 (en) Switching between input modes in a limited input device
CN106970899B (zh) 一种文本处理方法及装置
KR101218820B1 (ko) 터치 방식 정보 입력 단말기 및 그 방법
US20230236673A1 (en) Non-standard keyboard input system
WO2023045920A1 (zh) 文本显示方法和文本显示装置
US11165903B1 (en) Apparatus for transmitting message and method thereof
CN105700806A (zh) 一种用于智能电视或智能眼镜的方位手势输入方法及装置
CN108475157B (zh) 字符输入方法、装置及终端
KR20150132896A (ko) 터치패드로 구성된 리모컨과 그 작동 방법
US9804777B1 (en) Gesture-based text selection
US20150278176A1 (en) Providing for text entry by a user of a computing device
KR20110066414A (ko) 터치스크린을 이용한 영문자 입력방법
JP2014089503A (ja) 電子機器及び電子機器の制御方法
KR20110125049A (ko) 휴대용 단말기, 그의 문자 입력 방법
JP2015172858A (ja) 情報処理装置および文字入力用のプログラムならびに入力文字列の変換候補の表示方法
KR20100021227A (ko) 메뉴 제공 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190627

Year of fee payment: 4