KR20140132171A - 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법 - Google Patents

터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법 Download PDF

Info

Publication number
KR20140132171A
KR20140132171A KR1020130051335A KR20130051335A KR20140132171A KR 20140132171 A KR20140132171 A KR 20140132171A KR 1020130051335 A KR1020130051335 A KR 1020130051335A KR 20130051335 A KR20130051335 A KR 20130051335A KR 20140132171 A KR20140132171 A KR 20140132171A
Authority
KR
South Korea
Prior art keywords
input
handwriting
image
application
area
Prior art date
Application number
KR1020130051335A
Other languages
English (en)
Inventor
정종우
명인식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130051335A priority Critical patent/KR20140132171A/ko
Priority to US14/254,964 priority patent/US9489126B2/en
Priority to EP14167297.2A priority patent/EP2821908B1/en
Publication of KR20140132171A publication Critical patent/KR20140132171A/ko
Priority to US15/285,054 priority patent/US9875022B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/14Tree-structured documents
    • G06F40/143Markup, e.g. Standard Generalized Markup Language [SGML] or Document Type Definition [DTD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 터치용 펜을 이용하는 휴대 단말기의 필기 입력 방법 및 이를 지원하는 장치에 관한 것이다. 이를 위해, 휴대 단말기는 실행 중인 어플리케이션과 중첩하여 제공하는 필기 입력 레이어의 일 영역에서 필기 이미지를 입력 받고, 입력 받은 필기 이미지를 상기 필기 입력 레이어의 일 영역에 대응하는 상기 실행 중인 어플리케이션의 일 영역의 속성을 고려하여 인식하고, 인식된 결과를 상기 실행 중인 어플리케이션에 적용한다.

Description

터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법 {PORTABLE TERMINAL DEVICE USING TOUCH PEN AND HANDWRITING INPUT METHOD THEREFOR}
본 발명은 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법에 관한 것으로, 특히 휴대 단말기에서 구동 중인 어플리케이션을 대상으로 필기 입력을 수행하는 방법에 관한 것이다.
최근 휴대 단말기가 늘어나면서 직관적으로 입/출력 가능한 방법에 대한 사용자의 요구가 증대하고 있다. 그런데, 휴대 단말기의 경우 휴대의 용이성을 위하여 그 크기가 제한되고 있으며, 결과적으로 정보를 표시하는 표시부의 크기는 일반 TV, 모니터 등에 비하여 상대적으로 작은 특징이 있다. 이로 인하여, 휴대 단말기는 다양한 사용자의 입력을 위하여 전통적인 UI 방식, 예컨대 키보드, 키 패드, 마우스 등의 별도 구성을 이용하는 방식에서 벗어나서, 손가락이나 터치용 펜 등을 이용하여 화면을 직접 터치하거나 음성을 이용하여 정보를 입력하는 직관적 UI 방식으로 진화하고 있다. 특히, 사용자는 터치용 펜을 가지고 보다 세밀한 터치를 할 수 있는데, 종래의 터치용 펜은 단순히 표시부에 출력된 특정 영역을 터치하는 수준에 머물고 있다. 이에 따라, 터치용 펜을 이용하여 휴대 단말기에서 터치뿐만 아니라 데이터를 입력하기 위한 다양한 요구가 이어지고 있다.
본 발명은 휴대 단말기에서 필기 기반의 사용자 인터페이스를 이용하여 정보를 입력하는 방법 및 장치를 제공한다.
특히, 본 발명은 휴대 단말기에서 어플리케이션이 실행되고 있는 상황에서 필기 기반의 사용자 인터페이스를 이용하여 상기 어플리케이션으로 정보를 입력하는 방법 및 장치를 제공한다.
특히, 본 발명은 휴대 단말기에서 실행 중인 어플리케이션에 중첩하여 제공된 필기 입력 레이어에서 터치용 펜을 이용한 필기 기반의 사용자 인터페이스를 이용하여 상기 어플리케이션으로 정보를 입력하는 방법 및 장치를 제공한다.
예시적인 일 실시 예에 따르면, 터치용 펜을 이용한 휴대 단말기의 필기 입력 방법은 어플리케이션이 실행되면, 그 실행 화면을 터치 스크린 상에 표시하는 단계, 상기 실행 화면에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공하는 단계, 상기 필기 입력 레이어의 일 영역에서 상기 터치용 펜을 이용한 필기 이미지를 입력받는 단계, 상기 실행 화면 내에서, 상기 필기 이미지가 입력된 지점에 대응되는 영역의 속성을 고려하여 상기 입력된 필기 이미지가 인식되는 데이터 타입을 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 단계; 및 상기 인식된 결과를 상기 어플리케이션에 적용하는 단계를 포함한다.
상기 입력된 필기 이미지를 인식하는 단계는, 상기 필기 입력 레이어 아래에서 상기 필기 이미지가 입력된 영역과 중첩되는 상기 실행 화면의 일 영역의 속성을 고려하여 상기 입력된 필기 이미지가 인식되는 데이터 타입을 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 단계를 포함할 수 있다.
상기 어플리케이션은 상기 휴대 단말기의 외부에 위치한 서버가 제공하는 웹 화면을 디스플레이하는 어플리케이션이고, 상기 입력된 필기 이미지를 인식하는 단계는, 상기 웹 화면의 일 영역에 HTML(Hyper Text Markup Language) 문서의 컴포넌트가 입력받을 수 있는 데이터 타입을 상기 입력된 필기 이미지가 인식되는 데이터 타입으로 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 단계를 포함할 수 있다.
상기 실행 화면이 텍스트 입력 필드를 포함하는 경우, 상기 입력된 필기 이미지를 인식하는 단계는, 상기 입력된 필기 이미지를 상기 텍스트 입력 필드에 입력 가능한 텍스트로 인식하는 단계를 포함하고, 상기 인식된 결과를 상기 어플리케이션에 적용하는 단계는, 상기 인식된 텍스트를 상기 텍스트 입력 필드 안에 표시하는 단계를 포함할 수 있다.
상기 필기 이미지가 입력된 지점에 대응되는 영역이 숫자 입력 필드를 포함하는 경우, 상기 입력된 필기 이미지를 인식하는 단계는, 상기 입력된 필기 이미지를 적어도 하나의 숫자 또는 수식으로 인식하는 단계를 포함하고, 상기 인식된 결과를 상기 어플리케이션에 적용하는 단계는, 상기 인식된 적어도 하나의 숫자 또는 수식에 따른 계산 결과를 상기 숫자 입력 필드 안에 표시하는 단계를 포함할 수 있다.
상기 입력된 필기 이미지를 인식하는 단계는, 상기 입력된 필기 이미지를 텍스트로 인식하는 단계이고, 상기 인식된 결과를 상기 어플리케이션에 적용하는 단계는, 상기 인식된 텍스트를 검색어로 하여 상기 검색어를 포함하는 전자 문서 또는 지도 이미지 중 적어도 하나를 표시하는 단계를 포함할 수 있다.
상기 필기 이미지가 입력된 지점에 대응되는 영역이 복수 개의 셀을 포함하는 테이블을 포함하는 경우, 상기 입력된 필기 이미지를 인식하는 단계는, 상기 필기 이미지를 상기 복수 개의 셀들 중 적어도 하나를 선택하는 명령어로 인식하는 단계를 포함하고, 상기 인식된 결과를 상기 어플리케이션에 적용하는 단계는, 상기 필기 입력 레이어에서 상기 터치용 펜을 이용한 필기 이미지가 추가로 입력되는 경우, 상기 추가로 입력된 필기 이미지를 텍스트 또는 이미지로 인식하여 상기 선택된 셀들 중 적어도 하나 위에 표시하는 단계를 포함할 수 있다.
상기 어플리케이션에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공하는 단계는, 상기 터치 스크린의 일 측에서 상기 터치 스크린의 중앙 방향으로 터치 드래그하는 제스처에 응답하여, 상기 어플리케이션에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공하는 것을 특징으로 할 수 있다.
상기 필기 이미지를 인식하는 단계는, 상기 필기 이미지를 복수 개의 데이터 타입으로 각각 인식하는 단계, 상기 복수 개의 데이터 타입으로 인식된 결과들을 저장하는 단계를 포함할 수 있다.
예시적인 다른 일 실시 예에 따르면, 터치용 펜을 이용한 휴대 단말기의 필기 입력 방법에 있어서, 어플리케이션이 실행되면, 그 실행 화면을 터치 스크린 상에 표시하는 단계, 필기 입력이 가능한 필기 입력 레이어를 상기 실행 화면에 중첩하여 제공하는 단계, 상기 필기 입력 레이어의 제1 및 제2 영역에서, 상기 터치용 펜을 이용한 필기 이미지를 각각 입력받는 단계, 상기 필기 입력 레이어의 상기 제1 영역 및 상기 제2 영역에 대응하는 상기 실행 화면 내의 제1 및 제2 영역의 속성을 고려하여, 상기 필기 입력 레이어의 제1 영역에 입력된 필기 이미지는 텍스트 타입으로 인식하고, 상기 필기 입력 레이어의 제2 영역에 입력된 필기 이미지는 이미지 타입으로 인식하는 단계 및 상기 인식된 결과를 상기 어플리케이션에 적용하는 단계를 포함할 수 있다.
예시적인 또 다른 일 실시 예에 따르면, 터치용 펜을 이용한 휴대 단말기의 필기 입력 방법에 있어서, 어플리케이션이 실행되면, 그 실행 화면을 터치 스크린상에 표시하는 단계, 필기 입력이 가능한 필기 입력 레이어를 상기 실행 화면에 중첩하여 제공하는 단계, 상기 필기 입력 레이어상에서 상기 터치용 펜을 이용한 필기 이미지를 입력받는 단계, 상기 입력된 필기 이미지를, 상기 필기 입력 레이어의 제공 전에 상기 필기 입력 레이어와 다른 필기 입력 레이어 상에서 입력된 필기 이미지가 인식된 데이터 타입과 다른 종류의 데이터 타입으로 인식하는 단계, 상기 인식된 결과를 상기 어플리케이션에 적용하는 단계를 포함할 수 있다.
예시적인 또 다른 일 실시 예에 따르면, 터치용 펜을 이용한 휴대 단말기는, 어플리케이션이 실행되면, 그 실행 화면을 표시하는 터치 스크린 및 상기 어플리케이션에 중첩하여 제공된 필기 입력이 가능한 필기 입력 레이어의 일 영역에서 상기 터치용 펜을 이용한 필기 이미지가 입력되면, 상기 필기 입력 레이어의 일 영역에 대응되는 상기 실행 화면의 일 영역의 속성을 고려하여 상기 입력된 필기 이미지가 인식되는 데이터 타입을 결정하고, 상기 결정된 데이터 타입으로 상기 필기 이미지를 인식하고, 상기 인식된 결과를 상기 실행 중인 어플리케이션에 적용하는 제어부를 포함할 수 있다.
상기 제어부는, 상기 필기 입력 레이어 아래에서 상기 필기 입력 레이어의 일 영역과 중첩되는 상기 실행 화면의 일 영역의 속성을 고려하여 상기 입력된 필기 이미지가 인식되는 데이터 타입을 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 것을 특징으로 할 수 있다.
상기 어플리케이션은 상기 휴대 단말기의 외부에 위치한 서버가 제공하는 웹 화면을 디스플레이하는 어플리케이션이고, 상기 제어부는, 상기 웹 화면의 일 영역의 HTML(Hyper Text Markup Language) 문서에 포함된 컴포넌트가 입력받을 수 있는 데이터 타입을 상기 입력된 필기 이미지가 인식되는 데이터 타입으로 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 것을 특징으로 할 수 있다.
상기 실행 화면의 상기 일 영역이 텍스트 입력 필드를 포함하는 경우, 상기 제어부는, 상기 필기 이미지를 상기 텍스트 입력 필드에 입력 가능한 텍스트로 인식하고, 상기 인식된 텍스트를 상기 텍스트 입력 필드 안에 표시하는 것을 특징으로 할 수 있다.
상기 실행 화면의 상기 일 영역이 숫자 입력 필드를 포함하는 경우, 상기 제어부는, 상기 입력된 필기 이미지를 적어도 하나의 숫자 또는 수식으로 인식하고, 상기 인식된 적어도 하나의 숫자 또는 수식에 따른 계산 결과를 상기 숫자 입력 필드 안에 표시하는 것을 특징으로 할 수 있다.
상기 제어부는, 상기 입력된 필기 이미지를 텍스트로 인식하고, 상기 인식된 텍스트를 검색어로 하여 상기 검색어를 포함하는 전자 문서 또는 지도 이미지 중 적어도 하나를 표시할 수 있다.
상기 실행 화면의 상기 일 영역이 복수 개의 셀을 포함하는 테이블을 포함하는 경우, 상기 제어부는, 상기 필기 이미지를 상기 복수 개의 셀들 중 적어도 하나를 선택하는 명령어로 인식하고, 상기 필기 입력 레이어에서 상기 터치용 펜을 이용한 필기 이미지가 추가로 입력되면, 상기 추가로 입력된 필기 이미지를 텍스트 또는 이미지로 인식하여 상기 선택된 셀들 중 적어도 하나 위에 표시하는 것을 특징으로 할 수 있다.
상기 어플리케이션에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공하는 경우, 상기 터치 스크린의 일 측에서 상기 터치 스크린의 중앙 방향으로 터치 드래그하는 제스처에 응답하여, 상기 어플리케이션에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공하는 것을 특징으로 할 수 있다.
상기 제어부는, 상기 필기 이미지를 복수 개의 데이터 타입으로 각각 인식하고, 상기 복수 개의 데이터 타입으로 인식된 결과들을 저장하는 것을 특징으로 할 수 있다.
예시적인 또 다른 일 실시 예에 따르면, 터치용 펜을 이용한 휴대 단말기는, 어플리케이션이 실행되면, 그 실행 화면을 표시하는 터치 스크린 및 상기 실행 화면에 중첩하여 제공된 필기 입력 레이어의 제1 및 제2 영역에서 상기 터치용 펜을 이용한 필기 이미지를 각각 입력받고, 상기 필기 입력 레이어의 상기 제1 영역 및 상기 제2 영역에 대응하는 상기 실행 화면의 제1 및 제2 영역의 속성을 고려하여, 상기 필기 입력 레이어의 제1 영역에 입력된 필기 이미지는 텍스트 타입으로 인식하고, 상기 필기 입력 레이어의 제2 영역에 입력된 필기 이미지는 이미지 타입으로 인식하고, 상기 인식된 결과를 상기 실행 중인 어플리케이션에 적용하는 제어부를 포함할 수 있다.
예시적인 또 다른 일 실시 예에 따르면, 터치용 펜을 이용한 휴대 단말기는, 어플리케이션이 실행되면, 그 실행 화면을 표시하는 터치 스크린 및 상기 실행 화면에 중첩하여 제공된 필기 입력 레이어 상에서 상기 터치용 펜을 이용한 필기 이미지가 입력되면, 상기 입력된 필기 이미지를, 상기 필기 입력 레이어의 제공 전에 상기 필기 입력 레이어와 다른 필기 입력 레이어 상에서 입력된 필기 이미지가 인식된 데이터 타입과 다른 종류의 데이터 타입으로 인식하고, 상기 인식된 결과를 상기 실행 중인 어플리케이션에 적용하는 제어부를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 터치용 펜을 이용하여 휴대 단말기에서 실행 중인 어플리케이션으로 데이터를 빠르게 입력할 수 있다. 특히, 어플리케이션의 입력 필드 위에서 터치용 펜을 이용하여 필기 이미지를 입력함으로써, 사용자에게 빠르고 직관적인 인터페이스를 제공할 수 있다.
그 외에 본 발명의 실시 예로 인해 얻을 수 있거나 예측되는 효과에 대해서는 본 발명의 실시 예에 대한 상세한 설명에서 직접적 또는 암시적으로 개시하도록 한다. 즉 본 발명의 실시 예에 따라 예측되는 다양한 효과에 대해서는 후술될 상세한 설명 내에서 개시될 것이다.
도 1은 본 발명의 일 실시 예에 따른 필기 입력 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 휴대 단말기의 구성을 나타낸 도면이다.
도 3은 본 발명의 제어부의 구성을 보다 상세히 나타낸 도면이다.
도 4는 본 발명의 실시 예에 따른 휴대 단말기의 필기 입력 방법을 설명하기 위한 순서도이다.
도 5는 휴대 단말기에서 어플리케이션의 입력 필드에 텍스트를 표시하는 시나리오의 예이다.
도 6은 휴대 단말기에서 어플리케이션의 입력 필드에 텍스트를 표시하는 시나리오의 다른 일 예이다.
도 7a 및 도 7b는 휴대 단말기에서 병원 차트 어플리케이션의 입력 필드에 텍스트를 표시하는 시나리오의 예이다.
도 7c는 휴대 단말기에서 병원 차트 어플리케이션의 이미지 영역 표시될 수 있는 이미지들의 예이다.
도 8a 및 도 8b는 휴대 단말기에서 일정 관리 어플리케이션의 입력 필드에 텍스트를 표시하는 시나리오의 예이다.
도 9a 및 도 9b는 휴대 단말기에서 입력 필드에 텍스트를 표시하는 위한 방법들을 제시하는 예이다.
도 10은 휴대 단말기에서 웹 브라우저 어플리케이션의 입력 필드에 텍스트를 표시하는 시나리오의 예이다.
도 11은 본 발명의 다른 실시 예에 따른 휴대 단말기의 필기 입력 방법을 설명하기 위한 순서도이다.
도 12은 본 발명의 또 다른 일 실시 예에 따른 휴대 단말기의 필기 입력 방법을 설명하기 위한 순서도이다.
도 13은 본 발명의 또 다른 일 실시 예에 따른 휴대 단말기의 필기 입력 방법을 설명하기 위한 순서도이다.
도 14a 및 도 14b는 휴대 단말기에서 병원 차트 어플리케이션에 텍스트 또는 이미지를 표시하는 시나리오의 일 예이다.
도 15는 본 발명의 일 실시 예에 따른 필기 입력 레이어의 복수 개의 영역들이 어플리케이션의 복수 개의 영역들에 대응되는 일 예이다.
도 16a 내지 도 16c는 휴대 단말기에서 검색 어플리케이션에 필기 이미지의 인식 결과를 적용하는 시나리오의 일 예이다.
도 17a 내지 도 17c는 휴대 단말기에서 일정 관리 어플리케이션에 필기 이미지의 인식 결과를 적용하는 시나리오의 일 예이다.
도 18a 및 도 18b는 휴대 단말기에서 계산기 어플리케이션에 필기 이미지의 인식 결과를 적용하는 시나리오의 일 예이다.
도 19는 본 발명의 또 다른 일 실시 예에 따른 휴대 단말기의 필기 입력 방법을 설명하기 위한 순서도이다.
도 20는 본 발명의 또 다른 일 실시 예에 따른 휴대 단말기의 필기 입력 방법을 설명하기 위한 순서도이다.
도 21a 및 도 21b는 일정 관리 어플리케이션에서 적어도 하나의 셀을 선택한 결과를 적용하는 시나리오의 일 예이다.
이하 본 발명에 따른 상세한 설명에서는 상술한 기술적 과제를 이루기 위한 대표적인 실시 예를 제시할 것이다. 또한, 본 발명에 대한 설명의 편의를 위하여 정의하고 있는 개체들의 명칭들을 동일하게 사용할 수 있다. 하지만 설명의 편의를 위해 사용된 명칭들이 본 발명에 따른 권리를 한정하는 것은 아니며, 유사한 기술적 배경을 가지는 시스템에 대해 동일 또는 용이한 변경에 의해 적용이 가능함은 물론이다.
마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 발명은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어 지지 않는다.
도 1은 본 발명의 일 실시 예에 따른 필기 입력 시스템(10)을 나타내는 도면이다.
도 1을 참조하면, 필기 입력 시스템(10)은 휴대 단말기(100)와 터치용 펜(200)을 포함할 수 있다. 필기 입력 시스템(10)에서 사용자는 터치용 펜(200)을 파지한 상태에서 휴대 단말기(100)의 화면상에 필기 이미지를 입력할 수 있다. 필기 입력 시스템(10)은 본 발명의 실시 예에 따른 구성의 일 예를 도시하고 있으나, 그 외의 다른 기능을 위한 구성이 추가로 구비될 수도 있다.
도 2는 본 발명의 일 실시 예에 따른 휴대 단말기(100)의 구성을 나타낸 도면이다. 도 2를 참조하면, 본 발명의 휴대 단말기(100)는 통신부(110), 입력부(120), 오디오 처리부(130), 터치 스크린(140), 저장부(150) 및 제어부(160)의 구성을 포함할 수 있다.
터치 스크린(140)은 휴대 단말기(100)에서 출력되는 출력 정보에 대한 표시 기능을 수행하는 표시 패널(141)과, 사용자에 의한 각종 입력 기능을 수행하는 입력용 패널(142)로 구비될 수 있다. 이때, 입력용 패널은 손가락, 펜 등의 각종 물체를 이용한 사용자의 싱글 또는 멀티 터치 입력, 드래그 입력, 필기 입력, 드로잉 입력 등의 각종 입력을 감지할 수 있는 적어도 하나 이상의 패널로 구현될 수 있다. 예를 들어, 입력용 패널(142)은 손가락 입력 감지 및 펜 입력 감지가 모두 가능한 하나의 패널을 이용하여 구현될 수도 있고, 손가락 입력 감지가 가능한 터치 패널(145)과 펜 입력 감지가 가능한 펜 인식 패널(143)과 같이 두 개의 패널을 이용하여 구현될 수도 있다.
이하, 본 발명의 실시 예에서는 입력용 패널(142)이 손가락 입력 감지가 가능한 터치 패널(145)과 펜 입력 감지가 가능한 펜 인식 패널(143)과 같이 두 개의 패널을 포함하여 구현되는 경우를 예를 들어 설명한다.
표시 패널(141)은 LCD, AMOLED(Active Matrix Organic Light Emitting Diodes) 등과 같은 패널이 될 수 있다. 표시 패널(141)은 휴대 단말기(100)의 각종 동작 상태, 어플리케이션 실행 및 서비스 등에 따른 다양한 화면을 표시할 수 있다. 특히, 본 발명의 실시 예에 따라 표시 패널(141)은 입력 필드를 포함하는 어플리케이션의 실행 화면을 표시할 수 있다. 또는, 표시 패널(141)은 휴대 단말기(100)의 외부에 위치한 서버(미도시)가 제공하는 웹 어플리케이션을 표시할 수 있다.
터치 패널(145)은 사용자의 터치 입력을 감지할 수 있다. 터치 패널(145)은 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다. 터치 패널(145)은 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력한다. 이때, 감지된 터치 신호에 대응하는 정보가 표시 패널(141) 상에 표시될 수 있다. 터치 패널(145)은 다양한 입력 수단에 의하여 사용자의 터치 입력에 의한 조작 신호를 입력받을 수 있다. 예를 들어, 터치 패널(145)은 사용자의 인체(예를 들어, 손가락)나 물리적인 도구 등을 포함하는 터치 입력을 감지할 수 있다. 본 발명의 실시 예에 따르면 터치 패널(145)은 정전용량 방식 터치 패널로 구성될 수 있다. 정전용량 방식 터치 패널로 구성된 경우 터치 패널(145)은 유리의 양면에 얇은 금속 전도성 물질(예를 들면, ITO(Indium Tin Oxide:산화 인듐주석) 막 등)을 코팅하여 유리표면에 전류가 흐르도록 하고 전하를 저장할 수 있는 유전체로 코팅되어 구성된다. 이러한 터치 패널(145)에 물체에 의해 표면이 터치되면 정전기에 의해 일정량의 전하가 접촉 위치로 이동하고, 터치 패널(145)은 전하의 이동에 따른 전류의 변화량을 인식해서 터치된 위치를 감지하게 되고 터치 이벤트를 추적한다. 여기서 터치 패널(145)에서 발생하는 터치 이벤트는 주로 사람의 손가락에 의해 생성될 수 있으나, 정전용량 변화를 가할 수 있는 다른 물체 예를 들면 정전용량 변화를 가할 수 있는 전도성 재질의 물체에 의해서도 생성될 수 있다.
펜 인식 패널(143)은 사용자의 터치용 펜(200)(예컨대, 스타일러스 펜(stylus pen), 디지타이저 펜(digitizer pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력한다. 이러한 펜 인식 패널(143)은 EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 구체적으로 펜 인식 패널(143)은 복수의 루프 코일이 미리 정해진 제1 방향 및 제1 방향과 교차하는 제2 방향에 각각 배치되어 그리드 구조를 가지는 전자 유도 코일 센서(미도시)와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부(미도시)를 포함하여 구성될 수 있다.
이러한 펜 인식 패널(143)의 루프 코일 근방에 공진회로를 내장하는 펜이 존재하면, 해당 루프 코일로부터 송신되는 자계가 펜 내의 공진회로에 상호 전자 유도에 기초한 전류를 발생시킨다. 이 전류를 기초로 하여, 펜 내의 공진 회로를 구성하는 코일로부터 유도 자계가 발생하게 되고, 펜 인식 패널(143)은 이 유도 자계를 신호 수신 상태에 있는 루프 코일에서 검출하게 되어 펜의 접근 위치 또는 터치 위치가 감지할 수 있다.
펜 인식 패널(143)을 통해서는 전자 유도에 기초한 전류를 발생시킬 수 있는 물체라면 접근 및 터치의 감지가 가능하며, 본 발명의 실시 예에서는 펜 근접 또는 펜 터치 인식 전용으로 이용되는 것으로 설명한다.
펜 인식 패널(143)은 단말기의 일정 위치에 배치되어 특정 이벤트 발생에 따라 또는 디폴트로 활성화 상태를 가질 수 있다. 그리고 펜 인식 패널(143)은 표시 패널(141)의 하부에 일정 면적, 예를 들면 표시 패널(141)의 표시 영역을 커버할 수 있는 면적을 가지고 마련될 수 있다.
통신부(110)는 휴대 단말기(100)가 통신 기능을 지원하는 경우 포함될 수 있는 구성이다. 특히 휴대 단말기(100)가 이동통신 기능을 지원하는 경우 통신부(110)는 이동통신 모듈로 구성될 수 있다. 통신부(110)는 통신 기능이 요구되는 휴대 단말기(100)의 특정 기능 예를 들면 채팅 기능, 메시지 송수신 기능, 통화 기능 등을 수행할 수 있다.
입력부(120)는 사이드 키나 별도로 마련된 터치 패드 등으로 구성될 수 있다. 또한, 입력부(120)는 휴대 단말기(100)의 턴-온 또는 턴-오프 수행을 위한 버튼 키, 휴대 단말기(100)가 지원하는 기본 화면으로의 복귀를 지원하는 홈 키 등을 포함할 수 있다.
오디오 처리부(130)는 휴대 단말기(100)의 오디오 신호 출력을 위한 스피커 및 오디오 신호 수집을 위한 마이크 중 적어도 하나를 포함할 수 있다. 또한, 오디오 처리부(130)는 진동 모듈을 제어하여 진동 모듈의 진동 크기 조절을 제어할 수 있다. 예를 들어, 오디오 처리부(130)는 제스처 입력 동작에 따라 진동 크기를 다르게 할 수 있다. 즉 오디오 처리부(130)는 제스처 인식 정보들이 다른 경우, 진동 모듈이 각각의 제스처 인식 정보에 해당하는 진동 크기를 가지도록 제어할 수 있다.
저장부(150)는 휴대 단말기(100) 운용에 필요한 다양한 프로그램과 데이터를 저장하는 구성이다. 예를 들어 저장부(150)는 휴대 단말기(100) 운용에 필요한 운용 체제 등을 저장할 수 있으며, 앞서 설명한 표시 패널(141) 상에 출력되는 화면 지원을 위한 기능 프로그램들을 저장할 수 있다.
제어부(160)는 본 발명의 실시 예에 따른 터치용 펜을 이용하여 필기 이미지를 입력받아 표시하기 위한 다양한 구성들을 포함하며, 이 구성들을 기반으로 필기 입력을 위한 신호 처리와 데이터 처리 및 기능 운용을 제어할 수 있다. 예를 들어, 제어부(160)는 실행 중인 어플리케이션의 실행 화면에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공하고, 필기 입력 레이어의 일 영역에 입력된 필기 이미지가 인식되는 데이터 타입을 상기 필기 입력 레이어의 일 영역에 대응하는 실행 화면의 일 영역의 속성을 고려하여 결정할 수 있다. 그리고, 결정된 데이터 타입으로 필기 이미지를 인식하고, 인식된 결과를 상기 실행 중인 어플리케이션에 적용할 수 있다. 이를 위하여 제어부(160)는 도 3에 도시된 바와 같은 구성을 포함할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 제어부(160)의 구성을 보다 상세히 나타낸 도면이다.
도 3을 참조하면, 본 발명의 제어부(160)는 어플리케이션 운용부(161), 필기 영역 제공부(162), 필기 인식부(163)의 구성을 포함할 수 있다.
어플리케이션 운용부(161)는 사용자의 명령(일 예로, 바탕화면에서 특정 어플리케이션에 대응하는 아이콘을 선택) 또는 전원 구동 시에 특정 어플리케이션을 실행할 수 있다. 그리고, 실행된 어플리케이션의 실행 화면이 표시 패널(141)을 통하여 표시되도록 운용할 수 있다.
필기 영역 제공부(162)는 터치용 펜을 이용한 필기 이미지를 인식하기 위한 필기 입력 레이어를 제공할 수 있다. 예를 들어, 필기 영역 제공부(162)는 표시 중인 어플리케이션 실행 화면이 제공하는 입력 필드에 중첩하여 필기 입력 레이어를 제공할 수 있다. 또한, 어플리케이션의 실행 화면이 포함하는 입력 필드가 복수 개인 경우, 필기 영역 제공부(162)는 복수 개의 입력 필드 각각에 대응하는 복수 개의 필기 입력 레이어를 제공할 수 있다. 사용자는 터치용 펜을 이용하여 필기 입력 레이어 상에서 필기를 수행할 수 있다.
이 때, 안드로이드 빌드 시스템에서의 입력 필드에 중첩하여 필기 입력 레이어를 제공하기 위한 구현 방법은 아래와 같을 수 있다.
먼저, 화면 상에 입력 필드와 필기 입력 레이어의 위치를 결정하는 레이아웃은 XML 코드를 이용하여 아래와 같이 프로그램 될 수 있다.
<FrameLayout
android:id="@+ id / nli _ title _ layout "
………
>
………
<TextView
android:id="@+ id / title "
style="@ style / TextAppearance . EditEvent _ Value
………
android:minHeight="48 dip "
androidingleLine=" true " />
………
<com.samsung.nli.util.view.NliSCanvasView
android:id="@+ id / nli _ title _ nliSCanvasView "
………
android:focusable=" true " />
위 프로그램을 참조하면, 개발자는 TextView 메소드를 호출하여 입력 필드의 레이아웃을 정의하고, 상기 메소드 내에서 입력 필드가 예로 title 인 경우, 이와 관련된 위치 또는 크기에 관한 속성을 정의할 수 있다. 또한 개발자는 nli_title_nliSCanvasView 메소드를 호출하여 필기 이미지를 입력 받기 위한 필기 입력 레이어의 위치 또는 크기에 관한 속성을 정의할 수 있다. 이 때, nli_title_nliSCanvasView 메소드는 TextView 메소드와 같은 parent를 공유하기 때문에 상기 필기 입력 레이어의 위치 및 크기에 관한 속성은 서로 동일할 수 있다.
한편, NliScanvasView 메소드 내에는 필기 입력 레이어에 입력된 필기의 일부를 삭제하기 위한 삭제 버튼과 관련된 nli_title_eraseImageButton 메소드가 포함되어 있을 수 있다.
다음으로, Java 코드에서 XML 코드로 정의한 레이아웃을 호출하여 사용할 수 있도록 아래와 같이 프로그램될 수 있다.
mTitleTextView = (TextView) view.findViewById(R.id.title );
titleLayout = (FrameLayout) view.findViewById(R.id.nli _ title _ layout );
titleSCanvasView = (NliSCanvasView) view.findViewById(R.id.nli _ title _ nliSCanvasView );
titleEraseImageButton = (ImageButton) view.findViewById(R.id.nli _ title _ eraseImageButton );
titleSCanvasView.setContent(mActivity, titleEraseImageButton, mTitleTextView);
위 프로그램을 참조하면, 개발자는 XML 코드로 작성한 각각의 TextView, FrameLayout, NliSCanvasView, ImageButton 속성과 관련된 값들을 호출할 수 있다. 그리고, 이를 titleSCanvasView.setContent 메소드를 이용하여 호출된 값들이 결합하여 배치되도록 할 수 있다.
필기 인식부(163)는 필기 입력 레이어 상에 터치용 펜 등의 입력 수단에 의한 필기 이미지를 입력 정보로 한다. 그리고, 필기 인식부(163)는 입력된 필기 이미지를 인식할 수 있다. 이를 위해 필기 인식부(163)는 입력 정보로부터 인식한 결과를 출력하기 위한 전반적인 제어를 처리하는 인지 관리 모듈(164), 원격 인지 의뢰 모듈(165) 및 입력 정보를 인지하기 위한 지역 인지 모듈(166)을 포함할 수 있다. 원격 인지 의뢰 모듈(165)은 필기 이미지를 인식하기 위하여, 펜 인식 패널(143)로 입력된 필기 이미지를 서버(미도시)로 전송할 수 있다. 그리고, 원격 인지 모듈(165)은 서버로부터 필기 이미지를 인식한 결과인 텍스트를 수신할 수 있다. 한편, 지역 인지 모듈(165)은 필기 이미지를 기반으로 입력되는 정보를 인지하는 필기 인지 블록(167)을 포함할 수 있다. 구체적으로 필기 인지 블록(167)은 펜 인식 패널(143)로 터치되는 포인트들의 좌표 값을 입력 받아, 상기 터치된 포인트들의 좌표 값을 스트로크로 저장하고, 상기 스트로크를 이용하여 스트로크 어레이를 생성할 수 있다. 그리고 필기 인지 블록(167)은 미리 저장된 필기 라이브러리와 상기 생성된 스트로크 어레이 리스트를 이용하여 필기 이미지를 인식할 수 있다.
한편, 필기 인식부(163)는 터치용 펜에 의하여 필기 이미지가 입력된 필기 입력 레이어의 일 영역에 대응하는 어플리케이션의 실행 화면의 일 영역의 속성을 고려하여 입력된 필기 이미지를 인식하는 데이터 타입을 결정할 수 있다. 예를 들어, 어플리케이션이 웹 화면을 제공하는 어플리케이션인 경우, 필기 인식부(163)는 필기 이미지가 입력된 필기 입력 레이어의 일 영역에 대응하는 웹 화면의 일 영역에 HTML(Hyper Text Markup Language) 문서의 컴포넌트가 입력받을 수 있는 데이터 타입을 입력된 필기 이미지를 인식하기 위한 데이터 타입으로 결정할 수 있다.
또한, 필기 인식부(163)는 복수 개의 필기 입력 레이어를 제공하고, 각각의 필기 입력 레이어 별로 입력되는 필기 이미지를 인식할 데이터 타입을 미리 결정할 수 있다. 그리고, 각 필기 입력 레이어에서 필기 이미지가 입력되는 경우, 필기 입력 레이어 별로 미리 결정된 데이터 타입에 따라 입력된 필기 이미지를 인식할 수 있다.
필기 인식부(163)에 의하여 필기 이미지를 인식한 결과인 텍스트는 어플리케이션 운용부(161)로 제공될 수 있다. 다른 예로, 복수 개의 필기 입력 레이어 각각에 복수 개의 필기가 입력되는 경우, 필기 인식부(163)는 상기 복수 개의 필기 이미지 각각을 인식한 결과로 복수 개의 텍스트를 생성하고, 이를 어플리케이션 운용부(161)로 제공할 수 있다.
어플리케이션 운용부(161)는 필기 인식부(163)로부터 수신한 텍스트를 실행 중인 어플리케이션의 실행 화면의 입력 필드 내에 삽입할 수 있다. 그리고, 어플리케이션 운용부(161)는 텍스트가 삽입된 입력 필드가 표시 패널(141)에 표시되도록 제어할 수 있다. 다른 예로, 필기 인식부(163)로부터 복수 개의 텍스트를 수신한 경우, 어플리케이션 운용부(161)는 복수 개의 텍스트를 복수 개의 텍스트 각각에 대응하는 입력 필드 내에 저장할 수 있다. 그리고, 어플리케이션 운용부(161)는 텍스트가 삽입된 복수 개의 입력 필드가 표시 패널(141)에 표시되도록 제어할 수 있다.
도 4는 본 발명의 실시 예에 따른 휴대 단말기(100)의 필기 입력 방법을 설명하기 위한 순서도이다.
도 4를 참조하면, 휴대 단말기(100)는 사용자의 요청 또는 전원 구동 시에 특정 어플리케이션을 실행할 수 있다(S401).
휴대 단말기(100)가 표시 패널(141) 상에 어플리케이션의 실행 화면을 표시하는 경우, 표시 패널(141) 상에는 어플리케이션이 제공하는 적어도 하나의 입력 필드가 표시될 수 있다(S403). 다시 말해, 휴대 단말기(100)는 어플리케이션이 제공하는 적어도 하나의 입력 필드가 포함된 화면을 표시 패널(141) 상에 제공할 수 있다.
다음으로, 휴대 단말기(100)는 상기 입력 필드 위에서 터치용 펜을 이용한 필기 이미지를 입력받을 수 있다(S405). 일 예로, 휴대 단말기(100)는 필기 이미지를 입력받기 위해 입력 필드에 중첩하여 필기 입력 레이어를 제공할 수 있다. 필기 입력 레이어는 필기 이미지를 인식하기 위한 어플리케이션의 실행 화면 위에 가상의 레이어로써 입력 필드를 포함하는 실행 화면이 표시될 때 자동으로 제공되거나 또는 미리 정의된 사용자 제스처(예로, 터치 스크린(140)의 일 측에서 터치 스크린(140)의 중앙 방향으로 터치용 펜을 이용하여 터치 드래그하는 제스처)를 입력 받을 때 제공될 수 있다. 또는 휴대 단말기(100)로부터 터치용 펜이 탈착될 때 제공될 수 있다. 이러한 가상의 레이어는 예를 들어, 투명 또는 반투명으로 제공될 수 있다.
휴대 단말기(100)는 제공된 필기 입력 레이어를 통하여 터치용 펜을 이용한 필기 이미지를 입력받을 수 있다. 이 때, 필기 입력 레이어는 표시 중인 입력 필드의 크기에 한정될 필요가 없다. 필기 입력 레이어는 입력 필드를 포함하여 입력 필드보다 더 넓은 면적을 가질 수 있다. 즉, 입력 필드 위에서 직접 터치용 펜을 이용한 사용자의 필기를 입력받는 것은 사용자가 입력 필드를 대상으로 필기한 필기 이미지 전부가 입력 필드와 중첩되지 않더라도, 즉, 필기한 필기 이미지의 일부가 입력 필드 밖으로 벗어나더라도 실질적으로 입력 필드를 중심으로 사용자가 필기한 이미지를 입력받는 것을 의미한다.
다른 예로, 입력 필드는 보통 하나의 열로 구성될 수 있다. 이 경우, 필기 입력 레이어는 상기 하나의 열에 대응하도록 제공될 수 있다. 즉, 필기 입력 레이어에서 사용자가 두 열로 필기하여도, 휴대 단말기(100)는 필기 입력 레이어에 작성한 두 열의 필기 이미지 각각을 텍스트로 전환하고, 전환된 각 열에 대응하는 텍스트들을 합쳐서 하나의 열의 행태로 만들어 상기 입력 필드 내에 삽입할 수 있다.
다른 예로, 어플리케이션의 실행 화면이 포함하는 입력 필드가 복수 개인 경우, 휴대 단말기(100)는 복수 개의 입력 필드 각각에 대응하는 복수 개의 필기 입력 레이어를 제공할 수 있다. 이 때, 복수 개의 필기 입력 레이어의 일부는 서로 겹칠 수도 있다. 그리고, 겹쳐진 영역에서 사용자의 필기가 발생한 경우, 휴대 단말기(100)는 사용자의 필기 입력 순서 또는 상기 필기가 시작된 위치를 고려하여, 복수 개의 필기 입력 레이어 중 어느 레이어에서의 필기인지 결정할 수 있다. 예를 들어, 휴대 단말기(100)는 겹쳐진 영역에서의 필기 이미지를 상기 필기가 최초 시작된 위치에 대응하는 필기 입력 레이어의 필기로 결정할 수 있다.
다음으로, 휴대 단말기(100)는 필기 입력 레이어를 통해 입력된 필기 이미지를 텍스트로 전환할 수 있다(S407). 또한, 복수 개의 필기 입력 레이어를 통해 복수 개의 필기가 각각 입력된 경우, 휴대 단말기(100)는 상기 복수 개의 필기 이미지를 각각 텍스트로 전환할 수 있다.
다음으로, 휴대 단말기(100)는 전환된 텍스트를 입력 필드 내에 삽입하여 표시할 수 있다(S409). 또한, 복수 개의 필드에 대응하는 복수 개의 텍스트로 각각 전환된 경우, 휴대 단말기(100)는 상기 전환된 복수 개의 텍스트 각각을 복수 개의 입력 필드 각각에 삽입하여 표시할 수 있다.
도 5는 휴대 단말기(100)에서 어플리케이션의 입력 필드에 텍스트를 표시하는 시나리오의 예이다.
도 5의 510에서, 휴대 단말기(100)는 복수 개의 입력 필드들(511, 512, 513, 514)을 포함하는 연락처 등록 어플리케이션을 표시할 수 있다.
도 5의 530에서 휴대 단말기(100)는 복수 개의 입력 필드들(511, 512, 513, 514) 위에서 각각에 대응하는 복수 개의 필기 입력 레이어들(531, 532, 533, 534)을 제공할 수 있다. 그리고, 상기 제공된 필기 입력 레이어들(531, 532, 533, 534)을 통하여 사용자의 필기 입력을 각각 받을 수 있다. 도 5의 530에서, 휴대 단말은 필기 입력 레이어(531)을 통하여 "김화경"이란 필기 이미지를 입력받고, 필기 입력 레이어(532)을 통하여 "010-1234-1234"란 필기 이미지를 입력받고, 필기 입력 레이어(533)를 통하여 "nalza98"이란 필기 이미지를 입력받고, 필기 입력 레이어(534)을 통하여 "2/18 birthday"란 필기 이미지를 입력받을 수 있다.
도 5의 550에서, 휴대 단말기(100)는 입력받은 복수 개의 필기 이미지를 인식하여 복수 개의 필기 이미지 각각에 대응하는 복수 개의 테스트로 전환할 수 있다. 그리고, 획득된 텍스트들을 복수 개의 입력 필드들(511, 512, 513, 514)에 각각 삽입하여 표시할 수 있다. 도 5의 550에서, 휴대 단말기(100)는 입력 필드(511)에는 필기 입력 레이어(531)을 통해 입력받은 필기 이미지 전환 결과인 "김화경"이란 텍스트를 삽입하여 표시하고, 입력 필드(512)에는 필기 입력 레이어(532)을 통해 입력받은 필기 이미지의 전환 결과인 "010-1234-1234"란 텍스트를 삽입하여 표시하고, 입력 필드(513)에는 필기 입력 레이어(533)를 통해 입력 받은 필기 이미지의 전환 결과인 "nalza98"이란 텍스트를 삽입하여 표시하고, 입력 필드(514)에는 필기 입력 레이어(534)을 통하여 입력받은 필기 이미지의 전환 결과인"2/18 birthday"란 텍스트를 삽입하여 표시할 수 있다.
도 6은 휴대 단말기(100)에서 어플리케이션의 입력 필드에 텍스트를 표시하는 시나리오의 다른 일 예이다.
도 6의 610에서 휴대 단말기(100)는 복수 개의 입력 필드들(611, 612, 613, 614)을 포함하는 어플리케이션의 실행 화면을 표시할 수 있다. 이 때, 복수 개의 입력 필드들(611, 612, 613, 614) 중 일부 입력 필드(612, 613)에는 이미 텍스트가 삽입되어 표시될 수 있다. 이는, 일부 입력 필드들(612, 613)에 기재될 내용은 이미 결정되어 있기 때문에 사용자가 일부 입력 필드들(612, 613) 상에는 별도의 필기 입력을 할 필요가 없음을 의미한다.
도 6의 630에서, 휴대 단말기(100)는 텍스트가 이미 삽입된 입력 필드(612, 613)를 제외한 나머지 입력 필드들(611, 614) 위에서 대응되는 각각의 필기 입력 레이어들(631, 632)을 제공할 수 있다. 다시 말해, 복수 개의 입력 필드들(611, 612, 613, 614) 중 일부 입력 필드들(611, 614)에만 복수 개의 필기 입력 레이어(631, 632)를 제공할 수 있다.
그리고, 필기 입력 레이어들(631, 632)을 통하여 사용자의 필기 입력을 받을 수 있다. 도 6의 650에서, 휴대 단말기(100)는 입력 받은 필기 이미지의 전환 결과인 텍스트들을 나머지 필드들(611, 614)에 각각 삽입하여 표시할 수 있다.
도 7a 및 도7b는 휴대 단말기(100)에서 병원 차트 어플리케이션의 입력 필드에 텍스트를 표시하는 시나리오의 예이다.
도 7a는 본 발명에 따른 입력 방법을 이용하여 병원 차트에 환자의 정보를 기록하는 일 예이다.
도 7a의 710에서 휴대 단말기(100)는 복수 개의 입력 필드들을 포함하는 병원 차트 어플리케이션의 실행 화면을 표시할 수 있다. 상기 실행 화면은 완료 버튼(715), 저장 버튼(716) 및 복수 개의 입력 필드들(711, 712, 713, 714)을 포함할 수 있다. 완료 버튼(715)은 사용자가 터치용 펜을 이용하여 병원 차트에 입력한 필기 이미지를 테스트로 전환하기 위한 전환 버튼이다. 이 때, 전환 버튼은 필기 이미지를 텍스트로 전환하기 위한 기능을 지원하면 완료 버튼, 인식 버튼, 전환 버튼 등 다양한 이름으로 불릴 수 있다.
저장 버튼(716)은 사용자(예로, 의사)가 병원 차트에 입력한 필기 이미지를 저장하기 위한 버튼이다. 복수 개의 입력 필드들(711, 712, 713, 714)은 환자 또는 병원의 정보를 기록하는 영역이다. 이 때, 복수 개의 입력 필드 중 일부 입력 필드(714)에는 환자 또는 병원의 정보가 이미 표시되어 있을 수 있다.
도 7a의 720에서 휴대 단말기(100)는 복수 개의 입력 필드들(711, 712, 713) 위에서 각각에 대응하는 복수 개의 필기 입력 레이어들(721, 722, 723)을 제공할 수 있다. 이 때, 이미 정보가 표시되어 있는 입력 필드(714)에는 필기 입력 레이어가 제공되지 않을 수 있다. 그러나, 사용자가 입력 필드(714) 내의 텍스트의 수정을 원하는 경우, 이미 정보가 표시되어 있는 입력 필드(714) 상에도 필기 입력 레이어가 제공될 수 있다. 다음으로, 휴대 단말기(100)는 필기 입력 레이어들(721, 722, 723)을 통하여 사용자의 필기 입력을 각각 받을 수 있다.
도 7a의 720에서 휴대 단말기(100)는 환자의 이름, 환자의 주소, 예진 항목에 해당하는 필기 입력을 각각 받을 수 있다. 그리고, 사용자가 완료 버튼(715)을 선택하는 경우, 휴대 단말기는 필기 입력 레이어들(721, 722, 723)을 통하여 입력된 각각의 필기 이미지를 인식하여 텍스트로 전환할 수 있다.
도 7a의 730에서 휴대 단말기(100)는 환자의 정보로써 입력받은 각각의 필기 이미지를 인식하고, 복수 개의 필기 이미지 각각에 대응하는 복수 개의 텍스트로써, "김화경", "서울시 동작구 사당동", "√"를 획득할 수 있다. 그리고, 획득된 텍스트들을 복수 개의 입력 필드들(711, 712, 713)에 각각 삽입하여 표시할 수 있다.
도 7b는 본 실시 예에 따른 입력 방법을 이용하여 병원 차트에 환자의 정보를 기록하는 다른 일 예이다.
도 7b의 740에서 휴대 단말기(100)는 복수 개의 입력 필드들을 포함하는 병원 차트 등록 어플리케이션을 표시할 수 있다. 상기 어플리케이션은 완료 버튼(745), 저장 버튼(746) 및 복수 개의 입력 필드들(741, 742, 743, 744)을 포함할 수 있다. 완료 버튼(745)은 사용자가 터치용 펜을 이용하여 병원 차트에 입력한 필기 이미지를 인식하여 텍스트로 전환하기 위한 버튼이다. 저장 버튼(746)은 사용자가 병원 차트에 입력한 필기 이미지 및 환자에 관한 이미지(748)를 저장하기 위한 버튼이다. 이 때, 사용자가 입력한 필기 이미지 또는 환자에 관한 이미지(748)는 별도의 저장 버튼(746)의 선택 없이도 일정 주기마다 자동으로 저장될 수 있다. 복수 개의 입력 필드들(741, 742, 743, 744)은 환자 또는 병원의 정보를 기록하는 영역이다. 이 때, 복수 개의 입력 필드 중 일부 입력 필드(742)에는 환자 또는 병원의 정보가 이미 표시되어 있을 수 있다.
도 7b의 750에서 휴대 단말기(100)는 복수 개의 입력 필드들(741, 742, 743, 744) 위에서 각각에 대응하는 복수 개의 필기 입력 레이어들(751, 753, 754)을 제공할 수 있다. 이 때, 이미 정보가 표시되어 있는 입력 필드(742)에는 필기 입력 레이어가 제공되지 않을 수 있다. 다음으로, 휴대 단말기(100)는 필기 입력 레이어들(751, 753, 754)을 통하여 사용자의 필기 이미지를 각각 입력받을 수 있다. 도7b의 750에서 휴대 단말기(100)는 환자의 이름, 환자의 성별에 해당하는 필기 입력을 각각 받을 수 있다. 다음으로, 사용자가 완료 버튼(745)을 선택하는 경우, 휴대 단말기는 필기 입력 레이어들(751, 753, 754)을 통하여 입력된 각각의 필기 이미지를 텍스트로 전환할 수 있다. 이 때, 사용자가 필기하지 않은 영역(753)은 텍스트 전환을 생략할 수 있다.
도 7b의 760에서 휴대 단말기(100)는 환자의 정보로써 입력 받은 각각의 필기 이미지를 인식하고, 복수 개의 필기 이미지 각각에 대응하는 복수 개의 텍스트로써, "김화경" 및 "√"를 획득할 수 있다. 그리고, 획득된 텍스트들을 복수 개의 입력 필드들(741,744)에 각각 삽입하여 표시할 수 있다.
이미지 변경 영역(748)은 사용자가 병원 차트 상에서 환자에 관한 이미지를 삽입 또는 교체할 수 있는 영역이다. 사용자는 환자에 관한 이미지를 불러오거나, 교체하기 위하여 이미지 버튼(747)을 선택할 수 있다. 이미지는 휴대 단말기(100) 또는 휴대 단말기(100)의 외부 저장 장치(미도시)에 저장된 이미지이거나 또는 사용자가 휴대 단말기(100)를 사용하여 현재 촬영하는 사진이 될 수 있다. 도 7c는 병원 차트의 이미지 영역(748)에 표시될 수 있는 이미지들(771, 772, 773)의 예를 나타낸다. 한편, 저장된 또는 촬영된 이미지는 다른 이미지들과 함께 사진첩과 같이 복수 개의 이미지로 구성된 그룹으로 관리될 수 있다. 이 경우, 사용자가 이미지 영역(748) 상에서 특정 제스처(예로, 스와이프)를 수행하는 경우, 이미지 영역(748)의 이미지는 동일한 그룹 내의 다른 이미지로 교체될 수 있다. 예를 들어, 도7c의 이미지들(771, 772, 773)은 하나의 그룹으로 관리되어 사용자의 특정 제스처에 의하여 교체될 수 있다. 이와 같이, 본 발명이 병원에서 이용되는 경우, 의사는 환자 면담 시에 터치용 펜을 이용하여 환자의 상태를 빠르게 휴대 단말기(100)가 제공하는 병원 차트에 기재하고, 용이하게 관리할 수 있다.
도 8a 및 도 8b는 휴대 단말기(100)에서 일정 관리 어플리케이션 입력 필드에 텍스트를 표시하는 시나리오의 예이다.
도 8a의 810에서, 휴대 단말기(100)는 어플리케이션이 제공하는 복수 개의 시간을 표시할 수 있다. 예를 들어, 복수 개의 시간은 어플리케이션이 제공하는 달력이 될 수 있다. 사용자는 복수 개의 시간 중 일정의 내용을 기입하기를 원하는 특정 시간을 선택할 수 있다. 예를 들어, 사용자는 달력의 날짜들 중 하나를 마크(811)하여 특정 시간을 선택할 수 있다. 또는, 사용자는 달력의 날짜들 중 복수 개의 날짜를 터치용 펜으로 드래그(812)하여 선택할 수 있다. 또는, 사용자는 선택하고자 하는 날짜를 화면의 일 영역에 입력(813)할 수 있다.
도 8a의 820에서, 휴대 단말기(100)가 시간을 선택 받은 경우, 휴대 단말기(100)는 선택한 시간과 관련된 일정의 내용을 요청하는 피드백(821)을 제공할 수 있다. 사용자는 선택한 시간과 관련된 일정의 이름(822)을 화면의 임의의 영역에 필기할 수 있다.
도 8a의 830에서, 휴대 단말기(100)가 일정의 이름을 입력 받은 경우, 휴대 단말기(100)는 자세한 일정 입력을 요청하는 팝업 창(831)을 제공할 수 있다. 이 때, 사용자가 자세한 일정을 입력하기 위한 입력 필드(832)를 선택하는 경우, 휴대 단말기(100)는 자세한 일정을 입력할 수 있는 화면을 더 제공할 수 있다.
도 8b의 840에서, 휴대 단말기(100)는 자세한 일정을 요청하는 화면으로 복수 개의 입력 필드들(841, 842, 843, 844)을 포함하는 화면을 표시할 수 있다. 이 때, 복수 개의 입력 필드들(841, 842, 843, 844) 중 일정의 이름을 기재하는 입력 필드(841)에는 도 8a의 820에서 이미 입력을 받은 일정의 이름(822)이 텍스트로 인식되어 표시되어 있을 수 있다. 도 8b의 840에서, 인식 버튼(846)은 각 입력 필드에 사용자가 필기한 이미지의 인식을 시작하여 텍스트로 전환하고 전환된 텍스트를 입력 필드 내에 삽입하기 위한 버튼이고, 저장 버튼(845)은 텍스트가 삽입된 입력 필드의 상태를 저장하기 위한 버튼이고, 취소 버튼(847)은 이미 텍스트가 삽입된 입력 필드 내의 상태를 이전의 텍스트가 삽입되지 않은 상태로 복귀하기 위한 화면이다.
도 8b의 850에서, 휴대 단말기(100)는 이미 텍스트가 삽입된 입력 필드(841)를 제외한 나머지 입력 필드들(842, 843, 844) 위에서 대응되는 각각의 필기 입력 레이어들(851, 852, 853)을 제공할 수 있다. 사용자는 제공된 필기 입력 레이어들(851, 852, 853)에 터치용 펜을 이용하여 일정 관련 장소, 일정 관련 참석자, 일정 관련 기타 내용을 입력할 수 있다. 이 때, 사용자가 필기 이미지를 다시 입력하기를 원하는 경우, 사용자는 삭제 버튼(854)을 선택하여 필기 입력 레이어(851)에 필기한 내용을 삭제할 수 있다. 삭제 버튼(854)이 선택되는 경우, 필기 입력 레이어(851)에 작성된 필기 모두가 삭제되거나 또는 필기 입력 레이어(851)에 필기 중 최근 필기한 획이 삭제될 수 있다. 한편, 복수 개의 필기 입력 레이어들이 제공되는 경우, 삭제 버튼은 상기 복수 개의 필기 입력 레이어에 필기 이미지 각각을 삭제하기 위하여 복수 개의 필기 입력 레이어 각각에 대응하여 구비될 수 있다. 또는, 복수 개의 필기 입력 레이어에 필기 모두를 삭제하기 위한 하나의 버튼으로 구비될 수 있다.
도 8b의 860에서, 휴대 단말기(100)는 필기 입력 레이어들(851,852,853) 각각에 일정 관련 장소, 일정 관련 참석자, 일정 관련 기타 내용에 관한 필기 이미지를 입력받아 텍스트로 전환할 수 있다. 이 때, 휴대 단말기(100)는 소정 시간 동안 사용자의 필기 입력이 없는 경우 필기 인식을 시작하거나 또는 일정 시간을 주기로 하여 입력받은 필기 이미지를 텍스트로 전환할 수 있다. 또는, 휴대 단말기(100)는 인식 버튼(846)을 구비하여 사용자가 인식 버튼(846)을 선택할 때, 복수 개의 필기 입력 레이어들(851, 852, 853) 각각에 입력된 복수 개의 필기 모두를 텍스트로 전환할 수 있다. 그리고, 휴대 단말기(100)는 인식을 통해 획득한 텍스트들을 입력 필드들(842, 843, 844)에 삽입하여 표시할 수 있다.
도 8b의 870에서, 휴대 단말기(100)는 자세한 일정을 추가하는 터치용 펜을 이용한 사용자의 입력이 완료되면, 입력받은 일정의 적어도 일부를 사용자가 선택한 시간에 표시할 수 있다. 예를 들어, 휴대 단말기(100)는 어플리케이션이 제공하는 복수 개의 시간이 달력인 경우, 달력에 포함된 특정 날짜와 관련된 칸에 일정 이름 및 장소를 표시(871)할 수 있다.
도 8a 및 도 8b의 다른 일 실시 예로, 휴대 단말기(100)가 도 8a의 810과 같이 어플리케이션 실행 화면이 제공하는 복수 개의 시간을 표시한 경우, 사용자가 복수 개의 시간 중 하나의 시간을 선택하면 도 8a의 820 및 830 단계를 생략하고 도 8b의 840 단계로 바로 진행될 수 있다. 즉, 휴대 단말기(100)는 사용자에 의해 복수 개의 시간 중 하나를 선택받으면 선택된 시간과 관련된 내용을 입력 필드들(841, 842, 843, 844)를 표시할 수 있다. 그리고, 휴대 단말기(100)는 일정 이름 입력 필드(841)를 포함한 나머지 필드들에 대응되는 필기 입력 레이어를 각각 제공할 수 있다. 휴대 단말기(100)는 제공된 필기 입력 레이어 각각에서 필기 이미지를 입력 받고, 이를 텍스트로 인식하여 입력 필드에 삽입하여 표시할 수 있다.
본 발명은 입력 필드를 가지고 있는 일정한 포맷을 따르는 문서들을 대상으로 적극 활용할 수 있다. 특히, 관공서 문서를 대상으로 본 발명을 적용할 경우, 사용자에게 편리성과 신속성을 제공할 수 있다. 예를 들어, 종래의 관공서에서 민원인은 관공서 문서에 펜으로 민원에 필요한 정보를 기재한다. 그리고, 관공서 직원은 민원인이 작성한 문서에 기재된 내용을 보면서 관공서 내의 컴퓨터에 민원인의 작성한 내용을 다시 입력한다. 하지만, 본 발명을 적용하는 경우, 민원인은 관공서 또는 집에서 휴대 단말기(100)에서 제공하는 관공서 문서 어플리케이션을 통해 민원에 필요한 정보를 쉽게 기재할 수 있다. 즉, 민원인은 관공서 문서에 펜으로 필기하는 것과 같은 사용성을 유지하면서 터치용 펜을 이용하여 민원에 필요한 정보를 입력할 수 있다. 이 경우, 종래의 관공서 문서와 관련된 종이의 낭비를 절약할 수 있으며, 또한 관공서 직원이 민원인이 작성한 내용을 다시 입력해야 하는 수고를 덜 수가 있다. 특히, 관공서 문서 어플리케이션을 표시하기에 앞서 휴대 단말기(100)에서 본인 인증이 확인된다면, 관공서 문서의 입력 필드 중 일부에는 사용자의 기본적인 인적 사항이 텍스트로 삽입되어 표시될 수 있다. 이 경우, 사용자는 인적 사항과 같은 매번 같은 내용을 작성해야 하는 수고를 덜 수가 있다.
도 9a 및 도 9b는 휴대 단말기(100)에서 입력 필드에 텍스트를 표시하기 방법들을 제시하는 예이다.
도 9a는 사용자의 터치로 터치용 펜을 이용하는 예이며, 도 9b는 사용자의 터치로 사용자의 손가락을 이용하는 예이다.
도 9a의 910에서 휴대 단말기(100)는 터치 스크린(140) 상에 입력 필드(911)를 포함하는 어플리케이션을 표시할 수 있다. 이 때, 사용자가 입력 필드(911) 위에서 터치용 펜을 이용하여 터치하거나 또는 사용자가 터치용 펜을 휴대 단말기(100)에서 인출하는 경우, 도 9a의 930과 같이 휴대 단말기(100)는 터치용 펜에 의한 필기 입력을 받기 위한 필기 입력 레이어(931)을 입력 필드(911) 위에서 제공할 수 있다.
다른 예로, 도 9b의 950에서 휴대 단말기는(100)는 터치 스크린(140) 상에 입력 필드(951)를 포함하는 어플리케이션을 표시할 수 있다.
이 때, 사용자가 입력 필드(951) 위에서 손가락을 이용하여 터치하는 경우, 도 9b의 970과 같이 휴대 단말기(100)는 손가락을 이용한 입력을 받기 위한 키패드(971)를 화면의 일 영역에 제공할 수 있다.
도 10은 휴대 단말기(100)에서 웹 브라우저 어플리케이션의 입력 필드에 텍스트를 표시하는 시나리오의 예이다.
도 10의 1010에서, 휴대 단말기(100)는 웹 주소를 입력하기 위한 입력 필드(1011)을 포함하는 웹 브라우저 어플리케이션을 표시할 수 있다.
도 10의 1030에서 휴대 단말기(100)는 입력 필드(1011) 위에서 필기 입력 레이어(1031)을 제공할 수 있다. 이 때, 필기 입력 레이어(1031)은 입력 필드(1011)의 크기보다 더 클 수 있다. 이 경우, 사용자는 필기 입력 레이어(1031) 상에서 터치 드래그 제스처를 수행하거나 또는 별도의 메뉴를 이용하여 필기 입력 레이어(1031)의 크기를 조절할 수 있다. 만약, 사용자가 약시를 가지고 있거나 시력이 좋지 않은 노약자인 경우, 이러한 기능은 사용자가 필기 이미지를 입력하기 위한 접근성을 향상시킬 수 있다.
다음으로, 휴대 단말기(100)는 상기 제공된 필기 입력 레이어(1031)을 통하여 사용자의 필기 입력을 각각 받을 수 있다. 도 10의 1030에서, 휴대 단말은 필기 입력 레이어(1031)을 통하여 사용자에 의한 "www.abcdefg.com"이라는 필기 이미지를 입력 받을 수 있다. 이러한 필기 이미지는 설명의 목적하에서만 임의로 기재한 이미지이며, 그 이미지 내용에 어떠한 다른 의도가 있는 것은 아니다.
도 10의 1050에서, 휴대 단말기(100)는 입력 받은 필기 이미지를 인식하여 필기 이미지를 테스트로 획득할 수 있다. 그리고, 전환된 텍스트들 입력 필드들(1011)에 삽입하여 표시할 수 있다. 도 5의 1050에서, 휴대 단말기(100)는 필기 입력 레이어(1031)을 통해 입력 받은 필기의 인식 결과인 "www.abcdefg.com"라는 텍스트를 입력 필드(1011)에 삽입하여 표시하고, 상기 텍스트와 관련된 웹 페이지로 접근할 수 있다.
도 11은 본 발명의 다른 실시 예에 따른 휴대 단말기(100)의 필기 입력 방법을 설명하기 위한 순서도이다.
도 11을 참조하면, 휴대 단말기(100)는 특정 어플리케이션을 실행하여 터치 스크린(140) 상에 어플리케이션을 표시할 수 있다(S1101). 이 경우, 터치 스크린(140) 상에는 어플리케이션이 제공하는 복수 개의 입력 필드가 표시될 수 있다(S1102). 그리고, 휴대 단말기(100)는 사용자의 필기 입력을 받기 위해 복수 개의 입력 필드 각각에 대응하는 복수 개의 필기 입력 레이어를 제공할 수 있다(S1103).
다음으로, 휴대 단말기(100)는 복수 개의 필기 입력 레이어 각각에서 터치용 펜에 의한 필기 이미지를 입력받아 텍스트로 전환할 수 있다(S1104). 이 경우, 휴대 단말기(100)는 필기 입력 레이어에 따라 입력된 필기 이미지를 제1 언어, 제2 언어, 숫자, 특수 기호 중 제1 종류로 우선하여 텍스트로 전환할 수 있다. 예를 들어, 제1 필기 입력 레이어에 대응하는 입력 필드에 삽입될 텍스트의 종류가 제1 언어(예로, 한글)로 결정되고, 제2 필기 입력 레이어에 대응하는 입력 필드에 삽입될 텍스트의 종류가 제2 언어(예로, 영어)로 결정되어 있는 경우, 휴대 단말기(100)는 필기 입력 레이어가 제1 필기 입력 레이어인지 판단하고(S1105), 제1 필기 입력 레이어를 통한 필기 이미지를 제1 언어의 텍스트로 우선하여 전환할 수 있다(S1106). 한편, 휴대 단말기(100)는 필기 입력 레이어가 제1 필기 입력 레이어가 아닌 경우, 휴대 단말기(100)는 필기 입력 레이어가 제2 필기 입력 레이어인지 판단하고(S1108), 제2 필기 입력 레이어를 통한 필기 이미지를 제2 언어의 텍스트로 우선하여 전환할 수 있다(S1109).
다음으로, 휴대 단말기(100)는 복수 개의 필기 입력 레이어 각각에 대응하여 인식된 텍스트들을 대응하는 복수 개의 입력 필드 내에 삽입하여 표시할 수 있다(S1107).
도 12는 본 발명의 또 다른 일 실시 예에 따른 휴대 단말기(100)의 필기 입력 방법을 설명하기 위한 순서도이다.
도 12를 참조하면, 휴대 단말기(100)는 특정 어플리케이션을 실행하여 터치 스크린(140) 상에 어플리케이션을 표시할 수 있다(S1201). 이 경우, 터치 스크린(140) 상에는 어플리케이션이 제공하는 입력 필드가 표시될 수 있다(S1202).
다음으로, 휴대 단말기(100)는 상기 입력 필드 위에서 사용자의 터치를 감지할 수 있다(S1203). 그리고, 휴대 단말기(100)는 사용자의 터치가 손가락을 이용한 터치인지 판단할 수 있다(S1204). 사용자의 터치가 손가락을 이용한 터치인 경우, 휴대 단말기(100)는 손가락을 이용한 입력을 받기 위한 키패드를 화면 상의 일 영역에 제공할 수 있다(S1205). 그리고, 키패드를 통하여 사용자가 선택하는 텍스트를 획득할 수 있다(S1206). 다음으로, 휴대 단말기(100)는 획득된 텍스트들을 어플리케이션이 제공하는 입력 필드 내에 삽입하여 표시할 수 있다(S1210).
사용자의 터치가 손가락을 이용한 터치가 아닌 경우, 휴대 단말기(100)는 사용자의 터치가 터치용 펜을 이용한 터치인지 판단할 수 있다(S1207). 이러한 판단 과정은 상술한 단계(S1204)와 동시에 진행될 수도 있고, 또는 단계(S1207) 이후에 단계(S1204)가 순차적으로 진행될 수도 있다. 사용자의 터치가 터치용 펜을 이용한 터치인 경우, 휴대 단말기(100)는 터치용 펜을 이용한 입력을 받기 위한 필기 입력 레이어를 상기 필드에 중첩하여 제공할 수 있다(S1208). 그리고, 필기 입력 레이어를 통하여 입력 받은 필기 이미지를 인식하여 텍스트로 전환할 수 있다(S1209). 다음으로 휴대 단말기(100)는 전환된 텍스트를 어플리케이션이 제공하는 입력 필드 내에 삽입하여 표시할 수 있다(S1210).
도 13은 본 발명의 다른 일 실시 예에 따른 휴대 단말기(100)의 필기 입력 방법을 설명하기 위한 순서도이다.
도 13을 참조하면, 휴대 단말기(100)는 사용자의 요청 또는 전원 구동 시에 특정 어플리케이션을 실행하고, 실행 중인 어플리케이션을 터치 스크린(140) 상에 표시할 수 있다(S1301).
다음으로, 휴대 단말기(100)는 실행 중인 어플리케이션에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공할 수 있다(S1303). 이 때, 휴대 단말기(100)는 터치 스크린(140) 상에서 미리 결정된 제스처에 응답하여, 필기 입력이 가능한 필기 입력 레이어를 제공할 수 있다. 미리 결정된 제스처는 예를 들어, 터치용 펜을 이용한 터치 드래그 제스처로서, 터치 스크린(140)의 일 측에서 터치 후 중앙 방향으로 드래그하는 제스처가 될 수 있다.
다음으로, 휴대 단말기(100)의 제어부(160)는 제공된 필기 입력 레이어의 일 영역에서 터치용 펜을 이용한 필기 이미지를 입력 받을 수 있다(S1305).
다음으로, 휴대 단말기(100)의 제어부(160)는 필기 입력 레이어의 일 영역에 대응되는 실행 중인 어플리케이션의 일 영역의 속성을 고려하여, 상기 입력된 필기 이미지가 인식되는 데이터 타입을 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식할 수 있다(S1307). 예를 들어, 실행 중인 어플리케이션이 휴대 단말기(100)의 외부에 위치한 서버에서 제공하는 웹 어플리케이션인 경우, 제어부(160)는 상기 필기 입력 레이어의 일 영역에 대응하는 웹 어플리케이션의 일 영역에 HTML(Hyper Text Markup Language) 문서의 컴포넌트가 입력 받을 수 있는 데이터를 상기 입력된 필기 이미지가 인식되는 데이터 타입으로 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식할 수 있다. 즉, 제어부(160)는 상기 필기 입력 레이어의 일 영역에 대응하는 HTML 문서의 컴포넌트의 입력 박스가 텍스트 입력 박스인지, 이미지 입력 박스인지, 테이블 선택 박스인지 또는 숫자 입력 박스인지 등을 결정할 수 있다. 그리고, 결정된 입력 박스가 입력 받을 수 있는 데이터의 타입에 따라 필기 입력 레이어에 일 영역에 필기된 이미지를 상기 데이터 타입으로 우선하여 인식할 수 있다.
다음으로, 휴대 단말기(100)의 제어부(160)는 인식된 결과를 실행 중인 어플리케이션에 적용할 수 있다(S1309).
예를 들어, 필기 입력 레이어의 일 영역에 대응하는 어플리케이션의 일 영역이 텍스트 입력 필드를 포함하고, 상기 일 영역의 컴포넌트의 입력 박스가 텍스트 입력 박스인 경우, 제어부(160)는 상기 필기 입력 레이어의 일 영역에 입력된 필기 이미지를 텍스트로 인식할 수 있다. 그리고, 인식된 결과를 상기 입력 필드 안에 표시할 수 있다.
다른 일 예로, 필기 입력 레이어의 일 영역에 대응하는 어플리케이션의 일 영역의 컴포넌트가 숫자 입력 필드를 포함하고, 상기 일 영역의 컴포넌트의 입력 박스가 숫자 입력 박스인 경우, 제어부(160)는 상기 필기 입력 레이어의 일 영역에 입력된 필기 이미지를 숫자 및 수식으로 인식할 수 있다. 그리고, 제어부(160)는 상기 인식된 숫자들이 상기 수식에 따라 계산된 결과를 상기 숫자 입력 필드 안에 표시할 수 있다.
또 다른 일 예로, 필기 입력 레이어의 일 영역에 대응하는 어플리케이션의 일 영역이 지도 이미지를 포함하는 경우, 제어부(160)는 상기 일 영역의 컴포넌트의 입력 박스가 입력받을 수 있는 데이터 타입에 따라 상기 필기 입력 레이어의 일 영역에 입력된 필기 이미지를 인식할 수 있다. 일 예로, 상기 컴포넌트의 입력 박스가 이미지 입력 박스인 경우, 제어부(160)는 상기 필기 입력 레이어의 일 영역에 입력된 필기 이미지를 상기 지도 이미지 상에 표시할 수 있다. 다른 일 예로, 상기 컴포넌트의 입력 박스가 텍스트 입력 박스인 경우, 제어부(160)는 상기 필기 입력 레이어의 일 영역에 입력된 필기 이미지를 텍스트로 인식할 수 있다. 그리고, 상기 인식된 텍스트를 사용자가 찾고자 하는 위치로 판단하고, 상기 위치를 포함하는 새로운 지도 이미지를 터치 스크린(140) 상에 표시할 수 있다.
또 다른 일 예로, 필기 입력 레이어의 일 영역에 대응하는 어플리케이션의 일 영역이 복수 개의 셀을 포함하는 테이블을 포함하고, 상기 일 영역의 컴포넌트의 입력 박스가 셀 선택 입력 박스인 경우, 제어부(160)는 상기 필기 입력 레이어의 일 영역에 입력된 필기 이미지를 상기 복수 개의 셀들 중 적어도 하나의 셀을 선택하는 명령어로 인식할 수 있다. 그리고, 제어부(160)는 상기 필기 입력 레이어 상에서 터치용 펜을 이용한 필기 이미지가 추가로 입력되는 경우, 추가로 입력된 필기 이미지를 텍스트로 인식하고, 상기 명령어에 의하여 선택된 셀들 중 적어도 하나 위에 인식된 텍스트를 표시할 수 있다.
한편, 필기 입력 레이어 상에 터치용 펜에 의하여 입력된 필기 이미지 또는 상기 필기 이미지가 인식된 결과인 데이터는 전술한 어플리케이션들의 입력 데이터 또는 상기 필기 입력 레이어의 데이터로서 저장될 수 있다. 예를 들어, 필기 입력 레이어 상에 입력한 필기 이미지 자체는 필기 입력 레이어와 연결되어 이미지 형태로 저장될 수 있다. 그리고, 이미지가 표시된 필기 입력 레이어는 다른 디바이스 또는 사용자게 전달되거나, 사용자 요청 시 실행 중인 어플리케이션 상에 제공될 수 있다. 다른 일 예로, 어플리케이션들의 입력 데이터로 저장된 필기 이미지가 인식된 결과 값은 상기 어플리케이션이 재 실행되는 경우, 상기 저장된 결과 값이 반영되어 상기 어플리케이션 상에 표시될 수 있다.
다른 한편, 필기 입력 레이어 상에 터치용 펜에 의하여 입력된 필기 이미지는 복수 개의 데이터 타입으로 각각 인식될 수 있다. 예를 들어, 필기 입력 레이어 상에 입력한 필기 이미지는 텍스트 및 이미지로 각각 인식될 수 있다. 복수 개의 인식된 결과는 저장부(150)에 저장될 수 있다. 이 때, 저장부(150)에는 복수 개의 인식된 결과와 함께 상기 복수 개의 필기 이미지를 인식할 때 실행 중인 어플리케이션들에 관한 정보가 함께 저장될 수 있다. 또는, 복수 개의 인식된 결과 중 적어도 하나는 실행 중인 어플리케이션에 적용되고, 다른 인식된 결과는 저장부(150)에 저장될 수 있다. 그리고, 필기 입력 레이어 상에 입력한 필기 이미지들이 텍스트로 저장부(150)에 저장되는 경우, 상기 저장된 텍스트는 사용자의 검색 요청에 따라 검색될 수 있다. 그리고, 검색 결과로서 상기 텍스트에 대응하는 필기 이미지들이 입력될 때 실행 중이었던 어플리케이션을 다시 실행하고, 상기 다시 실행한 어플리케이션에 상기 검색된 텍스트를 다시 적용할 수 있다.
도 14a 및 도 14b는 휴대 단말기(100)에서 병원 차트 어플리케이션에 텍스트 또는 이미지를 표시하는 시나리오의 일 예이다.
도 14a의 1410에서, 휴대 단말기(100)는 병원 차트 어플리케이션을 실행할 수 있다. 이 때, 병원 차트 어플리케이션은 복수 개의 입력 필드(1411~1415)와 환자에 관한 이미지(1416)를 포함할 수 있다. 그리고, 휴대 단말기(100)는 상기 어플리케이션 상에서 터치용 펜에 의한 미리 결정된 터치 드래그 제스처(1419)을 검출할 수 있다. 이 때, 터치용 펜 대신 사용자의 손의 일부(예로, 손가락)가 이용될 수도 있다.
도 14b의 1430에서, 휴대 단말기(100)는 검출된 제스처에 응답하여, 병원 차트 어플리케이션에 중첩하여 필기 입력 레이어(1431)를 제공할 수 있다. 이 때, 필기 입력 레이어는 투명, 반투명 또는 불투명하게 제공될 수 있다.
도 14b의 1450에서, 휴대 단말기(100)는 필기 입력 레이어(1431) 상에서 터치용 펜을 이용한 필기 이미지들(1451 ~ 1454)을 입력 받을 수 있다. 그리고, 휴대 단말기(100)는 필기 입력 레이어(1431) 상에 상기 입력된 필기 이미지(1451~1454)들 각각의 적어도 일 영역에 대응하는 상기 어플리케이션의 일 영역의 속성을 고려하여 상기 입력된 필기 이미지를 인식할 수 있다. 이 때, 필기 입력 레이어의 적어도 일 영역의 위치 및 크기와, 상기 적어도 일 영역 각각에 대응하는 상기 어플리케이션의 적어도 일 영역의 위치 및 크기는 서로 대응될 수 있다.
도 15를 참조하면, 실행 중인 어플리케이션의 복수 개의 영역들은 각 영역들 간의 위치 및 크기를 고려하여 필기 입력 레이어의 복수 개의 영역에 대응될 수 있다. 예를 들어, 필기 입력 레이어의 복수 개의 영역들 각각은 상기 필기 입력 레이어의 아래에서 상기 필기 입력 레이어의 복수 개의 영역들과 중첩되는 실행 중인 어플리케이션의 복수 개의 영역에 대응될 수 있다. 도 15에서, 실행 중인 어플리케이션의 제1 영역(1511)은 필기 입력 레이어의 제1 영역(1501)에 대응될 수 있다. 유사하게, 어플리케이션의 제2 영역(1512), 제3 영역(1513), 제4 영역(1514), 제5 영역(1515) 및 제6 영역(1516) 각각은 필기 입력 레이어의 제2 영역(1502), 제3 영역(1503), 제4 영역(1504), 제5 영역(1505) 및 제6 영역(1506)에 대응될 수 있다. 이 때, 어플리케이션의 제1 영역(1511) 내지 제5 영역(1515) 각각의 컴포넌트의 입력 박스는 텍스트 입력을 받을 수 있는 텍스트 입력 박스들일 수 있다. 이 경우, 대응되는 필기 입력 레이어의 제1 영역(1501) 내지 제5 영역(1505)에서 입력 받는 필기 이미지는 상기 텍스트 입력 박스들이 입력 받을 수 있는 텍스트로 인식될 수 있다. 한편, 어플리케이션의 제6 영역(1516)의 컴포넌트의 입력 박스는 이미지 입력을 받을 수 있는 이미지 입력 박스일 수 있다. 이 경우, 대응되는 필기 입력 레이어의 제6 영역(1506)에서 입력 받는 필기 이미지는 상기 이미지 입력 박스가 입력 받을 수 있는 이미지로 인식될 수 있다.
도 14b의 1470에서, 휴대 단말기(100)는 필기 이미지의 인식된 결과를 실행 중인 병원 차트 어플리케이션에 적용할 수 있다. 예를 들어, 필기 입력 레이어의 제2 영역(1502)에서 입력된 필기 이미지(1451)는 텍스트로 인식되고, 제2 영역(1502)에 대응되는 어플리케이션의 제2 영역(1512)에 포함된 입력 필드(1412) 안에는 인식된 결과인 텍스트(1471)가 삽입되어 표시될 수 있다. 또한, 필기 입력 레이어의 제6 영역(1506)에서 입력된 필기 이미지들(1452, 1453, 1454)은 이미지로 인식되고, 필기 입력 레이어의 제6 영역(1506)에 대응되는 어플리케이션의 제6 영역(1516)에는 인식된 결과인 이미지들(1472,1473,1474)이 표시될 수 있다.
도 16a 내지 도 16c는 휴대 단말기(100)에서 검색 어플리케이션에 필기 이미지의 인식 결과를 적용하는 시나리오의 일 예이다.
도 16a의 1610에서, 휴대 단말기(100)는 검색 어플리케이션을 실행할 수 있다. 이 때, 검색 어플리케이션의 예로는 웹 검색 어플리케이션 또는 지도 검색 어플리케이션 등을 포함할 수 있다. 본 발명에서는 지도 검색 어플리케이션을 대상으로 설명한다. 지도 검색 어플리케이션은 터치 스크린 상에 지도 이미지(1611) 및 위치 검색을 위한 검색 필드(1612)를 표시할 수 있다. 그리고, 휴대 단말기(100)는 상기 지도 검색 어플리케이션 상에서 터치용 펜에 의한 미리 결정된 터치 드래그 제스처(1619)를 검출할 수 있다.
도 16a의 1620에서, 휴대 단말기(100)는 검출된 제스처에 응답하여, 지도 검색 어플리케이션에 중첩하여 필기 입력 레이어(1621)를 제공할 수 있다.
도 16b의 1630에서, 휴대 단말기(100)는 필기 입력 레이어(1621) 상에서 터치용 펜을 이용한 필기 이미지(1631)를 입력 받을 수 있다. 이 때, 휴대 단말기(100)는 입력 받은 필기 입력 레이어의 영역(1622)에 대응하는 상기 어플리케이션의 영역의 속성을 고려하여 상기 입력된 필기 이미지를 인식할 수 있다. 이 경우, 상기 어플리케이션의 영역의 입력 박스는 텍스트 입력을 받을 수 있는 텍스트 입력 박스일 수 있다. 이 경우, 필기 입력 레이어의 영역(1622)에 입력된 필기 이미지는 상기 텍스트 입력 박스가 입력 받을 수 있는 텍스트로 인식될 수 있다.
도 16b의 1640에서, 휴대 단말기(100)는 필기 이미지의 인식된 결과를 실행 중인 검색 어플리케이션에 적용할 수 있다. 예를 들어, 검색 어플리케이션이 웹 검색 어플리케이션인 경우, 휴대 단말기는 상기 인식된 텍스트를 검색어로 하여 휴대 단말기의 외부에 위치한 서버의 저장부(미도시)에서 인식된 텍스트와 관련된 정보로서 상기 텍스트를 포함하는 전자 문서를 찾을 수 있다. 그리고, 찾은 전자 문서를 터치 스크린 상에 표시할 수 있다.
다른 예로, 검색 어플리케이션이 지도 검색 어플리케이션인 경우, 휴대 단말기(100)는 상기 인식된 텍스트를 사용자가 찾고자 하는 검색어인 위치로 판단하고, 상기 위치가 포함되어 있는 새로운 지도 이미지(1641)를 휴대 단말기(100) 외부의 서버 또는 휴대 단말기(100)의 저장부(150)에서 검색하여 터치 스크린 상에 표시할 수 있다. 그리고, 검색 필드(1612)에는 상기 필기 이미지가 인식된 결과인 텍스트(1642)가 삽입되어 표시될 수 있다. 이 때, 새로운 지도 이미지(1641) 상에는 새로운 필기 입력 레이어(1643)가 제공될 수 있다. 새로운 필기 입력 레이어(1643)는 새로운 지도 이미지(1641)가 표시될 때 자동적으로 제공되거나 또는 새로운 지도 이미지(1641) 상에서 미리 결정된 사용자의 제스처에 응답하여 제공될 수 있다.
한편, 휴대 단말기(100)는 현재 표시 중인 지도 이미지(1611)에 포함된 텍스트들 중 상기 필기 입력 레이어(1621)를 통하여 필기 이미지가 인식된 결과인 텍스트와 일치하는 텍스트를 찾을 수도 있다. 이 때, 휴대 단말기(100)는 찾아진 텍스트의 위치를 중심으로 지도 이미지(1611)를 이동하거나 또는 찾아진 텍스트를 다른 텍스트와 시각적으로 구별되도록 하이라이트 하여 표시할 수 있다.
도 16c의 1650에서, 휴대 단말기(100)는 새로운 필기 입력 레이어(1643) 상에서 터치용 펜을 이용한 필기 이미지(1651)를 다시 입력 받을 수 있다. 이 때, 휴대 단말기(100)는 입력 받은 필기 입력 레이어의 영역(1644)에 대응하는 상기 어플리케이션 영역의 속성을 고려하여 상기 입력된 필기 이미지를 인식할 수 있다. 이 경우, 상기 어플리케이션의 영역의 입력 박스는 이미지 입력을 받을 수 있는 이미지 입력 박스일 수 있다. 이 경우, 새로운 필기 입력 레이어의 영역(1644)에 입력된 필기 이미지는 이미지 자체로 인식될 수 있다.
도 16c의 1660에서, 휴대 단말기(100)는 상기 인식된 결과인 이미지(1661)를 새로운 지도 이미지(1641) 상에 겹쳐서 표시할 수 있다.
한편, 도 16a의 1610 내지 도 16c의 1660에서, 사용자는 필기 입력 레이어를 통해 입력된 필기 이미지 또는 상기 필기 이미지가 인식된 결과를 공유 아이콘들(1691, 1692, 1693)을 통해 다른 디바이스 또는 다른 사용자에게 전달할 수 있다. 예를 들어, 휴대 단말기(100)는 사용자에 의하여 공유 아이콘들(1691, 1692, 1693) 중 하나가 선택되면 필기 입력 레이어에 입력된 필기 이미지를 다른 디바이스 또는 다른 사용자에게 전달할 수 있다. 또한, 필기 이미지 인식 결과가 적용된 상태에서 공유 아이콘들(1691, 1692, 1693) 중 하나를 선택하면 적용된 결과(예로, 새로운 지도 이미지)를 다른 디바이스 또는 다른 사용자에게 전달할 수 있다. 여기서, 공유 아이콘들(1691, 1692, 1693) 각각은 SMS를 이용하여 전달하기 위한 아이콘(1691), 이 메일을 이용하여 전달하기 위한 아이콘(1692), 페이스 북과 같은 SNS 서비스를 이용하여 전달하기 위한 아이콘(1693)을 포함할 수 있다.
도 17a 내지 도 17c는 휴대 단말기(100)에서 일정 관리 어플리케이션에 필기 이미지의 인식 결과를 적용하는 시나리오의 일 예이다.
도 17a의 1710에서 휴대 단말기(100)는 일정 관리 어플리케이션을 실행할 수 있다. 이 때, 일정 관리 어플리케이션은 복수 개의 셀을 포함하는 테이블(1711)을 가질 수 있다. 복수 개의 셀을 포함하는 테이블(1711)은 일 예로, 각 셀마다 날짜가 표시된 달력이 될 수 있다. 그리고, 휴대 단말기(100)는 상기 일정 관리 어플리케이션 상에서 터치용 펜에 의해 미리 결정된 터치 드래그 제스처(1719)를 검출할 수 있다.
도 17a의 1720에서, 휴대 단말기(100)는 검출된 제스처에 응답하여, 일정 관리 어플리케이션에 중첩하여 필기 입력 레이어(1721)를 제공할 수 있다.
도 17b의 1730에서, 휴대 단말기(100)는 필기 입력 레이어(1721) 상에서 터치용 펜을 이용한 필기 이미지(1731)를 입력 받을 수 있다. 이 때, 휴대 단말기(100)는 입력 받은 필기 입력 레이어의 영역(1722)에 대응하는 상기 어플리케이션의 영역의 속성을 고려하여 상기 입력된 필기 이미지(1731)를 인식할 수 있다. 이 경우, 상기 어플리케이션의 영역의 입력 박스는 셀을 선택 받을 수 있는 셀 선택 입력 박스일 수 있다. 이 경우, 휴대 단말기(100)는 필기 입력 레이어의 영역(1722)에 입력된 필기 이미지(1731)를 상기 일정 관리 어플리케이션의 복수 개의 셀들 중 적어도 하나의 셀을 선택하는 명령어로 인식할 수 있다. 예를 들어, 휴대 단말기(100)는 필기 입력 레이어의 영역(1722)에 입력된 필기 이미지(1731)와 중첩된 일정 관리 어플리케이션의 적어도 하나의 셀을 선택하는 명령어로 인식할 수 있다.
도 17b의 1740에서, 휴대 단말기(100)는 필기 이미지의 인식된 결과를 실행 중인 일정 관리 어플리케이션에 적용할 수 있다. 예를 들어, 휴대 단말기(100)는 적어도 하나의 셀을 선택하는 명령어를 인식한 경우, 상기 선택된 적어도 하나의 셀(1743)을 다른 셀들과 시각적으로 구별이 되도록 하이라이트 하여 표시할 수 있다.
일 예로, 도 17b의 1730에서 휴대 단말기(100)는 필기 입력 레이어의 영역(1722)에서 가로로 선을 그리는 필기 이미지(1731)을 입력 받을 수 있다. 그리고, 도 17b의 1740에서 휴대 단말기(100)는 상기 입력된 필기 이미지(1731)를 인식한 결과로서 실행 중인 어플리케이션에서 상기 가로로 그려진 선에 중첩된 동일한 주의 다른 요일의 셀들(1743)을 다른 셀들과 시각적으로 구별되도록 표시할 수 있다. 다른 일 예로, 도 21a의 2110에서 휴대 단말기(100)는 필기 입력 레이어의 영역(1722)에서 세로로 선을 그리는 필기 이미지(2111)를 입력 받을 수 있다. 그리고, 도 21a의 2130에서, 휴대 단말기(100)는 상기 입력된 필기 이미지(2111)를 인식한 결과로서 실행 중인 어플리케이션에서 상기 세로로 그려진 선에 중첩된 다른 주의 동일한 요일의 셀(2131)들을 다른 셀들과 시각적으로 구별되도록 표시할 수 있다.
또 다른 일 예로, 도 21b의 2150에서, 휴대 단말기(100)는 필기 입력 레이어의 영역(1722)에서 체크 또는 동그라미를 그리는 필기 이미지(2151)를 입력 받을 수 있다. 그리고, 도 21a의 2170에서, 휴대 단말기(100)는 상기 입력된 필기 이미지(2151)를 인식한 결과로서 실행 중인 어플리케이션에서 상기 체크 또는 동그라미와 중첩된 셀(2171)을 다른 셀들과 시각적으로 구별되도록 표시할 수 있다.
도 17b의 1740에서, 하이라이트로 표시되어 있는 셀을 포함하는 테이블 상에는 새로운 필기 입력 레이어(1741)가 제공될 수 있다. 새로운 필기 입력 레이어(1741)는 예를 들어, 상기 테이블이 표시될 때 자동적으로 제공되거나 또는 미리 결정된 사용자의 제스처에 응답하여 제공될 수 있다.
도 17c의 1750에서, 휴대 단말기(100)는 새로운 필기 입력 레이어(1741) 상에서 터치용 펜을 이용한 필기 이미지(1751)를 다시 입력 받을 수 있다. 이 때, 휴대 단말기(100)는 입력받은 필기 입력 레이어의 영역(1742)에 대응하는 어플리케이션의 영역의 속성을 고려하여 상기 입력된 필기 이미지를 인식할 수 있다. 이 경우, 상기 어플리케이션의 영역의 입력 박스는 텍스트를 입력 받을 수 있는 텍스트 입력 박스일 수 있다. 이 경우, 새로운 필기 입력 레이어의 영역(1742)에 입력된 필기 이미지는 텍스트로 인식될 수 있다.
도 17c의 1760에서, 휴대 단말기(100)는 상기 인식된 텍스트(1761)를 상기 하이라이트로 표시된 셀들(1743) 중 적어도 하나 위에 표시할 수 있다. 이 때, 인식된 텍스트와 함께 상기 하이라이트로 표시된 셀들(1743)의 시작과 끝을 나타내는 화살표가 더 표시될 수 있다. 이러한 텍스트(1761)는 일정 관리 어플리케이션의 일정 관련 데이터로 저장되어, 향후 사용자가 일정 관리 어플리케이션을 재 실행 시에 저장된 데이터가 다시 표시될 수 있다.
한편, 도 17a의 1710 내지 도 17c의 1760에서, 사용자는 터치용 펜이 아닌 손가락을 이용하여, 필기 입력 레이어의 아래에 위치한 일정 관리 어플리케이션을 제어할 수 있다. 예를 들어, 도 17a의 1710 내지 도 17c의 1760에서, 사용자가 손가락을 이용하여 상/하 또는 좌/우로 터치 드래그 하는 경우, 터치 스크린 상에 표시된 월과 다른 월 또는 터치 스크린 상에 표시된 년과 다른 년과 관련된 테이블을 상기 어플리케이션을 통하여 제공할 수 있다.
또한, 도 17a의 1710 내지 도 17c의 1760에서, 사용자는 필기 입력 레이어를 통해 입력된 필기 이미지 또는 상기 필기 이미지가 인식된 결과를 다른 디바이스 또는 다른 사용자와 공유할 수 있다. 예를 들어, 휴대 단말기(100)는 공유 아이콘(1791,1792,1793)이 선택되면 필기 입력 레이어에 입력된 필기 이미지가 인식된 결과인 월 또는 일 단위 스케줄을 다른 디바이스 또는 다른 사용자에게 전달할 수 있다. 또는, 휴대 단말기(100)는 사용자에 의하여 공유 아이콘(1791,1792,1793)이 선택되면 필기 입력 레이어에 입력된 필기 이미지 또는 상기 필기 이미지가 입력된 필기 입력 레이어 자체를 다른 디바이스 또는 다른 사용자에게 전달할 수 있다. 이 경우, 다른 디바이스의 터치 스크린 상에 표시된 필기 입력 레이어와 중첩하여 상기 전달된 필기 입력 레이어 또는 상기 전달된 필기 이미지가 표시될 수 있다. 이 경우, 수신한 사용자는 상기 전달받은 상대방의 일정을 참조하여 자신의 일정을 조절할 수 있다.
또한, 도 17a의 1710 내지 도 17c의 1760에서, 사용자는 복수 개의 셀을 포함하는 테이블 상에 표시된 일정을 필기 입력 레이어를 이용하여 삭제할 수도 있다. 예를 들어, 필기 입력 레이어 상에서 사용자에 의한 취소선을 입력 받는 경우, 휴대 단말기는 상기 취소선 아래에 표시된 일정을 삭제할 수 있다.
또한, 도 17a의 1710 내지 도 17c의 1760에서, 사용자는 제공된 필기 입력 레이어를 다시 닫을 수 있다. 필기 입력 레이어를 닫기 위한 방법으로는 터치용 펜을 이용하여 필기 입력 레이어의 중앙에서 일 측으로 터치 드래그를 수행하거나, 휴대 단말기의 뒤로 가기 버튼을 누름으로써 수행될 수 있다. 또는 소정 시간 동안 필기 입력 레이어 상에서 사용자의 입력이 없는 경우 상기 필기 입력 레이어가 자동으로 닫혀질 수 있다.
도 18a 및 도 18b는 휴대 단말기(100)에서 계산기 어플리케이션에 필기 이미지의 인식 결과를 적용하는 시나리오의 일 예이다.
도 18a의 1810에서, 휴대 단말기(100)는 계산기 어플리케이션을 실행할 수 있다. 이 때, 계산기 어플리케이션은 숫자를 입력 받기 위한 입력 필드(1811)를 포함할 수 있다. 휴대 단말기(100)는 상기 어플리케이션 상에서 터치용 펜에 의한 미리 결정된 터치 드래그 제스처(1819)를 검출할 수 있다.
도 18a의 1830에서, 휴대 단말기(100)는 검출된 제스처에 응답하여, 계산기 어플리케이션에 중첩하여 필기 입력 레이어(1831)를 제공할 수 있다. 이 때, 필기 입력 레이어는 투명, 반투명 또는 불투명하게 표시될 수 있다.
도 18b의 1850에서, 휴대 단말기(100)는 필기 입력 레이어(1831) 상에서 터치용 펜을 이용한 필기 이미지(1851)를 입력 받을 수 있다. 그리고, 휴대 단말기(100)는 필기 이미지들을 입력 받은 필기 입력 레이어의 영역(1832)에 대응하는 상기 어플리케이션의 일 영역의 속성을 고려하여 상기 입력된 필기 이미지를 인식할 수 있다. 이 경우, 상기 어플리케이션의 일 영역의 입력 박스는 숫자 또는 기호를 입력 받을 수 있는 숫자 또는 기호 입력 박스일 수 있다. 이 경우, 필기 입력 레이어의 영역(1832)에 입력된 필기 이미지는 숫자 또는 기호로 인식될 수 있다. 예를 들어, 상기 숫자 또는 기호로 인식을 요청하기 위하여 사용자가 표시를 필기 입력 레이어 상에 표시하거나, 혹은 소정 시간 동안 필기 입력 레이어(1831) 상에 사용자의 입력이 없는 경우, 필기 입력 레이어(1831)에 입력된 필기 이미지가 인식될 수 있다.
도 18b의 1870에서, 휴대 단말기(100)는 필기 이미지의 인식된 결과인 계산 값(1871)을 실행 중인 계산기 어플리케이션에 적용될 수 있다. 예를 들어, 필기 입력 레이어의 영역(1832)에 입력된 필기 이미지는 숫자 또는 기호로 인식되고, 상기 인식된 결과의 계산 값(1871)이 계산기 어플리케이션의 실행 화면에 포함한 입력 필드(1811) 내에 삽입되어 표시될 수 있다. 또는, 상기 인식된 숫자 또는 기호들이 상기 계산기 어플리케이션의 실행 화면에 포함된 입력 필드(1811) 내에 삽입되어 표시될 수 있다.
도 19는 본 발명의 또 다른 일 실시 예에 따른 휴대 단말기(100)의 필기 입력 방법을 설명하기 위한 순서도이다.
도 19를 참조하면, 휴대 단말기(100)는 사용자의 요청 또는 전원 구동 시에 특정 어플리케이션을 실행하고, 실행 중인 어플리케이션의 실행 화면을 터치 스크린(140) 상에 표시할 수 있다(S1901).
다음으로, 휴대 단말기(100)는 실행 중인 어플리케이션의 실행 화면에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공할 수 있다(S1903). 이 때, 휴대 단말기(100)는 터치 스크린(140) 상에서 미리 결정된 제스처에 응답하여, 필기 입력이 가능한 필기 입력 레이어를 제공할 수 있다.
다음으로, 휴대 단말기(100)는 필기 입력 레이어 상에서 터치용 펜을 이용한 필기 이미지를 입력 받을 수 있다(S1905).
다음으로, 휴대 단말기(100)는 상기 입력된 필기 이미지를, 상기 필기 입력 레이어의 제공 전에 상기 필기 입력 레이어와 다른 필기 입력 레이어 상에서 입력된 필기 이미지를 인식한 데이터 타입과 다른 종류의 데이터 타입으로 인식할 수 있다(S1907). 예를 들어, 휴대 단말기(100)는 첫 번째 필기 입력 레이어에서 입력된 필기 이미지를 텍스트로 인식한 경우, 상기 인식된 결과가 실행 중인 어플리케이션에 적용된 상태에서 두 번째 필기 입력 레이어에서 입력된 필기 이미지를 이미지로 인식할 수 있다. 또한, 휴대 단말기(100)는 필기 입력 레이어들이 제공된 순서에 따라 각각의 필기 입력 레이어들에 입력된 필기 이미지를 서로 다른 데이터 타입으로 인식할 수 있다.
다음으로, 휴대 단말기(100)의 제어부(160)는 인식된 결과를 실행 중인 어플리케이션에 적용할 수 있다(S1909).
도 20은 본 발명의 또 다른 일 실시 예에 따른 휴대 단말기(100)의 필기 입력 방법을 설명하기 위한 순서도이다.
도 20을 참조하면, 휴대 단말기(100)는 사용자의 요청 또는 전원 구동 시에 특정 어플리케이션을 실행하고, 실행 중인 어플리케이션을 터치 스크린(140) 상에 표시할 수 있다(S2001).
다음으로, 휴대 단말기(100)는 실행 중인 어플리케이션에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공할 수 있다(S2003). 이 때, 휴대 단말기(100)는 터치 스크린(140) 상에서 미리 결정된 제스처에 응답하여, 필기 입력이 가능한 필기 입력 레이어를 제공할 수 있다.
다음으로, 휴대 단말기(100)는 필기 입력 레이어의 제1 및 제2 영역 각각에서 상기 터치용 펜을 이용한 필기 이미지를 입력 받을 수 있다(S2005). 이 때, 제1 영역 및 제2 영역 각각은 서로 다른 영역일 수 있다.
다음으로, 휴대 단말기(100)는 상기 필기 입력 레이어의 제1 및 제2 영역에 대응하는 상기 어플리케이션의 제1 및 제2 영역의 속성을 고려하여, 상기 필기 입력 레이어의 제1 영역에 입력된 필기 이미지는 텍스트 타입으로 인식하고, 상기 필기 입력 레이어의 제2 영역에 입력된 필기 이미지는 이미지 타입으로 인식할 수 있다(S2007).
다음으로, 휴대 단말기(100)의 제어부(160)는 인식된 결과를 실행 중인 어플리케이션에 적용할 수 있다(S2009).
상술한 본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재 기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비 휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다.
본 발명의 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말기에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한, 상기 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법은 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 뿐만 아니라 사용자는 사용자 휴대 단말기의 설정을 조정하여 본 발명의 실시 예에 따른 동작을 사용자 단말 내로 한정하거나 네트워크를 통한 서버와의 연동으로 확장하는 것을 선택적으로 이용할 수도 있다.
110 : 통신부 120 : 입력부
130 : 오디오 처리부 140 : 터치 스크린
150 : 저장부 160 : 제어부

Claims (20)

  1. 터치용 펜을 이용한 휴대 단말기의 필기 입력 방법에 있어서,
    어플리케이션이 실행되면, 그 실행 화면을 터치 스크린 상에 표시하는 단계;
    상기 실행 화면에 중첩하여 필기 입력이 가능한 필기 입력 레이어를 제공하는 단계;
    상기 필기 입력 레이어의 일 영역에서 상기 터치용 펜을 이용한 필기 이미지를 입력받는 단계;
    상기 실행 화면 내에서, 상기 필기 이미지가 입력된 지점에 대응되는 영역의 속성을 고려하여 상기 입력된 필기 이미지가 인식되는 데이터 타입을 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 단계; 및
    상기 인식된 결과를 상기 어플리케이션에 적용하는 단계를 포함하는 휴대 단말기의 필기 입력 방법.
  2. 제1항에 있어서,
    상기 입력된 필기 이미지를 인식하는 단계는,
    상기 필기 입력 레이어 아래에서 상기 필기 이미지가 입력된 영역과 중첩되는 상기 실행 화면의 일 영역의 속성을 고려하여 상기 입력된 필기 이미지가 인식되는 데이터 타입을 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 단계를 포함하는 휴대 단말기의 필기 입력 방법.
  3. 제1항에 있어서,
    상기 어플리케이션은 상기 휴대 단말기의 외부에 위치한 서버가 제공하는 웹 화면을 디스플레이하는 어플리케이션이고,
    상기 입력된 필기 이미지를 인식하는 단계는,
    상기 웹 화면의 일 영역에 HTML(Hyper Text Markup Language) 문서의 컴포넌트가 입력받을 수 있는 데이터 타입을 상기 입력된 필기 이미지가 인식되는 데이터 타입으로 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 단계를 포함하는 휴대 단말기의 필기 입력 방법.
  4. 제1항에 있어서,
    상기 실행 화면이 텍스트 입력 필드를 포함하는 경우,
    상기 입력된 필기 이미지를 인식하는 단계는,
    상기 입력된 필기 이미지를 상기 텍스트 입력 필드에 입력 가능한 텍스트로 인식하는 단계를 포함하고,
    상기 인식된 결과를 상기 어플리케이션에 적용하는 단계는,
    상기 인식된 텍스트를 상기 텍스트 입력 필드 안에 표시하는 단계를 포함하는 휴대 단말기의 필기 입력 방법.
  5. 제1항에 있어서,
    상기 필기 이미지가 입력된 지점에 대응되는 영역이 숫자 입력 필드를 포함하는 경우,
    상기 입력된 필기 이미지를 인식하는 단계는,
    상기 입력된 필기 이미지를 적어도 하나의 숫자 또는 수식으로 인식하는 단계를 포함하고,
    상기 인식된 결과를 상기 어플리케이션에 적용하는 단계는,
    상기 인식된 적어도 하나의 숫자 또는 수식에 따른 계산 결과를 상기 숫자 입력 필드 안에 표시하는 단계를 포함하는 휴대 단말기의 필기 이력 방법.
  6. 제1항에 있어서,
    상기 입력된 필기 이미지를 인식하는 단계는,
    상기 입력된 필기 이미지를 텍스트로 인식하는 단계이고,
    상기 인식된 결과를 상기 어플리케이션에 적용하는 단계는,
    상기 인식된 텍스트를 검색어로 하여 상기 검색어를 포함하는 전자 문서 또는 지도 이미지 중 적어도 하나를 표시하는 단계를 포함하는 휴대 단말기의 필기 이력 방법.
  7. 제1항에 있어서,
    상기 필기 이미지가 입력된 지점에 대응되는 영역이 복수 개의 셀을 포함하는 테이블을 포함하는 경우,
    상기 입력된 필기 이미지를 인식하는 단계는,
    상기 필기 이미지를 상기 복수 개의 셀들 중 적어도 하나를 선택하는 명령어로 인식하는 단계를 포함하고,
    상기 인식된 결과를 상기 어플리케이션에 적용하는 단계는,
    상기 필기 입력 레이어에서 상기 터치용 펜을 이용한 필기 이미지가 추가로 입력되는 경우, 상기 추가로 입력된 필기 이미지를 텍스트 또는 이미지로 인식하여 상기 선택된 셀들 중 적어도 하나 위에 표시하는 단계를 포함하는 휴대 단말기의 필기 이력 방법.
  8. 제1항에 있어서,
    상기 입력된 필기 이미지를 인식하는 단계는,
    상기 필기 이미지를 복수 개의 데이터 타입으로 각각 인식하는 단계; 및
    상기 복수 개의 데이터 타입으로 인식된 결과들을 저장하는 단계를 포함하는 휴대 단말기의 필기 이력 방법.
  9. 터치용 펜을 이용한 휴대 단말기의 필기 입력 방법에 있어서,
    어플리케이션이 실행되면, 그 실행 화면을 터치 스크린 상에 표시하는 단계;
    필기 입력이 가능한 필기 입력 레이어를 상기 실행 화면에 중첩하여 제공하는 단계;
    상기 필기 입력 레이어의 제1 및 제2 영역에서, 상기 터치용 펜을 이용한 필기 이미지를 각각 입력받는 단계;
    상기 필기 입력 레이어의 상기 제1 영역 및 상기 제2 영역에 대응하는 상기 실행 화면 내의 제1 및 제2 영역의 속성을 고려하여, 상기 필기 입력 레이어의 제1 영역에 입력된 필기 이미지는 텍스트 타입으로 인식하고, 상기 필기 입력 레이어의 제2 영역에 입력된 필기 이미지는 이미지 타입으로 인식하는 단계; 및
    상기 인식된 결과를 상기 어플리케이션에 적용하는 단계를 포함하는 휴대 단말기의 필기 입력 방법.
  10. 터치용 펜을 이용한 휴대 단말기의 필기 입력 방법에 있어서,
    어플리케이션이 실행되면, 그 실행 화면을 터치 스크린상에 표시하는 단계;
    필기 입력이 가능한 필기 입력 레이어를 상기 실행 화면에 중첩하여 제공하는 단계;
    상기 필기 입력 레이어상에서 상기 터치용 펜을 이용한 필기 이미지를 입력 받는 단계;
    상기 입력된 필기 이미지를, 상기 필기 입력 레이어의 제공 전에 상기 필기 입력 레이어와 다른 필기 입력 레이어 상에서 입력된 필기 이미지가 인식된 데이터 타입과 다른 종류의 데이터 타입으로 인식하는 단계;
    상기 인식된 결과를 상기 어플리케이션에 적용하는 단계를 포함하는 휴대 단말기의 필기 입력 방법.
  11. 터치용 펜을 이용한 휴대 단말기에 있어서,
    어플리케이션이 실행되면, 그 실행 화면을 표시하는 터치 스크린; 및
    상기 어플리케이션에 중첩하여 제공된 필기 입력이 가능한 필기 입력 레이어의 일 영역에서 상기 터치용 펜을 이용한 필기 이미지가 입력되면, 상기 필기 입력 레이어의 일 영역에 대응되는 상기 실행 화면의 일 영역의 속성을 고려하여 상기 입력된 필기 이미지가 인식되는 데이터 타입을 결정하고, 상기 결정된 데이터 타입으로 상기 필기 이미지를 인식하고, 상기 인식된 결과를 상기 실행 중인 어플리케이션에 적용하는 제어부를 포함하는 휴대 단말기.
  12. 제11항에 있어서,
    상기 제어부는,
    상기 필기 입력 레이어 아래에서 상기 필기 입력 레이어의 일 영역과 중첩되는 상기 실행 화면의 일 영역의 속성을 고려하여 상기 입력된 필기 이미지가 인식되는 데이터 타입을 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 것을 특징으로 하는 휴대 단말기.
  13. 제11항에 있어서,
    상기 어플리케이션은 상기 휴대 단말기의 외부에 위치한 서버가 제공하는 웹 화면을 디스플레이하는 어플리케이션이고,
    상기 제어부는,
    상기 웹 화면의 일 영역의 HTML(Hyper Text Markup Language) 문서에 포함된 컴포넌트가 입력받을 수 있는 데이터 타입을 상기 입력된 필기 이미지가 인식되는 데이터 타입으로 결정하고, 상기 결정된 데이터 타입으로 상기 입력된 필기 이미지를 인식하는 것을 특징으로 하는 휴대 단말기.
  14. 제11항에 있어서,
    상기 실행 화면의 상기 일 영역이 텍스트 입력 필드를 포함하는 경우,
    상기 제어부는,
    상기 필기 이미지를 상기 텍스트 입력 필드에 입력 가능한 텍스트로 인식하고, 상기 인식된 텍스트를 상기 텍스트 입력 필드 안에 표시하는 것을 특징으로 하는 휴대 단말기.
  15. 제11항에 있어서,
    상기 실행 화면의 상기 일 영역이 숫자 입력 필드를 포함하는 경우,
    상기 제어부는,
    상기 입력된 필기 이미지를 적어도 하나의 숫자 또는 수식으로 인식하고, 상기 인식된 적어도 하나의 숫자 또는 수식에 따른 계산 결과를 상기 숫자 입력 필드 안에 표시하는 것을 특징으로 하는 휴대 단말기.
  16. 제11항에 있어서,
    상기 제어부는,
    상기 입력된 필기 이미지를 텍스트로 인식하고, 상기 인식된 텍스트를 검색어로 하여 상기 검색어를 포함하는 전자 문서 또는 지도 이미지 중 적어도 하나를 표시하는 것을 특징으로 하는 휴대 단말기.
  17. 제11항에 있어서,
    상기 실행 화면의 상기 일 영역이 복수 개의 셀을 포함하는 테이블을 포함하는 경우,
    상기 제어부는,
    상기 필기 이미지를 상기 복수 개의 셀들 중 적어도 하나를 선택하는 명령어로 인식하고, 상기 필기 입력 레이어에서 상기 터치용 펜을 이용한 필기 이미지가 추가로 입력되면, 상기 추가로 입력된 필기 이미지를 텍스트 또는 이미지로 인식하여 상기 선택된 셀들 중 적어도 하나 위에 표시하는 것을 특징으로 하는 휴대 단말기.
  18. 제11항에 있어서,
    상기 제어부는,
    상기 필기 이미지를 복수 개의 데이터 타입으로 각각 인식하고,
    상기 복수 개의 데이터 타입으로 인식된 결과들을 저장하는 것을 특징으로 하는 휴대 단말기.
  19. 터치용 펜을 이용한 휴대 단말기에 있어서,
    어플리케이션이 실행되면, 그 실행 화면을 표시하는 터치 스크린; 및
    상기 실행 화면에 중첩하여 제공된 필기 입력 레이어의 제1 및 제2 영역에서 상기 터치용 펜을 이용한 필기 이미지를 각각 입력받고,
    상기 필기 입력 레이어의 상기 제1 영역 및 상기 제2 영역에 대응하는 상기 실행 화면의 제1 및 제2 영역의 속성을 고려하여, 상기 필기 입력 레이어의 제1 영역에 입력된 필기 이미지는 텍스트 타입으로 인식하고, 상기 필기 입력 레이어의 제2 영역에 입력된 필기 이미지는 이미지 타입으로 인식하고, 상기 인식된 결과를 상기 실행 중인 어플리케이션에 적용하는 제어부를 포함하는 휴대 단말기.
  20. 터치용 펜을 이용한 휴대 단말기에 있어서,
    어플리케이션이 실행되면, 그 실행 화면을 표시하는 터치 스크린; 및
    상기 실행 화면에 중첩하여 제공된 필기 입력 레이어 상에서 상기 터치용 펜을 이용한 필기 이미지가 입력되면, 상기 입력된 필기 이미지를, 상기 필기 입력 레이어의 제공 전에 상기 필기 입력 레이어와 다른 필기 입력 레이어 상에서 입력된 필기 이미지가 인식된 데이터 타입과 다른 종류의 데이터 타입으로 인식하고, 상기 인식된 결과를 상기 실행 중인 어플리케이션에 적용하는 제어부를 포함하는 휴대 단말기.
KR1020130051335A 2013-05-07 2013-05-07 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법 KR20140132171A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020130051335A KR20140132171A (ko) 2013-05-07 2013-05-07 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법
US14/254,964 US9489126B2 (en) 2013-05-07 2014-04-17 Portable terminal device using touch pen and handwriting input method thereof
EP14167297.2A EP2821908B1 (en) 2013-05-07 2014-05-07 Portable terminal device using touch pen and handwriting input method thereof
US15/285,054 US9875022B2 (en) 2013-05-07 2016-10-04 Portable terminal device using touch pen and handwriting input method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130051335A KR20140132171A (ko) 2013-05-07 2013-05-07 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법

Publications (1)

Publication Number Publication Date
KR20140132171A true KR20140132171A (ko) 2014-11-17

Family

ID=50841568

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130051335A KR20140132171A (ko) 2013-05-07 2013-05-07 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법

Country Status (3)

Country Link
US (2) US9489126B2 (ko)
EP (1) EP2821908B1 (ko)
KR (1) KR20140132171A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087357A (ko) * 2016-01-20 2017-07-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR102004992B1 (ko) * 2018-03-26 2019-07-30 주식회사 한글과컴퓨터 개체 상에 존재하는 필기에 대한 일괄 삭제가 가능한 전자 문서 편집 장치 및 그 동작 방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7793233B1 (en) * 2003-03-12 2010-09-07 Microsoft Corporation System and method for customizing note flags
US7961943B1 (en) * 2005-06-02 2011-06-14 Zeevi Eli I Integrated document editor
KR20140132171A (ko) * 2013-05-07 2014-11-17 삼성전자주식회사 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법
KR102162836B1 (ko) 2013-08-30 2020-10-07 삼성전자주식회사 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법
KR20150028627A (ko) * 2013-09-06 2015-03-16 삼성전자주식회사 사용자 필기를 텍스트 정보로 변환하는 방법 및 이를 수행하기 위한 전자 기기
US9524428B2 (en) 2014-04-28 2016-12-20 Lenovo (Singapore) Pte. Ltd. Automated handwriting input for entry fields
KR20150126494A (ko) * 2014-05-02 2015-11-12 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US20150347364A1 (en) * 2014-06-03 2015-12-03 Lenovo (Singapore) Pte. Ltd. Highlighting input area based on user input
CN106462142B (zh) * 2014-06-19 2019-03-29 株式会社牧野铣床制作所 机床的控制装置
CN105630187B (zh) * 2014-11-07 2018-11-06 阿里巴巴集团控股有限公司 用户终端设备中html页面调用本地键盘的方法及其装置
US10489051B2 (en) * 2014-11-28 2019-11-26 Samsung Electronics Co., Ltd. Handwriting input apparatus and control method thereof
US9658704B2 (en) * 2015-06-10 2017-05-23 Apple Inc. Devices and methods for manipulating user interfaces with a stylus
JP6538482B2 (ja) * 2015-08-25 2019-07-03 Dynabook株式会社 電子機器及び方法
US20170185722A1 (en) * 2015-12-23 2017-06-29 Khue Ngoc Vu Graphical handwriting sign-in method and system
US10755029B1 (en) * 2016-01-05 2020-08-25 Quirklogic, Inc. Evaluating and formatting handwritten input in a cell of a virtual canvas
US20170285931A1 (en) * 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Operating visual user interface controls with ink commands
US20180033175A1 (en) * 2016-07-28 2018-02-01 Sharp Kabushiki Kaisha Image display device and image display system
US10095452B2 (en) * 2017-02-15 2018-10-09 Xerox Corporation Method and system for providing assistance by multi-function device for document preparation
JP7173049B2 (ja) * 2018-01-10 2022-11-16 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US11301063B2 (en) 2018-07-18 2022-04-12 John J. King, JR. Smart pen device and method of implementing a smart pen device
WO2020093329A1 (zh) * 2018-11-08 2020-05-14 深圳市欢太科技有限公司 一种终端设备的数据输入方法、终端设备及存储介质
CN109471587B (zh) * 2018-11-13 2020-05-12 掌阅科技股份有限公司 基于Java虚拟机的手写内容的显示方法及电子设备
CN112784550B (zh) * 2020-03-11 2023-06-20 珠海金山办公软件有限公司 一种信息录入方法及装置
CN112099698B (zh) * 2020-11-16 2021-03-19 南京孜博汇信息科技有限公司 点阵页面的图标处理方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2939147B2 (ja) * 1994-12-29 1999-08-25 シャープ株式会社 手書き文字入力表示装置および方法
US6957768B1 (en) 1999-05-25 2005-10-25 Silverbrook Research Pty Ltd Computer system control via interface surface
KR20010070852A (ko) 2001-06-13 2001-07-27 임동열 투명중첩표현방식 전자학습방법
US20040196313A1 (en) 2003-02-26 2004-10-07 Microsoft Corporation Ink repurposing
KR100603809B1 (ko) 2003-12-06 2006-07-25 유비에이텔레콤 주식회사 전자펜을 이용한 입력데이터의 전송 시스템
US7692636B2 (en) * 2004-09-30 2010-04-06 Microsoft Corporation Systems and methods for handwriting to a screen
KR100874044B1 (ko) 2007-02-28 2008-12-12 이화여자대학교 산학협력단 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및방법
US9196214B2 (en) * 2008-02-13 2015-11-24 Konica Minolta Holdings, Inc. Display device
JP5374080B2 (ja) 2008-06-25 2013-12-25 キヤノン株式会社 撮影装置、その制御方法及びコンピュータプログラム
JP5028379B2 (ja) 2008-10-20 2012-09-19 株式会社日立製作所 ペン型情報入出力システムおよび情報管理方法
JP2010146086A (ja) * 2008-12-16 2010-07-01 Konica Minolta Business Technologies Inc データ配信システム、データ配信装置、データ配信方法およびデータ配信プログラム
TWI438675B (zh) 2010-04-30 2014-05-21 Ibm 提供情境感知援助說明之方法、裝置及電腦程式產品
US8310461B2 (en) * 2010-05-13 2012-11-13 Nuance Communications Inc. Method and apparatus for on-top writing
JP5666239B2 (ja) * 2010-10-15 2015-02-12 シャープ株式会社 情報処理装置、情報処理装置の制御方法、プログラム、および記録媒体
EP2527968B1 (en) * 2011-05-24 2017-07-05 LG Electronics Inc. Mobile terminal
KR101862123B1 (ko) * 2011-08-31 2018-05-30 삼성전자 주식회사 휴대단말기의 입력 장치 및 방법
US9898186B2 (en) * 2012-07-13 2018-02-20 Samsung Electronics Co., Ltd. Portable terminal using touch pen and handwriting input method using the same
KR20140008987A (ko) * 2012-07-13 2014-01-22 삼성전자주식회사 필기 이미지 인식을 이용한 어플리케이션 제어 방법 및 장치
JP5284524B1 (ja) * 2012-09-07 2013-09-11 株式会社東芝 電子機器および手書き文書処理方法
JP2014139734A (ja) * 2013-01-21 2014-07-31 Sony Corp 情報処理装置および方法、並びにプログラム
JP6109625B2 (ja) * 2013-04-04 2017-04-05 株式会社東芝 電子機器およびデータ処理方法
KR20140132171A (ko) * 2013-05-07 2014-11-17 삼성전자주식회사 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087357A (ko) * 2016-01-20 2017-07-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR102004992B1 (ko) * 2018-03-26 2019-07-30 주식회사 한글과컴퓨터 개체 상에 존재하는 필기에 대한 일괄 삭제가 가능한 전자 문서 편집 장치 및 그 동작 방법

Also Published As

Publication number Publication date
EP2821908B1 (en) 2024-02-21
EP2821908C0 (en) 2024-02-21
US9489126B2 (en) 2016-11-08
EP2821908A1 (en) 2015-01-07
US9875022B2 (en) 2018-01-23
US20170024122A1 (en) 2017-01-26
US20140334732A1 (en) 2014-11-13

Similar Documents

Publication Publication Date Title
US9875022B2 (en) Portable terminal device using touch pen and handwriting input method thereof
CA2878883C (en) Portable terminal using touch pen and handwriting input method using the same
JP7377319B2 (ja) タッチ感知式セカンダリディスプレイにおいてユーザインタフェースコントロールを動的に提供するシステム、デバイス、及び方法
KR20140117137A (ko) 터치용 펜을 이용한 휴대용 장치 및 이를 이용한 어플리케이션 제어 방법
JP6439266B2 (ja) タッチスクリーンを有する電子装置におけるテキスト入力方法及び装置
KR102099995B1 (ko) 웹 페이지 애플리케이션 제어 기법
KR102076539B1 (ko) 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법
KR101433147B1 (ko) 빠른 일정 보기를 위한 모바일 디바이스의 사용자 인터페이스 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
E801 Decision on dismissal of amendment
X091 Application refused [patent]
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X601 Decision of rejection after re-examination