KR20150022597A - Method for inputting script and electronic device thereof - Google Patents

Method for inputting script and electronic device thereof Download PDF

Info

Publication number
KR20150022597A
KR20150022597A KR20130100718A KR20130100718A KR20150022597A KR 20150022597 A KR20150022597 A KR 20150022597A KR 20130100718 A KR20130100718 A KR 20130100718A KR 20130100718 A KR20130100718 A KR 20130100718A KR 20150022597 A KR20150022597 A KR 20150022597A
Authority
KR
South Korea
Prior art keywords
word
input
touch screen
electronic device
predicted
Prior art date
Application number
KR20130100718A
Other languages
Korean (ko)
Inventor
최윤정
김보성
정혜순
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR20130100718A priority Critical patent/KR20150022597A/en
Publication of KR20150022597A publication Critical patent/KR20150022597A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Abstract

The present invention relates to a method for operating an electronic device comprising a touch screen comprising a step for receiving the input of a cursive script in a constant area of the touch screen; a step for displaying one or more related words which are related to the inputted cursive script and one or more first prediction words which are related to the inputted cursive script; a step for determining one selection word among the displayed related words and the displayed first prediction words; and a step for displaying one or more second prediction words related to the determined selection word. The present invention is provided to offer a user interface capable of intuitive data input through cursive script input and does not need a separate memory and a separate device.

Description

필기체 입력 방법 및 그 전자 장치{METHOD FOR INPUTTING SCRIPT AND ELECTRONIC DEVICE THEREOF}TECHNICAL FIELD [0001] The present invention relates to a handwriting input method,

본 발명은 전자 장치의 필기체 입력 방법에 관한 것이다.
The present invention relates to a handwriting input method of an electronic device.

근래 들어, 각종 전자 통신 기술의 비약적인 발달로 말미암아 각종 전자 장치가 널리 보급되고 있으며, 사용자의 욕구에 부응하기 위하여 이러한 전자 장치는 점차 경박 단소화되어 가고 있으며 그 기능은 더욱 다양해지고 있다.2. Description of the Related Art In recent years, various electronic devices have become widespread due to the remarkable development of various electronic communication technologies. In order to meet the needs of users, such electronic devices are becoming thinner and thinner and their functions are becoming more diverse.

예컨대, 이러한 전자 장치로는 스마트폰과 같은 이동 전화(mobile phone), 이동 패드(mobile pad), 미디어 플레이어(media player), 태블릿(tablet) 컴퓨터, 핸드헬드 컴퓨터(handheld computer), PDA(Personal Digital Assistant) 등이 대별될 수 있다.Such electronic devices include, for example, a mobile phone such as a smart phone, a mobile pad, a media player, a tablet computer, a handheld computer, a personal digital assistant Assistant) can be categorized.

최근 대표적인 전자 장치로는 소위 스마트폰이 주로 사용되고 있으며, 이러한 스마트폰은 사용 편의성을 고려하여 대화면으로 입출력을 동시에 수행하는 터치 스크린이 필수적으로 구비된다. 이러한 터치 스크린에 사용되는 터치 패널은 저항막 방식(Resistive) 터치 패널, 정전 용량식 터치 패널, 초음파식 터치 패널, 광(적외선) 센서식 터치 패널, 전자기 공명을 이용하는 터치 패널 등 다양한 방식의 터치 패널로 구별된다.2. Description of the Related Art [0002] In recent years, a so-called smart phone has been mainly used as a typical electronic device. Such a smart phone is essentially equipped with a touch screen for performing input / output on a large screen simultaneously. The touch panel used for such a touch screen is various kinds of touch panels such as a resistive touch panel, a capacitive touch panel, an ultrasonic touch panel, an optical (infrared ray) style touch panel, and a touch panel using electromagnetic resonance Respectively.

상술한 다양한 방식의 터치 스크린을 갖는 전자 장치는 터치의 편의성 및 다양성을 증대시키기 위하여 전자 장치에 착탈 가능하도록 단부가 첨예한 팁(tip)을 갖는 일정 길이의 터치 펜(또는 스타일러스)을 구비한다. 전자 장치는 터치 스크린을 통해 손가락 또는 터치 펜으로부터 데이터를 입력받을 수 있다.
The above-described various types of electronic devices having a touch screen include a touch pen (or a stylus) having a predetermined length with a sharp tip so as to be detachable from the electronic device in order to increase the convenience and diversity of the touch. The electronic device can receive data from the finger or the touch pen via the touch screen.

본 발명의 일 실시 예에 따르면, 터치 스크린에 필기체 입력이 가능한 필기체 입력 방법 및 그 전자 장치를 제공할 수 있다.According to an embodiment of the present invention, it is possible to provide a handwriting input method capable of handwriting input on a touch screen, and an electronic apparatus thereof.

본 발명의 다른 실시 예에 따르면, 필기체 입력을 통한 직관적인 데이터 입력이 가능한 사용자 인터페이스를 제공할 수 있다.According to another embodiment of the present invention, a user interface capable of inputting intuitive data through handwriting input can be provided.

본 발명의 또 다른 실시 예에 따르면, 별도의 메모리 및 장치의 구현이 요구되지 않는 필기체 입력 방법 및 그 전자 장치를 제공할 수 있다.
According to another embodiment of the present invention, it is possible to provide a handwriting input method and an electronic apparatus thereof that do not require the implementation of a separate memory and apparatus.

본 발명의 일 실시 예에 따르면, 터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서, 상기 터치 스크린의 일정 영역에서 필기체의 입력을 수신하는 과정과, 입력된 상기 필기체와 연관된 적어도 하나의 연관 단어와 입력된 상기 필기체와 연관된 적어도 하나의 제1예측 단어를 표시하는 과정과, 표시된 상기 적어도 하나의 연관 단어와 표시된 상기 적어도 하나의 제1예측 단어 중 하나의 선택 단어를 결정하는 과정 및 결정된 상기 선택 단어와 연관된 적어도 하나의 제2예측 단어를 표시하는 과정을 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of operating an electronic device including a touch screen, the method comprising: receiving input of a handwriting object in a predetermined area of the touch screen; The method comprising the steps of: displaying at least one first predictive word associated with the entered handwriting; determining a selected word of the displayed at least one associated word and one of the at least one first predictive word displayed; And displaying at least one second predictive word associated with the second prediction word.

본 실시 예에 따르면, 상기 필기체 입력은 상기 터치 스크린에 터치 입력 또는 호버링 입력을 포함할 수 있다.According to the present embodiment, the handwriting input may include touch input or hovering input to the touch screen.

본 실시 예에 따르면, 상기 필기체 입력은 문자 입력이 가능한 메모, 문자 메시지, SNS(Social Networking Service) 어플리케이션 중 적어도 하나를 실행한 상태에서 입력하는 것을 포함할 수 있다.According to the present embodiment, the handwriting input may include inputting at least one of a memo, a text message, and a Social Networking Service (SNS) application capable of inputting characters.

본 실시 예에 따르면, 상기 필기체의 입력을 수신하는 과정 다음에, 입력된 상기 필기체의 텍스트 캐릭터를 추출하는 과정을 추가하는 것을 포함할 수 있다.According to the present embodiment, the process of receiving the input of the writing body may include adding a process of extracting the text character of the input writing body.

본 실시 예에 따르면, 상기 텍스트 캐릭터를 추출하는 과정은 입력된 상기 필기체의 터치 좌표, key code, key index 중 적어도 하나를 바탕으로 상기 텍스트 캐릭터를 결정하는 과정을 포함할 수 있다.According to an embodiment of the present invention, the process of extracting the text character may include determining the text character based on at least one of touch coordinates, key code, and key index of the input handwritten character.

본 실시 예에 따르면, 상기 적어도 하나의 연관 단어는 상기 텍스트 캐릭터와 대응되는 단어를 포함할 수 있다.According to the present embodiment, the at least one associated word may include a word corresponding to the text character.

본 실시 예에 따르면, 상기 적어도 하나의 제1예측 단어는 상기 적어도 하나의 연관 단어 중에서 상기 텍스트 캐릭터와 가장 대응되는 연관 단어를 포함할 수 있다.According to the present embodiment, the at least one first predictive word may include an associated word most corresponding to the text character among the at least one associated word.

본 실시 예에 따르면, 표시된 상기 적어도 하나의 연관 단어와 표시된 상기 적어도 하나의 제1예측 단어 중 하나의 상기 선택 단어를 결정하는 과정 다음에, 결정된 상기 선택 단어를 입력하는 과정을 추가하는 것을 포함할 수 있다.According to this embodiment, the process of determining the selected word in one of the displayed at least one associated word and the at least one first predicted word displayed may be followed by the step of inputting the determined selected word .

본 실시 예에 따르면, 상기 적어도 하나의 제2예측 단어는 최근에 입력된 단어 또는 입력된 상기 선택 단어와 어법상으로 대응하는 단어를 포함할 수 있다.According to the present embodiment, the at least one second predictive word may include a recently input word or a word corresponding to the input selected word.

본 실시 예에 따르면, 상기 선택 단어의 입력은 미리 정해진 글자체로 입력하는 것을 포함할 수 있다.According to the present embodiment, the input of the selected word may include inputting in a predetermined font.

본 실시 예에 따르면, 상기 선택 단어의 입력은 입력된 상기 필기체와 대응되는 필기체 폰트로 입력하는 것을 포함할 수 있다.According to the present embodiment, the input of the selected word may include inputting with the handwritten font corresponding to the entered handwritten character.

본 실시 예에 따르면, 결정된 상기 선택 단어와 연관된 적어도 하나의 상기 제2예측 단어를 표시하는 과정 다음에, 표시된 상기 적어도 하나의 제2예측 단어 중 하나의 제2선택 단어를 결정하는 과정을 추가하는 것을 포함할 수 있다.According to the present embodiment, a process of determining at least one second selected word of the at least one second predicted word displayed after the display of at least one second predicted word associated with the determined selected word is added ≪ / RTI >

본 실시 예에 따르면, 상기 표시된 상기 적어도 하나의 제2예측 단어 중 하나의 상기 제2선택 단어를 결정하는 과정 다음에, 결정된 상기 제2선택 단어를 입력하는 과정을 추가하는 것을 포함할 수 있다.According to an embodiment of the present invention, a process of inputting the determined second selected word may be added after the process of determining the second selected word of the at least one second predicted word displayed.

본 실시 예에 따르면, 상기 제2선택 단어의 입력은 미리 정해진 글자체로 입력하는 것을 포함할 수 있다.According to the present embodiment, the input of the second selected word may include inputting in a predetermined font.

본 실시 예에 따르면, 상기 제2선택 단어의 입력은 입력된 상기 필기체와 대응되는 필기체 폰트로 입력하는 것을 포함할 수 있다.According to the present exemplary embodiment, the input of the second selection word may include inputting with the handwritten font corresponding to the inputted writing body.

본 실시 예에 따르면, 결정된 상기 제2선택 단어를 입력하는 과정 다음에, 입력된 상기 제2선택 단어와 연관된 적어도 하나의 제3예측 단어를 표시하는 과정을 추가하는 것을 포함할 수 있다.According to the embodiment, the step of inputting the second selected word may include the step of displaying at least one third predicted word associated with the input second selected word.

본 실시 예에 따르면, 상기 적어도 하나의 제3예측 단어는 최근에 입력된 단어 또는 입력된 상기 제2선택 단어와 어법상으로 대응하는 단어를 포함할 수 있다.According to the present embodiment, the at least one third predictive word may include a recently entered word or a word corresponding to the inputted second selected word.

본 발명의 다른 실시 예에 따르면, 터치 스크린을 포함하는 전자 장치에 있어서, 상기 터치 스크린의 일정 영역에서 입력된 필기체의 텍스트 캐릭터를 추출하는 필기체 인식부와, 상기 필기체 인식부로부터 추출된 상기 텍스트 캐릭터와 대응하는 적어도 하나의 연관 단어 및 적어도 하나의 예측 단어를 결정하는 단어 예측 엔진부 및 상기 단어 예측 엔진부로부터 결정된 상기 적어도 하나의 연관 단어 및 상기 적어도 하나의 예측 단어를 상기 터치 스크린에 표시하도록 제어하는 프로세서를 포함할 수 있다.According to another embodiment of the present invention, there is provided an electronic device including a touch screen, the electronic device including: a handwriting recognition unit for extracting a text character of a handwriting input in a predetermined area of the touch screen; And at least one associated word and the at least one predicted word determined from the word prediction engine unit are displayed on the touch screen, Lt; / RTI >

본 실시 예에 따르면, 상기 프로세서는 상기 적어도 하나의 연관 단어 및 상기 적어도 하나의 예측 단어 중 하나의 선택 단어를 입력하도록 제어할 수 있다.According to the present embodiment, the processor can control to input the at least one associated word and the at least one selected word of the at least one predictive word.

본 실시 예에 따르면, 상기 단어 예측 엔진부는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 입력된 상기 선택 단어와 어법상으로 대응하는 단어를 가지는 상기 예측 단어를 결정할 수 있다.
According to the present embodiment, the word prediction engine unit can determine the recently entered word or the predicted word having the word corresponding to the input selected word based on the previously stored database.

상술한 다양한 실시 예들에 따르면, 필기체 입력을 통한 직관적인 데이터 입력이 가능한 사용자 인터페이스를 제공하고, 별도의 메모리 및 장치의 구현이 요구되지 않는 필기체 입력 방법 및 그 전자 장치를 제공할 수 있다.
According to the above-described various embodiments, it is possible to provide a user interface capable of intuitive data input through handwriting input, and to provide a handwriting input method and an electronic apparatus in which it is not required to implement a separate memory and apparatus.

도 1은 본 발명의 일 실시 예에 따른 전자 장치의 사시도;
도 2a는 본 발명의 일 실시 예에 따른 전자 장치의 블록 구성도;
도 2b는 본 발명의 일 실시 예에 따른 프로세서의 블록 구성도;
도 3a내지 도 3f는 본 발명의 일 실시 예에 따른 필기체 입력 방법을 설명하기 위한 화면 구성도;
도 4a내지 도 4f는 본 발명의 일 실시 예에 따른 필기체 입력 방법을 설명하기 위한 화면 구성도;
도 5는 본 발명의 일 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도;
도 6은 본 발명의 다른 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도;
도 7은 본 발명의 또 다른 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도; 및
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도.
1 is a perspective view of an electronic device according to an embodiment of the present invention;
Figure 2a is a block diagram of an electronic device according to one embodiment of the present invention;
FIG. 2B is a block diagram of a processor according to an embodiment of the present invention; FIG.
FIGS. 3A to 3F are diagrams for explaining a handwriting input method according to an embodiment of the present invention; FIG.
FIGS. 4A to 4F are diagrams of a screen for explaining a handwriting input method according to an embodiment of the present invention; FIG.
5 is a flow diagram of a method of operating an electronic device according to an embodiment of the present invention;
6 is a flowchart of an operation method of an electronic device according to another embodiment of the present invention;
FIG. 7 is a flowchart illustrating a method of operating an electronic device according to another embodiment of the present invention; FIG. And
8 is a flow diagram of a method of operating an electronic device in accordance with various embodiments of the present invention.

이하 본 발명의 실시 예들을 첨부된 도면을 참조하여 상세히 설명한다. 본 발명의 실시 예들을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 실시 예들의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명의 실시 예들의 전반에 걸친 내용을 토대로 내려져야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The terms described below are defined in consideration of the functions of the present embodiment, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the entire contents of the embodiments of the present invention.

본 발명의 실시 예들을 설명함에 있어, 표시부로써 터치 스크린이 적용될 수 있는 전자 장치를 도시하고 이에 대하여 설명하였으나 이에 국한되지는 않는다. 예컨대, 전자 장치로는 터치 스크린을 포함하는 다양한 기기, 즉, PDA(Personal Digital Assistant), 랩탑 컴퓨터(Laptop Computer), 모바일 폰(Mobile Phone), 스마트 폰(Smart Phone), 넷북(Netbook), TV(Television), 휴대 인터넷 장치(MID: Mobile Internet Device), 울트라 모바일 PC(UMPC: Ultra Mobile PC), 태블릿 PC(Tablet Personal Computer), 손목시계, 카메라 장치, 네비게이션, MP3 등 다양한 장치에 적용 가능하다.
In describing embodiments of the present invention, an electronic device to which a touch screen can be applied as a display unit is shown and described, but the present invention is not limited thereto. For example, electronic devices include various devices including a touch screen, such as a PDA (Personal Digital Assistant), a Laptop Computer, a Mobile Phone, a Smart Phone, a Netbook, a TV It can be applied to various devices such as a television, a mobile Internet device (MID), an ultra mobile PC (UMPC), a tablet personal computer, a wrist watch, a camera device, .

도 1은 본 발명의 일 실시 예에 따른 전자 장치의 사시도이다.1 is a perspective view of an electronic device according to an embodiment of the present invention.

도 1을 참고하면, 전자 장치(100)는 전면(101)에 터치 스크린(190)이 설치될 수 있다. 터치 스크린(190)은 전자 장치(100)로부터 전달받은 전기적 신호를 텍스트, 그래픽, 비디오 등의 영상으로 표시할 수 있다. 또한 터치 스크린(190)은 터치 센서를 적용하여 데이터 입출력이 동시에 가능하다. 예컨대, 터치 스크린(190)은 손가락이나 스타일러스(Stylus)와 같은 입력 수단에 의해 데이터를 수신할 수 있다.Referring to FIG. 1, a touch screen 190 may be installed on a front surface 101 of the electronic device 100. The touch screen 190 may display an electrical signal received from the electronic device 100 as an image such as text, graphics, or video. In addition, the touch screen 190 can simultaneously input and output data by applying a touch sensor. For example, the touch screen 190 may receive data by an input means such as a finger or a stylus.

일 실시 예에 따르면, 터치 스크린(190)은 용량성, 저항성, 적외선 및 표면 음향파 기술뿐만 아니라 기타 근접 센서 배열 또는 기타 요소들을 포함하는 임의의 멀티 터치 감지 기술을 적용할 수 있다. 터치 스크린(190)은 손가락 또는 스타일러스 등의 접촉에 따른 물리량(예컨대, 정전 용량, 저항 등)의 변화를 통해 터치를 인식하고, 플리킹(flicking), 터치 앤 드래그(touch and drag), 탭 앤 홀드(tab and hold), 다중 탭(multi tab) 등의 동작을 감지할 수 있다. 그러나 이에 국한되지는 않으며, 터치 스크린(190)은 호버링(Hovering) 입력(비접촉 터치 또는 근접 터치라고도 함)을 인식할 수 있다.According to one embodiment, the touch screen 190 may employ any multitouch sensing technique including capacitive, resistive, infrared and surface acoustic wave techniques as well as other proximity sensor arrangements or other elements. The touch screen 190 recognizes a touch through a change in a physical quantity (for example, capacitance, resistance, etc.) caused by a contact of a finger or a stylus, and performs a touch operation using flicking, touch and drag, Tab and hold, multi-tab, and the like. However, the present invention is not limited thereto, and the touch screen 190 may recognize a hovering input (also called a non-contact touch or proximity touch).

터치 스크린(190)의 상측에는 음성을 수신하기 위한 이어 피스(Ear Piece)(102)가 설치될 수 있으며, 이어 피스(102)의 우측으로는 근접 센서 또는 조도 센서 등 다수의 센서들(103)과, 피사체를 촬영하기 위한 카메라 장치(104)가 설치될 수 있다.A plurality of sensors 103 such as a proximity sensor or an illuminance sensor may be disposed on the right side of the earpiece 102. The earpiece 102 may be provided on the upper side of the touch screen 190, And a camera device 104 for photographing a subject.

일 실시 예에 따르면, 전자 장치(100)는 터치 스크린(190)의 하측에 위치하며 소리를 입력받는 마이크로폰 장치(105), 키 버튼들이 배치되는 키패드 장치(106)를 더 포함할 수 있다. 그러나 이에 국한되지는 않으며, 전자 장치(100)는 공지의 여타 부가 기능을 구현하기 위한 다양한 부가 장치들이 더 설치될 수 있을 것이다.
According to one embodiment, the electronic device 100 may further include a microphone device 105 positioned below the touch screen 190 and receiving sound, and a keypad device 106 having key buttons disposed thereon. However, the present invention is not limited to this, and the electronic device 100 may be provided with various additional devices for implementing other additional functions known in the art.

도 2a는 본 발명의 일 실시 예에 따른 전자 장치(100)의 블록 구성도이다.2A is a block diagram of an electronic device 100 according to an embodiment of the present invention.

도 2a를 참고하면, 전자 장치(100)는 PDA(Personal Digital Assistant), 랩탑 컴퓨터(Laptop Computer), 모바일 폰(Mobile Phone), 스마트 폰(Smart Phone), 넷북(Netbook), 핸드헬드 컴퓨터(handheld computer), 휴대 인터넷 장치(MID: Mobile Internet Device), 미디어 플레이어(media player), 울트라 모바일 PC(UMPC: Ultra Mobile PC), 태블릿 PC(Tablet Personal Computer), 노트 PC, 손목시계, 네비게이션, MP3, 카메라 장치 등과 같은 장치일 수 있다. 또한, 전자 장치(100)는 이러한 장치들 중 두 가지 이상의 기능을 결합한 장치를 포함하는 임의의 장치일 수도 있다.2A, the electronic device 100 may be a personal digital assistant (PDA), a laptop computer, a mobile phone, a smart phone, a netbook, a handheld computer a portable electronic device (MID), a media player, an ultra mobile PC (UMPC), a tablet personal computer (PC), a notebook PC, a wristwatch, a navigation device, Camera device, and the like. The electronic device 100 may also be any device that includes a device that combines two or more of these devices.

전자 장치(100)는 메모리(110), 프로세서 유닛(Processor Unit)(120), 카메라 장치(130), 센서 장치(140), 무선 통신 장치(150), 오디오 장치(160), 외부 포트 장치(170), 입출력 제어부(180), 터치 스크린(190) 및 입력 장치(200)를 포함할 수 있다. 메모리(110) 및 외부 포트 장치(170)는 다수 개 구성될 수 있다.The electronic device 100 includes a memory 110, a processor unit 120, a camera device 130, a sensor device 140, a wireless communication device 150, an audio device 160, 170, an input / output control unit 180, a touch screen 190, and an input device 200. A plurality of the memory 110 and the external port device 170 may be configured.

각 구성요소에 대해 살펴보면 다음과 같다.The components are as follows.

프로세서 유닛(120)은 메모리 인터페이스(121), 적어도 하나의 프로세서(processor)(122) 및 주변 장치 인터페이스(123)를 포함할 수 있다. 여기서, 프로세서 유닛(120)에 포함되는 메모리 인터페이스(121), 적어도 하나의 프로세서(122) 및 주변 장치 인터페이스(123)는 적어도 하나의 집적화된 회로로 집적화되거나 별개의 구성요소로 구현될 수 있다.The processor unit 120 may include a memory interface 121, at least one processor 122, and a peripheral interface 123. Here, the memory interface 121, the at least one processor 122, and the peripheral device interface 123 included in the processor unit 120 may be integrated into at least one integrated circuit or implemented as separate components.

메모리 인터페이스(121)는 프로세서(122) 또는 주변 장치 인터페이스(123)와 같은 구성요소의 메모리(110) 접근을 제어할 수 있다.The memory interface 121 may control access to the memory 110 of components such as the processor 122 or the peripheral device interface 123.

주변 장치 인터페이스(123)는 전자 장치(100)의 입출력 주변 장치와 프로세서(122) 및 메모리 인터페이스(121)의 연결을 제어할 수 있다.The peripheral device interface 123 may control the connection of the processor 122 and the memory interface 121 to the input / output peripheral device of the electronic device 100.

프로세서(122)는 적어도 하나의 소프트웨어 프로그램을 이용하여 전자 장치(100)가 다양한 멀티미디어 서비스를 제공하도록 제어할 수 있다. 프로세서(122)는 메모리(110)에 저장되어 있는 적어도 하나의 프로그램을 실행하여 해당 프로그램에 대응하는 서비스를 제공할 수 있다.The processor 122 may use at least one software program to control the electronic device 100 to provide various multimedia services. The processor 122 may execute at least one program stored in the memory 110 to provide a service corresponding to the program.

프로세서(122)는 여러 가지의 소프트웨어 프로그램을 실행하여 전자 장치(100)를 위한 여러 기능을 수행하며 음성 통신, 영상 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 프로세서(122)는 메모리(110)에 저장된 소프트웨어 모듈들과 연동하여 본 발명의 실시 예들의 방법을 수행할 수 있다.The processor 122 may execute various software programs to perform various functions for the electronic device 100 and perform processing and control for voice communication, video communication, and data communication. The processor 122 may perform the methods of embodiments of the present invention in conjunction with software modules stored in the memory 110.

프로세서(122)는 하나 이상의 데이터 프로세서, 이미지 프로세서, 또는 코덱(CODEC)을 포함할 수 있다. 더욱이, 전자 장치(100)는 데이터 프로세서, 이미지 프로세서 또는 코덱을 별도로 구성할 수도 있다.Processor 122 may include one or more data processors, image processors, or codecs (CODECs). Moreover, the electronic device 100 may be separately configured with a data processor, an image processor, or a codec.

카메라 장치(130)는 사진 및 비디오 클립, 레코딩 등의 카메라 기능을 수행할 수 있다. 카메라 장치(130)는 CCD(Charged Coupled Device) 또는 CMOS(Complementary Metal-Oxide Semiconductor) 등을 포함할 수 있다. 또한, 카메라 장치(130)는 프로세서(122)가 실행하는 카메라 프로그램에 따라 하드웨어적인 구성의 변경, 예컨대 렌즈 이동, 조리개의 수 등을 조절할 수 있다.The camera device 130 may perform camera functions such as photographs, video clips, and recordings. The camera device 130 may include a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) device. In addition, the camera device 130 can change the hardware configuration, for example, the number of lens shifts, the number of stops, and the like in accordance with the camera program executed by the processor 122.

전자 장치(100)의 다양한 구성요소들은 하나 이상의 통신 버스(참조번호 미기재) 또는 전기적 연결 수단(참조번호 미기재)을 통해서 연결될 수 있다.The various components of the electronic device 100 may be connected via one or more communication buses (reference numeral not shown) or electrical connection means (reference numeral not shown).

센서 장치(140)는 근접 센서, 홀(Hall) 센서, 조도 센서, 모션 센서 등을 포함할 수 있다. 근접 센서는 전자 장치(100)에 접근하는 물체를 감지할 수 있고, 홀 센서는 금속체의 자력을 감지할 수 있다. 조도 센서는 주변의 빛을 감지하며, 모션 센서는 전자 장치(100)의 움직임을 감지할 수 있다. 그러나 이에 국한되지는 않으며, 센서 장치(140)는 다양한 센서를 더 포함할 수 있을 것이다.The sensor device 140 may include a proximity sensor, a Hall sensor, an illuminance sensor, a motion sensor, and the like. The proximity sensor can sense an object approaching the electronic device 100, and the hall sensor can sense the magnetic force of the metal body. The illuminance sensor senses the ambient light, and the motion sensor can sense the movement of the electronic device 100. However, it is not limited thereto, and the sensor device 140 may further include various sensors.

무선 통신 장치(150)는 무선 통신을 가능하게 하고, 무선 주파수 송ㆍ수신기 또는 광(예컨대, 적외선) 송ㆍ수신기를 포함할 수 있다. 도시하지는 않았으나, 무선 통신 장치(150)는 RF IC 유닛(Radio Frequency IC unit)과 기저대역 처리부를 포함할 수 있다. RF IC 유닛은 전자파를 송수신할 수 있으며, 기저대역 처리부로부터의 기저대역신호를 전자파로 변환하여 안테나를 통해 송신할 수 있다. RF IC 유닛은 RF 트랜시버(transceiver), 증폭기(amplifier), 튜너(tunor), 오실레이터(oscillator), 디지털 신호 처리기(digital signal processor), CODEC 칩셋(COding DECoding chip set), 가입자 식별 모듈(SIM, Subscriber Identity Module) 카드 등을 포함할 수 있다.The wireless communication device 150 enables wireless communication, and may include a radio frequency transmitter / receiver or an optical (e.g., infrared) transmitter / receiver. Although not shown, the wireless communication device 150 may include an RF IC unit (Radio Frequency IC unit) and a baseband processing unit. The RF IC unit can transmit and receive electromagnetic waves, and can convert a baseband signal from the baseband processing unit into an electromagnetic wave and transmit it through an antenna. The RF IC unit may be an RF transceiver, an amplifier, a tuner, an oscillator, a digital signal processor, a CODEC chip set, a subscriber identity module Identity Module) card, and the like.

무선 통신 장치(150)는 통신 네트워크에 따라 GSM(Global System for Mobile Communication) 네트워크, EDGE(Enhanced Data GSM Environment) 네트워크, CDMA(Code Division Multiple Access) 네트워크, W-CDMA(Wideband Code Division Multiple Access) 네트워크, LTE(Long Term Evolution) 네트워크, OFDMA(Orthogonal Frequency Division Multiple Access) 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, WiMax 네트워크, NFC(Near Field Communication) 네트워크, 적외선 통신(Infra Red Communication) 네트워크 또는 Bluetooth 네트워크 중 적어도 하나를 통해 동작하도록 설계될 수 있다. 그러나 이에 국한되지는 않으며, 무선 통신 장치(150)는 이메일(email), 인스턴트 메시징(instant messaging) 또는 단문 문자 서비스(SMS, Short Message Service)용 프로토콜을 이용한 여러 가지의 통신 방식이 적용될 수 있다.The wireless communication device 150 may be connected to a communication network such as a Global System for Mobile Communication (GSM) network, an Enhanced Data GSM Environment (EDGE) network, a Code Division Multiple Access (CDMA) network, a Wideband Code Division Multiple Access , An LTE (Long Term Evolution) network, an OFDMA (Orthogonal Frequency Division Multiple Access) network, a Wi-Fi (Wireless Fidelity) network, a WiMax network, an NFC (Near Field Communication) network, Lt; RTI ID = 0.0 > and / or < / RTI > However, the present invention is not limited to this, and the wireless communication device 150 may be applied to various communication methods using a protocol for email, instant messaging, or Short Message Service (SMS).

오디오 장치(160)는 스피커(161) 및 마이크로폰(162)에 연결되어 음성 인식, 음성 복제, 디지털 레코딩 또는 통화 기능 등의 오디오 입력과 출력을 수행할 수 있다. 오디오 장치(160)는 사용자와 전자 장치(100) 사이의 오디오 인터페이스를 제공할 수 있고, 프로세서 유닛(120)과 데이터 신호를 수신하고 수신한 데이터 신호를 전기 신호로 변환하며, 변환한 전기 신호를 스피커(161)를 통해 출력시킬 수 있다.The audio device 160 is connected to the speaker 161 and the microphone 162 to perform audio input and output such as voice recognition, voice reproduction, digital recording, or call function. The audio device 160 may provide an audio interface between the user and the electronic device 100 and may receive data signals with the processor unit 120 and convert the received data signals into electrical signals, And output through the speaker 161.

스피커(161)는 전기 신호를 가청 주파수 대역으로 변환하여 출력할 수 있고, 전자 장치(100)의 전방 또는 후방에 배치될 수 있다. 스피커(161)는 하나의 진동 필름에 적어도 하나의 압전체를 부착시킨 플렉서블한 필름 스피커를 포함할 수 있다.The speaker 161 can convert an electric signal into an audible frequency band and output it, and can be disposed in front of or behind the electronic device 100. The speaker 161 may include a flexible film speaker in which at least one piezoelectric body is attached to one vibrating film.

마이크로폰(162)은 인물이나 기타 음원들로부터 전달된 음파를 전기 신호로 변환할 수 있다. 오디오 장치(160)는 마이크로폰(162)으로부터 전기 신호를 수신하고, 수신한 전기 신호를 오디오 데이터 신호로 변환하며, 변환한 오디오 데이터 신호를 프로세서 유닛(120)으로 전송할 수 있다. 오디오 장치(160)는 전자 장치(100)에 탈부착 가능한 이어폰, 이어셋, 헤드폰 또는 헤드셋을 포함할 수 있다.The microphone 162 may convert a sound wave transmitted from a person or other sound source into an electric signal. The audio device 160 may receive an electrical signal from the microphone 162, convert the received electrical signal to an audio data signal, and transmit the converted audio data signal to the processor unit 120. The audio device 160 may include an earphone, an earset, a headphone, or a headset detachably attached to the electronic device 100.

외부 포트 장치(170)는 전자 장치(100)를 상대 전자 장치와 직접 연결하거나, 네트워크(예컨대, 인터넷, 인트라넷, 무선 LAN 등)를 통하여 상대 전자 장치로 간접적으로 연결할 수 있다. 외부 포트 장치(170)는 USB(Universal Serial Bus) 포트 또는 FIREWIRE 포트 등을 포함할 수 있다.The external port device 170 may connect the electronic device 100 directly to the counterpart electronic device or indirectly to the counterpart electronic device via a network (e.g., Internet, intranet, wireless LAN, etc.). The external port device 170 may include a Universal Serial Bus (USB) port or a FIREWIRE port.

입출력 제어부(180)는 터치 스크린(190) 및 입력 장치(200) 등의 입출력 장치와 주변 장치 인터페이스(123) 사이에 인터페이스를 제공할 수 있다. 입출력 제어부(180)는 터치 스크린 제어기(미도시)와 기타 입력 제어기(미도시)를 포함할 수 있다.The input / output control unit 180 may provide an interface between the input / output device such as the touch screen 190 and the input device 200 and the peripheral device interface 123. The input / output control unit 180 may include a touch screen controller (not shown) and other input controllers (not shown).

터치 스크린(190)은 전자 장치(100)와 사용자 간의 입력 및 출력 인터페이스를 제공할 수 있다. 터치 스크린(190)은 터치 감지 기술을 적용하고 사용자의 터치 입력을 프로세서 유닛(120)으로 전달하고, 프로세서 유닛(120)으로부터 제공되는 시각 정보, 텍스트, 그래픽 또는 비디오 등을 사용자에게 보여줄 수 있다.The touch screen 190 may provide input and output interfaces between the electronic device 100 and a user. The touch screen 190 may apply touch sensing technology and communicate the touch input of the user to the processor unit 120 and may present the user with visual information, text, graphics, video, or the like provided from the processor unit 120.

터치 스크린(190)은 전자 장치(100)의 상태 정보, 사용자가 입력하는 문자, 동화상(moving picture) 및 정화상(still picture) 등을 표시할 수 있다. 터치 스크린(190)은 프로세서(122)에 의해 구동되는 어플리케이션 정보를 표시할 수 있다.The touch screen 190 may display status information of the electronic device 100, characters to be input by the user, a moving picture, and a still picture. The touch screen 190 may display application information driven by the processor 122.

터치 스크린(190)은 용량성, 저항성, 적외선 및 표면 음향파 기술뿐만 아니라 기타 근접 센서 배열 또는 기타 요소들을 포함하는 임의의 멀티 터치 감지 기술을 적용할 수 있다. 터치 스크린(190)은 액정 디스플레이(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), AMOLED(Active Mode Organic Light Emitting Diode), 박막 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT-LCD), 플렉서블 디스플레이(Flexible Display) 또는 3차원 디스플레이(3D display) 중 적어도 하나를 적용할 수 있다.The touch screen 190 may employ any multitouch sensing technique including capacitive, resistive, infrared and surface acoustic wave techniques as well as other proximity sensor arrangements or other elements. The touch screen 190 may be a liquid crystal display (LCD), an organic light emitting diode (OLED), an active mode organic light emitting diode (AMOLED), a thin film transistor-liquid crystal display , A TFT-LCD, a flexible display, or a 3D display.

터치 스크린(190)은 손가락 또는 스타일러스 등의 접촉에 따른 물리량(예컨대, 정전 용량, 저항 등)의 변화를 통해 터치를 인식하고, 플리킹, 터치 앤 드래그, 탭 앤 홀드, 다중 탭 등의 동작을 감지할 수 있다. 더하여, 터치 스크린(190)은 호버링 입력(비접촉 터치 또는 근접 터치라고도 함)을 인식할 수 있다.The touch screen 190 recognizes a touch through a change in a physical quantity (e.g., capacitance, resistance, etc.) due to a contact of a finger or a stylus, and performs operations such as flicking, touch and drag, tap and hold, Can be detected. In addition, the touch screen 190 can recognize a hovering input (also called a non-contact touch or proximity touch).

입력 장치(200)는 사용자의 선택에 의해 발생하는 입력 데이터를 입출력 제어부(180)를 통해 프로세서(122)로 제공할 수 있다. 입력 장치(200)는 적어도 하나의 하드웨어 버튼을 포함하는 키패드 및 터치 정보를 감지하는 터치 패드 등을 포함할 수 있다. 입력 장치(200)는 볼륨 제어를 위한 업/다운 버튼을 포함할 수 있으며, 이 밖에도 입력 장치(200)는 해당 기능이 부여된 푸쉬 버튼(push botton), 로커 버튼(locker button), 로커(locker) 스위치, 섬 휠(thumb-wheel), 다이얼(dial), 스틱(stick) 및 스타일러스 등의 포인터 장치 중 적어도 하나를 포함할 수 있다.The input device 200 may provide the input data generated by the user's selection to the processor 122 through the input / output control unit 180. The input device 200 may include a keypad including at least one hardware button and a touchpad for sensing touch information. The input device 200 may include an up / down button for volume control. In addition, the input device 200 may include a push botton, a locker button, a locker A pointer, a switch, a thumb-wheel, a dial, a stick, and a stylus.

메모리(110)는 하나 이상의 자기 디스크 저장 장치와 같은 고속 랜덤 액세스 메모리 또는 비휘발성 메모리, 하나 이상의 광 저장 장치 또는 플래시 메모리(예컨대, NAND, NOR)를 포함할 수 있다. 메모리(110)는 소프트웨어를 저장하는데, 소프트웨어는 운영 체제 모듈(111), 통신 모듈(112), 그래픽 모듈(113), 사용자 인터페이스 모듈(114), 코덱 모듈(115), 카메라 모듈(116), 어플리케이션 모듈(117), 필기체 운용 모듈(118) 및 예측 단어 관리 모듈(119)을 포함할 수 있다. 모듈(module)이란 용어는 명령어들의 집합, 명령어 세트(instruction set) 또는 프로그램으로 표현하기도 한다.Memory 110 may include high-speed random access memory or non-volatile memory, such as one or more magnetic disk storage devices, one or more optical storage devices or flash memory (e.g., NAND, NOR). The memory 110 stores software which includes an operating system module 111, a communication module 112, a graphics module 113, a user interface module 114, a codec module 115, a camera module 116, An application module 117, a handwriting operating module 118, and a predictive word management module 119. The term module is sometimes referred to as a set of instructions, an instruction set or a program.

운영 체제 모듈(111)은 WINDOWS, LINUX, 다윈(Darwin), RTXC, UNIX, OS X, 안드로이드(Android) 또는 VxWorks와 같은 내장 운영 체제를 포함할 수 있으며, 일반적인 시스템 작동(system operation)을 제어하는 여러 가지의 소프트웨어 구성요소를 포함할 수 있다. 이러한 일반적인 시스템 작동의 제어는 메모리 제어 및 관리, 저장 하드웨어(장치) 제어 및 관리, 전력 제어 및 관리 등을 포함할 수 있다. 운영 체제 모듈(111)은 여러 가지의 하드웨어(장치)와 소프트웨어 구성요소(모듈) 사이의 통신을 원활하게 하는 기능을 수행할 수 있다.The operating system module 111 may include an embedded operating system such as WINDOWS, LINUX, Darwin, RTXC, UNIX, OS X, Android or VxWorks and may be used to control general system operations And may include various software components. Control of these general system operations may include memory control and management, storage hardware (device) control and management, power control and management, and the like. The operating system module 111 can perform functions to facilitate communication between various hardware (devices) and software components (modules).

통신 모듈(112)은 무선 통신 장치(150) 또는 외부 포트 장치(170)를 통해 컴퓨터, 서버 및 전자 장치 등의 상대 전자 장치와 통신을 가능하게 할 수 있다.The communication module 112 may enable communication with a counterpart electronic device, such as a computer, a server, and an electronic device, via the wireless communication device 150 or the external port device 170. [

그래픽 모듈(113)은 터치 스크린(190)에 그래픽을 제공하고 표시하기 위한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 그래픽(graphics)이란 용어는 텍스트(text), 웹 페이지(web page), 아이콘(icon), 디지털 이미지(digital image), 비디오(video) 및 애니메이션(animation) 등을 의미할 수 있다.The graphics module 113 may include various software components for providing and displaying graphics on the touch screen 190. The term graphics refers to text, a web page, an icon, a digital image, video, and animation.

사용자 인터페이스 모듈(114)은 사용자 인터페이스에 관련한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 사용자 인터페이스 모듈(114)은 프로세서(122)에 의해 구동되는 어플리케이션 정보를 터치 스크린(190)에 표시하도록 제어할 수 있다. 또한, 사용자 인터페이스 모듈(114)은 사용자 인터페이스의 상태가 어떻게 변경되는지 또는 사용자 인터페이스 상태의 변경이 어떤 조건에서 이루어지는지 등에 대한 내용을 포함할 수 있다.The user interface module 114 may include various software components related to the user interface. The user interface module 114 may control the display of the application information driven by the processor 122 on the touch screen 190. [ In addition, the user interface module 114 may include information on how the state of the user interface is changed or under what conditions the change of the user interface state is performed.

코덱 모듈(115)은 비디오 파일의 인코딩 및 디코딩 관련한 소프트웨어 구성요소를 포함할 수 있다.The codec module 115 may include software components related to encoding and decoding of video files.

카메라 모듈(116)은 카메라 관련 프로세스 및 카메라 기능들을 가능하게 하는 카메라 관련 소프트웨어 구성요소를 포함할 수 있다.Camera module 116 may include camera-related software components that enable camera-related processes and camera functions.

어플리케이션 모듈(117)은 전자 장치(100)에 설치된 적어도 하나의 어플리케이션에 대한 소프트웨어 구성요소를 포함할 수 있다. 이러한 어플리케이션은 브라우저(browser), 이메일(e-mail), 폰북(Phone Book), 게임(Game), 단문 메시지 서비스(Short Message Service), 멀티미디어 메시지 서비스(Multimedia Messaging Service), SNS(Social Networking Service), 즉석 메시지(instant message), 모닝콜(morning call), MP3(MPEG Layer 3), 일정관리(Scheduler), 카메라(Camera), 워드 프로세싱(word processing), 키보드 에뮬레이션(keyboard emulation), 음악 플레이어(music player), 어드레스 북(address book), 접촉 리스트(touch list), 위젯(wideget), 디지털 저작권 관리(DRM, Digital Right Management), 음성 인식(voice recognition), 음성 복제, 위치 결정 기능(position determining function) 또는 위치 기반 서비스(location based service) 등을 포함할 수 있다.The application module 117 may include software components for at least one application installed in the electronic device 100. These applications include a browser, an e-mail, a phone book, a game, a short message service, a multimedia messaging service, a social networking service (SNS) Instant message, morning call, MP3 Layer 3, Scheduler, Camera, word processing, keyboard emulation, music player, player, an address book, a touch list, a wideget, a digital rights management (DRM), a voice recognition, a voice duplication, a position determining function ) Or a location based service.

필기체 인식 모듈(118)은 터치 스크린(190)에서 필기체를 인식하기 위한 소프트웨어 구성요소를 포함할 수 있다. 필기체 인식 모듈(118)은 터치 스크린(190)에 접촉하는 손가락 또는 스타일러스와 같은 입력 수단에 대한 터치 좌표값들을 일정 패턴으로 생성할 수 있다. 예컨대, 필기체 인식 모듈(118)은 터치 스크린(190)에 입력된 필기체의 터치 좌표값들을 연결한 선의 패턴을 획득하고, 획득한 패턴을 프로세서(122)로 제공할 수 있다.The handwriting recognition module 118 may include a software component for recognizing the handwriting on the touch screen 190. The handwriting recognition module 118 may generate touch coordinate values for input means such as a finger or a stylus touching the touch screen 190 in a predetermined pattern. For example, the handwriting recognition module 118 may acquire a pattern of lines connecting the touch coordinates of the handwriting input to the touch screen 190, and provide the acquired pattern to the processor 122. [

일 실시 예에 따르면, 필기체 인식 모듈(118)은 입력된 필기체의 터치 좌표, key code, key index 중 적어도 하나를 바탕으로 입력된 필기체와 대응되는 텍스트 캐릭터를 추출하기 위한 명령어를 포함할 수 있다.According to one embodiment, the handwriting recognition module 118 may include a command for extracting a text character corresponding to a handwriting input based on at least one of touch coordinates, key code, and key index of an input handwriting.

예측 단어 관리 모듈(119)은 터치 스크린(190)에 입력된 필기체의 입력 패턴 또는 텍스트 캐릭터와 대응되는 연관 단어 및 예측 단어를 검색하기 위한 소프트웨어 구성요소를 포함할 수 있다. 예측 단어 관리 모듈(119)은 터치 스크린(190)에 표시되는 텍스트의 다양한 폰트 정보 및 어법 정보를 가지는 언어별 사전 데이터 베이스를 포함할 수 있다.The predictive word management module 119 may include a software component for searching for an input pattern of the handwriting input to the touch screen 190 or a related word and a predictive word corresponding to a text character. The predictive word management module 119 may include a dictionary database for each language having various font information and utterance information of the text displayed on the touch screen 190. [

일 실시 예에 따르면, 예측 단어 관리 모듈(119)은 최근 입력된 단어를 저장할 수 있으며, 터치 스크린(190)에 입력된 단어와 어법상으로 대응하는 단어를 검색하는 명령어를 포함할 수 있다.According to one embodiment, the predictive word management module 119 may store a recently entered word and may include an instruction to search for a word corresponding to the word input in the touch screen 190. [

프로세서 유닛(120)은 상술한 모듈 이외에 추가적인 모듈(명령어들)을 더 포함할 수 있다. 또한, 본 발명의 일 실시 예에 따른 전자 장치(100)의 다양한 기능들은 하나 이상의 프로세싱(processing) 또는 어플리케이션 특정 집적 회로(ASIC, Application Specific Integrated Circuit)를 포함하는 하드웨어 또는 소프트웨어를 포함할 수 있다.The processor unit 120 may further include additional modules (instructions) in addition to the above-described modules. In addition, various functions of the electronic device 100 according to an embodiment of the present invention may include hardware or software including one or more processing or application specific integrated circuits (ASICs).

미 도시하였으나, 전자 장치(100)는 전자 장치(100)에 포함된 여러 가지 구성요소에 전력을 공급하는 전력 시스템을 포함할 수 있다. 전력 시스템은 전원(power source)(교류 전원이나 배터리), 전력 오류 검출 회로, 전력 컨버터(converter), 전력 인버터(inverter), 충전 장치 또는 전력 상태 표시 장치(발광 다이오드)를 포함할 수 있다. 더하여 전자 장치(100)는 전력의 생성, 관리 및 분배 기능을 수행하는 전력 관리 및 제어 장치를 포함할 수 있다.Although not shown, the electronic device 100 may include a power system that provides power to the various components included in the electronic device 100. The power system may include a power source (AC power or battery), a power error detection circuit, a power converter, a power inverter, a charging device or a power status indicator (light emitting diode). In addition, the electronic device 100 may include a power management and control device that performs power generation, management, and distribution functions.

본 실시 예에서는 전자 장치(100)의 구성요소를 도시하고 설명하였으나 이에 국한되지는 않는다. 예컨대, 전자 장치(100)는 본 도면에서 도시한 것보다 많은 개수의 구성요소를 가지거나, 또는 더 적은 개수의 구성요소를 가질 수 있다.
Although the components of the electronic device 100 are shown and described in the present embodiment, the present invention is not limited thereto. For example, the electronic device 100 may have more or fewer components than those shown in this figure.

도 2b는 본 발명의 일 실시 예에 따른 프로세서(122)의 블록 구성도이다.2B is a block diagram of a processor 122 according to one embodiment of the present invention.

도 2b를 참조하면, 프로세서(122)는 어플리케이션 구동부(210), 필기체 인식부(220), 단어 예측 엔진부(230) 및 표시 제어부(240)를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(122)의 구성요소들은 별개의 모듈들로 이루어질 수 있지만, 다른 실시 예에서는 하나의 모듈 내에서 소프트웨어의 구성요소들로서 포함될 수도 있다.Referring to FIG. 2B, the processor 122 may include an application driver 210, a handwriting recognition unit 220, a word prediction engine 230, and a display control unit 240. According to one embodiment, the components of processor 122 may be comprised of discrete modules, but in other embodiments may be included as components of software within one module.

어플리케이션 구동부(210)는 메모리(110)에 저장된 적어도 하나의 어플리케이션 모듈(117)을 실행하여 해당 어플리케이션에 따른 서비스를 제공할 수 있다. 일 실시 예에 따르면, 어플리케이션 구동부(210)는 메모, 문자 메시지 작성 등과 같은 문자 입력을 할 수 있는 어플리케이션을 실행할 수 있다.The application driving unit 210 may execute at least one application module 117 stored in the memory 110 to provide a service according to the application. According to one embodiment, the application driver 210 can execute an application that can input characters such as a memo, a text message, and the like.

필기체 인식부(220)는 메모리(110)에 저장된 필기체 인식 모듈(118)을 실행하여 메모, 문자 메시지와 같은 어플리케이션에서의 필기체 입력을 감지할 수 있다. 일 실시 예에 따르면, 필기체 인식부(220)는 터치 스크린(190)에 접촉하는 손가락 또는 스타일러스와 같은 입력 수단에 대한 터치 좌표값들을 일정 패턴으로 생성할 수 있다. 예컨대, 필기체 인식부(220)는 터치 스크린(190)에 입력된 필기체의 터치 좌표값들을 연결한 선의 패턴을 획득하고, 획득한 패턴을 단어 예측 엔진부(230)로 제공할 수 있다.The handwriting recognition unit 220 may execute the handwriting recognition module 118 stored in the memory 110 to sense a handwriting input in an application such as a memo or a text message. According to one embodiment, the handwriting recognition unit 220 may generate touch coordinate values for input means such as a finger or a stylus that touches the touch screen 190 in a predetermined pattern. For example, the handwriting recognition unit 220 may acquire a pattern of lines connecting touch coordinates of a handwriting input to the touch screen 190, and may provide the acquired pattern to the word prediction engine unit 230.

일 실시 예에 따르면, 필기체 인식부(220)은 입력된 필기체의 터치 좌표, key code, key index 중 적어도 하나를 바탕으로 입력된 필기체와 대응되는 텍스트 캐릭터를 추출할 수 있다.According to one embodiment, the handwriting recognizing unit 220 can extract a text character corresponding to a handwriting input based on at least one of touch coordinates, key code, and key index of the input handwriting.

단어 예측 엔진부(230)는 메모리(110)에 저장된 예측 단어 관리 모듈(119)을 실행하여 터치 스크린(190)에 연관 단어 및 예측 단어를 검색할 수 있다. 일 실시 예에 따르면, 단어 예측 엔진부(230)는 필기체 인식부(220)로부터 제공받은 입력 패턴 또는 텍스트 캐릭터를 기 저장된 데이터 베이스와 매핑(mapping)하는 방식으로 연관 단어 및 예측 단어를 검색할 수 있다. 검색된 연관 단어 및 예측 단어는 표시 제어부(240)로 제공될 수 있다.The word prediction engine unit 230 may execute the predictive word management module 119 stored in the memory 110 to search for a related word and a predictive word on the touch screen 190. [ According to an embodiment, the word prediction engine 230 can search for an associated word and a predicted word by mapping the input pattern or text character provided from the handwriting recognition unit 220 to a previously stored database have. The retrieved related word and the predicted word may be provided to the display control unit 240.

일 실시 예에 따르면, 단어 예측 엔진부(230)는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 터치 스크린(190)에 입력된 단어와 어법상으로 대응하는 단어를 가지는 예측 단어를 결정할 수 있다.According to one embodiment, the word prediction engine unit 230 can determine a recently entered word based on a pre-stored database or a predicted word having a word corresponding to a word input in the touch screen 190 have.

표시 제어부(240)는 메모리(110)에 저장된 사용자 인터페이스 모듈(114)을 실행하여 터치 스크린(190)에 그래픽으로 사용자 인터페이스를 표시하도록 제어할 수 있다. 일 실시 예에 따르면, 표시 제어부(240)는 단어 예측 엔진부(230)로부터 제공받은 연관 단어 및 예측 단어를 터치 스크린(190)에 표시하도록 제어할 수 있다.The display control unit 240 may execute a user interface module 114 stored in the memory 110 to display a graphical user interface on the touch screen 190. [ The display control unit 240 may control the touch screen 190 to display an associated word and a prediction word provided from the word prediction engine unit 230. [

일 실시 예에 따르면, 상술한 필기체 인식부(220) 및 단어 예측 엔진부(230)는 하나의 모듈(장치)로써 작동될 수 있다. 또한, 단어 예측 엔진부(230)는 입력된 필기체 데이터뿐만 아니라 가상의 키패드로 입력된 텍스트 데이터에 대응하는 연관 단어 또는 예측 단어를 검색할 수도 있다.
According to one embodiment, the handwriting recognition unit 220 and the word prediction engine unit 230 described above can be operated as one module (device). In addition, the word prediction engine 230 may search for a related word or a predictive word corresponding to text data input by a virtual keypad as well as the input handwritten data.

도 3a내지 도 3f는 본 발명의 일 실시 예에 따른 필기체 입력 방법을 설명하기 위한 화면 구성도이다.FIGS. 3A to 3F are screen diagrams for illustrating a handwriting input method according to an embodiment of the present invention.

도 3a내지 도 3f는 문자를 입력할 수 있는 문자 메시지 어플리케이션이 실행된 상태를 도시하고 있으나 이에 국한되지는 않는다. 예컨대, 문자를 입력할 수 있는 메모, 문자 메시지, SNS(Social Networking Service) 어플리케이션 등 다양한 어플리케이션에 적용 가능하다.3A to 3F illustrate a state in which a text message application capable of inputting characters is executed, but the present invention is not limited thereto. For example, it can be applied to various applications such as a memo for inputting characters, a text message, and an SNS (Social Networking Service) application.

도 3a에 도시한 바와 같이, 터치 스크린(190)은 문자 메시지를 전송하기 위한 화면으로 구성될 수 있다. 일 실시 예에 따르면, 터치 스크린(190)의 상측에는 메시지를 수신할 대상을 입력하기 위한 수신인 입력창(310)이 배치될 수 있고, 수신인 입력창(310)의 하부에는 메시지의 내용을 입력하기 위한 메시지 입력창(320)이 배치될 수 있다.As shown in FIG. 3A, the touch screen 190 may include a screen for transmitting a text message. According to an embodiment of the present invention, a receiver input window 310 for inputting an object to receive a message may be disposed above the touch screen 190, and a content of a message may be provided below the receiver input window 310 A message input window 320 may be provided.

터치 스크린(190)의 하측으로는 메시지 내용을 입력하기 위한 가상 키패드(330)가 배치될 수 있다. 가상 키패드(330)는 가상 포인터 또는 음성 입력 방식 등 다양하게 구현될 수 있으며, 터치 스크린(190)의 일정 간격 또는 특정 영역에 배치될 수 있을 것이다. 가상 키패드(330) 외에도 손가락 또는 스타일러스와 같은 입력 수단으로 메시지 입력창(320)에 데이터를 입력할 수 있다.A virtual keypad 330 for inputting the contents of the message may be disposed below the touch screen 190. The virtual keypad 330 may be implemented in various ways, such as a virtual pointer or a voice input method, and may be disposed at a predetermined interval or a specific area of the touch screen 190. In addition to the virtual keypad 330, data can be input to the message input window 320 by an input means such as a finger or a stylus.

일 실시 예에 따르면, 가상 키패드(330)는 문자를 입력하기 위해 조작되는 복수의 키 버튼을 포함할 수 있다. 사용자는 이러한 키 버튼들을 조작하여 숫자, 글자 또는 특수 문자 등을 입력할 수 있다. 가상 키패드(330)는 입력된 데이터를 편집하기 위한 다양한 기능을 포함하는 기능키를 구비할 수 있다.According to one embodiment, the virtual keypad 330 may include a plurality of key buttons operated to input characters. The user can manipulate these key buttons to input numbers, letters or special characters. The virtual keypad 330 may include a function key including various functions for editing the input data.

본 실시 예에서는 쿼티(QWERTY) 자판 방식의 키패드를 도시하고 있으나 이에 국한되지는 않으며, 3*4 자판, 키보드 자판 등 다양한 자판 방식으로 적용될 수 있다.In this embodiment, a QWERTY keypad-type keypad is shown, but the present invention is not limited thereto, and can be applied to various keyboards such as 3 * 4 keyboards and keyboards.

도 3b에 도시한 바와 같이, 터치 스크린(190)은 메시지 입력창(320)에 문자를 입력하기 위한 필기체 입력 화면(340)을 표시할 수 있다. 필기체 입력 화면(340)은 손가락이나 터치 펜(T) 등의 입력 수단으로부터 필기체 데이터(341)를 수신할 수 있다.As shown in FIG. 3B, the touch screen 190 may display a handwriting input screen 340 for inputting a character in the message input window 320. The handwriting input screen 340 can receive the handwriting data 341 from an input means such as a finger or a touch pen T. [

일 실시 예에 따르면, 전자 장치(100)는 필기체 입력 화면(340)에서 'He'의 형태의 필기체 데이터(341)를 입력받는 경우, 입력된 필기체 데이터(341)의 텍스트 캐릭터를 추출하여 'He'형태와 가장 유사한 문자(321)를 검색할 수 있다. 전자 장치(100)는 메시지 입력창(320)에 기 설정된 글자체로 'He'형태와 가장 유사한 문자(321)를 입력할 수 있다.According to one embodiment, when the handwritten data 341 in the form of 'He' is input on the handwriting input screen 340, the electronic device 100 extracts the text characters of the input handwritten data 341 and outputs' He Quot ;, the character 321 that is the most similar to the character 321 can be searched. The electronic device 100 can input a character 321 that is the most similar to the 'He' type in a predetermined font in the message input window 320.

도 3c에 도시한 바와 같이, 전자 장치(100)는 필기체 입력 화면(340)에 'He'의 형태의 필기체 데이터(341)가 입력되는 경우, 터치 스크린(190)에 단어 선택창 (350)을 표시할 수 있다. 단어 선택창(350)은 입력된 필기체 데이터(341)와 연관되는 연관 단어들(351, 352, 353, 354) 및 예측 단어들(355, 356)을 포함할 수 있다. 이러한 단어들은 단어 선택창(350)의 일정 간격 또는 특정 영역에 배치될 수 있다.3C, the electronic device 100 displays a word selection window 350 on the touch screen 190 when the handwriting data 341 in the form of 'He' is input to the handwriting input screen 340 Can be displayed. The word selection window 350 may include associated words 351, 352, 353, 354 and prediction words 355, 356 associated with the input handwritten data 341. These words may be placed at certain intervals or in certain areas of the word selection window 350. [

일 실시 예에 따르면, 연관 단어들(351, 352, 353, 354)은 전자 장치(100)가 입력된 필기체 데이터(341)를 인식할 수 있는 유사 단어가 될 수 있다. 또한, 예측 단어들(355, 356)은 연관 단어들(351, 352, 353, 354) 중 입력된 필기체 데이터(341)와 가장 유사한 'He'의 단어(351)로 추론될 수 있는 단어가 될 수 있다. 예컨대, 예측 단어는 'He'로 시작하는 단어 또는 'He'를 포함하는 단어가 될 수 있다.According to one embodiment, the associated words 351, 352, 353, and 354 may be similar words that the electronic device 100 can recognize the input handwritten data 341. In addition, the prediction words 355 and 356 may be words that can be inferred as the word 351 of 'He' which is most similar to the inputted cursive data 341 among the related words 351, 352, 353, and 354 . For example, the prediction word may be a word beginning with 'He' or a word containing 'He'.

일 실시 예에 따르면, 단어 선택창(350)은 이러한 예측 단어들(355, 356)보다 더 많은 예측 단어를 포함할 수 있으며, 이러한 더 많은 예측 단어를 보기 위한 옵션 버튼(357)을 더 포함할 수 있다.According to one embodiment, the word selection window 350 may include more predictive words than these predictive words 355 and 356, and further includes an option button 357 for viewing such more predictive words .

일 실시 예에 따르면, 전자 장치(100)는 단어 선택창(350)의 연관 단어들(351, 352, 353, 354) 및 예측 단어들(355, 356) 중 하나의 단어를 선택하여 선택된 단어를 대체 입력할 수 있다. 이러한 경우 메시지 입력창(320)에 입력된 'He'라는 단어(321)는 선택된 단어로 대체될 수 있다.According to one embodiment, the electronic device 100 selects one of the associated words 351, 352, 353, and 354 of the word selection window 350 and one of the predictive words 355 and 356, Alternative input is possible. In this case, the word 'He' 321 entered in the message input window 320 may be replaced with the selected word.

도 3d에 도시한 바와 같이, 메시지 입력창(320)에 'He'라는 단어(321)의 입력이 완료되는 경우 'He'라는 단어(321) 다음에 올 수 있는 제2예측 단어(361, 362, 363, 364, 365)가 단어 선택 창(350)에 표시될 수 있다.As shown in FIG. 3D, when the input of the word 'He' 321 is completed in the message input window 320, the second predicted words 361 and 362 , 363, 364, and 365 may be displayed in the word selection window 350.

일 실시 예에 따르면, 단어 선택창(350)은 'He'라는 단어(321) 다음에 올 수 있는 단어, 예컨대 최근에 입력된 단어 또는 입력된 'He'라는 단어(321)와 어법상으로 대응하는 단어를 표시할 수 있다. 단어 선택창(350)은 이러한 제2예측 단어들(361, 362, 363, 364, 365)보다 더 많은 제2예측 단어를 포함할 수 있으며, 이러한 더 많은 제2예측 단어를 보기 위한 옵션 버튼(366)을 더 포함할 수 있다.According to one embodiment, the word selection window 350 may correspond to a word that may come after the word " He " 321, for example, a recently entered word or a word " He " Can be displayed. The word selection window 350 may include more second predicted words than these second predicted words 361, 362, 363, 364, 365 and an option button 366).

도 3e에 도시한 바와 같이, 전자 장치(100)는 단어 선택창(350)의 제2예측 단어들(361, 362, 363, 364, 365) 중 하나를 선택하여 선택 단어(322)를 입력할 수 있다. 예컨대, 이러한 경우 선택 단어(322)는 메시지 입력창(320)에 입력된 'He'라는 단어(321)의 우측에 기 설정된 글자체로 입력될 수 있다.3E, the electronic device 100 selects one of the second predictive words 361, 362, 363, 364, and 365 of the word selection window 350 to input the selected word 322 . For example, in this case, the selection word 322 may be input in a predetermined font on the right side of the word 'He' 321 input in the message input window 320.

도 3f에 도시한 바와 같이, 메시지 입력창(320)에 'was'라는 단어(322)의 입력이 완료되는 경우 'was'라는 단어(322) 다음에 올 수 있는 제3예측 단어(371, 372, 373, 374, 375)가 표시될 수 있다.As shown in FIG. 3F, when the input of the word 'was' 322 is completed in the message input window 320, the third predicted words 371 and 372 , 373, 374, 375) may be displayed.

일 실시 예에 따르면, 단어 선택창(350)은 'was'라는 단어(322) 다음에 올 수 있는 단어, 예컨대 최근에 입력된 단어 또는 입력된 'was'라는 단어(322)와 어법상으로 대응되는 단어를 표시할 수 있다. 단어 선택창(350)은 이러한 제3예측 단어들(371, 372, 373, 374, 375)보다 더 많은 제3예측 단어를 포함할 수 있으며, 이러한 더 많은 제3예측 단어를 보기 위한 옵션 버튼(376)을 더 포함할 수 있다.According to one embodiment, the word selection window 350 may correspond to a word that may come after the word " was " 322, for example, a recently entered word or a word " was " Words can be displayed. The word selection window 350 may include more third predicted words than these third predicted words 371, 372, 373, 374, 375, and an option button 376).

다양한 실시 예에 따르면, 전자 장치(100)는 상술한 과정을 반복하여 다수의 예측 단어들을 연속적으로 표시할 수 있을 것이다.
According to various embodiments, the electronic device 100 may repeat the process described above to continuously display a plurality of predictive words.

도 4a내지 도 4f는 본 발명의 일 실시 예에 따른 필기체 입력 방법을 설명하기 위한 화면 구성도이다.4A to 4F are screen diagrams for illustrating a handwriting input method according to an embodiment of the present invention.

도 4a내지 도 4f는 문자를 입력할 수 있는 문자 메시지 어플리케이션이 실행된 상태를 도시하고 있으나 이에 국한되지는 않는다. 예컨대, 문자를 입력할 수 있는 메모, 문자 메시지, SNS(Social Networking Service) 어플리케이션 등 다양한 어플리케이션에 적용 가능하다.4A to 4F show a state in which a text message application capable of inputting characters is executed, but the present invention is not limited thereto. For example, it can be applied to various applications such as a memo for inputting characters, a text message, and an SNS (Social Networking Service) application.

도 4a에 도시한 바와 같이, 터치 스크린(190)은 문자 메시지를 전송하기 위한 화면으로 구성될 수 있다. 일 실시 예에 따르면, 터치 스크린(190)의 상측에는 메시지를 수신할 대상을 입력하기 위한 수신인 입력창(410)이 배치될 수 있고, 수신인 입력창(410)의 하부에는 메시지의 내용을 입력하기 위한 메시지 입력창(420)이 배치될 수 있다.As shown in FIG. 4A, the touch screen 190 may include a screen for transmitting a text message. According to one embodiment, a receiver input window 410 for inputting an object to receive a message may be disposed on the touch screen 190, and a content of a message may be input to a lower portion of the receiver input window 410 A message input window 420 may be provided.

터치 스크린(190)의 하측으로는 메시지 내용을 입력하기 위한 가상 키패드(430)가 배치될 수 있다. 가상 키패드(430)는 가상 포인터 또는 음성 입력 방식 등 다양하게 구현될 수 있으며, 터치 스크린(190)의 일정 간격 또는 특정 영역에 배치될 수 있을 것이다. 가상 키패드(430) 외에도 손가락 또는 스타일러스와 같은 입력 수단으로 메시지 입력창(420)에 데이터를 입력할 수 있다.A virtual keypad 430 for inputting a message content may be disposed below the touch screen 190. The virtual keypad 430 may be implemented in various ways, such as a virtual pointer or a voice input method, and may be disposed at a certain interval or a specific area of the touch screen 190. In addition to the virtual keypad 430, data can be input to the message input window 420 by an input means such as a finger or a stylus.

일 실시 예에 따르면, 가상 키패드(430)는 문자를 입력하기 위해 조작되는 복수의 키 버튼을 포함할 수 있다. 사용자는 이러한 키 버튼들을 조작하여 숫자, 글자 또는 특수 문자 등을 입력할 수 있다. 가상 키패드(430)는 입력된 데이터를 편집하기 위한 다양한 기능을 포함하는 기능키를 구비할 수 있다.According to one embodiment, the virtual keypad 430 may include a plurality of key buttons operated to input characters. The user can manipulate these key buttons to input numbers, letters or special characters. The virtual keypad 430 may include function keys including various functions for editing the input data.

본 실시 예에서는 쿼티(QWERTY) 자판 방식의 키패드를 도시하고 있으나 이에 국한되지는 않으며, 3*4 자판, 키보드 자판 등 다양한 자판 방식으로 적용될 수 있다.In this embodiment, a QWERTY keypad-type keypad is shown, but the present invention is not limited thereto, and can be applied to various keyboards such as 3 * 4 keyboards and keyboards.

도 4b에 도시한 바와 같이, 터치 스크린(190)은 메시지 입력창(420)에 문자를 입력하기 위한 필기체 입력 화면(440)을 표시할 수 있다. 필기체 입력 화면(440)은 손가락이나 터치 펜(T) 등의 입력 수단으로부터 필기체 데이터(441)를 수신할 수 있다.As shown in FIG. 4B, the touch screen 190 may display a handwriting input screen 440 for inputting characters in the message input window 420. The handwriting input screen 440 can receive the handwriting data 441 from an input means such as a finger or a touch pen (T).

일 실시 예에 따르면, 전자 장치(100)는 필기체 입력 화면(440)에서 'He'의 형태의 필기체 데이터(441)를 입력받는 경우, 입력된 필기체 데이터(441)의 텍스트 캐릭터를 추출하여 'He'형태와 가장 유사한 문자(421)를 검색할 수 있다. 전자 장치(100)는 메시지 입력창(420)에 미리 정해진 필기체 형식의 필기체 폰트로 'He'형태와 가장 유사한 문자(421)를 입력할 수 있다. 또한, 사용자의 필기체를 인식하여 사용자의 필기체 형식으로 입력할 수도 있을 것이다.According to one embodiment, when the handwritten data 441 in the form of 'He' is input on the handwriting input screen 440, the electronic device 100 extracts the text characters of the input handwritten data 441 and outputs' He Quot ;, the character 421 that is closest to the character 421 can be searched. The electronic device 100 can input a character 421 most similar to the 'He' type as a handwritten font of a predetermined cursive form in the message input window 420. In addition, the user may be able to recognize the handwriting and input the handwriting in the user's handwriting format.

다른 실시 예에 따르면, 필기체 입력 화면(440)에서 'He'의 형태의 필기체 데이터(441)를 입력받는 경우, 미리 정해진 필기체 형식의 필기체 폰트로 'He'형태와 가장 유사한 문자를 필기체 입력 화면(440)에 필기체 데이터(441)를 대신하여 입력될 수도 있다.According to another embodiment, when the handwritten data 441 in the form of 'He' is input on the handwriting input screen 440, the character most similar to the 'He' 440 in place of the cursive data 441.

도 4c에 도시한 바와 같이, 전자 장치(100)는 필기체 입력 화면(440)에 'He'의 형태의 필기체 데이터(441)가 입력되는 경우, 터치 스크린(190)에 단어 선택창 (450)을 표시할 수 있다. 단어 선택창(450)은 입력된 필기체 데이터(441)와 연관되는 연관 단어들(451, 452, 453, 454) 및 예측 단어들(455, 456)을 포함할 수 있다. 이러한 단어들은 단어 선택창(450)의 일정 간격 또는 특정 영역에 배치될 수 있다.4C, the electronic device 100 displays a word selection window 450 on the touch screen 190 when the handwriting data 441 in the form of 'He' is input to the writing input screen 440 Can be displayed. The word selection window 450 may include associated words 451, 452, 453, 454 and prediction words 455, 456 associated with the input handwritten data 441. These words may be placed at certain intervals or in certain areas of the word selection window 450. [

일 실시 예에 따르면, 연관 단어들(451, 452, 453, 454)은 전자 장치(100)가 입력된 필기체 데이터(441)를 인식할 수 있는 유사 단어가 될 수 있다. 또한, 예측 단어들(455, 456)은 연관 단어들(451, 452, 453, 454) 중 입력된 필기체 데이터(441)와 가장 유사한 'He'의 단어(451)로 추론될 수 있는 단어가 될 수 있다. 예컨대, 예측 단어는 'He'로 시작하는 단어 또는 'He'를 포함하는 단어가 될 수 있다.According to one embodiment, the associated words 451, 452, 453, and 454 may be similar words that the electronic device 100 can recognize the input handwritten data 441. In addition, the prediction words 455 and 456 become words that can be inferred as the word 451 of 'He' most similar to the input handwritten data 441 among the related words 451, 452, 453, and 454 . For example, the prediction word may be a word beginning with 'He' or a word containing 'He'.

일 실시 예에 따르면, 단어 선택창(450)은 이러한 예측 단어들(455, 456)보다 더 많은 예측 단어를 포함할 수 있으며, 이러한 더 많은 예측 단어를 보기 위한 옵션 버튼(457)을 더 포함할 수 있다.According to one embodiment, the word selection window 450 may include more predictive words than these predictive words 455 and 456, and further includes an option button 457 for viewing these more predictive words .

일 실시 예에 따르면, 전자 장치(100)는 단어 선택창(450)의 연관 단어들(451, 452, 453, 454) 및 예측 단어들(455, 456) 중 하나의 단어를 선택하여 선택된 단어를 대체 입력할 수 있다. 이러한 경우 메시지 입력창(420)에 입력된 'He'라는 단어는 선택된 단어로 대체될 수 있다.According to one embodiment, the electronic device 100 selects one of the associated words 451, 452, 453, and 454 of the word selection window 450 and one of the predictive words 455 and 456, Alternative input is possible. In this case, the word " He " entered in the message input window 420 may be replaced with the selected word.

도 4d에 도시한 바와 같이, 메시지 입력창(420)에 'He'라는 단어(421)의 입력이 완료되는 경우 'He'라는 단어(421) 다음에 올 수 있는 제2예측 단어(461, 462, 463, 464, 465)가 단어 선택 창(450)에 표시될 수 있다.4D, when the input of the word 421 of 'He' is completed in the message input window 420, the second predicted words 461 and 462 which can be followed by the word 421 of 'He' , 463, 464, and 465 may be displayed in the word selection window 450.

일 실시 예에 따르면, 단어 선택창(450)은 'He'라는 단어(421) 다음에 올 수 있는 단어, 예컨대 최근에 입력된 단어 또는 입력된 'He'라는 단어(421)와 어법상으로 대응하는 단어를 표시할 수 있다. 단어 선택창(450)은 이러한 제2예측 단어들(461, 462, 463, 464, 465)보다 더 많은 제2예측 단어를 포함할 수 있으며, 이러한 더 많은 제2예측 단어를 보기 위한 옵션 버튼(466)을 더 포함할 수 있다.According to one embodiment, the word selection window 450 may correspond to a word that may come after the word 'He' 421, for example, a recently entered word or a word 421 'He' Can be displayed. The word selection window 450 may include more second predicted words than these second predicted words 461, 462, 463, 464, 465 and may include an option button 466).

도 4e에 도시한 바와 같이, 전자 장치(100)는 단어 선택창(450)의 제2예측 단어들(461, 462, 463, 464, 465) 중 하나를 선택하여 선택 단어(422)를 입력할 수 있다. 예컨대, 이러한 경우 선택 단어(422)는 메시지 입력창(420)에 입력된 'He'라는 단어(421)의 우측에 미리 정해진 필기체 형식의 필기체 폰트로 입력될 수 있다. 또한, 사용자의 필기체를 인식하여 사용자의 필기체 형식으로 입력될 수도 있을 것이다.4E, the electronic device 100 selects one of the second predicted words 461, 462, 463, 464, and 465 of the word selection window 450 to input the selected word 422 . For example, in this case, the selection word 422 may be input as a handwritten font of a predetermined cursive type on the right side of the word 'He' 421 input in the message input window 420. In addition, the user's handwriting may be recognized and input in a user's handwriting format.

도 4f에 도시한 바와 같이, 메시지 입력창(420)에 'was'라는 단어(422)의 입력이 완료되는 경우 'was'라는 단어(422) 다음에 올 수 있는 제3예측 단어(471, 472, 473, 474, 475)가 표시될 수 있다.4F, when the input of the word 'was' 422 is completed in the message input window 420, the third predicted words 471 and 472 , 473, 474, 475) may be displayed.

일 실시 예에 따르면, 단어 선택창(450)은 'was'라는 단어(422) 다음에 올 수 있는 단어, 예컨대 최근에 입력된 단어 또는 입력된 'was'라는 단어(422)와 어법상으로 대응되는 단어를 표시할 수 있다. 단어 선택창(450)은 이러한 제3예측 단어들(471, 472, 473, 474, 475)보다 더 많은 제3예측 단어를 포함할 수 있으며, 이러한 더 많은 제3예측 단어를 보기 위한 옵션 버튼(476)을 더 포함할 수 있다.According to one embodiment, the word selection window 450 may correspond to a word that may come after the word " was " 422, e.g., a word recently entered or word 422, Words can be displayed. The word selection window 450 may include more third predicted words than these third predicted words 471, 472, 473, 474, 475 and an option button 476).

다양한 실시 예에 따르면, 전자 장치(100)는 상술한 과정을 반복하여 다수의 예측 단어들을 연속적으로 표시할 수 있을 것이다.
According to various embodiments, the electronic device 100 may repeat the process described above to continuously display a plurality of predictive words.

도 5는 본 발명의 일 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.5 is a flow diagram of a method of operating an electronic device 100 in accordance with an embodiment of the present invention.

도 5를 참고하면, 510과정에서 전자 장치(100)는 터치 스크린(190)의 일정 영역에서 필기체의 입력을 수신할 수 있다.Referring to FIG. 5, in operation 510, the electronic device 100 may receive input of a handwriting in a certain area of the touch screen 190. FIG.

일 실시 예에 따르면, 전자 장치(100)는 문자를 입력할 수 있는 메모, 문자 메시지, SNS(Social Networking Service) 어플리케이션 등 다양한 어플리케이션이 실행된 상태에서 손가락 또는 스타일러스와 같은 입력 수단에 의한 필기체 데이터를 수신할 수 있다. 이러한 필기체 입력은 터치 스크린(190)에 터치 입력 또는 호버링 입력을 포함할 수 있다.According to one embodiment, the electronic device 100 is capable of storing handwritten data by an input means such as a finger or a stylus in a state in which various applications such as a memo, a text message, and an SNS (Social Networking Service) . Such handwriting input may include a touch input or a hovering input to the touch screen 190. [

그 다음, 520과정에서 전자 장치(100)는 입력된 필기체와 연관된 적어도 하나의 연관 단어 및 제1예측 단어를 표시할 수 있다.Next, at 520, the electronic device 100 may display at least one associated word and a first predicted word associated with the entered writing matter.

일 실시 예에 따르면, 전자 장치(100)의 필기체 인식부(220)는 터치 스크린(190)에 입력된 필기체의 터치 좌표, key code, key index 중 적어도 하나를 바탕으로 입력된 필기체의 텍스트 캐릭터를 추출할 수 있다. 또한 단어 예측 결정부(230)는 상술한 텍스트 캐릭터를 기 저장된 데이터 베이스와 매핑(mapping)하는 방식으로 연관 단어 및 제1예측 단어를 검색할 수 있다.According to one embodiment, the handwriting recognition unit 220 of the electronic device 100 recognizes a text character of a handwriting input based on at least one of touch coordinates, key code, and key index of a handwriting input to the touch screen 190 Can be extracted. In addition, the word prediction decision unit 230 can search for a related word and a first predicted word by mapping the text character with a pre-stored database.

일 실시 예에 따르면, 단어 예측 엔진부(230)는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 터치 스크린(190)에 입력된 단어와 어법상으로 대응하는 단어를 가지는 제1예측 단어를 결정할 수 있다.According to one embodiment, the word prediction engine unit 230 may store a recently input word or a first predicted word having a word corresponding to the input word on the touch screen 190 based on a previously stored database You can decide.

그 다음, 530과정에서 전자 장치(100)는 표시된 적어도 하나의 연관 단어 및 제1예측 단어 중 하나의 선택 단어를 결정할 수 있다.Then, at 530, the electronic device 100 may determine the selected word of at least one associated word and the first predicted word displayed.

일 실시 예에 따르면, 사용자는 터치 스크린(190)에 표시된 적어도 하나의 연관 단어 및 제1예측 단어 중에서 하나의 선택 단어를 손가락 또는 스타일러스와 같은 입력 수단으로 선택할 수 있다. 이러한 선택 단어는 터치 스크린(190)의 일정 영역에 입력될 수 있다.According to one embodiment, the user may select one of the at least one associated word and the first predicted word displayed on the touch screen 190 with an input means such as a finger or stylus. Such a selection word may be input to a certain area of the touch screen 190. [

그 다음, 540과정에서 전자 장치(100)는 결정된 선택 단어와 연관된 적어도 하나의 제2예측 단어를 표시할 수 있다.Then, at 540, the electronic device 100 may display at least one second predicted word associated with the determined selected word.

일 실시 예에 따르면, 단어 예측 엔진부(230)는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 상술한 선택 단어와 어법상으로 대응하는 단어를 가지는 제2예측 단어를 결정할 수 있다. 또한, 프로세서(122)는 미리 정해진 글자체로 제2예측 단어를 입력할 수 있으며, 사용자의 필기체 형식과 대응하는 필기체 폰트로 제2예측 단어를 입력할 수 있다.According to one embodiment, the word prediction engine unit 230 may determine a recently input word or a second predicted word having a word corresponding to the selected word based on a previously stored database. Also, the processor 122 may input the second predicted word in a predetermined font, and may input the second predicted word in the handwritten font corresponding to the user's handwriting format.

이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
The set of instructions for each of these processes may be stored in one or more modules in the memory 110 described above. In this case, the modules stored in memory 110 may be executed by one or more processors 122. [

도 6은 본 발명의 다른 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.6 is a flow chart of a method of operating an electronic device 100 in accordance with another embodiment of the present invention.

도 6을 참고하면, 610과정에서 전자 장치(100)는 터치 스크린(190)의 일정 영역에서 필기체의 입력을 수신할 수 있다.Referring to FIG. 6, in operation 610, the electronic device 100 may receive input of a handwriting in a certain area of the touch screen 190.

일 실시 예에 따르면, 전자 장치(100)는 문자를 입력할 수 있는 메모, 문자 메시지, SNS(Social Networking Service) 어플리케이션 등 다양한 어플리케이션이 실행된 상태에서 손가락 또는 스타일러스와 같은 입력 수단에 의한 필기체 데이터를 수신할 수 있다. 이러한 필기체 입력은 터치 스크린(190)에 터치 입력 또는 호버링 입력을 포함할 수 있다.According to one embodiment, the electronic device 100 is capable of storing handwritten data by an input means such as a finger or a stylus in a state in which various applications such as a memo, a text message, and an SNS (Social Networking Service) . Such handwriting input may include a touch input or a hovering input to the touch screen 190. [

그 다음, 620과정에서 전자 장치(100)는 입력된 필기체와 연관된 적어도 하나의 연관 단어 및 제1예측 단어를 표시할 수 있다.Then, in step 620, the electronic device 100 may display at least one associated word and a first predicted word associated with the entered writing matter.

일 실시 예에 따르면, 전자 장치(100)의 필기체 인식부(220)는 터치 스크린(190)에 입력된 필기체의 터치 좌표, key code, key index 중 적어도 하나를 바탕으로 입력된 필기체의 텍스트 캐릭터를 추출할 수 있다. 또한 단어 예측 결정부(230)는 상술한 텍스트 캐릭터를 기 저장된 데이터 베이스와 매핑(mapping)하는 방식으로 연관 단어 및 제1예측 단어를 검색할 수 있다.According to one embodiment, the handwriting recognition unit 220 of the electronic device 100 recognizes a text character of a handwriting input based on at least one of touch coordinates, key code, and key index of a handwriting input to the touch screen 190 Can be extracted. In addition, the word prediction decision unit 230 can search for a related word and a first predicted word by mapping the text character with a pre-stored database.

일 실시 예에 따르면, 단어 예측 엔진부(230)는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 터치 스크린(190)에 입력된 단어와 어법상으로 대응하는 단어를 가지는 제1예측 단어를 결정할 수 있다.According to one embodiment, the word prediction engine unit 230 may store a recently input word or a first predicted word having a word corresponding to the input word on the touch screen 190 based on a previously stored database You can decide.

그 다음, 630과정에서 전자 장치(100)는 표시된 적어도 하나의 연관 단어 및 제1예측 단어 중 하나의 선택 단어를 결정할 수 있다.Then, in step 630, the electronic device 100 may determine a selected word of at least one associated word and the first predicted word displayed.

일 실시 예에 따르면, 사용자는 터치 스크린(190)에 표시된 적어도 하나의 연관 단어 및 제1예측 단어 중에서 하나의 선택 단어를 손가락 또는 스타일러스와 같은 입력 수단으로 선택할 수 있다. 이러한 선택 단어는 터치 스크린(190)의 일정 영역에 입력될 수 있다.According to one embodiment, the user may select one of the at least one associated word and the first predicted word displayed on the touch screen 190 with an input means such as a finger or stylus. Such a selection word may be input to a certain area of the touch screen 190. [

그 다음, 640과정에서 전자 장치(100)는 결정된 선택 단어와 연관된 적어도 하나의 제2예측 단어를 표시할 수 있다.Then, at 640, the electronic device 100 may display at least one second predicted word associated with the determined selected word.

일 실시 예에 따르면, 단어 예측 엔진부(230)는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 상술한 선택 단어와 어법상으로 대응하는 단어를 가지는 제2예측 단어를 결정할 수 있다. 또한, 프로세서(122)는 미리 정해진 글자체로 제2예측 단어를 입력할 수 있으며, 사용자의 필기체 형식과 대응하는 필기체 폰트로 제2예측 단어를 입력할 수 있다.According to one embodiment, the word prediction engine unit 230 may determine a recently input word or a second predicted word having a word corresponding to the selected word based on a previously stored database. Also, the processor 122 may input the second predicted word in a predetermined font, and may input the second predicted word in the handwritten font corresponding to the user's handwriting format.

그 다음, 650과정에서 전자 장치(100)는 표시된 적어도 하나의 제2예측 단어 중 하나의 제2선택 단어를 결정할 수 있다.Then, at 650, the electronic device 100 may determine a second selected word of one of the displayed at least one second predictive word.

일 실시 예에 따르면, 사용자는 터치 스크린(190)에 표시된 적어도 하나의 제2예측 단어 중에서 하나의 제2선택 단어를 손가락 또는 스타일러스와 같은 입력 수단으로 선택할 수 있다. 이러한 제2선택 단어는 터치 스크린(190)의 일정 영역에 입력될 수 있다.According to one embodiment, the user may select one of the at least one second predictive word displayed on the touch screen 190 as an input means, such as a finger or stylus. The second selection word may be input to a certain area of the touch screen 190.

그 다음, 660과정에서 전자 장치(100)는 결정된 제2선택 단어와 연관된 적어도 하나의 제3예측 단어를 표시할 수 있다.Then, at step 660, the electronic device 100 may display at least one third predictive word associated with the determined second selected word.

일 실시 예에 따르면, 단어 예측 엔진부(230)는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 상술한 제2선택 단어와 어법상으로 대응하는 단어를 가지는 제3예측 단어를 결정할 수 있다. 또한, 프로세서(122)는 미리 정해진 글자체로 제3예측 단어를 입력할 수 있으며, 사용자의 필기체 형식과 대응하는 필기체 폰트로 제3예측 단어를 입력할 수 있다.According to one embodiment, the word prediction engine unit 230 may determine a recently input word or a third predicted word having a word corresponding to the second selected word based on a previously stored database . In addition, the processor 122 may input the third predicted word in a predetermined font, and may input the third predicted word in the handwritten font corresponding to the cursive format of the user.

다양한 실시 예에 따르면, 전자 장치(100)는 상술한 과정을 반복하여 다수의 예측 단어들을 연속적으로 표시할 수 있을 것이다.According to various embodiments, the electronic device 100 may repeat the process described above to continuously display a plurality of predictive words.

이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
The set of instructions for each of these processes may be stored in one or more modules in the memory 110 described above. In this case, the modules stored in memory 110 may be executed by one or more processors 122. [

도 7은 본 발명의 또 다른 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.7 is a flowchart of a method of operating an electronic device 100 in accordance with another embodiment of the present invention.

도 7을 참고하면, 710과정에서 전자 장치(100)는 필기체 데이터를 수신할 수 있다.Referring to FIG. 7, in operation 710, the electronic device 100 can receive handwritten data.

일 실시 예에 따르면, 전자 장치(100)는 문자를 입력할 수 있는 메모, 문자 메시지, SNS(Social Networking Service) 어플리케이션 등 다양한 어플리케이션이 실행된 상태에서 손가락 또는 스타일러스와 같은 입력 수단에 의한 필기체 데이터를 수신할 수 있다.According to one embodiment, the electronic device 100 is capable of storing handwritten data by an input means such as a finger or a stylus in a state in which various applications such as a memo, a text message, and an SNS (Social Networking Service) .

그 다음, 720과정에서 전자 장치(100)는 수신된 필기체 데이터와 연관된 텍스트 정보를 표시할 수 있다.Then, at 720, the electronic device 100 may display textual information associated with the received cursive data.

일 실시 예에 따르면, 전자 장치(100)의 필기체 인식부(220)는 터치 스크린(190)에 입력된 필기체 데이터의 터치 좌표, key code, key index 중 적어도 하나를 바탕으로 입력된 필기체의 텍스트 캐릭터를 추출할 수 있다. 또한 단어 예측 결정부(230)는 상술한 텍스트 캐릭터를 기 저장된 데이터 베이스와 매핑(mapping)하는 방식으로 텍스트 캐릭터와 연관된 텍스트 정보를 검색할 수 있다.According to one embodiment, the handwriting recognition unit 220 of the electronic device 100 recognizes a handwritten text character input based on at least one of touch coordinates, key code, and key index of the handwritten data input to the touch screen 190 Can be extracted. Also, the word prediction determining unit 230 may search text information associated with the text character by mapping the text character with the pre-stored database.

일 실시 예에 따르면, 단어 예측 엔진부(230)는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 터치 스크린(190)에 입력된 단어와 어법상으로 대응하는 단어를 가지는 텍스트 정보를 결정할 수 있다.According to one embodiment, the word prediction engine unit 230 can determine text information having a recently entered word or a word corresponding to a word input on the touch screen 190 based on a previously stored database have.

그 다음, 730과정에서 전자 장치(100)는 표시된 텍스트 정보의 선택 여부를 결정할 수 있다.Then, in step 730, the electronic device 100 may determine whether to select displayed text information.

일 실시 예에 따르면, 사용자는 터치 스크린(190)에 표시된 텍스트 정보를 손가락 또는 스타일러스와 같은 입력 수단으로 선택할 수 있다.According to one embodiment, the user can select textual information displayed on the touch screen 190 with an input means such as a finger or stylus.

표시된 텍스트 정보가 선택된 경우, 740과정에서 전자 장치(100)는 수신된 필기체 데이터와 대응되는 필기체 폰트로 텍스트 정보를 입력할 수 있다.If the displayed text information is selected, the electronic device 100 can input text information in the handwritten font corresponding to the received cursive data in step 740. [

일 실시 예에 따르면, 전자 장치(100)는 사용자의 필기체 형식과 대응하는 필기체 폰트로 텍스트 정보를 입력할 수 있다. 전자 장치(100)는 최근에 입력된 사용자의 필기체 형식을 저장할 수 있으며, 폰트 데이터 베이스를 참조하여 가장 유사한 필기체 폰트를 결정할 수 있을 것이다.According to one embodiment, the electronic device 100 may input textual information in a handwritten font corresponding to a user's handwriting format. The electronic device 100 may store the recently entered user's handwriting format and may refer to the font database to determine the most similar handwriting font.

이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
The set of instructions for each of these processes may be stored in one or more modules in the memory 110 described above. In this case, the modules stored in memory 110 may be executed by one or more processors 122. [

도 8은 본 발명의 다양한 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.8 is a flow diagram of a method of operating an electronic device 100 in accordance with various embodiments of the present invention.

도 8을 참고하면, 810과정에서 전자 장치(100)는 필기체 데이터를 수신할 수 있다.Referring to FIG. 8, in step 810, the electronic device 100 can receive handwritten data.

일 실시 예에 따르면, 전자 장치(100)는 문자를 입력할 수 있는 메모, 문자 메시지, SNS(Social Networking Service) 어플리케이션 등 다양한 어플리케이션이 실행된 상태에서 손가락 또는 스타일러스와 같은 입력 수단에 의한 필기체 데이터를 수신할 수 있다.According to one embodiment, the electronic device 100 is capable of storing handwritten data by an input means such as a finger or a stylus in a state in which various applications such as a memo, a text message, and an SNS (Social Networking Service) .

그 다음, 820과정에서 전자 장치(100)는 수신된 필기체 데이터와 연관된 텍스트 정보를 표시할 수 있다.Then, at 820, the electronic device 100 may display textual information associated with the received cursive data.

일 실시 예에 따르면, 전자 장치(100)의 필기체 인식부(220)는 터치 스크린(190)에 입력된 필기체 데이터의 터치 좌표, key code, key index 중 적어도 하나를 바탕으로 입력된 필기체의 텍스트 캐릭터를 추출할 수 있다. 또한 단어 예측 결정부(230)는 상술한 텍스트 캐릭터를 기 저장된 데이터 베이스와 매핑(mapping)하는 방식으로 텍스트 캐릭터와 연관된 텍스트 정보를 검색할 수 있다.According to one embodiment, the handwriting recognition unit 220 of the electronic device 100 recognizes a handwritten text character input based on at least one of touch coordinates, key code, and key index of the handwritten data input to the touch screen 190 Can be extracted. Also, the word prediction determining unit 230 may search text information associated with the text character by mapping the text character with the pre-stored database.

일 실시 예에 따르면, 단어 예측 엔진부(230)는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 터치 스크린(190)에 입력된 단어와 어법상으로 대응하는 단어를 가지는 텍스트 정보를 결정할 수 있다.According to one embodiment, the word prediction engine unit 230 can determine text information having a recently entered word or a word corresponding to a word input on the touch screen 190 based on a previously stored database have.

그 다음, 830과정에서 전자 장치(100)는 표시된 텍스트 정보의 선택 여부를 결정할 수 있다.Then, at 830, the electronic device 100 may determine whether to select displayed textual information.

일 실시 예에 따르면, 사용자는 터치 스크린(190)에 표시된 텍스트 정보를 손가락 또는 스타일러스와 같은 입력 수단으로 선택할 수 있다.According to one embodiment, the user can select textual information displayed on the touch screen 190 with an input means such as a finger or stylus.

표시된 텍스트 정보가 선택된 경우, 840과정에서 전자 장치(100)는 미리 정해진 글자체로 텍스트 정보를 입력할 수 있다.If the displayed text information is selected, the electronic device 100 can input text information in a predetermined font in step 840.

일 실시 예에 따르면, 전자 장치(100)는 폰트 데이터 베이스에서 사용자가 설정한 폰트로 텍스트 정보를 입력할 수 있을 것이다.According to one embodiment, the electronic device 100 may enter textual information in a font set by the user in the font database.

이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
The set of instructions for each of these processes may be stored in one or more modules in the memory 110 described above. In this case, the modules stored in memory 110 may be executed by one or more processors 122. [

본 발명의 일 실시 예에 따르면, 각각의 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 그 조합으로 구성될 수 있다. 일부 또는 전체 모듈은 하나의 개체에 구성되고, 각 모듈의 기능을 동일하게 수행할 수 있다. 본 발명의 일 실시 예에 따르면, 각각의 과정들은 순차적, 반복적 또는 병렬적으로 실행될 수 있다. 일부 과정들은 생략되거나 다른 과정들이 추가되어 실행될 수 있다. 예컨대, 각각의 과정들은 본 발명의 실시 예에서 기술한 대응하는 모듈에 의해서 실행될 수 있다.According to one embodiment of the present invention, each of the modules may comprise software, firmware, hardware or a combination thereof. Some or all of the modules are organized into one entity, and the functions of each module can be performed in the same manner. According to one embodiment of the present invention, the respective processes can be executed sequentially, repeatedly or in parallel. Some processes may be omitted or other processes may be added and executed. For example, each of the processes may be performed by a corresponding module described in an embodiment of the present invention.

소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 비일시적인(non-transient) 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은 전자 장치 내의 하나 이상의 프로세서에 의해 실행될 수 있다. 하나 이상의 프로그램은 전자 장치로 하여금, 본 발명의 다양한 실시 예들에 따른 방법들을 실행하게 하는 명령어를 포함할 수 있다.When implemented in software, a non-transient computer readable storage medium that stores one or more programs (software modules) may be provided. One or more programs stored on a computer-readable storage medium may be executed by one or more processors in the electronic device. One or more programs may include instructions that cause an electronic device to perform methods in accordance with various embodiments of the invention.

이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리(random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM, Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM, Compact Disc-ROM), 디지털 다목적 디스크(DVDs, Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.Such programs (software modules, software) may be stored in a computer readable medium such as a random access memory, a non-volatile memory including a flash memory, a ROM (Read Only Memory), an electrically erasable programmable ROM (EEPROM), a magnetic disc storage device, a compact disc-ROM (CD-ROM), a digital versatile disc (DVDs) An optical storage device, or a magnetic cassette. Or a combination of some or all of them. In addition, a plurality of constituent memories may be included.

전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN) 또는 SAN(Storage Area Network)과 같은 통신 네트워크 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근할 수 있는 부착 가능한 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트 장치를 통하여 전자 장치에 접속할 수 있다.Which can be accessed via a communication network comprised of a communications network such as the Internet, an Intranet, a LAN (Local Area Network), a WLAN (Wide Area Network) or a SAN (Storage Area Network) May be stored in an attachable storage device. Such a storage device can be connected to an electronic device through an external port device.

또한, 통신 네트워크상의 별도의 저장 장치가 전자 장치에 접속할 수도 있다.Also, a separate storage device on the communication network may be connected to the electronic device.

분명히, 청구항들의 범위 내에 있으면서 이러한 실시 예들을 변형할 수 있는 다양한 방식들이 있다. 다시 말하면, 이하 청구항들의 범위를 벗어남 없이 본 발명을 실시할 수 있는 다양한 방식들이 있을 것이다.
Obviously, there are various ways in which variations of these embodiments can be made within the scope of the claims. In other words, there will be a variety of ways in which the invention may be practiced without departing from the scope of the following claims.

100: 전자 장치 190: 터치 스크린
220: 필기체 인식부 230: 단어 예측 엔진부
100: electronic device 190: touch screen
220: Handwriting recognition unit 230: Word prediction engine

Claims (21)

터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서,
상기 터치 스크린의 일정 영역에서 필기체의 입력을 수신하는 과정;
입력된 상기 필기체와 연관된 적어도 하나의 연관 단어와 입력된 상기 필기체와 연관된 적어도 하나의 제1예측 단어를 표시하는 과정;
표시된 상기 적어도 하나의 연관 단어와 표시된 상기 적어도 하나의 제1예측 단어 중 하나의 선택 단어를 결정하는 과정; 및
결정된 상기 선택 단어와 연관된 적어도 하나의 제2예측 단어를 표시하는 과정을 포함하는 방법.
A method of operating an electronic device including a touch screen,
Receiving input of a writing body in a predetermined area of the touch screen;
Displaying at least one associated word associated with the input handwriting and at least one first predicted word associated with the input handwriting;
Determining at least one associated word displayed and one selected word of the at least one first predicted word displayed; And
And displaying at least one second predicted word associated with the determined selected word.
제 1항에 있어서,
상기 필기체 입력은 상기 터치 스크린에 터치 입력 또는 호버링 입력을 포함하는 방법.
The method according to claim 1,
Wherein the handwriting input comprises a touch input or hovering input to the touch screen.
제 1항에 있어서,
상기 필기체 입력은 문자 입력이 가능한 메모, 문자 메시지, SNS(Social Networking Service) 어플리케이션 중 적어도 하나를 실행한 상태에서 입력하는 것을 포함하는 방법.
The method according to claim 1,
Wherein the handwritten input includes inputting at least one of a memo, a text message, and a Social Networking Service (SNS) application capable of inputting characters.
제 1항에 있어서,
상기 필기체의 입력을 수신하는 과정 다음에,
입력된 상기 필기체의 텍스트 캐릭터를 추출하는 과정을 추가하는 것을 포함하는 방법.
The method according to claim 1,
After receiving the input of the writing body,
And adding the input text character of the handwritten character.
제 4항에 있어서,
상기 터치 스크린의 일정 영역에서 상기 필기체의 입력을 수신하는 경우, 미리 정해진 필기체 형식의 필기체 폰트로 상기 텍스트 캐릭터와 가장 유사한 문자를 상기 필기체를 대신하여 입력하는 것을 포함하는 방법.
5. The method of claim 4,
And inputting a character most similar to the text character in place of the writing character in a predetermined cursive font of handwritten form when receiving the input of the cursive object in a certain area of the touch screen.
제 4항에 있어서,
상기 텍스트 캐릭터를 추출하는 과정은 입력된 상기 필기체의 터치 좌표, key code, key index 중 적어도 하나를 바탕으로 상기 텍스트 캐릭터를 결정하는 과정을 포함하는 방법.
5. The method of claim 4,
Wherein the step of extracting the text character comprises the step of determining the text character based on at least one of a touch coordinate, a key code and a key index of the input handwritten character.
제 6항에 있어서,
상기 적어도 하나의 연관 단어는 상기 텍스트 캐릭터와 대응되는 단어를 포함하는 방법.
The method according to claim 6,
Wherein the at least one associated word comprises a word corresponding to the text character.
제 7항에 있어서,
상기 적어도 하나의 제1예측 단어는 상기 적어도 하나의 연관 단어 중에서 상기 텍스트 캐릭터와 가장 대응되는 연관 단어를 포함하는 방법.
8. The method of claim 7,
Wherein the at least one first predictive word comprises an associated word most corresponding to the text character among the at least one associated word.
제 1항에 있어서,
표시된 상기 적어도 하나의 연관 단어와 표시된 상기 적어도 하나의 제1예측 단어 중 하나의 상기 선택 단어를 결정하는 과정 다음에,
결정된 상기 선택 단어를 입력하는 과정을 추가하는 것을 포함하는 방법.
The method according to claim 1,
Determining the at least one associated word displayed and the selected word of one of the at least one first predicted word displayed;
And adding the determined selection word.
제 9항에 있어서,
상기 적어도 하나의 제2예측 단어는 최근에 입력된 단어 또는 입력된 상기 선택 단어와 어법상으로 대응하는 단어를 포함하는 방법.
10. The method of claim 9,
Wherein the at least one second predicted word comprises a recently entered word or a word correspondingly worded with the entered selected word.
제 9항에 있어서,
상기 선택 단어의 입력은 미리 정해진 글자체로 입력하는 것을 포함하는 방법.
10. The method of claim 9,
Wherein the input of the selected word comprises inputting in a predetermined font.
제 9항에 있어서,
상기 선택 단어의 입력은 입력된 상기 필기체와 대응되는 필기체 폰트로 입력하는 것을 포함하는 방법.
10. The method of claim 9,
Wherein the input of the selected word comprises inputting with a handwritten font corresponding to the entered handwritten character.
제 1항에 있어서,
결정된 상기 선택 단어와 연관된 적어도 하나의 상기 제2예측 단어를 표시하는 과정 다음에,
표시된 상기 적어도 하나의 제2예측 단어 중 하나의 제2선택 단어를 결정하는 과정을 추가하는 것을 포함하는 방법.
The method according to claim 1,
And displaying at least one second predicted word associated with the determined selected word,
And adding one of the displayed at least one second predicted word to the second selected word.
제 13항에 있어서,
표시된 상기 적어도 하나의 제2예측 단어 중 하나의 상기 제2선택 단어를 결정하는 과정 다음에,
결정된 상기 제2선택 단어를 입력하는 과정을 추가하는 것을 포함하는 방법.
14. The method of claim 13,
After the step of determining the second selected word of one of the at least one second predicted word displayed,
And inputting the determined second selected word.
제 14항에 있어서,
상기 제2선택 단어의 입력은 미리 정해진 글자체로 입력하는 것을 포함하는 방법.
15. The method of claim 14,
And inputting the second selected word in a predetermined font.
제 14항에 있어서,
상기 제2선택 단어의 입력은 입력된 상기 필기체와 대응되는 필기체 폰트로 입력하는 것을 포함하는 방법.
15. The method of claim 14,
Wherein the input of the second selected word comprises inputting with a handwritten font corresponding to the input handwritten character.
제 14항에 있어서,
결정된 상기 제2선택 단어를 입력하는 과정 다음에,
입력된 상기 제2선택 단어와 연관된 적어도 하나의 제3예측 단어를 표시하는 과정을 추가하는 것을 포함하는 방법.
15. The method of claim 14,
After the determined second selected word is input,
And adding at least one third prediction word associated with the input second selected word.
제 17항에 있어서,
상기 적어도 하나의 제3예측 단어는 최근에 입력된 단어 또는 입력된 상기 제2선택 단어와 어법상으로 대응하는 단어를 포함하는 방법.
18. The method of claim 17,
Wherein the at least one third predictive word comprises a recently entered word or a word correspondingly worded with the inputted second selected word.
터치 스크린을 포함하는 전자 장치에 있어서,
상기 터치 스크린의 일정 영역에서 입력된 필기체의 텍스트 캐릭터를 추출하는 필기체 인식부;
상기 필기체 인식부로부터 추출된 상기 텍스트 캐릭터와 대응하는 적어도 하나의 연관 단어 및 적어도 하나의 예측 단어를 결정하는 단어 예측 엔진부; 및
상기 단어 예측 엔진부로부터 결정된 상기 적어도 하나의 연관 단어 및 상기 적어도 하나의 예측 단어를 상기 터치 스크린에 표시하도록 제어하는 프로세서를 포함하는 전자 장치.
An electronic device comprising a touch screen,
A handwriting recognition unit for extracting a text character of a handwriting input in a predetermined area of the touch screen;
A word prediction engine for determining at least one associated word and at least one predicted word corresponding to the text character extracted from the handwriting recognition unit; And
And a processor for controlling the display unit to display the at least one associated word and the at least one predicted word determined from the word prediction engine unit on the touch screen.
제 19항에 있어서,
상기 프로세서는 상기 적어도 하나의 연관 단어 및 상기 적어도 하나의 예측 단어 중 하나의 선택 단어를 입력하도록 제어하는 전자 장치.
20. The method of claim 19,
Wherein the processor controls to input the at least one associated word and one of the at least one predictive word.
제 20항에 있어서,
상기 단어 예측 엔진부는 기 저장된 데이터 베이스를 기반으로 최근에 입력된 단어 또는 입력된 상기 선택 단어와 어법상으로 대응하는 단어를 가지는 상기 예측 단어를 결정하는 전자 장치.
21. The method of claim 20,
Wherein the word prediction engine determines the recently entered word or the predicted word having a word corresponding to the inputted selected word based on a previously stored database.
KR20130100718A 2013-08-23 2013-08-23 Method for inputting script and electronic device thereof KR20150022597A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130100718A KR20150022597A (en) 2013-08-23 2013-08-23 Method for inputting script and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130100718A KR20150022597A (en) 2013-08-23 2013-08-23 Method for inputting script and electronic device thereof

Publications (1)

Publication Number Publication Date
KR20150022597A true KR20150022597A (en) 2015-03-04

Family

ID=53020562

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130100718A KR20150022597A (en) 2013-08-23 2013-08-23 Method for inputting script and electronic device thereof

Country Status (1)

Country Link
KR (1) KR20150022597A (en)

Similar Documents

Publication Publication Date Title
US10841265B2 (en) Apparatus and method for providing information
US10775967B2 (en) Context-aware field value suggestions
EP3120344B1 (en) Visual indication of a recognized voice-initiated action
US8751971B2 (en) Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
US20150309997A1 (en) Mobile device having human language translation capability with positional feedback
EP3300008A1 (en) Method and apparatus for recommending texts
US20140267130A1 (en) Hover gestures for touch-enabled devices
AU2017358278B2 (en) Method of displaying user interface related to user authentication and electronic device for implementing same
EP3627303A1 (en) Method and apparatus for providing user interface of portable device
EP3144784B1 (en) Mobile terminal and control method for the mobile terminal
US20090225034A1 (en) Japanese-Language Virtual Keyboard
US20140104178A1 (en) Electronic device for performing mode coversion in performing memo function and method thereof
CN105094661A (en) Mobile terminal and method of controlling the same
KR20150051292A (en) Method for sharing contents and electronic device thereof
TWI554900B (en) Apparatus and method for providing information
CN103870133A (en) Method and apparatus for scrolling screen of display device
KR20140120972A (en) Method and apparatus for inputting text in electronic device having touchscreen
KR20140027838A (en) A mobile apparatus having a function of hand writing using multi-touch and a control method thereof
KR20160016545A (en) Method for Providing Information and Device thereof
US9342736B2 (en) Electronic device having sensor unit and operating method thereof
EP3457269B1 (en) Electronic device and method for one-handed operation
KR20160042610A (en) Mobile terminal and method for controlling the same
KR20150022597A (en) Method for inputting script and electronic device thereof
EP3671443B1 (en) User terminal device and control method therefor
US20150242004A1 (en) Touch-sensitive input device having a logo displayed thereon for use in a mobile electronic device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application