KR20120134162A - Method and apparatus for inputting character in electronic device - Google Patents

Method and apparatus for inputting character in electronic device Download PDF

Info

Publication number
KR20120134162A
KR20120134162A KR1020110052090A KR20110052090A KR20120134162A KR 20120134162 A KR20120134162 A KR 20120134162A KR 1020110052090 A KR1020110052090 A KR 1020110052090A KR 20110052090 A KR20110052090 A KR 20110052090A KR 20120134162 A KR20120134162 A KR 20120134162A
Authority
KR
South Korea
Prior art keywords
touch
character
voice signal
input
electronic device
Prior art date
Application number
KR1020110052090A
Other languages
Korean (ko)
Other versions
KR101766301B1 (en
Inventor
전현필
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110052090A priority Critical patent/KR101766301B1/en
Publication of KR20120134162A publication Critical patent/KR20120134162A/en
Application granted granted Critical
Publication of KR101766301B1 publication Critical patent/KR101766301B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A character input method in an electronic device and a device thereof are provided to enable the blind to more easily input characters by mapping the characters with coordinates of a touch screen and outputting characters corresponding to the coordinates as a voice signal. CONSTITUTION: An electronic device maps characters with each coordinate of a screen(203). If a user touch to the screen is sensed, the electronic device searches for the characters mapped with the coordinates sensing the user touch(205,207). The electronic device outputs a voice signal of the searched characters(209). If the user touch is moved, the electronic device outputs the voice signal of the characters mapped with the coordinates corresponding to touch movement(213). [Reference numerals] (201) Entering a character input mode; (203) Mapping characters with each coordinate on a screen; (205) Is a user touch generated ?; (207) Searching for a voice signal of the characters mapped with the touch coordinates; (209) Outputting a searched voice signal; (211) Moving/releasing the user touch?; (213) Outputting a voice signal of the characters mapped with corresponding coordinates according to touch movement; (215) Storing and inputting characters corresponding to a voice lastly outputted; (AA) Start; (BB) No; (CC) Yes; (DD) Release; (EE) Movement

Description

전자기기에서 문자 입력 방법 및 장치{METHOD AND APPARATUS FOR INPUTTING CHARACTER IN ELECTRONIC DEVICE}METHOD AND APPARATUS FOR ELECTRONIC DEVICES {METHOD AND APPARATUS FOR INPUTTING CHARACTER IN ELECTRONIC DEVICE}

본 발명은 전자기기에서 문자 입력에 관한 기술로서, 특히 시각 장애인의 문자 입력 방법 및 장치에 관한 것이다.
The present invention relates to a text input technology in an electronic device, and more particularly, to a text input method and apparatus for a visually impaired person.

최근 이동통신 단말기 및 휴대용 단말기 등과 같은 전자 기기들의 사용이 증가하는 추세에 있으며, 이에 따라 서비스 제공자들은 많은 사용자를 확보하기 위해 더욱 편리한 기능을 갖는 전자 기기들을 경쟁적으로 개발하고 있다. 예를 들어, 전자 기기에서 문자를 효율적으로 입력하기 위한 다양한 방식들이 제공되고 있다. 그러나, 종래에 제공되는 문자 입력 방식들은 일반적인 사용자들을 위한 것이므로, 시각 장애인들이 이용하기 어려운 단점이 있다.Recently, the use of electronic devices such as mobile communication terminals and portable terminals has been increasing. Accordingly, service providers are competitively developing electronic devices having more convenient functions to secure a large number of users. For example, various methods for efficiently inputting characters in electronic devices have been provided. However, since the character input methods provided in the related art are for general users, they are difficult to use by the visually impaired.

종래 전자기기에서는 시각 장애인들을 위해 음성 인식을 이용한 문자 입력 방식을 제공하고 있다. 예를 들어, 전자기기가 사용자의 음성을 인식하고, 인식된 음성에 대응하는 문자를 자동으로 입력하는 방식을 제공하고 있다. 그러나, 이와 같이 음성을 인식하여 문자를 입력하는 방식은 주변 소음에 따라 음성 인식율이 저하되는 경우, 문자가 오 입력될 수 있는 단점이 있다. 또한, 상기 음성을 인식하여 문자를 입력하는 방식은, 사용자가 말을 하기 어려운 상황에 처한 경우 혹은 상기 사용자가 말하는 것이 불편한 경우에는 사용할 수 없게 되는 단점이 있다.
Conventional electronic devices provide a text input method using speech recognition for the visually impaired. For example, the electronic device recognizes a user's voice and provides a method of automatically inputting a character corresponding to the recognized voice. However, the method of inputting a character by recognizing the voice as described above has a disadvantage in that a character may be incorrectly input when the voice recognition rate is lowered according to the ambient noise. In addition, the method of inputting a character by recognizing the voice has a disadvantage in that it cannot be used when the user is in a difficult situation to speak or when the user is uncomfortable to speak.

본 발명은 상술한 바와 같은 문제점을 해결하기 위해 도출된 것으로서, 본 발명의 목적은 전자기기에서 문자 입력 방법 및 장치를 제공함에 있다.The present invention is derived to solve the above problems, an object of the present invention to provide a character input method and apparatus in an electronic device.

본 발명의 다른 목적은 전자기기에서 터치스크린의 좌표에 문자를 매핑하고, 사용자의 터치 동작을 감지하여 문자를 입력하는 방법 및 장치를 제공함에 있다.Another object of the present invention is to provide a method and apparatus for mapping a character to coordinates of a touch screen in an electronic device and inputting the character by detecting a user's touch operation.

본 발명의 또 다른 목적은 전자기기에서 터치스크린의 좌표에 문자를 매핑하고, 사용자의 터치 좌표에 대응하는 문자를 음성 신호로 출력하여 시각 장애인의 문자 입력을 용이하게 하는 문자 입력 방법 및 장치를 제공함에 있다.
It is another object of the present invention to provide a character input method and apparatus for mapping a character to coordinates of a touch screen in an electronic device and outputting a character corresponding to the touch coordinates of a user as a voice signal to facilitate inputting a character of the visually impaired. Is in.

상술한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 전자기기에서 문자 입력 방법은, 화면의 각 좌표에 문자를 매핑하는 과정과, 상기 화면에 대한 사용자 터치를 감지하는 과정과, 사용자 터치가 감지된 화면의 좌표에 매핑된 문자를 검색하는 과정과, 상기 검색된 문자의 음성신호를 출력하는 과정을 포함하는 것을 특징으로 한다.According to a first aspect of the present invention for achieving the above object, the character input method in the electronic device, the process of mapping the character to each coordinate of the screen, the process of detecting the user touch on the screen, the user touch And searching for a character mapped to the detected coordinates of the screen, and outputting a voice signal of the searched character.

상술한 목적들을 달성하기 위한 본 발명의 제 2 견지에 따르면, 전자기기에서 문자 입력 장치는, 상기 화면에 대한 사용자 터치를 감지하는 감지부와, 화면의 각 좌표에 문자를 매핑하고, 사용자 터치가 감지된 화면의 좌표에 매핑된 문자를 검색하는 제어부와, 상기 검색된 문자의 음성신호를 출력하는 음성 출력부를 포함하는 것을 특징으로 한다.
According to a second aspect of the present invention for achieving the above objects, the character input device in the electronic device, a sensing unit for detecting a user touch on the screen, and maps the character to each coordinate of the screen, And a controller for searching for a character mapped to the detected screen coordinates, and a voice output unit for outputting a voice signal of the found character.

본 발명은 전자기기에서 터치스크린의 좌표에 문자를 매핑하고, 사용자의 터치 좌표에 대응하는 문자를 음성 신호로 출력함으로써, 시각 장애인이 보다 용이하게 문자를 입력할 수 있으며, 주변 환경에 관계없이 문자를 정확하게 입력할 수 있는 효과가 있다.
The present invention by mapping the character to the coordinates of the touch screen in the electronic device, by outputting the character corresponding to the user's touch coordinates as a voice signal, the visually impaired can easily enter the character, regardless of the surrounding environment There is an effect that can be entered correctly.

도 1은 본 발명에 따른 전자기기의 블럭 구성을 도시하는 도면,
도 2는 본 발명의 실시 예에 따른 전자기기에서 문자 입력 절차를 도시하는 도면,
도 3a와 3b는 본 발명의 실시 예에 따른 전자기기에서 한글 입력 절차를 도시하는 도면,
도 4 및 도 5는 본 발명의 실시 예에 따른 전자기기에서 한글 입력 방식을 도시하는 도면,
도 6은 본 발명의 실시 예에 따른 전자기기에서 한글 입력 방식을 이용한 폰북 기능을 도시하는 도면,
도 7 및 8은 본 발명의 실시 예에 따른 전자기기에서 영문 입력 방식을 도시하는 도면,
도 9는 본 발명의 실시 예에 따른 전자기기에서 영문 입력 방식을 이용한 폰북 기능을 도시하는 도면,
도 10a 및 도 10b는 본 발명의 다른 실시 예에 따른 전자기기에서 단어 추천을 이용한 영문 입력 절차를 도시하는 도면, 및
도 11 및 도 12는 본 발명의 다른 실시 예에 따른 전자기기에서 단어 추천을 이용한 영문 입력 방식을 도시하는 도면.
1 is a block diagram showing an electronic device according to the present invention;
2 is a diagram illustrating a character input procedure in an electronic device according to an embodiment of the present disclosure;
3A and 3B illustrate a Hangul input procedure in an electronic device according to an embodiment of the present invention;
4 and 5 are diagrams showing a Hangul input method in an electronic device according to an embodiment of the present invention;
6 is a diagram illustrating a phone book function using a Hangul input method in an electronic device according to an embodiment of the present invention;
7 and 8 are views illustrating an English input method in an electronic device according to an embodiment of the present invention;
9 is a diagram illustrating a phone book function using an English input method in an electronic device according to an embodiment of the present invention;
10A and 10B illustrate an English input procedure using word recommendation in an electronic device according to another embodiment of the present invention; and
11 and 12 are diagrams illustrating an English input method using word recommendation in an electronic device according to another embodiment of the present invention.

이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, detailed descriptions of related well-known functions or configurations will be omitted if it is determined that the detailed description of the present invention may unnecessarily obscure the subject matter of the present invention. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to intention or custom of a user or an operator. Therefore, the definition should be based on the contents throughout this specification.

이하 본 발명에서는 전자기기에서 터치스크린의 좌표에 문자를 매핑하고, 사용자의 터치 동작을 감지하여 문자를 입력하는 방법 및 장치에 관해 설명할 것이다.Hereinafter, a method and apparatus for mapping a character to coordinates of a touch screen in an electronic device and inputting a character by detecting a user's touch operation will be described.

도 1은 본 발명에 따른 전자기기의 블럭 구성을 도시하고 있다.1 shows a block configuration of an electronic device according to the present invention.

상기 도 1을 참조하면, 상기 전자기기는 제어부(100), 입출력부(110), 음성 출력부(120) 및 저장부(130)를 포함하여 구성되며, 특히 상기 제어부(100)는 문자 입력 제어부(102)를 포함하여 구성되고, 상기 입출력부(110)는 터치스크린 패널(112)을 포함하여 구성된다.Referring to FIG. 1, the electronic device includes a control unit 100, an input / output unit 110, a voice output unit 120, and a storage unit 130. In particular, the control unit 100 includes a text input control unit. 102, the input / output unit 110 includes a touch screen panel 112.

먼저, 상기 제어부(100)는 상기 전자기기의 전반적인 동작을 제어 및 처리하며, 본 발명에 따라 상기 문자 입력 제어부(102)를 포함함으로써 시각 장애인의 문자 입력을 용이하게 하는 문자 입력 방식을 제공하기 위한 기능을 제어 및 처리한다.First, the control unit 100 controls and processes the overall operation of the electronic device, and includes a text input control unit 102 in accordance with the present invention to provide a text input method for facilitating the text input of the visually impaired Control and handle the functions.

즉, 상기 문자 입력 제어부(102)는 문자 입력 모드 진입 시, 터치스크린의 각 좌표에 문자를 매핑하고, 사용자의 터치를 감지하여 터치된 좌표에 매핑된 문자의 음성 신호를 출력하기 위한 기능을 제어 및 처리한다. 또한, 상기 문자 입력 제어부(102)는 사용자의 터치 동작(예: 터치 방향 전환, 터치 해제 등)을 감지하여 터치 좌표에 대응하는 문자 혹은 마지막에 출력된 음성 신호에 대응하는 문자를 저장 및 입력하기 위한 기능을 제어 및 처리한다. 또한, 상기 문자 입력 제어부(102)는 사용자의 터치 방향 전환에 따라 문자 입력 모드를 전환할 수 있다. 예를 들어, 상기 문자 입력 제어부(102)는 사용자의 터치가 상하 방향으로 이동하는 경우, 자음 입력 모드로 동작하고, 상기 사용자의 터치가 좌우 방향으로 이동하는 경우, 모음 입력 모드로 전환하여 동작할 수 있을 것이다. 물론, 설계 방식에 따라 상기 문자 입력 제어부(102)는 사용자의 터치 방향이 전환될 경우, 한글 입력 모드에서 영문 입력 모드로 전환하도록 제어할 수도 있다. 또한, 상기 문자 입력 제어부(102)는 현재 터치 좌표에 대응하는 문자와 이전에 입력된 문자의 결합 가능 여부를 결정하여, 결합이 가능할 시, 상기 현재 터치 좌표에 대응하는 문자와 이전에 입력된 문자를 결합하여 결합된 문자의 음성 신호를 출력하기 위한 기능을 제어 및 처리한다. That is, the character input control unit 102 controls a function of mapping a character to each coordinate of the touch screen when the character input mode is entered, and outputting a voice signal of the character mapped to the touched coordinate by sensing a user's touch. And processing. In addition, the text input control unit 102 detects a user's touch operation (for example, changing a touch direction or releasing a touch), and stores and inputs a text corresponding to touch coordinates or a text corresponding to a voice signal output at the end. Control and process functions In addition, the text input controller 102 may switch the text input mode according to the user's touch direction change. For example, the text input controller 102 operates in a consonant input mode when the user's touch moves in the up and down direction, and switches to the vowel input mode when the user's touch moves in the left and right directions. Could be. Of course, according to the design method, the character input control unit 102 may control to switch from the Korean input mode to the English input mode when the user's touch direction is changed. In addition, the character input control unit 102 determines whether the character corresponding to the current touch coordinates and the previously input character can be combined, and when the combination is possible, the character corresponding to the current touch coordinates and the character previously inputted. To control and process the function for outputting the voice signal of the combined character.

상기 문자 입력 제어부(102)는 설계 방식에 따라 다양한 방식으로 터치스크린의 좌표에 문자를 매핑할 수 있다. 예를 들어, 터치스크린의 Y축 좌표 각각에 자음을 순서대로 매핑할 수 있고, X축 좌표 각각에 모음을 순서대로 매핑할 수 있다. 예를 들어, 한글 입력 모드의 경우, (x,0)에 자음 "ㄱ"을 매핑하고, (x,1)에 "ㄴ"을 매핑하고, (x,2)에 "ㄷ"을 매핑하는 방식으로, x축 좌표에 관계없이 Y축 좌표에 대하여 자음들을 순서대로 매핑할 수 있다. 또한, 한글 입력 모드의 경우, (0,y)에 모음 "ㅏ"를 매핑하고, (1,y)에 "ㅑ"를 매핑하고, (2,y)에 "ㅓ"을 매핑하는 방식으로, y축 좌표에 관계없이 x축 좌표에 대하여 모음들을 순서대로 매핑할 수 있다. 이러한 문자 매핑 방식은 영어 입력 모드에도 동일하게 적용될 수 있을 것이다. 여기서, 각각의 문자가 매핑되는 좌표의 간격은 터치스크린의 크기를 고려하여 설정될 수 있으며, 설계 방식에 따라 변경 가능할 것이다. 예를 들어, (x,0) , (x,1), (x,2), ..., (x,y)에 자음을 순서대로 매핑할 수도 있으며, (x,0) , (x,3), (x,6), ..., (x,y)에 자음을 순서대로 매핑할 수도 있을 것이다. 또한, (0,y), (1,y), (2,y), ..., (x,y)에 모음을 순서대로 매핑할 수도 있으며, (0,y), (2,y), (4,y), ..., (x,y)에 자음을 순서대로 매핑할 수도 있을 것이다. The character input control unit 102 may map a character to coordinates of the touch screen in various ways according to a design method. For example, consonants may be mapped to each of the Y-axis coordinates of the touch screen in order, and a vowel may be mapped to each of the X-axis coordinates in order. For example, in Korean input mode, the consonant "ㄱ" is mapped to (x, 0), "b" is mapped to (x, 1), and "c" is mapped to (x, 2). For example, consonants may be sequentially mapped to Y-axis coordinates regardless of the x-axis coordinates. In the case of the Korean input mode, the vowel "ㅏ" is mapped to (0, y), the "ㅑ" is mapped to (1, y), and the "ㅓ" is mapped to (2, y). You can map vowels in order to the x-axis coordinates regardless of the y-axis coordinates. This character mapping method may be equally applied to the English input mode. Here, the interval of the coordinates to which each character is mapped may be set in consideration of the size of the touch screen, and may be changed according to a design method. For example, you can map consonants to (x, 0), (x, 1), (x, 2), ..., (x, y) in order, and (x, 0), (x, 3), (x, 6), ..., (x, y) may be mapped in order. You can also map vowels to (0, y), (1, y), (2, y), ..., (x, y) in order, and (0, y), (2, y) You might map consonants to, (4, y), ..., (x, y) in order.

상기 입출력부(110)는 상기 전자기기의 동작 중에 발생되는 각종 상태 정보와 문자, 숫자 및 영상을 디스플레이하는 표시부(미도시)와 사용자로부터 데이터를 입력받는 입력부(미도시)를 포함하여 구성된다. 특히 상기 입출력부(110)는 본 발명에 따라 터치스크린패널(110)을 포함하여 구성됨으로써, 상기 터치스크린패널(110)을 통해 상기 전자기기의 동작 중에 발생되는 다양한 정보들을 디스플레이하고, 사용자 터치를 감지하여 터치된 위치의 좌표를 상기 제어부(100)로 제공한다. 특히, 상기 터치스크린패널(110)은 본 발명에 따라, 문자 입력 모드에서 하기 도 4 내지 도 8에 도시된 바와 같이, 터치된 위치의 좌표에 매핑된 문자와 터치의 이동 방향에 대응하는 좌표들에 매핑된 문자들을 디스플레이할 수 있다. 또한 상기 터치스크린패널(110)은 본 발명에 따라, 사용자의 터치 시작 위치의 좌표, 터치 이동에 대응하는 좌표들 및 터치 해제 위치의 좌표를 상기 제어부(100)로 제공할 수 있다. 여기서, 상기 터치 이동에 대응하는 좌표들을 통해 상기 제어부(100)가 터치 이동의 방향이 전환되었음을 감지할 수 있을 것이다.The input / output unit 110 includes a display unit (not shown) for displaying various state information, letters, numbers, and images generated during the operation of the electronic device, and an input unit (not shown) for receiving data from a user. In particular, the input / output unit 110 is configured to include a touch screen panel 110 according to the present invention, thereby displaying a variety of information generated during the operation of the electronic device through the touch screen panel 110, the user touch The controller detects and provides the coordinates of the touched position to the controller 100. In particular, the touch screen panel 110 according to the present invention, in the character input mode, as shown in Figures 4 to 8 below, the coordinates corresponding to the movement direction of the character and the touch mapped to the coordinate of the touched position It can display characters mapped to. In addition, according to the present invention, the touch screen panel 110 may provide the controller 100 with coordinates of a user's touch start position, coordinates corresponding to a touch movement, and coordinates of a touch release position. Here, the control unit 100 may detect that the direction of the touch movement has been switched through coordinates corresponding to the touch movement.

상기 음성 출력부(120)는 상기 제어부(100)의 제어에 따라 전자기기의 동작 중에 발생되는 음성 신호를 출력한다. 특히, 본 발명에 따라 상기 음성 출력부(120)는 문자 입력 모드에서, 사용자의 터치 위치의 좌표에 대응하는 문자의 음성 신호를 출력한다. 여기서, 상기 음성 출력부(120)는 상기 제어부(100)로부터 상기 저장부(130)에 저장된 디지털 음성 신호를 제공받아 아날로그 신호로 변환하여 출력할 수 있다. The voice output unit 120 outputs a voice signal generated during the operation of the electronic device under the control of the controller 100. In particular, according to the present invention, the voice output unit 120 outputs a voice signal of a text corresponding to the coordinate of the touch position of the user in the text input mode. Here, the voice output unit 120 may receive a digital voice signal stored in the storage unit 130 from the controller 100 and convert the digital voice signal into an analog signal.

상기 저장부(130)는 상기 전자기기의 동작에 필요한 각종 프로그램 및 데이터를 저장한다. 특히, 상기 저장부(130)는 본 발명에 따라 상기 제어부(100)의 제어에 따라 터치스크린의 각 좌표와 문자의 매핑 관계를 나타내는 테이블을 저장하고, 상기 각 문자에 대응하는 음성 신호를 저장한다. 상기 저장부(130)는 상기 제어부(100)의 제어에 따라 복수의 문자 입력 모드 별로 각 좌표와 문자의 매핑 관계를 나타내는 테이블을 저장한다. 예를 들어, 상기 저장부(130)는 Y축 좌표와 한글의 자음 간의 매핑 관계를 나타내는 테이블, X축 좌표와 한글의 모음 간의 매핑 관계를 나타내는 테이블, Y축 좌표와 영어의 자음 간의 관계를 나타내는 테이블, X축 좌표와 영어의 모음 간의 매핑관계를 나타내는 테이블 등을 저장할 수 있다.
The storage unit 130 stores various programs and data necessary for the operation of the electronic device. In particular, the storage unit 130 stores a table indicating a mapping relationship between the coordinates and the characters of the touch screen under the control of the controller 100 according to the present invention, and stores a voice signal corresponding to each character. . The storage unit 130 stores a table indicating a mapping relationship between each coordinate and a character for each of a plurality of character input modes under the control of the controller 100. For example, the storage unit 130 is a table indicating the mapping relationship between the Y-axis coordinates and the Hangul consonants, a table indicating the mapping relationship between the X-axis coordinates and the Korean vowels, and represents a relationship between the Y-axis coordinates and the English consonants. A table, a table representing a mapping relationship between X-axis coordinates and an English vowel, can be stored.

도 2는 본 발명의 실시 예에 따른 전자기기에서 문자 입력 절차를 도시하고 있다.2 illustrates a text input procedure in an electronic device according to an embodiment of the present disclosure.

상기 도 2를 참조하면, 상기 전자기기는 201단계에서 문자 입력 모드로 진입한다. 여기서, 상기 문자 입력 모드로의 진입은 미리 설정된 단축키 입력, 음성 인식, 더블 터치 등과 같은 다양한 방법을 통해 수행될 수 있으며, 특정 방법에 대해 한정되지 않을 것이다.Referring to FIG. 2, the electronic device enters a text input mode in step 201. In this case, the entry into the text input mode may be performed through various methods such as a preset hotkey input, voice recognition, double touch, and the like, and will not be limited to a specific method.

상기 전자기기는 203단계에서 미리 설정된 방식에 따라 화면의 각 좌표에 문자들을 매핑하고, 205단계로 진행하여 사용자 터치가 발생되는지 여부를 감지한다.The electronic device maps the characters to the coordinates of the screen according to a preset method in step 203, and proceeds to step 205 to detect whether a user touch is generated.

상기 사용자 터치가 감지될 시, 상기 전자기기는 207단계로 진행하여 사용자에 의해 터치된 좌표에 매핑된 문자의 음성 신호를 검색한다. 이후, 상기 전자기기는 상기 검색된 음성 신호를 출력하여 사용자가 청취할 수 있도록 한다.When the user's touch is detected, the electronic device proceeds to step 207 to search for a voice signal of a character mapped to coordinates touched by the user. Thereafter, the electronic device outputs the searched voice signal so that the user can listen.

이후, 상기 전자기기는 211단계에서 상기 사용자 터치가 이동하거나 해제되는지 여부를 검사한다. 즉, 상기 전자기기는 사용자가 터치를 해제하지 않은 상태에서 드래그되어 다른 위치로 이동하거나 상기 사용자 터치가 해제되는지 여부를 검사한다. In step 211, the electronic device determines whether the user touch is moved or released. That is, the electronic device is dragged without the user releasing the touch to move to another position or check whether the user touch is released.

만일, 상기 사용자 터치가 해제되지 않고 드래그되어 다른 위치로 이동하는 경우, 상기 전자기기는 213단계로 진행하여 터치가 이동함에 따라 대응하는 좌표에 매핑된 문자의 음성 신호를 출력한 후, 상기 211단계로 되돌아간다. 이때, 상기 전자기기는 설계 방식에 따라 사용자의 터치가 이동하는 경로에 포함된 좌표들 각각에 매핑된 문자의 음성 신호를 순차적으로 모두 출력할 수도 있고, 상기 사용자의 터치가 특정 위치에 임계 시간 이상 머무르는 경우에만, 해당 위치의 좌표에 매핑된 문자의 음성 신호를 출력할 수도 있을 것이다. 예를 들어, 화면의 A, B, C, ..., G 위치의 각 좌표에 문자 "ㄱ", "ㄴ", "ㄷ", ..., "ㅅ"이 매핑된 상태에서 사용자가 A 위치를 터치한 후 드래그하여 B, C 및 D를 터치한 경우, A, B, C, D 위치에 매핑된 문자 "ㄱ", "ㄴ", "ㄷ", "ㄹ"의 음성 신호를 순차적으로 출력할 수도 있으며, 이때 상기 터치가 B 위치와 C 위치에서는 임계 시간 이하로 머무르고, 상기 터치가 상기 A 위치와 D 위치에서는 임계 시간 이상으로 머무른 경우, 상기 A 위치와 C 위치에 매핑된 문자 "ㄱ", "ㄹ"의 음성 신호만 순차적으로 출력할 수 있을 것이다.If the user touch is not released and is dragged to move to another position, the electronic device proceeds to step 213 and outputs a voice signal of a character mapped to a corresponding coordinate as the touch moves, and then, step 211. Return to In this case, the electronic device may sequentially output all the voice signals of the text mapped to each of the coordinates included in the path in which the user's touch moves according to a design method, and the user's touch is above a threshold time at a specific location. Only in case of staying, a voice signal of a character mapped to a coordinate of a corresponding position may be output. For example, with the letters "ㄱ", "ㄴ", "ㄷ", ..., and "ㅅ" mapped to each coordinate at positions A, B, C, ..., G on the screen, If you touch the location and drag to touch B, C, and D, the voice signals of the letters "ㄱ", "ㄴ", "ㄷ", and "ㄹ" mapped to positions A, B, C, and D are sequentially In this case, when the touch stays less than or equal to the threshold time in the B position and the C position, and the touch stays longer than or equal to the threshold time in the A position and the D position, the letter mapped to the A and C positions Only voice signals of "," d "may be output sequentially.

또한, 여기서 상기 음성 신호 출력 시, 현재 위치의 좌표에 매핑된 문자와 이전에 입력 및 저장된 문자의 결합 가능 여부를 결정하여, 결합 가능한 경우 상기 현재 위치의 좌표에 매핑된 문자와 이전에 입력 및 저장된 문자를 결합하여, 결합 문자의 음성 신호를 출력할 수 있을 것이다. 여기서 결합 가능 여부는 미리 저장된 문자 결합 방식 혹은 단어 DB 등을 통해 결정할 수 있을 것이다.In addition, when the voice signal is output, it is determined whether the text mapped to the coordinates of the current position and the previously input and stored characters can be combined. By combining the characters, the voice signal of the combined characters may be output. Here, whether or not it can be combined may be determined through a pre-stored character combining method or a word DB.

반면, 상기 전자기기는 상기 사용자 터치가 해제되는 경우, 즉, 사용자의 화면 접촉이 종료되는 경우, 상기 전자기기는 215단계로 진행하여 마지막에 출력된 음성에 대응하는 문자를 저장 및 입력하고, 상기 215단계로 되돌아가 이하 단계를 재수행한다.
In contrast, when the user touch is released, that is, when the user touches the screen, the electronic device proceeds to step 215 and stores and inputs a character corresponding to the last output voice. The process returns to step 215 to perform the following steps again.

도 3a와 3b는 본 발명의 실시 예에 따른 전자기기에서 한글 입력 절차를 도시하고 있다. 상기 도 3a와 3b에서는 설명의 편의를 위하여 Y축 좌표에 대하여 한글의 자음을 매핑하고, X축 좌표에 대하여 한글의 모음을 매핑하는 경우를 예를 들어 상세하게 설명하기로 한다. 그러나, 상기 도 3a와 3b의 설명은 본 발명의 요지를 벗어나지 않는 범위 내에서 다양하게 변경될 수 있다. 예를 들어, Y축 좌표에 대하여 영어의 자음을 매핑하고, X축 좌표에 대하여 영어의 자음을 매핑하는 경우에도 동일한 방식으로 적용 가능하며, Y축 좌표에 대하여 한글 혹은 영어의 모음을 매핑하고, X축 좌표에 대하여 한글 혹은 영어의 자음을 매핑하는 경우에도 동일한 방식으로 적용될 수 있을 것이다.3A and 3B illustrate a Hangul input procedure in an electronic device according to an embodiment of the present invention. 3A and 3B, a case in which Korean consonants are mapped to Y-axis coordinates and Korean vowels are mapped to X-axis coordinates will be described in detail with reference to FIG. 3A and 3B. However, the descriptions of FIGS. 3A and 3B may be variously changed without departing from the gist of the present invention. For example, in the case of mapping English consonants to the Y-axis coordinates, and English consonants to the X-axis coordinates can be applied in the same way, it is possible to map Korean or English vowels to the Y-axis coordinates, The same applies to the case of mapping Korean or English consonants to the X-axis coordinates.

상기 도 3a와 3b를 참조하면, 상기 전자기기는 301단계에서 문자 입력 모드로 진입한다. 여기서, 상기 문자 입력 모드로의 진입은 미리 설정된 단축키 입력, 음성 인식, 더블 터치 등과 같은 다양한 방법을 통해 수행될 수 있으며, 특정 방법에 대해 한정되지 않을 것이다.3A and 3B, the electronic device enters a text input mode in step 301. In this case, the entry into the text input mode may be performed through various methods such as a preset hotkey input, voice recognition, double touch, and the like, and will not be limited to a specific method.

상기 전자기기는 303단계에서 미리 설정된 방식에 따라 화면의 Y축 좌표에 대해 자음을 순서대로 매핑하고, X축 좌표에 대해 모음을 순서대로 매핑한다. 예를 들어, (x,0)에 "ㄱ"을 매핑하고, (x,1)에 "ㄴ"을 매핑하고, (x,2)에 "ㄷ"을 매핑하는 방식으로, x축 좌표에 관계없이 Y축 좌표에 대하여 자음들을 순서대로 매핑하고, (0,y)에 "ㅏ"를 매핑하고, (1,y)에 "ㅑ"를 매핑하고, (2,y)에 "ㅓ"을 매핑하는 방식으로, y축 좌표에 관계없이 x축 좌표에 대하여 모음들을 순서대로 매핑할 수 있다. 여기서, 각각의 문자가 매핑되는 좌표 간의 간격은 터치스크린의 크기를 고려하여 설정될 수 있으며, 설계 방식에 따라 변경 가능할 것이다. 예를 들어, (x,0) , (x,1), (x,2), ,,, (x,y)에 자음을 순서대로 매핑할 수도 있으며, (x,0) , (x,3), (x,6), ,,, (x,y)에 자음을 순서대로 매핑할 수도 있을 것이다. In step 303, the electronic device maps consonants to Y-axis coordinates of the screen in order and maps vowels to X-axis coordinates in order. For example, mapping "a" to (x, 0), "b" to (x, 1), and "c" to (x, 2). Map consonants in order for Y-axis coordinates, map "ㅏ" to (0, y), map "ㅑ" to (1, y), and map "ㅓ" to (2, y) In this way, the vowels can be mapped in order to the x-axis coordinates regardless of the y-axis coordinates. Here, the interval between the coordinates to which each character is mapped may be set in consideration of the size of the touch screen, and may be changed according to a design method. For example, you can map consonants to (x, 0), (x, 1), (x, 2), ,,, (x, y) in order, and (x, 0), (x, 3) You can map consonants to (x, 6), ,,, (x, y) in order.

이후, 상기 전자기기는 305단계에서 사용자 터치가 발생되는지 여부를 감지한다.In operation 305, the electronic device detects whether a user touch is generated.

상기 사용자 터치가 감지될 시, 상기 전자기기는 307단계로 진행하여 사용자에 의해 터치된 좌표를 확인하고, 상기 확인된 좌표의 Y축에 매핑된 자음의 음성 신호를 검색한다. 이후, 상기 전자기기는 309단계로 진행하여 상기 검색된 음성 신호를 출력하여 사용자가 청취할 수 있도록 한다. 예를 들어, 상기 도 4(a)에 나타낸 바와 같이, 사용자가 터치한 위치의 Y축 좌표에 "ㄴ(401)"이 매핑된 경우, 상기 "ㄴ"을 나타내는 음성 신호 "니은"을 출력한다.When the user's touch is detected, the electronic device proceeds to step 307 to identify the coordinates touched by the user and to search for a voice signal of a consonant mapped to the Y axis of the identified coordinates. In step 309, the electronic device outputs the searched voice signal so that the user can listen. For example, as shown in FIG. 4 (a), when "b 401" is mapped to the Y-axis coordinate of the position touched by the user, the voice signal "ni" indicating the "b" is output. .

이후, 상기 전자기기는 311단계에서 상기 사용자 터치가 이동하거나 해제되는지 여부를 검사한다. 즉, 상기 전자기기는 사용자가 터치를 해제하지 않은 상태에서 드래그되어 다른 위치로 이동하거나 상기 사용자 터치가 해제되는지 여부를 검사한다. In operation 311, the electronic device determines whether the user touch is moved or released. That is, the electronic device is dragged without the user releasing the touch to move to another position or check whether the user touch is released.

만일, 상기 사용자 터치가 해제되는 경우, 상기 전자기기는 315단계로 진행하여 마지막으로 출력된 음성 신호에 대응하는 문자를 저장 및 입력하고, 상기 305단계로 되돌아가 이하 단계를 재수행한다. 예를 들어, 마지막으로 출력된 음성 신호가 "니은"인 경우, 상기 전자기기는 문자 "ㄴ"을 입력되었음을 인지하고, 상기 문자 "ㄴ"을 대응하는 문자 입력 창에 입력하고 이를 저장한다.If the user touch is released, the electronic device proceeds to step 315 to store and input a character corresponding to the last output voice signal, and returns to step 305 to perform the following steps again. For example, when the last output voice signal is "ni", the electronic device recognizes that the letter "b" is input, and inputs the letter "b" into the corresponding text input window and stores it.

반면, 상기 사용자 터치가 해제되지 않고 화면 접촉을 유지한 상태로 다른 위치로 이동하는 경우, 상기 전자기기는 313단계로 진행하여 상기 터치의 이동 방향이 Y축에 대응하는 방향인지 여부를 검사한다. 만일, 상기 터치의 이동 방향이 Y축에 대응하는 이동방향인 경우, 상기 전자기기는 317단계로 진행하여 터치의 이동 위치에 대응하는 Y축 좌표에 매핑된 자음의 음성 신호를 검색하고, 319단계로 진행하여 검색된 음성 신호를 출력한다. 예를 들어, 상기 도 4(a)에 나타낸 바와 같이, 사용자가 "ㄴ(401)"이 매핑된 위치를 터치한 후, 터치를 유지한 상태에서 아래로 이동하는 경우, 이동한 위치의 Y축 좌표에 매핑된 문자 "ㅈ(403)"을 나타내는 음성 신호" 지읒"을 출력한다.On the other hand, if the user touch is not released and moves to another position while maintaining the screen contact, the electronic device proceeds to step 313 to check whether the movement direction of the touch corresponds to the Y axis. If the movement direction of the touch corresponds to the movement direction corresponding to the Y axis, the electronic device proceeds to step 317 to search for a voice signal of a consonant mapped to the Y axis coordinate corresponding to the movement position of the touch, and proceeds to step 319. Proceeds to and outputs the searched voice signal. For example, as shown in FIG. 4 (a), when the user touches a position where “b 401” is mapped, and then moves downward while maintaining the touch, the Y axis of the moved position The audio signal "ji" indicating the character "403" mapped to the coordinate is output.

이후, 상기 전자기기는 321단계에서 상기 터치의 이동 방향이 변경되거나 터치가 해제되는지 여부를 검사한다. 만일, 상기 터치의 이동 방향이 변경되지 않고 터치가 해제되지 않은 경우, 상기 전자기기는 상기 317단계로 되돌아가 이하 단계를 재수행한다. 반면, 상기 터치의 이동 방향이 변경되거나 터치가 해제되는 경우, 상기 전자기기는 하기 329단계로 진행한다.In step 321, the electronic device determines whether the movement direction of the touch is changed or the touch is released. If the movement direction of the touch is not changed and the touch is not released, the electronic device returns to step 317 to perform the following steps again. On the other hand, when the movement direction of the touch is changed or the touch is released, the electronic device proceeds to step 329.

한편, 상기 터치의 이동 방향이 X축에 대응하는 이동방향인 경우, 상기 전자기기는 323단계로 진행하여 터치의 이동 위치에 대응하는 X축 좌표에 매핑된 모음의 음성 신호를 검색하고, 325단계로 진행하여 검색된 음성 신호를 출력한다. 예를 들어, 상기 도 4(b)에 나타낸 바와 같이, 사용자가 "ㅈ(403)"이 매핑된 위치를 터치한 후, 터치를 유지한 상태에서 옆으로 이동하는 경우, 이동한 위치의 X축 좌표에 매핑된 문자 "ㅓ(411)"을 나타내는 음성 신호" 어"을 출력한다. 이때, 상기 전자기기는 마지막으로 출력한 음성 신호의 문자와 상기 문자 "ㅓ"의 결합 여부를 판단하여, 결합이 가능한 경우, 두 문자를 결합한 문자의 음성 신호를 출력할 수 있다. 예를 들어, 도 4(a)에 나타낸 바와 같이, 마지막으로 출력한 음성 신호가 "지읒"인 경우, 상기 "지읒"에 대응하는 문자 "ㅈ(403)"과 도 4(b)에 나타낸 바와 같이 상기 터치가 이동한 위치의 X축 좌표에 대응하는 문자 "ㅓ(411)"가 결합 가능할 경우, 상기 "저"의 음성신호 "저"를 출력한다. On the other hand, when the movement direction of the touch is a movement direction corresponding to the X axis, the electronic device proceeds to step 323 to search for a voice signal of a vowel mapped to the X axis coordinates corresponding to the movement position of the touch, and step 325. Proceeds to and outputs the searched voice signal. For example, as shown in FIG. 4 (b), when the user touches the position at which “j” (403) is mapped, and moves sideways while maintaining the touch, the X axis of the moved position The audio signal "U" representing the character "ㅓ 411" mapped to the coordinate is output. In this case, the electronic device may determine whether the text of the last voice signal and the text "ㅓ" are combined, and if possible, may output the voice signal of the text combining the two characters. For example, as shown in Fig. 4A, when the last output audio signal is " ji, " the character " j 403 " corresponding to the " ji " As described above, when the character "ㅓ 411" corresponding to the X-axis coordinate of the position where the touch is moved can be combined, the voice signal "low" of the "low" is output.

이후, 상기 전자기기는 327단계에서 상기 터치의 이동 방향이 변경되거나 터치가 해제되는지 여부를 검사한다. 만일, 상기 터치의 이동 방향이 변경되지 않고 터치가 해제되지 않은 경우, 상기 전자기기는 상기 312단계로 되돌아가 이하 단계를 재수행한다. 반면, 상기 터치의 이동 방향이 변경되거나 터치가 해제되는 경우, 상기 전자기기는 하기 329단계로 진행한다.In step 327, the electronic device determines whether the movement direction of the touch is changed or the touch is released. If the movement direction of the touch is not changed and the touch is not released, the electronic device returns to step 312 to perform the following step again. On the other hand, when the movement direction of the touch is changed or the touch is released, the electronic device proceeds to step 329.

상기 전자기기는 329단계에서 사용자 터치의 이동 방향이 변경되었는지 혹은 해제되었는지 여부를 검사하여, 상기 사용자 터치의 이동 방향이 변경된 경우 상기 313단계로 되돌아가고, 상기 사용자 터치가 해제된 경우 331단계로 진행하여 마지막으로 출력된 음성 신호에 대응하는 문자를 저장 및 입력한다. 이후, 상기 전자기기는 상기 305단계로 되돌아가 이하 단계를 재수행한다.
The electronic device determines whether the movement direction of the user touch is changed or released in step 329, and returns to step 313 when the movement direction of the user touch is changed, and proceeds to step 331 when the user touch is released. To store and input the character corresponding to the last output audio signal. Thereafter, the electronic device returns to step 305 to perform the following steps again.

그러면, 상술한 바와 같은 설명을 바탕으로 문자를 입력하는 방법에 대해 예를 들어 살펴보기로 한다.Next, an example of a method of inputting a character will be described based on the above description.

도 4 및 도 5는 본 발명의 실시 예에 따른 전자기기에서 한글 입력 방식을 도시하고 있다.4 and 5 illustrate a Hangul input method in an electronic device according to an embodiment of the present invention.

상기 도 4에 나타낸 바와 같이, 사용자가 화면의 소정 위치를 터치한 경우, 전자기기는 터치 위치의 Y축 좌표에 매핑된 자음 "ㄴ(401)"의 음성신호 "니은"을 출력한 후 사용자의 터치가 화면 접촉을 유지한 상태에서 아래로 이동하는 것을 감지하여, 이동한 위치의 Y축 좌표에 매핑된 "ㅈ(403)"의 음성신호 "ㅈ"을 출력한다. 이때, 상기 전자기기는 상기 문자 "ㅈ"을 임시 저장하고, 대응하는 문자 입력창에 디스플레이할 수 있다. 이후, 상기 터치가 화면 접촉을 유지한 상태에서 왼쪽으로 이동할 경우, 상기 전자기기는 이동한 위치의 X축 좌표에 매핑된 "ㅓ(411)"를 확인하고, 상기 마지막에 출력된 음성신호의 문자 "ㅈ(403)"과 결합하여 문자 "저"를 생성한 후, 이에 대응하는 음성신호 "저"를 출력한다. 여기서, 상기 전자기기는 상기 임시 저장된 문자 "ㅈ"을 문자 "저"로 갱신하여 저장하고, 상기 문자 입력창에 디스플레이된 "ㅈ" 역시 문자 "저"로 변경하여 디스플레이한다. 이후, 상기 사용자 터치가 화면 접촉을 유지한 상태에서 다시 위쪽으로 이동할 경우, 상기 전자기기는 이동한 위치의 Y축 좌표에 매핑된 "ㄴ(401)"을 확인하고, 상기 마지막에 출력된 음성신호 "저"와 결합하여 문자 "전"을 생성한 후, 이에 대응하는 음성신호 "전"을 출력한다. 이때, 상기 전자기기는 상기 임시 저장 및 입력한 "저"를 "전"으로 갱신하고, 사용자 터치가 해제되는 경우, 상기 "전"을 입력 문자로 결정 및 저장할 수 있다.As shown in FIG. 4, when the user touches a predetermined position on the screen, the electronic device outputs a voice signal “Nee” of the consonant “b 401” mapped to the Y-axis coordinate of the touch position. The touch is sensed to move downward while maintaining the screen contact, and the voice signal “j” of “j” (403) mapped to the Y-axis coordinate of the moved position is output. In this case, the electronic device may temporarily store the letter “ㅈ” and display the corresponding letter input window. Then, when the touch moves to the left while maintaining the screen contact, the electronic device checks "ㅓ 411" mapped to the X-axis coordinates of the moved position, and the character of the last voice signal output The text "low" is generated by combining with "j" (403), and then the audio signal "low" corresponding thereto is output. Here, the electronic device updates and temporarily stores the temporarily stored character "ㅈ" to the character "low", and displays the changed "" "displayed in the text input window as the character" low ". Subsequently, when the user touch moves upward again while maintaining the screen contact, the electronic device checks "b 401" mapped to the Y-axis coordinate of the moved position, and the last voice signal outputted. The text "before" is generated by combining with "low", and then the audio signal "before" corresponding thereto is output. In this case, the electronic device may update the temporary storage and input "low" to "before", and when the user touch is released, the electronic device may determine and store the "before" as an input character.

이후, 상기 도 5에 나타낸 바와 같이, 사용자가 다시 화면을 터치한 경우, 상기 전자기기는 터치 위치의 Y축 좌표에 매핑된 자음 "ㅁ(501)"의 음성신호 "미음"을 출력한다. 이때, 상기 전자기기는 상기 문자 "ㅁ"을 임시 저장하고, 대응하는 문자 입력창에 디스플레이할 수 있다. 이후 사용자의 터치가 화면 접촉을 유지한 상태에서 왼쪽으로 이동할 경우, 상기 전자기기는 이동한 위치의 X축 좌표에 매핑된 "ㅣ(511)"를 확인하고, 상기 마지막에 출력된 음성신호의 문자 "ㅁ(501)"과 결합하여 문자 "미"를 생성한 후, 이에 대응하는 음성신호 "미"를 출력한다. 여기서, 상기 전자기기는 상기 임시 저장된 문자 "ㅁ"을 문자 "미"로 갱신하여 저장하고, 상기 문자 입력창에 디스플레이된 "ㅁ" 역시 문자 "미"로 변경하여 디스플레이한다. 이후, 상기 사용자 터치가 화면 접촉을 유지한 상태에서 다시 위쪽으로 이동할 경우, 상기 전자기기는 이동한 위치의 Y축 좌표에 매핑된 "ㄴ(521)"을 확인하고, 상기 마지막에 출력된 음성신호 "미"와 결합하여 문자 "민"을 생성한 후, 이에 대응하는 음성신호 "민"을 출력한다. 이때, 상기 전자기기는 상기 임시 저장 및 입력한 "미"를 "민"으로 갱신하고, 사용자 터치가 해제되는 경우, 상기 "민"을 입력 문자로 결정 및 저장할 수 있다.Then, as shown in FIG. 5, when the user touches the screen again, the electronic device outputs a voice signal “mime” of the consonant “ㅁ 501” mapped to the Y-axis coordinate of the touch position. In this case, the electronic device may temporarily store the letter “ㅁ” and display the corresponding letter input window. Then, if the user's touch moves to the left while maintaining the screen contact, the electronic device checks "ㅣ (511)" mapped to the X-axis coordinates of the moved position, the character of the last voice signal output In combination with " (501) " to generate a character " mi ", a voice signal " mi " Here, the electronic device updates and stores the temporary stored character "ㅁ" as a character "mi", and also changes and displays "ㅁ" displayed in the text input window as a character "mi". Subsequently, when the user touch moves upward again while maintaining the screen contact, the electronic device checks "b 521" mapped to the Y-axis coordinate of the moved position, and the last voice signal outputted. In combination with the "mi" to generate the character "min", and outputs the corresponding voice signal "min". In this case, the electronic device may update the temporary storage and input “mi” to “min”, and when the user touch is released, the “min” may be determined and stored as an input character.

이에 따라, 상기 전자기기는 사용자 터치에 따라 "전민"이 입력되었음을 화면에 나타낼 수 있다.
Accordingly, the electronic device may indicate on the screen that "national" is input according to the user's touch.

도 6은 본 발명의 실시 예에 따른 전자기기에서 한글 입력 방식을 이용한 폰북 기능을 도시하고 있다.6 illustrates a phonebook function using a Hangul input method in an electronic device according to an embodiment of the present invention.

상기 도 6을 참조하면, "전민"이라는 단어가 입력된 상태에서 사용자가 화면을 멀티 터치한 경우, 예를 들어, 둘 이상의 손가락으로 터치한 경우, 상기 전자기기는 상기 입력된 "전민"에 대한 검색 기능을 수행할 수 있다. 즉, 상기 전자기기는 메모리에 저장된 정보들 중에서 상기 "전민"에 대응하는 정보를 검색할 수 있다. 예를 들어, 상기 전자기기는 폰북에서 "전민"을 포함하는 사용자 이름을 검색하고, 검색된 사용자 이름을 화면의 각 좌표에 매핑할 수 있다. 이때, 상기 사용자의 멀티 터치가 화면 접촉 상태를 유지한 채로 아래로 이동(601)하는 경우, 상기 전자기기는 상기 멀티 터치의 이동 위치의 좌표에 매핑된 사용자 이름을 확인하고, 대응하는 음성 신호를 출력할 수 있다. 즉, 도시된 바와 같이, 사용자의 멀티 터치가 이동한 좌표에 매핑된 이름이 "전민욱(611)"일 경우, 상기 전자기기는 이름 "전민욱"에 대응하는 음성신호를 출력한다. 이때, 상기 사용자가 해당 위치를 소정 시간 이상 터치하는 경우, 상기 전자기기는 상기 "전민욱(611)"에 대응하는 전화번호로 호를 발신하는 기능을 수행할 수 있다.Referring to FIG. 6, when the user multi-touchs the screen in a state where the word “general” is input, for example, when two or more fingers touch the electronic device, the electronic device may be used for the input “general”. Search function can be performed. That is, the electronic device may search for information corresponding to the "national" among the information stored in the memory. For example, the electronic device may search for a user name including "Chunmin" in the phone book and map the searched user name to each coordinate of the screen. In this case, when the user's multi-touch moves down while maintaining the screen contact state (601), the electronic device checks the user name mapped to the coordinates of the movement position of the multi-touch, and provides a corresponding voice signal. You can print That is, as shown, when the name mapped to the coordinates of the multi-touch of the user is "Chun Min-uk 611", the electronic device outputs a voice signal corresponding to the name "Chun Min-uk". In this case, when the user touches the corresponding location for a predetermined time or more, the electronic device may perform a function of calling a call to a telephone number corresponding to the "Chun Min Wook 611".

여기서는, 상기 전자기기의 폰북에서 상기 입력된 "전민"을 포함하는 이름을 검색하는 것에 대하여 설명하였으나, 상기 전자기기에서 단어 데이터베이스를 구비한 경우, 상기 단어 데이터베이스에서 상기 입력된 "전민"을 포함하는 단어를 검색하는 것도 가능할 것이다.
Herein, a description has been given of searching for a name including the input "citizen" in the phone book of the electronic device. However, when the electronic device has a word database, the word database includes the input "citizen". It may be possible to search for words.

도 7 및 8은 본 발명의 실시 예에 따른 전자기기에서 영문 입력 방식을 도시하고 있다. 여기서, 상기 전자기기에서 영문을 입력하는 방식은 한글을 입력하는 방식과 유사하나, 한글에서는 하나의 음절에 자음이 연속적으로 포함되지 않은 것과는 달리 영어에서는 자음이 연속적으로 입력될 수 있으므로, 이를 반영하기 위해 대각선 형태의 터치를 인식하여 자음을 입력하는 방식을 추가하였다.7 and 8 illustrate an English input method in an electronic device according to an embodiment of the present invention. Here, the method of inputting English in the electronic device is similar to the method of inputting Korean, but unlike Korean, when consonants are not continuously included in one syllable, consonants may be continuously input in English, and thus reflecting this. In order to recognize the diagonal touch, a consonant input method has been added.

상기 도 7에 도시된 바와 같이, 사용자가 화면을 터치한 경우, 전자기기는 터치 위치의 Y축 좌표에 매핑된 자음 "C(701)"의 음성신호 "C"를 출력한다. 이때, 상기 전자기기는 상기 문자 "C(701)"를 임시 저장하고, 대응하는 문자 입력창에 디스플레이할 수 있다. 이후, 상기 사용자의 터치가 화면 접촉을 유지한 상태에서 대각선 아래로 이동하는 경우, 상기 전자기기는 이동 위치의 Y축 좌표에 매핑된 자음 "H(711)"의 음성 신호 "H([eit∫])"를 출력한다. 이때, 상기 전자기기는 상기 자음 "C(701)"의 음성신호를 출력한 후, 사용자 터치의 이동 방향이 변경되었으므로, 상기 문자 "C(701)"와 문자 "H(711)"를 모두 입력 문자로 결정하고, 두 문자에 대응하는 음성 신호 "C([si]), H([eit∫])"를 출력할 수 있다. 이때, 상기 전자기기는 상기 문자 "C(701)"와 "H(711)"를 임시 저장하고, 두 문자를 문자 입력창에 디스플레이한다. 이후, 상기 사용자 터치가 화면 접촉을 유지한 상태에서 아래로 이동하는 경우, 상기 전자기기는 이동 위치의 Y축 좌표에 매핑된 "R(713)"의 음성 신호 "R([aːr])"을 출력한다. 이때, 상기 전자기기는 상기 "C([si]), H([eit∫])"의 음성신호를 출력한 후, 사용자 터치의 이동 방향이 변경되었으므로, 상기 문자 "C", "H" 및 "R"을 모두 입력 문자로 결정하고, 세 문자에 대응하는 음성 신호 "C([si]), H([eit∫]), R[aːr])"를 출력할 수 있다. 이후, 상기 사용자 터치가 화면 접촉을 유지한 상태에서 왼쪽으로 이동하는 경우, 상기 전자기기는 이동 위치의 X축에 매핑된 "I(715)"의 음성신호를 출력한다. 이때, 상기 전자기기는 이전에 입력된 문자 "CHR"과 "I"를 결합하여 "CHRI"의 음성신호 "CHRI([kri])"를 출력할 수 있다.As illustrated in FIG. 7, when the user touches the screen, the electronic device outputs the voice signal “C” of the consonant “C 701” mapped to the Y-axis coordinate of the touch position. In this case, the electronic device may temporarily store the letter “C 701” and display the letter “C” in a corresponding text input window. Then, when the user's touch moves down the diagonal while maintaining the screen contact, the electronic device is a voice signal "H ([eit∫] of the consonant" H (711) "mapped to the Y-axis coordinates of the movement position. ]) " At this time, the electronic device outputs a voice signal of the consonant "C 701", and since the moving direction of the user touch is changed, input both the letter "C 701" and the letter "H 711". It is determined by the character, and the audio signals "C ([si]), H ([eit∫]]" corresponding to the two characters can be output. At this time, the electronic device temporarily stores the letters "C 701" and "H 711", and displays the two letters in a text input window. Subsequently, when the user touch moves downward while maintaining the screen contact, the electronic device receives the voice signal "R ([aːr])" of "R (713)" mapped to the Y-axis coordinate of the moving position. Output At this time, the electronic device outputs the voice signals of "C ([si]), H ([eit∫])", and then the movement direction of the user touch is changed, and thus, the letters "C", "H" and All of "R" can be determined as input characters, and the audio signals "C ([si]), H ([eit∫]), R [aːr])" corresponding to three characters can be output. Subsequently, when the user touch moves to the left while maintaining the screen contact, the electronic device outputs a voice signal of "I 715" mapped to the X axis of the moving position. At this time, the electronic device may output the voice signal "CHRI ([kri])" of "CHRI" by combining the previously input letters "CHR" and "I".

이에 따라, 상기 전자기기는 도 8에 나타낸 바와 같이, 사용자 터치에 따라 "CHRI"가 입력되었음을 화면에 나타낼 수 있다.
Accordingly, as shown in FIG. 8, the electronic device may display on the screen that "CHRI" is input according to a user touch.

도 9는 본 발명의 실시 예에 따른 전자기기에서 영문 입력 방식을 이용한 폰북 기능을 도시하고 있다.9 illustrates a phone book function using an English input method in an electronic device according to an embodiment of the present invention.

상기 도 9를 참조하면, "CHRI"이라는 단어가 입력된 상태에서 사용자가 화면을 둘 이상의 손가락으로 멀티 터치한 경우, 상기 전자기기는 상기 입력된 "CHRI"에 대한 검색 기능을 수행할 수 있다. 즉, 상기 전자기기는 메모리에 저장된 정보들 중에서 상기 "CHRI"에 대응하는 정보를 검색할 수 있다. 예를 들어, 상기 전자기기는 폰북에서 "CHRI"를 포함하는 사용자 이름을 검색하고, 검색된 사용자 이름을 화면의 각 좌표에 매핑할 수 있다. 이때, 상기 사용자의 멀티 터치가 화면 접촉 상태를 유지한 채로 아래로 이동(801)하는 경우, 상기 전자기기는 상기 멀티 터치의 이동 위치의 좌표에 매핑된 사용자 이름을 확인하고, 대응하는 음성 신호를 출력할 수 있다. 즉, 도시된 바와 같이, 사용자의 멀티 터치가 이동한 좌표에 매핑된 이름이 "CHRISS(811)"일 경우, 상기 전자기기는 이름 "CHRISS"에 대응하는 음성신호를 출력한다. 이때, 상기 사용자가 해당 위치를 소정 시간 이상 터치하는 경우, 상기 전자기기는 상기 "CHRISS(811)"에 대응하는 전화번호로 호를 발신하는 기능을 수행할 수도 있다.
Referring to FIG. 9, when the user multi-touches the screen with two or more fingers while the word “CHRI” is input, the electronic device may perform a search function for the input “CHRI”. That is, the electronic device may search for information corresponding to the "CHRI" among the information stored in the memory. For example, the electronic device may search for a user name including "CHRI" in the phone book and map the searched user name to each coordinate of the screen. At this time, when the user's multi-touch moves down while maintaining the screen contact state (801), the electronic device checks the user name mapped to the coordinates of the movement position of the multi-touch, and the corresponding voice signal You can print That is, as illustrated, when the name mapped to the coordinates of the multi-touch of the user is "CHRISS 811", the electronic device outputs a voice signal corresponding to the name "CHRISS". In this case, when the user touches the location for a predetermined time or more, the electronic device may perform a function of calling a call to a telephone number corresponding to the "CHRISS 811".

상술한 바와 같이, 본 발명에서는 화면의 Y축 좌표와 X축 좌표 각각에 자음과 모음을 순서대로 매핑하고, 사용자가 터치한 위치에 매핑된 문자의 음성 신호를 출력함으로써, 사용자가 음성 신호를 듣고 입력하고자 하는 단어에 포함된 각 문자를 입력할 수 있도록 하고 있다. 그러나, 영어 단어의 경우, 묵음 및 유사 발음이 존재하기 때문에, 상술한 바와 같은 방식만으로는 시각 장애인이 원하는 단어를 입력하는데 어려움이 발생될 수 있다. 따라서, 본 발명에서는 단어 추천을 이용한 영문 입력 방식을 제공한다. As described above, in the present invention, the user hears the voice signal by mapping consonants and vowels to the Y-axis coordinates and the X-axis coordinates of the screen in order, and outputs a voice signal of a character mapped to a position touched by the user. Each character included in the word to be entered is entered. However, in the case of English words, since silence and similar pronunciation exist, difficulty in inputting a word desired by the visually impaired may occur only by the above-described method. Accordingly, the present invention provides an English input method using word recommendation.

도 10a 및 도 10b는 본 발명의 다른 실시 예에 따른 전자기기에서 단어 추천을 이용한 영문 입력 절차를 도시하고 있다. 여기서는, Y축 좌표에 영문자의 자음과 모음을 모두 매핑하고, X축 좌표에 영문자의 모음만을 매핑하는 경우를 예로 들어 설명하기로 한다. 그러나, X축 좌표에 영문자의 자음과 모음을 모두 매핑하고, Y축 좌표에 영문자의 모음만을 매핑하는 경우에도 동일하게 적용될 수 있다. 또한, 이하 설명하는 단어 추천 방식은 한글 입력시에도 동일한 방식으로 적용될 수 있을 것이다.10A and 10B illustrate an English input procedure using word recommendation in an electronic device according to another embodiment of the present invention. Here, an example will be described in which both consonants and vowels of the English letter are mapped to the Y-axis coordinates, and only the vowels of the English letter are mapped to the X-axis coordinates. However, the same applies to the case where both the English consonants and vowels are mapped to the X-axis coordinates, and only the vowels of the English alphabets are mapped to the Y-axis coordinates. In addition, the word recommendation method described below may be applied in the same way when inputting Korean.

도 10a 및 도 10b를 참조하면, 상기 전자기기는 1001단계에서 영문 입력 모드로 진입한다. 여기서, 상기 영문 입력 모드로의 진입은 미리 설정된 단축키 입력, 음성 인식, 더블 터치 등과 같은 다양한 방법을 통해 수행될 수 있으며, 특정 방법에 대해 한정되지 않을 것이다.10A and 10B, the electronic device enters an English input mode in step 1001. In this case, the entry into the English input mode may be performed through various methods such as a preset hotkey input, voice recognition, double touch, and the like, and will not be limited to a specific method.

상기 전자기기는 1003단계에서 미리 설정된 방식에 따라 화면의 Y축 좌표에 대해 영어문자의 자음과 모음을 순서대로 매핑하고, X축 좌표에 대해 영어문자의 모음을 순서대로 매핑한다. 예를 들어, (x,0)에 "A"을 매핑하고, (x,1)에 "B"을 매핑하고, (x,2)에 "C"을 매핑하는 방식으로, x축 좌표에 관계없이 Y축 좌표에 대하여 자음 및 모음들을 순서대로 매핑하고, (0,y)에 "A"를 매핑하고, (1,y)에 "E"를 매핑하고, (2,y)에 "I"을 매핑하는 방식으로, y축 좌표에 관계없이 x축 좌표에 대하여 모음 A, E, I, O, U, Y를 순서대로 매핑할 수 있다. 여기서, 각각의 문자가 매핑되는 좌표 간의 간격은 터치스크린의 크기를 고려하여 설정될 수 있으며, 설계 방식에 따라 변경 가능할 것이다. 예를 들어, (x,0) , (x,1), (x,2), ,,, (x,y)에 자음을 순서대로 매핑할 수도 있으며, (x,0) , (x,3), (x,6), ,,, (x,y)에 자음을 순서대로 매핑할 수도 있을 것이다. The electronic device maps consonants and vowels of English characters in order to the Y-axis coordinates of the screen in order according to a method set in advance in step 1003, and maps the vowels of English characters to the X-axis coordinates in order. For example, map "A" to (x, 0), map "B" to (x, 1), and "C" to (x, 2). Map consonants and vowels to Y-axis coordinates in order, map "A" to (0, y), map "E" to (1, y), and "I" to (2, y) In this way, the vowels A, E, I, O, U, and Y may be sequentially mapped to the x-axis coordinates regardless of the y-axis coordinates. Here, the interval between the coordinates to which each character is mapped may be set in consideration of the size of the touch screen, and may be changed according to a design method. For example, you can map consonants to (x, 0), (x, 1), (x, 2), ,,, (x, y) in order, and (x, 0), (x, 3) You can map consonants to (x, 6), ,,, (x, y) in order.

이후, 상기 전자기기는 1005단계에서 사용자 터치가 발생되는지 여부를 감지한다.Thereafter, the electronic device detects whether a user touch is generated in step 1005.

상기 사용자 터치가 감지될 시, 상기 전자기기는 1007단계로 진행하여 사용자에 의해 터치된 위치의 Y축 좌표에 매핑된 문자의 음성 신호를 출력한다. 예를 들어, 도 11(a)에 나타낸 바와 같이, 사용자가 터치한 위치의 Y축 좌표에 "E"가 매핑된 경우, 상기 "E"을 나타내는 음성 신호를 출력한다.When the user's touch is detected, the electronic device proceeds to step 1007 to output a voice signal of a character mapped to the Y-axis coordinate of the position touched by the user. For example, as shown in FIG. 11A, when "E" is mapped to the Y-axis coordinate of the position touched by the user, a voice signal indicating "E" is output.

이후, 상기 전자기기는 1009단계에서 상기 사용자 터치가 이동하거나 터치 방향이 전환되는지 여부를 검사한다. 만일, 상기 사용자 터치가 드래그되어 화면의 다른 위치로 이동하는 경우, 상기 전자기기는 상기 1007단계로 되돌아가 상기 사용자의 터치 위치의 Y축 좌표에 매핑된 문자의 음성 신호를 출력한다. 예를 들어, 상기 도 11(a)에 나타낸 바와 같이, 상기 "E"를 나타내는 음성 신호를 출력한 후, 사용자의 터치가 Y축 방향으로 이동하여 Y축 좌표에 "L"이 매핑된 위치에 머무르는 경우, 상기 "L"을 나타내는 음성 신호를 출력한다.In operation 1009, the electronic device determines whether the user touch moves or the touch direction is changed. If the user touch is dragged to move to another position on the screen, the electronic device returns to step 1007 and outputs a voice signal of a character mapped to the Y-axis coordinate of the touch position of the user. For example, as shown in FIG. 11A, after outputting the voice signal indicating "E", the user's touch moves in the Y-axis direction to a position where "L" is mapped to the Y-axis coordinate. In the case of staying, a voice signal indicating " L "

반면, 상기 사용자 터치의 이동 방향이 전환하는 경우, 상기 전자기기는 1011단계로 진행하여 마지막으로 출력된 음성 신호에 대응하는 문자를 제 1 입력 문자로 저장한다. 예를 들어, 상기 사용자의 터치가 Y축 방향으로 이동함에 따라 "E"의 음성 신호가 출력되고, 이 후 "L"의 음성 신호가 출력된 경우, 마지막으로 출력된 음성 신호에 대응하는 문자 "L"을 제 1 입력 문자로 저장한다.In contrast, when the moving direction of the user touch changes, the electronic device proceeds to step 1011 and stores the character corresponding to the last output voice signal as the first input character. For example, when the user's touch is moved in the Y-axis direction, a voice signal of "E" is output, and when a voice signal of "L" is output thereafter, the character corresponding to the last output voice signal " Store L "as the first input character.

이후, 상기 전자기기는 1013단계에서 상기 사용자 터치가 X축 방향으로 이동하는지 혹은 대각선 방향으로 이동하는지 여부를 검사한다. 만일, 상기 사용자 터치가 X축 방향으로 이동하는 경우, 상기 전자기기는 1015단계로 진행하여 사용자 터치 위치의 X축 좌표에 매핑된 모음의 음성 신호를 출력한다. 예를 들어, 도 11(b)에 나타낸 바와 같이, 사용자의 터치가 X축 방향으로 이동하여 X축 좌표에 "O"가 매핑된 위치에 머무르는 경우, 상기 "O"를 나타내는 음성 신호를 출력한다.In step 1013, the electronic device determines whether the user touch moves in the X-axis direction or in the diagonal direction. If the user touch moves in the X-axis direction, the electronic device proceeds to step 1015 to output a vowel voice signal mapped to the X-axis coordinates of the user touch position. For example, as shown in FIG. 11B, when the user's touch moves in the X-axis direction and stays at a position where "O" is mapped to the X-axis coordinate, the voice signal indicating "O" is output. .

반면, 상기 사용자 터치가 Y축 방향으로 이동하는 경우, 상기 전자기기는 1017단계로 진행하여 사용자 터치 위치의 Y축 좌표에 매핑된 문자의 음성 신호를 출력한다. 예를 들어, 도 12(a)에 나타낸 바와 같이, 상기 사용자 터치가 "A"의 음성 신호를 출력 및 저장한 후, 도 12(b)에 나타낸 바와 같이 대각선 방향으로 터치되어 Y축 좌표에 "P"가 매핑된 위치에 머무르는 경우, 상기 전자기기는 상기 "P"를 나타내는 음성신호를 출력한다.In contrast, when the user touch moves in the Y-axis direction, the electronic device proceeds to step 1017 to output a voice signal of a character mapped to the Y-axis coordinates of the user touch position. For example, as shown in FIG. 12 (a), after the user touch outputs and stores a voice signal of "A", it is touched in a diagonal direction as shown in FIG. If P " stays at the mapped position, the electronic device outputs a voice signal representing " P ".

이후, 상기 전자기기는 1019단계로 진행하여 단어 추천 이벤트가 발생되는지 여부를 검사한다. 즉, 상기 전자기기는 현재까지 입력된 문자들을 포함하는 단어를 추천하는 기능을 수행하기 위한 이벤트가 발생되는지 여부를 검사한다. 상기 단어 추천 이벤트는 상기 사용자의 터치 해제, 멀티 터치, 메뉴 선택 및 단축키 입력 등과 같은 다양한 방식에 의해 발생될 수 있으며, 본 발명에서는 특정 방식으로 한정하지 않을 것이다.In operation 1019, the electronic device determines whether a word suggestion event occurs. That is, the electronic device checks whether an event for performing a function of recommending a word including characters inputted to date is generated. The word suggestion event may be generated by various methods such as touch release, multi-touch, menu selection, and shortcut key input of the user, and the present invention will not be limited to a specific method.

상기 단어 추천 이벤트가 발생되지 않을 시, 상기 전자기기는 1013단계로 되돌아가 사용자의 터치 방향에 따라 문자의 음성 신호를 출력하는 과정을 재수행한다.If the word recommendation event does not occur, the electronic device returns to step 1013 and repeats the process of outputting a voice signal of a text according to a user's touch direction.

만일, 상기 단어 추천 이벤트가 발생될 시, 상기 전자기기는 1021단계로 진행하여 마지막으로 출력된 음성신호에 대응하는 문자를 제 2 입력 문자로 저장한다. If the word suggestion event occurs, the electronic device proceeds to step 1021 and stores the character corresponding to the last output voice signal as the second input character.

이후, 상기 전자기기는 1023단계로 진행하여 미리 저장 및 설계된 단어 데이터베이스에서 상기 제 1 입력문자와 제 2 입력문자를 포함하는 단어들 중에서 사용 빈도가 높은 단어들을 검색하고, 1025단계에서 상기 검색된 단어들을 화면의 좌표 각각에 대해 매핑한다. 예를 들어, 도 11(c)에 나타낸 바와 같이, 사용자가 터치를 통해 "L"과 "O"를 입력한 상태에서 단어 추천 이벤트가 발생될 시, 상기 전자기기는 "LO"를 포함하는 단어들 "LOVE, LONG, LOG, LOW... " 등을 검색하고, 검색한 단어들을 화면의 각 Y축 좌표에 매핑한다. 또한, 도 12(c)에 나타낸 바와 같이 사용자가 터치를 통해 "A"와 "P"를 입력한 상태에서 단어 추천 이벤트가 발생될 시, 상기 전자기기는 "AP"를 포함하는 단어들 "APPLE, APPL, APART ..." 등을 검색하고, 검색한 단어들을 화면의 Y축 좌표에 매핑한다. 여기서, 상기 전자기기는 상기 제 1 입력문자와 제 2 입력문자를 포함하는 단어들 중에서 사용빈도가 높은 순서에 따라 추천 단어들을 검색할 수도 있으며, 상기 제 1 입력문자와 제 2 입력문자를 포함하는 단어들 중에서 미리 설정된 우선순위가 높은 순서에 따라 추천 단어들을 검색할 수도 있다. 또한, 상기 전자기기는 상기 사용빈도 혹은 우선순위가 높은 단어들을 사용자가 터치하기 쉬운 위치에 우선적으로 매핑할 수도 있을 것이다. 예를 들어, 상기 전자기기의 화면에 사용자가 터치를 유지하고 있는 경우, 상기 전자기기는 검색된 단어들 중에서 사용빈도 혹은 우선순위가 높은 단어일 수록 상기 사용자의 터치 위치에 가까운 곳에 매핑하고, 사용 빈도가 낮은 단어일 수록 상기 사용자의 터치 위치와 먼 곳에 매핑하는 방식을 이용할 수 있을 것이다.Thereafter, the electronic device proceeds to step 1023 to search for words that have a high frequency of use among words including the first input letter and the second input letter in a pre-stored and designed word database. Map each of the screen coordinates. For example, as shown in FIG. 11C, when a word recommendation event occurs in a state where a user inputs "L" and "O" through a touch, the electronic device includes a word including "LO". Search for "LOVE, LONG, LOG, LOW ..." and map the searched words to each Y-axis coordinate of the screen. In addition, as shown in FIG. 12C, when a word recommendation event occurs while a user inputs "A" and "P" through a touch, the electronic device includes the words "APPLE" including "AP". , APPL, APART ... "and map the searched words to the Y-axis coordinates of the screen. Here, the electronic device may search for recommended words in order of high frequency of use among words including the first input letter and the second input letter, and include the first input letter and the second input letter. Among the words, the recommended words may be searched in the order of higher priority. In addition, the electronic device may preferentially map the high frequency of use or high priority words to a location where the user is likely to touch. For example, when the user maintains a touch on the screen of the electronic device, the electronic device maps the closer to the touch position of the user as the frequency of use or the priority of the searched words is higher, and frequency of use. The lower the word is, the farther the user's touch location may be mapped.

이후, 상기 전자기기는 1027단계에서 사용자의 터치를 인식하여 터치 위치에 매핑된 단어의 음성신호를 출력하고, 1027단계에서 상기 사용자의 터치가 해제되거나 상기 출력된 음성신호에 대응하는 단어를 선택하는 이벤트가 발생되는지 여부를 검사한다. 상기 사용자 터치가 해제되지 않고, 상기 출력된 음성 신호에 대응하는 단어를 선택하는 이벤트가 발생되지 않을 시, 상기 전자기기는 1027단계로 되돌아가 상기 사용자의 터치 위치에 매핑된 단어의 음성신호를 출력하는 과정을 재수행한다.In step 1027, the electronic device recognizes the user's touch and outputs a voice signal of the word mapped to the touch position. In step 1027, the electronic device releases the user's touch or selects a word corresponding to the output voice signal. Check whether an event occurs. If the user touch is not released and an event for selecting a word corresponding to the output voice signal does not occur, the electronic device returns to step 1027 and outputs a voice signal of a word mapped to the touch location of the user. Rerun the process.

만일, 상기 사용자 터치가 해제되거나 상기 출력된 음성 신호에 대응하는 단어를 선택하는 이벤트가 발생될 시, 상기 전자기기는 1031단계로 진행하여 상기 전자기기에서 마지막으로 출력한 음성 신호의 단어를 사용자의 입력단어로 결정한다. 예를 들어, 도 11(c)에 나타낸 바와 같이, "LO"를 포함하는 단어들 "LOVE, LONG, LOG, LOW... " 등이 화면의 각 Y축 좌표에 매핑된 상태에서, 사용자 터치가 "LOVE" 가 매핑된 위치로 이동하면, 상기 전자기기는 상기 "LOVE"의 음성 신호를 출력하고, 이후 상기 사용자 터치가 해제되는 경우 상기 "LOVE"를 입력 단어로 결정한다. 또한, 도 12(c)에 나타낸 바와 같이, "AP"를 포함하는 단어들 "APPLE, APPL, APART ..."등이 화면의 각 Y축 좌표에 매핑된 상태에서 사용자 터치가 "APPLE"이 매핑된 위치로 이동하면, 상기 전자기기는 상기 "APPLE"의 음성 신호를 출력하고, 이후 상기 사용자 터치가 해제되는 경우 상기 "APPLE"을 입력 단어로 결정한다.If the user touch is released or an event for selecting a word corresponding to the output voice signal occurs, the electronic device proceeds to step 1031 in which the word of the voice signal last output from the electronic device is displayed. Determined by input word. For example, as shown in FIG. 11 (c), in the state where the words "LOVE, LONG, LOG, LOW ..." including "LO" are mapped to the respective Y-axis coordinates of the screen, the user touches. Moves to the location to which "LOVE" is mapped, the electronic device outputs the voice signal of "LOVE", and then determines "LOVE" as an input word when the user touch is released. In addition, as shown in FIG. 12 (c), when the words "APPLE, APPL, APART ..." including "AP" are mapped to each Y-axis coordinate of the screen, the user touch is "APPLE". When the electronic device moves to the mapped position, the electronic device outputs the voice signal of "APPLE", and when the user touch is released, the electronic device determines "APPLE" as an input word.

이후, 상기 전자기기는 본 발명에 따른 알고리즘을 종료한다.
The electronic device then terminates the algorithm according to the invention.

상술한 도 10 내지 12에서는, 전자기기에서 사용자로부터 두 개의 영어 문자를 입력받은 후, 추천 단어를 검색하는 방식을 예로 들어 설명하였으나, 설계 방식에 따라 셋 이상의 영어 문자를 입력받은 후 추천 단어를 검색할 수 있음은 당연할 것이다.
10 to 12 described above, a method of searching for a recommended word after receiving two English letters from a user in the electronic device has been described as an example. Of course it can.

한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the scope of the following claims, but also by the equivalents of the claims.

100: 제어부 102: 문자입력 제어부
110: 입출력부 112: 터치스크린 패널
120: 음성 출력부 130: 저장부
100: control unit 102: character input control unit
110: input and output unit 112: touch screen panel
120: audio output unit 130: storage unit

Claims (20)

전자기기에서 문자 입력 방법에 있어서,
화면의 각 좌표에 문자를 매핑하는 과정과,
상기 화면에 대한 사용자 터치를 감지하는 과정과,
사용자 터치가 감지된 좌표에 매핑된 문자를 검색하는 과정과,
상기 검색된 문자의 음성신호를 출력하는 과정을 포함하는 것을 특징으로 하는 방법.
In the character input method in an electronic device,
Mapping the characters to each coordinate on the screen,
Detecting a user touch on the screen;
Searching for a character mapped to a coordinate at which a user touch is detected;
And outputting a voice signal of the searched text.
제 1항에 있어서,
상기 사용자 터치의 이동 방향, 접촉 해제 여부 중 적어도 하나를 고려하여 상기 출력된 음성신호에 대응하는 문자의 입력 여부를 결정하는 과정과,
입력이 결정되는 경우, 해당 문자를 문자 입력창에 디스플레이하는 과정을 더 포함하는 것을 특징으로 하는 방법.
The method of claim 1,
Determining whether to input a character corresponding to the output voice signal in consideration of at least one of a moving direction of the user touch and whether the contact is released;
If the input is determined, further comprising displaying the corresponding character in the text input window.
제 2항에 있어서,
상기 문자의 입력 여부를 결정하는 과정은,
상기 사용자 터치의 이동 방향이 변경되는 경우, 상기 출력된 음성 신호에 대응하는 문자를 입력 문자로 결정하고, 상기 사용자의 터치 이동 방향이 변경되지 않는 경우, 상기 출력된 음성 신호에 대응하는 문자를 비입력 문자로 결정하는 것을 특징으로 하는 방법.
The method of claim 2,
The process of determining whether to input the character,
When the direction of movement of the user touch is changed, a character corresponding to the output voice signal is determined as an input character, and when the direction of touch movement of the user is not changed, a character corresponding to the output voice signal is deselected. Determining by input character.
제 2항에 있어서,
상기 문자의 입력 여부를 결정하는 과정은,
상기 사용자 터치의 접촉이 해제되는 경우, 상기 출력된 음성 신호에 대응하는 문자를 입력 문자로 결정하는 것을 특징으로 하는 방법.
The method of claim 2,
The process of determining whether to input the character,
And when a contact of the user touch is released, determining a character corresponding to the output voice signal as an input character.
제 1항에 있어서,
상기 검색된 문자의 음성신호를 출력하는 과정은,
가장 최근에 출력된 음성신호의 문자와 상기 검색된 문자의 결합 가능 여부를 검사하는 과정과,
두 문자가 결합 가능할 시, 두 문자를 결합하는 과정과,
결합된 문자의 음성신호를 출력하는 과정을 포함하는 것을 특징으로 하는 방법.
The method of claim 1,
The process of outputting the voice signal of the searched text,
Checking whether the text of the most recently output voice signal and the searched text can be combined;
If the two characters can be combined, the process of combining the two characters,
And outputting a voice signal of the combined text.
제 1항에 있어서,
화면의 각 좌표에 문자를 매핑하는 과정은,
하나의 좌표축에 자음을 순서대로 매핑하고, 다른 하나의 좌표축에 모음을 순서대로 매핑하는 과정을 포함하는 것을 특징으로 하는 방법.
The method of claim 1,
The process of mapping a character to each coordinate on the screen,
Mapping consonants to one coordinate axis in order, and mapping the vowels to another coordinate axis in order.
제 2항에 있어서,
상기 화면에 대한 멀티 터치를 감지하는 과정과,
멀티 터치가 발생된 경우, 현재까지 입력된 문자를 포함하는 단어를 미리 설정된 데이터베이스에서 검색하는 과정과,
검색된 단어를 화면의 각 좌표에 매핑하여 디스플레이하는 과정과,
멀티 터치의 이동 위치의 좌표에 매핑된 단어의 음성신호를 출력하는 과정을 포함하는 것을 특징으로 하는 방법.
The method of claim 2,
Detecting a multi-touch on the screen;
If a multi-touch occurs, the process of searching for a word including the characters entered so far in a preset database,
Displaying the searched words by mapping them to the coordinates of the screen;
And outputting a voice signal of a word mapped to a coordinate of a moving position of the multi-touch.
제 7항에 있어서,
상기 데이터베이스는, 단어 데이터베이스와 전화번호 데이터베이스 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
8. The method of claim 7,
Wherein said database comprises at least one of a word database and a telephone number database.
제 8항에 있어서,
상기 음성신호를 출력한 후 상기 멀티 터치가 해당 위치에서 소정 시간 이상 머무르는지 검사하는 과정과,
상기 멀티 터치가 해당 위치에서 소정 시간 이상 머무르는 경우, 상기 전화번호 데이터베이스에서 검색된 단어에 대응하는 전화번호를 확인하는 과정과,
상기 전화번호로 호를 발신하는 과정을 더 포함하는 것을 특징으로 하는 방법.
The method of claim 8,
Checking whether the multi-touch stays at the corresponding position for a predetermined time after outputting the voice signal;
When the multi-touch stays at the location for more than a predetermined time, checking a phone number corresponding to a word retrieved from the phone number database;
And sending a call to the telephone number.
제 8항에 있어서,
상기 음성신호를 출력한 후 상기 멀티 터치가 해당 위치에서 소정 시간 이상 머무르는지 검사하는 과정과,
상기 멀티 터치가 해당 위치에서 소정 시간 이상 머무르는 경우, 상기 단어 데이터베이스에서 검색된 단어를 입력 단어로 결정하는 과정을 더 포함하는 것을 특징으로 하는 방법.
The method of claim 8,
Checking whether the multi-touch stays at the corresponding position for a predetermined time after outputting the voice signal;
And determining the word searched in the word database as an input word when the multi-touch stays at the corresponding location for a predetermined time or more.
전자기기에서 문자 입력 장치에 있어서,
상기 화면에 대한 사용자 터치를 감지하는 감지부와,
화면의 각 좌표에 문자를 매핑하고, 사용자 터치가 감지된 좌표에 매핑된 문자를 검색하는 제어부와,
상기 검색된 문자의 음성신호를 출력하는 음성 출력부를 포함하는 것을 특징으로 하는 장치.
In a character input device in an electronic device,
A detection unit detecting a user touch on the screen;
A controller for mapping a character to each coordinate of the screen and searching for a character mapped to a coordinate at which a user touch is detected;
And an audio output unit configured to output an audio signal of the searched text.
제 11항에 있어서,
상기 제어부는, 상기 사용자 터치의 이동 방향, 접촉 해제 여부 중 적어도 하나를 고려하여 상기 출력된 음성신호에 대응하는 문자의 입력 여부를 결정하고, 입력이 결정되는 경우, 해당 문자를 문자 입력창에 디스플레이하기 위한 기능을 제어하는 것을 특징으로 하는 장치.
12. The method of claim 11,
The controller determines whether to input a character corresponding to the output voice signal in consideration of at least one of a moving direction of the user touch and whether the contact is released, and if the input is determined, displays the corresponding character on a text input window. Device for controlling the function to.
제 12항에 있어서,
상기 제어부는, 상기 사용자 터치의 이동 방향이 변경되는 경우, 상기 출력된 음성 신호에 대응하는 문자를 입력 문자로 결정하고, 상기 사용자의 터치 이동 방향이 변경되지 않는 경우, 상기 출력된 음성 신호에 대응하는 문자를 비입력 문자로 결정하는 것을 특징으로 하는 장치.
13. The method of claim 12,
The controller, when the movement direction of the user touch is changed, determines a character corresponding to the output voice signal as an input character, and when the touch movement direction of the user is not changed, corresponds to the output voice signal. And determine a character to be a non-input character.
제 12항에 있어서,
상기 제어부는, 상기 사용자 터치의 접촉이 해제되는 경우, 상기 출력된 음성 신호에 대응하는 문자를 입력 문자로 결정하는 것을 특징으로 하는 장치.
13. The method of claim 12,
The controller may determine that a character corresponding to the output voice signal is an input character when the contact of the user touch is released.
제 11항에 있어서,
상기 제어부는, 가장 최근에 출력된 음성신호의 문자와 상기 검색된 문자의 결합 가능 여부를 검사하고, 두 문자가 결합 가능할 시, 두 문자를 결합하여 결합된 문자의 음성신호가 출력되도록 제어하는 것을 특징으로 하는 장치.
12. The method of claim 11,
The controller checks whether the text of the most recently output voice signal and the searched text can be combined, and when the two characters can be combined, controls to output the combined voice signal of the combined text by combining the two characters. Device.
제 11항에 있어서,
상기 제어부는, 하나의 좌표축에 자음을 순서대로 매핑하고, 다른 하나의 좌표축에 모음을 순서대로 매핑하는 것을 특징으로 하는 장치.
12. The method of claim 11,
The controller is configured to map consonants in order to one coordinate axis, and to map vowels to another coordinate axis in order.
제 12항에 있어서,
상기 감지부는, 상기 화면에 대한 멀티 터치를 감지하며,
상기 제어부는, 상기 멀티 터치가 감지된 경우, 현재까지 입력된 문자를 포함하는 단어를 미리 설정된 데이터베이스에서 검색하고, 검색된 단어를 화면의 각 좌표에 매핑하여 디스플레이하기 위한 기능을 제어하고, 상기 멀티 터치의 이동 위치의 좌표에 매핑된 단어의 음성신호를 출력하도록 제어하는 것을 특징으로 하는 장치.
13. The method of claim 12,
The sensing unit detects a multi touch on the screen,
When the multi-touch is detected, the controller controls a function of searching for a word including a character input so far in a preset database, mapping a displayed word to each coordinate of a screen, and displaying the multi-touch. And output a speech signal of a word mapped to a coordinate of a moving position of the apparatus.
제 17항에 있어서,
상기 데이터베이스는, 단어 데이터베이스와 전화번호 데이터베이스 중 적어도 하나를 포함하는 것을 특징으로 하는 장치.
18. The method of claim 17,
And said database comprises at least one of a word database and a telephone number database.
제 18항에 있어서,
상기 제어부는, 음성신호를 출력한 후 상기 멀티 터치가 해당 위치에서 소정 시간 이상 머무르는지 검사하고, 상기 멀티 터치가 해당 위치에서 소정 시간 이상 머무르는 경우, 상기 전화번호 데이터베이스에서 검색된 단어에 대응하는 전화번호를 확인하여 상기 전화번호로 호를 발신하기 위한 기능을 제어하는 것을 특징으로 하는 장치.
19. The method of claim 18,
The controller may be configured to check whether the multi-touch stays at the location for a predetermined time or more after outputting a voice signal, and when the multi-touch stays at the location for a predetermined time or more, a phone number corresponding to a word retrieved from the phone number database. Apparatus, characterized in that to control the function for sending a call to the telephone number.
제 18항에 있어서,
상기 제어부는, 음성신호를 출력한 후 상기 멀티 터치가 해당 위치에서 소정 시간 이상 머무르는지 검사하고, 상기 멀티 터치가 해당 위치에서 소정 시간 이상 머무르는 경우, 상기 단어 데이터베이스에서 검색된 단어를 입력 단어로 결정하는 것을 특징으로 하는 장치.
19. The method of claim 18,
The controller may be configured to check whether the multi-touch stays at the location for a predetermined time or more after outputting a voice signal, and when the multi-touch stays at the location for a predetermined time or more, determining the word searched in the word database as an input word. Device characterized in that.
KR1020110052090A 2011-05-31 2011-05-31 Method and apparatus for inputting character in electronic device KR101766301B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110052090A KR101766301B1 (en) 2011-05-31 2011-05-31 Method and apparatus for inputting character in electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110052090A KR101766301B1 (en) 2011-05-31 2011-05-31 Method and apparatus for inputting character in electronic device

Publications (2)

Publication Number Publication Date
KR20120134162A true KR20120134162A (en) 2012-12-12
KR101766301B1 KR101766301B1 (en) 2017-08-08

Family

ID=47902397

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110052090A KR101766301B1 (en) 2011-05-31 2011-05-31 Method and apparatus for inputting character in electronic device

Country Status (1)

Country Link
KR (1) KR101766301B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038407A (en) * 2002-07-01 2004-02-05 Arcadia:Kk Character input device and method
KR200341190Y1 (en) * 2003-11-15 2004-02-11 조아라 Message input and processing device

Also Published As

Publication number Publication date
KR101766301B1 (en) 2017-08-08

Similar Documents

Publication Publication Date Title
KR101564222B1 (en) Apparatus and method for unlocking a locking mode of portable terminal
US9129011B2 (en) Mobile terminal and control method thereof
US9740399B2 (en) Text entry using shapewriting on a touch-sensitive input panel
KR101673068B1 (en) Text select and enter
US10909308B2 (en) Information processing apparatus, information processing method, and program
JP2018074366A (en) Electronic apparatus, control method, and program
WO2008010432A1 (en) User interface device, computer program, and its recording medium
JP6966979B2 (en) Dialogue system control methods, dialogue systems and programs
KR101545881B1 (en) Input Processing Device For Portable Device And Method including the same
US9851867B2 (en) Portable electronic device, method of controlling same, and program for invoking an application by dragging objects to a screen edge
WO2010099835A1 (en) Improved text input
KR20120063982A (en) Apparatus and method of man-machine interface for invisible user
KR20140073245A (en) Method for inputting back surface and an electronic device thereof
CN105589642B (en) Automatic input method switching system and method for palm electronic device
KR20150053339A (en) Method and apparatus for processing an input of electronic device
KR101064836B1 (en) Touch Type Character Input Apparatus and Method
KR101463804B1 (en) Mobile communication device and display control method
KR20130037484A (en) Method for inputting characters in a touch screen, and an electronic device having a touch screen
KR20100062251A (en) Terminal and method for controlling the same
US20150043311A1 (en) Execution of commands in an electronic device
KR20080078336A (en) Method for inputing notes and communication terminal for using the same
KR101766301B1 (en) Method and apparatus for inputting character in electronic device
JP5082529B2 (en) Portable information terminal and input control program
KR20120074175A (en) Apparatus and method for inputting character in terminal
KR101521923B1 (en) Terminal and method for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant