WO2010095769A1 - Character input apparatus using a touch sensor - Google Patents

Character input apparatus using a touch sensor Download PDF

Info

Publication number
WO2010095769A1
WO2010095769A1 PCT/KR2009/000854 KR2009000854W WO2010095769A1 WO 2010095769 A1 WO2010095769 A1 WO 2010095769A1 KR 2009000854 W KR2009000854 W KR 2009000854W WO 2010095769 A1 WO2010095769 A1 WO 2010095769A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
character
input
area
central
Prior art date
Application number
PCT/KR2009/000854
Other languages
French (fr)
Korean (ko)
Inventor
곽희수
Original Assignee
Kwak Hee Soo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kwak Hee Soo filed Critical Kwak Hee Soo
Priority to PCT/KR2009/000854 priority Critical patent/WO2010095769A1/en
Publication of WO2010095769A1 publication Critical patent/WO2010095769A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods

Definitions

  • the present invention relates to a character input device using a touch sensor that allows a user to easily and quickly input text using a touch sensor in a personal portable information terminal such as a mobile phone, a PMP, a UMPC, a notebook computer, a navigation device, and the like.
  • Small handheld personal digital assistants are widely used in mobile phones, PMPs, and UMPCs.
  • a keyboard used as an input device of such a personal digital assistant is a keyboard, a touch screen, 12 keys and the like.
  • the keyboard basically had to contain function keys in addition to the 26 letters of the alphabet, so it was limited to be used in small personal digital assistants.
  • a mobile phone includes 12 keys including numbers and a switch for selecting a mode.
  • Such a 12-key method requires a large number of key presses to input a single character when entering text, and is complicated to use. I had.
  • an object of the present invention is to provide a character input device using a touch sensor capable of inputting a character using only a low-cost processor by allowing the touch sensor to recognize only a relatively simple path pattern.
  • the present invention provides a character input device using a touch sensor that recognizes a trajectory touched using a touch sensor as a character or a function key.
  • the present invention provides a touch that can simplify and process patterns that appear while drawing a character. It is to provide a character input device using a sensor.
  • a region capable of receiving a character-shaped trajectory is divided into a central sensor region of a central portion and a peripheral sensor region radially arranged with an azimuth angle distributed around the central sensor region.
  • the central sensor area may move in a continuous path to all peripheral sensor areas, and the peripheral sensor area may be formed to move in a continuous path to an adjacent peripheral sensor area or a central sensor area, and thus the central sensor area and the peripheral sensor area.
  • a sensor input position processor configured to recognize the touched trajectory of the sensor input unit as a continuous path pattern and to process the peripheral sensor region as being touched when the central sensor region and the peripheral sensor region are simultaneously touched;
  • a character pattern analyzer for searching for a corresponding character by comparing the path pattern recognized by the sensor input position processor with stored path pattern data
  • It provides a character input device using a touch sensor comprising a; output unit for outputting a character retrieved from the character pattern analysis unit.
  • the character input apparatus using the touch pad according to the present invention enables input of English letters, numbers, special characters, function keys, etc. using a small size touch pad.
  • the English input speed is faster than the multi-input method using 12 keys used in the conventional mobile phone.
  • the beginner repeats the character input method implemented in the present invention about 10 times over 30 minutes, the learning is easy enough to input more than 50-Charater per minute and the input speed is improved.
  • FIG. 1 is a block diagram showing the structure of a character input apparatus using a touch pad according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing the structure of a character input apparatus using a touch pad according to a second embodiment of the present invention
  • FIG. 3 is a diagram illustrating a first embodiment of a sensor input unit of a text input device using a touch pad according to the present invention
  • Figure 4 is a view showing a second embodiment of the sensor input unit of the character input device using a touch pad according to the present invention.
  • FIG. 5 is a view showing an input mode conversion pattern path according to the present invention.
  • FIG. 6 is a view illustrating various appearances of a sensor input unit
  • FIG. 7 is a view for explaining the output method of the sensor input unit.
  • FIG. 8 is a diagram illustrating a case where an A character is input to a sensor input unit according to a first exemplary embodiment of the present invention.
  • FIG. 9 is a diagram illustrating a case where b characters are input to a sensor input unit according to a first exemplary embodiment of the present invention.
  • FIG. 10 is a diagram illustrating a case where h is input to a sensor input unit according to a first exemplary embodiment of the present invention.
  • FIG. 11 is a view illustrating a case where W is input to a sensor input unit according to a first exemplary embodiment of the present invention.
  • FIG. 18 shows a case in which the central sensor region C and 12 peripheral sensor regions 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, and 12 are arranged.
  • Fig. 13 shows a path pattern corresponding to the patterns 13, 13 and 14;
  • Fig. 21 is a diagram showing a pattern recognized by each number.
  • FIG. 22 is a view showing a path pattern corresponding to the pattern of FIG. 22 when the central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW are arranged.
  • FIG. 22 is a view showing a path pattern corresponding to the pattern of FIG. 22 when the central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW are arranged.
  • FIG. 23 corresponds to the pattern of FIG. 21 when the central sensor area C and the twelve peripheral sensor areas 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, and 12 are arranged. Figure showing a path pattern to be.
  • 26 and 27 illustrate path patterns corresponding to the patterns of FIGS. 24 and 25 when the central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW are disposed. Shown.
  • FIGS. 28 and 29 show the central sensor region C and the twelve peripheral sensor regions 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11 and 12, respectively.
  • FIG. 30 shows a pattern recognized by each function key.
  • FIG. 31 illustrates a path pattern corresponding to the pattern of FIG. 30 when the central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW are arranged.
  • FIG. 32 corresponds to the pattern of FIG. 30 when the central sensor region C and 12 peripheral sensor regions 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 are arranged. It is a drawing showing the path pattern.
  • FIG. 1 is a block diagram showing the structure of a character input apparatus using a touch pad according to a first embodiment of the present invention.
  • the character input apparatus using the touch pad including a central sensor region and a peripheral sensor region radially disposed and the azimuth angle around the periphery, and A sensor input position processing unit 20 for recognizing the touched trajectory of the sensor input unit 10 as a continuous path pattern, and an input mode determination unit 30 for determining an input mode such as English uppercase letters, lowercase letters, special characters, and numbers. And a text pattern analyzer 40 searching for a corresponding character by comparing the path pattern recognized by the sensor input position processor 20 with the stored path pattern data, and outputting a character searched by the character pattern analyzer.
  • the unit 60 is included.
  • the sensor input unit 10 uses a sensor that can recognize a touch such as a finger or a stylus pen, such as a touch sensor that senses capacitance or a touch pad coated with a resistive film, and inputs a signal by a trace of a finger movement. Receive.
  • a sensor that can recognize a touch such as a finger or a stylus pen, such as a touch sensor that senses capacitance or a touch pad coated with a resistive film, and inputs a signal by a trace of a finger movement.
  • the central sensor area and the peripheral sensor area are configured as individual capacitive sensors to generate a predetermined signal according to the touched area.
  • the sensor input unit 10 includes a single sensor that receives X and Y coordinate values, such as a touch pad of a notebook computer, one sensor having a predetermined area is used, and the touched area is the central sensor area. And a plurality of peripheral sensor regions to generate a signal corresponding to the touched region.
  • the sensor input unit 10 may be physically composed of a plurality of sensors or a plurality of sensors, and various types of touch sensors such as a resistive film type and a capacitive type may be applied.
  • the sensor input unit 10 may be configured by a touch screen method attached to the surface of the display device.
  • a resistive film type, a capacitive type, an infrared type, or an ultrasonic type may be used.
  • the sensor input position processor 20 recognizes the touched trajectory of the sensor input unit 10 as a continuous path pattern.
  • the sensor input position processor 20 allocates the C value to the central sensor area and divides the peripheral sensor in 8 directions around the central sensor area. If you assign the values of N, NE, E, SE, S, SW, W, and NW corresponding to the respective directions to the area, if the finger moves from N to C through S, the three sensors touched continuously In order, it is recognized as a path pattern called NCS.
  • the character pattern analyzer 40 compares the path pattern recognized by the sensor input position processor 20 with the stored path pattern to find a character corresponding to the recognized path pattern, for each character. It stores the route data assigned to it. At this time, the character is found from the data corresponding to the mode selected by the input mode determination unit 30.
  • the output unit 60 serves to transmit a code corresponding to the character retrieved by the character pattern analyzer 40.
  • FIG. 2 is a block diagram illustrating a structure of a character input apparatus using a touch pad according to a second embodiment of the present invention.
  • an input mode selection switch 70 connected to the input mode determination unit 30 may be further provided.
  • an input mode selection switch (70) can be used to change the mode of the input character more quickly. ) Is further provided.
  • the input mode conversion is set to a predetermined path pattern input through the sensor input unit 10, and the operation is performed in such a manner that the input mode is changed when the input path pattern corresponds to the input mode conversion.
  • the pattern path corresponding to each mode is set, and when the pattern path corresponding to the mode change is input, the input mode is changed.
  • the pattern path of this mode change is exemplary and is not necessarily limited to this pattern path.
  • FIG. 3 illustrates a first embodiment of a sensor input unit of a text input device using a touch pad according to the present invention
  • FIG. 4 illustrates a second embodiment of a sensor input unit of a text input device using a touch pad according to the present invention.
  • the sensor input includes a central sensor region C disposed at the center, and a peripheral sensor region radially disposed with the azimuth angle around the center.
  • a central sensor region C disposed at the center
  • a peripheral sensor region radially disposed with the azimuth angle around the center.
  • eight peripheral sensor regions are arranged, and in FIG. 4, twelve peripheral sensor regions are arranged.
  • the number of peripheral sensor regions is preferably a multiple of four, but may be an odd number.
  • each of the nine or thirteen blocks may be composed of a plurality of sensor units.
  • the number of divisions of the peripheral sensor part needs to be distributed at 90-degree intervals crosswise with each other like N and S and W and E to draw horizontal and vertical strokes.
  • the remaining spaces NW, NE, SW, and SE can be arranged in multiples of four, so that four (N, S, W, E) + 4 * n peripheral sensor blocks can be generated.
  • the peripheral sensor areas each have an assigned address value.
  • N, NE, E, SE, S, SW, W, and NW respectively, according to the positions of the bearings, and in the case of FIG. 7,8,9,10,11,12 was set.
  • the pattern path will be described using the direction indications in the case of eight and the direction indications according to the time at 12 in the case of eight address values of the peripheral sensor area.
  • an identification point for indicating the starting point of the input in the peripheral sensor area.
  • identification for convenience of character input in the center of the NW, N, NE, and S sensors is performed. It is preferable to display the point by plane printing or uneven printing.
  • character input is performed at the center of 12 and 6 sensors, the boundary between 1 and 2 sensors, and the boundary between 10 and 11 sensors. It is preferable to mark the identification point for convenience of flat printing or uneven printing.
  • FIG. 6 is a diagram illustrating various shapes of a sensor input unit.
  • the sensor input unit may have various shapes such as a circle, an ellipse, and a polygon.
  • the center sensor area is disposed at the center
  • the peripheral sensor area is disposed at the periphery of the center sensor area. Is the same.
  • FIG. 7 is a view for explaining the output method of the sensor input unit.
  • the reason why the output value is processed is that when various types of inputs are made in the sensor input unit, which is a relatively narrow area, as described below, the peripheral sensor area and the central sensor area are often touched together. This is because there is a possibility that an error will occur if it is handled.
  • the central sensor region is designed to have a diameter about 1.5 times larger than the maximum diameter that a tool (finger, pen, etc.) attempting to input the sensor can contact with the surface.
  • the diameter of the central sensor area can be adjusted according to the tool trying to input.
  • the diameter of the center sensor area ranges from 12mm to 13mm, and 15mm or more when using the thumb.
  • the maximum separation distance between the central sensor unit and the peripheral sensor unit is 1 of the minimum diameter that the means for attempting sensor input (finger, pen, etc.) can input the sensor. It is recommended that the design be less than / 2. This is because the sensor input must be seamlessly input from the peripheral sensor unit and the central sensor unit to recognize the stroke as one stroke when the stroke passes from the peripheral sensor unit to the central sensor unit or from the central sensor unit to the peripheral sensor unit.
  • the central sensor area C may be configured as a push switch for ensuring the input certainty and for the convenience of the user, and the central sensor area C may protrude or dent more than the peripheral sensor areas. It may also be formed.
  • the central sensor area C and the peripheral sensor areas have a smooth inclination from the contact portion and protrude or dent so that the chin protrudes or dents when inputting characters. Do not get caught in the character input error.
  • FIG. 8 is a diagram illustrating a case where an A letter is input to a sensor input unit according to a first exemplary embodiment of the present invention.
  • one method of inputting the letter A is to write a capital letter A divided into three strokes according to the writing order.
  • the extracted pattern path is N-NW-W-SW
  • 2 strokes are N-NE-E-SE
  • 3 strokes are W-C-E.
  • the time interval between the end of one stroke and the first start of the next stroke is about 800 ms (700 ms to 900 ms).
  • the next stroke is processed as a pattern for character discrimination until the next stroke. Ignore them and discard them, to determine if the pattern you just entered is a character pattern.
  • time interval may vary depending on the user, it is preferable to be adjustable.
  • a character when a character is completed in one pattern (stroke), the character corresponding to the input path pattern is output, and the first input of the next character is waited without waiting.
  • a predetermined waiting time may be set for each input, a waiting time for each input may have a disadvantage in that the character input speed is significantly reduced.
  • the path pattern is input after the waiting time (800ms) has elapsed while the character is not output because no character corresponding to the input path is found, the previously entered path pattern data is deleted (ignored) and the character is reset from the beginning. Wait for input of.
  • the form of the lowercase letter a may be set as the input pattern of A and stored.
  • the above example is a path pattern corresponding to eight peripheral sensor regions. In the case of 12 peripheral sensor regions, as shown in FIG. 6, one stroke: 12-11-10-9-8- (7), 2 strokes: 12-1-2-3-4- (5), 3 strokes: 9-C-3.
  • () means a path that can be omitted. This is because it can be touched up to 7 sensors or 5 sensors, or up to 8 sensors or 4 sensors, depending on how far down from 1 stroke or 2 strokes.
  • FIG. 9 is a diagram illustrating a case where b characters are input to a sensor input unit according to a first exemplary embodiment of the present invention.
  • the path is input in one stroke, and the pattern path is NW-W-SW- (W) -C- (S) -SW.
  • NW-W-SW-CS-SW if only W is omitted, NW-W-SW-CS-SW, if only S is omitted, NW-W-SW-WC-SW, if both are omitted, NW-W-SW-C-SW Obviously
  • the path that can be omitted means a sensor that may or may not pass through a finger when drawing a predetermined pattern shape.
  • FIG. 10 is a diagram illustrating a case where h is input to a sensor input unit according to a first exemplary embodiment of the present invention.
  • the path is input in one stroke, and the pattern path is NW-W-SW- (W) -C- [S, SE].
  • the pattern in [] means that one of the two may be omitted, and both are selected in order when both are selected.
  • it may be NW-W-SW- (W) -C-S or NW-W-SW- (W) -C-SE or NW-W-SW- (W) -C-S-SE.
  • FIG. 11 is a diagram illustrating a case where a W character is input to a sensor input unit according to a first exemplary embodiment of the present invention.
  • the letter W represents a pattern path that reciprocates twice vertically, among other possible cases.
  • the pattern path becomes N-C-S-C-N-C-S-C-N by reciprocating twice starting from N.
  • the case of the letter case and the possible abbreviation of each letter of the letter is scheduled as the path of each letter of the alphabet, the corresponding pattern path is extracted and stored in the character pattern analyzer, and then corresponds to the input pattern path. Will print out the alphabetic characters. The user can use these patterns after learning them, but as shown, each pattern can be easily learned because the shapes of the letters bring the shapes of English letters or omit some of them.
  • Each of these patterns corresponds to a path pattern corresponding to the number and arrangement of peripheral sensor regions.
  • 15, 16, and 17 correspond to the patterns of FIGS. 12, 13, and 14 when the central sensor region C and eight peripheral sensor regions N, NE, E, SE, S, SW, W, NW are disposed.
  • 18, 19, and 20 illustrate a central sensor region C and 12 peripheral sensor regions 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 ) Is a path pattern corresponding to the pattern of FIGS. 12, 13, and 14.
  • (a) means that a is a pattern that can be omitted, and [a, b] means that if one or more of the two enters at the same time and enters in the order from left to right. That is, it means a or b or a-b path.
  • ⁇ a, b ⁇ means that at least one of the two is included and the order is irrelevant when both are included. Ie a or b or a-b or b-a.
  • FIG. 21 illustrates a pattern recognized by each number
  • FIG. 22 illustrates a case in which a central sensor region C and eight peripheral sensor regions N, NE, E, SE, S, SW, W, and NW are disposed.
  • the path pattern corresponding to the pattern of FIG. 22 is shown, and FIG. 23 shows the central sensor area C and twelve peripheral sensor areas (1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11).
  • the path pattern corresponding to the pattern of FIG. 21 is illustrated.
  • FIGS. 24 and 25 show patterns recognized as special characters
  • FIGS. 26 and 27 show a central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW.
  • FIGS. 28 and 29 show a central sensor area C and 12 peripheral sensor areas 1, 2, 3, 4, 5, 6, 7,8,9,10,11,12 are arranged the path pattern corresponding to the pattern of Figs.
  • FIG. 30 illustrates a pattern recognized by each function key
  • FIG. 31 illustrates a central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW.
  • FIG. 32 shows a central sensor area C and 12 peripheral sensor areas 1, 2, 3, 4, 5, 6, 7, 8, When 9, 10, 11, and 12 are arranged, a path pattern corresponding to the pattern of FIG. 30 is shown.
  • VOL_UP volume control key
  • Such function keys are preferably operated in all modes. Since the function keys are commonly used regardless of the input mode, it is desirable to operate in all modes.
  • the mode conversion pattern described with reference to FIG. 5 is also a kind of function key and operates in all modes.
  • All of these function keys can be input through the input sensor unit, thereby improving user convenience and reducing costs by unifying input means.

Abstract

The present invention relates to a character input apparatus using a touch sensor in order for a user to easily and quickly input a character using a touch sensor of a personal digital assistant such as a cellular phone, a PMP, a UMPC, a laptop, or a navigator. The present invention supplies a character input apparatus using a touch sensor which comprises: a sensor input unit comprising a central sensor area and a peripheral sensor area which is uniformly and radically arranged around the central sensor area; a sensor input location processing unit recognizing the touched path of the sensor input unit as a consecutive path pattern; a character pattern analysis unit searching a relevant character after comparing the path pattern sensed in the sensor input position processing unit to the stored path pattern data; and an output unit outputting the character searched in the character pattern analysis unit.

Description

터치센서를 이용한 문자입력장치Character input device using touch sensor
본 발명은 휴대폰, PMP, UMPC, 노트북, 네비게이션 등과 같은 개인휴대정보단말기에서 사용자가 터치센서를 이용하여 문자를 보다 쉽고 빠르게 입력할 수 있도록 하는 터치센서를 이용한 문자입력 장치에 관한 것이다.The present invention relates to a character input device using a touch sensor that allows a user to easily and quickly input text using a touch sensor in a personal portable information terminal such as a mobile phone, a PMP, a UMPC, a notebook computer, a navigation device, and the like.
휴대폰, PMP, UMPC 는 크기가 작은 개인휴대정보 단말기가 널리 보급되고 있다.Small handheld personal digital assistants are widely used in mobile phones, PMPs, and UMPCs.
이러한 개인휴대정보 단말기의 입력장치로 현재 사용되고 있는 것은, 키보드, 터치스크린, 12키 등이 있다.Currently used as an input device of such a personal digital assistant is a keyboard, a touch screen, 12 keys and the like.
키보드는 기본적으로 알파벳 26자와 더불어 기능키들을 포함하고 있어야 하므로, 크기가 작은 개인휴대정보단말기에 사용되기에는 한계를 가지고 있었다.The keyboard basically had to contain function keys in addition to the 26 letters of the alphabet, so it was limited to be used in small personal digital assistants.
일반적인 핸드폰의 경우에는 숫자를 포함하는 12키와, 모드를 선택하는 스위치등을 포함하고 있는데, 이러한 12키 방식은 문자 입력 시 하나의 문자를 입력하기 위하여 키를 누르는 횟수가 많고 사용이 복잡한 문제점을 가지고 있었다.In general, a mobile phone includes 12 keys including numbers and a switch for selecting a mode. Such a 12-key method requires a large number of key presses to input a single character when entering text, and is complicated to use. I had.
터치스크린으로 문자를 인식하는 경우에는 수많은 입력 패턴값을 고성능 CPU에서 소프트웨어적으로 분석 처리하여 문자를 판별하도록 되어 있기 때문에 이를 구현하기 위해서는 고성능 CPU를 내장한 PDA나 PC에서만 구현이 가능하며 원가가 비싸지는 문제점을 가지고 있었다.When character is recognized by touch screen, many input pattern values are analyzed by software in high performance CPU to distinguish characters. Therefore, this can be implemented only in PDA or PC with high performance CPU. Had a problem.
이에, 본 발명은 터치센서가 비교적 단순한 경로 패턴 만을 인식하도록 하여 저가의 프로세서만으로 문자입력이 가능한 터치센서를 이용한 문자입력장치를 제공하기 위한 것이다.Accordingly, an object of the present invention is to provide a character input device using a touch sensor capable of inputting a character using only a low-cost processor by allowing the touch sensor to recognize only a relatively simple path pattern.
본 발명은 터치센서를 이용하여 터치되는 궤적을 문자 또는 기능키로 인식하는 터치센서를 이용한 문자입력 장치를 제공하기 위한 것이다.The present invention provides a character input device using a touch sensor that recognizes a trajectory touched using a touch sensor as a character or a function key.
버튼 방식이 아닌 문자를 그리는 방식으로 문자를 입력시킬 경우 문자를 그리는 동안 나올 수 있는 수 많은 경우의 패턴을 인식하고 처리해야 하는데, 본 발명은 문자를 그리는 동안 나타나는 패턴을 단순화하여 처리할 수 있는 터치센서를 이용한 문자입력 장치를 제공하기 위한 것이다.In the case of inputting a character by drawing a character rather than a button method, it is necessary to recognize and process a large number of patterns that may come out while drawing a character. The present invention provides a touch that can simplify and process patterns that appear while drawing a character. It is to provide a character input device using a sensor.
본 발명은 문자형상의 궤적을 입력받을 수 있는 영역이, 중심부의 중앙 센서 영역과 상기 중앙 센서 영역 주변에 방위각을 균분하며 방사상으로 배열된 주변 센서 영역으로 분할 형성되며,According to the present invention, a region capable of receiving a character-shaped trajectory is divided into a central sensor region of a central portion and a peripheral sensor region radially arranged with an azimuth angle distributed around the central sensor region.
상기 중앙 센서 영역에서는 모든 주변 센서 영역으로 연속된 경로로 이동할 수 있고, 주변 센서 영역에서는 인접한 주변 센서 영역 또는 중앙 센서 영역으로 연속된 경로로 이동할 수 있도록 형성되어, 상기 중앙 센서 영역과 상기 주변 센서 영역으로부터 문자형상의 연속된 터치 궤적을 입력받는 센서 입력부;The central sensor area may move in a continuous path to all peripheral sensor areas, and the peripheral sensor area may be formed to move in a continuous path to an adjacent peripheral sensor area or a central sensor area, and thus the central sensor area and the peripheral sensor area. A sensor input unit for receiving a continuous touch trajectory in the form of a character from the sensor;
상기 센서 입력부의 터치된 궤적을 연속된 경로 패턴으로 인식하며, 상기 중앙 센서 영역과 상기 주변 센서 영역이 동시에 터치된 경우에는 상기 주변 센서 영역이 터치된 것으로 처리하는 센서 입력 위치 처리부;A sensor input position processor configured to recognize the touched trajectory of the sensor input unit as a continuous path pattern and to process the peripheral sensor region as being touched when the central sensor region and the peripheral sensor region are simultaneously touched;
상기 센서 입력 위치처리부에서 인식된 경로 패턴을 저장된 경로 패턴 데이터와 비교하여 해당하는 문자를 검색하는 문자패턴 분석부; 및A character pattern analyzer for searching for a corresponding character by comparing the path pattern recognized by the sensor input position processor with stored path pattern data; And
상기 문자패턴 분석부에서 검색된 문자를 출력하는 출력부;를 포함하는 터치센서를 이용한 문자입력 장치를 제공한다.It provides a character input device using a touch sensor comprising a; output unit for outputting a character retrieved from the character pattern analysis unit.
본 발명에 따른 터치패드를 이용한 문자입력 장치는 작은 크기의 터치패드를 이용하여, 영문자, 숫자, 특수문자, 기능키 등을 입력할 수 있도록 한다.The character input apparatus using the touch pad according to the present invention enables input of English letters, numbers, special characters, function keys, etc. using a small size touch pad.
또한, 문자의 입력 패턴을 다양화하고 입력 패턴을 원래의 문자의 형태에서 따옴으로써 사용자가 쉽게 습득할 수 있도록 하고, 또한 단순화된 패턴을 제공하여 문자 입력속도를 개선하는 효과를 가져온다.In addition, by diversifying the input pattern of the character and by taking the input pattern from the form of the original character, the user can easily learn, and also provides a simplified pattern to improve the character input speed.
또한, 종래 핸드폰에서 사용되는 12 키를 이용한 멀티입력방식보다 영문입력 속도가 빠른 효과를 가져온다. 초보자가 본 발명으로 구현된 문자 입력 방식을 30분에 걸쳐 10회 정도 반복한 경우 분당 50-Charater 이상 입력이 가능할 정도로 학습이 쉽고 입력속도가 향상되는 효과를 가져온다.In addition, the English input speed is faster than the multi-input method using 12 keys used in the conventional mobile phone. When the beginner repeats the character input method implemented in the present invention about 10 times over 30 minutes, the learning is easy enough to input more than 50-Charater per minute and the input speed is improved.
또한, 단순한 패턴을 이용하여 문자를 입력하도록 함으로써 저속도의 프로세서를 이용하여 구현할 수 있으며, 이로 인해 원가를 절감할 수 있는 효과도 가져온다.In addition, by inputting a character using a simple pattern can be implemented using a low-speed processor, this also brings the effect of reducing the cost.
도 1은 본 발명의 제 1 실시예에 따른 터치패드를 이용한 문자입력 장치의 구조를 나타낸 블럭 구성도.1 is a block diagram showing the structure of a character input apparatus using a touch pad according to a first embodiment of the present invention.
도 2는 본 발명의 제 2 실시예에 따른 터치패드를 이용한 문자입력 장치의 구조를 나타낸 블럭 구성도.2 is a block diagram showing the structure of a character input apparatus using a touch pad according to a second embodiment of the present invention;
도 3은 본 발명에 따른 터치패드를 이용한 문자입력 장치의 센서입력부의 제 1 실시예를 나타낸 도면. 3 is a diagram illustrating a first embodiment of a sensor input unit of a text input device using a touch pad according to the present invention;
도 4는 본 발명에 따른 터치패드를 이용한 문자입력 장치의 센서입력부의 제 2 실시예를 나타낸 도면.Figure 4 is a view showing a second embodiment of the sensor input unit of the character input device using a touch pad according to the present invention.
도 5는 본 발명에 따른 입력모드 변환 패턴 경로를 나타낸 도면.5 is a view showing an input mode conversion pattern path according to the present invention.
도 6은 센서입력부의 다양한 외형을 나타낸 도면.6 is a view illustrating various appearances of a sensor input unit;
도 7은 센서입력부의 출력방식을 설명하기 위한 도면.7 is a view for explaining the output method of the sensor input unit.
도 8은 본 발명의 제 1 실시예에 따른 센서 입력부로 A자를 입력하는 경우를 나타낸 도면.8 is a diagram illustrating a case where an A character is input to a sensor input unit according to a first exemplary embodiment of the present invention.
도 9는 본 발명의 제 1 실시예에 따른 센서 입력부로 b자를 입력하는 경우를 나타낸 도면.9 is a diagram illustrating a case where b characters are input to a sensor input unit according to a first exemplary embodiment of the present invention.
도 10은 본 발명의 제 1 실시예에 따른 센서 입력부로 h자를 입력하는 경우를 나타낸 도면.FIG. 10 is a diagram illustrating a case where h is input to a sensor input unit according to a first exemplary embodiment of the present invention; FIG.
도 11은 본 발명의 제 1 실시예에 따른 센서 입력부로 W자를 입력하는 경우를 나타낸 도면.FIG. 11 is a view illustrating a case where W is input to a sensor input unit according to a first exemplary embodiment of the present invention. FIG.
도 12, 13 및 14는 각각의 영문자로 인식되는 패턴들의 예시를 나타낸 도면.12, 13 and 14 show examples of patterns recognized by respective alphabet characters.
도 15, 16 및 17은 중앙 센서 영역(C)와 8개의 주변 센서 영역(N,NE,E,SE,S,SW,W,NW)가 배치된 경우 도 12, 13 및 14의 패턴에 대응하는 경로패턴을 나타낸 도면.15, 16, and 17 correspond to the patterns of FIGS. 12, 13, and 14 when the central sensor region C and eight peripheral sensor regions N, NE, E, SE, S, SW, W, NW are disposed. Figure showing a path pattern to be.
도 18, 19 및 20은 중앙 센서 영역(C)와 12개의 주변 센서 영역(1,2,3,4,5,6,7,8, 9,10,11,12)가 배치된 경우 도 12, 13 및 14의 패턴에 대응하는 경로패턴을 나타낸 도면.18, 19, and 20 illustrate a case in which the central sensor region C and 12 peripheral sensor regions 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, and 12 are arranged. Fig. 13 shows a path pattern corresponding to the patterns 13, 13 and 14;
도 21는 각각의 숫자로 인식되는 패턴을 나타낸 도면.Fig. 21 is a diagram showing a pattern recognized by each number.
*도 22은 중앙 센서 영역(C)와 8개의 주변 센서 영역(N,NE,E,SE,S,SW,W,NW)가 배치된 경우 도 22의 패턴에 대응하는 경로패턴을 나타낸 도면.FIG. 22 is a view showing a path pattern corresponding to the pattern of FIG. 22 when the central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW are arranged. FIG.
도 23은 중앙 센서 영역(C)와 12개의 주변 센서 영역(1,2,3,4,5,6,7,8,9,10,11,12)가 배치된 경우 도 21의 패턴에 대응하는 경로패턴을 나타낸 도면.FIG. 23 corresponds to the pattern of FIG. 21 when the central sensor area C and the twelve peripheral sensor areas 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, and 12 are arranged. Figure showing a path pattern to be.
도 24 및 25는 각각의 특수문자로 인식되는 패턴을 나타낸 도면.24 and 25 show patterns recognized as respective special characters.
도 26 및 27는 중앙 센서 영역(C)와 8개의 주변 센서 영역(N,NE,E,SE,S,SW,W,NW)가 배치된 경우 도 24 및 25의 패턴에 대응하는 경로패턴을 나타낸 도면.26 and 27 illustrate path patterns corresponding to the patterns of FIGS. 24 and 25 when the central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW are disposed. Shown.
도 28 및 29는 중앙 센서 영역(C)와 12개의 주변 센서 영역(1,2,3,4,5,6,7,8,9,10,11, 12)가 배치된 경우 도 24 및 25의 패턴에 대응하는 경로패턴을 나타낸 도면.FIGS. 28 and 29 show the central sensor region C and the twelve peripheral sensor regions 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11 and 12, respectively. A diagram showing a path pattern corresponding to the pattern of.
도 30은 각각의 기능키(function key)로 인식되는 패턴을 나타낸 도면.FIG. 30 shows a pattern recognized by each function key. FIG.
도 31는 중앙 센서 영역(C)와 8개의 주변 센서 영역(N,NE,E,SE,S,SW,W,NW)가 배치된 경우 도 30의 패턴에 대응하는 경로패턴을 나타낸 도면.FIG. 31 illustrates a path pattern corresponding to the pattern of FIG. 30 when the central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW are arranged.
도 32은 중앙 센서 영역(C)와 12개의 주변 센서 영역(1,2,3,4,5,6,7,8,9,10,11,12)가 배치된 경우 도 30의 패턴에 대응하는 경로패턴을 나타낸 도면임.32 corresponds to the pattern of FIG. 30 when the central sensor region C and 12 peripheral sensor regions 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 are arranged. It is a drawing showing the path pattern.
이하, 첨부된 도면들을 참조하여 본 발명에 따른 터치패드를 이용한 문자입력 장치의 실시예를 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of a character input device using a touch pad according to the present invention.
이러한 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.In this process, the thickness of the lines or the size of the components shown in the drawings may be exaggerated for clarity and convenience of description.
또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다.In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to a user's or operator's intention or custom.
그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Therefore, definitions of these terms should be made based on the contents throughout the specification.
도 1은 본 발명의 제 1 실시예에 따른 터치패드를 이용한 문자입력 장치의 구조를 나타낸 블럭 구성도이다.1 is a block diagram showing the structure of a character input apparatus using a touch pad according to a first embodiment of the present invention.
도시된 바와 같이, 본 발명의 실시예에 따른 터치패드를 이용한 문자입력장치는, 중앙 센서 영역과 그 주변에 방위각을 균분하며 방사상으로 배치된 주변 센서 영역을 포함하는 센서 입력부(10)와, 상기 센서 입력부(10)의 터치된 궤적을 연속된 경로 패턴으로 인식하는 센서입력 위치처리부(20)와, 영문 대문자, 영문 소문자, 특수문자, 숫자와 같은 입력 모드를 판별하는 입력모드 판별부(30)와, 상기 센서입력 위치처리부(20)에서 인식된 경로 패턴을 저장된 경로 패턴 데이터와 비교하여 해당하는 문자를 검색하는 문자패턴 분석부(40)와, 상기 문자패턴 분석부에서 검색된 문자를 출력하는 출력부(60)를 포함한다.As shown, the character input apparatus using the touch pad according to the embodiment of the present invention, the sensor input unit 10 including a central sensor region and a peripheral sensor region radially disposed and the azimuth angle around the periphery, and A sensor input position processing unit 20 for recognizing the touched trajectory of the sensor input unit 10 as a continuous path pattern, and an input mode determination unit 30 for determining an input mode such as English uppercase letters, lowercase letters, special characters, and numbers. And a text pattern analyzer 40 searching for a corresponding character by comparing the path pattern recognized by the sensor input position processor 20 with the stored path pattern data, and outputting a character searched by the character pattern analyzer. The unit 60 is included.
센서 입력부(10)는 정전용량을 감지하는 터치센서 또는 저항막으로 도포된 터치패드와 같이, 손가락이나 스타일러스 펜 등의 터치를 인식할 수 있는 센서를 사용하여, 손가락이 움직이는 궤적에 의하여 신호를 입력받는다.The sensor input unit 10 uses a sensor that can recognize a touch such as a finger or a stylus pen, such as a touch sensor that senses capacitance or a touch pad coated with a resistive film, and inputs a signal by a trace of a finger movement. Receive.
예를 들어 센서 입력부(10)로 복수개의 센서를 사용하여 구성하는 경우에는 중앙 센서 영역과, 주변 센서 영역이 각각 개별 정전용량 센서로 구성되어 터치되는 영역에 따라서 소정의 신호를 발생하게 된다.For example, when a plurality of sensors are used as the sensor input unit 10, the central sensor area and the peripheral sensor area are configured as individual capacitive sensors to generate a predetermined signal according to the touched area.
또한, 센서 입력부(10)가 노트북의 터치 패드와 같이 X,Y 좌표값을 입력받는 단수개의 센서로 구성되는 경우에는, 소정의 면적을 가지는 1개의 센서를 사용하되, 터치되는 영역을 중앙 센서 영역과 복수의 주변 센서 영역으로 구분하여 터치된 영역에 해당되는 신호를 발생하도록 구성한다.In addition, when the sensor input unit 10 includes a single sensor that receives X and Y coordinate values, such as a touch pad of a notebook computer, one sensor having a predetermined area is used, and the touched area is the central sensor area. And a plurality of peripheral sensor regions to generate a signal corresponding to the touched region.
상술한 바와 같이, 센서 입력부(10)는 물리적으로 복수개의 센서 혹은 단수개의 센서로 구성될 수 있으며, 저항막 방식, 정전용량 방식 등 다양한 방식의 터치 센서들을 적용할 수 있다.As described above, the sensor input unit 10 may be physically composed of a plurality of sensors or a plurality of sensors, and various types of touch sensors such as a resistive film type and a capacitive type may be applied.
그리고, 센서 입력부(10)는 디스플레이 장치의 표면에 부착되는 터치스크린 방식으로 구성될 수도 있으며, 이 경우 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식등이 사용될 수 있다.In addition, the sensor input unit 10 may be configured by a touch screen method attached to the surface of the display device. In this case, a resistive film type, a capacitive type, an infrared type, or an ultrasonic type may be used.
센서입력 위치처리부(20)는 센서 입력부(10)의 터치된 궤적을 연속된 경로 패턴으로 인식하는 것으로, 중앙 센서 영역에 C값을 할당하고, 중앙 센서 영역의 주변에 8방향으로 분할된 주변 센서 영역에 각각의 방위에 해당하는 N, NE, E, SE, S, SW, W, NW 의 값을 할당하였다면, 손가락이 상에서 N에서 C를 거쳐 S로 이동한 경우, 연속으로 터치된 세가지 센서에 순서대로 N-C-S 라는 경로 패턴으로 인식하게 된다.The sensor input position processor 20 recognizes the touched trajectory of the sensor input unit 10 as a continuous path pattern. The sensor input position processor 20 allocates the C value to the central sensor area and divides the peripheral sensor in 8 directions around the central sensor area. If you assign the values of N, NE, E, SE, S, SW, W, and NW corresponding to the respective directions to the area, if the finger moves from N to C through S, the three sensors touched continuously In order, it is recognized as a path pattern called NCS.
문자패턴 분석부(40)는 센서입력 위치처리부(20)에 의해서 인식된 경로 패턴을 저장되어 있는 경로 패턴과 비교하여 인식된 경로 패턴에 해당되는 문자를 찾아내는 역할을 수행하는 것으로, 각각의 문자마다 그에 할당된 경로 데이터를 저장하고 있다. 이때, 입력모드 판별부(30)에 의하여 선택된 모드에 해당되는 데이터에서 문자를 찾아내게 된다.The character pattern analyzer 40 compares the path pattern recognized by the sensor input position processor 20 with the stored path pattern to find a character corresponding to the recognized path pattern, for each character. It stores the route data assigned to it. At this time, the character is found from the data corresponding to the mode selected by the input mode determination unit 30.
출력부(60)는 문자패턴 분석부(40)에서 검색된 문자에 해당하는 코드를 전송하는 역할을 수행한다.The output unit 60 serves to transmit a code corresponding to the character retrieved by the character pattern analyzer 40.
도 2는 본 발명의 제 2 실시예에 따른 터치패드를 이용한 문자입력 장치의 구조를 나타낸 블럭 구성도이다.2 is a block diagram illustrating a structure of a character input apparatus using a touch pad according to a second embodiment of the present invention.
도시된 바와 같이, 입력모드 판별부(30)에 연결되는 입력모드 선택스위치(70)를 추가로 구비할 수 있다.As shown, an input mode selection switch 70 connected to the input mode determination unit 30 may be further provided.
문자를 입력하다 보면, 영문 대소문자, 숫자, 특수문자등의 변환이 필요한 경우가 많이 있으므로, 이 때 입력되는 문자의 모드를 보다 신속하게 변경할 수 있도록 하기 위해서 도시된 바와 같이 입력모드 선택스위치(70)를 추가로 구비하는 것이다.When inputting a character, there are many cases where the conversion of English upper and lowercase letters, numbers, and special characters is necessary. In this case, an input mode selection switch (70) can be used to change the mode of the input character more quickly. ) Is further provided.
제 1 실시예의 경우에는 입력모드 변환을 센서 입력부(10)를 통해서 입력되는 소정의 경로 패턴으로 설정하여, 입력되는 경로 패턴이 입력모드 변환에 해당되는 경우 입력 모드를 변환하게 되는 방식으로 조작된다.In the case of the first embodiment, the input mode conversion is set to a predetermined path pattern input through the sensor input unit 10, and the operation is performed in such a manner that the input mode is changed when the input path pattern corresponds to the input mode conversion.
예를 들면, 도 5와 같이 각각의 모드에 해당하는 패턴 경로를 설정하고, 모드 변경에 해당하는 패턴경로가 입력되면 입력모드가 변경되도록 하는 것이다. 이러한 모드 변경의 패턴 경로는 예시적인 것으로 반드시 이러한 패턴 경로에 한정되는 것은 아니다.For example, as shown in FIG. 5, the pattern path corresponding to each mode is set, and when the pattern path corresponding to the mode change is input, the input mode is changed. The pattern path of this mode change is exemplary and is not necessarily limited to this pattern path.
도 3은 본 발명에 따른 터치패드를 이용한 문자입력 장치의 센서입력부의 제 1 실시예를 나타낸 것이고, 도 4는 본 발명에 따른 터치패드를 이용한 문자입력 장치의 센서입력부의 제 2 실시예를 나타낸 것이다.3 illustrates a first embodiment of a sensor input unit of a text input device using a touch pad according to the present invention, and FIG. 4 illustrates a second embodiment of a sensor input unit of a text input device using a touch pad according to the present invention. will be.
도시된 바와 같이, 센서 입력부는 중심에 배치되는 중앙 센서 영역(C)와, 그 주변에 방위각을 균분하며 방사상으로 배치되는 주변 센서 영역을 포함한다. 도 3의 경우에는 주변 센서 영역 8개가 배치된 것이며, 도 4의 경우는 주변 센서 영역 12개가 배치된 것이다.As shown, the sensor input includes a central sensor region C disposed at the center, and a peripheral sensor region radially disposed with the azimuth angle around the center. In FIG. 3, eight peripheral sensor regions are arranged, and in FIG. 4, twelve peripheral sensor regions are arranged.
센서 입력부로 정전용량 또는 저항용량 구조의 센서가 사용되는 경우, 입력되는 좌표값들을 중앙 센서 영역과 중앙 센서 영역을 중심으로 방사상으로 배열된 다수개의 주변 센서 영역으로 경계값을 지정하여 입력되는 좌표 값을 9가지(중앙 1+ 주변 8) 또는 13가지(중앙 1 + 주변 12) 블록으로 구분하여 입력 값을 단순화 시킨다.When a capacitive or resistive capacitance sensor is used as the sensor input unit, coordinate values input by specifying boundary values to a plurality of peripheral sensor regions radially arranged around the central sensor region and the central sensor region are inputted. Simplify the input value by dividing into 9 (center 1+ 8 around) or 13 (center 1 + 12 peripheral) blocks.
주변 센서 영역의 개수는 4의 배수인 것이 바람직하나, 홀수개로 하여도 무방하다.The number of peripheral sensor regions is preferably a multiple of four, but may be an odd number.
또한 구분된 9가지 또는 13가지 각 블록은 다수개의 센서부의 집합으로 구성될 수 있다. 주변 센서부의 분할 개수는 수평과 수직획을 긋기위해서 N 과 S 그리고 W와 E 처럼 서로 십자모양으로 90도 간격으로 분포함을 필요로 한다. 그 나머지 공간(NW,NE,SW,SE) 은 4의 배수개로 배치할 수 있어 실제적으로는 4(N,S,W,E)+4*n 개의 주변 센서 블록이 생길 수 있다.In addition, each of the nine or thirteen blocks may be composed of a plurality of sensor units. The number of divisions of the peripheral sensor part needs to be distributed at 90-degree intervals crosswise with each other like N and S and W and E to draw horizontal and vertical strokes. The remaining spaces NW, NE, SW, and SE can be arranged in multiples of four, so that four (N, S, W, E) + 4 * n peripheral sensor blocks can be generated.
상기 주변 센서 영역은 각각이 할당된 주소값을 가진다. 도 3과 같이 8개의 경우에 편의상 방위의 위치에 따라 각각 N, NE, E, SE, S, SW, W, NW 라하고, 도 4의 경우에는 1,2,3,4,5,6,7,8,9,10,11,12 라고 설정하였다. 이하에서는 주변 센서 영역의 주소값을 상기와 같이 8개의 경우에는 방위표시를 사용하고, 12개의 경우에는 12시의 시간에 따른 방위표시를 사용하여 패턴 경로를 설명한다.The peripheral sensor areas each have an assigned address value. In the eight cases as shown in FIG. 3, N, NE, E, SE, S, SW, W, and NW, respectively, according to the positions of the bearings, and in the case of FIG. 7,8,9,10,11,12 was set. Hereinafter, the pattern path will be described using the direction indications in the case of eight and the direction indications according to the time at 12 in the case of eight address values of the peripheral sensor area.
또한, 주변 센서 영역에는 입력의 시작점을 표시하기 위한 식별점을 구비하는 것이 바람직한데, 도 3의 제 1 실시예의 경우에는, NW, N, NE, S 센서의 중앙에 문자입력의 편의를 위한 식별점을 평면인쇄 또는 요철인쇄로 표시하는 것이 바람직하고, 도 4의 제 2 실시예의 경우에는 12, 6 센서의 중앙과, 1 센서와 2 센서의 경계, 그리고 10 센서와 11 센서의 경계에 문자입력의 편의를 위한 식별점을 평면인쇄 또는 요철인쇄로 표시한 것이 바람직하다.In addition, it is preferable to include an identification point for indicating the starting point of the input in the peripheral sensor area. In the first embodiment of FIG. 3, identification for convenience of character input in the center of the NW, N, NE, and S sensors is performed. It is preferable to display the point by plane printing or uneven printing. In the second embodiment of FIG. 4, character input is performed at the center of 12 and 6 sensors, the boundary between 1 and 2 sensors, and the boundary between 10 and 11 sensors. It is preferable to mark the identification point for convenience of flat printing or uneven printing.
도 6은 센서입력부의 다양한 외형을 나타낸 도면이다.6 is a diagram illustrating various shapes of a sensor input unit.
도시된 바와 같이, 센서입력부는 원형, 타원형, 다각형과 같이 다양한 형태를 가질 수 있으며, 이러한 경우에도 중앙 센서 영역이 중심에 배치되고, 주변 센서 영역이 중앙 센서 영역의 둘레에 각을 균분하며 배치되는 것은 동일하다.As shown, the sensor input unit may have various shapes such as a circle, an ellipse, and a polygon. In this case, the center sensor area is disposed at the center, and the peripheral sensor area is disposed at the periphery of the center sensor area. Is the same.
도 7은 센서입력부의 출력방식을 설명하기 위한 도면이다.7 is a view for explaining the output method of the sensor input unit.
도시된 바와 같이, 손가락을 이용해 A영역을 터치하면 주변 센서 영역 "W"만 접촉되므로, 센서출력값은 "W"가 되고, B영역을 터치하면, 주변 센서 영역"W"와 중앙 센서 영역"C"가 모두 접촉된 상태가 되지만 이러한 경우에는 주변 센서 영역이 접촉된 것으로 처리하여 센서출력값이 "W"가 된다. 그리고 C영역을 터치하면 중앙 센서 영역"C"만 접촉한 상태가 되므로 센서출력값은 "C"가 된다.As shown in the drawing, when the area A is touched with a finger, only the peripheral sensor area "W" is touched, so that the sensor output value is "W". When the area B is touched, the peripheral sensor area "W" and the center sensor area "C" are touched. Is in contact, but in this case, the peripheral sensor area is treated as being in contact, and the sensor output value is "W". When the area C is touched, only the center sensor area “C” is in contact with the sensor, and thus the sensor output value is “C”.
이렇게 출력값을 처리하는 이유는 비교적 좁은 영역인 센서입력부 안에서 후술하는 것과 같은 다양한 형태의 입력이 이루어질 경우 주변 센서 영역과 중앙 센서 영역이 함께 터치되는 경우가 많이 발생하는데, 이 때 중앙 센서 영역이 터치된 것으로 처리하면 오류가 발생할 우려가 많기 때문이다. 또한, 중앙 센서 영역부는 센서 입력을 시도하는 도구(손가락, 펜 등)가 표면에 접촉가능한 최대지름보다 약 1.5배 큰 지름으로 설계하는게 바람직하다. 물론 중앙 센서 영역의 지름은 입력을 시도하는 도구에 따라 조절가능하다. 손가락 인지로 문자를 입력하는 경우 중앙 센서 영역 영역 지름은 12mm~13mm 정도, 엄지손가락으로 입력할 경우에는 15mm이상을 권장한다.The reason why the output value is processed is that when various types of inputs are made in the sensor input unit, which is a relatively narrow area, as described below, the peripheral sensor area and the central sensor area are often touched together. This is because there is a possibility that an error will occur if it is handled. In addition, it is preferable that the central sensor region is designed to have a diameter about 1.5 times larger than the maximum diameter that a tool (finger, pen, etc.) attempting to input the sensor can contact with the surface. Of course, the diameter of the central sensor area can be adjusted according to the tool trying to input. When inputting text by finger recognition, it is recommended that the diameter of the center sensor area ranges from 12mm to 13mm, and 15mm or more when using the thumb.
또한 중앙센서부와 주변센서부가 각각 독립적인 센서부로 구성될 경우 중앙센서부와 주변센서부의 최대 이격 간격은 센서 입력을 시도하는 수단(손가락, 펜 등)이 센서 입력을 시킬 수 있는 최소지름의 1/2 이하가 되도록 설계하기를 권장한다. 이는 주변 센서부에서 중앙센서부로 또는 중앙센서부에서 주변 센서부로 획이 지나갈 때 하나의 획으로 인식시키기 위해서 주변 센서부와 중앙 센서부에서 끊김 없이 센서 입력이 들어와야 하기 때문이다.In addition, when the central sensor unit and the peripheral sensor unit are configured as independent sensor units, the maximum separation distance between the central sensor unit and the peripheral sensor unit is 1 of the minimum diameter that the means for attempting sensor input (finger, pen, etc.) can input the sensor. It is recommended that the design be less than / 2. This is because the sensor input must be seamlessly input from the peripheral sensor unit and the central sensor unit to recognize the stroke as one stroke when the stroke passes from the peripheral sensor unit to the central sensor unit or from the central sensor unit to the peripheral sensor unit.
또한, 중앙 센서 영역(C)은 입력의 확실성을 보장하고, 사용자의 편의성을 위해서 누름스위치(tact switch) 겸용으로 구성할 수 있으며, 또한 중앙 센서 영역(C)가 주변 센서 영역들 보다 돌출 또는 함몰되도록 형성할 수도 있다. 중앙 센서 영역(C)이 주변 센서 영역들 보다 돌출 또는 함몰되도록 형성할 경우 중앙 센서 영역(C)과 주변 센서 영역들이 맞닿은 부분부터 원만한 경사를 가지며 돌출 또는 함몰시켜 문자입력 시 돌출 또는 함몰 형상의 턱에 걸려 문자입력의 오류가 생기지 않도록 한다.In addition, the central sensor area C may be configured as a push switch for ensuring the input certainty and for the convenience of the user, and the central sensor area C may protrude or dent more than the peripheral sensor areas. It may also be formed. When the central sensor area C is formed to protrude or dent more than the peripheral sensor areas, the central sensor area C and the peripheral sensor areas have a smooth inclination from the contact portion and protrude or dent so that the chin protrudes or dents when inputting characters. Do not get caught in the character input error.
이하에서는 본 발명에 따른 문자입력장치의 동작에 관하여 상세하게 살펴본다.Hereinafter will be described in detail with respect to the operation of the character input device according to the present invention.
도 8은 본 발명의 제 1 실시예에 따른 센서 입력부로 A자를 입력하는 경우를 나타낸 도면이다.8 is a diagram illustrating a case where an A letter is input to a sensor input unit according to a first exemplary embodiment of the present invention.
도시된 바와 같이, 영문자 A를 입력하는 한가지 방법으로 대문자 A를 필기순서에 따라서 3획으로 나누어서 쓰는 방법이 있다.As shown, one method of inputting the letter A is to write a capital letter A divided into three strokes according to the writing order.
먼저 1획은 N의 중심점에서 시작하여 SW까지 좌측하향으로 내려서 쓰고, 2획은 N의 중심점에서 시작하여 SW까지 우측하향으로 내려쓰고, 3 획은 W에서 E까지 수평으로 쓴다. 이는 알파벳 대문자 A와 동일한 모양을 필기순서대로 쓰는 것이다.First, write 1 stroke down from the center point of N to SW down, and write 2 strokes down from the center point of N to right down to SW, and write 3 strokes from W to E horizontally. This is the same shape as the capital letter A in writing order.
이경우 추출되는 패턴경로는 1획은 N-NW-W-SW 이고, 2획은 N-NE-E-SE 이며, 3 획은 W-C-E 이다.In this case, the extracted pattern path is N-NW-W-SW, 2 strokes are N-NE-E-SE, and 3 strokes are W-C-E.
이렇게, 하나의 문자가 다수의 획으로 입력되는 경우에는 한획이 끝나는 시점에서 다음획의 처음 시작 시점 사이의 시간 간격은 800 ms 내외 (700ms~900ms)로 하는 것이 바람직하다. Thus, when one character is input to a plurality of strokes, it is preferable that the time interval between the end of one stroke and the first start of the next stroke is about 800 ms (700 ms to 900 ms).
즉, 처음 패턴으로 문자판별이 되지 않고, 소정의 시간 간격 이내에 다음획 입력이 시작되면 다음 획까지 문자판별을 위한 패턴으로 처리하고, 소정의 시간간격 초과 후 입력되면 문자로 판별되지 않은 이전 패턴값들은 무시하고(버리고), 방금 들어온 패턴(획)이 문자패턴인지를 판별하도록 한다.In other words, if a character is not distinguished with the first pattern and the next stroke is input within a predetermined time interval, the next stroke is processed as a pattern for character discrimination until the next stroke. Ignore them and discard them, to determine if the pattern you just entered is a character pattern.
상기의 시간 간격은 사용자에 따라 달라질 수 있으므로, 조절 가능한 것이 바람직하다.Since the time interval may vary depending on the user, it is preferable to be adjustable.
보다 상세하게 설명하면, 하나의 패턴(획)으로 문자가 완성될 경우에는 입력된 경로 패턴에 대응하는 문자를 출력하고, 대기시간 없이 다음 문자의 첫 입력을 대기하게 된다. 입력시마다 소정의 대기 시간을 설정할 수도 있으나, 매 입력시마다 대기시간을 부여하면 문자입력 속도가 현저히 떨어지는 단점을 가진다. In more detail, when a character is completed in one pattern (stroke), the character corresponding to the input path pattern is output, and the first input of the next character is waited without waiting. Although a predetermined waiting time may be set for each input, a waiting time for each input may have a disadvantage in that the character input speed is significantly reduced.
예를 들어, 입력된 경로 패턴에 해당하는 문자를 찾지 못하면(입력이 잘못된 경우 또는 다수의 획으로 이루어지는 경우에는 해당됨), 다음 획을 기다리고 대기시간(800ms)안에 다음 획이 입력된 경우 입력된 이전 획과 연계성이 있는 문자의 패턴인지를 검색하고 복수의 획으로 입력된 경로에 해당하는 문자를 출력하게 된다. For example, if it does not find a character that corresponds to the entered path pattern (when the input is incorrect or consists of multiple strokes), it waits for the next stroke and enters the next stroke within the wait time (800 ms). It searches for a pattern of characters that are associated with a stroke, and outputs a character corresponding to a path input with a plurality of strokes.
그러나, 입력된 경로에 해당하는 문자를 찾지 못하여 문자가 출력되지 않은 상태에서 대기시간(800ms)이 경과한 후 경로 패턴이 입력되면, 이전에 들어온 경로 패턴 데이터를 삭제하고(무시하고) 처음부터 문자의 입력을 대기하게 된다.However, if the path pattern is input after the waiting time (800ms) has elapsed while the character is not output because no character corresponding to the input path is found, the previously entered path pattern data is deleted (ignored) and the character is reset from the beginning. Wait for input of.
단, 대문자 "G"나 "Q" 처럼 다수의 패턴으로 문자가 완성되는 경우에 문자완성 이전 패턴 자체가 대문자 "C"와 "O"처럼 문자로 완성되는 경우에는 대기시간 안에 "G"나 "Q"를 완성하는 패턴이 들어오면 이전에 완성된 "C"와 "O"문자를 지우고 "G"나 "Q"를 다시 출력하게 한다.However, if the character is completed in a number of patterns, such as the uppercase letters "G" or "Q", the letter "G" or " When a pattern completes Q ", it deletes the previously completed" C "and" O "characters and prints" G "or" Q "again.
이 밖에도 소문자 a의 형태 등을 A의 입력 패턴으로 설정하여 저장할 수 있다. 상기의 예는 주변 센서 영역이 8개인 경우에 해당하는 경로 패턴으로 주변 센서 영역이 12개인 경우에는 도 6에 도시한 바와 같이, 1획 : 12-11-10-9-8-(7), 2획 : 12-1-2-3-4-(5), 3획 : 9-C-3 와 같은 경로를 가지게 된다. 여기서 ()는 생략될 수 있는 경로를 의미한다. 1획이나 2획에서 아래쪽으로 어느 정도 내려 긋느냐에 따라서 7센서나 5센서까지 터치 될 수도 있고, 8센서나 4센서까지 터치 될 수도 있기 때문이다.In addition, the form of the lowercase letter a may be set as the input pattern of A and stored. The above example is a path pattern corresponding to eight peripheral sensor regions. In the case of 12 peripheral sensor regions, as shown in FIG. 6, one stroke: 12-11-10-9-8- (7), 2 strokes: 12-1-2-3-4- (5), 3 strokes: 9-C-3. Here, () means a path that can be omitted. This is because it can be touched up to 7 sensors or 5 sensors, or up to 8 sensors or 4 sensors, depending on how far down from 1 stroke or 2 strokes.
도 9는 본 발명의 제 1 실시예에 따른 센서 입력부로 b자를 입력하는 경우를 나타낸 도면이다.9 is a diagram illustrating a case where b characters are input to a sensor input unit according to a first exemplary embodiment of the present invention.
도시된 바와 같이, 소문자 b를 필기체로 쓰는 경우에는 1획으로 경로가 입력되며, 패턴 경로는 NW-W-SW-(W)-C-(S)-SW가 된다.As shown, in the case of writing a lowercase letter b, the path is input in one stroke, and the pattern path is NW-W-SW- (W) -C- (S) -SW.
생략될수 있는 경로들에서 가능한 모든 경우를 살펴보면,Looking at all possible cases of paths that can be omitted,
먼저 W 만 생략된 경우는 NW-W-SW-C-S-SW 이고, S 만 생략된 경우는 NW-W-SW-W-C-SW 이고, 둘 다 생략된 경우는 NW-W-SW-C-SW 가 된다.If only W is omitted, NW-W-SW-CS-SW, if only S is omitted, NW-W-SW-WC-SW, if both are omitted, NW-W-SW-C-SW Becomes
생략 가능한 경로는 앞서 설명한 바와 같이 예정된 패턴 모양을 그릴경우 손가락이 지날 수도 있고 지나지 않을 수도 있는 센서를 의미한다. As described above, the path that can be omitted means a sensor that may or may not pass through a finger when drawing a predetermined pattern shape.
도 10은 본 발명의 제 1 실시예에 따른 센서 입력부로 h자를 입력하는 경우를 나타낸 도면이다.FIG. 10 is a diagram illustrating a case where h is input to a sensor input unit according to a first exemplary embodiment of the present invention.
도시된 바와 같이, 소문자 h를 필기체로 쓰는 경우에는 1획으로 경로가 입력되며, 패턴 경로는 NW-W-SW-(W)-C-[S,SE] 가 된다.As shown, in the case of writing a lowercase letter h, the path is input in one stroke, and the pattern path is NW-W-SW- (W) -C- [S, SE].
여기서, [] 안의 패턴은 두개중의 하나가 생략 가능하고, 두 개가 모두 선택될 경우 순서대로 선택된다는 것을 의미한다.Here, the pattern in [] means that one of the two may be omitted, and both are selected in order when both are selected.
즉, NW-W-SW-(W)-C-S 또는 NW-W-SW-(W)-C-SE 또는 NW-W-SW-(W)-C-S-SE 이 될 수 있다.That is, it may be NW-W-SW- (W) -C-S or NW-W-SW- (W) -C-SE or NW-W-SW- (W) -C-S-SE.
h의 마지막 획을 수직으로 내려 그을 때, S 로 가거나, SE 로 가거나, S를 거쳐서 SE로 갈수 있기 때문에 이렇게 설정하는 것이다.This is because when you draw the last stroke of h vertically, you can go to S, to SE, or through S to SE.
도 11은 본 발명의 제 1 실시예에 따른 센서 입력부로 W자를 입력하는 경우를 나타낸 도면이다.FIG. 11 is a diagram illustrating a case where a W character is input to a sensor input unit according to a first exemplary embodiment of the present invention.
W자의 경우 나올 수 있는 여러 가지 경우 중 수직으로 두 번 왕복하는 패턴 경로를 나타낸다.The letter W represents a pattern path that reciprocates twice vertically, among other possible cases.
즉, 도면의 좌측에 화살표로 도시한 바와 같이, N에서 시작하여 2번 왕복하는 것으로 패턴 경로는 N-C-S-C-N-C-S-C-N 이 된다.That is, as shown by the arrow on the left side of the figure, the pattern path becomes N-C-S-C-N-C-S-C-N by reciprocating twice starting from N.
도 12, 13 및 14는 각각의 영문자로 인식되는 패턴들의 예시를 나타낸 것이다.12, 13 and 14 show examples of patterns recognized by respective alphabet letters.
도시된 바와, 각각의 영문자의 대소문자의 형태 및 가능한 약자의 형태를 각각의 영문자의 경로로 예정하고, 그에 해당하는 패턴 경로를 추출하여 문자패턴 분석부에 저장시킨 후, 입력되는 패턴 경로에 해당하는 영문자를 출력하게 되는 것이다. 사용자는 이러한 패턴들을 학습한 후 사용할 수 있지만 도시된 바와 같이 각각의 패턴들이 영문자의 모양을 그대로 가져오거나 일부를 생략한 형태이므로 쉽게 학습할 수 있다.As shown, the case of the letter case and the possible abbreviation of each letter of the letter is scheduled as the path of each letter of the alphabet, the corresponding pattern path is extracted and stored in the character pattern analyzer, and then corresponds to the input pattern path. Will print out the alphabetic characters. The user can use these patterns after learning them, but as shown, each pattern can be easily learned because the shapes of the letters bring the shapes of English letters or omit some of them.
이러한 각각의 패턴들은 주변 센서 영역의 개수 및 배치에 따라서 그에 맞는 경로 패턴에 대응하게 된다.Each of these patterns corresponds to a path pattern corresponding to the number and arrangement of peripheral sensor regions.
도 15, 16 및 17은 중앙 센서 영역(C)와 8개의 주변 센서 영역(N,NE,E,SE,S,SW,W,NW)가 배치된 경우 도 12, 13 및 14의 패턴에 대응하는 경로패턴을 나타낸 것이고, 도 18, 19 및 20는 중앙 센서 영역(C)와 12개의 주변 센서 영역(1,2,3,4,5,6,7,8,9,10,11,12)가 배치된 경우 도 12, 13 및 14의 패턴에 대응하는 경로패턴을 나타낸 것이다.15, 16, and 17 correspond to the patterns of FIGS. 12, 13, and 14 when the central sensor region C and eight peripheral sensor regions N, NE, E, SE, S, SW, W, NW are disposed. 18, 19, and 20 illustrate a central sensor region C and 12 peripheral sensor regions 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 ) Is a path pattern corresponding to the pattern of FIGS. 12, 13, and 14.
상술한 바와 같이. (a)는 a 가 생략 가능한 패턴임을 의미하고, [a,b]는 2개중 하나 이상은 꼭 들어가며 동시에 들어가는 경우 좌에서 우의 순서로 들어가는 경우를 의미한다. 즉 a 또는 b 또는 a-b 의 경로를 의미한다. {a,b}는 2개중 하나 이상은 꼭 포함되며, 두 개가 모두 포함되는 경우 순서가 무관한 경우를 의미한다. 즉 a 또는 b 또는 a-b 또는 b-a 를 의미한다.As mentioned above. (a) means that a is a pattern that can be omitted, and [a, b] means that if one or more of the two enters at the same time and enters in the order from left to right. That is, it means a or b or a-b path. {a, b} means that at least one of the two is included and the order is irrelevant when both are included. Ie a or b or a-b or b-a.
도 21는 각각의 숫자로 인식되는 패턴을 나타낸 것이며, 도 22은 중앙 센서 영역(C)와 8개의 주변 센서 영역(N,NE,E,SE,S,SW,W,NW)가 배치된 경우 도 22의 패턴에 대응하는 경로패턴을 나타낸 것이고, 도 23은 중앙 센서 영역(C)와 12개의 주변 센서 영역(1,2,3,4,5,6,7,8,9,10,11,12)가 배치된 경우 도 21의 패턴에 대응하는 경로패턴을 나타낸 것이다.FIG. 21 illustrates a pattern recognized by each number, and FIG. 22 illustrates a case in which a central sensor region C and eight peripheral sensor regions N, NE, E, SE, S, SW, W, and NW are disposed. The path pattern corresponding to the pattern of FIG. 22 is shown, and FIG. 23 shows the central sensor area C and twelve peripheral sensor areas (1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11). When 12 is arranged, the path pattern corresponding to the pattern of FIG. 21 is illustrated.
도 24 및 25는 각각의 특수문자로 인식되는 패턴을 나타낸 것이며, 도 26 및 27은 중앙 센서 영역(C)와 8개의 주변 센서 영역(N,NE,E,SE,S,SW,W,NW)가 배치된 경우 도 24 및 25의 패턴에 대응하는 경로패턴을 나타낸 것이고, 도 28 및 29는 중앙 센서 영역(C)와 12개의 주변 센서 영역(1,2,3,4,5,6,7,8,9,10,11,12)가 배치된 경우 도 24 및 25의 패턴에 대응하는 경로패턴을 나타낸 것이다.24 and 25 show patterns recognized as special characters, and FIGS. 26 and 27 show a central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW. ) Is a path pattern corresponding to the pattern of FIGS. 24 and 25, and FIGS. 28 and 29 show a central sensor area C and 12 peripheral sensor areas 1, 2, 3, 4, 5, 6, 7,8,9,10,11,12 are arranged the path pattern corresponding to the pattern of Figs.
특수문자 패턴의 경우 알파벳 패턴과 중첩이 되지 않는 일부 특수문자( . , : ; ! & ' ' " " { } ~ ` ∴ ∵ ♡ £) 에 한해 알파벳 입력모드에서도 입력이 가능하도록 할 수 있다. In the case of a special character pattern, some special characters (.,:;! & '' "{} ~` ∴ ∵ ♡ 않는) that do not overlap with the alphabet pattern can be input in the alphabet input mode.
이로 인해 알파벳 문자 입력 중 별도의 특수문자로의 입력모드변경 없이 특수문자를 그릴 수 있으므로 문자입력 속도를 빠르게 할 수 있다.Because of this, special characters can be drawn without changing the input mode to separate special characters during alphabetical character input, thus speeding up the character input.
도 30은 각각의 기능키(function key)로 인식되는 패턴을 나타낸 것이며, 도 31는 중앙 센서 영역(C)와 8개의 주변 센서 영역(N,NE,E,SE,S,SW,W,NW)가 배치된 경우 도 30의 패턴에 대응하는 경로패턴을 나타낸 것이고, 도 32은 중앙 센서 영역(C)와 12개의 주변 센서 영역(1,2,3,4,5,6,7,8,9,10,11,12)가 배치된 경우 도 30의 패턴에 대응하는 경로패턴을 나타낸 것이다.FIG. 30 illustrates a pattern recognized by each function key, and FIG. 31 illustrates a central sensor area C and eight peripheral sensor areas N, NE, E, SE, S, SW, W, and NW. ) Shows a path pattern corresponding to the pattern of FIG. 30, and FIG. 32 shows a central sensor area C and 12 peripheral sensor areas 1, 2, 3, 4, 5, 6, 7, 8, When 9, 10, 11, and 12 are arranged, a path pattern corresponding to the pattern of FIG. 30 is shown.
도 21과 같은 패턴이 입력되는 경우에는, 그와 같은 기능키가 입력된 것으로 동작하게 된다. 이러한 기능키들은 일반적으로 컴퓨터나 개인용 휴대기기들에 일반적으로 사용되는 기능키들로 간단하게 설명하면 다음과 같다.When the pattern as shown in Fig. 21 is inputted, the same function key is operated as input. These function keys are briefly described as function keys generally used in computers or personal portable devices.
"UP", "DOWN", "LEFT" "RIGHT"은 방향키를 의미하며, "UP", "DOWN", "LEFT" "RIGHT" means the arrow keys.
"VOL_UP", "VOL_DN"은 음량조절키를 의미하고, "VOL_UP", "VOL_DN" means volume control key,
"ENT"는 엔터키, "SB"는 스페이스바, "BS"는 백스페이스, "ESC"는 에스케이프(ESCAPE)를 의미한다."ENT" means Enter, "SB" means Spacebar, "BS" means Backspace and "ESC" means ESCAPE.
상기와 같은 기능키들은 모든 모드에서 동작하는 것이 바람직하다. 기능키는 입력모드에 상관없이 공통적으로 사용되는 것이므로, 모든 모드에서 작동하는 것이 바람직하다. 그리고, 입력모드 변환을 센서 입력부를 통해서 수행하는 경우 도 5에서 설명한 모드 변환 패턴 또한 기능키의 일종으로 모든 모드에서 작동한다.Such function keys are preferably operated in all modes. Since the function keys are commonly used regardless of the input mode, it is desirable to operate in all modes. In addition, when the input mode conversion is performed through the sensor input unit, the mode conversion pattern described with reference to FIG. 5 is also a kind of function key and operates in all modes.
이러한 기능키들도 모두 입력센서부를 통하여 입력이 가능하도록 함으로써 사용자의 조작의 편의성을 향상시킴과 동시에 입력수단을 단일화하여 원가를 절감할 수 있다.All of these function keys can be input through the input sensor unit, thereby improving user convenience and reducing costs by unifying input means.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and those skilled in the art to which the art belongs can make various modifications and other equivalent embodiments therefrom. Will understand.
따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.Therefore, the true technical protection scope of the present invention will be defined by the claims below.

Claims (18)

  1. 문자형상의 궤적을 입력받을 수 있는 영역이, 중심부의 중앙 센서 영역과 상기 중앙 센서 영역 주변에 방위각을 균분하며 방사상으로 배열된 주변 센서 영역으로 분할 형성되며,A region capable of receiving a letter-shaped trajectory is divided into a central sensor region in the center and a peripheral sensor region radially arranged with an azimuth angle around the central sensor region.
    상기 중앙 센서 영역에서는 모든 주변 센서 영역으로 연속된 경로로 이동할 수 있고, 주변 센서 영역에서는 인접한 주변 센서 영역 또는 중앙 센서 영역으로 연속된 경로로 이동할 수 있도록 형성되어, 상기 중앙 센서 영역과 상기 주변 센서 영역으로부터 문자형상의 연속된 터치 궤적을 입력받는 센서 입력부;The central sensor area may move in a continuous path to all peripheral sensor areas, and the peripheral sensor area may be formed to move in a continuous path to an adjacent peripheral sensor area or a central sensor area, and thus the central sensor area and the peripheral sensor area. A sensor input unit for receiving a continuous touch trajectory in the form of a character from the sensor;
    상기 센서 입력부의 터치된 궤적을 연속된 경로 패턴으로 인식하며, 상기 중앙 센서 영역과 상기 주변 센서 영역이 동시에 터치된 경우에는 상기 주변 센서 영역이 터치된 것으로 처리하는 센서 입력 위치 처리부;A sensor input position processor configured to recognize the touched trajectory of the sensor input unit as a continuous path pattern, and to process the peripheral sensor region as being touched when the central sensor region and the peripheral sensor region are simultaneously touched;
    상기 센서 입력 위치처리부에서 인식된 경로 패턴을 저장된 경로 패턴 데이터와 비교하여 해당하는 문자를 검색하는 문자패턴 분석부; 및A character pattern analyzer for searching for a corresponding character by comparing the path pattern recognized by the sensor input position processor with stored path pattern data; And
    상기 문자패턴 분석부에서 검색된 문자를 출력하는 출력부;를 포함하는 터치센서를 이용한 문자입력 장치.Character input device using a touch sensor comprising a; output unit for outputting a character retrieved from the character pattern analysis unit.
  2. 제 1 항에 있어서,The method of claim 1,
    영문 대문자, 영문 소문자, 특수문자, 숫자와 같은 입력 모드를 판별하는 입력모드 판별부를 추가로 구비하여, 상기 문자패턴 분석부는 선택된 입력모드에서 경로 패턴에 해당하는 문자를 검색하는 것을 특징으로 하는 터치센서를 이용한 문자입력 장치.Further comprising an input mode determination unit for determining the input mode, such as English uppercase letters, English lowercase letters, special characters, numbers, the character pattern analysis unit is characterized in that the touch sensor for searching for a character corresponding to the path pattern in the selected input mode Character input device using.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 입력모드 판별부의 입력모드는 입력모드 선택스위치의 조작에 의하여 변경되는 것을 특징으로 하는 터치센서를 이용한 문자입력 장치.The input mode of the input mode determination unit is a character input device using a touch sensor, characterized in that for changing by the operation of the input mode selection switch.
  4. 제 2 항에 있어서,The method of claim 2,
    상기 입력모드 판별부는 입력모드는 센서 입력부의 조작에 의하여 변경되는 것을 특징으로 하는 터치센서를 이용한 문자입력 장치.The input mode determination unit is a character input device using a touch sensor, characterized in that the input mode is changed by the operation of the sensor input unit.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 센서 입력부는 중앙 센서 영역과 복수의 주변 센서 영역은 물리적으로 분리되어 있는 각각의 센서로 이루어지는 것을 특징으로 하는 터치센서를 이용한 문자입력 장치.The sensor input unit is a character input device using a touch sensor, characterized in that the central sensor area and the plurality of peripheral sensor areas are composed of each sensor physically separated.
  6. 제 1 항에 있어서,The method of claim 1,
    상기 센서 입력부는 터치된 영역에 해당되는 좌표값을 인식하는 단일 센서로 구성되어, 터치되는 영역을 중앙 센서 영역과 복수의 주변 센서 영역으로 구분하여 터치된 영역에 해당되는 신호를 발생하는 것을 특징으로 하는 터치센서를 이용한 문자입력 장치. The sensor input unit may include a single sensor that recognizes a coordinate value corresponding to the touched area, and divides the touched area into a central sensor area and a plurality of peripheral sensor areas to generate a signal corresponding to the touched area. Character input device using a touch sensor.
  7. 제 1 항에 있어서,The method of claim 1,
    상기 센서 입력부는 디스플레이 장치의 표면에 부착되는 터치스크린 방식인 것을 특징으로 하는 문자입력 장치.The sensor input unit is a character input device, characterized in that the touch screen method is attached to the surface of the display device.
  8. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C 와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 N, NE, E, SE, S, SW, W, NW 값을 입력받는 8개의 주변 센서 영역으로 이루어지고,The sensor input unit may include a central sensor area C disposed at the center and eight peripheral sensor areas receiving N, NE, E, SE, S, SW, W, and NW values in a clockwise direction around the central sensor area C. Done,
    상기 센서 입력 위치처리부에서 인식된 경로 패턴을 하기의 표와 같은 경우 해당되는 영문자로 인식하는 것을 특징으로 하는 터치센서를 이용한 문자입력장치.Character input device using a touch sensor, characterized in that the path pattern recognized by the sensor input position processing unit recognizes the corresponding alphabet in the case of the following table.
    Figure PCTKR2009000854-appb-I000001
    Figure PCTKR2009000854-appb-I000001
  9. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C 와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 N, NE, E, SE, S, SW, W, NW 값을 입력받는 8개의 주변 센서 영역으로 이루어지고,The sensor input unit may include a central sensor area C disposed at the center and eight peripheral sensor areas receiving N, NE, E, SE, S, SW, W, and NW values in a clockwise direction around the central sensor area C. Done,
    상기 센서 입력 위치처리부에서 인식된 경로 패턴을 하기의 표와 같은 경우 해당되는 숫자로 인식하는 것을 특징으로 하는 터치센서를 이용한 문자입력장치.Character input device using a touch sensor, characterized in that the path pattern recognized by the sensor input position processing unit recognizes the corresponding number as shown in the following table.
    Figure PCTKR2009000854-appb-I000002
    Figure PCTKR2009000854-appb-I000002
  10. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C 와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 N, NE, E, SE, S, SW, W, NW 값을 입력받는 8개의 주변 센서 영역으로 이루어지고,The sensor input unit may include a central sensor area C disposed at the center and eight peripheral sensor areas receiving N, NE, E, SE, S, SW, W, and NW values in a clockwise direction around the central sensor area C. Done,
    상기 센서 입력 위치처리부에서 인식된 경로 패턴을 하기의 표와 같은 경우 해당되는 특수문자로 인식하는 것을 특징으로 하는 터치센서를 이용한 문자입력장치.Character input device using a touch sensor, characterized in that the path pattern recognized by the sensor input position processing unit recognizes the corresponding special character as shown in the following table.
    Figure PCTKR2009000854-appb-I000003
    Figure PCTKR2009000854-appb-I000003
  11. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C 와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 N, NE, E, SE, S, SW, W, NW 값을 입력받는 8개의 주변 센서 영역으로 이루어지고,The sensor input unit may include a central sensor area C disposed at the center and eight peripheral sensor areas receiving N, NE, E, SE, S, SW, W, and NW values in a clockwise direction around the central sensor area C. Done,
    상기 센서 입력 위치처리부에서 인식된 경로 패턴을 하기의 표와 같은 경우 해당되는 기능키(function key)가 입력된 것으로 인식하는 것을 특징으로 하는 터치센서를 이용한 문자입력장치.Character path input device using a touch sensor, characterized in that for recognizing the path pattern recognized by the sensor input position processor as shown in the following table the corresponding function key (function key).
    Figure PCTKR2009000854-appb-I000004
    Figure PCTKR2009000854-appb-I000004
  12. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 1,2,3,4,5,6,7,8,9,10,11,12 값을 입력받는 12개의 주변 센서 영역으로 이루어지고, The sensor input unit has a central sensor area C disposed at the center and 1,2,3,4,5,6,7,8,9,10,11,12 values in a clockwise direction around the central sensor area C. It consists of 12 peripheral sensor areas
    상기 센서 입력 위치처리부에서 인식된 경로 패턴을 하기의 표와 같은 경우 해당되는 영문자로 인식하는 것을 특징으로 하는 터치센서를 이용한 문자입력장치.Character input device using a touch sensor, characterized in that the path pattern recognized by the sensor input position processing unit recognizes the corresponding alphabet in the following table.
    Figure PCTKR2009000854-appb-I000005
    Figure PCTKR2009000854-appb-I000005
  13. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 1,2,3,4,5,6,7,8,9,10,11,12 값을 입력받는 12개의 주변 센서 영역으로 이루어지고, The sensor input unit has a central sensor area C disposed at the center and 1,2,3,4,5,6,7,8,9,10,11,12 values in a clockwise direction around the central sensor area C. It consists of 12 peripheral sensor areas
    상기 센서 입력 위치처리부에서 인식된 경로 패턴을 하기의 표와 같은 경우 해당되는 숫자로 인식하는 것을 특징으로 하는 터치센서를 이용한 문자입력장치.Character input device using a touch sensor, characterized in that the path pattern recognized by the sensor input position processing unit recognizes the corresponding number as shown in the following table.
    Figure PCTKR2009000854-appb-I000006
    Figure PCTKR2009000854-appb-I000006
  14. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 1,2,3,4,5,6,7,8,9,10,11,12 값을 입력받는 12개의 주변 센서 영역으로 이루어지고, The sensor input unit has a central sensor area C disposed at the center and 1,2,3,4,5,6,7,8,9,10,11,12 values in a clockwise direction around the central sensor area C. It consists of 12 peripheral sensor areas
    상기 센서 입력 위치처리부에서 인식된 경로 패턴을 하기의 표와 같은 경우 해당되는 특수문자로 인식하는 것을 특징으로 하는 터치센서를 이용한 문자입력장치.Character input device using a touch sensor, characterized in that the path pattern recognized by the sensor input position processing unit recognizes the corresponding special character as shown in the following table.
    Figure PCTKR2009000854-appb-I000007
    Figure PCTKR2009000854-appb-I000007
  15. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 1,2,3,4,5,6,7,8,9,10,11,12 값을 입력받는 12개의 주변 센서 영역으로 이루어지고, The sensor input unit has a central sensor area C disposed at the center and 1,2,3,4,5,6,7,8,9,10,11,12 values in a clockwise direction around the central sensor area C. It consists of 12 peripheral sensor areas
    상기 센서 입력 위치처리부에서 인식된 경로 패턴을 하기의 표와 같은 경우 해당되는 기능키(function key)가 입력된 것으로 인식하는 것을 특징으로 하는 터치센서를 이용한 문자입력장치.Character path input device using a touch sensor, characterized in that for recognizing the path pattern recognized by the sensor input position processor as shown in the following table the corresponding function key (function key).
    Figure PCTKR2009000854-appb-I000008
    Figure PCTKR2009000854-appb-I000008
  16. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C 와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 N, NE, E, SE, S, SW, W, NW 값을 입력받는 8개의 주변 센서 영역을 포함하고,The sensor input unit may include a central sensor area C disposed at the center and eight peripheral sensor areas receiving N, NE, E, SE, S, SW, W, and NW values in a clockwise direction around the central sensor area C. Including,
    상기 NW, N, NE, S 센서의 중앙에 문자입력의 편의를 위한 식별점을 평면인쇄 또는 요철인쇄로 표시한 것을 특징으로 하는 터치센서를 이용한 문자입력장치.Character input device using a touch sensor, characterized in that the identification point for the convenience of character input in the center of the NW, N, NE, S sensor displayed by plane printing or uneven printing.
  17. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 중심에 배치되는 중앙 센서 영역 C와, 상기 중앙 센서 영역 C 의 주변에 시계 방향으로 1,2,3,4,5,6,7,8,9,10,11,12 값을 입력받는 12개의 주변 센서 영역을 포함하고,The sensor input unit has a central sensor area C disposed at the center and 1,2,3,4,5,6,7,8,9,10,11,12 values in a clockwise direction around the central sensor area C. Including 12 peripheral sensor areas to receive input,
    상기 12, 6 센서의 중앙과, 1 센서와 2 센서의 경계, 그리고 10 센서와 11 센서의 경계에 문자입력의 편의를 위한 식별점을 평면인쇄 또는 요철인쇄로 표시한 것을 특징으로 하는 터치센서를 이용한 문자입력장치.The touch sensor, characterized in that the identification point for the convenience of character input on the center of the 12, 6 sensors, the boundary between 1 sensor and 2 sensors, and the 10 sensor and 11 sensor are displayed by plane printing or uneven printing. Character input device using.
  18. 제 1 항에 있어서,The method of claim 1,
    상기 센서입력부는 전체적인 외형이 원형, 타원형 또는 다각형의 형태를 가지는 것을 특징으로 하는 터치센서를 이용한 문자입력장치.The sensor input unit is a character input device using a touch sensor, characterized in that the overall appearance has a circular, elliptical or polygonal shape.
PCT/KR2009/000854 2009-02-23 2009-02-23 Character input apparatus using a touch sensor WO2010095769A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2009/000854 WO2010095769A1 (en) 2009-02-23 2009-02-23 Character input apparatus using a touch sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2009/000854 WO2010095769A1 (en) 2009-02-23 2009-02-23 Character input apparatus using a touch sensor

Publications (1)

Publication Number Publication Date
WO2010095769A1 true WO2010095769A1 (en) 2010-08-26

Family

ID=42634039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2009/000854 WO2010095769A1 (en) 2009-02-23 2009-02-23 Character input apparatus using a touch sensor

Country Status (1)

Country Link
WO (1) WO2010095769A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014137176A1 (en) * 2013-03-07 2014-09-12 Samsung Electronics Co., Ltd. Input apparatus, display apparatus, and control methods thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020008580A (en) * 2000-07-24 2002-01-31 홍용원 Apparatus and Method for inputting character
KR20030073477A (en) * 2002-03-11 2003-09-19 엘지전자 주식회사 Character recognition system
WO2004079557A1 (en) * 2003-03-03 2004-09-16 Xrgomics Pte Ltd Unambiguous text input method for touch screens and reduced keyboard systems
KR20050072647A (en) * 2004-01-07 2005-07-12 삼성전자주식회사 Mobile terminal with a key-pad of sensor type and method for inputting han-gul character therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020008580A (en) * 2000-07-24 2002-01-31 홍용원 Apparatus and Method for inputting character
KR20030073477A (en) * 2002-03-11 2003-09-19 엘지전자 주식회사 Character recognition system
WO2004079557A1 (en) * 2003-03-03 2004-09-16 Xrgomics Pte Ltd Unambiguous text input method for touch screens and reduced keyboard systems
KR20050072647A (en) * 2004-01-07 2005-07-12 삼성전자주식회사 Mobile terminal with a key-pad of sensor type and method for inputting han-gul character therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014137176A1 (en) * 2013-03-07 2014-09-12 Samsung Electronics Co., Ltd. Input apparatus, display apparatus, and control methods thereof
US9374547B2 (en) 2013-03-07 2016-06-21 Samsung Electronics Co., Ltd. Input apparatus, display apparatus, and control methods thereof

Similar Documents

Publication Publication Date Title
WO2014185624A1 (en) Text input device and text input method
WO2014196779A1 (en) Information processing apparatus and method using virtual keyboard
WO2011096702A2 (en) Written character inputting device and method
US20060279532A1 (en) Data input device controlled by motions of hands and fingers
US20080136679A1 (en) Using sequential taps to enter text
WO2009157637A1 (en) Character input apparatus and character input method
CN1524212A (en) Text entry method and device therefor
CN101464779A (en) Method and apparatus for switching input interface on hand-hold electronic equipment
WO2009110769A4 (en) Data input device
WO2019004686A1 (en) Keyboard input system and keyboard input method using finger gesture recognition
CN1327182A (en) Movable equipment and key arranging method
US4783645A (en) Quasi-steno keyboard for text entry into a computer
USRE34304E (en) Quasi-steno keyboard for text entry into a computer
WO2010095769A1 (en) Character input apparatus using a touch sensor
WO2013042910A1 (en) Device and method for inputting letters in a mobile terminal
KR100886251B1 (en) Character input device using touch sensor
WO2013073797A1 (en) Keypad device for a touch screen and method for providing same
WO2022030865A1 (en) Method and device for aligning handwriting
US11244138B2 (en) Hologram-based character recognition method and apparatus
WO2016085156A1 (en) Method and apparatus for inputting chinese character
WO2001045034A1 (en) Ideographic character input using legitimate characters as components
WO2014017840A1 (en) Keyboard using key combination method and character input method using same
WO2023191334A1 (en) Key array for inputting romaji and keyboard of having same
WO2011142536A2 (en) Portable terminal and character input method for same
KR100935338B1 (en) Hangul character input device using touch sensor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09840445

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09840445

Country of ref document: EP

Kind code of ref document: A1