WO2013151347A1 - 입력 장치 및 문자 입력 방법 - Google Patents

입력 장치 및 문자 입력 방법 Download PDF

Info

Publication number
WO2013151347A1
WO2013151347A1 PCT/KR2013/002802 KR2013002802W WO2013151347A1 WO 2013151347 A1 WO2013151347 A1 WO 2013151347A1 KR 2013002802 W KR2013002802 W KR 2013002802W WO 2013151347 A1 WO2013151347 A1 WO 2013151347A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
gesture
item
keyboard
selection gesture
Prior art date
Application number
PCT/KR2013/002802
Other languages
English (en)
French (fr)
Inventor
조현중
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of WO2013151347A1 publication Critical patent/WO2013151347A1/ko
Priority to US14/506,951 priority Critical patent/US9891822B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04897Special input arrangements or commands for improving display capability

Definitions

  • the present invention relates to an input device for providing a text input interface and a text input method using the same.
  • Existing input devices for providing a text input interface include a mouse including a physical button, a keyboard and a keypad.
  • the keyboard inputs individual characters corresponding to the pressed buttons, including a plurality of individual characters and a plurality of buttons (generally referred to as 'keys') corresponding to a plurality of function keys.
  • 'keys' buttons
  • different types of keyboards may be used for each language.
  • QWERTY is mainly used as a keyboard for inputting English
  • a bolbe type keyboard is mainly used as a keyboard for inputting Korean.
  • the keypad unlike the keyboard, contains a limited number of buttons.
  • the keypad may include 20 or fewer buttons, including 10 number buttons corresponding to numbers 0 to 9 and a plurality of function buttons corresponding to a plurality of functions.
  • the plurality of buttons included in the keypad correspond to a plurality of groups that classify all individual characters. Accordingly, the keypad, when pressing any one of the plurality of buttons at least once, inputs any one of at least one individual character belonging to any one group corresponding to the pressed button based on the number of times the button is pressed.
  • Korean Patent Laid-Open Publication No. 10-2011-0115179 name of the invention: a computer-readable recording medium in which a character input device, a character input method, and a character input program is recorded
  • an instruction position detector for detecting an indicated position
  • a movement direction detection unit for detecting a movement direction of the detected position
  • a group selection unit for selecting any one of a plurality of character types that have classified a plurality of characters based on the detected movement direction, and at least one classified with the selected character species
  • a character input device comprising a character selector for selecting one of the characters.
  • the character input apparatus mentioned in Korean Patent Laid-Open No. 10-2011-0115179 provides a character input interface using a keypad including 12 buttons.
  • two of the 12 buttons are assigned to the symbol input, and the remaining 10 buttons are assigned to the character input. Therefore, since all characters must be classified into ten character types corresponding to ten buttons, characters that are not correlated can be classified into the same character type, resulting in low intuition.
  • in inputting a character it is necessary to repeatedly press a button corresponding to a character type to which the character to be input is activated until the character to be input is activated, thereby reducing convenience.
  • the conventional input device is not easy to carry separately, and thus is mainly used in a fixed position. Accordingly, a personal terminal such as a smart device is equipped with a touch screen, even if not connected to the existing input device, it is common to provide a character input interface to the touch screen.
  • a fixed terminal such as a smart television generally provides a character input interface by using a mobile terminal such as a remote controller.
  • a position where an operation of touching or scratching the touch screen is input while a virtual button corresponding to an individual character and a symbol is displayed on the touch screen.
  • a character corresponding to the virtual button of the detected position When detecting, input a character corresponding to the virtual button of the detected position.
  • a “QWERTY” keyboard may be displayed on the touch screen, like a general keyboard for inputting English.
  • 25 or more buttons corresponding to 25 letters of the alphabet should be displayed on the touch screen of limited width. Therefore, since the size of each button is smaller than the area touched by the finger, if a great care is not taken, a typo may be frequently caused, resulting in low convenience.
  • a linear menu or a circular menu may be used.
  • Figure 1a shows an example of a linear menu
  • Figure 1b shows an example of a circular menu
  • the linear and circular menus display eight items including Login, Logout, Open, Close, Hardcopy, Shrink, Shape, and Move.
  • the linear menu arranges several items in the vertical direction.
  • the activated item is selected.
  • the linear menu has an advantage that the number of items that can be arranged in the linear menu is not limited as a plurality of items are arranged in one direction.
  • the circular menu divides the entire area into several partitions based on the midpoint of the entire area, and arranges several items in the multiple partitions.
  • a gesture is generated for any one of a plurality of partitions, an item corresponding to the partition where the gesture is generated is selected.
  • the partition In order to select one item through the circular menu, since the correct gesture for the partition of the item to be selected must be input, the partition must have a width sufficient to guarantee the correct gesture.
  • the accuracy of the gesture is significantly lowered when the center angle of each divided region is 45 degrees or less, that is, when the divided regions exceed eight.
  • the number of partitions is limited, and the number of items that can be arranged in the circular menu is limited. Accordingly, the circular menu has a disadvantage in that the number of selectable items is limited to eight or less.
  • the present application can provide a character input interface with improved intuitiveness and convenience by using a virtual keyboard having a circular menu shape that is modified so that it is not necessary to limit the number of items that can be placed according to the width of the area where the item is placed.
  • An input device and a character input method using the same can provide a character input interface with improved intuitiveness and convenience by using a virtual keyboard having a circular menu shape that is modified so that it is not necessary to limit the number of items that can be placed according to the width of the area where the item is placed.
  • a display unit for displaying a character input window and a character input window indicating a character string input through the keyboard;
  • a gesture detector for detecting a gesture of a user;
  • a controller configured to control the display unit based on the gesture.
  • the keyboard is a central item; A plurality of peripheral items arranged spaced apart from each other around the central item; And a plurality of guidelines corresponding to the plurality of peripheral items, wherein the plurality of guidelines are straight or curved paths from each of the plurality of peripheral items toward the center item, and have different shapes or directions. will be.
  • the display unit When a text selection gesture for selecting any one item of the keyboard is input through the gesture sensing unit, the display unit inserts an individual character assigned to the item selected by the text selection gesture into a character string of the text input window.
  • an embodiment of the present invention provides a method for inputting a character using an input device for providing a character input interface, the method comprising: displaying a keyboard on which a character is input in a character input window indicating an input character string; Detecting a text selection gesture of selecting any one item of the keyboard; And inserting an individual character assigned to an item selected by the character selection gesture into a character string of the character input window.
  • the character is input using a keyboard having a circular menu shape that is modified to place more than eight items.
  • the keyboard includes a central item, a plurality of peripheral items that are spaced apart from each other around the central item, and a plurality of guidelines corresponding to the plurality of peripheral items, wherein at least some of the central item and the plurality of peripheral items are at least one.
  • the plurality of guidelines have different shapes or directions.
  • a plurality of guidelines can be identified in the form and direction, so that a plurality of peripheral items corresponding to the plurality of guidelines can also be identified by the plurality of guidelines. Therefore, an item allocated to any one peripheral area among the plurality of peripheral areas may be selected through a gesture of a drag operation based on the guideline corresponding to the peripheral item to be selected among the plurality of guidelines.
  • the gesture for selecting an item assigned to the plurality of peripheral items does not correspond to the peripheral item, but according to the guideline, it is not necessary to limit the plurality of peripheral items to have a width greater than or equal to the threshold. Since the number of neighboring items and the number of items that can be assigned to the neighboring items are not limited to eight or less, they can be easily applied to various countries' languages, thereby increasing the utilization of the keyboard.
  • a gesture of dragging items allocated to the plurality of peripheral items to the center item may be intuitive to the user, thereby improving convenience and intuition.
  • Figure 1a shows an example of a linear menu
  • Figure 1b shows an example of a circular menu.
  • FIG. 2 is a block diagram illustrating an input device according to an exemplary embodiment of the present application.
  • FIG 3 is an example of a virtual keyboard according to an embodiment of the present application.
  • 4A and 4B illustrate an example of an operation of selecting any one of a plurality of items using the keyboard of FIG. 3.
  • FIG. 5 is a flowchart illustrating a character input method according to an embodiment of the present application.
  • FIG. 6 is a flowchart illustrating a step of displaying the main keyboard of FIG. 5.
  • FIG. 7 is a flowchart illustrating an operation of displaying a sub keyboard of FIG. 5.
  • FIG. 8 is an example of a main keyboard for inserting a character input window and Japanese characters in an embodiment of the present application.
  • 9 is another example of the main keyboard for inserting Japanese characters in an embodiment of the present application.
  • 10 and 11 are examples of a process of inputting the letter ' ⁇ ' using the main keyboard of FIG. 8.
  • 15 to 17 illustrate examples of inputting 'a', ' ⁇ ', and ' ⁇ ' among Korean characters using the main keyboard of FIG. 14.
  • FIGS. 2, 3, and 4A to 4C are examples of an input device according to an exemplary embodiment of the present application.
  • 3A is an example of a virtual keyboard according to an embodiment of the present disclosure
  • FIGS. 4A to 4C are examples of an operation of selecting any one of a plurality of items using the keyboard of FIG. 3.
  • the input device 10 includes a display unit 11, a gesture detector 12, a controller 13, and a gesture manager 14.
  • the display unit 11 displays visual information.
  • the display unit 11 displays a window, an icon, a menu, a pointer, and the like, in particular, a text input window indicating an input character string and a gesture input indicating a gesture input from a user.
  • a keyboard menu hereinafter, referred to as “keyboard” that displays a list of characters for window and character input may be displayed.
  • the gesture detector 12 detects a gesture of a user.
  • the gesture of the user may include at least one of a click operation for selecting or activating an object and a drag operation for moving the object.
  • the gesture detector 12 may detect a touch screen that detects a touched position by a user's hand gesture, a camera that captures a user's hand gesture or a user's posture, and generates an image signal, and detects reflected infrared rays. At least one of a motion sensor for outputting a sensor signal corresponding to the gesture or posture of the user, and a current meter for measuring the current value of the hand that changes according to the gesture of the user.
  • the gesture detector 12 may include a pointing device based on a graphic interface, that is, a joystick, a light pen, a mouse, a touch pad, and a trackball.
  • the gesture detector 12 includes a touch screen (not shown)
  • the touch sensing, scratching, and detaching of the finger or the touch pen may be input to the touch screen.
  • the touch of briefly pressing a position corresponding to an object on the touch screen may be matched with a click operation among gestures, and the scratching of moving to another position while pressing a position corresponding to an object on the touch screen may be performed during a gesture. It may be matched with a drag operation or a drag and drop operation.
  • the drag and drop operation is a gesture for moving an arbitrary object from the first position to the second position.
  • a long touch or a double touch of a short touch of a position corresponding to an arbitrary object on the touch screen may be matched with a double-click operation for executing an object during a gesture, and at a position corresponding to an arbitrary object on the touch screen.
  • Detaching detaching can be matched with a click action during a gesture.
  • the gesture detector 12 may receive an image signal or a current value measurement signal that can be interpreted as various gestures.
  • the gesture sensor 12 may receive a sensor signal that can be interpreted as various gestures.
  • the controller 13 generates a control signal for controlling the display unit 11 based on the gesture of the user input through the gesture detector 12, and transmits the generated control signal to the display unit 11.
  • the controller 13 may input a text input window.
  • the controller 13 may generate a control signal for activating a cursor indicating a position at which a character string is inserted into the text input window based on the touch gesture matched with the click operation for selecting a, and transmitting the generated control signal to the display unit 11.
  • the display unit 11 can be controlled.
  • the gesture manager 14 retains a gesture that is matched with a signal that can be input through the gesture detector 12 and a signal that can be input. Accordingly, the controller 11 may query the gesture manager 14 to derive a gesture that matches the signal input through the gesture detector 12.
  • the display unit 11 and the gesture detector 12 of the input device 10 may be stored in different housings.
  • the controller 13 and the gesture manager 14 may be stored together in a housing in which one of the display unit 11 and the gesture detector 12 is stored.
  • a signal transmission and reception unit (not shown) may be further provided between the control unit 13 and the display unit 11 for transmitting and receiving a control signal. .
  • the input device 10 may be applied to a smartphone in which the display unit 11 and the gesture detector 12 are integrated, such as a touch screen.
  • the input device 10 may be configured in such a manner that the gesture sensing unit 12 is coupled to a device such as a remote controller that controls the display unit 11 while being separated from the display unit 11.
  • the input device 10 displays a virtual keyboard.
  • the keyboard request gesture may include a click operation on the text input window.
  • the virtual keyboard 20 takes the form of a circular menu modified to place more than eight items.
  • a general circular menu divides an entire area into a plurality of divided areas based on the midpoint of the entire area, and arranges a plurality of different items in the plurality of divided areas.
  • a gesture for selecting any one of a plurality of partitions is input, an item arranged in the selected one partition is selected. Therefore, in order for a gesture to be input with a certain accuracy or more, the plurality of partitions must have a width greater than or equal to a threshold. In general, it is known that up to eight items can be placed in a circular menu.
  • the keyboard 20 of FIG. 3 corresponds to one central item 21, a plurality of peripheral items 22a to 22j, and a plurality of peripheral items 22a to 22j in which at least one different item is disposed. It includes a plurality of guidelines 23i to 23j.
  • the plurality of items disposed on the keyboard 20 of FIG. 3 may be numbers or letters, but is not limited thereto.
  • the plurality of peripheral items 22a to 22j are arranged to be spaced apart from each other so as to surround the center item 21.
  • the plurality of peripheral items 22a to 22j may be assigned to at least one different item.
  • the central item 21 may be located at the center of the keyboard 20 and may be assigned to an initial value selected as either an initial value of a blank (or also called a 'default') or at least one item. have.
  • the central item 21 is a blank in which no items are arranged or one representing at least one item. May be an arranged item.
  • the central item 21 and the plurality of peripheral items 22a to 22j are assigned to at least one different item.
  • the plurality of guide lines 23a to 23j are straight or curved paths toward the center item 21 from each of the plurality of peripheral items 22a to 22j.
  • the plurality of guidelines 23a to 23j may be mutually identified by having different shapes or directions, and the plurality of peripheral items 22a to 22j may also correspond to the plurality of guidelines 23a to 23j. Can be mutually identified.
  • a gesture for selecting any one of the peripheral items 21 and the plurality of peripheral items 22a to 22j that is, a gesture for selecting an item disposed in any one item is selected.
  • the gesture for selecting an item may include a drag operation based on a guide line corresponding to a peripheral item to be selected among the plurality of guide lines 23a to 23j, or a click operation corresponding to the center item 21.
  • the user may input a gesture of a click operation corresponding to the center item.
  • the user may input a gesture of a drag operation based on a guideline corresponding to the peripheral item in which the item to be selected is arranged.
  • a gesture of a drag operation when a gesture of a drag operation is input, a motion in which an item selected by the gesture is moved from a peripheral item to a center item along a guideline and rearranged to the center item may be displayed as a drag operation.
  • the keyboard 20 may include a center item 21 having an initial value of a blank and a plurality of peripheral items 22a to 22j indicating the numbers '0 to 9'. That is, the first, second, and third peripheral items 22a, 22b, and 22c listed above the center item 21 display the numbers '1', '2', and '3', respectively, and the center item ( The fourth and fifth peripheral items 22d and 22e, which are listed on the left of 21), represent numerals '4' and '5', respectively. In addition, the sixth and seventh peripheral items 22f and 22g listed on the right side of the center item 21 display the numbers '6' and '7', respectively, and the eighth listed below the center item 21. , The ninth and tenth peripheral items 22h, 22i, 22j represent the numbers '8', '9' and '0', respectively.
  • the first guideline 23a connecting the first peripheral item 22a and the central item 21 has a curved shape from the upper left to the lower right in the counterclockwise direction.
  • the second guideline 23b connecting the second peripheral item 22b and the center item 21 is a straight line from the upper side to the lower side.
  • the third guideline 23c connecting the third peripheral item 22c and the central item 21 has a curved shape from the upper right to the lower left in the clockwise direction.
  • the fourth guideline 23d is curved in a clockwise direction from the upper left to the lower right, and the fifth guideline 23e is in a counterclockwise direction from the lower left to the upper right.
  • the sixth guideline 23f has a curved shape from the upper right to the lower left in the counterclockwise direction
  • the seventh guideline 23g has the curved shape from the lower right to the upper left in the clockwise direction
  • the eighth guide line 23h has a curved shape from the lower left to the upper right in a clockwise direction
  • the ninth guide line 23i has a straight shape from the lower side to the upper side
  • the tenth guide line 23j is counterclockwise. This is a curved line from the bottom right to the top left.
  • the plurality of guide lines 23a to 23j may be identified by their shapes and directions, and the plurality of guide lines 23a to 23j.
  • the plurality of peripheral items 22a to 22j corresponding to 23j) may also be identified by the plurality of guidelines 23a to 23j. Accordingly, any one of at least one item disposed in the plurality of peripheral items 22a through 22j may be selected through a gesture of a drag operation based on the plurality of guide lines 23a through 23j.
  • the input device 10 displays a keyboard 20, when a gesture of a drag operation for selecting any one of at least one item arranged in the plurality of peripheral items 22a to 22j is input, By deriving a guideline matching a shape and a direction of a drag operation among the plurality of guidelines 23a to 23j, deriving peripheral items corresponding to the derived guidelines, and deriving an item assigned to the derived peripheral items, The item selected by the gesture can be recognized.
  • the display unit 11 guides the selected item. Accordingly, the motion of moving from the peripheral item to the center item 21 may be displayed.
  • the input device 10 displays a keyboard 20 and a gesture of a click action corresponding to the center item 21 is input, the item arranged in the center item 21 is an item selected by the gesture. It can be recognized as.
  • the click operation may be matched with detaching on the center item 21 on the touch screen.
  • the input device 10 inserts a space into the character string of the text input window. You may.
  • the keyboard 20 of FIG. 3 is in the form of a modified circular menu, in which at least one item including a blank is placed, a plurality of peripheral items 22a to 22j, and a plurality of peripheral items. And a plurality of guide lines 23a to 23j corresponding to 22a to 22j and having different shapes or directions.
  • the plurality of guidelines 23a to 23j may be displayed to guide a gesture for selecting an item so that a gesture of dragging and dropping an item disposed on a peripheral item to a center area may be intuitive to the user.
  • a gesture of dragging and dropping an item disposed on a peripheral item to a center area may be intuitive to the user.
  • the at least one item disposed in the plurality of peripheral items 22a to 22j corresponds to the plurality of peripheral items 22a to 22j instead of the plurality of peripheral items 22a to 22j.
  • a plurality of guidelines 23a to 23j are identified.
  • the plurality of peripheral items 22a to 22j are unique guides. As long as it corresponds to a line, it need not be limited to eight or fewer. That is, since the keyboard 20 of FIG. 3 does not limit the number of items that can be displayed through it to eight or less, it may have an expanded utilization than a general circular menu.
  • FIG. 5 is a flowchart illustrating a character input method according to an embodiment of the present application.
  • 6 is a flowchart illustrating an operation of displaying the main keyboard of FIG. 5
  • FIG. 7 is a flowchart illustrating an operation of detecting the first character selection gesture of FIG. 5.
  • the character to be input is selected by using the keyboard 20 of FIG. 3.
  • the text input method may include detecting a keyboard request gesture for requesting display of a keyboard for inputting characters in the text input window, displaying the keyboard for text input based on the keyboard request gesture, and displaying the keyboard. Detecting a character selection gesture for selecting any one item, and inserting individual characters assigned to the item selected by the character selection gesture into a character string of the character input window.
  • all individual letters for expressing each language are classified into a plurality of groups according to associations of forms, pronunciations and sequences.
  • the plurality of groups includes at least one individual character.
  • any one of the at least one individual character included in each group may be designated as a representative character representing the group. That is, one group may represent two or more individual characters including representative characters, and the other group may represent only representative characters.
  • the character input method the first selection process for selecting any one of the plurality of groups, and at least one individual character included in the group selected through the first selection process A second selection process.
  • the character input method in the step of detecting a keyboard request gesture for requesting the display of the keyboard (S10), based on the keyboard request gesture, classifies all individual characters Displaying a main keyboard for selecting one of a plurality of groups (S20), detecting a first character selection gesture for selecting any one of a plurality of groups displayed by the main keyboard (S30), and 1 displaying a sub keyboard for selecting any one of at least one individual character included in the selected group based on the character selection gesture (S40), and displaying any one of the at least one individual character displayed by the sub keyboard Detecting a second character selection gesture to select (S50), and inserting the selected individual character into a character string of the text input window (S60) based on the second character selection gesture; The.
  • step S10 of detecting a keyboard request gesture the input device 10 detects a keyboard request gesture input through the gesture detector 12.
  • the keyboard request gesture may include a click operation on the text input window.
  • the keyboard request gesture may include a short touch of a position corresponding to a text input window on the display unit 11 through the touch screen of the gesture detecting unit 12. Can be matched.
  • step S20 of displaying the main keyboard the input device 10 displays a main keyboard representing a list of a plurality of groups.
  • the main keyboard includes a center item, a plurality of peripheral items that are arranged spaced apart from each other around the center item, and a plurality of guidelines corresponding to the plurality of peripheral items.
  • the plurality of peripheral items may display at least one group of the plurality of groups.
  • some of the plurality of peripheral items may be assigned to at least one different group, and some of them may be blank.
  • all of the plurality of peripheral items may indicate a plurality of different groups or may be blank.
  • the central item may be assigned to an initial value selected from one of the blank initial values or a plurality of groups.
  • the initial value selected as the A group is placed in the center item, and 2 of the 3 peripheral items are placed. Groups B and C are placed in the neighbors, and the other one may be blank. Alternatively, a blank initial value may be arranged in the center item, and A, B, and C groups may be arranged differently in three peripheral items.
  • the center item and the plurality of peripheral items may display a plurality of representative characters representing each group instead of the plurality of groups.
  • the plurality of guidelines are straight or curved paths from each of the plurality of peripheral items toward the center item, and have different directions or shapes.
  • the main keyboard may include a first main keyboard relating to terminal sounds and a second main keyboard relating to twin consonants.
  • displaying the main keyboard may include displaying the first main keyboard based on the keyboard request gesture (S21), and detecting a keyboard change gesture.
  • the method may include displaying a second main keyboard different from the first main keyboard based on the keyboard change gesture (S23).
  • the input device 10 detects a first letter selection gesture of selecting one of the groups displayed on the first main keyboard in step S30. If the second main keyboard is displayed on the basis of the keyboard change gesture (S23), the first character selection gesture of selecting one of the other groups displayed on the second main keyboard is detected in step S30.
  • the keyboard change gesture may include a click operation or a double click operation on the text input window or the first main keyboard.
  • the input device 10 assumes that the keyboard request gesture and the keyboard change gesture are collectively inputted. 2 Main keyboard can be displayed.
  • the input device 10 displays the first main keyboard when the user double-clicks an area corresponding to the center item of the text input window or the first main keyboard or an arbitrary area of the touch input window, the keyboard change gesture is input. May be regarded as input and the second main keyboard may be displayed.
  • the touch input window receives an input area, that is, a gesture of touching, and displays the input gesture.
  • the first letter selection for selecting any one of the items of the main keyboard. Detect gestures By the first letter selection gesture, any one of a plurality of groups arranged on the main keyboard is selected.
  • the first character selection gesture includes a drag operation based on a guide line corresponding to a peripheral item to be selected from among a plurality of guidelines included in the main keyboard, or a click operation corresponding to a center item.
  • the first character selection gesture for selecting any one of the at least one group arranged in the plurality of peripheral items of the main keyboard is a drag operation that matches the shape and direction of the guideline corresponding to the peripheral item in which the group to be selected is arranged. It includes.
  • the first letter selection gesture for selecting a group disposed in the center item of the main keyboard includes a click operation on the center item.
  • the gesture detecting unit 12 includes a touch screen
  • the input device 10 It may be recognized that a first letter selection gesture including a click action for the center item is input.
  • step S40 of displaying the sub-keyboard shown in FIG. 5 the input apparatus 10 recognizes the group selected by the first character selection gesture and at least one individual character included in the selected group corresponding to the selected group.
  • the sub keyboard for selecting any one is displayed.
  • the step S40 of displaying the sub keyboard may include receiving a first letter selection gesture (S41), and if the first letter selection gesture does not include a click operation on the center item (S40).
  • S42 deriving the shape and direction of the drag operation included in the first character selection gesture (S43), deriving a guideline matching the shape and the direction of the drag operation derived from the plurality of guidelines (S44) Deriving a group assigned to the peripheral item corresponding to the derived guidelines among the plurality of groups (S45), Assigning the derived group to the center item (S46), First group the group assigned to the center item Recognizing the group selected by the selection gesture (S47), if the first character selection gesture includes a click action for the central item (S42), the initial value of the central item assigned to the central item is determined by the first character selection gesture. Line by Recognizing a selected group (S47) and displaying a sub-keyboard corresponding to the recognized group (S48).
  • the sub-keyboard corresponding to the group selected by the first character selection gesture is, as with the keyboard 20 of FIG. 3, the sub-items, the plurality of peripheral items, and the plurality of peripheral items which are arranged spaced apart from each other around the center item. It includes a plurality of guidelines corresponding to.
  • the plurality of peripheral items may display at least one individual letter included in the selected group.
  • the center item may be assigned to the initial value selected by either the initial value of the blank or at least one individual character included in the selected group.
  • the initial value selected as the individual letter a representing the group A is placed in the center item.
  • Individual characters b and c may be placed in two peripheral items among the three peripheral items, and one remaining item may be blank.
  • a blank initial value may be arranged in the center item, and individual letters a, b, and c may be arranged differently in the three peripheral items.
  • the input device 10 may further display the sub-keyboard around the main keyboard, or may display the sub-keyboard instead of the main keyboard after removing the main keyboard.
  • the input device 10 may display the main keyboard or the sub keyboard at least partially overlapping the character input window.
  • the center item may overlap with the activated cursor in the text input window.
  • the main keyboard is displayed around the text input window, and after the first text selection gesture is input S30, in step S40, the sub keyboard displays a center item overlapping the cursor of the text input window. It may be marked to include.
  • step S20 the main keyboard is displayed to include a center item overlapping the cursor of the text input window, and when the first letter selection gesture is input (S41), the main keyboard is removed and then removed in step S48.
  • the sub keyboard may be displayed at the same position as the main keyboard.
  • step S50 of detecting the second character selection gesture shown in FIG. 5 the input device 10 displays the sub keyboard corresponding to the group selected by the first character selection gesture.
  • a second character selection gesture of selecting one of the items is detected.
  • the second character selection gesture any one of at least one individual character arranged on the sub-keyboard is selected.
  • the second character selection gesture includes a drag operation based on a guide line corresponding to a peripheral item to be selected from among a plurality of guide lines included in the sub-keyboard, or a click operation corresponding to the center item.
  • the second character selection gesture for selecting any one of the at least one individual characters arranged in the plurality of peripheral items of the sub-keyboard is matched to the shape and direction of the guideline corresponding to the peripheral item in which the individual characters to be selected are arranged. It includes a drag gesture.
  • the second character selection gesture for selecting individual characters arranged in the center item of the sub keyboard includes a click operation on the center item.
  • the second character selection gesture is the same as the first character selection gesture described above in that the second character selection gesture is for selecting one of the center item and the plurality of peripheral items corresponding to the keyboard of FIG. 3. Is omitted.
  • step S60 of inserting the selected individual character into the character string of the text input window the input device 10 recognizes the individual character selected by the second character selection gesture and selects the selected individual character.
  • the text inserted string is displayed in the text input window.
  • the process of recognizing the individual character selected by the second character selection gesture may display a point that is the second character selection gesture instead of the first character selection gesture, an individual character instead of the group, and a sub keyboard (S48). Except for inserting the individual character selected by the second character selection gesture into the character string instead of the step), the same as the process (S41 ⁇ S47) of recognizing the group selected by the first character selection gesture shown in Figure 7, Duplicate explanations will be omitted below.
  • the main keyboard display (S20), the first character selection gesture detection (S30), the sub-keyboard display (S40), the second character selection gesture detection (S50) and the insertion process of the selected individual characters are repeated, at least one individual Enter a string containing text into the text input box.
  • the input device 10 ends the display of the main keyboard and the sub keyboard.
  • the keyboard end gesture may include a click operation on an area other than the text input window, a click operation on an area other than the touch input window, or a separate button click.
  • FIG. 8 is an example of the main keyboard for inserting a character input window and Japanese characters in one embodiment of the present application
  • Figure 9 is another example of the main keyboard for inserting Japanese characters in an embodiment of the present application to be.
  • 10 and 11 are examples of a process of inputting the letter ' ⁇ ' using the main keyboard of FIG. 8.
  • 12 and 13 are examples of a process of inputting ' ⁇ ' using the main keyboard of FIG. 8 of FIG. 8.
  • the input device 10 when the input device 10 detects a keyboard request gesture in a state in which the character input window 11a is displayed on the display unit 11 (S10), the input device 10 displays the main keyboard 100 ( S20).
  • the display unit 11 may receive a text input window 11a displaying an input text string, a cursor 11b indicating a position at which a text string is inserted into the text input window 11a, and a gesture. And a touch input window 11c displaying a gesture.
  • the cursor 11b may be activated by a keyboard request gesture.
  • the touch input window 11c is an area touched by the user, that is, an area receiving a touch, separately from the text input window 11a.
  • the illustration of FIG. 8 is merely an example of the display unit 11, and unlike the illustration of FIG. 8, the display unit 11 may not include the touch input window 11c separately.
  • the main keyboard 100 may be displayed anywhere on the display unit 11, but may be displayed at a position adjacent to the text input window 11a or at a position at least partially overlapping with the text input window 11a.
  • the center item 101 of the main keyboard 100 may be displayed at a position overlapping with the cursor 11c of the character input window 11a. In this way, the user can easily recognize the insertion position of the character to be input.
  • the main keyboard 100 for inputting Japanese characters is for selecting any one of a plurality of groups that classify all hiragana or katakana of Japanese.
  • Japanese is represented by hiragana (previously consisting of 46 individual letters) and katakana, each of which is composed of about 50 individual letters, and their sound and halftone sounds.
  • the individual letters of each of hiragana and katakana may be classified into ten groups (10 groups x 5) by combining five or less individual letters on a vowel and consonant basis.
  • 10 representative characters representing 10 groups are ' ⁇ ', ' ⁇ ', ' ⁇ ',' ⁇ ',' ⁇ ',' ⁇ ',' ⁇ ',' ⁇ ',' ⁇ 'and' ⁇ '.
  • the group corresponding to the representative character ' ⁇ ' may include individual characters of ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', and ' ⁇ '.
  • the main keyboard 100 includes a center item 101, a plurality of peripheral items 102a and 102b, and a plurality of guidelines 103, and includes 10 peripheral items among the plurality of peripheral items 102a and 102b.
  • Ten representative characters (' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ' corresponding to ten groups classified hiragana in 102a) , ' ⁇ ' and ' ⁇ ') are differently assigned, and the remaining two peripheral items 102b each have a symbol for creating a sound for a sound, and a symbol for creating a sound for a sound. Is assigned.
  • the main keyboard 100 ′ may further include peripheral items 102c to which numeric items are assigned. That is, ten peripheral items 102a among the plurality of peripheral items 102a, 102b, and 102c may have 10 representative characters (' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ '). , ' ⁇ ', ' ⁇ ', ' ⁇ ' and ' ⁇ '), and the two peripheral items 102b indicate a tack point and a semi-tack point, and the remaining four peripheral items 102c. ) Indicates the numbers '1', '2', '3' and '4' of the numeric items '0-9'.
  • the controller 13 recognizes a keyboard request gesture including a click operation (S10).
  • the display unit 11 displays the main keyboard 100 (S20).
  • the main keyboard 100 includes a central item 101 to which an initial value of a blank is assigned, and ten representative characters representing hiragana ( ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , The center item in 10 peripheral items 102a assigned to ⁇ , ⁇ , ⁇ ), two peripheral items 102b assigned to a desk point and anti-tack point, and 12 peripheral items 102a and 102b. Twelve guidelines 103 directed to 101. Here, the twelve guidelines 103 have different shapes or directions.
  • the control unit 13 derives a guide line 103 of a straight form from left to right based on the first character selection gesture (S41 to S44), and the center item 101 according to the guide line 103 derived. Deriving the peripheral item 102a disposed in the left center of the, and derives the representative character ' ⁇ ' assigned to the peripheral item 102a of the left center (S45).
  • the display unit 11 arranges the derived representative character ' ⁇ ' in the center item 101 (S46).
  • the display unit 11 may display a motion in which the representative character ' ⁇ ' moves from the peripheral item 102a at the left center to the center item 101, as in the drag operation included in the first character selection gesture.
  • the controller 13 recognizes that the representative character ' ⁇ ' assigned to the central item 101 and the group corresponding to the representative character ' ⁇ ' (hereinafter referred to as ' ⁇ group') are selected by the first character selection gesture. (S47).
  • the display unit 11 displays the motion assigned to the central item 101 by moving the representative character ' ⁇ ' selected by the first character selection gesture, and then the group ⁇ .
  • the sub keyboard 110 corresponding to the display is displayed (S48).
  • the sub keyboard 110 corresponding to the group ⁇ is the center item 111 to which the initial value of the representative character ' ⁇ ' is assigned, and the five individual characters included in the group ⁇ (' ⁇ ', ' ⁇ ', ' ⁇ ', The central item in the four peripheral items 112a, the remaining eight items 112b and 12 peripheral items 112a and 112b, all of which are assigned other than the representative character ' ⁇ ' among ' ⁇ ' and ' ⁇ '). Twelve guidelines 113 directed to 111.
  • the pointer that is, the touch point on the touch screen corresponds to the center item 111.
  • the control unit 13 corresponds to the center item 111 in response to the detaching detected by the gesture detecting unit 12.
  • the second character selection gesture including the click operation is recognized.
  • the controller 13 determines that the individual character ' ⁇ ', which is an initial value of the center item 111, is selected by the second character selection gesture. Recognize that it is a letter. Then, the display unit 11 displays the character string inserted with the individual character ' ⁇ ' selected by the second character selection gesture in the character input window 11a (S60).
  • keyboard request gesture and the first and second character selection gestures shown in FIGS. 10A, 10C, and 10F may be batch motions.
  • the initial value selected by the representative character ' ⁇ ' is assigned, but the initial value may be blank. have.
  • the sub-keyboard 120 corresponding to the group A is the center item 121 to which the initial value of the blank is assigned, and five individual characters (' ⁇ ' included in the group A). , 5 peripherals 122a assigned ',', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ '), 7 peripherals 122b blank and 12 peripherals 122a and 122b Twelve guidelines 123 directed to 121.
  • the controller recognizes the second character selection gesture including a drag action in a counterclockwise curved direction from the lower left to the upper right in response to the scratching detected by the gesture detecting unit 12 (S50).
  • the controller 13 recognizes that the individual character ' ⁇ ' assigned to the peripheral item 122a disposed at the lower left of the center item 121 is the individual character selected by the second character selection gesture.
  • the display unit 11 displays the motion assigned to the center item 121 by moving the individual character ' ⁇ ' selected by the second character selection gesture, and then the center item The individual character ' ⁇ ' disposed at 121 is inserted into the character string of the character input window 11a (S60).
  • the main keyboard 100 when the main keyboard 100 is displayed (S20), when the user scratches the touch screen in a clockwise curved form from an arbitrary point that the user is touching, it moves downward,
  • the first character selection gesture including a drag action in a curved form from the upper right to the lower left in a clockwise direction in response to the scratching detected by the gesture detecting unit 12 is performed.
  • the control unit 13 is a representative character ' ⁇ ' assigned to the peripheral item 102a disposed on the upper right side of the center item 101 and a group corresponding to the representative character ' ⁇ ' (hereinafter referred to as ' ⁇ group'). Recognize that is selected by the first character selection gesture.
  • the display unit 11 displays the motion assigned to the center item 101 by moving the representative character ' ⁇ ' selected by the first character selection gesture, and then FIG. 12 (c). ), The sub keyboard 130 corresponding to the group is displayed (S40).
  • the sub keyboard 130 corresponding to the ⁇ group includes a central item 131 to which an initial value of the representative character ⁇ is assigned, and five individual characters included in the ⁇ group (' ⁇ ', ' ⁇ ', ' ⁇ ', Centers of four peripheral items (132a) assigned to the remaining ones except for the representative character ' ⁇ ' among ' ⁇ ' and ' ⁇ '), eight peripheral items (132b) and 12 peripheral items (132a, 132b) that are blank. Twelve guidelines 133 directed to 131.
  • the controller 13 may include a gesture detector 12.
  • the second character selection gesture including a drag action of a straight line from the upper side to the lower side is detected in response to the detected scratching through S).
  • the controller 13 recognizes that the individual letter ' ⁇ ' assigned to the peripheral item 132a disposed above the center item 131 is selected by the second character selection gesture.
  • the display unit 11 displays the motion allocated to the center item 131 by moving the individual letter ' ⁇ ' selected by the second character selection gesture to move to the center item.
  • the individual character ' ⁇ ' disposed at 131 is inserted into the character string of the character input window 11a (S60).
  • the sub keyboard 140 corresponding to the group “Na” includes the central item 141 to which the blank initial value is assigned and the five individual characters included in the group “Na”. , 5 items (142a) assigned to ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ '), 7 items (142b) and 12 items (142a, 142b) blank Twelve guidelines 143 directed to 141.
  • the controller 13 may include a gesture detector 12. Recognizing a second character selection gesture including a linear drag operation from the upper side to the lower side corresponding to the scratching detected through the (S50).
  • the controller 13 recognizes that the individual letter ' ⁇ ' assigned to the peripheral item 132a disposed above the center item 131 is selected by the second character selection gesture.
  • the display unit 11 displays the motion assigned to the center item 131 by moving the individual character '' selected by the second character selection gesture, and then the center item The individual character ' ⁇ ' disposed at 131 is inserted into the character string of the character input window 11a (S60).
  • FIGS. 15 to 17 are 'a', ' ⁇ ' and 'of Korean characters using the main keyboard of FIG. 14. This is an example of the process of entering '.
  • the main keyboard 200 for inputting Korean characters is for selecting any one of a plurality of groups that classify consonants and vowels of Korean characters.
  • Hangul is represented by 19 consonants and 21 vowels, of which 19 consonants may be divided into 14 terminal sounds and 5 consonants.
  • the 14 terminal tones are ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ⁇ ',' ⁇ , ⁇ , ⁇ , ⁇ , and the five consonants are ⁇ , ⁇ , ⁇ , ⁇ , ⁇ .
  • 21 vowels have 6 basic vowels, 4 primary double vowels combining 4 basic vowels and vowel ' ⁇ ' except ' ⁇ ', ' ⁇ ', and 2 which combines basic vowels and primary double vowels. It can be divided into secondary double vowels.
  • the six basic vowels are ' ⁇ ', ⁇ ',' ⁇ ',' TT ',' ⁇ ',' ⁇ ', and the primary double vowels are' ⁇ ',' ⁇ ',' ⁇ ',' ⁇ 'to be.
  • All the individual characters of Hangul can be classified into eight groups. That is, 14 terminal sounds and 6 short vowels may be classified into four groups according to their form or pronunciation, and five twin consonants and four primary double vowels may be classified into four other groups.
  • the first group includes the letters ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', and the second group includes the letters ' ⁇ ', ' ⁇ ', ' ⁇ ', 'TT' Contains'
  • the third group includes the letters ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ' and ' ⁇ '
  • the fourth group includes the letters ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ' , ' ⁇ '.
  • the fifth group includes letters ' ⁇ ' and ' ⁇ '
  • the sixth group includes letters ' ⁇ ' and ' ⁇ '.
  • the seventh group includes the letters ' ⁇ ' and ' ⁇ '
  • the eighth group includes ' ⁇ ', ' ⁇ ' and ' ⁇ '.
  • a first main keyboard 200 for selecting terminal sounds and a second main keyboard 300 for selecting double consonants are required.
  • the first main keyboard 200 includes a plurality of peripheral items to which the center items 201, the first to fourth groups of 14 terminal sounds and six short vowels are assigned. 202, and a plurality of guidelines 203 corresponding to the plurality of peripheral items 202.
  • the second main keyboard 300 is assigned a fifth to eighth group in which the center item 301, five double consonants, and four primary double vowels are classified.
  • FIGS. 15 to 17 illustrate a process of inputting Korean characters 'a', ' ⁇ ' and ' ⁇ ' using the first and second main keyboards 200 and 300 of FIG. 14.
  • the controller 13 recognizes a keyboard request gesture including a click operation (S10).
  • the display unit 11 displays the first main keyboard 200 (S21).
  • the first main keyboard 200 includes a center item 201 assigned with an initial value of a blank, and a first to fourth group assigned with a terminal sound and a short vowel in Korean.
  • Four peripherals 202 and four peripherals 202 corresponding to four guidelines 203 which are different paths toward the central item 201.
  • the controller 13 Recognizes the first character selection gesture including a linear drag operation from left to right in response to the scratching detected by the gesture detector 12 (S30).
  • the control unit 13 has a first group ('a', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ') assigned to the peripheral item 202 disposed on the left side of the center item 201. Note that it is selected by the character selection gesture.
  • the display unit 11 includes the first group selected by the first character selection gesture (' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ').
  • the first group '', ' ⁇ ', ' ⁇ ' arranged in the center item 201 is shown.
  • the sub keyboard 210 corresponding to ','-',' ⁇ ' is displayed (S40).
  • the sub keyboard 210 corresponding to the first group (' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ') is the first group (' ⁇ ', ' ⁇ ', ' ⁇ ', '
  • the controller 13 recognizes that the individual letter 'a' assigned to the peripheral item 212 disposed at the top of the center item 211 is selected by the second letter selection gesture.
  • the display unit 11 displays the motion assigned to the center item 211 by moving the individual letter 'B' selected by the second character selection gesture, and then the center item In step S60, the individual character 'a' disposed in the character 211 is inserted into the character string of the character input window 11a.
  • the controller 13 Recognizes the first character selection gesture including a linear drag operation from right to left in response to the scratching detected by the gesture detector 12 (S30).
  • the control unit 13 has a third group ('c', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ') assigned to the peripheral item 202 disposed on the right side of the center item 101. Note that it is selected by the character selection gesture.
  • the display unit 11 includes a third group selected by the first character selection gesture (' ⁇ ', ' ⁇ ', ',', ' ⁇ ', ' ⁇ ').
  • the third group '′', ' ⁇ ', and ' ⁇ ' are arranged in the center item 201.
  • ',' ⁇ ',' ⁇ ') displays the sub-keyboard 220 (S40).
  • the sub keyboard 220 corresponding to the third group (' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ') includes the third group (' ⁇ ', ' ⁇ ', ' ⁇ ', ' The center item 221 assigned to the initial value of the character ' ⁇ ' representing the character 'h', ' ⁇ '), and the third group (' ⁇ ', ' ⁇ ', 't', ' ⁇ ', ' ⁇ ') 4 peripheral items (222) assigned to the remaining characters ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ' except for the letter ' ⁇ ', and 4 peripheral items (222) to the center item (221). It includes four guidelines 223, which are different paths towards each other.
  • the pointer that is, the touch point on the touch screen corresponds to the center item 221.
  • the controller 13 may correspond to the center item 221 in response to the detachment detected by the gesture detector 12.
  • the second character selection gesture including the click operation is recognized.
  • the controller 13 recognizes that the individual letter ' ⁇ ' assigned to the center item 221 is selected by the second character selection gesture.
  • the display unit 11 inserts the individual character ' ⁇ ' selected by the second character selection gesture into the character string of the character input window 11a (S60).
  • the controller 13 Recognizes the keyboard change gesture in response to the double touching detected through the gesture detector 12 (S22).
  • the display unit 11 displays the second main keyboard 300 (S23).
  • the second main keyboard 300 includes a center item 301 to which an initial value of a blank is assigned, and a fourth to eighth group of five to eighth groups that classify a terminal sound and a short vowel in Korean.
  • Four peripherals 302 and four peripherals 302 corresponding to four guidelines 303 which are different paths toward the center item 301.
  • the controller 13 Recognizes the first character selection gesture including a linear drag operation from left to right in response to the scratching detected by the gesture detector 12 (S30).
  • the controller 13 recognizes that the fifth group '(' and ' ⁇ ' assigned to the peripheral item 302 disposed on the left side of the center item 301 is selected by the first character selection gesture.
  • the display unit 11 has a motion in which the fifth group selected by the first character selection gesture (' ⁇ ', ' ⁇ ') is moved and assigned to the center item 301.
  • the sub-keyboard 310 corresponding to the fifth group '' and '' 'disposed in the center item 301 is displayed (S40). .
  • the sub keyboard 310 corresponding to the fifth group (' ⁇ ', ' ⁇ ') has a center item 311 to which an initial value of the letter ' ⁇ ' representing the fifth group (' ⁇ ', ' ⁇ ') is assigned. ), One peripheral item 312a to which the remaining letter ' ⁇ ' is assigned except the letter ' ⁇ ' in the fifth group (' ⁇ ', ' ⁇ '), three peripheral items 312b which are blank, and four peripheral items Four guidelines 313, which are different paths from items 312a and 312b to the center item 311.
  • the controller 13 recognizes the second character selection gesture including a linear drag operation from the upper side to the lower side in response to the scratching detected by the gesture detecting unit 12 (S50).
  • the controller 13 recognizes that the individual letter ' ⁇ ' assigned to the peripheral item 312 disposed at the top of the center item 311 is selected by the second letter selection gesture.
  • the display unit 11 displays the motion assigned to the center item 311 by moving the individual character '' selected by the second character selection gesture, and then the center item The individual character ' ⁇ ' disposed in 311 is inserted into the character string of the character input window 11a (S60).
  • Table 1 below summarizes gestures for inputting each Hangul character while the text input window is displayed using the first and second main keyboards 200 and 300 of FIG. 14.
  • TO and TF represent touching and detaching, respectively
  • DU, DD, DL, and DR represent dragging up, down, left and right
  • TT-O represents double touching (double click). Matched).
  • the components illustrated in FIG. 1 refer to software or a hardware component such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and perform predetermined roles.
  • FPGA field programmable gate array
  • ASIC application specific integrated circuit
  • each component may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors.
  • a component may include components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and subs. Routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
  • Components and the functionality provided within those components may be combined into a smaller number of components or further separated into additional components.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • Computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

본원은 문자 입력 인터페이스를 제공하기 위한 입력 장치를 이용하여 문자를 입력하는 방법에 있어서, 입력된 문자열을 나타내는 문자 입력창에 문자를 입력하기 위한 자판을 표시하는 단계; 상기 자판 중 어느 하나의 항목을 선택하는 문자선택 제스처를 감지하는 단계; 및 상기 문자선택 제스처에 의해 선택된 항목에 할당된 개별문자를 상기 문자 입력창의 문자열에 삽입하는 단계를 포함하되, 상기 자판은 중심항목; 상기 중심항목 주변에 상호 이격하여 나열되는 복수의 주변항목; 및 상기 복수의 주변항목에 대응하는 복수의 가이드라인을 포함하고, 상기 복수의 가이드라인은 상기 복수의 주변항목 각각으로부터 상기 중심항목을 향하는 직선 또는 곡선 형태의 경로이고, 서로 다른 형태 또는 방향을 갖는다.

Description

입력 장치 및 문자 입력 방법
본원은 문자 입력 인터페이스를 제공하기 위한 입력 장치 및 그를 이용한 문자 입력 방법에 관한 것이다.
문자 입력 인터페이스를 제공하기 위한 기존의 입력 장치로는 물리적 버튼을 포함하는 마우스(MOUSE), 키보드(KEY BOARD) 및 키패드(KEYPAD) 등이 있다.
그 중 키보드는 전체 개별문자 및 다수의 기능키에 대응하는 복수의 버튼(일반적으로, '키(key)'로도 지칭함)을 포함하여, 눌린 버튼에 대응하는 개별문자를 입력한다. 이에, 각 언어마다 다른 종류의 키보드가 이용될 수 있다. 일 예로, 영어를 입력하기 위한 키보드로서 쿼티 자판(QWERTY)이 주로 이용되고, 한글을 입력하기 위한 키보드로서 두벌식 자판이 주로 이용되고 있다.
키패드는 키보드와 달리, 한정된 개수의 버튼을 포함한다. 일반적으로 키패드는 숫자 0~9에 대응하는 10개의 숫자버튼, 및 다수의 기능에 대응하는 다수의 기능버튼을 포함하여, 20개 이하의 버튼을 포함할 수 있다. 이러한 키패드를 이용하여, 문자를 입력하기 위해서는, 하나의 버튼에 적어도 하나 이상의 개별문자를 할당해야만 한다. 즉, 키패드에 포함된 복수의 버튼은 전체 개별문자를 분류한 복수의 그룹에 대응된다. 이에, 키패드는, 복수의 버튼 중 어느 하나를 적어도 1회 누르면, 버튼의 눌린 횟수에 기초하여, 눌린 버튼에 대응하는 어느 하나의 그룹에 속한 적어도 하나의 개별문자 중 어느 하나를 입력한다.
이와 관련하여, 한국공개특허 제 10-2011-0115179호(발명의 명칭: 문자 입력 장치, 문자 입력 방법 및 문자 입력 프로그램이 기록된 컴퓨터 판독 가능한 기록매체)는 지시된 위치를 검출하는 지시 위치 검출부, 검출되는 위치의 이동 방향을 검출하는 이동 방향 검출부, 검출된 이동 방향에 근거하여 복수의 문자를 분류한 복수의 문자종 중 어느 하나를 선택하는 그룹 선택부, 및 선택된 문자종으로 분류된 적어도 하나의 문자 중에서 하나를 선택하는 문자 선택부를 포함하는 문자 입력 장치를 언급하고 있다.
그러나, 한국공개특허 제 10-2011-0115179호에 언급된 문자 입력 장치는 12개의 버튼을 포함하는 키패드를 이용하여 문자 입력 인터페이스를 제공한다. 여기서, 12개의 버튼 중 2개의 버튼은 기호 입력에 할당되고, 나머지 10개의 버튼은 문자 입력에 할당된다. 그러므로, 전체 문자를, 10개의 버튼에 대응되는 10개의 문자종으로 분류해야 하므로, 상호 연관성이 없는 문자들이 동일한 문자종으로 분류될 수 있어, 직관성이 낮아지는 문제점이 있다. 또한, 문자를 입력함에 있어서, 입력할 문자가 활성화되기까지 그가 속한 문자종에 대응되는 버튼을 반복해서 눌러야 하므로, 편리성이 낮아진다.
한편, 기존의 입력 장치는 별도로 휴대하기에 용이하지 않으므로, 주로 특정 위치에 고정시킨 상태에서 이용된다. 이에 따라, 스마트기기 등과 같은 개인 단말은 터치스크린을 탑재하여, 기존의 입력 장치와 연결되지 않더라도, 터치스크린으로 문자 입력 인터페이스를 제공하는 것이 일반적이다. 그 외에 스마트 텔레비전 등과 같이 고정된 단말은 리모콘 등의 이동 단말을 이용하여 문자 입력 인터페이스를 제공하는 것이 일반적이다.
터치스크린을 이용하여 문자 입력 인터페이스를 제공하는 방식은 터치스크린 상에 개별문자 및 기호 등에 대응한 가상 버튼을 표시한 상태에서, 터치스크린을 터칭(touching) 또는 스크래칭(scratching)하는 동작이 입력된 위치를 감지하면, 감지된 위치의 가상 버튼에 대응하는 문자를 입력한다.
예시적으로, 터치스크린을 이용하여 영어 문자를 입력하는 경우, 터치스크린 상에, 영어를 입력하기 위한 일반적인 키보드와 같이, "QWERTY" 자판을 표시할 수 있다. 이 경우, 한정된 너비의 터치스크린에, 알파벳 25개 글자에 대응하는 25개 이상의 버튼을 표시해야 한다. 이에, 각 버튼의 크기가 손가락이 터칭하는 면적보다 작으므로, 상당한 주의를 기울이지 않는다면, 오타가 자주 유발될 수 있어, 편리성이 낮아진다.
한편, 여러 개의 아이템 중 어느 하나를 선택하기 위하여, 선형메뉴 또는 원형메뉴를 이용할 수 있다.
도 1a는 선형메뉴의 일 예를 나타낸 것이고, 도 1b는 원형메뉴의 일 예를 나타낸 것이다. 도 1a 및 도 1b에서, 선형메뉴 및 원형메뉴는 Login, Logout, Open, Close, Hardcopy, Shrink, Shape 및 Move를 포함한 8 개의 아이템을 표시한다.
도 1a에 도시한 바와 같이, 선형메뉴는 여러 개의 아이템을 상하방향으로 배치한다. 그리고, 제스처가 입력되어, 여러 개의 아이템 중 어느 하나의 아이템이 활성화되면, 활성화된 아이템이 선택된다. 이와 같이, 선형메뉴는 여러 개의 아이템을 일 방향으로 나열함에 따라, 선형메뉴에 배치 가능한 아이템의 개수가 한정되지 않는 장점이 있다.
도 1b에 도시한 바와 같이, 원형메뉴는 전체 영역의 중점을 기준으로 전체 영역을 여러 개의 분할영역으로 구획하고, 여러 개의 분할영역에 여러 개의 아이템을 배치한다. 그리고, 여러 개의 분할영역 중 어느 하나의 분할영역에 대한 제스처가 발생하면, 제스처가 발생된 분할영역에 대응하는 아이템이 선택된다.
원형메뉴를 통해 어느 하나의 아이템을 선택하기 위해서는, 선택할 아이템의 분할영역에 대한 정확한 제스처가 입력되어야 하므로, 분할영역이 정확한 제스처를 보장할 수 있을 정도의 너비를 가져야만 한다. 예시적으로, 각 분할영역의 중심각이 45도 이하인 경우, 즉 분할영역이 8개를 초과하는 경우에, 제스처의 정확도가 현저히 낮아지는 것으로 알려져 있다. 이에, 분할영역의 개수가 한정되어, 원형메뉴에 배치 가능한 아이템의 개수가 한정되는 단점이 있다. 이에 따라, 원형메뉴는 그를 통해 선택 가능한 아이템의 개수가 8개 이하로 한정되는 단점이 있다.
본원은 아이템이 배치되는 영역의 너비에 따라 배치 가능한 아이템의 개수를 한정할 필요가 없도록 변형된 원형메뉴 형태를 띄는 가상의 자판을 이용함으로써, 직관성 및 편리성이 향상된 문자 입력 인터페이스를 제공할 수 있는 입력 장치 및 그를 이용한 문자 입력 방법에 관한 것이다.
상기와 같은 목적을 달성하기 위하여, 본원의 일 실시예는 문자 입력 인터페이스를 제공하기 위한 입력 장치에 있어서, 문자 입력을 위한 자판, 및 상기 자판을 통해 입력된 문자열을 나타내는 문자 입력창을 표시하는 표시부; 사용자의 제스처를 감지하는 제스처 감지부; 및 상기 제스처에 기초하여, 상기 표시부를 제어하는 제어부를 포함하는 입력 장치를 제공한다.
여기서, 상기 자판은 중심항목; 상기 중심항목 주변에 상호 이격하여 나열되는 복수의 주변항목; 및 상기 복수의 주변항목에 대응하는 복수의 가이드라인을 포함하고, 상기 복수의 가이드라인은 상기 복수의 주변항목 각각으로부터 상기 중심항목을 향하는 직선 또는 곡선 형태의 경로이고, 서로 다른 형태 또는 방향을 갖는 것이다.
그리고, 상기 제스처 감지부를 통해 상기 자판 중 어느 하나의 항목을 선택하는 문자선택 제스처가 입력되면, 상기 표시부는 상기 문자선택 제스처에 의해 선택된 항목에 할당된 개별문자를 상기 문자 입력창의 문자열에 삽입한다.
그리고, 본원의 일 실시예는 문자 입력 인터페이스를 제공하기 위한 입력 장치를 이용하여 문자를 입력하는 방법에 있어서, 입력된 문자열을 나타내는 문자 입력창에 문자를 입력하한 자판을 표시하는 단계; 상기 자판 중 어느 하나의 항목을 선택하는 문자선택 제스처를 감지하는 단계; 및 상기 문자선택 제스처에 의해 선택된 항목에 할당된 개별문자를 상기 문자 입력창의 문자열에 삽입하는 단계를 포함하는 문자 입력 방법을 제공한다.
본원의 일 실시예에 따른 입력장치 및 그를 이용한 문자 입력 방법은, 8개를 초과한 아이템을 배치할 수 있도록 변형된 원형메뉴 형태를 띄는 자판을 이용하여, 문자를 입력한다. 여기서, 자판은 중심항목, 중심항목 주변에 상호 이격하여 나열되는 복수의 주변항목, 및 복수의 주변항목에 대응하는 복수의 가이드라인을 포함하되, 중심항목 및 복수의 주변항목 중 적어도 일부는 적어도 하나의 아이템을 표시하고, 복수의 가이드라인은 서로 다른 형태 또는 방향을 갖는다.
이에 따라, 복수의 가이드라인이 그 형태와 방향으로 식별될 수 있어, 복수의 가이드라인에 대응하는 복수의 주변항목 또한 복수의 가이드라인에 의해 식별 가능하다. 그러므로, 복수의 가이드라인 중 선택할 주변항목에 대응하는 가이드라인에 기초한 드래그 동작의 제스처를 통해, 복수의 주변영역 중 어느 하나의 주변영역에 할당된 아이템이 선택될 수 있다.
즉, 복수의 주변항목에 할당된 아이템을 선택하는 제스처는, 주변항목에 대응하는 것이 아니라, 가이드라인에 대응함에 따라, 복수의 주변항목이 임계 이상의 너비를 갖도록 한정할 필요가 없어지고, 이로써, 주변항목의 개수 및 주변항목에 할당될 수 있는 아이템의 개수가 8 개 이하로 한정되지 않으므로, 다양한 각국 언어에 용이하게 적용될 수 있어, 자판의 활용도가 확대될 수 있다.
그리고, 복수의 가이드라인에 의해, 복수의 주변항목에 할당된 아이템을 중심항목으로 끌어다 놓는 제스처가 사용자에게 직감될 수 있어, 편리성 및 직관성이 향상될 수 있다.
또한, 각 언어의 개별문자를 복수의 그룹으로 분류하고, 복수의 그룹 중 어느 하나를 선택한 다음, 선택된 그룹에 포함되는 적어도 하나의 개별문자 중 어느 하나를 선택하는 과정을 통해, 개별문자를 입력함으로써, 하나의 자판에 너무 많은 개수의 개별문자를 표시하여 직관성 및 편리성이 저하되는 것을 방지할 수 있다.
도 1a는 선형메뉴의 일 예를 나타낸 것이고, 도 1b는 원형메뉴의 일 예를 나타낸 것이다.
도 2는 본원의 일 실시예에 따른 입력 장치를 나타낸 블록도이다.
도 3은 본원의 일 실시예에 따른 가상의 자판에 대한 일 예이다.
도 4a 및 도 4b는 도 3의 자판을 이용하여 복수의 아이템 중 어느 하나를 선택하는 동작에 대한 일 예이다.
도 5는 본원의 일 실시예에 따른 문자 입력 방법을 나타낸 순서도이다.
도 6은 도 5의 메인자판을 표시하는 단계를 나타낸 순서도이다.
도 7은 도 5의 서브자판을 표시하는 단계를 나타낸 순서도이다.
도 8은 본원의 일 실시예에 있어서, 문자 입력창 및 일본어 문자를 삽입하기 위한 메인자판의 일 예이다.
도 9는 본원의 일 실시예에 있어서, 일본어 문자를 삽입하기 위한 메인자판의 다른 예이다.
도 10 및 도 11은 도 8의 메인자판을 이용하여 문자 'あ'를 입력하는 과정의 예시들이다.
도 12 및 도 13는 도 8의 메인자판을 이용하여 'ぬ'를 입력하는 과정의 예시들이다.
도 14는 본원의 일 실시예에 있어서, 한국어 문자를 삽입하기 위한 메인자판의 일 예이다.
도 15 내지 도 17은 도 14의 메인자판을 이용하여 한국어 문자 중 'ㄱ', 'ㅏ' 및 'ㄲ'을 입력하는 과정 각각의 일 예이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하, 도 2, 도 3, 도 4a 내지 도 4c를 참조하여, 본원의 일 실시예에 따른 입력 장치에 대해 설명한다. 도 2는 본원의 일 실시예에 따른 입력 장치를 나타낸 블록도이다. 그리고, 도 3a는 본원의 일 실시예에 따른 가상의 자판에 대한 일 예이고, 도 4a 내지 도 4c는 도 3의 자판을 이용하여 복수의 아이템 중 어느 하나를 선택하는 동작에 대한 일 예이다.
도 2에 도시한 바와 같이, 본원의 일 실시예에 따른 입력 장치(10)는 표시부(11), 제스처 감지부(12), 제어부(13) 및 제스처 관리부(14)를 포함한다.
표시부(11)는 시각적 정보를 표시한다. 이러한 표시부(11)는 창(window), 아이콘(icon), 메뉴(menu) 및 포인터(pointer) 등을 표시하되, 특히, 입력된 문자열을 나타내는 문자 입력창, 사용자로부터 입력된 제스처를 나타내는 제스처 입력창 및 문자 입력을 위해 문자들의 목록을 나타내는 자판메뉴(이하, "자판"이라 함) 중 적어도 하나를 표시할 수 있다.
제스처 감지부(12)는 사용자의 제스처를 감지한다. 이때, 사용자의 제스처는 객체를 선택하거나 활성화하기 위한 클릭 동작, 및 객체를 이동시키는 드래그 동작 중 적어도 하나를 포함할 수 있다.
예시적으로, 제스처 감지부(12)는 사용자의 손짓에 의해 터칭(touching)된 위치를 감지하는 터치스크린, 사용자의 손짓 또는 사용자의 자세를 촬영하여 영상신호를 생성하는 카메라, 반사되는 적외선을 감지하여 사용자의 손짓 또는 자세에 대응한 센서신호를 출력하는 모션센서, 및 사용자의 손짓에 따라 변동되는 손의 전류값을 측정하는 전류측정기 중 적어도 하나를 포함할 수 있다. 그 외에도, 제스처 감지부(12)는 그래픽 인터페이스를 기반으로 하는 포인팅 장치, 즉, 조이스틱, 라이트 펜, 마우스, 터치패드 및 트랙볼 중 어느 하나를 포함할 수도 있다.
제스처 감지부(12)가 터치스크린(미도시)을 포함하는 경우, 터치스크린에 대한 손가락 또는 터치펜의 터칭(touching), 스크래칭(scratching) 및 디태칭(detaching)을 입력 받을 수 있다. 이때, 터치스크린 상의 임의의 객체에 대응한 위치를 짧게 누르는 터칭은 제스처 중 클릭 동작과 매칭될 수 있고, 터치스크린 상의 임의의 객체에 대응한 위치를 누른 상태에서 다른 위치로 이동하는 스크래칭은 제스처 중 드래그 동작 또는 드래그 앤드 드롭 동작과 매칭될 수 있다. 여기서, 드래그 앤드 드롭 동작은 임의의 객체를 제 1 위치에서 제 2 위치로 옮기는 제스처이다. 그리고, 터치스크린 상의 임의의 객체에 대응한 위치를 길게 누르는 터칭 또는 짧게 2회 누르는 더블터칭은 제스처 중 객체 실행을 위한 더블클릭 동작과 매칭될 수 있고, 터치스크린 상의 임의의 객체에 대응한 위치에서 떼어내는 디태칭은 제스처 중 클릭 동작과 매칭될 수 있다.
이 외에도, 제스처 감지부(12)가 카메라 또는 전류측정기를 포함하는 경우, 다양한 제스처로 해석될 수 있는 영상신호 또는 전류값 측정신호를 입력 받을 수 있다. 그리고, 제스처 감지부(12)가 모션센서를 포함하는 경우, 다양한 제스처로 해석될 수 있는 센서신호를 입력 받을 수 있다.
제어부(13)는 제스처 감지부(12)를 통해 입력된 사용자의 제스처에 기초하여, 표시부(11)를 제어하기 위한 제어신호를 생성하고, 생성한 제어신호를 표시부(11)에 전달한다.
일 예로, 표시부(11)에 문자 입력창이 표시된 상태에서, 사용자가 제스처 감지부(12)를 통해 터치스크린 상의 문자 입력창에 대한 사용자의 터칭 제스처가 입력된 경우, 제어부(13)는 문자 입력창을 선택하는 클릭 동작과 매칭되는 터칭 제스처에 기초하여, 문자 입력창에 문자열이 삽입되는 위치를 나타내는 커서(cursor)를 활성화시키는 제어신호를 생성하고, 생성한 제어신호를 표시부(11)에 전달함으로써, 표시부(11)를 제어할 수 있다.
제스처 관리부(14)는 제스처 감지부(12)를 통해 입력 가능한 신호 및 입력 가능한 신호에 각각 매칭되는 제스처를 보유한다. 이에, 제어부(11)는 제스처 관리부(14)를 조회하여, 제스처 감지부(12)를 통해 입력된 신호와 매칭되는 제스처를 도출할 수 있다.
도 2에 상세히 도시되어 있지 않으나, 입력 장치(10) 중 표시부(11)와 제스처 감지부(12)는 서로 다른 하우징에 격납될 수 있다. 그리고, 제어부(13) 및 제스처 관리부(14)는 표시부(11)와 제스처 감지부(12) 중 어느 하나를 격납한 하우징에 함께 격납될 수 있다. 또한, 제어부(13)와 표시부(11)가 동일한 하우징에 격납되지 않은 경우, 제어부(13)와 표시부(11) 사이에 제어신호를 송수신하기 위한 신호송수신부(미도시)가 더 구비될 수 있다.
예시적으로, 본원의 일 실시예에 따른 입력 장치(10)는 터치스크린과 같이 표시부(11)와 제스처 감지부(12)가 일체화되는 스마트폰 등에 적용될 수 있다. 또한, 표시부(11)와 분리된 상태로 표시부(11)를 제어하는 리모콘과 같은 장치에 제스처 감지부(12)를 결합한 형태로 입력장치(10)를 구성할 수 있다.
한편, 본원의 일 실시예에 따른 입력 장치(10)는 사용자로부터 자판요청 제스처가 입력되면, 가상의 자판을 표시한다. 여기서, 자판요청 제스처는 문자 입력창에 대한 클릭 동작을 포함할 수 있다.
도 3에 도시한 바와 같이, 본원의 일 실시예에 따른 가상의 자판(20)은 8개를 초과하는 아이템을 배치할 수 있도록 변형된 원형메뉴 형태를 띈다.
일반적인 원형메뉴는 전체 영역의 중점을 기준으로 전체 영역을 복수의 분할영역으로 구획하고, 복수의 분할영역에 복수의 서로 다른 아이템을 배치한다. 이러한 원형메뉴에 대응하여, 복수의 분할영역 중 어느 하나를 선택하는 제스처가 입력되면, 선택된 하나의 분할영역에 배치된 아이템이 선택된다. 그러므로, 제스처가 일정 이상의 정확도로 입력되기 위해서는, 복수의 분할영역이 임계 이상의 너비를 가져야만 한다. 일반적으로, 원형메뉴에 8개 이하의 아이템이 배치될 수 있는 것으로 알려져 있다.
그에 반해, 도 3의 자판(20)은 적어도 하나의 서로 다른 아이템이 배치되는 하나의 중심항목(21)과 복수의 주변항목(22a~22j), 및 복수의 주변항목(22a~22j)에 대응하는 복수의 가이드라인(23i~23j)을 포함한다. 도 3의 자판(20)에 배치되는 복수의 아이템은 숫자 또는 문자일 수 있으나, 이에 한정되지 않는다.
복수의 주변항목(22a~22j)은 중심항목(21) 주변에 둘러싸도록 상호 이격하여 나열된다. 복수의 주변항목(22a~22j)은 적어도 하나의 서로 다른 아이템에 할당될 수 있다.
중심항목(21)은 자판(20)의 중앙에 위치하고, 공란(blank)의 초기값(또는, '디폴트(default)'라고도 함) 또는 적어도 하나의 아이템 중 어느 하나로 선택되는 초기값에 할당될 수 있다.
즉, 복수의 주변항목(22a~22j) 중 어느 하나를 선택하기 위한 제스처가 입력되기 전에, 중심항목(21)은 어떠한 아이템도 배치되지 않은 공란이거나, 또는, 적어도 하나의 아이템을 대표하는 어느 하나가 배치된 항목일 수 있다.
그러므로, 중심항목(21) 및 복수의 주변항목(22a~22j) 중 적어도 일부는 적어도 하나의 서로 다른 아이템에 할당된다.
복수의 가이드라인(23a~23j)은 복수의 주변항목(22a~22j) 각각으로부터 중심항목(21)을 향하는 직선 또는 곡선 형태의 경로이다. 이때, 복수의 가이드라인(23a~23j)은 서로 다른 형태 또는 방향을 가짐으로써, 상호 식별될 수 있고, 복수의 주변항목(22a~22j) 또한 복수의 가이드라인(23a~23j)과 대응됨에 따라, 상호 식별될 수 있다.
이러한 자판(20)을 표시한 상태에서, 주변항목(21) 및 복수의 주변항목(22a~22j) 중 어느 하나의 항목을 선택하는 제스처, 즉 어느 하나의 항목에 배치된 아이템을 선택하는 제스처가 입력된다. 이때, 항목을 선택하는 제스처는 복수의 가이드라인(23a~23j) 중 선택할 주변항목에 대응한 가이드라인에 기초하는 드래그 동작, 또는 중심항목(21)에 대응하는 클릭 동작을 포함한다.
즉, 중심항목(21)에 배치된 아이템을 선택하고자 하는 경우, 사용자는 중심항목에 대응한 클릭 동작의 제스처를 입력할 수 있다.
또는, 복수의 주변항목(22a~22j) 중 어느 하나에 배치된 아이템을 선택하고자 하는 경우, 사용자는 선택할 아이템이 배치된 주변항목에 대응하는 가이드라인에 기초한 드래그 동작의 제스처를 입력할 수 있다. 이때, 드래그 동작의 제스처가 입력되면, 제스처에 의해 선택된 아이템이 드래그 동작과 같이 가이드라인을 따라 주변항목에서 중심항목으로 이동하여 중심항목에 재배치되는 모션이 표시될 수 있다.
예시적으로, 자판(20)은 공란의 초기값을 갖는 중심항목(21), 및 숫자 '0~9'를 표시하는 복수의 주변항목(22a~22j)을 포함할 수 있다. 즉, 중심항목(21)의 상측에 나열되는 제 1, 제 2 및 제 3 주변항목(22a, 22b, 22c)은 숫자 '1', '2' 및 '3'을 각각 표시하고, 중심항목(21)의 좌측에 나열되는 제 4 및 제 5 주변항목(22d, 22e)은 숫자 '4' 및 '5'를 각각 표시한다. 그리고, 중심항목(21)의 우측에 나열되는제 6 및 제 7 주변항목(22f, 22g)은 숫자 '6' 및 '7'를 각각 표시하며, 중심항목(21)의 하측에 나열되는 제 8, 제 9 및 제 10 주변항목(22h, 22i, 22j)은 숫자 '8', '9' 및 '0'을 각각 표시한다.
제 1 주변항목(22a)과 중심항목(21) 사이를 잇는 제 1 가이드라인(23a)은 반시계방향으로 상측 왼쪽에서 하측 오른쪽을 향하는 곡선 형태이다. 제 2 주변항목(22b)과 중심항목(21) 사이를 잇는 제 2 가이드라인(23b)은 상측에서 하측을 향하는 직선 형태이다. 제 3 주변항목(22c)과 중심항목(21) 사이를 잇는 제 3 가이드라인(23c)은 시계방향으로 상측 오른쪽에서 하측 왼쪽을 향하는 곡선 형태이다. 제 4 가이드라인(23d)은 시계방향으로 상측 왼쪽에서 하측 오른쪽을 향하는 곡선 형태이고, 제 5 가이드라인(23e)은 반시계방향으로 하측 왼쪽에서 상측 오른쪽을 향하는 곡선 형태이다. 제 6 가이드라인(23f)은 반시계방향으로 상측 오른쪽에서 하측 왼쪽을 향하는 곡선 형태이고, 제 7 가이드라인(23g)은 시계방향으로 하측 오른쪽에서 상측 왼쪽을 향하는 곡선 형태이다. 제 8 가이드라인(23h)은 시계방향으로 하측 왼쪽에서 상측 오른쪽을 향하는 곡선 형태이고, 제 9 가이드라인(23i)은 하측에서 상측을 향하는 직선 형태이며, 제 10 가이드라인(23j)은 반시계방향으로 하측 오른쪽에서 상측 왼쪽을 향하는 곡선 형태이다.
이상과 같이, 복수의 가이드라인(23a~23j)은 서로 다른 형태 또는 방향을 가지므로, 복수의 가이드라인(23a~23j)은 그 형태 및 방향으로 식별될 수 있고, 복수의 가이드라인(23a~23j)에 대응하는 복수의 주변항목(22a~22j) 또한, 복수의 가이드라인(23a~23j)으로 식별될 수 있다. 이로써, 복수의 가이드라인(23a~23j)에 기초한 드래그 동작의 제스처를 통해, 복수의 주변항목(22a~22j)에 배치된 적어도 하나의 아이템 중 어느 하나가 선택될 수 있다.
즉, 입력장치(10)는, 자판(20)을 표시한 상태에서, 복수의 주변항목(22a~22j)에 배치된 적어도 하나의 아이템 중 어느 하나를 선택하기 위한 드래그 동작의 제스처가 입력되면, 복수의 가이드라인(23a~23j) 중 드래그 동작의 형태 및 방향에 매칭되는 가이드라인을 도출하고, 도출한 가이드라인에 대응하는 주변항목을 도출하며, 도출한 주변항목에 할당된 아이템을 도출함으로써, 제스처에 의해 선택된 아이템을 인지할 수 있다.
일 예로, 도 4a에서 굵은 실선 화살표로 나타낸 바와 같이, 도 3의 자판(20)을 이용하여 복수의 주변항목(22a~22j)에 배치된 아이템들 중 숫자 '2'를 선택하고자 하는 경우, 사용자는, 숫자 '2'를 표시하는 제 2 주변항목(22b)에 대응한 제 2 가이드라인(23b)을 이용하여, 상측에서 하측을 향하는 직선 형태의 드래그 동작의 제스처를 용이하게 입력할 수 있다.
다른 일 예로, 도 4b에서 굵은 실선 화살표로 나타낸 바와 같이, 도 3의 자판(20)을 이용하여 복수의 주변항목(22a~22j)에 배치된 아이템들 중 숫자 '8'을 입력하고자 하는 경우, 사용자는 숫자 '8'을 표시하는 제 8 주변항목(22h)에 대응한 제 8 가이드라인(23h)을 이용하여, 시계 방향으로 하측 왼쪽에서 상측 오른쪽을 향하는 곡선 형태의 드래그 동작의 제스처를 용이하게 입력할 수 있다.
이와 같이, 제스처 감지부(12)를 통해 복수의 주변항목(22a~22j)에 배치된 아이템들 중 어느 하나를 선택하기 위한 드래그 동작의 제스처가 입력되면, 표시부(11)는 선택된 아이템이 가이드라인을 따라 주변항목에서 중심항목(21)으로 이동하는 모션을 표시할 수 있다.
한편, 복수의 주변항목(22a~22j) 뿐만 아니라, 중심항목(21)에 배치된 아이템이 선택될 수도 있다. 즉, 입력 장치(10)는 자판(20)을 표시한 상태에서, 중심항목(21)에 대응한 클릭 동작의 제스처가 입력되면, 중심항목(21)에 배치된 아이템이 제스처에 의해 선택된 아이템인 것으로 인지할 수 있다.
예시적으로, 제스처 감지부(12)가 터치스크린을 포함하는 경우, 클릭 동작은 터치스크린 상의 중심항목(21)에 대한 디태칭과 매칭될 수 있다.
만약, 중심항목(21)이 공란의 초기값을 표시한 상태에서, 중심항목(21)에 대한 클릭 동작의 제스처가 입력되면, 입력장치(10)는 문자 입력창의 문자열에 공란(space)을 삽입할 수도 있다.
이상과 같이, 도 3의 자판(20)은 변형된 원형메뉴 형태로서, 공란을 포함한 적어도 하나의 아이템이 배치되는 중심항목(21)과 복수의 주변항목(22a~22j), 및 복수의 주변항목(22a~22j)에 대응하고 서로 다른 형태 또는 방향을 갖는 복수의 가이드라인(23a~23j)을 포함한다.
복수의 가이드라인(23a~23j)은 아이템을 선택하기 위한 제스처를 안내하도록 표시될 수 있어, 주변항목에 배치된 아이템을 중심영역으로 끌어다 놓는 제스처가 사용자에게 직감될 수 있다. 이에, 도 3의 자판(20)을 이용하여 문자 입력 인터페이스를 제공하는 경우, 입력장치(10)의 편리성 및 직관성이 향상될 수 있다.
또한, 일반적인 원형메뉴와 달리, 복수의 주변항목(22a~22j)에 배치된 적어도 하나의 아이템은, 복수의 주변항목(22a~22j)이 아닌, 복수의 주변항목(22a~22j)에 대응한 복수의 가이드라인(23a~23j)으로 식별된다.
이로써, 어느 하나의 아이템을 선택하는 제스처의 정확도를 확보하기 위해, 복수의 주변항목(22a~22j)이 임계 이상의 너비로 형성될 필요가 없으므로, 복수의 주변항목(22a~22j)은 고유한 가이드라인과 대응되기만 한다면, 8개 이하의 개수로 한정될 필요가 없다. 즉, 도 3의 자판(20)은 그를 통해 표시될 수 있는 아이템의 개수를 8개 이하로 한정하지 않으므로, 일반적인 원형메뉴보다 확대된 활용도를 가질 수 있다.
다음, 도 5 내지 도 7을 참조하여, 도 2에 도시한 입력 장치(10)를 이용하여 문자를 입력하는 방법에 대해 설명한다.
도 5는 본원의 일 실시예에 따른 문자 입력 방법을 나타낸 순서도이다. 그리고, 도 6은 도 5의 메인자판을 표시하는 단계를 나타낸 순서도이고, 도 7은 도 5의 제 1 문자선택제스처를 감지하는 단계를 나타낸 순서도이다.
본원의 일 실시예에 따른 문자 입력 방법은, 도 3의 자판(20)을 이용하여, 입력할 문자를 선택한다.
즉, 문자 입력 방법은, 문자 입력창에 문자를 입력하기 위한 자판의 표시를 요청하는 자판요청 제스처를 감지하는 단계와, 자판요청 제스처에 기초하여 문자 입력을 위한 자판을 표시하는 단계와, 자판 중 어느 하나의 항목을 선택하는 문자선택 제스처를 감지하는 단계와, 문자선택 제스처에 의해 선택된 항목에 할당된 개별문자를 문자 입력창의 문자열에 삽입하는 단계를 포함한다.
그러나, 하나의 자판(20)에 전체 개별문자가 표시되는 경우, 자판(20)이 전체 개별문자의 개수와 같이 많은 개수의 주변항목을 포함해야 하므로, 자판(20)에 대한 직관성 및 편리성이 낮아질 수 있다.
이를 방지하기 위하여, 각 언어를 표기하기 위한 전체 개별문자를, 형태, 발음 및 서열 등의 연관성에 따라 복수의 그룹으로 분류한다. 이때, 복수의 그룹은 적어도 하나의 개별문자를 포함한다. 그리고, 언어에 따라, 각 그룹에 포함된 적어도 하나의 개별문자 중 어느 하나는 그룹을 대표하는 대표문자로 지정될 수 있다. 즉, 어느 하나의 그룹은 대표문자를 포함한 둘 이상의 개별문자를 나타내고, 다른 하나의 그룹은 대표문자만을 나타낼 수 있다.
그러므로, 본원의 일 실시예에 따른 문자 입력 방법은, 복수의 그룹 중 어느 하나를 선택하는 1차 선택 과정과, 1차 선택 과정을 통해 선택된 그룹에 포함되는 적어도 하나의 개별문자 중 어느 하나를 선택하는 2차 선택 과정을 포함한다.
즉, 도 5에 도시한 바와 같이, 본원의 일 실시예에 따른 문자 입력 방법은 자판의 표시를 요청하는 자판요청 제스처를 감지하는 단계(S10), 자판요청 제스처에 기초하여, 전체 개별문자를 분류한 복수의 그룹 중 어느 하나를 선택하기 위한 메인자판을 표시하는 단계(S20), 메인자판에 의해 표시되는 복수의 그룹 중 어느 하나를 선택하는 제 1 문자선택 제스처를 감지하는 단계(S30), 제 1 문자선택 제스처에 기초하여, 선택된 그룹에 포함되는 적어도 하나의 개별문자 중 어느 하나를 선택하기 위한 서브자판을 표시하는 단계(S40), 서브자판에 의해 표시되는 적어도 하나의 개별문자 중 어느 하나를 선택하는 제 2 문자선택 제스처를 감지하는 단계(S50), 및 제 2 문자선택 제스처에 기초하여, 선택된 개별문자를 문자 입력창의 문자열에 삽입하는 단계(S60)를 포함한다.
자판요청 제스처를 감지하는 단계(S10)에서, 입력 장치(10)는 제스처 감지부(12)를 통해 입력된 자판요청 제스처를 감지한다. 이때, 자판요청 제스처는 문자 입력창에 대한 클릭 동작을 포함할 수 있다.
예시적으로, 제스처 감지부(12)가 터치스크린을 포함하는 경우, 자판요청 제스처는 제스처 감지부(12)의 터치스크린을 통해 표시부(11) 상의 문자 입력창에 대응한 위치가 짧게 터칭되는 것과 매칭될 수 있다.
메인자판을 표시하는 단계(S20)에서, 입력 장치(10)는 복수의 그룹에 관한 목록을 나타내는 메인자판을 표시한다.
여기서, 메인자판은 도 3의 자판(20)과 마찬가지로, 중심항목, 중심항목 주변에 상호 이격하여 나열되는 복수의 주변항목, 및 복수의 주변항목에 대응하는 복수의 가이드라인을 포함한다.
메인자판에 있어서, 복수의 주변항목은 복수의 그룹 중 적어도 하나의 그룹을 표시할 수 있다. 이때, 복수의 주변항목 중 일부는 적어도 하나의 서로 다른 그룹에 할당되고, 나머지 일부는 공란일 수 있다. 또는, 복수의 주변항목 전체가 복수의 서로 다른 그룹을 표시하거나, 또는 공란일 수 있다.
중심항목은 공란의 초기값, 또는 복수의 그룹 중 어느 하나로 선택된 초기값에 할당될 수 있다.
일 예로, 메인자판이 3 개의 주변항목을 포함하고, 전체 개별문자는 A, B, C 그룹으로 분류된다고 가정한 경우, 중심항목에 A 그룹으로 선택된 초기값이 배치되고, 3 개의 주변항목 중 2 개의 주변항목에 B, C 그룹이 배치되며, 나머지 1 개의 주변항목은 공란일 수 있다. 또는, 중심항목에 공란의 초기값이 배치되고, 3 개의 주변항목에 A, B, C 그룹이 서로 다르게 배치될 수도 있다.
이때, 중심항목 및 복수의 주변항목은 복수의 그룹 대신 각 그룹을 대표하는 복수의 대표문자를 표시할 수 있다.
복수의 가이드라인은 복수의 주변항목 각각으로부터 중심항목을 향하는 직선 또는 곡선 형태의 경로로서, 서로 다른 방향 또는 형태를 갖는다.
이러한 메인자판에 대해서는, 도 8 내지 도 17의 예시를 이용하여 더욱 상세히 설명하기로 한다.
한편, 언어에 따라, 메인자판은 둘 이상일 수 있다. 일 예로, 한글의 경우, 자음은 단자음과 쌍자음으로 분류될 수 있으므로, 메인자판은 단자음에 관한 제 1 메인자판과, 쌍자음에 관한 제 2 메인자판을 포함할 수 있다.
도 6에 도시한 바와 같이, 메인자판이 둘 이상인 경우, 메인자판을 표시하는 단계(S20)는, 자판요청 제스처에 기초하여 제 1 메인자판을 표시하는 단계(S21), 및 자판변경 제스처가 감지되면(S22), 자판변경 제스처에 기초하여 제 1 메인자판과 다른 제 2 메인자판을 표시하는 단계(S23)를 포함한다.
즉, 입력장치(10)는, 제 1 메인자판이 표시된 상태(S21)이면, 단계(S30)에서 제 1 메인자판에 표시된 그룹들 중 어느 하나를 선택하는 제 1 문자선택 제스처를 감지하는 반면, 자판변경 제스처에 기초하여 제 2 메인자판이 표시된 상태(S23)이면, 단계(S30)에서 제 2 메인자판에 표시된 다른 그룹들 중 어느 하나를 선택하는 제 1 문자선택 제스처를 감지한다.
예시적으로, 자판변경 제스처는 문자 입력창 또는 제 1 메인자판에 대한 클릭 동작 또는 더블클릭 동작을 포함할 수 있다. 일 예로, 입력 장치(10)는 문자입력창을 표시한 상태에서, 사용자가 문자입력창에 대응한 영역을 더블클릭하면, 자판요청 제스처 및 자판변경 제스처가 일괄적으로 입력된 것으로 간주하고, 제 2 메인자판을 표시할 수 있다. 다른 예로, 입력 장치(10)는 제 1 메인자판을 표시한 상태에서, 사용자가 문자입력창 또는 제 1 메인자판의 중심항목에 대응한 영역 또는 터치입력창의 임의 영역을 더블클릭하면, 자판변경 제스처가 입력된 것으로 간주하고, 제 2 메인자판을 표시할 수도 있다. 여기서, 터치입력창은 사용자가 터칭하는 영역, 즉 터칭의 제스처를 입력 받고 입력된 제스처를 표시한다.
다음, 도 5에 도시한 제 1 문자선택 제스처를 감지하는 단계(S30)에서, 입력 장치(10)는 메인자판을 표시한 상태에서, 메인자판의 항목들 중 어느 하나를 선택하는 제 1 문자선택 제스처를 감지한다. 이러한 제 1 문자선택 제스처에 의해, 메인자판에 배치된 복수의 그룹 중 어느 하나가 선택된다.
제 1 문자선택 제스처는 메인자판에 포함된 복수의 가이드라인 중 선택할 주변항목에 대응한 가이드라인에 기초하는 드래그 동작, 또는 중심항목에 대응하는 클릭 동작을 포함한다.
즉, 메인자판의 복수의 주변항목에 배치된 적어도 하나의 그룹 중 어느 하나를 선택하기 위한 제 1 문자선택 제스처는 선택할 그룹이 배치된 주변항목과 대응하는 가이드라인의 형태와 방향에 매칭되는 드래그 동작을 포함한다.
또는, 메인자판의 중심항목에 배치된 그룹을 선택하기 위한 제 1 문자선택 제스처는 중심항목에 대한 클릭 동작을 포함한다. 예시적으로, 제스처 감지부(12)가 터치스크린을 포함하는 경우, 사용자가 터치스크린 상의 중심항목에 포인터를 둔 상태에서 디태칭하면, 즉 중심항목에 대해 디태칭하면, 입력 장치(10)는 중심항목에 대한 클릭 동작을 포함하는 제 1 문자선택 제스처가 입력된 것으로 인지할 수 있다.
도 5에 도시한 서브자판을 표시하는 단계(S40)에서, 입력 장치(10)는 제 1 문자선택 제스처에 의해 선택된 그룹을 인지하고, 선택된 그룹에 대응하여 선택된 그룹에 포함된 적어도 하나의 개별문자 중 어느 하나를 선택하기 위한 서브자판을 표시한다.
즉, 도 7에 도시한 바와 같이, 서브자판을 표시하는 단계(S40)는 제 1 문자선택 제스처를 입력 받는 단계(S41), 제 1 문자선택 제스처가 중심항목에 대한 클릭 동작을 포함하지 않으면(S42), 제 1 문자선택 제스처에 포함된 드래그 동작의 형태 및 방향을 도출하는 단계(S43), 복수의 가이드라인 중 도출한 드래그 동작의 형태 및 방향과 매칭되는 가이드라인을 도출하는 단계(S44), 복수의 그룹 중 도출한 가이드라인에 대응되는 주변항목에 할당된 그룹을 도출하는 단계(S45), 도출한 그룹을 중심항목에 할당하는 단계(S46), 중심항목에 할당된 그룹을 제 1 문자선택 제스처에 의해 선택된 그룹으로 인지하는 단계(S47), 제 1 문자선택 제스처가 중심항목에 대한 클릭 동작을 포함하면(S42), 중심항목에 할당되어 있는 중심항목의 초기값을 제 1 문자선택 제스처에 의해 선택된 그룹으로 인지하는 단계(S47) 및 인지된 그룹에 대응하는 서브자판을 표시하는 단계(S48)를 포함한다.
여기서, 제 1 문자선택 제스처에 의해 선택된 그룹에 대응하는 서브자판은, 도 3의 자판(20)과 마찬가지로, 중심항목, 중심항목 주변에 상호 이격하여 나열되는 복수의 주변항목, 및 복수의 주변항목에 대응하는 복수의 가이드라인을 포함한다.
제 1 문자선택 제스처에 의해 선택된 그룹에 대응하는 서브자판에 있어서, 복수의 주변항목은 선택된 그룹에 포함된 적어도 하나의 개별문자를 표시할 수 있다.
중심항목은 공란의 초기값 또는 선택된 그룹에 포함된 적어도 하나의 개별문자 중 어느 하나로 선택된 초기값에 할당될 수 있다.
일 예로, 서브자판이 3개의 주변항목을 포함하고, A 그룹은 개별문자 a, b, c를 포함한다고 가정한 경우, 중심항목에 A 그룹을 대표하는 개별문자 a로 선택된 초기값이 배치되고, 3 개의 주변항목 중 2 개의 주변항목에 개별문자 b, c가 배치되며, 나머지 1 개의 주변항목은 공란일 수 있다. 또는, 중심항목에 공란의 초기값이 배치되고, 3 개의 주변항목에 개별문자 a, b, c가 서로 다르게 배치될 수도 있다.
한편, 서브자판을 표시하는 단계(S40)에서, 입력 장치(10)는 메인자판 주위에 서브자판을 더 표시할 수 있고, 또는 메인자판을 제거한 후 메인자판 대신 서브자판을 표시할 수도 있다.
그리고, 입력 장치(10)는 메인자판과 서브자판 중 어느 하나를 표시함(S20, S40)에 있어서, 메인자판 또는 서브자판을 문자 입력창과 적어도 일부 오버랩하는 위치에 표시할 수 있다. 이 경우, 중심항목은 문자 입력창 내의 활성화된 커서와 오버랩될 수 있다. 이와 같이 하면, 사용자가 입력할 문자의 삽입 위치를 용이하게 인지할 수 있어, 입력 장치(10)의 직관성이 더욱 향상될 수 있다.
일 예로, 단계(S20)에서 메인자판은 문자 입력창 주변에 표시되고, 제 1 문자선택 제스처가 입력(S30)된 후, 단계(S40)에서 서브자판은 문자 입력창의 커서와 오버랩되는 중심항목을 포함하도록 표시될 수 있다.
다른 예로, 단계(S20)에서 메인자판은 문자 입력창의 커서와 오버랩되는 중심항목을 포함하도록 표시되고, 제 1 문자선택 제스처가 입력되면 (S41), 메인자판을 제거한 다음, 단계(S48)에서 제거된 메인자판과 동일한 위치에 서브자판이 표시될 수 있다.
이어서, 도 5에 도시한 제 2 문자선택 제스처를 감지하는 단계(S50)에서, 입력 장치(10)는 제 1 문자선택 제스처에 의해 선택된 그룹에 대응하는 서브자판을 표시한 상태에서, 서브자판의 항목들 중 어느 하나를 선택하는 제 2 문자선택 제스처를 감지한다. 이러한 제 2 문자선택 제스처에 의해, 서브자판에 배치된 적어도 하나의 개별문자 중 어느 하나가 선택된다.
제 2 문자선택 제스처는 서브자판에 포함된 복수의 가이드라인 중 선택할 주변항목에 대응한 가이드라인에 기초하는 드래그 동작, 또는 중심항목에 대응하는 클릭 동작을 포함한다.
즉, 서브자판의 복수의 주변항목에 배치된 적어도 하나의 개별문자 중 어느 하나를 선택하기 위한 제 2 문자선택 제스처는 선택할 개별문자가 배치된 주변항목과 대응하는 가이드라인의 형태와 방향에 매칭되는 드래그 동작을 포함한다.
또는, 서브자판의 중심항목에 배치된 개별문자를 선택하기 위한 제 2 문자선택 제스처는 중심항목에 대한 클릭 동작을 포함한다.
이와 같이 제 2 문자선택 제스처는, 도 3의 자판에 대응하여 중심항목 및 복수의 주변항목 중 어느 하나를 선택하기 위한 것이라는 점에서, 앞서 설명한 제 1 문자선택 제스처와 동일하므로, 이하에서 중복되는 설명은 생략한다.
다음, 제 2 문자선택 제스처에 기초하여, 선택된 개별문자를 문자 입력창의 문자열에 삽입하는 단계(S60)에서, 입력 장치(10)는 제 2 문자선택 제스처에 의해 선택된 개별문자를 인지하고, 선택된 개별문자가 삽입된 문자열을 문자 입력창에 표시한다.
별도로 도시하고 있지 않으나, 제 2 문자선택 제스처에 의해 선택된 개별문자를 인지하는 과정은, 제 1 문자선택 제스처 대신 제 2 문자선택 제스처인 점, 그룹 대신 개별문자라는 점, 및 서브자판을 표시(S48)하는 대신 제 2 문자선택 제스처에 의해 선택된 개별문자를 문자열에 삽입한다는 점을 제외하면, 도 7에 도시한 제 1 문자선택 제스처에 의해 선택된 그룹을 인지하는 과정(S41~S47)과 동일하므로, 이하에서 중복되는 설명은 생략한다.
이어서, 메인자판 표시(S20), 제 1 문자선택 제스처 감지(S30), 서브자판 표시(S40), 제 2 문자선택 제스처 감지(S50) 및 선택된 개별문자의 삽입 과정을 반복하면서, 적어도 하나의 개별문자를 포함한 문자열을 문자 입력창에 입력한다.
이후, 입력 장치(10)는 문자열의 입력이 완료되어, 자판을 제거하기 위한 자판종료 제스처를 입력 받으면, 메인자판 및 서브자판의 표시를 종료한다. 이때, 자판종료 제스처는 문자 입력창 외의 영역에 대한 클릭 동작 혹은 터치입력창 외의 영역에 대한 클릭 동작, 혹은 별도의 버튼 클릭을 포함할 수 있다.
다음, 도 8 내지 도 17을 참조하여, 본원의 일 실시예에 따른 입력 장치 및 그를 이용한 문자 입력 방법을 통해, 일본어 또는 한국어의 문자열을 입력하는 과정에 대한 예시들을 설명한다. 이하의 예시들에 있어서, 입력 장치(10)의 제스처 감지부(12)는 터치스크린을 포함하는 것으로 가정한다.
먼저, 도 8 내지 도 13을 참조하여, 일본어의 문자열을 입력하는 과정의 예시들을 설명한다.
도 8은 본원의 일 실시예에 있어서, 문자 입력창 및 일본어 문자를 삽입하기 위한 메인자판의 일 예이고, 도 9는 본원의 일 실시예에 있어서, 일본어 문자를 삽입하기 위한 메인자판의 다른 예이다. 그리고, 도 10 및 도 11은 도 8의 메인자판을 이용하여 문자 'あ'를 입력하는 과정의 예시들이다. 또한, 도 12 및 도 13는 도 8의 도 8의 메인자판을 이용하여 'ぬ'를 입력하는 과정의 예시들이다.
도 8에 도시한 바와 같이, 입력장치(10)는 표시부(11)에 문자 입력창(11a)을 표시한 상태에서, 자판요청 제스처를 감지하면(S10), 메인자판(100)을 표시한다 (S20).
예시적으로, 표시부(11)는 입력된 문자열을 표시하는 문자 입력창(11a), 문자 입력창(11a) 내에 문자열이 삽입되는 위치를 나타내는 커서(curser, 11b), 및 제스처를 입력 받고 입력된 제스처를 표시하는 터치입력창(11c)을 포함한다.
커서(11b)는 자판요청 제스처에 의해 활성화되는 것일 수 있다.
터치입력창(11c)은 문자 입력창(11a)과 별개로, 사용자가 터칭하는 영역, 즉 터치를 입력 받는 영역이다. 그러나, 도 8의 도시는 단지 표시부(11)의 일 예일 뿐이고, 도 8의 도시와 달리, 표시부(11)는 터치입력창(11c)을 별도로 포함하지 않을 수도 있다.
메인자판(100)은 표시부(11) 어디에든 표시될 수 있으나, 문자 입력창(11a)과 인접한 위치에 표시되거나, 또는 문자 입력창(11a)과 적어도 일부 오버랩하는 위치에 표시될 수 있다. 특히, 메인자판(100)의 중심항목(101)은 문자 입력창(11a)의 커서(11c)와 오버랩되는 위치에 표시될 수 있다. 이와 같이 하면, 사용자가 입력할 문자의 삽입 위치를 용이하게 인지할 수 있게 된다.
일본어 문자를 입력하기 위한 메인자판(100)은 일본어의 전체 히라가나 또는 가타카나를 분류한 복수의 그룹 중 어느 하나를 선택하기 위한 것이다.
예시적으로, 일본어는 약 50개의 개별문자로 각각 이루어진 히라가나(정확하게는 46개의 개별문자로 이루어짐)와 가타카나, 이들의 탁음 및 반탁음으로 표기된다. 이에, 히라가나 및 가타카나 각각의 개별문자는, 모음과 자음 기준으로, 5개 이하의 개별문자끼리 묶어서, 10개의 그룹으로 분류(10개의 그룹 x 5)될 수 있다.
일 예로, 도 8의 도시와 같이, 히라가나를 각각 5개 이하의 개별문자를 포함하는 10개의 그룹으로 분류하는 경우, 10개의 그룹을 대표하는 10개의 대표문자는 'あ', 'か', 'さ', 'た', 'な', 'は', 'ま', 'や', 'ら' 및 'わ'로 결정될 수 있다. 이 중, 대표문자 'あ'에 대응하는 그룹은 'あ', 'い', 'う', 'え', 'お'의 개별문자를 포함할 수 있다.
이 경우, 메인자판(100)은 중심항목(101), 복수의 주변항목(102a, 102b) 및 복수의 가이드라인(103)을 포함하되, 복수의 주변항목(102a, 102b) 중 10 개의 주변항목(102a)에 히라가나를 분류한 10개의 그룹에 대응하는 10개의 대표문자('あ', 'か', 'さ', 'た', 'な', 'は', 'ま', 'や', 'ら' 및 'わ')가 서로 다르게 할당되고, 나머지 2 개의 주변항목(102b)에 탁음을 만들기 위한 기호인 탁점(˝), 및 반탁음을 만들기 위한 기호인 반탁점(˚)이 각각 할당된다.
또는, 도 9에 도시한 바와 같이, 메인자판(100')은 숫자 아이템이 할당된 주변항목(102c)을 더 포함할 수 있다. 즉, 복수의 주변항목(102a, 102b, 102c) 중 10개의 주변항목(102a)은 10개의 대표문자('あ', 'か', 'さ', 'た', 'な', 'は', 'ま', 'や', 'ら' 및 'わ')를 표시하고, 2 개의 주변항목(102b)은 탁점(˝) 및 반탁점(˚)을 표시하며, 나머지 4개의 주변항목(102c)은 숫자 아이템 '0~9' 중 숫자 '1', '2', '3' 및 '4'를 표시한다.
다음, 도 8의 메인자판(100)을 이용하여, 히라가나 문자들 중 'あ' 및 'ぬ'을 입력하는 과정에 대해 설명한다.
먼저, 도 10을 참조하여, 일본어 문자 'あ'을 입력하는 과정의 일 예를 설명한다.
도 10(a)에 도시한 바와 같이, 문자 입력창(11a)이 표시된 상태에서, 사용자가 제스처 감지부(12)의 터치스크린 중 임의 지점을 터칭하거나 터치입력창(11c)의 임의 영역을 터칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 터칭에 대응하여 클릭 동작을 포함한 자판요청 제스처를 인지한다 (S10).
이에, 도 10(b)에 도시한 바와 같이, 표시부(11)는 메인자판(100)을 표시한다 (S20).
앞서 도 8에서 설명한 바와 같이, 메인자판(100)은 공란의 초기값이 할당된 중심항목(101), 히라가나를 대표하는 10개의 대표문자(あ, か, さ, た, な, は, ま, や, ら, わ)가 할당된 10개의 주변항목(102a), 탁점(˝)과 반탁점(˚)이 할당된 2개의 주변항목(102b) 및 12개의 주변항목(102a, 102b)에서 중심항목(101)으로 향하는 12개의 가이드라인(103)을 포함한다. 여기서, 12개의 가이드라인(103)은 서로 다른 형태 또는 방향을 갖는다.
도 10(c)에 도시한 바와 같이, 메인자판(100)이 표시된 상태(S20)에서, 사용자가 터칭하고 있던 임의의 지점으로부터 오른쪽을 향해 직선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 왼쪽에서 오른쪽을 향하는 직선 형태의 드래그 동작을 포함한 제 1 문자선택 제스처를 인지한다 (S30).
제어부(13)는 제 1 문자선택 제스처에 기초하여, 왼쪽에서 오른쪽을 향하는 직선 형태의 가이드라인(103)을 도출하고(S41~S44), 도출한 가이드라인(103)에 따라 중심항목(101)의 좌측 중앙에 배치된 주변항목(102a)을 도출하며, 좌측 중앙의 주변항목(102a)에 할당된 대표문자 'あ'를 도출한다 (S45).
이에, 표시부(11)는 도출된 대표문자 'あ'를 중심항목(101)에 배치한다(S46). 이때, 표시부(11)는 제 1 문자선택 제스처에 포함된 드래그 동작과 같이, 대표문자 'あ'가 좌측 중앙의 주변항목(102a)에서 중심항목(101)으로 이동하는 모션을 표시할 수 있다.
제어부(13)는 중심항목(101)에 할당된 대표문자 'あ', 및 대표문자 'あ' 에 대응되는 그룹(이하, 'あ 그룹'이라 함)이 제 1 문자선택 제스처에 의해 선택됨을 인지한다 (S47).
그리고, 도 10(e)에 도시한 바와 같이, 표시부(11)는 제 1 문자선택 제스처에 의해 선택된 대표문자 'あ'가 이동하여 중심항목(101)에 할당되는 모션을 표시한 다음, あ 그룹에 대응하는 서브자판(110)을 표시한다 (S48).
あ 그룹에 대응하는 서브자판(110)은 대표문자 'あ'의 초기값이 할당된 중심항목(111), あ 그룹에 포함된 5 개의 개별문자('あ', 'い', 'う', 'え', 'お') 중 대표문자 'あ'를 제외한 나머지가 할당된 4개의 주변항목(112a), 공란인 8개의 주변항목(112b) 및 12개의 주변항목(112a, 112b)에서 중심항목(111)으로 향하는 12개의 가이드라인(113)을 포함한다.
서브자판(110)이 표시되는 시점에, 포인터, 즉, 터치스크린 상의 터칭 지점은 중심항목(111)에 대응한다.
이러한 상태에서, 도 10(f)에 도시한 바와 같이, 사용자가 터치스크린을 디태칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 디태칭에 대응하여 중심항목(111)에 대한 클릭 동작을 포함하는 제 2 문자선택 제스처를 인지한다 (S50).
이때, 제 2 문자선택 제스처는 중심항목(111)에 대한 클릭 동작을 포함하므로, 제어부(13)는 중심항목(111)의 초기값인 개별문자 'あ'가 제 2 문자선택 제스처에 의해 선택된 개별문자임을 인지한다. 그리고, 표시부(11)는 제 2 문자선택 제스처에 의해 선택된 개별문자'あ'를 삽입한 문자열을 문자 입력창(11a)에 표시한다 (S60).
더불어, 도 10(a), (c) 및 (f)에 도시한 자판요청 제스처, 제 1 및 제 2 문자선택 제스처는 일괄 모션일 수 있다.
한편, 도 10(e)에서 あ 그룹에 대응하는 서브자판(110)의 중심항목(111)은 대표문자 'あ'으로 선택된 초기값이 할당된 것으로 도시되어 있으나, 이와 달리, 공란의 초기값일 수도 있다.
즉, 도 11(a)에 도시한 바와 같이, あ 그룹에 대응하는 서브자판(120)은 공란의 초기값이 할당된 중심항목(121), あ 그룹에 포함된 5 개의 개별문자('あ', 'い', 'う', 'え', 'お')가 할당된 5 개의 주변항목(122a), 공란인 7개의 주변항목(122b) 및 12개의 주변항목(122a, 122b)에서 중심항목(121)으로 향하는 12개의 가이드라인(123)을 포함한다.
도 11(b)에 도시한 바와 같이, あ 그룹에 대응하는 서브자판(120)이 표시된 상태에서, 사용자가 하측 왼쪽에서 상측 오른쪽을 향한 반시계방향의 곡선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 하측 왼쪽에서 상측 오른쪽을 향한 반시계방향의 곡선 형태의 드래그 동작을 포함한 제 2 문자선택 제스처를 인지한다 (S50).
제어부(13)는 중심항목(121)의 왼쪽 하단에 배치된 주변항목(122a)에 할당된 개별문자 'あ'가 제 2 문자선택 제스처에 의해 선택된 개별문자임을 인지한다.
그리고, 도 11(c)에 도시한 바와 같이, 표시부(11)는 제 2 문자선택 제스처에 의해 선택된 개별문자 'あ'가 이동하여 중심항목(121)에 할당되는 모션을 표시한 다음, 중심항목(121)에 배치된 개별문자 'あ'를 문자 입력창(11a)의 문자열에 삽입한다 (S60).
다음, 도 12를 참조하여, 일본어문자 'ぬ'을 입력하는 과정의 일 예를 설명한다.
자판요청 제스처의 입력(S10) 및 메인자판(100)의 표시(S20) 과정은 도 10(a) 및 도 10(b)에서 설명한 바와 동일하므로, 중복된 설명은 생략한다.
도 12(a)에 도시한 바와 같이, 메인자판(100)이 표시된 상태(S20)에서, 사용자가 터칭하고 있던 임의의 지점으로부터 하측 왼쪽을 향해 시계방향의 곡선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 시계방향으로 상측 오른쪽에서 하측 왼쪽을 향하는 곡선 형태의 드래그 동작을 포함한 제 1 문자선택 제스처를 인지한다 (S30).
제어부(13)는 중심항목(101)의 상측 오른쪽에 배치된 주변항목(102a)에 할당되는 대표문자 'な', 및 대표문자 'な'에 대응되는 그룹(이하, 'な 그룹'이라 함)가 제 1 문자선택 제스처에 의해 선택됨을 인지한다.
도 12(b)에 도시한 바와 같이, 표시부(11)는 제 1 문자선택 제스처에 의해 선택된 대표문자 'な'가 이동하여 중심항목(101)에 할당되는 모션을 표시한 후, 도 12(c)에 도시한 바와 같이, な 그룹에 대응하는 서브자판(130)을 표시한다 (S40).
な 그룹에 대응하는 서브자판(130)은 대표문자 'な'의 초기값이 할당된 중심항목(131), な 그룹에 포함된 5 개의 개별문자('な', 'に', 'ぬ', 'ね', 'の') 중 대표문자 'な'를 제외한 나머지가 할당된 4개의 주변항목(132a), 공란인 8개의 주변항목(132b) 및 12개의 주변항목(132a, 132b)에서 중심항목(131)으로 향하는 12개의 가이드라인(133)을 포함한다.
도 12(d)에 도시한 바와 같이, な 그룹에 대응하는 서브자판(130)이 표시된 상태에서, 사용자가 하측을 향해 직선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 상측에서 하측을 향하는 직선 형태의 드래그 동작을 포함한 제 2 문자선택 제스처를 감지한다 (S50).
제어부(13)는 중심항목(131)의 상측에 배치된 주변항목(132a)에 할당되는 개별문자 'ぬ'가 제 2 문자선택 제스처에 의해 선택됨을 인지한다.
그리고, 도 12(e)에 도시한 바와 같이, 표시부(11)는 제 2 문자선택 제스처에 의해 선택된 개별문자 'ぬ'가 이동하여 중심항목(131)에 할당되는 모션을 표시한 후, 중심항목(131)에 배치된 개별문자 'ぬ'를 문자 입력창(11a)의 문자열에 삽입한다 (S60).
한편, 도 12(b)에서 な 그룹에 대응하는 서브자판(130)의 중심항목(131)은 대표문자 'な'으로 선택된 초기값이 할당된 것으로 도시되어 있으나, 이와 달리, 공란의 초기값일 수도 있다.
즉, 도 13(a)에 도시한 바와 같이, な 그룹에 대응하는 서브자판(140)은 공란의 초기값이 할당된 중심항목(141), な 그룹에 포함된 5 개의 개별문자('な', 'に', 'ぬ', 'ね', 'の')가 할당된 5개의 주변항목(142a), 공란인 7개의 주변항목(142b) 및 12개의 주변항목(142a, 142b)에서 중심항목(141)으로 향하는 12개의 가이드라인(143)을 포함한다.
도 13(b)에 도시한 바와 같이, な 그룹에 대응하는 서브자판(140)이 표시된 상태에서, 사용자가 하측을 향해 직선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 상측에서 하측을 향하는 직선 형태의 드래그 동작을 포함한 제 2 문자선택 제스처를 인지한다 (S50).
제어부(13)는 중심항목(131)의 상측에 배치된 주변항목(132a)에 할당되는 개별문자 'ぬ'가 제 2 문자선택 제스처에 의해 선택됨을 인지한다.
그리고, 도 13(c)에 도시한 바와 같이, 표시부(11)는 제 2 문자선택 제스처에 의해 선택된 개별문자 'ぬ'가 이동하여 중심항목(131)에 할당되는 모션을 표시한 다음, 중심항목(131)에 배치된 개별문자 'ぬ'를 문자 입력창(11a)의 문자열에 삽입한다 (S60).
다음, 도 14 내지 도 17을 참조하여, 한국어의 문자열을 입력하는 과정의 예시들을 설명한다.
도 14는 본원의 일 실시예에 있어서, 한국어 문자를 삽입하기 위한 메인자판의 일 예이고, 도 15 내지 도 17은 도 14의 메인자판을 이용하여 한국어 문자 중 'ㄱ', 'ㅏ' 및 'ㄲ'을 입력하는 과정의 일 예이다.
도 14에 도시한 바와 같이, 한국어 문자, 즉 한글을 입력하기 위한 메인자판(200)은 한글의 자음과 모음을 분류한 복수의 그룹 중 어느 하나를 선택하기 위한 것이다.
예시적으로, 한글은 19개의 자음과 21개의 모음으로 표기되는데, 그 중, 19개의 자음은 14개의 단자음 및 5개의 쌍자음으로 구분될 수 있다. 여기서, 14개의 단자음은 'ㄱ', 'ㄴ', 'ㄷ', 'ㄹ', 'ㅁ', 'ㅂ', 'ㅅ', 'ㅇ', 'ㅈ', 'ㅊ', ㅋ', 'ㅌ', 'ㅍ', 'ㅎ'이고, 5개의 쌍자음은 'ㄲ', 'ㄸ', ㅃ', 'ㅆ', 'ㅉ'이다.
그리고, 21개의 모음은 6개의 기본모음, 'ㅡ', 'ㅣ'를 제외한 나머지 4개의 기본모음과 모음 'ㅣ'를 결합한 4개의 1차 이중모음, 및 기본모음과 1차 이중모음을 결합한 2차 이중모음으로 구분될 수 있다. 여기서, 6개의 기본모음은 'ㅏ', ㅓ', 'ㅗ', 'ㅜ', 'ㅡ', 'ㅣ'이고, 1차 이중모음은 'ㅑ', 'ㅕ', 'ㅛ', 'ㅠ'이다.
이와 같은 한글의 전체 개별문자를 8 개의 그룹으로 분류할 수 있다. 즉, 14개의 단자음과 6개의 단모음은, 그 형태나 발음에 따라, 4개의 그룹으로 분류될 수 있고, 5개의 쌍자음과 4개의 1차 이중모음은 다른 4개의 그룹으로 분류될 수 있다.
구체적으로, 제 1 그룹은 문자 'ㄱ', 'ㄹ', 'ㅋ', 'ㅡ', 'ㅏ'를 포함하고, 제 2 그룹은 문자 'ㄴ', 'ㅁ', 'ㅂ', 'ㅜ'를 포함한다. 그리고, 제 3 그룹은 문자 'ㄷ', 'ㅌ', 'ㅍ', 'ㅎ', 'ㅓ'를 포함하고, 제 4 그룹은 문자 'ㅇ', 'ㅅ', 'ㅈ', 'ㅊ', 'ㅗ'를 포함한다. 그리고, 제 5 그룹은 문자 'ㄲ', 'ㅑ'를 포함하고, 제 6 그룹은 문자 'ㄸ', 'ㅕ'를 포함한다. 그리고, 제 7 그룹은 문자 'ㅃ', 'ㅠ'를 포함하고, 제 8 그룹은 'ㅆ', 'ㅉ', 'ㅛ'를 포함한다.
이 경우, 단자음을 선택하기 위한 제 1 메인자판(200)과, 쌍자음을 선택하기 위한 제 2 메인자판(300)이 요구된다.
즉, 도 14(a)에 도시한 바와 같이, 제 1 메인자판(200)은 중심항목(201), 14개의 단자음과 6개의 단모음을 분류한 제 1 내지 제 4 그룹이 할당되는 복수의 주변항목(202), 및 복수의 주변항목(202)에 대응하는 복수의 가이드라인(203)을 포함한다.
그리고, 도 14(b)에 도시한 바와 같이, 제 2 메인자판(300)은 중심항목(301), 5개의 쌍자음과 4개의 1차 이중모음을 분류한 제 5 내지 제 8 그룹이 할당되는 복수의 주변항목(302), 및 복수의 주변항목(302)에 대응하는 복수의 가이드라인(303)을 포함한다.
다음, 도 15 내지 도 17은 도 14의 제 1 및 제 2 메인자판(200, 300)을 이용하여, 한글 문자 'ㄱ', 'ㅓ' 및 'ㄲ'을 입력하는 과정을 나타낸 것이다.
먼저 도 15를 참조하여, 한글 문자 'ㄱ'을 입력하는 과정에 대해 설명한다.
도 15(a)에 도시한 바와 같이, 문자 입력창(11a)이 표시된 상태에서, 사용자가 제스처 감지부(12)의 터치스크린 중 임의 지점을 터칭하거나 터칭입력창(11c)의 임의 영역을 터칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 터칭에 대응하여 클릭 동작을 포함한 자판요청 제스처를 인지한다 (S10).
이에, 도 15(b)에 도시한 바와 같이, 표시부(11)는 제 1 메인자판(200)을 표시한다 (S21).
앞서 도 14(a)에서 설명한 바와 같이, 제 1 메인자판(200)은 공란의 초기값이 할당된 중심항목(201), 한글의 단자음과 단모음을 분류한 제 1 내지 제 4 그룹이 할당된 4개의 주변항목(202) 및 4개의 주변항목(202)에 대응하여 중심항목(201)을 향하는 서로 다른 경로인 4개의 가이드라인(203)을 포함한다.
도 15(c)에 도시한 바와 같이, 제 1 메인자판(200)이 표시된 상태(S21)에서, 사용자가 터칭하고 있던 임의의 지점으로부터 오른쪽을 향해 직선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 왼쪽에서 오른쪽을 향하는 직선 형태의 드래그 동작을 포함한 제 1 문자선택 제스처를 인지한다 (S30).
제어부(13)는 중심항목(201)의 왼쪽에 배치된 주변항목(202)을 할당되는 제 1 그룹('ㄱ', 'ㄹ', 'ㅋ', 'ㅡ', 'ㅏ')이 제 1 문자선택 제스처에 의해 선택됨을 인지한다.
이에, 도 15(d)에 도시한 바와 같이, 표시부(11)는 제 1 문자선택 제스처에 의해 선택된 제 1 그룹('ㄱ', 'ㄹ', 'ㅋ', 'ㅡ', 'ㅏ')이 이동하여 중심항목(201)에 할당되는 모션을 표시한 다음, 도 15(e)에 도시한 바와 같이, 중심항목(201)에 배치된 제 1 그룹('ㄱ', 'ㄹ', 'ㅋ', 'ㅡ', 'ㅏ')에 대응하는 서브자판(210)을 표시한다 (S40).
제 1 그룹('ㄱ', 'ㄹ', 'ㅋ', 'ㅡ', 'ㅏ')에 대응하는 서브자판(210)은 제 1 그룹('ㄱ', 'ㄹ', 'ㅋ', 'ㅡ', 'ㅏ')을 대표하는 문자 'ㅏ'의 초기값이 할당된 중심항목(211), 제 1 그룹('ㄱ', 'ㄹ', 'ㅋ', 'ㅡ', 'ㅏ') 중 문자 'ㅏ'를 제외한 나머지 문자 'ㄱ', 'ㄹ', 'ㅋ', 'ㅡ'가 할당된 4개의 주변항목(212), 및 4개의 주변항목(212)에서 중심항목(211)으로 향하는 서로 다른 경로인 4개의 가이드라인(213)을 포함한다.
도 15(f)에 도시한 바와 같이, 제 1 그룹('ㄱ', 'ㄹ', 'ㅋ', 'ㅡ', 'ㅏ')에 대응하는 서브자판(210)이 표시된 상태(S40)에서, 사용자가 하측을 향해 직선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 상측에서 하측을 향하는 직선 형태의 드래그 동작을 포함한 제 2 문자선택 제스처를 인지한다 (S50).
제어부(13)는 중심항목(211)의 상단에 배치된 주변항목(212)에 할당되는 개별문자 'ㄱ'가 제 2 문자선택 제스처에 의해 선택됨을 인지한다.
그리고, 도 15(g)에 도시한 바와 같이, 표시부(11)는 제 2 문자선택 제스처에 의해 선택된 개별문자 'ㄱ'가 이동하여 중심항목(211)에 할당되는 모션을 표시한 다음, 중심항목(211)에 배치된 개별문자 'ㄱ'를 문자 입력창(11a)의 문자열에 삽입한다 (S60).
다음 도 16을 참조하여, 한글 문자 'ㅓ'를 입력하는 과정의 일 예를 설명한다.
자판요청 제스처의 입력(S10) 및 메인자판(100)의 표시(S20) 과정은 도 15(a) 및 도 15(b)에서 설명한 바와 동일하므로, 중복된 설명은 생략한다.
도 16(a)에 도시한 바와 같이, 제 1 메인자판(200)이 표시된 상태(S20)에서, 사용자가 터칭하고 있던 임의의 지점으로부터 왼쪽을 향해 직선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 오른쪽에서 왼쪽을 향하는 직선 형태의 드래그 동작을 포함한 제 1 문자선택 제스처를 인지한다 (S30).
제어부(13)는 중심항목(101)의 오른쪽에 배치된 주변항목(202)에 할당되는 제 3 그룹('ㄷ', 'ㅌ', 'ㅍ', 'ㅎ', 'ㅓ')이 제 1 문자선택 제스처에 의해 선택됨을 인지한다.
이에, 도 16(b)에 도시한 바와 같이, 표시부(11)는 제 1 문자선택 제스처에 의해 선택된 제 3 그룹('ㄷ', 'ㅌ', 'ㅍ', 'ㅎ', 'ㅓ')이 이동하여 중심항목(201)에 할당되는 모션을 표시한 다음, 도 16(c)에 도시한 바와 같이, 중심항목(201)에 배치된 제 3 그룹('ㄷ', 'ㅌ', 'ㅍ', 'ㅎ', 'ㅓ')에 대응하는 서브자판(220)을 표시한다 (S40).
제 3 그룹('ㄷ', 'ㅌ', 'ㅍ', 'ㅎ', 'ㅓ')에 대응하는 서브자판(220)은 제 3 그룹('ㄷ', 'ㅌ', 'ㅍ', 'ㅎ', 'ㅓ')을 대표하는 문자 'ㅓ'의 초기값에 할당된 중심항목(221), 제 3 그룹('ㄷ', 'ㅌ', 'ㅍ', 'ㅎ', 'ㅓ') 중 문자 'ㅓ'를 제외한 나머지 문자 'ㄷ', 'ㅌ', 'ㅍ', 'ㅎ'에 할당된 4개의 주변항목(222), 및 4개의 주변항목(222)에서 중심항목(221)으로 향하는 서로 다른 경로인 4개의 가이드라인(223)을 포함한다.
서브자판(220)이 표시되는 시점에, 포인터, 즉, 터치스크린 상의 터칭 지점은 중심항목(221)에 대응한다.
이러한 상태에서, 도 16(d)에 도시한 바와 같이, 사용자가 터치스크린을 디태칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 디태칭에 대응하여 중심항목(221)에 대한 클릭 동작을 포함하는 제 2 문자선택 제스처를 인지한다 (S50).
제어부(13)는 중심항목(221)에 할당되는 개별문자 'ㅓ'가 제 2 문자선택 제스처에 의해 선택됨을 인지한다.
그리고, 표시부(11)는 제 2 문자선택 제스처에 의해 선택된 개별문자 'ㅓ'를 문자 입력창(11a)의 문자열에 삽입한다 (S60).
다음 도 17을 참조하여, 한글 문자 'ㄲ'를 입력하는 과정의 일 예를 설명한다.
자판요청 제스처의 입력(S10) 및 메인자판(100)의 표시(S20) 과정은 도 15(a) 및 도 15(b)에서 설명한 바와 동일하므로, 중복된 설명은 생략한다.
도 17(a)에 도시한 바와 같이, 제1메인자판이 표시된 상태에서 사용자가 문자 입력창(11a)에 대응하는 영역 또는 터치입력창(11c)의 임의 영역을 더블 터칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 더블 터칭에 대응하여 자판변경 제스처를 인지한다 (S22).
이에, 도 17(b)에 도시한 바와 같이, 표시부(11)는 제 2 메인자판(300)을 표시한다 (S23).
앞서 도 14(b)에서 설명한 바와 같이, 제 2 메인자판(300)은 공란의 초기값이 할당된 중심항목(301), 한글의 단자음과 단모음을 분류한 제 5 내지 제 8 그룹이 할당된 4개의 주변항목(302) 및 4개의 주변항목(302)에 대응하여 중심항목(301)을 향하는 서로 다른 경로인 4개의 가이드라인(303)을 포함한다.
도 17(c)에 도시한 바와 같이, 제 2 메인자판(300)이 표시된 상태(S23)에서, 사용자가 터칭하고 있던 임의의 지점으로부터 오른쪽을 향해 직선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 왼쪽에서 오른쪽을 향하는 직선 형태의 드래그 동작을 포함한 제 1 문자선택 제스처를 인지한다 (S30).
제어부(13)는 중심항목(301)의 왼쪽에 배치된 주변항목(302)에 할당되는 제 5 그룹('ㄲ', 'ㅑ')이 제 1 문자선택 제스처에 의해 선택됨을 인지한다.
이에, 도 17(d)에 도시한 바와 같이, 표시부(11)는 제 1 문자선택 제스처에 의해 선택된 제 5 그룹('ㄲ', 'ㅑ')이 이동하여 중심항목(301)에 할당되는 모션을 표시한 다음, 도 17(e)에 도시한 바와 같이, 중심항목(301)에 배치된 제 5 그룹('ㄲ', 'ㅑ')에 대응하는 서브자판(310)을 표시한다 (S40).
제 5 그룹('ㄲ', 'ㅑ')에 대응하는 서브자판(310)은 제 5 그룹('ㄲ', 'ㅑ')을 대표하는 문자 'ㅑ'의 초기값이 할당된 중심항목(311), 제 5 그룹('ㄲ', 'ㅑ') 중 문자 'ㅑ'를 제외한 나머지 문자 'ㄲ'가 할당된 1개의 주변항목(312a), 공란인 3개의 주변항목(312b) 및 4개의 주변항목(312a, 312b)에서 중심항목(311)으로 향하는 서로 다른 경로인 4개의 가이드라인(313)을 포함한다.
도 17(f)에 도시한 바와 같이, 제 5 그룹('ㄲ', 'ㅑ')에 대응하는 서브자판(310)이 표시된 상태(S40)에서, 사용자가 하측을 향해 직선 형태로 터치스크린을 스크래칭하면, 제어부(13)는 제스처 감지부(12)를 통해 감지된 스크래칭에 대응하여 상측에서 하측을 향하는 직선 형태의 드래그 동작을 포함한 제 2 문자선택 제스처를 인지한다 (S50).
제어부(13)는 중심항목(311)의 상단에 배치된 주변항목(312)에 할당되는 개별문자 'ㄲ'가 제 2 문자선택 제스처에 의해 선택됨을 인지한다.
그리고, 도 17(g)에 도시한 바와 같이, 표시부(11)는 제 2 문자선택 제스처에 의해 선택된 개별문자 'ㄲ'가 이동하여 중심항목(311)에 할당되는 모션을 표시한 다음, 중심항목(311)에 배치된 개별문자 'ㄲ'를 문자 입력창(11a)의 문자열에 삽입한다 (S60).
아래의 표 1은 도 14의 제 1 및 제 2 메인자판(200, 300)을 이용하여, 문자입력창이 표시된 상태에서 각 한글문자를 입력하기 위한 제스처를 정리한 것이다. 아래의 표 1에서, T-O 및 T-F는 각각 터칭 및 디태칭을 나타내고, D-U, D-D, D-L, D-R은 상, 하, 좌, 우를 향한 드래그 동작을 나타내며, TT-O는 더블터칭(더블클릭에 매칭됨)을 나타낸다.
표 1
한글문자 제스처
T-O, D-R, D-D,T-F
T-O, D-D, D-R, T-F
T-O, D-L, D-R, T-F
T-O, D-R, D-L, T-F
T-O, D-D, D-L, T-F
T-O, D-D, D-U, T-F
T-O, D-U, D-D, T-F
T-O, D-U, D-L, T-F
T-O, D-U, D-R, T-F
T-O, D-U, D-U, T-F
T-O, D-0L, D-0D, T-F
T-O, D-L, D-L, T-F
T-O, D-R, D-U, T-F
T-O, D-L, D-U, T-F
TT-O, D-R, D-D, T-F
TT-O, D-L, D-R, T-F
TT-O, D-D, D-U, T-F
TT-O, D-U, D-D, T-F
TT-O, D-U, D-R, T-F
T-O, D-R, T-F
T-O, D-L, T-F
T-O, D-U, T-F
T-O, D-D, T-0F
T-O, D-R, D-R, T-F
T-O, D-D, D-D, T-F
TT-O, D-R, T-F
TT-O, D-L, T-F
TT-O, D-U, T-F
TT-O, D-D, T-F
<space> T-O, T-F
<bs> TT-O, T-F
참고로, 도 1에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (16)

  1. 문자 입력 인터페이스를 제공하기 위한 입력 장치에 있어서,
    문자 입력을 위한 자판, 및 상기 자판을 통해 입력된 문자열을 나타내는 문자 입력창을 표시하는 표시부;
    사용자의 제스처를 감지하는 제스처 감지부; 및
    상기 제스처에 기초하여, 상기 표시부를 제어하는 제어부를 포함하되,
    상기 자판은
    중심항목;
    상기 중심항목 주변에 상호 이격하여 나열되는 복수의 주변항목; 및
    상기 복수의 주변항목에 대응하는 복수의 가이드라인을 포함하고,
    상기 복수의 가이드라인은 상기 복수의 주변항목 각각으로부터 상기 중심항목을 향하는 직선 또는 곡선 형태의 경로이고, 서로 다른 형태 또는 방향을 갖는 것이며,
    상기 제스처 감지부를 통해 상기 자판 중 어느 하나의 항목을 선택하는 문자선택 제스처가 입력되면, 상기 표시부는 상기 문자선택 제스처에 의해 선택된 항목에 할당된 개별문자를 상기 문자 입력창의 문자열에 삽입하는 입력 장치.
  2. 제 1 항에 있어서,
    상기 문자선택 제스처는,
    상기 복수의 가이드라인 중 선택할 주변항목에 대응한 가이드라인에 기초하는 드래그 동작, 또는
    상기 중심항목에 대응하는 클릭 동작을 포함하고,
    상기 제어부는,
    상기 문자선택 제스처가 상기 클릭 동작을 포함하지 않으면, 상기 문자선택 제스처에 포함된 상기 드래그 동작의 형태 및 방향을 도출하고, 상기 복수의 가이드라인 중 상기 도출한 드래그 동작의 형태 및 방향과 매칭되는 가이드라인을 도출하며, 상기 도출한 가이드라인과 대응되는 주변항목을 상기 문자선택 제스처에 의해 선택된 항목으로 인지하고, 상기 문자선택 제스처가 상기 클릭 동작을 포함하면, 상기 중심항목의 초기값을 상기 문자선택 제스처에 의해 선택된 항목으로 인지하며,
    상기 표시부는 상기 선택된 항목에 할당된 개별문자를 상기 문자 입력창의 문자열에 삽입하는 입력 장치.
  3. 제 2 항에 있어서,
    상기 문자선택 제스처가 상기 드래그 동작을 포함하는 경우,
    상기 표시부는 상기 도출된 가이드라인과 대응되는 주변항목에 할당된 개별문자를 상기 중심항목으로 이동시키는 모션을 표시하는 입력 장치.
  4. 제 2 항에 있어서,
    상기 제스처 감지부가 상기 자판의 표시를 요청하는 자판요청 제스처를 감지하면, 상기 표시부는 전체 개별문자를 분류한 복수의 그룹 중 어느 하나를 선택하기 위한 메인자판을 표시하고,
    상기 제스처 감지부가 상기 메인자판에 의해 표시되는 상기 복수의 그룹 중 어느 하나를 선택하는 제 1 문자선택 제스처를 감지하면, 상기 표시부는 상기 제 1 문자선택 제스처에 의해 선택된 그룹에 대응하여 상기 선택된 그룹에 포함되는 적어도 하나의 개별문자 중 어느 하나를 선택하기 위한 서브자판을 표시하며,
    상기 제스처 감지부가 상기 서브자판에 의해 표시되는 상기 적어도 하나의 개별문자 중 어느 하나를 선택하는 제 2 문자선택 제스처를 감지하면, 상기 표시부는 상기 제 2 문자선택 제스처에 의해 선택된 개별문자를 상기 문자 입력창의 문자열에 삽입하는 입력 장치.
  5. 제 1 항에 있어서,
    상기 표시부는 상기 문자 입력창 내에 상기 문자열이 삽입되는 위치를 나타내는 커서를 더 표시하되,
    상기 중심항목은 상기 커서와 오버랩되는 위치에 표시되는 입력 장치.
  6. 제 1 항에 있어서,
    상기 제스처 감지부는
    사용자의 손짓에 의해 터칭된 위치를 감지하는 터치스크린,
    상기 사용자의 손짓을 촬영하여 영상신호를 생성하는 카메라,
    상기 사용자의 손짓 또는 자세에 대응한 센서신호를 출력하는 모션센서, 및
    상기 사용자의 손짓에 따라 변동되는 손의 전류값을 측정하는 전류측정기 중 적어도 하나를 포함하는 입력 장치.
  7. 문자 입력 인터페이스를 제공하기 위한 입력 장치를 이용하여 문자를 입력하는 방법에 있어서,
    입력된 문자열을 나타내는 문자 입력창에 문자를 입력하기 위한 자판을 표시하는 단계;
    상기 자판 중 어느 하나의 항목을 선택하는 문자선택 제스처를 감지하는 단계; 및
    상기 문자선택 제스처에 의해 선택된 항목에 할당된 개별문자를 상기 문자 입력창의 문자열에 삽입하는 단계를 포함하되,
    상기 자판은
    중심항목;
    상기 중심항목 주변에 상호 이격하여 나열되는 복수의 주변항목; 및
    상기 복수의 주변항목에 대응하는 복수의 가이드라인을 포함하고,
    상기 복수의 가이드라인은 상기 복수의 주변항목 각각으로부터 상기 중심항목을 향하는 직선 또는 곡선 형태의 경로이고, 서로 다른 형태 또는 방향을 갖는 것인 문자 입력 방법.
  8. 제 7 항에 있어서,
    상기 문자선택 제스처를 감지하는 단계에서,
    상기 문자선택 제스처는,
    상기 복수의 가이드라인 중 선택할 주변항목에 대응한 가이드라인에 기초하는 드래그 동작, 또는
    상기 중심항목에 대응하는 클릭 동작을 포함하되,
    상기 개별문자를 상기 문자 입력창의 문자열에 삽입하는 단계는,
    상기 문자선택 제스처를 입력 받는 단계;
    상기 문자선택 제스처가 상기 클릭 동작을 포함하지 않으면, 상기 문자선택 제스처에 포함된 상기 드래그 동작의 형태 및 방향을 도출하는 단계;
    상기 복수의 가이드라인 중 상기 도출한 드래그 동작의 형태 및 방향과 매칭되는 가이드라인을 도출하는 단계;
    상기 복수의 주변항목 중 상기 도출한 가이드라인에 대응되는 주변항목을 도출하고, 상기 도출한 주변항목을 상기 문자선택 제스처에 의해 선택된 항목으로 인지하는 단계;
    상기 문자선택 제스처가 상기 클릭 동작을 포함하면, 상기 중심항목의 초기값을 상기 문자선택 제스처에 의해 선택된 항목으로 인지하는 단계; 및
    상기 선택된 항목에 할당된 개별문자를, 상기 문자 입력창의 문자열에 삽입하는 단계를 포함하되,
    상기 도출한 주변항목을 상기 문자선택 제스처에 의해 선택된 항목으로 인지하는 단계에서, 상기 도출한 주변항목에 할당된 개별문자를 상기 중심항목으로 이동시키는 모션이 표시되는 문자 입력 방법.
  9. 제 7 항에 있어서,
    상기 자판을 표시하는 단계는,
    상기 자판의 표시를 요청하는 자판요청 제스처에 기초하여, 전체 개별문자를 분류한 복수의 그룹 중 어느 하나를 선택하기 위한 메인자판을 표시하는 단계를 포함하고,
    상기 문자선택 제스처를 입력 받는 단계는,
    상기 메인자판에 의해 표시되는 상기 복수의 그룹 중 어느 하나를 선택하는 제 1 문자선택 제스처를 감지하는 단계;
    상기 제 1 문자선택 제스처에 의해 선택된 그룹에 대응하여 상기 선택된 그룹에 포함되는 적어도 하나의 개별문자 중 어느 하나를 선택하기 위한 서브자판을 표시하는 단계; 및
    상기 서브자판에 의해 표시되는 상기 적어도 하나의 개별문자 중 어느 하나를 선택하는 제 2 문자선택 제스처를 감지하는 단계를 포함하며,
    상기 개별문자를 상기 문자 입력창의 문자열에 삽입하는 단계는,
    상기 제 2 문자선택 제스처에 의해 선택된 개별문자를 상기 문자 입력창의 문자열에 삽입하는 단계를 포함하는 문자 입력 방법.
  10. 제 7 항에 있어서,
    상기 자판을 표시하는 단계에서,
    상기 문자 입력창 내에 상기 문자열이 삽입되는 위치를 나타내는 커서가 표시되고, 상기 중심항목은 상기 커서와 오버랩되는 위치에 표시되는 문자 입력 방법.
  11. 제 7 항에 있어서,
    상기 문자선택 제스처는
    사용자의 손짓에 의해 터칭된 위치를 감지하는 터치스크린, 상기 사용자의 손짓을 촬영하여 영상신호를 생성하는 카메라, 상기 사용자의 손짓 또는 자세에 대응한 센서신호를 출력하는 모션 센서, 및 상기 사용자의 손짓에 따라 변동되는 손의 전류값을 측정하는 전류측정기 중 적어도 하나를 통해 입력되는 문자 입력 방법.
  12. 문자 입력 장치에 있어서,
    표시 장치에 표시된 문자 입력 인터페이스의 자판에 대응한 사용자의 제스처를 감지하는 제스처 감지부;
    상기 제스처에 기초하여 상기 표시장치를 제어하기 위한 제어신호를 생성하여 상기 표시 장치로 전송하는 제어부를 포함하되,
    상기 자판은 중심항목과, 상기 중심항목 주변에 상호 이격하여 나열되는 복수의 주변항목을 포함하고,
    상기 제어부는 상기 중심항목과 상기 복수의 주변항목 중 어느 하나의 항목을 선택하는 문자선택 제스처가 입력되면, 상기 선택된 하나의 항목에 대응하는 제어신호를 생성하는 것인 입력 장치.
  13. 제 12 항에 있어서,
    상기 제스처 감지부는
    사용자의 손짓에 의해 터칭된 위치를 감지하는 터치스크린,
    상기 사용자의 손짓을 촬영하여 영상신호를 생성하는 카메라,
    상기 사용자의 손짓 또는 자세에 대응한 센서신호를 출력하는 모션센서, 및
    상기 사용자의 손짓에 따라 변동되는 손의 전류값을 측정하는 전류측정기 중 적어도 하나를 포함하는 입력 장치.
  14. 제 12 항에 있어서
    상기 자판은
    상기 복수의 주변항목 각각과 상기 중심항목을 연결하는 직선 또는 곡선 형태의 경로이고, 서로 다른 형태 또는 방향을 갖는 복수의 가이드라인을 더 포함하되,
    상기 문자선택 제스처는
    상기 복수의 주변항목 중 상기 사용자에 의해 선택된 주변항목에 대응한 가이드라인에 기초하는 드래그 동작, 또는
    상기 중심항목에 대응하는 클릭 동작을 포함하는 입력 장치.
  15. 제 14 항에 있어서,
    상기 제어부는
    상기 제스처 감지부를 통해 입력된 문자선택 제스처가 상기 클릭 동작을 포함하지 않는 경우, 상기 문자선택 제스처에 포함된 상기 드래그 동작의 형태 및 방향을 도출하고, 상기 복수의 가이드라인 중 상기 도출된 드래그 동작의 형태 및 방향과 매칭되는 가이드라인을 도출하여, 상기 도출한 가이드라인과 대응되는 주변항목을 상기 문자선택 제스처에 의해 선택된 항목으로 도출하고,
    상기 입력된 문자선택 제스처가 상기 클릭 동작을 포함하는 경우, 상기 중심항목의 초기값을 상기 문자선택 제스처에 의해 선택된 항목으로 도출하는 것인 입력 장치.
  16. 제 15 항에 있어서,
    상기 제어부는
    상기 입력된 문자선택 제스처가 상기 드래그 동작을 포함하는 경우, 상기 문자선택 제스처에 포함된 상기 드래그 동작의 형태 및 방향을 도출하고,
    상기 표시장치가 상기 도출된 가이드라인과 대응되는 주변항목을 상기 중심항목 측으로 이동시키는 모션을 표시하도록 제어하기 위한 제어신호를 생성하는 것인 입력 장치.
PCT/KR2013/002802 2012-04-06 2013-04-04 입력 장치 및 문자 입력 방법 WO2013151347A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/506,951 US9891822B2 (en) 2012-04-06 2014-10-06 Input device and method for providing character input interface using a character selection gesture upon an arrangement of a central item and peripheral items

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0035925 2012-04-06
KR1020120035925A KR101323281B1 (ko) 2012-04-06 2012-04-06 입력 장치 및 문자 입력 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/506,951 Continuation US9891822B2 (en) 2012-04-06 2014-10-06 Input device and method for providing character input interface using a character selection gesture upon an arrangement of a central item and peripheral items

Publications (1)

Publication Number Publication Date
WO2013151347A1 true WO2013151347A1 (ko) 2013-10-10

Family

ID=49300766

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/002802 WO2013151347A1 (ko) 2012-04-06 2013-04-04 입력 장치 및 문자 입력 방법

Country Status (3)

Country Link
US (1) US9891822B2 (ko)
KR (1) KR101323281B1 (ko)
WO (1) WO2013151347A1 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101861318B1 (ko) * 2011-06-09 2018-05-28 삼성전자주식회사 터치 스크린을 구비한 기기의 인터페이스 제공 장치 및 방법
WO2015083969A1 (en) * 2013-12-05 2015-06-11 Lg Electronics Inc. Mobile terminal and method for controlling the same
US20150277678A1 (en) * 2014-03-26 2015-10-01 Kobo Incorporated Information presentation techniques for digital content
US10747426B2 (en) * 2014-09-01 2020-08-18 Typyn, Inc. Software for keyboard-less typing based upon gestures
KR102318920B1 (ko) * 2015-02-28 2021-10-29 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
FR3034539B1 (fr) * 2015-04-02 2017-03-24 Eric Didier Jean Claude Provost Procede de selection d'element parmi un groupe d'elements affichables sur une petite surface de saisie
EP3296928A4 (en) * 2015-05-14 2018-05-09 Fujitsu Limited Character input and reception method, character input and reception device, and character input and reception program
KR101678094B1 (ko) * 2015-07-03 2016-11-23 현대자동차주식회사 차량, 및 그 제어방법
KR101685891B1 (ko) * 2015-07-21 2016-12-13 현대자동차주식회사 터치 입력장치 및 터치 입력장치의 제어방법
US10671272B2 (en) * 2015-11-06 2020-06-02 International Business Machines Corporation Touchscreen oriented input integrated with enhanced four-corner indexing
KR101720502B1 (ko) * 2015-11-27 2017-04-10 구인회 휴대 단말기의 사용자 인터페이스 제공 방법
US9898192B1 (en) * 2015-11-30 2018-02-20 Ryan James Eveson Method for entering text using circular touch screen dials
CN108885502A (zh) * 2016-03-07 2018-11-23 禹舜朝 利用包含目标字符和后续字符的扩展小键盘的字符输入方法及执行其的计算机装置
JP6798117B2 (ja) * 2016-03-15 2020-12-09 ヤマハ株式会社 入力支援装置
RU2671043C1 (ru) * 2017-06-15 2018-10-29 Борис Михайлович ПУТЬКО Способ, система и клавиатура для ввода иероглифов
KR102018003B1 (ko) * 2018-12-03 2019-09-03 윤현진 중증 환자를 위한 문자 입력자판
KR20210016752A (ko) * 2019-08-05 2021-02-17 윤현진 중증 환자를 위한 영문 입력자판
CN112118491A (zh) * 2020-09-25 2020-12-22 深圳创维-Rgb电子有限公司 弹幕生成方法、装置及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100033879A (ko) * 2008-09-22 2010-03-31 오의진 문자입력장치
KR20100049948A (ko) * 2008-11-04 2010-05-13 임재범 문자생성 방법
KR20110077085A (ko) * 2009-12-30 2011-07-07 김성림 문자표시방법과 문자입력방법
KR20110080841A (ko) * 2010-01-07 2011-07-13 정명종 터치와 드래그를 이용하여 한글을 입력하는 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7443316B2 (en) * 2005-09-01 2008-10-28 Motorola, Inc. Entering a character into an electronic device
US20070256029A1 (en) * 2006-05-01 2007-11-01 Rpo Pty Llimited Systems And Methods For Interfacing A User With A Touch-Screen
KR20090025610A (ko) * 2007-09-06 2009-03-11 삼성전자주식회사 터치 스크린을 이용한 한글 입력 처리 방법 및 한글 입력장치
JP5207699B2 (ja) 2007-09-28 2013-06-12 京セラ株式会社 文字入力装置、文字入力方法および文字入力プログラム
US20090282370A1 (en) * 2008-05-06 2009-11-12 Intuit Inc. Graphical user interface for data entry
KR100993508B1 (ko) * 2008-09-03 2010-11-10 안공혁 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법
PT2169522E (pt) * 2008-09-26 2011-03-07 Gen Algorithms Ltd Método e dispositivo para a introdução de textos
KR20110082310A (ko) * 2010-01-11 2011-07-19 삼성전자주식회사 문자 입력 방법
US9298270B2 (en) * 2010-02-03 2016-03-29 Korea University Research And Business Foundation Written character inputting device and method
US8704789B2 (en) * 2011-02-11 2014-04-22 Sony Corporation Information input apparatus
US11422695B2 (en) * 2013-03-27 2022-08-23 Texas Instruments Incorporated Radial based user interface on touch sensitive screen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100033879A (ko) * 2008-09-22 2010-03-31 오의진 문자입력장치
KR20100049948A (ko) * 2008-11-04 2010-05-13 임재범 문자생성 방법
KR20110077085A (ko) * 2009-12-30 2011-07-07 김성림 문자표시방법과 문자입력방법
KR20110080841A (ko) * 2010-01-07 2011-07-13 정명종 터치와 드래그를 이용하여 한글을 입력하는 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체

Also Published As

Publication number Publication date
US20150040056A1 (en) 2015-02-05
US9891822B2 (en) 2018-02-13
KR101323281B1 (ko) 2013-10-29
KR20130113622A (ko) 2013-10-16

Similar Documents

Publication Publication Date Title
WO2013151347A1 (ko) 입력 장치 및 문자 입력 방법
WO2011096702A2 (ko) 문자 입력 장치 및 방법
WO2011102689A2 (en) Multilingual key input apparatus and method thereof
WO2015076547A1 (ko) 가상 키보드를 모바일 단말에서 디스플레이하는 방법 및 모바일 단말
WO2015037932A1 (en) Display apparatus and method for performing function of the same
WO2010050693A2 (en) Interface apparatus for generating control command by touch and motion, interface system including the interface apparatus, and interface method using the same
WO2016186463A1 (en) Method for launching a second application using a first application icon in an electronic device
WO2014185624A1 (ko) 문자 입력 장치 및 문자 입력 방법
WO2016017956A1 (en) Wearable device and method of operating the same
WO2014137176A1 (en) Input apparatus, display apparatus, and control methods thereof
WO2016129923A1 (ko) 디스플레이 장치 및 디스플레이 방법 및 컴퓨터 판독가능 기록매체
EP3087752A1 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
WO2014027818A2 (en) Electronic device for displaying touch region to be shown and method thereof
WO2019139367A1 (en) Display device and method for touch interface
WO2018056642A2 (en) Electronic device and method thereof for managing applications
WO2016089074A1 (en) Device and method for receiving character input through the same
WO2017078314A1 (en) Electronic device for displaying multiple screens and control method therefor
WO2019135553A1 (en) Electronic device, control method thereof, and computer readable recording medium
WO2012173378A2 (ko) 키보드 레이아웃을 제공하는 유저 인터페이스 제공 장치 및 방법
WO2016068645A1 (en) Display apparatus, system, and controlling method thereof
WO2021029658A1 (ko) 처음입력문자에 기반한 한자 입력 장치 및 그 제어 방법
WO2012063981A1 (ko) 터치스크린을 이용한 빠른 문자입력방법 및 문자입력장치
WO2021149844A1 (ko) 콘텐츠를 표시하는 전자 장치 및 그 제어 방법
WO2012115492A2 (ko) 확장키를 이용한 정보입력시스템 및 정보입력방법
WO2013015553A2 (ko) 문자 입력을 제공하는 방법, 단말기 및 기록매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13772856

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13772856

Country of ref document: EP

Kind code of ref document: A1