KR101488537B1 - system and method for a user interface for text editing and menu selection - Google Patents

system and method for a user interface for text editing and menu selection Download PDF

Info

Publication number
KR101488537B1
KR101488537B1 KR1020097002112A KR20097002112A KR101488537B1 KR 101488537 B1 KR101488537 B1 KR 101488537B1 KR 1020097002112 A KR1020097002112 A KR 1020097002112A KR 20097002112 A KR20097002112 A KR 20097002112A KR 101488537 B1 KR101488537 B1 KR 101488537B1
Authority
KR
South Korea
Prior art keywords
text
user
input
selection
delete delete
Prior art date
Application number
KR1020097002112A
Other languages
Korean (ko)
Other versions
KR20090035570A (en
Inventor
에이. 쿠쉴러 클리포드
Original Assignee
에이. 쿠쉴러 클리포드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/533,714 external-priority patent/US7382358B2/en
Application filed by 에이. 쿠쉴러 클리포드 filed Critical 에이. 쿠쉴러 클리포드
Publication of KR20090035570A publication Critical patent/KR20090035570A/en
Application granted granted Critical
Publication of KR101488537B1 publication Critical patent/KR101488537B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Abstract

입력 동작 인식 텍스트 입력 시스템 사용자가, 수정할 텍스트 위치로 텍스트 삽입 위치를 이동하지 않고 잘못 인식된 텍스트를 수정할 수 있도록 하는 방법 및 시스템. 이 시스템은 또한 서로 다른 방식으로 공백이 자동 생성된 개체에 의해 텍스트 개체가 대체되는 경우에 텍스트 개체 사이의 공백이 올바로 처리되도록 합니다. 이 시스템은 또한 원하는 항목에 연관된 메뉴의 하위 영역을 직접 접촉하는 대신 더 낮은 정확도로 선택 제스처를 수행하여 원하는 항목을 간편하고 빠르게 선택하는 방식으로 메뉴 항목을 그래픽 형태로 표시할 수 있습니다.A method and system for allowing a user of an input action recognition text input system to modify erroneously recognized text without moving a text insertion position to a text position to be modified. The system also ensures that whitespace between text objects is handled correctly when text objects are replaced by objects whose spaces are automatically generated in different ways. The system can also display the menu items in a graphical way by selecting the desired item quickly and easily by performing a selection gesture with a lower accuracy, instead of directly touching the sub-areas of the menu associated with the desired item.

텍스트 입력 시스템, 텍스트 표시 시스템, 텍스트 개체 Text input system, text display system, text object

Description

텍스트 편집 및 메뉴 선택을 위한 사용자 인터페이스 시스템과 구현 방법{system and method for a user interface for text editing and menu selection}[0001] The present invention relates to a user interface system for text editing and menu selection,

본 발명은 컴퓨터 시스템을 위한 그래픽 및 제스처 사용자 인터페이스와 관련됩니다. 더 구체적으로, 사용자가 한 가지 이상의 입력 장치를 사용하여 입력 동작을 수행하고, 이러한 입력 동작으로 생성된 데이터를 컴퓨터 시스템에 입력되는 텍스트 데이터에 해당하는 한 가지 이상의 입력 동작으로 인식시키기 위해 그 내용을 분석하는 다양한 형태의 컴퓨터 시스템과 관련됩니다. 본 발명은 또한 사용자에게 그래픽 방식으로 두 가지 이상의 메뉴 선택 항목을 제시하여 쉽고 빠르게 수행할 수 있는 간단한 제스처로 이 항목을 선택할 수 있도록 함으로써, 이를 텍스트 입력 방법의 일부로 이용하거나 컴퓨터 시스템의 다른 제어 기능으로 이용한다는 내용을 포함하고 있습니다. The present invention relates to graphics and gesture user interfaces for computer systems. More specifically, a user performs an input operation using one or more input devices and, in order to recognize the data generated by the input operation as one or more input operations corresponding to text data input to the computer system, Analyzing involves various types of computer systems. The present invention also allows the user to select two or more menu selections with a simple gesture that can be performed quickly and easily by presenting two or more menu selection items to the user in a graphical manner so that they can be used as part of a text input method, It contains the information to use.

사용자가 보다 빠르게 텍스트를 입력할 수 있도록 설계된 다양한 텍스트 입력 시스템들이 개발되어 있습니다. 일반적으로 동작을 덜 정확하게 수행할 수 있다면 일정한 동작을 보다 빠르게 수행할 수 있기 때문에 일반 시스템과 비교하여 사용자가 덜 정확하게 동작을 수행할 수 있도록 하는 방식으로 이러한 빠른 텍스트 입력을 구현하는 경우가 많습니다. 일반적으로, 이를 위해 시스템에서 생성할 수 있는 텍스트 개체의 용어집을 정의하고 사용자의 입력 동작을 용어집에 있는 한 가지 이상의 텍스트 개체와 매핑시킨다는 개념을 따릅니다. 그런 다음 시스템은 사용자가 수행하는 (한 가지 이상의) 입력 동작을 분석하고 사용자의 입력 동작이 의도하는 개체와 가장 근접하게 매핑되는 텍스트 개체를 확인하여 확인된 개체를 입력 동작에 해당하는 텍스트로 생성합니다. 사용자가 정확하지 않은 두드림 동작으로 텍스트를 입력할 수 있는 가상 키보드를 골자로 미국 특허번호 6,801,190을 통해 Robinson 등이 공개한 시스템을 한 예로 들 수 있습니다. 가상 키보드 상에서 추적 경로의 형상을 감지하고 이 형상을 단어와 연결된 형상 원형 라이브러리에서 찾아 해당 단어 패턴을 인식하는 "ShapeWriter" 시스템(미국 특허번호 US 2004-0120583 A1를 통해 Zhai가 공개)을 또 다른 예로 들 수 있습니다. 미국 특허번호 7,098,896을 통해 Kushler 등이 공개한 시스템도 또 다른 예입니다. A variety of text input systems have been developed that are designed to allow users to enter text more quickly. Often, these fast text inputs are implemented in a way that allows users to perform less accurate actions compared to a regular system, since it is usually faster to perform certain actions less accurately. Typically, you do this by defining a glossary of text objects that the system can create and mapping your input behavior to one or more text objects in the glossary. The system then analyzes the input action (one or more) that the user performs, and checks the text object that is most closely mapped to the intended object of the user's input action and generates the verified object as text corresponding to the input action . An example is a system disclosed by Robinson et al. In US Pat. No. 6,801,190 with a virtual keyboard that allows the user to enter text with an inaccurate tapping motion. Another example is the "ShapeWriter" system (US Patent No. US 2004-0120583 A1 discloses Zhai) that detects the shape of the trace path on a virtual keyboard and recognizes the shape pattern library associated with the word and recognizes the corresponding word pattern You can. A system disclosed by Kushler et al. In U.S. Patent No. 7,098,896 is another example.

다른 시스템(예를 들어, 음성 인식 및 필기 인식 시스템)에서는 동일한 양식으로, 그러나 더 적은 정확도로 동작을 수행(Robinson 등이 공개한 가상 키보드의 경우와 같이)하는 대신 사용자가 대체 "양식"(즉, 음성 인식 시스템의 경우 말을 하거나, 필기 인식 시스템의 경우 필기하는 방법)으로 정보를 입력하여 텍스트를 입력할 수 있습니다. 이러한 "대체 양식" 시스템에서도 사용자의 입력 동작(음성 인식의 경우 단어를 말하거나 필기 인식의 경우 필기체 텍스트를 통해)은 시스템의 용어집에 있는 한 가지 이상의 텍스트 개체에 매핑("인식")됩니다. 다른 시스템들 도 기본적으로 사용자의 텍스트 입력 동작에 모호성을 도입하므로 사용자의 입력 동작을 용어집에 있는 한 가지 이상의 텍스트 개체에 매핑시켜야 합니다. 잘 알려진 예로, 키의 수가 제한적인 휴대 전화 키패드에 일반적으로 사용되고 상업화된 일명 "T9"(미국 특허번호 5,818,437을 통해 Grover 등이 공개) 입력 시스템을 들 수 있습니다. 이 시스템에서 표준 전화 키패드에 있는 각 키의 하위집합에는 각 문자 세트가 들어 있으며, 사용자가 키를 입력하면 입력한 순서의 키에 해당하는 문자로 구성되는 한 가지 이상의 단어가 사용자의 키 입력 순서에 매핑됩니다. Instead of performing actions in the same form, but with less accuracy (as in the case of a virtual keyboard published by Robinson et al.), Other systems (e.g., speech recognition and handwriting recognition systems) , Speech in the case of a speech recognition system, or handwriting in a handwriting recognition system). In this "alternate form" system, the user's input behavior (either words for speech recognition or handwritten text for handwriting recognition) is mapped ("recognized") to one or more text objects in the system's glossary. Other systems, by default, introduce ambiguity into your text input behavior, so you must map your input behavior to one or more text objects in the glossary. A well known example is the "T9" (US Patent No. 5,818,437, published by Grover et al.) Input system, which is commonly used in cell phone keypads with a limited number of keys and commercially available. In this system, a subset of each key on the standard telephone keypad contains each character set, and when the user types a key, one or more words consisting of the characters corresponding to the keys in the order entered are placed in the user's key- It is mapped.

이러한 다양한 시스템(이하 "입력 동작 인식 시스템"이라고 함)에서 사용자의 입력 동작의 성질과 이러한 입력 동작이 시스템 용어집에 있는 텍스트 개체에 매핑되는 방식에는 차이가 있지만, 입력 동작 인식 시스템들은 일반적으로 많은 공통적 특징을 가지고 있습니다.Although there are differences in the nature of the user's input behavior in these various systems (hereinafter referred to as "input motion recognition system") and the manner in which such input operations are mapped to textual entities in the system glossary, input motion recognition systems generally have many common It has features.

1) 이러한 입력 동작 인식 시스템이 인식하는 텍스트 개체는 사용자가 생성된 텍스트를 추가로 편집할 수 있도록 텍스트 표시 시스템에 출력됩니다(대부분이 텍스트가 표시되는 디스플레이 장치의 일정 부분으로서 구현됨).1) The text object recognized by the input motion recognition system is output to the text display system (most of which is implemented as a part of the display device in which the text is displayed) so that the user can further edit the generated text.

2) 특정 입력 동작(또는 순차적 입력 동작)이 한 가지 이상의 가능한 텍스트 개체에 해당하는 것으로 확인되는 경우가 생기고, 이때 입력 동작에 가장 근접하게 매핑되는 것으로 확인된 텍스트 개체가 텍스트 표시 시스템으로 출력됩니다. 2) Sometimes a certain input action (or sequential input action) is found to correspond to more than one possible text object, and a text object that is identified as being most closely mapped to the input action is output to the text display system.

3) 시스템은 입력 동작에 충분히 합리적으로 대응하는 것으로 확인된 한 가지 이상의 대체 텍스트 개체의 기록을 유지하고(최소한 최근 생성한 일부 텍스트 개체만이라도), 이 대체 텍스트 개체를 실제로 출력을 위해 생성된 텍스트 개체와 연결시킬 수 있습니다(일시적으로라도). 이와 함께 또는 이를 대신하여, 시스템은 입력 동작과 관련된 특정 데이터나 정보를 기록하고 이 데이터를 연결된 대체 텍스트 해석 기록과 연관시키거나, 입력 동작과 관련된 이 기록 데이터를 나중에 다시 처리하여 대체 텍스트 개체를 확인할 수 있습니다. 3) The system maintains a record of one or more alternate text objects that have been found to be reasonably responsive enough to the input behavior (at least only some recently created text objects) (Temporarily). Alternatively or in lieu of it, the system may record specific data or information associated with the input operation and associate this data with the associated alternate text interpretation record, or may process this record data associated with the input operation later to verify the alternate text object can.

4) 입력 동작에 가장 근접하게 매칭되는 것으로 확인되어 텍스트 표시 시스템을 통해 출력된 텍스트 개체가 사용자가 의도한 텍스트 개체가 아닌 경우가 생길 수 있으며, 이럴 경우 생성된 텍스트를 사용자가 직접 자신이 의도한 텍스트에 맞게 편집해야 합니다. 4) It has been confirmed that the input text matches most closely with the input operation, so that the text object output through the text display system may not be the text object intended by the user. In this case, Must be edited for text

5) 텍스트 표시 시스템에는 사용자가 생성하는 다음 텍스트 개체를 삽입할 텍스트 삽입 지점(또는 위치)이 존재합니다. 이를 통칭하여 "커서"(때로 "캐럿(caret)") 위치라고 합니다(이후 "텍스트 삽입 지점"이라고 함). 5) Text display system has a text insertion point (or location) to insert the next text object that you create. This is collectively referred to as the "cursor" (sometimes referred to as the "caret") location (hereafter referred to as the "text insertion point").

6) 사용자가 텍스트 표시 시스템에서 텍스트 삽입 지점을 새 위치로 변경할 때 이용하는 텍스트 편집 동작(또는 "제스처")이 있습니다. 대부분의 시스템에서 텍스트 표시 시스템은 디스플레이에 텍스트 출력 부분을 가지고 있습니다. 예를 들어, 마우스 기반 시스템의 경우, 이 동작은 아마도 예외없이 텍스트 출력 영역에서 마우스를 한 번 클릭하는 동작에 해당됩니다. 스타일러스 기반 터치스크린 시스템의 경우 이 동작은, 마찬가지로 예외없이, 텍스트 출력 영역에서 스타일러스를 한 번 두드리는 동작에 해당됩니다. 6) There is a text editing action (or "gesture") that the user uses to change the text insertion point to a new position in the text display system. On most systems, the text display system has a text output portion on the display. For example, for mouse-based systems, this behavior is probably a single mouse click in the text output area, with no exceptions. For stylus-based touch screen systems, this behavior corresponds to a single tapping of the stylus in the text output area, with no exceptions.

7) 문자는 일반적으로 시스템에서 두 가지로 분류되어 처리됩니다. 한 가지는 시스템에서 생성되는 하나 이상의 텍스트 개체를 구성하는 데 이용할 수 있는 문자이고(이후 "텍스트 개체 문자"라고 함), 다른 하나는 시스템에서 생성되는 텍스트 개체에 포함되지 않는 구분 문자로 취급되는 하나 이상의 문자 또는 서체입니다(이후 "구분 문자"라고 함). 구분 문자에는 일반적으로 "여백(white space)"(스페이스, 탭, 리턴 등) 및 다른 구두 문자가 있습니다. 7) Characters are generally categorized into two types in the system. One is a character that can be used to construct one or more text objects created by the system (hereafter referred to as "text object characters"), and the other is one or more characters that are treated as delimiters that are not included in the system- It is a character or typeface (hereafter called the "delimiter"). Delimiters generally have a "white space" (space, tab, return, etc.) and other punctuation characters.

이러한 다양한 입력 동작 인식 시스템에서 많은 사용자들이 공통적으로 갖는 특징은 "오류"가 특정한 빈도로 발생하기 시작할 때까지는 사용자가 동작을 더욱 빠르게 수행한다는 것입니다(결과적으로 정확도가 계속해서 떨어짐). 여기서 오류라는 것은 시스템이 텍스트 표시 시스템에 출력한 텍스트 개체가 사용자가 의도한 텍스트 개체가 아닌 경우를 말합니다. 거의 모든 텍스트 편집 시스템에 공통적인 또 다른 특징은 사용자가 편집 동작을 수행할 때마다(텍스트 표시 시스템에 표시된 모든 텍스트가 사용자 동작으로 수정된다고 했을 때) 텍스트 삽입 위치가 편집된 텍스트 위치로 재지정된다는 것입니다. 텍스트 편집에 마우스와 키보드를 사용하는 기본적 모델과 위에서 설명한 입력 동작 인식 시스템의 많은 경우에 이러한 특징이 합리적이었지만(그리고 어떤 의미에서는 불가피했지만) 이러한 특징은 더 이상 바람직하지 않습니다. 이러한 상황에 요구되는 "텍스트 편집"에서 사용자는 일반적으로 특정한 텍스트 흐름을 입력하려 합니다. 입력 과정의 어떤 시점에서, 사용자는 텍스트 출력 부분을 눈으로 보고 나서 (또는 텍스트 표시 시스템을 검사한 후) 생성된 텍스트가 사용자가 의도한 텍스트와 다르다는 것으로 인지합니다. 그 이유는 사용자가 앞서 입력한 한 가지 이상의 동작이 시스템에 의해 "잘못 인식"되어 사용자가 의도한 것과 다른 한 가지 이상의 텍스트 개체가 텍스트 출력 영역의 앞부분 에 나타나게 되었기 때문입니다. 대부분의 경우, 사용자는 잘못 인식된 텍스트를 수정하고(근본적으로는 텍스트 개체가 생성되었을 때 사용자가 수행한 원래 입력 동작에 대해 시스템의 해석을 "다시 매핑"하거나 "다시 편집"하는 작업), 현재 텍스트 삽입 위치에서 새 텍스트 입력을 계속하려고 합니다. 그러나, 기존 시스템에서는 텍스트 삽입 위치를 편집 텍스트 위치로 재지정하지 않고는 잘못 인식된 텍스트를 편집할 수 없다는 문제가 남습니다. A common feature among many users in these various input motion recognition systems is that the user performs the operation more quickly until the "error" begins to occur at a certain frequency (consequently, the accuracy continues to drop). An error here refers to the case where the text object output by the system to the text display system is not the text object intended by the user. Another feature common to almost all text editing systems is that whenever a user performs an edit operation (assuming that all text displayed in the text display system is modified by user action), the text insertion point is redirected to the edited text position It is. While these features were reasonable (and in some ways inevitable) in many of the basic models of using text and mouse for keyboard editing and the input motion recognition systems described above, these features are no longer desirable. In this context, "text editing", users typically want to enter a specific text flow. At some point in the input process, the user recognizes that the generated text differs from the intended text after looking at the text output portion (or after examining the text display system). This is because one or more of the actions the user has entered is "misrecognized" by the system and one or more text objects other than what the user intended are displayed at the beginning of the text output area. In most cases, the user will need to modify the erroneously recognized text (basically "remapping" or "re-editing" the system's interpretation of the original input action performed by the user when the text object is created) You want to continue entering new text at the text insertion point. However, in existing systems, the problem is that you can not edit misrecognized text without redirecting the text insertion point to the edit text position.

표준 데스크톱 컴퓨팅 시스템에는 거의 예외 없이 풀 사이즈 데스크톱 키보드와 마우스(또는 트랙볼이나 그래픽 테블릿 디지타이저 등의 마우스 대용 장치)가 사용됩니다. 그 결과, 대부분의 사용자는 데스크톱 시스템에서 텍스트 입력을 위해 키보드와 마우스를 편리하면서도 상대적으로 효과적인 수단으로 이용합니다. 들고 다니는 휴대용 장치의 경우, 데스크톱 키보드와 마우스는 크기가 크다는 점과 함께 평평하고 상대적으로 안정된 표면이 필요하다는 제약(표준 마우스의 경우) 때문에 실용적이지 못합니다. 따라서 위에서 언급한 많은 입력 동작 인식 텍스트 입력 시스템은 들고 다니는 휴대용 장치에서 사용하기 위한 특수 목적에 따라 개발되었습니다. 또는 이러한 장치에서 사용했을 경우 특히 유용한 것으로 여겨집니다. Standard desktop computing systems use a full-size desktop keyboard and mouse (or a mouse substitute such as a trackball or graphics tablet digitizer) with almost no exceptions. As a result, most users use keyboards and mice as convenient and relatively effective means of text entry on desktop systems. For handheld portable devices, desktop keyboards and mice are not practical because of their size, as well as the requirement for a flat, relatively stable surface (for standard mice). Therefore, many of the above-mentioned input motion recognition text input systems have been developed for special purposes for use in carrying portable devices. Or when used with such a device.

휴대용 컴퓨팅 장치는 계속해서 성능과 유용성이 향상되고 있습니다. 터치스크린은 매우 유용하고 유연하며 사용하기 간편한 휴대 장치용 인터페이스로 입증되었습니다. 터치스크린 인터페이스는 테블릿 PC 등 큰 크기의 장치를 비롯하여 매우 다양한 장치에서 사용되지만 PDA, 휴대전화와 같은 작은 장치에서 특히 유용합니다. 이러한 장치 개발 과정에서는 두 가지 상충되는 목표가 추구됩니다: 하나는 장 치를 더욱 작게 만드는 것이고, 다른 하나는 장치를 사용하기 더욱 쉽고 빠르며 편리하게 만드는 것입니다. Portable computing devices continue to improve performance and usability. The touch screen has proven to be a very useful, flexible, and easy-to-use interface for mobile devices. The touchscreen interface is used in a wide variety of devices, including large-scale devices such as tablet PCs, but is particularly useful for small devices such as PDAs and cell phones. There are two conflicting goals in this device development process: one is to make the device smaller, and the other is to make the device easier to use, faster and more convenient.

다양한 시스템에서 많이 사용되는 한 가지 사용자 인터페이스를 예로 들자면, 여러 가지 메뉴 항목을 제시하고 사용자가 이 중에서 원하는 메뉴를 선택하도록 하는 것입니다. 이 사용자 인터페이스 방식은 위에서 언급한 입력 동작 인식 텍스트 입력 시스템에서 자주 사용되는데, 한 가지 이상의 입력 동작에 대해 가능한 대체 텍스트 해석 목록을 사용자에게 제시하고 사용자가 해당 입력 동작에서 의도했던 올바른 해석을 선택하도록 할 수 있기 때문입니다. 터치스크린 인터페이스를 바탕으로 하는 시스템에서 화면 메뉴를 이용하는 가장 자연스러운 방법은 스타일러스나 손가락으로 원하는 메뉴 항목을 터치하기만 하여 원하는 옵션을 선택하는 것입니다. 디스플레이의 다른 요소를 보는데 방해가 되지 않도록 메뉴 표시에 필요한 공간을 최소화하는 것이 바람직합니다. 한편, 사용자가 터치 방식으로 원하는 메뉴 옵션을 선택한다고 했을 때 메뉴의 크기가 작을수록 사용자는 선택 동작의 정확성을 높여야 하기 때문에 메뉴를 사용하기가 더욱 어려워집니다. For example, one user interface that is used extensively in various systems is to present various menu items and allow the user to select the desired menu. This user interface approach is often used in the input motion recognition text input system described above, which presents the user with a list of possible alternative text interpretations for one or more input actions and allows the user to select the correct interpretation Because it can. The most natural way to use onscreen menus on a system based on the touchscreen interface is to select the desired option by simply touching the desired menu item with the stylus or finger. It is desirable to minimize the space required for menu display so that it does not interfere with other elements of the display. On the other hand, when the user selects the desired menu option by touch, the smaller the menu size, the more difficult the menu is to use because the user must increase the accuracy of the selection operation.

따라서, 자연스럽게 사용 편리성이 저하되는 역효과가 나타납니다. 이와 유사한 또 다른 고려사항으로, 스타일러스 또는 스크린과 상호 작용하기 위한 특수 도구를 사용하지 않고 손가락으로 터치스크린 시스템을 사용할 수 있도록 하는 설계를 바람직한 방식으로 따르고 있습니다. 손가락은 스타일러스보다 정확성이 떨어지기 때문에 사용자의 손가락으로 메뉴를 선택할 수 있도록 메뉴를 설계하게 되면 일반적으로 표시 메뉴가 상당히 커지는 문제가 발생하기 때문에 이 경우에도 사용 편리성이 저하되는 역효과가 생겨납니다. Therefore, there is an adverse effect that naturally reduces usability. Another similar consideration is in favor of designs that allow the touchscreen system to be used with fingers without the use of special tools to interact with the stylus or screen. Since the fingers are less accurate than the stylus, designing the menu so that the user can select the menu with the user's finger usually causes a problem that the display menu becomes considerably large.

위에서 언급했듯이, 이전 방식에서는 터치스크린 메뉴에서 항목을 선택하기 위해 사용자가 원하는 항목을 직접 터치해야 합니다. 어떤 경우에, 스타일러스(또는 손가락)로 화면을 처음 터치할 때 이러한 터치가 선택 항목에 지정된 영역 내에서 이루어지도록 사용자가 스타일러스를 능숙하게 다루어야 합니다. 또 다른 경우에, 사용자는 우선 특정 활성 선택 영역 내에서 스크린을 터치한 다음 원하는 선택 항목에 지정된 영역 내로 들어갈 때까지 스타일러스를 끈 후(스크린에서 스타일러스나 손가락을 떼지 않고) 스타일러스를 떼는 방식을 이용할 수 있습니다. 첫 번째 방식에서는 원하는 항목을 선택하기 위해 첫 터치 위치를 정확하게 제어해야 하고, 두 번째 방식에서는 최종 터치 위치를 마찬가지로 정확하게 제어해야 합니다. 각 메뉴 선택 항목은 2차원 메뉴 영역으로 표시되기 때문에 두 방식 모두의 경우에 사용자는 원하는 메뉴를 선택하기 위해 2차원에서 스크린 터치를 제어해야 합니다. 각 2차원 메뉴 영역이 작을수록 터치 동작에 요구되는 사용자의 정확도가 높아지며, 정확도가 높아질수록 메뉴 선택에 걸리는 시간이 늘어납니다. As mentioned above, the previous method requires you to directly touch the item you want to select from the touch screen menu. In some cases, the first time you touch the screen with the stylus (or finger), the user needs to be proficient with the stylus so that these touches are within the area specified in the selection. In other cases, the user may first touch the screen within a specific active selection area, then turn off the stylus (without lifting the stylus or finger off the screen) until it enters the area specified in the desired selection There is. The first approach requires precise control of the first touch location to select the desired item, and the second approach requires precise control of the final touch location. Since each menu choice is displayed as a 2D menu area, in both cases, the user must control the screen touch in two dimensions in order to select the desired menu. The smaller the area of each 2D menu area, the higher the accuracy of the user required for the touch operation. The higher the accuracy, the longer the time required for menu selection.

본 발명이 제시하는 방법과 시스템은 사용자가 텍스트 삽입 위치를 편집 텍스트 위치로 재지정하지 않고 잘못 인식된 텍스트를 편집할 수 있도록 함으로써 입력 동작 인식 텍스트 입력 시스템에 대해 위에서 설명한 문제들을 해결합니다. 이를 위한 본 발명의 특징은, 사용자가 텍스트 출력 영역에 삽입할 텍스트를 생성하는 동안 본 발명의 텍스트 편집 시스템은 텍스트 출력 영역 내에서 텍스트 삽입 위치의 지점을 추적하고 기록하므로 잘못 인식된 텍스트를 "재편집"한 직후 텍스트 삽입 위치를 이 위치로 자동 복귀시킬 수 있습니다. The method and system of the present invention solves the problems described above for the input motion recognition text entry system by allowing the user to edit the misrecognized text without redirecting the text insertion position to the edit text position. The feature of the present invention is that the text editing system of the present invention tracks and records the point of the text insertion position within the text output area while the user generates text to be inserted into the text output area, Edit ", you can automatically return the text insertion point to this position.

또 다른 본 발명의 특징은, 시스템은 텍스트 삽입 위치를 텍스트 출력 영역의 새 위치로 변경할 때 사용하는 것과는 분명히 구분되는 텍스트 편집용 사용자 동작(또는 "제스처")을 정의합니다. 즉, 분명히 구분되는 이 텍스트 편집 사용자 동작은 사용자가 이전에 생성된(그러나 잘못 인식된) 텍스트 개체를 실제 생성되어 출력된 텍스트와 관련된 대체 텍스트 개체 중 하나로 변경(이후 "재편집" 제스처라고 함)하려 한다는 것을 나타냅니다. Another aspect of the invention is that the system defines user actions (or "gestures") for text editing that are distinct from those used when changing the text insertion location to the new location of the text output area. That is, this distinct text editing user action changes the user's previously generated (but misrecognized) text object to one of the alternate text objects associated with the output text (hereinafter referred to as the "re-edit" gesture) Indicates that you want to

예를 들어, 스타일러스를 한 번 두드려 텍스트 삽입 위치를 텍스트 출력 영역의 새 위치로 변경하는 스타일러스 방식 터치스크린 시스템의 경우 분명히 구분되는 재편집 제스처는 텍스트 출력 영역에서 이전에 출력된 텍스트 개체 근처에 스타일러스를 "두 번 두드리는 동작"(두 번의 연속적 두드림 사이에 지정된 임계 최대 시간과 임계 최대 거리 내에서 두 번을 두드려야 함)으로 정의될 수 있습니다. 사용자가 이전에 출력된 텍스트 개체와 연관된 영역에서 재편집 제스처를 수행했다는 것을 시스템이 감지하면 텍스트 출력 영역에서 텍스트 개체가 최초 텍스트 개체(기본 선택 개체 또는 사용자가 선택한 개체)를 생성시킨 한 가지 이상의 입력 동작과 연관된 개체 텍스트 개체 중 선택 개체로 대체되고, 텍스트 삽입 위치는 이전 위치(재편집 제스처를 감지하기 전의 위치)로 자동 복귀됩니다.  For example, in a stylus-based touchscreen system that taps the stylus once to change the insertion position of the text to a new position in the text output area, the distinctive re-editing gesture is to place a stylus near the previously- It can be defined as a "double-tapping action" (two critical strokes within a specified threshold maximum time between two successive tapping times). If the system detects that the user has performed a reediting gesture on an area associated with a previously printed text object, the text output area may contain one or more inputs that cause the text object to create an initial text object (a base selected object or a user selected object) The object text object associated with the action is replaced by the selection object, and the text insertion point automatically reverts to the previous position (the position before the reediting gesture is detected).

최초 텍스트 개체를 대체하는 대체 텍스트 개체를 사용자가 선택하려고 할 때 가장 효과적인 사용자 인터페이스는 사용자에게 대체 텍스트 개체 메뉴를 보여주고 원하는 텍스트 개체를 선택하도록 하는 것입니다. 본 발명은 원하는 메뉴 항목을 선택할 때 특정 2차원 메뉴 영역 내에서 스크린 접촉 동작을 시작하고 끝낼 필요 없이 사용자가 메뉴 항목을 선택할 수 있도록 함으로써 이러한 선택의 속도와 편리함을 높입니다. 즉, 사용자의 스크린 접촉 동작으로 활성화되는 메뉴 항목은 접촉 동작에 따라 가로지르게 되는 메뉴 최외곽 경계의 세그먼트에 의해 결정되는데, 메뉴 경계의 각 세그먼트는 하나의 메뉴 항목과 연결되어 있습니다. 이 접근 방식에서 초기 접촉은 표시된 메뉴 내의 어느 위치에서나 가능하며 원하는 특정 텍스트 개체와 연관된(또는 연관된 것으로 보이는) 영역 내에서 시작할 (또는 끝낼) 필요는 없습니다. 둘 이상의 가능한 선택 항목 사이에서 선택을 해야 할 때마다 본 발명의 메뉴 선택 시스템을 사용하면 효율성을 더욱 높일 수 있습니다.When a user tries to select an alternate text object that replaces the original text object, the most effective user interface is to show the user a menu of alternative text objects and to select the desired text object. The present invention increases the speed and convenience of such selection by allowing the user to select a menu item without having to start and end a screen contact operation within a particular two-dimensional menu area when selecting the desired menu item. That is, the menu item activated by the user's screen touch operation is determined by the segment at the outermost boundary of the menu that is traversed according to the touch operation, and each segment of the menu boundary is associated with one menu item. In this approach, initial touch is possible anywhere in the displayed menu and does not need to start (or end) within the area associated with (or appear to be associated with) the specific text object desired. Whenever you need to make a choice between two or more possible choices, the menu selection system of the present invention can be used to further increase efficiency.

본 발명의 실시예를 다음 도면을 참조하여 아래에서 자세하게 설명합니다:BRIEF DESCRIPTION OF THE DRAWINGS Embodiments of the present invention will be described in detail below with reference to the following drawings:

도1은 도2a, 2b 및 2c, 그리고 도3a, 3b 및 3c에 나타낸 바와 같이 본 발명의 텍스트 편집 및 메뉴 선택 시스템을 구현시켜주는 시스템의 일반적 하드웨어 구성요소를 보여주는 구조적 시스템 블록 다이어그램입니다.Figure 1 is a structural system block diagram illustrating the general hardware components of a system implementing the text editing and menu selection system of the present invention as shown in Figures 2a, 2b and 2c and Figures 3a, 3b and 3c.

도2a는 본 발명의 방법상의 개념에 따라 재편집 중인 텍스트 개체의 예를 나타냅니다. Figure 2a shows an example of a text object being re-edited according to the concepts of the method of the present invention.

도2b는 두 연쇄적 텍스트 개체 중 한 개체가 본 발명의 개념에 따라 재편집 중인 것을 나타냅니다. Figure 2b shows that one of the two cascading text objects is being re-edited according to the concepts of the present invention.

도2c는 본 발명의 개념에 따라 도2b의 두 연쇄적 텍스트 개체 중 하나를 재편집한 결과를 예로 보여줍니다. FIG. 2C shows an example of the result of re-editing one of the two cascading text objects of FIG. 2B according to the concept of the present invention.

도3a는 본 발명의 개념을 활용하여 구성된 메뉴의 예입니다. Figure 3A is an example of a menu constructed utilizing the concepts of the present invention.

도3b는 본 발명의 개념을 활용하여 구성된 메뉴의 예입니다. 여기서 제시된 선택 항목 중 두 개는 사용자가 의도한 선택 항목일 가능성이 낮은 선험 확률(priori probability)을 갖습니다. Figure 3b is an example of a menu constructed utilizing the concepts of the present invention. Two of the choices presented here have a priori probability of being less likely to be the user's intended choice.

도3c는 본 발명의 개념을 활용하는 한 가지 방식으로 구성된 메뉴의 예입니다. 여기서는 제시된 선택 항목 및 관련 경계 세그먼트의 배경에 해당 색상, 음영 또는 텍스처를 사용하여 각 제시 선택 항목과 연관된 메뉴의 경계 세그먼트가 표시되어 있습니다. Figure 3c is an example of a menu configured in one way that exploits the concepts of the present invention. It shows the border segments of the menu associated with each presented choice using the corresponding color, shading, or texture in the background of the proposed selection and its associated border segment.

도4는 본 발명의 개념을 활용하는 한 방식으로 구성된 메뉴에 대한 접촉 동작의 예를 나타낸 것입니다. Figure 4 illustrates an example of a touch operation for a menu configured in one fashion utilizing the concepts of the present invention.

도5는 본 발명의 개념을 활용하는 한 방식으로 구성된 메뉴의 예로서, 제시되는 선택 항목의 수를 늘릴 수 있습니다.Figure 5 is an example of a menu constructed in one fashion that exploits the concepts of the present invention, which can increase the number of choices presented.

도6은 도5에 나타낸 식으로 구조화된 메뉴의 예를 보여주며, 여기서는 유사한 배경 색상을 사용하여 유사한 선택 제스처로 선택할 수 있는 메뉴 항목 세트를 나타냅니다.Fig. 6 shows an example of a structured menu in the form shown in Fig. 5, which shows a set of menu items that can be selected with a similar selection gesture using a similar background color.

본 발명을 적용한 시스템을 통해 사용자는 텍스트를 입력하고 편집하는 과정을 불필요하게 중단하지 않고 입력 동작 인식 시스템에 의해 잘못 인식된 텍스트를 수정할 수 있습니다. 의도한 단어나 구문이 잘못 인식되면(한 가지 이상의 입력 동작이 사용자가 입력 동작의 수행에서 의도한 것과 다른 텍스트에 "매핑"), 사용자는 시스템의 잘못된 인식을 바로 잡아야 하지만, 이러한 수정 작업은 사용자가 텍스트의 변경이나 편집을 의도한다기 보다 텍스트 개체가 생성될 당시 사용자의 최초 입력 동작에 대한 시스템의 해석을 "재매핑" 또는 "재편집"하는 것이라고 하겠습니다. 시스템이 한 가지 이상의 이전 입력 동작을 잘못 인식한 것으로 확인하는 경우, 본 발명이 구현된 시스템에서 사용자는 잘못 인식된 텍스트를 수정한 다음 최소한의 노력만으로 텍스트 삽입 위치의 원래 지점에서 텍스트 입력을 계속할 수 있습니다. 그 이유는 텍스트 삽입 위치가 원래 위치로 자동 복귀하기 때문입니다. Through the system to which the present invention is applied, the user can correct the erroneously recognized text by the input motion recognition system without unnecessarily stopping the process of inputting and editing the text. If the intended word or phrase is misrecognized (one or more input actions are "mapped" to a different text than intended by the user in performing the input action), the user must correct the misidentification of the system, Is to "remap" or "re-edit" the system's interpretation of the user's initial input behavior at the time the text object was created rather than intended to change or edit the text. If the system finds that one or more previous input actions are misrecognized, then in the system in which the invention is implemented, the user can correct the erroneously recognized text and then continue the text entry at the original point of the text insertion location with minimal effort There is. This is because the text insertion point automatically returns to its original position.

본 발명의 한 특징은, 사용자가 텍스트 출력 영역에 삽입할 텍스트를 생성할 때 시스템은 텍스트 출력 영역 내에서 텍스트 삽입 위치를 추적하고 기록하므로 해당하는 경우 텍스트 삽입 위치를 이 위치로 자동 복귀시킬 수 있는 것입니다. 또 다른 특징으로, 시스템은 텍스트 삽입 위치를 텍스트 출력 영역의 새 위치로 변경할 때 사용하는 것과는 분명히 구분되는 텍스트 편집용 사용자 동작(또는 "제스처")을 정의합니다. 즉, 분명히 구분되는 이 텍스트 편집 사용자 동작은 사용자가 이전에 생성된(그러나 잘못 인식된) 텍스트 개체를 실제 생성되어 출력된 텍스트와 관련된 대체 텍스트 개체 중 하나로 변경(이후 "재편집" 제스처라고 함)하려 한다 는 것을 나타냅니다. 예를 들어, 스타일러스를 한 번 두드려 텍스트 삽입 위치를 텍스트 출력 영역의 새 위치로 변경하는 스타일러스 방식 터치스크린 시스템의 경우 분명히 구분되는 재편집 제스처는 텍스트 출력 영역에서 이전에 출력된 텍스트 개체 근처에 스타일러스를 두 번 두드리는 동작으로 정의될 수 있습니다. 시스템에 의해 사용자가 이전에 출력된 텍스트 개체와 연관된 영역에서 재편집 제스처를 수행한 것으로 인식되면 텍스트 출력 영역에 있는 텍스트 개체가 이에 관련된 대체 텍스트 개체(아래에서 설명) 중 하나로 대체된 다음 이전 위치(재편집 제스처가 감지되기 전의 위치)로 자동 복귀됩니다. A feature of the present invention is that when the user creates text to be inserted into the text output area, the system tracks and records the text insertion position within the text output area, so that the text insertion position can be automatically returned to this position It is. In another aspect, the system defines user actions (or "gestures") for text editing that are distinct from those used to change the text insertion location to the new location in the text output area. That is, this distinct text editing user action changes the user's previously generated (but misrecognized) text object to one of the alternate text objects associated with the output text (hereinafter referred to as the "re-edit" gesture) Indicates that you want to. For example, in a stylus-based touchscreen system that taps the stylus once to change the insertion position of the text to a new position in the text output area, the distinctive re-editing gesture is to place a stylus near the previously- It can be defined as a double-tapping action. If the system recognizes that the user has performed a reediting gesture on the area associated with the previously printed text object, the text object in the text output area is replaced with one of the associated alternate text objects (described below) The position before the re-edit gesture is detected).

본 발명의 다양한 특징과 구현 내용을 설명한 다음 부분에서, 특정한 측면이나 구현은 대체적으로 스타일러스 방식 터치스크린 시스템을 가정하고 예시 및 설명됩니다. 그러나, 이러한 다양한 특징과 구현은 표준 마우스 및 키보드를 사용하여 입력 동작을 수행하는 시스템, 스타일러스를 사용하지 않아도 되는 터치스크린 시스템, 대체 형식의 마우스(예를 들어, 사용자의 동공 움직임을 추적하여 사용자가 주시하는 스크린 위치를 확인하고 시스템의 마우스 커서를 이 위치로 자동 이동시키며 눈의 깜박임이나 다른 작용 기전을 모니터링하여 사용자가 다양한 마우스 클릭을 수행할 수 있도록 하는 "응시" 시스템), 음성 명령을 이용하는 시스템, 또는 다른 방법을 이용하여 사용자가 텍스트를 생성하고/하거나 이미 입력된 텍스트에서 편집 작업을 실행하는 입력 동작을 수행할 수 있는 시스템 등도 일반적 기술 중 하나로 동일하게 적용됩니다.In the following sections, which illustrate various aspects and implementations of the present invention, certain aspects or implementations are generally illustrated and described with the assumption of a stylus touchscreen system. These various features and implementations, however, are not limited to systems that perform input operations using standard mice and keyboards, touch screen systems that do not require a stylus, alternative type mice (e.g., A "gaze" system that allows the user to perform various mouse clicks by checking the position of the screen being watched, automatically moving the mouse cursor of the system to this position, monitoring the blinking of the eye or other action mechanism) , Or a system that allows a user to perform an input action that generates text and / or performs editing operations on already entered text using other methods.

또 다른 특징으로, 이 시스템을 통해 사용자는 편집할 단어를 하이라이트한 다음(또는 텍스트 삽입 위치를 단어의 경계 근처나 내부 위치에 놓은 다음) 지정된 "재편집" 편집 기능 키를 실행하여 출력 텍스트에서 재편집 단어를 선택할 수 있습니다(이 경우, 시스템은 재편집 기능을 실행하기 위해 텍스트 삽입 위치를 재지정하기 전에 텍스트 삽입 위치의 이전 두 위치를 추적하여 재편집이 끝난 후 그 위치로 복귀함). 또 다른 특징으로, 이러한 인식 오류를 최대한 효과적으로 수정할 수 있도록 시스템은 출력 텍스트 영역에서 재편집 제스처가 수행될 때 이를 인식하고, 재편집 대상 단어로 사전 결정된 스타일러스 동작이나 제스처가 수행된 위치에 가장 근접하는 출력 텍스트 영역의 단어를 확인합니다. 앞서 예를 통해 언급한 한 가지 구현 방식에서, 사전 결정된 편집 동작은 터치스크린에 표시된 단어를 스타일러스로 "두 번 두드리는 동작"에 해당합니다. 또 다른 구현 방식의 경우(예를 들어, 마우스와 같은 커서 이동 제어 장치를 사용하여 시스템을 조작하는 경우), 사전 결정된 편집 동작은 (예를 들어) 마우스를 편집할 단어 위에 잠시 올려놓은 후 마우스를 신속하게 앞, 뒤로 한 번 움직이는 것입니다(이러한 제스처는 다양하게 정의될 수 있으므로 이것은 단지 하나의 예일뿐입니다).In another aspect, the system allows the user to highlight a word to be edited (or place the text insertion location near or within the bounds of the word) and then execute the specified "re-edit" edit function key, (In this case, the system will track the previous two locations of the text insertion location before re-assigning the text to re-edit, and then return to that position after re-editing). In another aspect, the system recognizes when a reediting gesture is performed in the output text area so as to modify this recognition error as effectively as possible, and determines whether the reediting target word is the closest to the location where the predetermined stylus action or gesture was performed Check the words in the output text area. In one implementation discussed in the previous example, the predetermined editing action corresponds to the "double tapping" of a word displayed on the touch screen with a stylus. In another implementation (for example, when operating a system using a cursor movement control device such as a mouse), a predetermined editing action may be performed by (for example) placing the mouse over the word to be edited (This is just one example, as these gestures can be defined in various ways).

또 다른 구현 방식의 경우, 재편집 제스처는 한 번의 제스처로 다수의 단어를 선택할 수 있도록 정의됩니다. 예를 들어, 음성 인식 시스템에서 인식 오류는 일반적으로 생성 출력된 하나 이상의 단어에 영향을 미칩니다. 예를 들어, 사용자가 "음성을 인식하기 어렵다"라고 말하였는데, 시스템은 "음식을 시식하기 어렵다"로 출력을 생성할 수 있습니다. 이러한 경우, 재편집 제스처는, 예를 들어, 나열된 단어에 선을 긋는 것으로 정의할 수 있습니다. 즉, 위의 경우라면 "음식을 시식하 기" 어구에 선을 긋는 것입니다. 그러면 시스템이 "어렵습니다"에 해당하는 어구 부분의 해석은 변경하지 않고 관련 어구에 대해서만 하나 이상의 대체 해석을 생성할 것입니다. 이러한 접근 방식은 필기 인식 시스템에도 적용할 수 있습니다. 필기 인식 시스템의 경우에는 사용자가 한 단어로 입력한 필기 세그먼트가 둘 이상의 단어로 분할되는 인식 오류가 자주 발생합니다. 물론, 재편집할 일련의 단어 주변에 원을 그리는 등의 다른 재편집 제스처도 정의할 수 있으며, 이러한 부분도 본 발명의 범위에 포함되는 것으로 간주됩니다. 예를 들어, 음성 인식 시스템에서 재편집 "제스처"는 구두 명령으로 정의할 수 있습니다. 즉, 위의 예를 들자면 "재편집: 음식을 시식하기"와 같은 구두 문구가 될 수 있습니다.For another implementation, a re-edit gesture is defined to allow you to select multiple words with a single gesture. For example, in speech recognition systems, recognition errors usually affect one or more words that are generated and output. For example, when a user says "It is difficult to recognize speech", the system can generate output as "difficult to sample food". In this case, the reediting gesture can be defined, for example, by drawing a line through the listed words. That is, in the above case, you draw a line in the phrase "tasting the food." The system will then generate one or more alternative interpretations for the relevant phrases without changing the interpretation of the phrase portion that is "difficult". This approach can also be applied to handwriting recognition systems. For handwriting recognition systems, recognition errors often occur where a user's handwritten segment entered by one word is split into more than one word. Of course, other re-editing gestures may also be defined, such as drawing a circle around a series of words to be re-edited, and these are also considered to be within the scope of the present invention. For example, a reediting "gesture" in a speech recognition system can be defined as a verbal command. In other words, it can be a verbal phrase like "re-editing: tasting food".

한 특징으로, 시스템은 한 가지 이상의 최근 출력 텍스트 개체에 대해 한 가지 이상의 입력 동작에 가장 근접하게 일치하는 것으로 확인된 대체 텍스트 개체 목록을 저장합니다. 재편집 제스처가 감지되면 재편집하려는 이 텍스트 개체의 출력 원인이 된 사용자의 원래 입력 동작과 관련하여 시스템이 가장 근접하게 일치하는 텍스트 개체로 애초에 확인했던 대체 텍스트 개체 목록을 텍스트 개체 선택 목록으로 표시합니다. 또 다른 구현 방식에서, 원래 출력된 텍스트 개체는 표시되는 텍스트 개체 선택 항목 목록에서 생략되는데, 재편집 절차가 (일반적으로) 이를 대체하려는 목적으로만 수행되기 때문입니다. 또 다른 특징으로, 재편집할 텍스트 개체는 재편집할 텍스트 개체의 출력 원인이 된 입력 동작에 가장 근접하는 것으로 확인된 대체 텍스트 개체 목록에서 그 다음으로 근접하게 일치하는 대체 텍스트 개체로 자동 대체됩니다(사용자가 표시된 텍스트 개체 선택 목록에서 텍스트 개체를 선택할 필요 없이). 이러한 접근 방식은 대부분의 경우에 사용자가 의도한 텍스트 개체가 그 다음으로 가장 근접하는 대체 텍스트 개체인 시스템에서 큰 효과가 있을 수 있습니다. 또 다른 특징으로, 이미 재편집된 텍스트 개체를 재편집하여 원래 출력된 텍스트 개체를 자동으로 치환했던 대체 텍스트 개체에 그 다음으로 가장 근접하는 대체 텍스트 개체와 일치하는 경우, 시스템은 사용자가 대체 텍스트 개체를 선택할 수 있도록 텍스트 개체 선택 목록을 표시합니다.In one aspect, the system stores a list of alternate text objects that are identified as being closest to one or more input actions for one or more recent output text objects. If a re-edit gesture is detected, the system displays a list of alternate text objects that the system has checked in the closest matching text object in relation to the original input behavior of the user that caused this text object to be re-edited . In another implementation, the originally printed text object is omitted from the list of displayed text object selections, because the re-editing procedure is (usually) done only to replace it. As a further feature, the text object to be re-edited is automatically replaced with the next closest matching alternate text object in the list of alternate text objects found to be closest to the input action that caused the output of the re-edited text object Without requiring the user to select a text object from the displayed list of selected text objects). This approach can be most effective in systems where in most cases the intended text object is the next closest alternative text object. In another aspect, if the previously re-edited text object is re-edited to match the next closest alternate text object to the alternate text object that automatically replaced the originally output text object, Displays a selection list of text objects for you to select.

도1은 텍스트 편집 및 메뉴 선택을 위한 사용자 인터페이스 시스템과 방법이 구현된 일반적인 장치 100의 하드웨어 구성요소를 간소화된 블록 다이어그램을 나타냅니다. 장치 100에는 사용자가 수행하는 동작을 알리는 입력을 CPU(프로세서) 110에 제공하는 하나 이상의 입력 장치 120이 포함됩니다. 이 입력은 일반적으로 입력 장치로부터 수신한 원시 신호를 해석한 다음 사용 가능한 데이터 포트와 알려진 통신 프로토콜을 사용하여 이 정보를 CPU 110으로 전달하는 하드웨어 컨트롤러에 의해 조정됩니다. 입력 장치 120의 한 예로 사용자가 터치스크린을 터치할 때 이 접촉 이벤트를 알리는 입력을 CPU 110에 제공하는 터치스크린이 있습니다. 마찬가지로, CPU 110은 디스플레이 130상에 나타나는 디스플레이 130을 위해 하드웨어 컨트롤러와 통신합니다. 디스플레이 130의 한 예로 사용자에게 그래픽과 텍스트 형태로 시각적 피드백을 제공하는 터치스크린 디스플레이가 있습니다. 선택 사항으로, 스피커 140을 프로세서에 연결시켜 사용자에게 적당한 청각적 신호를 보조적으로 전달할 수도 있고(오류 신호에 주로 이용), 마이크로폰 141을 프로세서에 연결시켜 사용자로부터 구두 입력을 수신할 수도 있습니다(사용자를 위한 텍스트 입 력 방식으로 음성 인식을 구현하는 입력 동작 인식 시스템에서 주로 이용). 프로세서 110은 임시 및/또는 영구 저장소와 읽기 전용 및 쓰기 가능 메모리(임의 액세스 메모리 또는 RAM), 읽기 전용 메모리(ROM), FLASH 메모리 등의 쓰기 가능한 비휘발성 메모리, 하드 드라이브, 플로피 디스크 등이 한 가지 이상 결합될 수 있는 메모리 150에 액세스할 수 있습니다. 메모리 150에는 운영 체제 161, 입력 동작 인식 시스템 소프트웨어 162 및 기타 모든 응용 프로그램 163 등의 모든 프로그램과 소프트웨어를 포함하는 프로그램 메모리 160이 포함됩니다. 프로그램 메모리 160에는 또한 본 발명의 구현 방법에 따라 텍스트 삽입 위치를 기록하고 저장하기 위한 최소 하나 이상의 텍스트 편집 시스템 소프트웨어 164를 비롯하여, 사용자에게 둘 이상의 선택 항목을 그래픽 형태로 표시하고 본 발명의 구현 방법에 따라 이 그래픽 표시 항목 중 사용자가 선택한 항목을 확인하기 위한 메뉴 선택 시스템 소프트웨어 165가 포함됩니다. 메모리 150에는 입력 동작 인식 시스템 소프트웨어 162에 필요한 텍스트 개체 데이터베이스 171, 사용자 옵션과 기본 설정 172의 기록 관리를 위한 옵션 저장소 및 장치 100의 모든 요소에 필요한 기타 데이터 173을 포함하는 데이터 메모리 170도 포함됩니다.Figure 1 shows a simplified block diagram of the hardware components of a generic device 100 implemented with a user interface system and method for text editing and menu selection. The device 100 includes one or more input devices 120 that provide inputs to the CPU (processor) 110 to inform the user of the actions performed by the user. This input is typically controlled by a hardware controller that interprets the raw signal received from the input device and then communicates this information to the CPU 110 using a known data port and a known communication protocol. One example of an input device 120 is a touch screen that provides an input to the CPU 110 that notifies the touch event when the user touches the touch screen. Similarly, the CPU 110 communicates with the hardware controller for the display 130 that appears on the display 130. One example of display 130 is a touch screen display that provides the user with visual feedback in both graphical and textual form. Optionally, the speaker 140 may be connected to the processor to provide an auxiliary audible signal to the user (primarily used for error signals), or to connect the microphone 141 to the processor to receive a verbal input from the user This is mainly used in an input motion recognition system that implements speech recognition by a text input method. The processor 110 may include one or more of temporary and / or permanent storage, read only and writeable memory (random access memory or RAM), read only memory (ROM), writable nonvolatile memory such as FLASH memory, hard drive, floppy disk, You can access memory 150 that can be combined more than. Memory 150 includes program memory 160, which includes all programs and software, such as operating system 161, input motion recognition system software 162, and all other applications 163. The program memory 160 also includes at least one text editing system software 164 for recording and storing text insertion locations in accordance with an implementation of the present invention, This includes the menu selection system software 165 to determine which of these graphical display items the user has selected. The memory 150 also includes a data memory 170, which includes a text object database 171 required by the input motion recognition system software 162, an optional repository for managing records of user options and preferences 172, and other data 173 required for all elements of the device 100.

도2a에는 시스템 100의 디스플레이 130에 표시되는 재편집 기능 키 208을 사용하여, 또는 이전에 출력된 텍스트 개체(도2a의 "great" 200)에 사전 결정된 재편집 제스처를 수행하여 사용자가 의도한 텍스트 개체에 해당하지 않는 출력 텍스트 개체를 수정하여 재편집 절차를 수행하는 방법을 보여줍니다. 또 따른 구현의 경우, 재편집 기능 키 208이 활성화되고 현재 하이라이트된 텍스트 개체가 없는 경 우, 시스템은 현재 텍스트 삽입 위치를 포함하거나 여기에 인접한 텍스트 개체를 확인하고 이를 재편집 절차의 대상으로 자동 선택합니다. 2A, a reediting function key 208 displayed on the display 130 of the system 100 may be used, or a predetermined reediting gesture may be performed on a previously output text object ("great" 200 in FIG. 2A) Demonstrates how to modify the output text object that does not correspond to an object to perform the re-editing procedure. In another implementation, if the re-edit function key 208 is activated and there is no currently highlighted text object, the system checks the text object that contains or is adjacent to the current text insertion location and automatically selects I will.

도2a는 그 결과로 생성된 텍스트 개체 선택 목록 202를 나타냅니다. 이 예에서, 원래 의도한 텍스트 개체 "heat"는 최초 입력 동작과 관련하여 (최초 입력 동작에 해당하는 텍스트 개체로 처음 출력된 단어 "great" 다음) 두 번째로 근접하게 일치하는 텍스트 개체로 확인되었기 때문에 텍스트 개체 선택 목록 202에서 첫 텍스트 개체 204로 나타납니다. 사용자가 입력 장치 120을 사용하여 텍스트 개체 선택 목록 202에서 텍스트 개체 204를 선택하면 프로세서 110이 디스플레이의 텍스트 출력 영역 206에서 하이라이트된 텍스트 개체 "great" 200을 원래 의도한 텍스트 개체 "heat"로 자동 대체합니다. FIG. 2A shows the resulting text object selection list 202. In this example, the originally intended text object "heat" is identified as the second closest matching text object (following the word "great" first printed out as the text object corresponding to the first input action) Because the text object is selected in list 202, the first text object appears as 204. When the user selects the text object 204 in the text object selection list 202 using the input device 120, the processor 110 automatically substitutes the text object "great" 200 highlighted in the text output area 206 of the display with the original intended text object & I will.

또 다른 특징으로, 재편집 프로세스는 입력 동작 인식 시스템 소프트웨어 162에 의해 공백이 자동으로 생성되는 방식에 따라 공백을 삽입하거나 삭제합니다. 입력 동작 인식 시스템이 텍스트 개체 사이에 자동으로 공백을 생성할 때 인접 텍스트 개체의 모든 쌍 사이에 공백이 자동으로 생성된다면 사용자가 원하지 않지만 자동으로 생성된 공백을 삭제해야 하는 상황이 자주 발생할 것입니다. 예를 들어, 영어의 경우 명사의 소유격을 만들기 위해 명사 뒤에 텍스트 개체 " ’s " (아포스트로피-s)를 추가해야 하는 경우가 많습니다. 프랑스어의 경우, 관사 "le" 및 "la"가 모음으로 시작하는 단어 앞에 오는 경우, 이 관사는 아포스트로피와 다음 단어의 첫 문자 사이에 공백 없이 " l’ " (l-아포스트로피)로 쓰여집니다. 독일어와 같은 다른 언어의 경우, 둘 이상의 단어를 함께 연결시켜 긴 "합성" 단어를 만드는 경우가 많습니다. 이 문제를 해결하는 다른 방법들이 가능하고 이러한 방법들이 본 발명의 범위를 벗어나는 것으로 간주되지 않지만, 입력 동작 인식 시스템에서 이 문제를 해결하는 간단한 방법은 인접 텍스트 개체 사이에 자동으로 공백을 생성하는 일반적 규칙에 대한 예외로 특정 텍스트 개체를 플래그 처리하는 것입니다. 예를 들어, 영어의 경우 텍스트 개체 " ’s " (아포스트로피-s)는 시스템의 텍스트 개체 데이터베이스에서 자신과 다음 텍스트 개체 사이에 공백이 생성되지만 자신과 이전 텍스트 개체 사이에서는 공백을 생성하지 않는 것으로 플래그 처리됩니다. 이와 대조적으로, 프랑스어의 경우 텍스트 개체 " l’ " (l-아포스트로피)는 시스템의 텍스트 개체 데이터베이스에서 자신과 이전 텍스트 개체 사이에 공백이 생성되지만 자신과 다음 텍스트 개체 사이에서는 공백을 생성하지 않는 것으로 플래그 처리됩니다. 또 다른 특징으로, 정상적이라면 공백으로 분리되지만 긴 "복합" 텍스트 개체를 만들기 위해 여러 텍스트 개체를 함께 연결시키는 경우가 많은 독일어 등의 언어를 처리하기 위해, (시스템에 의해 중간 공백이 생기지 않고 이러한 두 텍스트 개체가 연속적으로 생성되도록) 입력 동작 인식 시스템에는 이후부터 공백의 자동 생성을 억제시키는 데 이용할 수 있는 기능이 포함되어 있습니다. 즉, 이 기능은 공백의 자동 생성이 다시 사용되도록 활성화할 때까지 정상적으로 생성되는 공백의 자동 생성을 억제합니다. 또한, 입력 동작 인식 시스템에는 최근 생성된 자동 공백을 제거하는 기능이 포함되어 있습니다. 아래의 설명과 같이 본 발명의 재편집 처리는 공백의 자동 생성에 대한 이러한 다양한 예외를 수용하므로, 재편집 프로세스 중 텍스트 개체가 자동 공백 처리와 관련된 여러 가지 규칙이 적용된 텍스트 개체 로 대체될 때 재편집된 텍스트의 공백이 적합하게 처리됩니다. In another aspect, the re-edit process inserts or deletes blanks according to how the blanks are automatically generated by the input motion recognition system software 162. When an input motion recognition system automatically creates a space between text objects, if spaces are automatically generated between every pair of adjacent text objects, it is often the case that you want to delete unwanted but automatically generated spaces. For example, in English, you often need to add a text object "'s" (apostrophe -s) after a noun to make it a possessive of a noun. In French, if the articles "le" and "la" precede a word beginning with a vowel, then this article is written as "l '" (l-apostrophe) without any spaces between the apostrophe and the first letter of the next word. In other languages, such as German, you often link two or more words together to form long "composite" words. Although other methods of solving this problem are possible and these methods are not considered to be beyond the scope of the present invention, a simple way to solve this problem in an input motion recognition system is to use a general rule The exception to this is to flag certain text objects. For example, in English, the text object "'s" (apostrophe -s) indicates that a space is created between itself and the next text object in the system's text object database, but not between itself and the previous text object Will be processed. By contrast, in the case of French, the text object "l '" (l-apostrophe) indicates that a space is created between itself and the previous text object in the system's text object database, but not between itself and the next text object Will be processed. Another feature is that, in order to handle languages such as German, where many text objects are often concatenated together to form long "compound" text objects that are normally separated by spaces, The input motion recognition system includes features that can later be used to suppress the automatic generation of blanks so that text objects are created consecutively. In other words, this feature suppresses the automatic creation of whitespace that is normally generated until you enable automatic generation of blanks again. In addition, the Input Motion Recognition system includes the ability to remove recently generated automatic blanks. As described below, the re-editing process of the present invention accommodates these various exceptions to the automatic generation of blank, so that when the text object is replaced with a text object to which various rules relating to automatic blank processing are applied during the re- Whitespace in the text is handled appropriately.

또 다른 특징으로, 재편집 제스처는 연속된 하나의 텍스트 개체 문자열의 하위 문자열을 단일 제스처로 선택할 수 있도록 정의됩니다. 도2b에 나타낸 예에서, 단어 "of’s" 210은 단어 "of" 212 및 " ’s " 214로 구성됩니다. 이 예에서, 이 두 텍스트 개체는 연속적으로 수행된 두 개별 입력 동작의 결과로 생성되었다는 점에 주목해야 합니다. 또한, 이 텍스트는 기본적으로 연속 생성된 텍스트 개체 사이에 자동으로 공백을 출력하는 사용자 입력 동작 인식 시스템에서 생성되었지만 여기서 텍스트 개체 " ’s " 214는 시스템의 텍스트 개체 데이터베이스에서 이 기본 동작에 대한 예외로 플래그 처리되므로 " ’s " 214 출력 이전에 공백이 생성되지 않고 이전 텍스트 개체의 끝에 연속해서 이어지므로 올바른 소유격이 만들어집니다. 그러나, 도2b에 나타낸 예에서 텍스트 개체 " ’s " 214는 해당 입력 동작이 수행되었을 때 사용자가 의도했던 텍스트 개체가 아니었습니다. As a further feature, re-editing gestures are defined to allow selection of a single gesture as a substring of a sequence of text object strings. In the example shown in FIG. 2B, the word " of "210 consists of the words" of "212 and" In this example, it should be noted that these two text objects were created as a result of two separate input operations performed in succession. In addition, this text was generated by a user input motion recognition system which basically outputs a blank space between consecutively generated text objects, wherein the text object "s" 214 is an exception to this basic operation in the system's text object database Because it is flagged, the "" s "214 output does not generate a space before, and it continues to the end of the previous text object, so the correct ownership is created. However, in the example shown in FIG. 2B, the text object "'s" 214 was not the text object that the user intended when the corresponding input action was performed.

또 다른 특징으로, 여러 텍스트 개체 문자로 구성되고 그 전, 후에 하나 또는 그 이상의 구분 문자로 경계가 구분되는 텍스트 열(도2b의 예에서 텍스트 열 "of’s" 210)과 관련된 영역에서 재편집 제스처가 감지되는 경우, 시스템은 우선 전체 텍스트 열(도2b의 예에서 "of’s" 210)이 단일 사용자 입력 동작에 의해 생성되었는지를 확인하고, 만약 그렇다면 시스템은 입력 동작에 대해 확인된 대체 텍스트 개체를 바탕으로 위에서 설명한 방식으로 반응합니다. 또 다른 특징으로, 확인된 텍스트 열(이 예에서 "of’s" 210)이 둘 이상의 개별 사용자 입력 동작에 의해 생성되었고 이 각 동작으로부터 구성 하위 문자열 텍스트 개체가 생성된 경우, 시 스템은 수행된 재편집 제스처에 가장 근접하는 구성 하위 문자열 텍스트 개체를 확인하고, 예를 들어 확인된 이 구성 하위 문자열 텍스트 개체를 하이라이트하고 구성 하위 문자열 텍스트 개체가 생성된 원인이 된 사용자 입력 동작과 관련된 대체 텍스트 개체 목록을 사용자가 선택할 수 있는 항목으로 표시합니다. 도2b에서, 감지된 재편집 제스처(예를 들어, 위치 216에서 두 번 두드리는 동작)와 연관된 위치 216은 재편집 "대상"으로 확인되고 텍스트 출력 영역 206에서 하이라이트된 구성 하위 문자열 " ’s " 214에 가장 근접합니다. 사용자가 방금 완전한 문장을 입력한 도2b의 예를 보면, 위치 216에서 재편집 제스처를 감지하기 전에 텍스트 삽입 위치가 위치 218에서 방금 입력한 문장의 끝에 위치하므로 사용자는 다음 문장을 입력할 준비가 됩니다. As another feature, a re-edit gesture in an area associated with a text string (of the text column "of's" 210 in the example of FIG. 2B) that consists of multiple text object characters and is delimited by one or more delimiters before and after If detected, the system first determines if a full-text string ("of's" 210 in the example of FIG. 2B) was generated by a single user input operation, and if so, Reacts in the manner described above. In another aspect, if a verified text string ("of's" 210 in this example) is generated by more than one individual user input operation and a configuration substring text object is generated from each of these actions, Identify the configuration substring text object that most closely resembles the gesture, for example, highlight this configuration substring text object, and construct a list of alternate text objects associated with the user input behavior that caused the configuration substring text object to be created. Is displayed as a selectable item. In FIG. 2B, a position 216 associated with the detected re-editing gesture (e.g., double-tapping action at location 216) is identified as a reediting "target " Closest to. In the example of FIG. 2B where the user just entered the complete sentence, the user is ready to enter the next sentence because the text insertion position is located at the end of the sentence just entered at position 218 before detecting the reediting gesture at position 216 .

이 예에서, 원래 의도한 텍스트 개체 "Oz"는 최초 입력 동작과 관련하여 (최초 입력 동작에 해당하는 텍스트 개체로 처음 출력된 텍스트 개체 " ’s " 214 다음) 두 번째로 근접하게 일치하는 텍스트 개체로 확인되었기 때문에 텍스트 개체 선택 목록 202에서 첫 텍스트 개체 220으로 나타납니다. 도2c는 텍스트 개체 선택 목록 202에서 텍스트 개체 "Oz" 220을 선택하여 텍스트 편집 시스템 소프트웨어 164가 출력 텍스트 영역 206에서 하이라이트된 텍스트 개체 " ’s " 214를 원래 의도한 텍스트 개체 "Oz" 220으로 자동 대체한 결과를 보여줍니다. 텍스트 편집 시스템 소프트웨어 164에 의해 선행하는 텍스트 개체 "of" 212와 "Oz" 220 사이에 공백 222가 삽입되었다는 점에도 주목합니다. 앞서 언급한 바와 같이 텍스트 개체 " ’s " 214는 시스템의 텍스트 개체 데이터베이스 171에서, 연속 생성된 텍스트 개체 사 이에 공백을 자동으로 생성하는 기본 동작에 대한 예외로 플래그 처리되므로 도2b에서 " ’s " 214를 출력하기 전에 애초에 공백이 생성되지 않았습니다. 선택한 대체 텍스트 개체 "Oz" 220은 시스템의 텍스트 개체 데이터베이스 171에서 이러한 예외로 플래그 처리되지 않으므로 시스템이 텍스트 개체 " ’s " 214를 텍스트 개체 "Oz" 220으로 대체할 때 대체 텍스트를 삽입하기 전에 공백이 생성되어 단어 "of" 212와 "Oz" 220 사이에 공백 222가 나타납니다. 마찬가지로, 상황이 반대였고 처음에 텍스트 개체 "Oz" 220이 생성되었으며 이후 재편집 절차에서 텍스트 개체 " ’s " 214로 대체된 경우라면 애초에 텍스트 개체 "Oz"에 선행하는 공백 222가 생성되었을 것이고, "Oz" 220이 " ’s " 214로 대체되었다면 이 선행 공백이 삭제되어 " ’s " 214가 이전 텍스트 개체에 직접 연결되었을 것입니다. 따라서 또 다른 특징으로, 재편집 절차의 결과로 하나의 텍스트 개체가 다른 텍스트 개체로 대체되고 이 두 텍스트 개체에 서로 다른 자동 공백 처리 동작이 적용되는 경우, 두 텍스트 개체와 관련된 공백 처리 동작의 차이를 보상하기 위해 대체 텍스트 개체를 둘러싼 공백 처리가 조정됩니다. In this example, the originally intended text object "Oz" is associated with the first input action (following text object "'s" 214 first printed with the text object corresponding to the first input action) , It appears as the first text object 220 in the text object selection list 202. 2c selects the text object "Oz" 220 in the text object selection list 202 to automatically convert the text object "'s" 214 highlighted in the output text area 206 to the original intended text object "Oz & Shows the results of the replacement. Notice also that a space 222 was inserted between the text objects "of" 212 and "Oz" 220 preceding the text editing system software 164. As previously mentioned, the text object "'s" 214 is flagged as an exception to the basic operation that automatically generates a space between consecutively generated text objects in the system's text object database 171, No space was created in the beginning before printing 214. The selected alternate text object "Oz" 220 is not flagged with this exception in the text object database 171 of the system, so when the system replaces the text object "'s" 214 with the text object "Oz" 220, Is created and a space of 222 appears between the words "of" 212 and "Oz" 220. Similarly, if the situation was reversed and the text object "Oz" 220 was first created and then replaced with the text object "'s" 214 in the re-editing procedure, then a blank space 222 preceding the text object & If "Oz" 220 has been replaced with "'s" 214, this leading space will be deleted and "' s" 214 would have been directly connected to the previous text object. Thus, as a further feature, if one text object is replaced by another text object as a result of the re-editing procedure and different automatic blanking operations are applied to the two text objects, then the difference in white- The white space surrounding the alternate text object is adjusted to compensate.

또 다른 구현에서, 텍스트 편집 시스템 소프트웨어 164는 텍스트 출력 영역 206에서 텍스트 삽입 위치를 추적하여, 대체 텍스트 개체로 재편집 텍스트 개체가 대체된 직후 텍스트 삽입 위치가 재편집 절차를 수행하기 전의 이전 출력 텍스트 위치로 자동 복귀되도록 합니다. 도2c의 예에서는 텍스트 개체 " ’s " 214를 텍스트 개체 "Oz" 220으로 대체한 후 텍스트 삽입 위치가 완성된 문장 끝의 원래 위치 218(위치 216에서 재편집 제스처가 감지되기 전의 위치)로 자동 복귀되므로 사용자 는 텍스트 삽입 위치를 수동으로 이동하지 않고 텍스트 입력을 계속할 수 있습니다. 또 다른 특징으로, 대체 텍스트 개체를 선택하지 않고 생성된 텍스트 개체 선택 목록이 취소되면 확인된 텍스트 개체가 계속 하이라이트(선택)되고 텍스트 삽입 위치는 출력 텍스트의 이전 위치로 복귀되지 않으므로 아직 하이라이트된 확인된 텍스트 개체와 관련하여 다른 작업을 수행할 수 있습니다. 또 다른 특징으로, 생성된 텍스트 개체 선택 목록에서 대체 텍스트 개체를 선택하기 전에 하나 이상의 추가 입력 동작을 수행하는 경우, 텍스트 개체 선택 목록이 자동으로 취소되고 텍스트 삽입 위치는 출력 텍스트의 이전 위치로 복귀되지 않으며 한 가지 이상의 추가 입력 동작에 의해 생성된 텍스트는 텍스트 출력 영역으로 보내지고, 단어 처리 프로그램의 일반적 작동에 따라 이전에 출력된 텍스트 개체가 현재 하이라이트(선택)된 텍스트 영역이라는 사실 때문에 결국 이전에 출력된 텍스트 개체를 대체합니다. 또 다른 특징으로, 제어 문자의 생성에 해당하는 입력 동작으로 생성된 제어 문자는 대상 텍스트 응용 프로그램으로 보내집니다. 예를 들어, 제어-B를 생성시키는 입력 동작을 수행하면 대상 응용 프로그램이 제어-B를 수신하고 이전에 하이라이트되어 출력된 텍스트 개체에 굵은 글씨체 서식을 적용합니다. 또 다른 특징으로, 재편집 제스처 수행 시 텍스트 삽입 위치가 더 이상 디스플레이 화면에 보이지 않도록 사용자가 표시된 텍스트 영역을 스크롤한 것이 시스템에서 감지되면 자동으로 생성된 텍스트 개체 선택 목록에서 대체 텍스트 개체를 선택해도 텍스트 삽입 위치가 출력 텍스트의 이전(더 이상 보이지 않는) 위치로 복귀되지 않습니다. 또 다른 특징으로, 사용자가 일단의 시스템 기본 설정을 지정하여 사전 결정된 재편집 제스 처와 이후 동작(예를 들어, 텍스트 삽입 위치를 출력 텍스트의 이전 위치로 복귀시키는 동작)에 대한 시스템의 반응을 다양하게 선택합니다. In another implementation, the text editing system software 164 tracks the text insertion location in the text output area 206, so that immediately after the reediting text object is replaced with the replacement text object, the text insertion location is moved to the previous output text position To be automatically returned to. In the example of FIG. 2C, the text object "s" 214 is replaced with the text object "Oz" 220 and the text insertion position is automatically changed from the original position 218 of the completed sentence (position 216 to the position before the reediting gesture is detected) The user can continue entering text without manually moving the text insertion location. Another feature is that if the selected text object selection list is canceled without selecting an alternate text object, the identified text object is still highlighted (selected) and the text insertion position is not returned to the previous position of the output text, You can perform other tasks related to the text object. In another aspect, when performing one or more additional input operations before selecting an alternative text object in the generated text object selection list, the text object selection list is automatically canceled and the text insertion position is returned to the previous position of the output text And the text generated by one or more additional input operations is sent to the text output area and, due to the fact that the previously outputted text object is currently highlighted (selected) text area according to the normal operation of the word processing program, Replaces text objects. In another aspect, control characters generated by input actions corresponding to the generation of control characters are sent to the target text application. For example, if you perform an input action that creates Control-B, the target application receives Control-B and applies boldface formatting to the text object that was previously highlighted and printed. In another aspect, when the system detects that the text area displayed by the user is scrolled so that the text insertion position is no longer displayed on the display screen when performing the reediting gesture, even if the system selects a substitute text object in the automatically generated text object selection list, The insertion position does not return to the previous (no longer visible) position of the output text. In another aspect, the user may vary the system's response to predetermined re-editing gestures and subsequent actions (e.g., returning the text insertion position to the previous position of the output text) by specifying a set of system preferences Select.

시스템의 이러한 측면은 텍스트 입력 용도의 효율성을 크게 높여줍니다. 입력 동작 인식 시스템은 기본적으로 잘못 생성된 다수의 텍스트 개체를 출력하며 이렇게 잘못 생성된 텍스트 개체는 일반적으로 이전에 생성된 텍스트 전체에 걸쳐 무작위로 분포합니다. 대부분의 경우, 사용자는 잘못 생성된 텍스트 개체만 수정하고 이전에 출력된 텍스트의 검토를 중단했던 위치에서 텍스트를 계속 입력하기를 원합니다. 시스템이 텍스트 삽입 위치를 추적하고 자동으로 복귀시킬 수 있다는 것은 사용자가 번거롭게 텍스트 삽입 위치를 다시 원래 위치로 이동시켜야 하는 불편이 사라지는 것을 의미하기 때문에 큰 장점으로 작용합니다. 오류 복구 절차를 대단히 효과적으로 처리하면 다음 두 가지 특징으로 시스템의 전반적 효율성이 크게 강화됩니다. 먼저, 우발적으로 발생하는 오류를 수정하기가 쉬워지고 수정 과정에 걸리는 시간도 적어지므로 전반적인 입력 속도가 효과적으로 향상될 것이라는 것을 쉽게 알 수 있습니다. 두 번째, 오류 복구 프로세스가 간단하고 간편하기 때문에 사용자는 인식 오류의 가능성에 대해 걱정할 필요가 줄어들어 정확도에 덜 신경 쓰면서 텍스트를 빠르게 입력할 수 있게 됩니다. 많은 입력 동작 인식 시스템에서 이러한 측면은 전반적인 입력 속도를 높여줍니다. This aspect of the system greatly improves the efficiency of text input. The input motion recognition system basically prints a number of erroneously generated text objects, and these erroneously generated text objects are typically randomly distributed throughout the previously generated text. In most cases, the user wants to edit only the misplaced text objects and continue typing the text where he stopped reviewing the previously printed text. Tracking and automatically returning text to the system is a great advantage because it means that the user will not have to move the text insertion point back to its original position. By handling the error recovery process very effectively, the following two characteristics significantly enhance the overall efficiency of the system. First, it's easy to fix accidental errors, and it's easy to see that overall input speed will improve effectively because it takes less time to fix. Second, the error-recovery process is simple and straightforward, so users will not have to worry about the possibility of recognition errors, so they can quickly enter text with less accuracy. In many input motion recognition systems, this aspect increases the overall input speed.

또 다른 특징으로, 텍스트 편집 시스템 소프트웨어 164는 사용자가 텍스트 출력 영역 내에서 텍스트 삽입 커서 위치를 재지정할 때 이를 감지하여 새로운 텍스트 삽입 위치 배경에 적합하게 자동화된 시스템 동작을 수정합니다. 한 특징으 로, 일반적으로 생성된 단어 사이에 자동으로 공백을 출력하는 시스템이 텍스트 삽입 지점이 새 환경으로 이동했음을 감지하면 새 환경에서 첫 단어가 출력되기 전에 자동으로 공백을 출력하려는 시스템의 동작이 해제됩니다. 또 다른 특징으로, 시스템이 텍스트 삽입 위치가 새로운 환경으로 이동했고 이러한 자동 공백 처리 작동이 활성화된 경우, 시스템은 새 텍스트 삽입 위치 왼쪽의 문자를 검사하여 텍스트 삽입 위치 왼쪽의 문자가 "여백(white space)"이고/이거나, 텍스트 삽입 위치가 텍스트 필드의 첫 문자 위치이고/이거나, 텍스트 필드가 암호 입력 필드이면 시스템이 새 환경에서 첫 단어를 출력하기 전에 자동 공백 출력을 자동으로 해제합니다. In another aspect, the text editing system software 164 detects when the user redirects the text insertion cursor within the text output area and modifies automated system behavior to suit the new text insertion location background. One feature is that when a system that automatically prints blanks between words that are created normally senses that the text insertion point has moved to the new environment, the system will try to print the blanks automatically before the first word is printed in the new environment Will be released. In another aspect, if the system has moved the text insertion location to a new environment and such an automatic white space operation has been activated, the system checks the character to the left of the new text insertion position and determines that the character to the left of the text insertion position is "white space ) ", Or if the text insertion position is the first character position of the text field and / or if the text field is the password input field, the system automatically releases the automatic blank output before printing the first word in the new environment.

또 다른 특징으로, 사용자가 텍스트 개체를 재편집한 경우, 하나 이상의 대체 텍스트 개체 목록이 사용자가 의도한 텍스트 개체 선택 항목으로 제시됩니다. 이러한 대체 텍스트 개체는 재편집 텍스트 개체에 시스템이 원래 매핑했던 한 가지 이상의 입력 동작을 입력 동작 인식 시스템에서 대체 "매핑"한 것에 해당합니다. 또 다른 특징으로, 대체 텍스트 개체 목록은 사용자가 선택할 수 있는 특수한 그래픽 표현으로 제시되며, 이 그래픽 표현을 통해 사용자는 이전 방식에서 이용되는 메뉴 선택 방법보다 일반적으로 정확도가 덜 요구되므로 의도한 개체를 보다 빠르게 선택하고 재편집 프로세스를 보다 빠르게 처리할 수 있는 단순하고 직관적인 제스처로 원하는 항목을 선택할 수 있습니다. 또 다른 특징으로 이 특수 그래픽 메뉴 표현은 시스템의 다른 위치에서 두 가지 이상의 대체 선택 항목을 선택하는 과정을 빠르게 처리하기 위해 사용자 인터페이스의 다른 위치에서도 사용됩니다. 본 발명의 그래픽 표시와 제스처 선택 방법은 제시된 한 가지 이상의 가능한 대체 선택 항 목이 사용자가 의도한 항목이 되는 선험 확률(priori probability)이 평균보다 높은 경우에 특히 효과적입니다. 이는 사용자에게 선택 항목이 제시되는 많은 상황에서 해당되는 내용입니다. In another aspect, when a user re-edits a text object, one or more alternate text object lists are presented as a selection of text objects intended by the user. These alternate text objects correspond to alternate "mapping" of one or more input actions that the system originally mapped to the re-edit text object in the input motion recognition system. In another aspect, the alternative text object list is presented in a special graphical representation that can be selected by the user, and the graphical representation allows the user to select a desired object You can choose what you want with a simple, intuitive gesture that lets you quickly select and quickly process the reediting process. In another feature, this special graphical menu representation is also used elsewhere in the user interface to quickly process the selection of two or more alternate choices from different locations in the system. The graphical display and gesture selection method of the present invention is particularly effective when one or more of the possible alternative selection items presented is higher than the average priori probability, which is the intended item of the user. This is true in many situations where the user is presented with a choice.

도3a는 본 발명의 개념을 활용하여 구성된 메뉴 300의 예입니다. 도3a에 나타낸 예에는 6가지 하위 선택 영역이 있습니다: 즉, 선택 1에서 선택 5까지에 해당하는 5개의 하위 선택 영역 301 ~ 305와 메뉴 300을 취소하기 위한 동작임을 나타내는 아이콘 라벨의 6번째 하위 영역 306이 있습니다. 이 6가지의 각 하위 선택 영역 301 ~ 306은 메뉴 300의 주변 경계에서 그에 해당하는 세그먼트 311 ~ 316과 연관됩니다. 본 발명에서, 처음에 메뉴의 외곽 주변 경계를 둘러싸고 있는 영역 내의 아무 위치나 스크린을 터치하고 메뉴 영역을 벗어나 원하는 선택 항목과 연관된 메뉴 주변 경계 세그먼트까지 이동하는 경로까지 스크린에 접촉 상태를 유지한 다음 메뉴 300의 주변 경계를 벗어나는 위치에서 스크린과의 접촉을 떼어(스타일러스를 들어올리는 등) 접촉 동작을 종료하는 식으로 메뉴를 선택합니다. 아니면, 접촉 동작을 종료할 필요 없이 접촉 동작이 메뉴 영역을 벗어나는 즉시 메뉴 선택이 이루어집니다. 접촉 동작을 종료해야 메뉴가 선택되는 경우 사용자는 접촉을 떼지 않고 메뉴 영역으로 다시 들어간 다음 접촉 동작을 종료하기 전에 메뉴 주변 경계의 다른 세그먼트를 통해 빠져나감으로써 완결되지 않은 메뉴 선택을 바꿀 수 있습니다. 여기서는 터치스크린을 예로 들어 설명하므로 스크린과 접촉하고 접촉을 떼는 동작으로 스타일러스(또는 손가락이나 기타 접촉 수단)의 위치에 의해 결정되는 제어 지점을 "활성화" 및 "비활성화"하지만 다른 접근 방식도 본 발명의 범위를 벗어나 는 것으로 간주되지 않습니다. 예를 들어, 제어 지점은 마우스의 움직임으로 제어하는 커서가 될 수 있으며 이 때는 마우스 버튼을 클릭하고 놓는 각 동작으로 "활성화" 및 "비활성화"가 이루어집니다. Figure 3A is an example of a menu 300 constructed utilizing the concepts of the present invention. In the example shown in FIG. 3A, there are six sub-selection regions: five sub-selection regions 301 to 305 corresponding to the selections 1 to 5 and a sixth sub-region 301 to 305 of the icon label indicating the operation for canceling the menu 300 There is 306. Each of these six sub-selections 301 - 306 is associated with its corresponding segment 311 - 316 at the perimeter boundary of the menu 300. In the present invention, the screen is touched at any position in the area surrounding the periphery of the periphery of the menu and maintained in contact with the screen until a route is reached beyond the menu area to the menu periphery segment associated with the desired selection, Select the menu by releasing contact with the screen (such as lifting the stylus) at a position outside the perimeter of the 300 and ending the touch operation. Otherwise, the menu selection is made as soon as the touch operation leaves the menu area without having to end the touch operation. If a menu is selected because the contact action must be terminated, the user can re-enter the menu area without releasing the contact and then change the menu selection that has not been completed by exiting through the other segments of the menu perimeter before exiting the contact action. Here, the touch screen is taken as an example, so that it is possible to "activate" and "deactivate" the control point, which is determined by the position of the stylus (or finger or other contact means) in contact with and releasing contact with the screen. It is not considered to be out of range. For example, a control point can be a cursor that controls the movement of the mouse, in which "activation" and "deactivation" are performed for each click and release of the mouse button.

도3a에서, 메뉴 선택 하위 영역과 연관된 메뉴 300의 주변 경계 세그먼트는 메뉴 선택 하위 영역 자체의 주변 경계에도 속하는 메뉴 주변 경계의 그 세그먼트입니다. 도3a에 나타낸 예시 메뉴는 하위 선택 영역 301의 선택 1이 메뉴 300의 전체 상부 경계를 구성하는 메뉴 주변 경계 세그먼트 311과 관련되며 이를 선택하기 위해 메뉴 300 내의 아무 스크린 위치나 접촉하고 위쪽으로 이동하여 상부의 메뉴 영역을 빠져나간 다음 스크린과의 접촉을 떼면 된다는 것을 보여줍니다. 도4는 초기 접촉 위치 401에서 시작하여 주변 경계 세그먼트 311의 탈출 위치 402에서 메뉴를 빠져 나와 최종 접촉 위치 403에서 접촉을 종료하는 접촉 동작 400의 예를 보여줍니다. 접촉 동작 400의 결과 초기 접촉 위치가 "선택 3"과 연관된 메뉴 선택 하위 영역 303 내에 있지만 메뉴 선택 항목 301("선택 1")이 선택됩니다. 3A, the perimeter border segment of the menu 300 associated with the menu selection subarea is that segment of the perimeter of the menu that pertains to the perimeter boundary of the menu selection subarea itself. The example menu shown in FIG. 3A relates to the menu periphery segment 311 that constitutes the entire upper border of the menu 300, and the selection 1 of the lower selection area 301 touches any screen position in the menu 300 to select it, Of the menu area and then release the contact with the screen. 4 shows an example of a contact action 400 starting at an initial contact location 401 and exiting the menu at an exit position 402 of the peripheral border segment 311 to terminate the contact at the final contact location 403. FIG. As a result of the contact action 400, the initial contact position is within the menu selection sub-area 303 associated with "selection 3", but menu selection 301 ("selection 1") is selected.

본 발명의 한 가지 장점은 접촉 동작을 훨씬 덜 정확하게 수행할 수 있고 따라서 훨씬 빠르게 수행할 수 있기 때문에 사용자가 메뉴를 보다 빠르게 선택할 수 있다는 것입니다. 특정 메뉴 선택 항목을 다른 항목보다 선택할 가능성이 더 높은 선험 기대가 존재하는 경우에 이러한 장점은 더욱 클 수 있습니다. 예를 들어, 도3a에 나타낸 메뉴의 경우, 메뉴 선택 항목 301("선택 1") 및 305("선택 5")는 각각 선택 항목 302, 303 또는 304보다 두 배 이상 자주 선택된다는 것을 짐작할 수 있습니다. 도3a에 예로 나타낸 메뉴는 메뉴 주변 경계의 전체 상부 경계 세그먼트 311이 "선택 1"의 하위 선택 영역 301과 연관되고 메뉴 주변 경계의 전체 하부 경계 세그먼트 315가 "선택 5"의 하위 선택 영역과 연관되도록 고안되어 있습니다. 이 메뉴 예에서 세그먼트 311과 315는 둘 모두 세그먼트 312, 313 및 314(각각 하위 선택 영역 302, 303 및 304와 관련) 각각과 비교하여 거의 세 배 더 길어 해당 세그먼트를 가로질러 메뉴를 빠져나가는 경로를 따라 이동할 때 여유 폭이 넓기 때문에 "선택 1" 및 "선택 5"는 선택하기가 상당히 용이합니다. 연관된 주변 경계 세그먼트의 상대적 길이가, 적합한 허용 오차 내에서, 다양한 메뉴 선택 항목의 상대적 기대 확률에 근접하도록 다양한 메뉴 선택 하위 영역을 설계하는 것은 간단한 문제입니다. One advantage of the present invention is that users can select menus more quickly because they can perform contact actions much less accurately and thus perform much faster. This advantage can be even greater if there is a higher likelihood of expecting to choose a particular menu choice than another. For example, in the case of the menu shown in FIG. 3A, it can be assumed that the menu choices 301 ("select 1") and 305 ("select 5") are selected twice more often than the choices 302, 303, . The menu illustrated in FIG. 3A is such that the entire upper border segment 311 of the menu perimeter boundary is associated with the lower selection region 301 of "Choice 1" and the entire lower border segment 315 of the menu periphery is associated with the lower selection region of "Choice 5" It is designed. In this example menu, segments 311 and 315 are almost three times longer than segments 312, 313, and 314 (respectively associated with sub-select regions 302, 303, and 304, respectively) It is fairly easy to select "Select 1" and "Select 5" because they have a wide margin when moving along. It is a simple matter to design the various menu selection subareas such that the relative length of the associated perimeter boundary segments is close to the relative expected probability of the various menu selections within the appropriate tolerance.

본 발명의 또 다른 큰 장점은 메뉴의 외곽 주변 경계에 의해 둘러싸인 영역 내에서 시작하지만 주변 경계를 가로질러 메뉴를 빠져나가지 않는 접촉 동작은 여전히 기존의 메뉴 선택으로 해석될 수 있다는 것입니다. 다시 말해서, 메뉴 선택 하위 영역을 "두드려" 선택하는 동작에 해당합니다. 이를 통해 사용자가 이 새로운 메뉴 선택 방식에 관한 어떤 지침이나 정보도 얻지 못한 시스템에서 본 발명의 개선된 메뉴 선택 방식을 채택할 수 있습니다. 새로운 선택 방식에 대한 정보가 없는 사용자는 새로운 메뉴 선택 방법을 알게 되거나 정보를 입수할 때까지는 기존에 "두드리는" 메뉴 선택 방법을 문제 없이 이용할 수 있습니다. 이와 함께, 선험 확률이 매우 낮은 메뉴 선택 항목은 메뉴 선택 경계에 메뉴의 바깥 주변 경계 세그먼트가 포함되지 않는 "폐쇄" 메뉴 항목으로 표시할 수 있기 때문에 메뉴 설계의 유연성이 향상됩니다. 그러면 메뉴 주변 경계 길이에 여유가 생겨 선험 확률이 높은 다 른 메뉴 선택 항목에 이를 할당할 수 있습니다. 예를 들어, 도3b는 도3a와 동일한 선택 항목 집합에서 구현할 수 있는 메뉴 배치를 보여주는 것입니다. 그러나 도3b에서 일단의 메뉴 선택 항목에 대한 배치를 보면 "선택 2"(322)가 도3a에서 보다 선택될 선험 확률이 훨씬 높고 "선택 3"과 "선택 4"는 도3a에서보다 선택될 선험 확률이 훨씬 낮다는 것을 알 수 있습니다. 도3b의 예에서 메뉴의 오른쪽 전체 332는 "선택 2"와 연관되고 "선택 3"과 "선택 4"는 각각 연관된 메뉴 선택 하위 영역 323 및 324 내에서 직접 스크린을 접촉하고 원하는 메뉴 선택 하위 영역을 빠져나가지 않고 접촉을 떼어(즉, 기존의 "두드리는" 메뉴 선택 이용) 선택해야 합니다. Another great advantage of the present invention is that a touch operation that starts within an area surrounded by the perimeter boundary of the menu but does not exit the menu across the perimeter boundary can still be interpreted as an existing menu selection. In other words, it corresponds to the operation of "tapping" the menu selection sub-area. This allows the user to adopt the improved menu selection method of the present invention in systems that have not obtained any guidance or information regarding this new menu selection method. Users who do not have information about the new selection method can use the existing "knock" menu selection method without any problems until they know how to select a new menu or get information. In addition, a menu choice with a low chance of being prospective can be displayed as a menu item "closed" that does not include the outer perimeter boundary segment of the menu on the menu selection border, thus improving the flexibility of menu design. This allows you to allocate it to other menu choices that have room for margin around the menu and have a higher chance of being prospective. For example, FIG. 3B shows a menu layout that can be implemented in the same set of choices as FIG. 3A. However, in FIG. 3B, the placement of the menu selection items at a single stage is much higher than that of FIG. 3A in the case of "selection 2" 322, and "selection 3" and "selection 4" You can see that the probability is much lower. In the example of FIG. 3B, the entire right side 332 of the menu is associated with "select 2" and "select 3" and "select 4" You should choose not to get out of touch (ie use the existing "knock" menu selection).

두 가지 하위 메뉴를 결합시켜 많은 수의 선택 항목으로 구성된 메뉴에 이와 동일한 설계 원리를 효과적으로 이용할 수 있습니다. 도5는 여덟 가지 선택 하위 영역 501~508이 있는 메뉴 500을 보여줍니다. 선택 하위 영역 501~504는 첫 번째 하위 메뉴 영역 521을 구성하고, 하위 영역 505~508은 두 번째 하위 메뉴 영역 522를 구성합니다. 선택 하위 영역 501~ 504는 하위 메뉴 521 주변 경계 세그먼트 511~514와 연관되고 선택 하위 영역 505~508은 하위 메뉴 522 주변 경계 세그먼트 515~518과 연관됩니다. 하위 메뉴 521 주변 경계 세그먼트 514와 하위 메뉴 522 주변 경계 세그먼트 515는 사실 메뉴 500의 바깥 주변 경계를 따라 있는 것이 아니라 메뉴 500의 내부에 속하는 동일 선분 (514/515)입니다. 그러나, 메뉴 선택 항목 504와 505에 대한 선택 동작은 선분 (515/515)이 가로지르는 방향과 초기 접촉이 이루어지는 하위 메뉴 영역이 서로 다르기 때문에 이는 문제가 되지 않습니다. 하위 메뉴 521 영역에서 초기 접촉을 수행하고 아래쪽 방향으로 선분 (514/515)를 가 로지르는 접촉 동작으로 메뉴 선택 항목 504가 분명하게 선택되고, 하위 메뉴 522 영역에서 초기 접촉을 수행하고 위쪽 방향으로 선분 (514/515)를 가로지르는 접촉 동작으로 메뉴 선택 항목 505가 분명하게 선택됩니다. 또 다른 구현에서, 하위 메뉴 영역 내에서 초기 접촉이 감지되면 이 초기 접촉 위치를 포함하는 하위 메뉴는 시각적으로 하이라이트되어 하위 메뉴를 빠져나가는 경로를 따라 이동하고 하위 메뉴의 바깥 주변 경계를 가로질러 메뉴 선택 항목 집합(이 하위 메뉴 내에 포함됨)을 선택할 수 있다는 것을 나타냅니다. By combining the two submenus, you can effectively take advantage of this same design principle for a menu of many choices. Figure 5 shows menu 500 with eight selection sub-areas 501-508. The selection sub-areas 501 to 504 constitute the first sub-menu area 521, and the sub-areas 505 to 508 constitute the second sub-menu area 522. Selection sub-regions 501-504 are associated with submenu 521 peripheral boundary segments 511-514 and selection sub-regions 505-508 are associated with submenu 522 peripheral boundary segments 515-518. Submenu 521 Perimeter border segment 514 and submenu 522 Perimeter border segment 515 are not actually along the outer perimeter boundaries of the menu 500, but are the same segment (514/515) belonging to the interior of the menu 500. However, the selection operation for the menu selection items 504 and 505 is not a problem since the direction in which the line segments 515/515 cross is different from the submenu area where the initial touch is made. The menu selection 504 is clearly selected with the touching operation of performing initial contact in the submenu 521 area and segmenting the line segment 514/515 in the downward direction, performing an initial contact in the area of the submenu 522, (514/515), the menu selection 505 is clearly selected. In yet another implementation, when an initial touch is detected within a submenu area, the submenu containing the initial touch position is visually highlighted to move along a path exiting the submenu, Indicates that a set of items (contained within this submenu) can be selected.

메뉴의 주변 경계 세그먼트를 메뉴 선택 항목과 연관시키는 가장 단순한 방법은 메뉴 선택 항목 자체의 주변 경계에도 속하는 메뉴의 주변 경계 세그먼트를 연관시키는 것입니다(위에서 이미 설명한 대로임). 다른 방법들 또한 가능하며 본 발명의 범위를 벗어나는 것으로 간주되지 않습니다. 예를 들어, 각 메뉴 선택 항목과 연관된 영역은 서로 간에 분명하게 구분되는 배경(또는 글꼴) 색상으로 표시되며, 메뉴 주변 경계의 관련 세그먼트는 그에 대응하는 관련(또는 동일) 색상으로 표시됩니다. 예를 들어, 도3c에서 6개의 메뉴 선택 항목 341~346은 각각 주황색(341), 노란색(342), 녹색(343), 파란색(344), 보라색(345) 및 빨간색(346)의 배경 색상으로 표시되며 이에 대응하는 메뉴 주변 경계 세그먼트는 각각 주황색(351), 노란색(352), 녹색(353), 파란색(354), 보라색(355) 및 빨간색(356) 세그먼트로 표시됩니다. 또는, 6개의 메뉴 선택 항목 341 ~ 346은 각각 옅은 주황색, 옅은 노란색, 옅은 녹색, 옅은 파란색, 옅은 보라색 및 옅은 빨간색의 배경 색상으로 표시하고(옅은 배경 채색으로 각 메뉴 항목을 보다 쉽게 구분하기 위해) 이에 대응하는 메뉴 주변 경계 세그먼트는 각각 선명한 주황색(351), 노란색(352), 녹색(353), 파란색(354), 보라색(355) 및 빨간색(356) 세그먼트로 표시할 수 있습니다. 두 접근 방식을 결합시키면 더 적은 색상을 사용하여 주변 경계 세그먼트의 색상과 근접도로 관련 메뉴 선택 하위 영역을 명확히 구분할 수 있습니다. 이런 식으로, 각 메뉴 선택 하위 영역을 도3a와 같은 다소 복잡한 다각형이 아니라 도3c에 나타낸 예와 같이 기존의 직사각형 모양으로 나타낼 수 있습니다. 또 다른 특징으로, 색상 대신 패턴이나 음영을 사용하여 다양한 메뉴 하위 영역을 구분하고 이 하위 영역을 그에 해당하는 메뉴 주변 경계 세그먼트와 연관시킬 수도 있습니다.The simplest way to associate a menu's perimeter border segment with a menu choice is to associate a perimeter border segment of the menu that pertains to the perimeter boundary of the menu choice itself (as described above). Other methods are also possible and are not considered to depart from the scope of the invention. For example, the area associated with each menu selection is represented by a background (or font) color that is clearly distinct from each other, and the relevant segments of the menu perimeter border are represented by corresponding (or the same) colors as their corresponding segments. For example, in FIG. 3C, the six menu choices 341 through 346 are shown as background colors of orange 341, yellow 342, green 343, blue 344, purple 345, and red 346, respectively. And the corresponding perimeter border segments are shown as orange (351), yellow (352), green (353), blue (354), purple (355), and red (356) segments. Alternatively, the six menu choices 341 to 346 display the background color of light orange, light yellow, light green, light blue, light purple, and light red, respectively (to make each menu item easier to distinguish by light background coloring) The corresponding perimeter border segments can be represented by sharp orange (351), yellow (352), green (353), blue (354), purple (355), and red (356) segments, respectively. By combining the two approaches, you can clearly distinguish the relevant menu selection sub-areas with the colors of the surrounding border segments using less color. In this way, each menu selection subregion can be represented by a conventional rectangular shape, as in the example shown in FIG. 3C, rather than a somewhat more complex polygon as in FIG. 3A. As an additional feature, you can use a pattern or shading instead of a color to separate the various menu sub-areas and associate them with their perimeter border segments.

그 밖에도, 도6과 같은 메뉴 구조 500에서는 네 가지 색상의 일관된 색상 배합을 사용하여 각 경우에 필요한 메뉴 선택 동작을 단순하고 직관적으로 수행할 수 있습니다. 예를 들어, 메뉴 선택 하위 영역 501과 505는 파란색 배경으로 나타내고 하위 영역 502와 506은 빨간색 배경, 하위 영역 503과 507은 노란색 배경, 그리고 하위 영역 504와 508은 녹색 배경으로 나타낼 수 있습니다. 그러면 사용자는 다음 사항만 기억하면 됩니다: 파란색 배경­아래를 두드리고 위로 끌어올리기, 빨간색 배경­근처를 두드리고 오른쪽으로 끌기, 노란색 배경­근처를 두드리고 왼쪽으로 끌기, 녹색 배경­위를 두드리고 아래로 끌어내리기. 이 특정한 방식을 파란색­“하늘을 향함”, 녹색 ­“땅을 향함”, “오른쪽은 빨간색”, “왼쪽은 노란색” 등으로 연상시켜 기억하면 쉽습니다. 이러한 모듈화된 접근 방식을 따르면 본 발명의 원리를 이용하여 임의 개수의 선택 항목이 있는 메뉴를 구성할 수 있습니다. In addition, menu structure 500, as shown in FIG. 6, uses a consistent color combination of four colors to simplify and intuitively perform the menu selection operations required for each case. For example, menu selection sub-areas 501 and 505 may be represented by a blue background, sub-areas 502 and 506 may be represented by a red background, sub-areas 503 and 507 may be represented by a yellow background, and sub- areas 504 and 508 may be represented by a green background. The user then only has to remember the following: blue tapping and bending down the background, tapping near the red background and dragging to the right, tapping near the yellow background and dragging to the left, tapping down on the green background and down. It's easy to remember this particular way, reminiscent of blue "towards the sky", green "towards the ground", "red on the right" and "yellow on the left" This modular approach allows us to construct a menu with any number of choices using the principles of the present invention.

본 발명의 구현을 위와 같이 도면으로 나타내고 설명했지만 본 발명의 취지 와 범위에서 벗어나지 않는 다양한 구현이 가능합니다. 따라서, 방법의 범위는 위에서 설명한 특정한 측면이 아니라 부록에 기재된 특허청구 및 이와 동등한 법적 해석에 의해 결정되어야 합니다. Although the embodiments of the present invention have been shown and described with reference to the drawings, various implementations are possible without departing from the spirit and scope of the invention. Therefore, the scope of the methodology should be determined not by the specific aspects described above, but by the claims and equivalent legal interpretations contained in the appendix.

Claims (36)

사용자가 텍스트를 입력하고 편집하는 하나 이상의 입력 시스템과 상기 텍스트를 상기 사용자에게 제시하는 하나 이상의 텍스트 표시 시스템으로 구성되는 사용자 인터페이스 시스템에 있어서, 1. A user interface system comprising at least one input system for a user to input and edit text and at least one text display system for presenting the text to the user, 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법은,A method for inputting and editing text on an electronic device through a user interface includes: 사용자에 의해 수행된 하나 이상의 입력 동작을 상기 입력 시스템이 감지하는 단계;The input system detecting one or more input actions performed by the user; 상기 하나 이상의 입력 동작을 상기 전자 장치가 처리하여 상기 하나 이상의 입력 동작에 대응하는 하나 이상의 텍스트 개체를 결정하는 단계;Processing the one or more input actions by the electronic device to determine one or more textual objects corresponding to the one or more input actions; 결정된 상기 텍스트 개체 중 하나를 상기 전자 장치가 확인하는 단계;Identifying one of the determined text entities by the electronic device; 확인된 상기 텍스트 개체를 상기 텍스트 표시 시스템 내의 결정된 텍스트 삽입 위치에 상기 텍스트 표시 시스템이 출력하는 단계;Outputting the identified text object to the text insertion system at a determined text insertion position in the text display system; 다음 확인될 텍스트 개체가 출력될 상기 텍스트 표시 시스템 내의 상기 텍스트 삽입 위치의 지점을 상기 전자 장치가 기록하는 단계; The electronic device recording a point of the text insertion position in the text display system in which a text object to be next confirmed is to be output; 상기 텍스트 표시 시스템에 이전에 출력된 하나 이상의 상기 텍스트 개체를 선택하기 위해 수행되는 사용자 동작을 상기 입력 시스템이 감지하는 단계로서, 상기 사용자 동작은 상기 텍스트 삽입 위치의 지점을 변경하기 위해 사용되는 동작이 아닌, 사용자 동작을 감지하는 단계;Wherein the input system detects a user action performed to select one or more of the textual objects previously output to the text display system, the user action being an action used to change a point of the textual insertion position Detecting a user action, not a user action; 선택된 하나 이상의 상기 텍스트 개체가 결정된 것으로부터 하나 이상의 감지된 입력 동작에 대응하도록 결정된 하나 이상의 대체 텍스트 개체를 상기 전자 장치가 확인하는 단계;The electronic device identifying one or more alternative text objects determined to correspond to one or more sensed input actions from the one or more selected text objects being selected; 상기 텍스트 표시 시스템 내의 선택된 하나 이상의 상기 텍스트 개체를 하나 이상의 확인된 상기 대체 텍스트 개체로 상기 전자 장치가 대체하는 단계; 및Replacing the selected one or more text objects in the text display system with one or more identified alternative text objects; And 상기 텍스트 표시 시스템 내의 상기 텍스트 삽입 위치를 상기 사용자 동작의 감지 전에 기록된 지점으로 상기 전자 장치가 복귀시키는 단계를 포함하는 것을 특징으로 하는And returning the text insertion position in the text display system to a point recorded before detection of the user action. 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제1항에 있어서, The method according to claim 1, 확인된 하나 이상의 상기 대체 텍스트 개체를 텍스트 개체를 선택할 사용자에게 상기 텍스트 표시 시스템이 제시하여, 선택된 하나 이상의 상기 텍스트 개체를 대체하는 단계를 더 포함하는 것을 특징으로 하는Further comprising the step of presenting the identified one or more of the alternative text entities to the user who selects the text entities and replacing the selected one or more of the selected text entities 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제1항에 있어서, The method according to claim 1, 이전에 출력된 하나 이상의 상기 텍스트 개체를 선택하기 위해 수행되는 사용자 동작을 감지한 후, 상기 사용자 동작의 상기 수행과 연관된 상기 텍스트 표시 시스템 내의 지점을 상기 전자 장치가 결정하는 단계, 및After the electronic device determines a point in the text display system associated with performing the user action after sensing a user action performed to select one or more of the previously output textual objects, 상기 텍스트 표시 시스템에 이전에 출력된 텍스트 개체를 상기 전자 장치가 확인하는 단계를 더 포함하고,Further comprising the step of the electronic device verifying the textual object previously output to the text display system, 확인된 텍스트 개체는 결정된 지점에 가장 근접하는 것을 특징으로 하는Characterized in that the identified text object is closest to the determined point 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제1항에 있어서, The method according to claim 1, 하나 이상의 출력 텍스트 개체 사이에 하나 이상의 공백을 상기 전자 장치가 자동으로 생성하는 단계를 더 포함하는 것을 특징으로 하는 Further comprising the step of the electronic device automatically generating one or more spaces between the one or more output text entities 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제4항에 있어서, 5. The method of claim 4, 두 개 이상의 텍스트 개체가 둘 이상의 텍스트 개체 분류 중 하나 이상에 각각 속하는 것으로 확인하는 단계로서, 상기 둘 이상의 텍스트 개체 분류 각각은 하나 이상의 상기 분류에 속하는 텍스트 개체의 출력 전이나 후에 상기 텍스트 표시 시스템에 의해 하나 이상의 공백이 자동으로 생성되는 방식에서 다른 상기 분류와 상이한, 확인하는 단계 및Determining that two or more text entities each belong to one or more of the two or more text entity classifications, wherein each of the two or more text entity classifications is associated with at least one of the text entities Different from said other classifications in a manner in which one or more spaces are automatically generated; 상기 텍스트 개체의 상기 분류와 상이한 분류에 속하는 텍스트 개체를 대체하는 텍스트 개체의 전이나 후의 하나 이상의 공백을 상기 텍스트 표시 시스템이 자동으로 삽입 또는 삭제하는 단계를 더 포함하는 것을 특징으로 하는Further comprising the step of automatically inserting or deleting one or more blanks before or after the text object replacing the text object belonging to the classification different from the classification of the text object 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제2항에 있어서, 3. The method of claim 2, 상기 사용자가 상기 선택된 텍스트 개체를 대체하기 위해 제시된 상기 대체 텍스트 개체중 하나를 선택하기 전에 하나 이상의 다른 입력 동작을 수행하고, 상기 텍스트 삽입 위치의 상기 복귀가 상기 전자 장치에 의해 수행되지 않으며, 상기 하나 이상의 다른 입력 동작의 결과가 상기 선택된 텍스트 개체를 수정 또는 대체하도록 상기 텍스트 표시 시스템에 의해 상기 선택된 텍스트 개체가 상기 텍스트 삽입 위치로서 선택되는 것을 특징으로 하는 Wherein the user performs one or more other input operations before selecting one of the alternate text entities presented to replace the selected text entity, and wherein the return of the text insertion position is not performed by the electronic device, Wherein the selected text entity is selected as the text insertion position by the text display system such that the result of the other input operation modifies or replaces the selected text entity 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제1항에 있어서, The method according to claim 1, 선택된 상기 텍스트 개체를 대체하는 상기 대체 텍스트 개체를, 사용자에 의해 수행되는 추가 입력 동작 없이, 상기 전자 장치가 선택하는 단계를 더 포함하는 것을 특징으로 하는 Further comprising the step of the electronic device selecting the alternate text entity replacing the selected text entity, without further input operations being performed by the user 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 사용자에 의해 수행되는 하나 이상의 입력 동작을 감지하는 하나 이상의 입력 장치;One or more input devices for sensing one or more input actions performed by a user; 생성된 텍스트를 사용자에게 표시하는 출력 장치; 및An output device for displaying the generated text to a user; And 상기 입력 장치 및 상기 출력 장치에 연결된 프로세서를 포함하고,A processor coupled to the input device and the output device, 상기 프로세서는,The processor comprising: 사용자에 의해 수행되는 하나 이상의 입력 동작을 감지하기 위한 첫 번째 구성요소;A first component for sensing one or more input actions performed by a user; 상기 하나 이상의 입력 동작에 대응하는 하나 이상의 텍스트 개체를 결정하기 위해 상기 하나 이상의 입력 동작을 처리하기 위한 두 번째 구성요소;A second component for processing the one or more input operations to determine one or more text entities corresponding to the one or more input operations; 결정된 상기 텍스트 개체 중 하나를 확인하기 위한 세 번째 구성요소;A third component for identifying one of the determined text objects; 상기 출력 장치의 결정된 텍스트 삽입 위치에 확인된 상기 텍스트 개체를 출력하기 위한 네 번째 구성요소;A fourth component for outputting the identified text entity at a determined text insertion position of the output device; 다음으로 확인된 텍스트 개체가 출력되는 상기 텍스트 삽입 위치의 지점을 기록하기 위한 다섯 번째 구성요소;A fifth component for recording a point of the text insertion position at which the next identified text object is output; 상기 출력 장치에 이전에 출력된 하나 이상의 상기 텍스트 개체를 선택하기 위해 수행되는 사용자 동작을 감지하기 위한 여섯 번째 구성요소로서, 상기 사용자 동작은 상기 텍스트 삽입 위치의 지점을 변경하기 위해 사용되는 동작이 아닌, 사용자 동작을 감지하기 위한 여섯 번째 구성요소;A sixth component for detecting a user action performed to select one or more of the textual objects previously output to the output device, wherein the user action is not an action used to change a point of the textual insertion location A sixth component for detecting a user action; 선택된 하나 이상의 상기 텍스트 개체를 결정하는 하나 이상의 감지된 상기 입력 동작에 대응하도록 결정되는 하나 이상의 대체 텍스트 개체를 확인하기 위한 일곱 번째 구성요소;A seventh component for identifying one or more alternative text entities determined to correspond to the one or more sensed input operations that determine the one or more selected text entities; 상기 출력 장치의 상기 선택된 하나 이상의 상기 텍스트 개체를 확인된 상기 하나 이상의 대체 텍스트 개체로 대체하기 위한 여덟 번째 구성요소; 및An eighth component for replacing said selected one or more said textual objects of said output device with said identified one or more alternative textual objects; And 상기 사용자 동작을 감지하기 전에 기록된 지점으로 상기 출력 장치의 상기 텍스트 삽입 위치를 복귀시키기 위한 아홉 번째 구성요소를 포함하는 것을 특징으로 하는And a ninth component for returning the text insertion position of the output device to a point recorded before the user operation is sensed 텍스트 입력 기구.Text input mechanism. 제1항에 있어서,The method according to claim 1, 상기 텍스트 표시 시스템의 하나 이상의 정의된 경계 영역 내에서 선택하기 위한 둘 이상의 선택 항목을 그래픽적으로 제시하는 단계를 더 포함하고, 사용자는 상기 텍스트 표시 시스템의 제어 지점을 배치, 이동 및 활성화 또는 비활성화할 수 있고,Further comprising graphically presenting at least two selection items for selection within one or more defined bounded regions of the text display system, wherein the user places, moves and activates or deactivates the control points of the text display system Can, 상기 둘 이상의 선택 항목을 그래픽적으로 제시하는 단계는,Wherein the step of graphically presenting the two or more selection items comprises: 하나 이상의 경계 영역 내에 둘 이상의 선택 항목의 그래픽적인 제시를 전자 장치가 표시하는 단계;The electronic device displaying a graphical presentation of two or more selections within the one or more boundary regions; 상기 하나 이상의 경계 영역의 하나 이상의 경계의 하나 이상의 구분되는 세그먼트를 상기 전자 장치가 정의하는 단계; The electronic device defining one or more distinct segments of one or more boundaries of the one or more boundary regions; 정의된 상기 하나 이상의 세그먼트 각각을, 상기 경계 영역의 경계의 일부로써 연관된 상기 세그먼트를 포함하는 경계 영역 내에 그래픽적으로 제시된 상기 선택 항목 중 구분되는 항목과 상기 전자 장치가 단독으로 연관시키는 단계;Associating each of the one or more segments defined by the electronic device solely with a delimited item of the selection graphically presented in a boundary area including the segment associated as part of the boundary of the boundary area; 상기 경계 영역 중 하나 내에서의 상기 제어 지점의 활성화를 상기 전자 장치가 감지하는 단계로서, 그 후에 활성화된 상기 제어 지점이 이동하여 상기 제어 지점이 활성화 단계의 상기 경계 영역을 벗어나는, 상기 제어 지점의 활성화 감지 단계;Wherein the electronic device senses activation of the control point within one of the boundary regions, wherein the activated control point then moves and the control point leaves the boundary region of the activation step Activation detection step; 활성화된 상기 제어 지점이 상기 경계 영역을 벗어날 때 거치는 상기 구분되는 경계 세그먼트 중 하나를 상기 전자 장치가 확인하는 단계;Identifying, by the electronic device, one of the distinct boundary segments that goes when the activated control point leaves the boundary area; 확인된 상기 경계 세그먼트와 단독으로 연관된 그래픽적으로 제시된 상기 선택 항목의 상기 사용자에 의한 선택을 상기 전자 장치가 결정하는 단계를 포함하는 것을 특징으로 하는Characterized in that the electronic device determines the selection by the user of the graphically presented selection item associated solely with the identified border segment 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제9항에 있어서, 10. The method of claim 9, 각각의 상기 선택 항목은 상기 경계 영역 내의 구분되게 경계지어진 서브-영역 내에 제시되고, 정의된 구분되는 상기 경계 세그먼트는 상기 서브-영역 중 하나의 경계 세그먼트와 일치하는 경계 세그먼트로서 정의되고, 상기 서브-영역 내에 제시된 상기 선택 항목은 일치하는 상기 경계 세그먼트와 단독으로 연관된 것을 특징으로 하는Each of said selection items is presented in a separately bounded sub-area within said boundary area, said defined boundary segment defined as a boundary segment coinciding with one of said sub-areas, and said sub- Characterized in that the choice presented in the region is associated exclusively with the matching border segment 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제9항에 있어서, 10. The method of claim 9, 각각의 상기 선택 항목은 상기 선택 항목이 색상과 연관되는 방식으로 제시되고, 각각의 정의된 구분되는 상기 경계 세그먼트는 색상과 연관되고, 주어진 색상과 연관된 선택 항목은 관련된 색상과 연관된 경계 세그먼트와 단독으로 연관되는 것을 특징으로 하는Each said selection item being presented in such a way that said selection item is associated with a color, each defined defined boundary segment being associated with a color, and a selection associated with a given color being associated with a border segment Characterized by being associated with 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제9항에 있어서,10. The method of claim 9, 임의의 상기 경계 영역의 외부 제어 지점의 활성화를 상기 전자 장치가 감지하는 단계로서, 그 후에 활성화된 상기 제어 지점이 이동하여 상기 제어 지점이 활성화된 상태의 상기 경계 영역 중 하나로 들어가는, 외부 제어 지점의 활성화를 감지하는 단계;Characterized in that the electronic device senses the activation of an external control point of any of the boundary regions so that the activated control point then moves into the one of the border regions in the activated state, Sensing activation; 활성화된 상기 제어 지점이 상기 경계 영역으로 들어갈 때 거치는 구분되는 상기 경계 세그먼트 중 하나를 상기 전자 장치가 확인하는 단계; 및The electronic device identifying one of the delimited boundary segments as the activated control point enters the boundary region; And 확인된 상기 경계 세그먼트와 단독으로 연관된 그래픽적으로 제시된 상기 선택 항목의 상기 사용자에 의한 선택을 상기 전자 장치가 결정하는 단계를 더 포함하는 것을 특징으로 하는Further comprising the step of the electronic device determining the selection by the user of the selection of the graphically presented selection associated solely with the identified boundary segment 사용자 인터페이스를 통해 전자 장치에 텍스트를 입력하고 편집하는 방법.How to enter and edit text on electronic devices through the user interface. 제8항에 있어서,9. The method of claim 8, 선택을 위한 둘 이상의 선택 항목은 상기 출력 장치에 그래픽적으로 제시되고, Two or more selection items for selection are graphically presented to the output device, 상기 입력 장치는 상기 출력 장치에서 제어 지점을 배치, 이동 및 활성화 또는 비활성화하기 위해 사용자에 의해 수행되는 하나 이상의 입력 동작을 감지하고,The input device senses one or more input actions performed by a user to place, move and activate or deactivate a control point in the output device, 상기 프로세서는,The processor comprising: 상기 출력 장치의 하나 이상의 정의된 경계 영역 내에 상기 둘 이상의 선택 항목의 그래픽적인 제시를 표시하기 위한 열 번째 구성요소;A tenth component for displaying a graphical presentation of the two or more choices within one or more defined boundary regions of the output device; 하나 이상의 상기 경계 영역의 하나 이상의 경계의 하나 이상의 구분되는 세그먼트를 정의하기 위한 열한 번째 구성요소;An eleventh component for defining one or more distinct segments of one or more boundaries of one or more of the boundary regions; 정의된 하나 이상의 상기 세그먼트 각각을 상기 경계 영역의 경계의 일부로써 연관된 세그먼트를 포함하는 경계 영역 내에서 그래픽적으로 제시된 상기 선택 항목 중 구분되는 항목과 단독으로 연관시키기 위한 열두 번째 구성요소;A twelfth component for independently associating each of the one or more segments defined with a delimited item of the selection graphically presented within a boundary region including a segment associated with the boundary region as part of the boundary region; 상기 경계 영역 중 하나의 영역 내에서 상기 제어 지점의 활성화를 감지하기 위한, 그 후에 활성화된 상기 제어 지점이 이동하여 상기 제어 지점이 상기 활성화된 상태의 상기 경계 영역을 벗어나는, 열세 번째 구성요소;A thirteenth component for detecting activation of the control point within one of the border regions, wherein the subsequently activated control point moves and the control point leaves the bordered area of the activated state; 활성화된 상기 제어 지점이 상기 경계 영역을 벗어날 때 거치는 구분되는 상기 경계 세그먼트 중 하나를 확인하기 위한 열네 번째 구성요소; 및A fourth component for identifying one of said delimited boundary segments that passes when said activated control point leaves said boundary area; And 확인된 상기 경계 세그먼트에 단독으로 연관되어 그래픽으로 제시된 상기 선택 항목의 상기 사용자에 의한 선택을 결정하기 위한 열다섯 번째 구성요소를 포함하는And a fifteenth component for determining a selection by the user of the selection item graphically presented solely associated with the identified border segment 텍스트 입력 기구.Text input mechanism. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020097002112A 2006-07-03 2007-07-03 system and method for a user interface for text editing and menu selection KR101488537B1 (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US80652206P 2006-07-03 2006-07-03
US60/806,522 2006-07-03
US11/533,714 2006-09-20
US11/533,714 US7382358B2 (en) 2003-01-16 2006-09-20 System and method for continuous stroke word-based text input
US91784907P 2007-05-14 2007-05-14
US60/917,849 2007-05-14
PCT/US2007/015403 WO2008013658A2 (en) 2006-07-03 2007-07-03 System and method for a user interface for text editing and menu selection

Publications (2)

Publication Number Publication Date
KR20090035570A KR20090035570A (en) 2009-04-09
KR101488537B1 true KR101488537B1 (en) 2015-02-02

Family

ID=38981954

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097002112A KR101488537B1 (en) 2006-07-03 2007-07-03 system and method for a user interface for text editing and menu selection

Country Status (5)

Country Link
EP (1) EP2044587A4 (en)
JP (1) JP5661279B2 (en)
KR (1) KR101488537B1 (en)
CN (1) CN101529494B (en)
WO (1) WO2008013658A2 (en)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5438909B2 (en) * 2008-03-14 2014-03-12 ソニーモバイルコミュニケーションズ株式会社 Character input device, character input support method, and character input support program
KR101412586B1 (en) * 2008-07-01 2014-07-02 엘지전자 주식회사 Method for input of mobile terminal
US8255830B2 (en) * 2009-03-16 2012-08-28 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
KR101633332B1 (en) 2009-09-30 2016-06-24 엘지전자 주식회사 Mobile terminal and Method of controlling the same
JP5486977B2 (en) * 2010-03-24 2014-05-07 株式会社日立ソリューションズ Coordinate input device and program
CN101957724A (en) * 2010-10-05 2011-01-26 孙强国 Method for improving associated Pinyin character input
TWI490705B (en) * 2010-10-07 2015-07-01 英業達股份有限公司 Editing system for text and method thereof
JP5609718B2 (en) * 2011-03-10 2014-10-22 富士通株式会社 Input support program, input support device, and input support method
US9182831B2 (en) 2011-04-09 2015-11-10 Shanghai Chule (Cootek) Information Technology Co., Ltd. System and method for implementing sliding input of text based upon on-screen soft keyboard on electronic equipment
KR20130034747A (en) * 2011-09-29 2013-04-08 삼성전자주식회사 Method and apparatus for providing user interface in portable device
US8667414B2 (en) 2012-03-23 2014-03-04 Google Inc. Gestural input at a virtual keyboard
US9021380B2 (en) 2012-10-05 2015-04-28 Google Inc. Incremental multi-touch gesture recognition
US8782549B2 (en) 2012-10-05 2014-07-15 Google Inc. Incremental feature-based gesture-keyboard decoding
US8850350B2 (en) 2012-10-16 2014-09-30 Google Inc. Partial gesture text entry
US8701032B1 (en) 2012-10-16 2014-04-15 Google Inc. Incremental multi-word recognition
US8843845B2 (en) 2012-10-16 2014-09-23 Google Inc. Multi-gesture text input prediction
US8819574B2 (en) 2012-10-22 2014-08-26 Google Inc. Space prediction for text input
US8806384B2 (en) * 2012-11-02 2014-08-12 Google Inc. Keyboard gestures for character string replacement
CN103838458B (en) * 2012-11-26 2017-05-10 北京三星通信技术研究有限公司 Mobile terminal and control method of input method of mobile terminal
US8832589B2 (en) 2013-01-15 2014-09-09 Google Inc. Touch keyboard using language and spatial models
US8887103B1 (en) 2013-04-22 2014-11-11 Google Inc. Dynamically-positioned character string suggestions for gesture typing
US9081500B2 (en) 2013-05-03 2015-07-14 Google Inc. Alternative hypothesis error correction for gesture typing
CN103399793B (en) * 2013-07-30 2017-08-08 珠海金山办公软件有限公司 A kind of method and system of automatic switchover similar content
CN103533448B (en) * 2013-10-31 2017-12-08 乐视致新电子科技(天津)有限公司 The cursor control method and cursor control device of intelligent television
CN104428745A (en) * 2014-01-24 2015-03-18 华为终端有限公司 Method and electronic device for inputting characters
CN107506115A (en) * 2016-06-14 2017-12-22 阿里巴巴集团控股有限公司 A kind of display processing method of menu, apparatus and system
CN108664201B (en) * 2017-03-29 2021-12-28 北京搜狗科技发展有限公司 Text editing method and device and electronic equipment
CN107203505A (en) * 2017-05-26 2017-09-26 北京小米移动软件有限公司 Text message edit methods and device
CN108984239B (en) * 2018-05-29 2021-07-20 北京五八信息技术有限公司 Processing method, device and equipment for selecting control and storage medium
CN110197136B (en) * 2019-05-13 2021-01-12 华中科技大学 Method and system for generating cascade action candidate box based on action boundary probability
US11379113B2 (en) 2019-06-01 2022-07-05 Apple Inc. Techniques for selecting text

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574482A (en) * 1994-05-17 1996-11-12 Niemeier; Charles J. Method for data input on a touch-sensitive screen
JP2006060192A (en) * 2004-07-22 2006-03-02 Matsushita Electric Ind Co Ltd Semiconductor device and fabricating method therefor

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5378736A (en) 1976-12-23 1978-07-12 Toshiba Corp Return mechanism to final input position
JPS5840584A (en) 1981-09-02 1983-03-09 株式会社東芝 Character display
JPH0754512B2 (en) 1986-12-10 1995-06-07 キヤノン株式会社 Document processor
JPH09293328A (en) 1996-04-25 1997-11-11 Olympus Optical Co Ltd Voice reproducer
US5953541A (en) * 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
JPH1115914A (en) * 1997-06-09 1999-01-22 Internatl Business Mach Corp <Ibm> Character data input device and its method
JPH11102361A (en) * 1997-09-29 1999-04-13 Nec Ic Microcomput Syst Ltd Character input correcting method and recording medium where procedure thereof is recorded
JP3082746B2 (en) * 1998-05-11 2000-08-28 日本電気株式会社 Speech recognition system
US7030863B2 (en) * 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
JP2001060192A (en) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> Character data corrector and storage medium
US7098896B2 (en) * 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
US20060071915A1 (en) * 2004-10-05 2006-04-06 Rehm Peter H Portable computer and method for taking notes with sketches and typed text
JP2006031725A (en) 2005-08-10 2006-02-02 Microsoft Corp Character processor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574482A (en) * 1994-05-17 1996-11-12 Niemeier; Charles J. Method for data input on a touch-sensitive screen
JP2006060192A (en) * 2004-07-22 2006-03-02 Matsushita Electric Ind Co Ltd Semiconductor device and fabricating method therefor

Also Published As

Publication number Publication date
EP2044587A4 (en) 2012-09-26
CN101529494A (en) 2009-09-09
JP5661279B2 (en) 2015-01-28
CN101529494B (en) 2012-01-04
WO2008013658A2 (en) 2008-01-31
KR20090035570A (en) 2009-04-09
WO2008013658A3 (en) 2008-11-27
EP2044587A2 (en) 2009-04-08
JP2009543209A (en) 2009-12-03

Similar Documents

Publication Publication Date Title
KR101488537B1 (en) system and method for a user interface for text editing and menu selection
US7542029B2 (en) System and method for a user interface for text editing and menu selection
US10817175B2 (en) Input device enhanced interface
EP3220252B1 (en) Gesture based document editor
US9811193B2 (en) Text entry for electronic devices
JP5468665B2 (en) Input method for a device having a multilingual environment
CA2501118C (en) Method of combining data entry of handwritten symbols with displayed character data
US20180129897A1 (en) Handwriting-based predictive population of partial virtual keyboards
KR101015291B1 (en) Text input window with auto-growth
US20060001656A1 (en) Electronic ink system
JP5977764B2 (en) Information input system and information input method using extended key
KR101920332B1 (en) The method for editing character on a smart device including touch screen and the smart device thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180117

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee