JP5661279B2 - The system and method of the user interface for text editing and menu selection - Google Patents

The system and method of the user interface for text editing and menu selection Download PDF

Info

Publication number
JP5661279B2
JP5661279B2 JP2009518347A JP2009518347A JP5661279B2 JP 5661279 B2 JP5661279 B2 JP 5661279B2 JP 2009518347 A JP2009518347 A JP 2009518347A JP 2009518347 A JP2009518347 A JP 2009518347A JP 5661279 B2 JP5661279 B2 JP 5661279B2
Authority
JP
Japan
Prior art keywords
text
system
menu
input
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009518347A
Other languages
Japanese (ja)
Other versions
JP2009543209A (en
Inventor
クシュラー、クリフ
Original Assignee
クシュラー、クリフ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US80652206P priority Critical
Priority to US60/806,522 priority
Priority to US11/533,714 priority patent/US7382358B2/en
Priority to US11/533,714 priority
Priority to US60/917,849 priority
Priority to US91784907P priority
Priority to PCT/US2007/015403 priority patent/WO2008013658A2/en
Application filed by クシュラー、クリフ filed Critical クシュラー、クリフ
Publication of JP2009543209A publication Critical patent/JP2009543209A/en
Application granted granted Critical
Publication of JP5661279B2 publication Critical patent/JP5661279B2/en
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for entering handwritten data, e.g. gestures, text
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the screen or tablet into independently controllable areas, e.g. virtual keyboards, menus

Description

優先権主張 本申請は、仮出願番号第60/718,984号の利益を主張する2006年9月20日に出願された出願番号第11/533,714号の継続出願である。 Priority Claim This application is a continuation application of provisional application number application number, which was filed on September 20, 2006, which claims the benefit of the No. 60 / 718,984. No. 11 / 533,714. また、本申請はまた、2006年7月3日に出願された仮出願番号第60/806,522号および2007年5月14日に出願された仮出願番号第60/917,849号の利益を主張し、参照により本文中に組み込まれる。 In addition, the present application also claims the benefit of provisional application Ser. No. 60 / 917,849, filed on May 14, 2006, provisional application number, filed on Jul. 3, No. 60 / 806,522 and 2007, It is incorporated in the text by reference.

発明の分野 本発明はコンピュータシステムのグラフィカルおよびジェスチャ・ユーザーインターフェースに関連し、より詳しくは、1つ以上の入力装置を使用する入力動作をユーザーが行い、かつ当該入力動作により生成されたデータはコンピュータシステムに入力されるテキストデータに対応する1つ以上の当該ユーザー入力動作として認識するために解析されるところのさまざまなコンピュータシステムに関連したものである。 Field of the Invention The present invention relates to a graphical and gestural user interface of a computer system, and more particularly, one or more input devices to the input operation performed by the user using, and the input data generated by the operation computer it is relevant to various computer systems where it is analyzed to recognize as one or more of the user input operation corresponding to the text data input to the system. また、本発明は、テキスト入力方法の一部として、またはコンピュータシステムの他の制御機能のために実行するメニュー選択肢について、実行が素早く簡単なシンプルなジェスチャにより選択できる当該の2つ以上のメニューをユーザーに提示するグラフィカルアプローチにも関連する。 Further, the present invention is as part of the text input method or the menu options to run for other control functions of the computer system, two or more menus of the execution can be selected by quick and easy simple gesture also related to the graphical approach to be presented to the user.

ユーザーによる、より高速なテキスト入力を可能にするために設計されたテキスト入力システムは豊富にある。 By the user, the text input system, which is designed to enable faster text input are abundant. 一般に、さほど正確性が要求されない場合に所与の一連の行動をより速く実行することが可能であるため、テキスト入力の速度増加は、多くの場合、同程度のシステムで必要とされている基準よりも正確性の低い動作をユーザーが実行できるようにすることで可能となる。 In general, it is possible much to run faster course of action given when accuracy is not required, the speed increase of the text input, often, reference is needed in comparable systems It made possible by the user to perform the operation less accurate than. 一般に、これは、システムにより生成されるテキストオブジェクトの辞書を定義することにより、またユーザーにより実行される入力動作が辞書中の1つ以上のこれらテキストオブジェクトにマッピングされているという原則のもとに、達成される。 In general, this is by defining a dictionary of text objects generated by the system, also based on the principle that the input operation performed by the user is mapped to one or more of these text objects in the dictionary , it is achieved. システムは次に、ユーザーにより実行された(1つ以上の)入力動作を解析し、入力動作の実行によりユーザーに意図されたオブジェクトである可能性が最も高いテキストオブジェクトを決定し、決定されたオブジェクトをその入力動作に対応するテキストとして生成する。 Object system next analyzes were performed by the user (one or more) input operation, potentially objects intended user determines the highest text object by executing the input operation was determined the generated as a text corresponding to the input operation. その一例は、米国特許番号第6,801,190号においてロビンソン他(Robinson et al)が開示したシステムであり、ユーザーが不正確なタップによりテキストを入力できるバーチャルキーボードに基づくものである。 One example is Robinson other in U.S. Patent No. 6,801,190 (Robinson et al) is the system disclosed is based on the virtual keyboard the user can enter text by incorrect tap. もう1つの例は、言葉と関連付けられた形状プロトタイプのライブラリに比較することによりバーチャルキーボード上でトレースパスの形に基づきワードパターンを認識する「ShapeWriter」システム(米国特許公報US 2004-0120583 A1においてザイ(Zhai)が開示)である。 Another example is, Zai in the word recognizing a pattern "ShapeWriter" systems (US Patent Publication US 2004-0120583 A1 based on the shape of the trace path on a virtual keyboard by comparing the libraries of the associated shaped prototype words and (Zhai) is a disclosure). さらに別の例として、米国特許番号第7,098,896号においてクッシュラー他(Kushler et al)が開示したシステムがある。 As yet another example, some systems Kusshura other (Kushler et al) is disclosed in U.S. Patent No. 7,098,896.

他のシステム(例えば、音声認識および手書き文字認識システム)において、ユーザーは、(ロビンソン他(Robinson et al)のバーチャルキーボードの場合と同様に)同一手段で正確性に劣る行動を実行するのではなく、代替「手段」を用いた情報入力によるテキスト入力(すなわち、音声認識システムの場合においては話すこと、手書き文字認識システムの場合においては筆記体で書くこと)が可能となる。 In other systems (e.g., speech recognition and handwritten character recognition system), the user, rather than performing a less accurate act in (as in the case of virtual keyboard Robinson other (Robinson et al)) same means , text input by the information input using the alternative "means" (i.e., speak in the case of speech recognition systems, be written in cursive in the case of handwriting recognition system) is possible. この「代替手段」システムにおいて、ユーザーの入力動作(音声認識の場合においては話された言葉、手書き文字認識の場合においては筆記体のテキスト)は、システム辞書中の1つ以上のテキストオブジェクトに対応するよう同様にマッピング(「認識」)される。 In this "alternative" system, the user input action (spoken words in the case of speech recognition, text cursive in the case of handwriting recognition) is corresponding to one or more text objects in the system dictionary It is similarly mapped ( "recognition") to. 他のシステムはユーザーにより実行されたテキスト入力動作に本質的にあいまいさをもたらし、ひいてはユーザーにより実行されたテキスト入力動作を辞書中の1つ以上のテキストオブジェクトにマッピングする必要もある。 Other systems resulted essentially ambiguity in the text input operation performed by the user, it is necessary to map the text input operation performed by the thus user to one or more text objects in the dictionary. 有名な例として、「T9」として商業的に知られている入力システム(米国特許番号第5,818,437号においてグローバー他(Grover et al)が開示)がある。 As well-known example is (Grover other (Grover et al) is disclosed in U.S. Pat. No. 5,818,437) is commercially known input system as "T9". これは、限定数のキーを持つ携帯電話のキーパッドに一般に使用され、標準電話キーの副集合の各キーが個別文字の複数性に関連付けられ、ユーザーが入力するキーシーケンスはその入力シーケンス中のキーに関連付けられた文字に対応する1つ以上の言葉にマッピングされる入力システムである。 This is generally used in a mobile phone keypad with the key of the limited number, each key of the subset is associated with a plurality of individual characters of a standard phone key, key sequence entered by the user is in the input sequence an input system that is mapped to one or more words corresponding to the character associated with the key.

これらさまざまなシステム(以下「入力動作認識システム」)において、ユーザーにより実行される入力動作の性質、およびこれらの入力動作がシステム辞書中のテキストオブジェクトへマッピングされる様態の相違にもかかわらず、入力動作認識システムが一般に共通して持つ特長は多数ある。 In these various systems (hereinafter "input action recognition system"), regardless the nature of the input operations performed by the user, and also the difference in the manner in which these input operation is mapped to the text objects in the system dictionary, input Features that action recognition system has in common in general are numerous.

1)当該の入力動作認識システムにより特定されるテキストオブジェクトは、生成されたテキストをさらにユーザーが編集できるように、テキストプレゼンテーションシステム(テキストが表示される表示装置の領域として最も一般的に実行される)により出力される。 Text object identified by 1) the input action recognition system, the generated text further so that the user can edit, the most commonly performed as a region of the display device text presentation system (text is displayed output by).

2)所与の入力動作(または入力動作のシーケンス)が1つ以上の対応する特定テキストオブジェクトにマッピングされ、その入力動作に最も密接に対応すると判断される特定テキストオブジェクトがそのテキストプレゼンテーションシステムに結果的に出力される場合もある。 2) given input operation (or sequence of input operations) are mapped to one or more corresponding specific text object, the specific text object is determined to be most closely corresponding to the input operation result to the text presentation system sometimes to be output.

3)システムは入力動作に合理的に密接であると判断された代替テキストオブジェクト1つ以上の記録(少なくとも限定された最近生成されたテキストオブジェクト)を維持し、出力用に実際に生成されたテキストオブジェクトとこれらの代替テキストオブジェクトを(少なくとも一時的に)関連付けることができる。 3) The system maintains a reasonably is determined to be closely alternate text objects of one or more recorded input operation (at least limited recently generated text objects), were actually generated for output text objects and these alternate text objects can be (at least temporarily) associate. その代わりまたはそれに加えて、システムは入力動作に関する特定データまたは情報を記録し、このデータを関連付けられた代替テキスト解釈の記録と関連付けること、または後に代替テキストオブジェクトを特定するためにその入力動作に関するこの記録されたデータを再処理することができる。 Alternatively or in addition, the system will record certain data or information about the input operation, the about the input operation to identify alternate text objects to associate with the recording of alternate text interpretations associated with this data, or after recorded data can be reprocessed.

4)入力動作に最も密接に一致すると判断され、テキストプレゼンテーションシステムを通して出力された特定のテキストオブジェクトが、ユーザーが生成を意図したテキストオブジェクトではなく、ユーザーが生成を意図したテキストに正しく対応するように、生成されたテキストをユーザーが編集する必要がある場合もある。 4) it is determined that most closely matches the input operation, as specific text object is output through the text presentation system is not a text object that the user intended the product, the user corresponding correctly to the intended snippets , there is the case where the generated text that users must also edit.

5)テキストプレゼンテーションシステム内にはユーザーが生成した次のテキストオブジェクトを挿入するテキスト挿入場所(または位置)がある。 5) The text presentation system is text insertion location for inserting the next text object user generated (or position). これは一般に「カーソル」(時折「カレット」)位置と呼ばれる(以下「テキスト挿入位置」)。 This is commonly referred to as "cursor" (sometimes "cullet") referred to as a position (hereinafter referred to as "text insertion position").

6)ユーザーがテキスト挿入位置をテキストプレゼンテーションシステム中の新しい場所へ変更できる手段である、テキスト編集動作(または「ジェスチャ」)がある。 6) the user is a means that can change the text insertion position to a new location in the text presentation system, there is a text editing operations (or "gesture"). 過半数のシステムにおいて、テキストプレゼンテーションシステムはディスプレイ上のテキスト出力領域から成る。 In the majority of systems, text presentation system comprises a text output region on the display. 例えば、マウス使用のシステムでは、この動作は、多分例外なく、テキスト出力領域内で実行されるマウスのシングルクリックである。 For example, in the system of mice used, this behavior is probably without exception, a single click of the mouse is executed in the text output area. スタイラス使用のタッチスクリーンシステムでは、この動作は、また多分例外なく、テキスト出力領域内で実行されるスタイラスのシングルタップである。 The touchscreen system of the stylus used, this operation is also probably without exception, a single tap of the stylus to be run in text output area.

7)システムにより処理される文字の分類には、一般に2つの文字クラスがある。 7) The classification of a character to be processed by the system, generally there are two character classes. 1つ目のクラスは、システムにより生成された1つ以上のテキストオブジェクトに有効に使用できる文字から成る(以下「テキストオブジェクト文字」)。 The first class consists of characters that can be effectively used for one or more text objects created by the system (hereinafter "text object character"). 二つ目のクラスは、システムにより生成されたテキストオブジェクトに含まれないデリミタ文字としてシステムに処理される1つ以上の文字または文字種から成る(以下「デリミタ」)。 The second class consists of one or more characters or character types to be processed in the system as a delimiter character not included in the generated text objects by the system (hereinafter "delimiter"). デリミタ文字のクラスには、「空白」文字(スペース、タブ、改行等)が非常に一般的に含まれ、他の句読点文字もしばしば含まれる。 The delimiter character class, "space" characters (spaces, tabs, line breaks, etc.) are included in the very general, other punctuation characters are also often included.

これらの本質的に異なる入力動作認識システム全般の過半数ユーザーにより共有される傾向があるもう1つの特徴は、ユーザーは特定数の「エラー」が起こり始めるまで入力動作をより加速的に(そしてその結果としてより不正確に)行う傾向があることである。 Another feature that tends to be shared by a majority users of these disparate input action recognition systems in general, the user input operation more accelerated manner until begins to occur "Error" a certain number (and as a result it is more incorrectly) that there is a tendency to do as. その際、エラーとは、システムによりテキストプレゼンテーションシステムに出力されるテキストオブジェクトがユーザーの意図したテキストオブジェクトではない場合である。 At that time, errors and the text objects that are output to a text presentation system by the system is not be the intended text object user. ほとんどすべてのテキスト編集システムに共通するもう1つの特徴は、ユーザーが実行する任意の編集動作(テキストプレゼンテーションシステムに表示される任意テキストがユーザーの動作により修正される場合)は、編集済みテキストの場所へテキスト挿入位置が再配置される結果になることである。 Most Another feature common to all of the text editing system, the user any editing operations to be executed (if any text that is displayed in the text presentation system is modified by the user of the operation), the location of the edited text text insertion position to is that result to be relocated. この行動は、テキスト編集の元のマウスとキーボードのモデルで道理に適っていた(かつある意味で回避できなかった)が、上述の入力動作認識システムでは多数の場合、この行動はもはや望ましいものではない。 This action, text editing was makes sense in the original mouse and keyboard models (and could not be avoided in a sense) is the case of many in the above input action recognition systems, this behavior is intended longer desirable Absent. これらのシナリオで必要とされる「テキスト編集」の場合、一般にユーザーは次々と特定テキストを入力しようとしている。 In the case of is needed in these scenarios "text editing", generally user is trying to enter one after another specific text. その課程のある時点で、ユーザーの先行入力動作の1つ以上がシステムにより「間違って認識された」ために、ユーザーが意図したものではない1つ以上のテキストオブジェクトがテキスト出力領域のどこか前に現れたという事実によって、ユーザーはテキスト出力領域を見て(またはテキストプレゼンテーションシステムを確認して)生成されたテキストが、ユーザーが生成を意図したテキストと何らかの形で異なることに気付く。 At some point in its course, by one or more of the user's previous input operations system for "wrong recognized", but are not user intended one or more text objects somewhere before the text output region by the fact that appeared, the user sees the text output area (or check the text presentation system) generated text is aware of a text and somehow the user intended to produce different. 大抵の場合、ユーザーは間違って認識されたテキストを修正(要するに、そのテキストオブジェクトの生成時にユーザーが実行した当初の入力動作のシステム解釈を「再マップ」または「再編集」)し、現行のテキスト挿入位置で新規テキストの入力を続けることを単に希望する。 In most cases, the user may modify the recognized text by mistake (in short, the "re-map" the system interpretation of the original input operations executed by the user at the time of generation of the text object, or "re-edit"), and the current text simply wish to continue the input of the new text at the insertion position. しかしながら、既存のシステムでは、編集済みテキストの場所へテキスト挿入位置を配置し直さないことには間違って認識されたテキストは一切編集できないという問題が残る。 However, in the existing system, a problem that is recognized text by mistake can not be edited at all is left is to not re-position the text insertion point to the location of the edited text.

標準のデスクトップコンピュータシステムは、ほぼ例外なくフルサイズのデスクトップ用キーボードおよびマウス(またはトラックボールあるいはグラフィックタブレットデジタイザーなどのマウス同等物)を装備している。 Standard desktop computer system is equipped with an almost exclusively full-size desktop keyboard and mouse (or mouse equivalent, such as a track ball, or graphics tablet digitizer). 結果として、大多数のユーザーはデスクトップシステム上でのキーボードおよびマウスの使用に慣れており比較的に手際が良い。 As a result, the majority of users skillfully good and relatively accustomed to the keyboard and mouse use on the desktop system. ポータブル、ハンドヘルド機器の場合、デスクトップ用のキーボードおよびマウスはそのサイズおよび平らで比較的安定した表面を必要とすること(標準マウスの場合)から非実用的である。 Portable, for handheld devices, keyboard and mouse for the desktop is impractical since (in the case of a standard mouse) that requires a relatively stable surface thereof sized and flat. 従って、上記の入力動作認識テキスト入力システムの多数はポータブル、ハンドヘルド機器での使用のために特別に開発されたものであるか、または当該機器での使用に特に有用であると大抵考えられている。 Therefore, the number of the input action recognition text input system portable, are often considered or those specially developed for use in hand-held devices, or is particularly useful for use in the device .

ポータブル計算機器は、より強力かつより有用になり続ける。 Portable computing devices will continue to become more powerful and more useful. タッチスクリーンは、ポータブル機器に非常に便利で、柔軟性に富み、使いやすいインターフェースであることが立証されている。 Touch screen is very convenient for portable devices, rich in flexibility, it has been proven to be an easy-to-use interface. タッチスクリーン・インターフェースは、タブレットPCなどの大型機器を含め、幅広いポータブル機器に使用されているが、PDAや携帯電話などの小型機器に特に効果的であることが分かっている。 Touch-screen interface, including the large-scale equipment such as a tablet PC, are used in a wide range of portable devices, but has been found to be particularly effective in small devices such as PDA and mobile phones. 当該機器の開発は、機器のさらなる小型化、そしてより容易に、より高速に、かつより使いやすくするという2つの矛盾する目標に主に焦点を当てている。 Development of the device, the further miniaturization of devices, and more easily, are mainly focused on faster, and the two conflicting goal easier to use.

幅広いシステムで共通して使われているユーザーインターフェース・エレメントの1つに、ユーザーに選択肢を提示し、提示した代替項目の中から望ましい回答を選択できるようにすることがある。 One of the user interface element that is used commonly in a wide range of systems, the choice presented to the user, sometimes to the desired answers to the presented alternatives Selectable items. 1つ以上の入力動作について考えられる代替テキスト解釈の一覧をユーザーに提示し、その入力動作を実行する際のユーザーの意図を反映する正しい解釈をユーザーが選択できるようにする必要が多々あるため、このユーザーインターフェース・エレメントは、上記の入力動作認識テキスト入力システムにおいて頻繁に使用されている。 Because one or more of the list of alternate text possible explanations for the input operation is presented to the user, the correct interpretation that reflects the intention of the user in performing the input operation need to allow the user to select are many, the user interface elements are frequently used in the above input action recognition text input system. タッチスクリーン・インターフェースを使用するシステムにおいて、画面上のメニューの最も自然な操作方法は、単にスタイラスまたは指で希望する選択肢に触れて選択する方法である。 In a system using a touch screen interface, the most natural method of operation menu on the screen, a method of simply selecting touching the option desired by a stylus or finger. メニュー表示に必要とされる表示領域は、表示されている他のエレメントが隠れないように最小化することが好ましい場合が多い。 Display regions needed for menu display, it is often desirable to minimize so as not hidden other elements being displayed. 他方、ユーザーが希望のメニュー選択項目に触れて選択することを前提とすると、メニューが小さいほどユーザーはその選択動作をより正確に行わなければならず、従ってそのメニューは使い難くなる。 On the other hand, when the user assumes that selecting by touching the menu choices desired, as the menu is small user must more accurately perform the selection operation, thus the menu is difficult to use.

従って、これらの使用可能性の観点には必然的に緊張関係が生じる。 Therefore, inevitably tensions arise in terms of their availability. 2つ目の同様な考慮点は、もう1つのよく望まれる設計目標が、スタイラスまたはスクリーン操作用に他の特殊な器具の使用を必要とするのではなく、ユーザーが指でタッチスクリーンシステムを使用できるようにすることにあるという事実から生じる。 The second similar consideration is another well-designed targets is desired, rather than requiring the use of other specialized equipment for stylus or screen operation using the touch screen system user with a finger resulting from the fact that is to be so. 指先はスタイラスよりも一般に正確でなく、ユーザーの指で選択を実行できるメニューの設計には表示メニューをかなり大きくする必要があるため、ここにも同じ緊張関係が生じる。 Fingertips are not generally more accurate than a stylus, since the menu design that can perform selection at the user's finger, it is necessary to significantly increase the display menu, even the same tensions arise here.

上述の通り、従来の技術においては、タッチスクリーンメニューから一項目を選択するためにユーザーは希望する選択肢に直接触れる必要があった。 As described above, in the conventional art, the user to select an item from the touch screen menu had to directly touch the options desired. 一部の実施例においては、スタイラス(または指)による画面への最初の接触が希望する選択肢に関連した領域内で起きるようにユーザーがスタイラスの配置を制御する必要がある。 In some embodiments, it is necessary to users as occurs in the region where the first contact of the screen by a stylus (or finger) is related to the choice of desired to control the placement of the stylus. 他のアプローチでは、ユーザーは一連のアクティブな選択領域内の画面への最初の接触が可能で、希望の選択項目に関連した領域内まで(画面との接触を途切らせることなく)スタイラスを持ち上げずにスライドさせる。 In another approach, the user can first contact with the screen of a series of active selection area, (without cut Application contact with the screen) to the area associated with the selection of the desired lift the stylus sliding without. 一番目のアプローチでは、希望する項目を選択するために最初の接触場所を注意深く制御しなければならず、二番目のアプローチでは、最終接触場所を同様に制御しなければならない。 In one th approach, it is necessary to carefully control the initial contact location in order to select the desired item, the second approach must be controlled in the same manner the final contact location. 各メニュー選択項目は、表示メニューの所与の二次元領域として表示されるため、いずれのアプローチにおいても、希望のメニュー選択項目を有効にするには、ユーザーは二次元で画面との接触の配置を制御する必要がある。 Each menu choices to be displayed as a given two-dimensional region of the display menu, In either approach, to enable menu selection item desired, a user located in contact with the screen in a two-dimensional it is necessary to control the. 各二次元メニュー領域が小さいほど、ユーザーはその接触動作をより正確に行わなければならず、かつ、一般に、メニュー項目選択を行うためにより長い時間が必要とされる。 As the small two-dimensional menu region, the user must more accurately perform their contact operation, and, in general, is required longer time for selecting menu items.

本発明の方法およびシステムは、編集済みテキストの場所にテキスト挿入位置を配置し直さずにユーザーが間違って認識されたテキストを編集できるようにすることにより、入力動作認識テキスト入力システムに関する上記の問題を解決する。 The method and system of the present invention, by to edit the text that the user is recognized incorrectly without re-arranging the text insertion point to the location of the edited text, the above problems with the input operation recognizing text input system to resolve. 一態様では、テキスト出力領域に挿入するテキストを生成すると、本発明のテキスト編集システムはテキスト出力領域内においてテキスト挿入位置を追跡かつ記録し、間違って認識されたテキストの「再編集」の直後にこの位置にテキスト挿入位置を自動的に復元できるようにする。 In one embodiment, when generating the text to be inserted in the text output region, a text editing system of the present invention the text insertion point to track and record the text output area, immediately after being recognized incorrectly text "Re-Edit" to be automatically restored text insertion position in this position.

また別の態様では、本システムはテキスト挿入位置をテキスト出力領域内の新しい場所へ変更するために使用されるものとは異なるテキストを編集するユーザー動作(または「ジェスチャ」)を定義し、そのシステムにおいてこの独自のテキスト編集ユーザー動作はユーザーが以前に生成された(しかし間違って認識された)テキストオブジェクトを出力用に実際に生成されたテキストオブジェクトと関連した代替テキストオブジェクトの1つに変更したいことを示すために実行される(以下「再編集」ジェスチャ)。 In another aspect, the system defines a user operation to edit the different text (or "gesture") is intended to be used to change the text insertion position to a new location in the text output area, the system that you want to change in one of this unique text editing user behavior is user associated with the previously generated (but has been recognized by mistake) actually generated text objects for output text objects alternate text object is performed in order to show the (hereinafter referred to as "re-edit" gesture). 例えば、スタイラスを一回タップすることによってテキスト出力領域内における新しい場所へテキスト挿入位置を変更する、スタイラス使用のタッチスクリーンシステムにおいて、特有の再編集ジェスチャはテキスト出力領域内の以前に出力されたテキストオブジェクトの近くで起こる、スタイラスの「ダブルタップ」(連続した二回のタップ間の閾値最大時間間隔を超えない閾値の時間間隔内の二回のタップ)として定義できる。 For example, to change the text insertion position to a new location in the text output area by tapping once the stylus, the touch screen system of stylus use, re-editing gestures peculiar is outputted to the previous text output area text occur near the object, it can be defined as (two taps in time interval does not exceed the threshold maximum time interval between successive two taps threshold) "double-tap" on the stylus. 以前に出力されたテキストオブジェクトと関連付けられた領域内でユーザーが再編集ジェスチャを実行したことをシステムが検出すると、そのテキストオブジェクトは当初のテキストオブジェクト(デフォルト選択またはユーザーにより実行された選択のいずれか)を生成させた1つ以上の入力動作に関連した代替テキストオブジェクトの選択された1つによりそのテキスト出力領域において置換され、テキスト挿入位置は以前の位置(再編集ジェスチャの検出前)に自動的に復元される。 When that the user previously in output was associated with the text object region performed the re-editing gesture system detects any of the text object original text object (default selected or executed by the user ) substituted at the selected one by the text output regions of alternate text objects associated with one or more input operations to generate, automatically the text insertion point previous position (before detection of re-editing gesture) It is restored to.

元のテキストオブジェクトを置換する代替テキストオブジェクトがユーザーによって選択される場合、しばしば最も有効なユーザーインターフェースでは希望のテキストオブジェクトを選択するための代替テキストオブジェクトのメニューをユーザーに提示する。 If the alternate text object to replace the original text object is selected by the user, often the most effective user interface for presenting a menu of alternate text objects for selecting a text object desired user. 本発明ではさらに、希望のメニュー選択項目に関連した二次元メニュー領域内で始まるかまたは終了するように、画面接触動作を制御することなくユーザーが選択メニューから選択できるようにすることでスピードと容易性を高めた。 The present invention further facilitates and speeds by so to begin or end with two-dimensional menu region associated with the menu choices of desired user without controlling the screen contact operation can be selected from the selection menu enhanced sex. 代わりに、ユーザーの画面接触動作によって有効となるメニュー選択項目は、接触動作の経路が交差するメニューの最外部の境界セグメントによって決定される、ここでメニュー境界の各セグメントは、メニュー選択項目の1つに関連している。 Instead, the menu choices is activated by the user's screen touch action, the path of the contact operation is determined by the outermost boundary segment of the menu that intersect, each segment here menu boundary, menu choices 1 It is related to the One. このアプローチでは、最初の接触は表示メニュー内のどこででも発生し得るものであり、および開始(あるいは終了)は特定の希望するテキストオブジェクトに関連した(あるいは関連していると思われる)領域内に制限されない。 In this approach, the initial contact are those that can occur anywhere in the display menu, and the start (or end) is associated with a specific text object desired (or relevant that the seems in) in the region not restricted. 2つ以上の可能な選択肢の間で選択される必要がある場合はいつでも、本発明のメニュー選択システムを使用することでさらに効果的なものとなる。 If you need to be chosen between two or more possible choices at any time, further an effective ones by using the menu selection system of the present invention.

本発明の実施形態を次の図面を参照して以下に詳述する。 The embodiments of the present invention will be described in detail below with reference to the following drawings.
図1は、図2A、2B、並びに2Cおよび図3A、3B並びに3Cに示す本発明のテキスト編集およびメニュー選択システムの方法を具体化するシステムの典型的なハードウェア・コンポーネントを示すシステムブロック構成図である。 1, FIG. 2A, 2B, and 2C and 3A, 3B and system block diagram showing an exemplary hardware components of a system embodying the method of text editing and menu selection system of the present invention shown in 3C it is. 図2Aは、本発明の方法の一態様に従い再編集されたテキストオブジェクトの一例を示す図である。 Figure 2A is a diagram showing an example of the re-edited text object in accordance with one embodiment of the process of the present invention. 図2Bは、本発明の方法の一態様に従い内1つが再編集された2つの連結テキストオブジェクトの一例を示す図である。 Figure 2B is a diagram showing an example of the inner one of the two connecting text object has been re-edited in accordance with one embodiment of the process of the present invention. 図2Cは、図2Bで示した2つの連結オブジェクトの内1つを本発明の方法の一態様に従い再編集した結果の一例を示す図である。 Figure 2C is a diagram illustrating an example of a re-edit the result in accordance with one embodiment of the process of the present invention one of two connecting object shown in Figure 2B. 図3Aは、本発明の方法の利点を有する1つの方法で構成されたメニューの一例を示す図である。 Figure 3A is a diagram showing an example of a menu made up of one method having the advantages of the method of the present invention. 図3Bは、本発明の方法の利点を有する1つの方法で構成されたメニューの一例を示す図であり、ここで提示された2つの選択は、ユーザーが意図した選択に対応する事前確率が低い。 Figure 3B is a diagram showing an example of a menu made up of one method having the advantages of the method of the present invention, two selection presented here is less prior probability corresponding to the selected user intended . 図3Cは、本発明の方法の利点を有する1つの方法で構成されたメニューの一例を示す図であり、提示された選択のそれぞれに関連するメニューの境界セグメントは、提示された選択および関連した境界セグメントの背景の色、濃淡またはテクスチャの使用に対応して示される。 Figure 3C is a diagram showing an example of one configuration menus in a way that has the advantage of the method of the present invention, the boundary segments of a menu associated with each of the presented selection was selected and associated presented background color of the boundary segment is shown corresponding to the use of shading or texture. 図4は、本発明の方法の利点を有する1つの方法で構成されたメニュー上の接触動作の一例を示す図である。 Figure 4 is a diagram showing an example of a contact operation on one of the methods menus composed of having the advantages of the process of the present invention. 図5は、本発明の方法の利点を有する1つの方法で構成されたメニューの一例を示す図であり、提示される選択数の増加を可能にする。 Figure 5 is a diagram showing an example of a menu made up of one method having the advantages of the method of the present invention allows for increased selection number to be presented. 図6は、図5に示された方法で構成されるメニューの一例を示し、ここでは類似の選択ジェスチャによって選択可能なメニュー選択項目のセットを示すために類似の背景色が使用される。 Figure 6 shows an example of a menu constituted in the manner shown in FIG. 5, where the background color of the similarity is used to indicate a set of selectable menu choice by similar selection gesture.

本発明のシステムは、テキストの入力および編集のユーザープロセスを不必要に妨げずに、入力動作認識システムによって間違って認識されたテキストの訂正という目標をユーザーが実現することを可能にする。 The system of the present invention, without disturbing the user process of the input and editing of text unnecessarily, to the goal of correcting the recognized text incorrectly by the input operation recognition system allows a user to achieve. 意図した単語または語句が間違って認識される場合(1つ以上の入力動作が、入力動作を行ったユーザーが意図したものではないテキストに「マッピングされた」場合)、ユーザーはシステムの誤認識を訂正しなければならないが、この訂正はユーザーの意図したテキストを変更または編集するというユーザーの意図を反映せず、どちらかというと、テキストオブジェクトが生成された際にユーザーが行った当初の入力動作(単数または複数)のシステム解釈の「再マップ」または「再編集」を行うためのものである。 Intended If word or phrase is incorrectly recognized (one or more input operations, if "mapped" input action a user is not intended text went), user recognition errors of the system must be corrected, this correction does not reflect the intention user of that change or edit the intended text of the user, and say either, the initial input operation made by the user when the text object is created it is for performing a "re-map" or "re-edit" of the system interpretation of the (s). ユーザーがシステムによる1つ以上の以前の入力動作の誤認識に気いた場合、本発明のシステムはユーザーが誤認識されたテキストを訂正することを可能にし、その後テキスト挿入位置が元の位置に自動的に戻るため、最小の努力でテキスト挿入位置の元の位置でテキストを引き続き入力することを可能にする。 If the user was asked to false recognition of one or more previous input operation by the system, the system of the present invention makes it possible to correct the recognized text user erroneously, then the automatic text insertion position to the original position to return specifically to make it possible to continue to enter the text in the original position of the text insertion position with a minimum of effort.

一態様では、ユーザーがテキスト出力領域中に挿入されるテキストを生成するに従って、適切な場合に、テキスト入力位置が自動的にこの位置に戻れるように、システムはテキスト出力領域内のテキスト入力位置を追跡および記録する。 In one aspect, according to generate the text that the user is inserted in the text output area, if appropriate, so that the text input position return automatically this position, the system is text input location in the text output area tracking and recording. 別の態様では、システムは、テキスト出力領域中の新しい場所へテキスト入力位置を変更するために使用される場合とは異なる、テキスト編集ユーザー動作(あるいは「ジェスチャ」)を定義し、およびここでこの独自のテキスト編集ユーザー動作は、ユーザーが以前に生成された(しかし間違って認識された)テキストオブジェクトを、出力用に実際に生成されたテキストオブジェクトに関連した代替テキストオブジェクトの1つに変更したいことを示すために実行される(以下「再編集」ジェスチャ)。 In another embodiment, the system is different than would be used to change the text input location to a new location in the text output area, to define the text editing user operation (or "gesture"), and in this case your own text editing user operation, the user is (was recognized, however incorrectly) previously generated a text object, actually that you want to change to one of the related substitute text objects in the generated text objects for output is performed in order to show the (hereinafter referred to as "re-edit" gesture). 例えば、テキスト出力領域内の新しい場所へテキスト入力位置を変更するためにスタイラスのシングルタップが実行されるスタイラスベースのタッチスクリーンでは、独特な再編集ジェスチャはテキスト出力領域中の以前の出力テキストオブジェクト近辺でのスタイラスのダブルタップとして定義できる。 For example, text output in the stylus based touch screen stylus single tap of is performed to change the text input location to a new location within the region, unique reediting gestures previous output text object around in the text output area It can be defined as the stylus double-tap in. ユーザーが以前に出力したテキストオブジェクトに関連した領域で再編集ジェスチャを実行したことをシステムが検出すると、テキストオブジェクトは関連した代替テキストオブジェクトの1つにテキスト出力領域で置換される(下記のように)、そしてテキスト入力位置は以前の位置(再編集ジェスチャの検出前)に自動的に復元される。 When a user system that executes the reediting gesture regions associated with the text object is output to the previously detected, the text object is replaced by the text output area on one of the associated alternate text objects (as described below ), and text input position it is automatically restored to their previous position (before detection of re-editing gesture).

本発明の以下のさまざまな観点の記述および実施形態では、特定の態様または実施形態がしばしば記述され、スタイラスベースのタッチスクリーンに実装されている文脈で例示される。 In the following description and embodiments of various aspects of the present invention, certain aspects or embodiments are often described, is illustrated in the context mounted on the stylus based touch screen. しかしながら、これらのさまざまな態様および実施形態は、標準マウスおよびキーボードを使用して入力動作が実行されるシステム、スタイラスの使用を必要としないタッチスクリーンシステム、マウスの代替形式(例えば、ユーザーが注視しているスクリーン位置を決定するためにユーザーの目の動きを追跡し、システムマウスカーソルをその位置に自動的に位置させ、および瞬きの監視またはその他のメカニズムでユーザーにさまざまなマウスクリックを行うことを可能にする「視線」システム)、音声コマンドベースのシステム、または、ユーザーにテキストを生成するための入力動作の実行および/またはすでに入力されたテキストの編集動作の実行を可能にする他の手段を使用するシステムに同等に適用できることは当業者には明 However, these various aspects and embodiments, a system input operation using a standard mouse and keyboard are performed, the stylus touch screen system that does not require the use of, an alternative form of the mouse (e.g., the user is gazing the movement of the user's eye to determine in which screen position tracking, the system mouse cursor automatically is positioned at that position, and blinking the monitor or to the user in other mechanisms that perform a variety of mouse clicks possible to "line of sight" systems), voice commands based system, or user other means that allows for execution and / or already executing the editing operation of the input text input operation to generate text It can be equally applied to a system to be used by those skilled bright であろう。 Will.

別の態様では、システムはユーザーに編集される単語をハイライトすることで(あるいは単語の境界に隣接するまたはその中のテキスト挿入位置を示すことで)、再編集のために出力されたテキスト中の単語を選択することを可能にし、その後、指定された「再編集」編集ファンクションキーを有効にする(この場合、システムは、ファンクションを有効にするために実行されたテキスト挿入位置を再配置以前の位置に復元するために、テキスト挿入位置の以前の2つの配置を追跡しなければならない。別の態様では、できるだけ効率的にそのような認識エラーの訂正プロセスを行うために、システムは、いつ出力テキスト領域中で再編集ジェスチャが実行されるかを認識し、およびあらかじめ定められたスタイラス動作またはジェスチャが実 In another aspect, the system by highlighting the word to be edited to the user (adjacent to or word boundaries, or by specifying the text insertion position therein), is output for re-editing the the text word makes it possible to select, then to enable the specified "reedited" eDIT function key (in this case, the system, before remapping the text insertion point, which is performed to enable the function to restore the position, the must track previous two configurations of the text insertion position. in another embodiment, in order to perform as efficiently as possible correction process of such recognition errors, the system time recognizing whether re-editing gesture is performed in the output text area in and predetermined stylus operation or gesture actual 行された場所に最も近い出力テキスト領域中の単語を再編集用の標的単語として特定する。一実施形態では、前の実施例で言及したように、あらかじめ定められた編集動作は、タッチスクリーン上に表示される単語上のスタイラスの「ダブルタップ」である。別の実施形態では(例えば、マウスなどのカーソル移動制御装置を使用してシステムが動作する場合)、あらかじめ定められた編集動作は(例えば)編集される単語上でマウスを一時的に静止させ、その後マウスを素早く前後に一度動かす(これは単に例示的なジェスチャであって、多くのこのようなジェスチャが定義され得る)。 Identifying a target word for re-editing the words in the closest output text area in the row location. In one embodiment, as mentioned in the previous example, the edit operation predetermined, on the touch screen a "double tap" is a word on the stylus appears in. in another embodiment (e.g., when operating the system by using the cursor movement control device such as a mouse), the editing operation a predetermined ( for example) temporarily stationary the mouse over word being edited may then mouse quickly moved once back and forth (this is merely an exemplary gesture, defined a number of such gestures).

また別の実施形態では、再編集ジェスチャにおいて、複数の単語を1つのジェスチャで選択できるように定義しているものがある。 In another embodiment, the re-edited gesture, there is what is defined so as to select a plurality of words in one gesture. 例えば、音声認識システムにおける認識エラーは通常、生成された出力における1つ以上の単語に影響する。 For example, recognition errors in the speech recognition system typically affects one or more words in the generated output. 例として、ユーザーが「音声を認識するのは難しい」と発声したのに対し、システムが生成した出力は、「混成を任じ指揮するのは難しい」となる場合などである。 As an example, to the user that utters "is difficult to recognize the voice", the output generated by the system is a case where the "hard to commanding appointed hybrid". このようなシステムでは、再編集ジェスチャは、例えば、一連の単語に下線が引かれることで定義される。 In such a system, re-editing gesture, for example, is defined by is underlined sequence of words. 上の例では、「混成を任じ」という語句に下線が引かれる。 In the above example, underlined phrase "appointed hybrid" is drawn. その後システムは、「するのは難しい」に相当する発声部分の解釈は変更せずに、発声に関連付けられた1つ以上の代替解釈を生成するこの同じアプローチは、手書き文字認識システムへも適用される。 The system then without interpreting changes utterance portion corresponding to the "hard to" this same approach of generating one or more alternative interpretations associated utterance is also applied to the handwriting recognition system that. 同システムにおいても、ユーザーの手書き文字の区切りを間違え、1つの単語を2つ以上の単語に解釈したことなどにより多くの認識エラーが生じる。 Also in this system, wrong delimiter user handwriting, many recognition errors due to interpreted one word into two or more words occur. もちろん、再編集する一連の語句を円で囲むなど、他の再編集ジェスチャも定義可能であり、これらは本発明の範囲外とみなされるものではない。 Of course, such encloses a set of words that reedit a circle, an other re-editing gestures may be defined, which are not to be considered outside the scope of the present invention. 例えば、音声認識システムにおいて、コマンドの発声により再編集「ジェスチャ」を定義することもできる。 For example, in a speech recognition system, it is also possible to define a re-edit "gesture" by utterance command. 上の例では、「再編集:混声を任じ指揮する」などと発音することである。 In the example above,: it is to pronounce such as "re-edit Mixed a appointed to command".

一態様では、システムは、直近で出力したテキストオブジェクトの1つ以上の入力動作に最も一致すると判断された代替テキストオブジェクトのリストを保存する。 In one embodiment, the system stores a list of alternate text objects that are determined to best match the one or more input operation of text objects output in recent. 再編集ジェスチャを検出すると、システムは代替テキストオブジェクトを含むテキストオブジェクト選択リストを表示する。 Upon detection of a re-editing gesture, the system displays the text object selection list to include alternative text object. この代替テキストオブジェクトは、再編集対象のテキストオブジェクトを出力する結果となった、ユーザーによる入力動作に最も一致すると判断されたテキストオブジェクトである。 This alternative text object, resulted to output a text object re edited a text object is determined that best matches the input operation by the user. 別の実施形態では、最初に出力されたテキストオブジェクトは、テキストオブジェクトの選択リストには表示されない。 In another embodiment, the first output text object is not displayed in the selection list of text objects. これは、再編集手順は(通常)、置き換えのためにのみ実行されるためである。 This re-edit procedure is to be performed only for the (usually) replaced. 別の態様では、再編集の対象となるテキストオブジェクトは、一致度が二番目に高い代替テキストオブジェクトによって自動的に置換される。 In another embodiment, a text object to be re-edited, the degree of coincidence is replaced automatically by the high alternative text objects second. これは、再編集対象のテキストオブジェクトを生成した入力動作に最も一致すると判断された代替テキストオブジェクトのリストから選択される(表示されたテキストオブジェクト選択リストからのテキストオブジェクトの選択をユーザーに要求しない)。 This (not require selection of a text object from the text object selection list displayed to the user) that is being selected from the list of is determined that best matches the input operation that generated the text object re edited alternate text objects . このアプローチは、ユーザーが本来意図したテキストオブジェクトは、一致度が二番目に高い代替テキストオブジェクトであることがほとんどの場合であるシステムにおいて、有利である。 This approach, text objects that you originally intended, in that the degree of coincidence is high alternate text objects Second is the case in most systems, it is advantageous. 別の態様では、既に再編集され、その際、一致度が二番目に高い次候補の代替テキストオブジェクトが最初の出力テキストオブジェクトを自動的に置き換えたテキストオブジェクトが再度、再編集される場合、システムはテキストオブジェクトの選択リストを表示し、ユーザーが代替テキストオブジェクトを選択できるようにする。 If in another embodiment, are already re-edited, this time, the degree of coincidence second highest alternate text objects of the next candidate initial output text objects automatically replace text object again, to be re-edited, the system displays a selection list of the text object, it allows the user to select an alternative text object.

図1は、テキスト編集およびメニュー選択のためのユーザーインターフェースのシステムおよび方法を実装した典型的装置<100>のハードウェア・コンポーネントの単純化したブロック図を示したものである。 Figure 1 illustrates an exemplary apparatus simplified block diagram of the hardware components of <100> that implement the system and method of user interface for editing text and menu selection. 装置<100>には、1つ以上の入力装置<120>が含まれ、ユーザーが実行した動作による入力信号をCPU(プロセッサ)<110>へ送る。 Device <100>, it includes one or more input devices <120>, and sends an input signal by the operation executed by the user CPU (processor) to <110>. 通常、ハードウェアコントローラが調整に入り、入力装置から受け取った生の信号を解釈し、その情報を、利用可能なデータポート経由で既知の通信プロトコルを使って、CPU<110>へ送信する。 Normally, a hardware controller enters the adjustment, interprets the raw signals received from the input device, the information, using known communications protocol over the data ports available, and transmits to the CPU <110>. 入力装置<120>の例としてタッチスクリーンがある。 Input device is a touch screen as an example of <120>. これは、ユーザーがタッチスクリーンに触れたときの接触イベントをCPU<110>へ通知する入力機能を提供する。 This allows the user to provide an input function for notifying the contact event when touching the touch screen to CPU <110>. 同様に、CPU<110>は、モニター<130>上に描画するようモニター<130>のハードウェアコントローラと通信する。 Similarly, CPU <110> communicates with the hardware controller monitors <130> to draw on the monitor <130>. モニター<130>の例として、グラフィックや文字の視覚フィードバックを提供するタッチスクリーンモニターがあげられる。 Examples of the monitor <130>, a touch screen monitor providing visual feedback of the graphic and characters and the like. オプションとして、CPUにスピーカー<140>を組み合わせ、適切な音声信号によりユーザーをガイドし(多くはエラー信号)、またマイク<141>をCPUに組み合わせて、ユーザーの声による入力(多くはユーザーによるテキスト入力方法として音声入力を実装した入力動作認識システム用)を受け取れるようにすることもできる。 Optionally, the combination speaker <140> the CPU, to guide the user by appropriate voice signal (error signal number), also a combination of microphones <141> the CPU, user input voice (mostly text by the user You may be eligible to receive the input operation recognition system) that implements speech input as an input method. CPU<110>は、メモリ<150>へのアクセスを持つ。 CPU <110> has access to the memory <150>. これには、一時記憶域および/または固定記憶域の組み合わせ、読取・書込可能なメモリ(ランダムアクセスメモリまたはRAM)、読取専用メモリ(ROM)、フラッシュメモリ、ハードドライブ、フレキシブルディスクなどの書込可能不揮発性メモリが含まれる。 This includes a combination of temporary storage and / or fixed storage, read-writable memory (random access memory or RAM), read only memory (ROM), flash memory, hard drive, writing such as a flexible disk It can include non-volatile memory. メモリ<150>には、オペレーティングシステム<161>、入力動作認識システムソフトウェア<162>、その他のアプリケーションプログラム<163>などすべてのプログラムとソフトウェアを含むプログラムメモリ<160>が含まれる。 The memory <150>, the operating system <161>, the input operation recognizing system software <162>, and other application programs <163> including all programs and program memory <160> including software. またプログラムメモリ<160>には、本発明の方法に従ってテキスト挿入位置を記録、復元するためのテキスト編集システムソフトウェア<164>と、本発明の方法に従って複数の選択肢をグラフィカルに表示し、グラフィカルに表示された選択肢の1つを選択決定するためのメニュー選択システムソフトウェア<165>が最低1つ含まれる。 The addition program memory <160>, recording the text insertion point in accordance with the method of the present invention, and restore text editing system software <164> to displays a plurality of choices in accordance with the method of the present invention graphically graphical display the menu selection system software <165> for selecting and determining the one of the choices was is included At least one. メモリ<150>には、データメモリ<170>も含まれ、この中には入力動作認識システムソフトウェア<162>が必要とするテキストオブジェクトデータベース<171>および、ユーザー設定とお気に入りの記録を維持するためのオプションの記憶域<172>、装置<100>のコンポーネントが必要とするその他データ<173>が含まれる。 The memory <150>, the data memory <170> also included, text object database <171> and the <162> input action recognition system software in this requires, in order to maintain the user settings and favorites of the recording storage options <172>, and other data <173> required by the components of the apparatus <100>.

図2Aは、システム<100>のモニター<130>上に表示された再編集ファンクションキー<208>により、または、あらかじめ定められた再編集ジェスチャを以前に出力されたがユーザーの意図したテキストオブジェクトではなかったテキストオブジェクト(図2Aでは「great」200)上で実行することにより、再編集手順を有効化する様子を示している。 Figure 2A is a system by <100> Monitor <130> reedit function keys displayed on the <208>, or, in the text object is output intended user of the re-editing gestures predetermined previously never been text object by running on (in FIG. 2A "great" 200), it shows how to enable the re-compilation procedure. 別の実施形態では、再編集ファンクションキー<208>が有効化され、ハイライトされているテキストオブジェクトが存在しない場合、システムは現在のテキスト挿入位置を含む、または隣接するテキストオブジェクトを特定し、自動的に再編集手順のターゲットとして選択する。 In another embodiment, re-edit function key <208> is enabled, if the text object is highlighted is not present, the system includes a current text insertion point, or to identify the adjacent text objects, automatic It is selected as the target of re-editing procedures in specific.

図2Aは結果として表示されるテキストオブジェクト選択リスト<202>を示している。 Figure 2A shows a text object selection list <202> to be displayed as a result. この例では、ユーザーが本来意図したテキストオブジェクトである「heat」が、テキストオブジェクト選択リスト<202>で1つ目のテキストオブジェクト候補<204>として表示されている。 In this example, the user is "heat" is a text object intended originally, are displayed as a text object selection list <202> in first text object candidate <204>. これは、このテキストオブジェクトが、当初行った入力動作に対し二番目に一致するテキストオブジェクトと判断されたためである(当初の入力動作に一致するテキストオブジェクトとして最初に出力した単語「great」の次に一致)。 This is the text object, because it is determined that the text objects that match the second to the input operation performed initially (next to the first word is output as a text object that matches the original input operation "great" match). 入力装置<120>を使ってテキストオブジェクト選択リスト<202>のテキストオブジェクト<204>を選択すると、CPU<110>は、モニターのテキスト出力領域<206>で、ハイライトされているテキストオブジェクト「great」<200>を、ユーザーが本来意図したテキストオブジェクト「heat」に自動的に置き換える。 When the input device using the <120> to select a text object <204> text object selection list <202>, CPU <110> is a text output region of the monitor <206>, the text object "great being highlighted "the <200>, automatically replace the text objects that you originally intended" heat ".

別の態様では、再編集プロセスは、入力動作認識システムソフトウェア<162>がスペースを自動生成する場合と同じように、スペースを挿入または削除する。 In another embodiment, re-editing process, the input operation recognizing system software <162> is as if automatically generating space, to insert or remove the space. 入力動作認識システムがテキストオブジェクト間に自動的にスペースを生成する場合に、隣接するすべてのテキストオブジェクト間にスペースを自動生成する設定では、ユーザーは不必要な自動生成スペースの削除作業に追われることになる。 If the input operation recognition system automatically generates spaces between text objects, the set of automatically generating a space between all text objects adjacent the user be busy delete operations unnecessary automatic generation space become. 例えば、英語では、名詞を所有格にする際に、テキストオブジェクトの最後に“'s”(アポストロフ-s)を付ける。 For example, in English, at the time of the noun in possessive, appended to the end of the text object " 's" (apostrophe -s). フランス語では、母音で始まる語句の前に、冠詞「le」や「la」を付ける場合、「l'」(l-アポストロフ)と表記し、続く語句の最初の文字とアポストロフの間にスペースは挿入しない。 In French, before words beginning with a vowel, If you want the articles "le" and "la", "l '" (l- apostrophe), and the notation, followed by the first character and the space between the apostrophe in the word is inserted do not do. ドイツ語などの言語では2つ以上の語句を連結させ長い「複合」語を作ることが一般に行われている。 In languages ​​such as German to make a long by connecting two or more of the word "complex" words have been made in general. この問題を解決するには他のアプローチもあり、それを本発明の範囲外とするものではないが、入力動作認識システムにおけるこの問題を解決する簡単なアプローチとして、一定のテキストオブジェクトにフラグを付け、隣接するテキストオブジェクト間にスペースを自動挿入するという通常のルールへの例外を規定する方法がある。 There are other approaches to solve this problem, but not to it outside the scope of the present invention, as a simple approach to solving this problem in the input operation recognition system, flags certain text objects , there is a method to define the exception of the space between adjacent text objects to the normal rule that automatically inserted. 例えば、英語では、システムのテキストオブジェクトのデータベースにあるテキストオブジェクト「's」(アポストロフ- s)にフラグを付け、この単語と次の単語の間にはスペースを入れるが、この単語と前の単語の間にはスペースを入れないよう指定する。 For example, in English, the text objects in the database of text objects in the system " 's" - flags (apostrophe s), but put a space between the word and the next word, the word of before and this word to specify that you do not put a space between. 反対にフランス語では、システムのテキストオブジェクトのデータベースにあるテキストオブジェクト「l'」(l-アポストロフ)にフラグを付け、この単語と前の単語の間にはスペースを入れるが、この単語と次の単語の間にはスペースを入れないよう指定する。 The French on the other, with the flag in the text object in the database of text objects in the system "l '" (l- apostrophe), the words, but put a space between the words and the previous word, of this word and the next to specify that you do not put a space between. 別の態様では、通常はテキストオブジェクトをスペースで区切るが、また一般に別々のテキストオブジェクトを合体させて長い「複合」テキストオブジェクトを生成するドイツ語などの言語に対応するため、通常挿入する単語間へのスペースの自動生成を次回はオフにする機能を入力動作認識システムに搭載する(これにより、間にスペースを生成せずに2つのテキストオブジェクトを続けて生成できる)。 In another aspect, usually separate the text object in space, but also in general in order to cope with the language, such as German to generate a long "composite" text objects by combining the separate text object, to between words that are normally inserted the next time the automatic generation of a space for mounting the input operation recognition system functions to turn off (which can be generated in succession two text objects without generating a space between). あるいは、スペースの自動生成機能を再度有効化するまでの間、通常ならば生成されるスペースの自動生成機能をオフにする機能を搭載してもよい。 Alternatively, until re-enable the auto-generation function of space, it may be mounted ability to turn off the auto-generation function of the space to be generated would normally. あるいは、入力動作認識システムに、直近で自動生成したスペースを削除する機能を付け加えることもできる。 Alternatively, the input operation recognition systems, it is also possible to add a function to remove the space that is automatically generated from the previous. 以下に説明するように、本発明の再編集プロセスは、スペースの自動生成におけるこれらさまざまな例外に対応するため、再編集プロセスによって、テキストオブジェクトを異なる自動スペース設定規則が適用されるテキストオブジェクトによって置き換えた場合も、テキストは正しいスペース設定で生成される。 As described below, re-editing process of the present invention is to address these various exceptions in the automatic generation of space, replacing the re-editing process, the text object automatically space setting rule different text object applies even if the text is generated in the correct space setting.

また別の態様では、再編集ジェスチャにおいて、テキストオブジェクト文字の連続した文字列を構成する一部の文字列を1つのジェスチャで選択できるように定義する。 In another aspect, the re-editing gesture, defines a part of a character string constituting a continuous string of text objects characters can be selected with a single gesture. 図2Bの例に示すように、単語「of's」<210>は、「of」<212>と「's」<214>から成り立っている。 As shown in the example of FIG. 2B, the words "of's '<210> is made up from" of "<212> the"' s "<214>. この例では2つのテキストオブジェクトは、連続して実行された2つの別々の入力動作に対応して作成された点に注意されたい。 Two text objects in this example, it should be noted that were created in response to two separate input operations performed sequentially. もう1点注意したいのは、このテキストは、デフォルトでは連続して生成するテキストオブジェクト間にスペースを自動出力する入力動作認識システムで生成されているが、テキストオブジェクト「's」<214>はシステムのテキストオブジェクトデータベースで、このデフォルト動作の例外としてフラグが付いているため、「's」<214>の出力前にスペースは生成されておらず、そのため、直前のテキストオブジェクトに合体し、正しい所有格が作られている点である。 I want to note another point, the text is, by default, but are generated by the input action recognition system that automatically output the space between the text object to generate in succession, the text object " 's" <214> is the system in the text object database, because this is attached flag as exceptions to the default behavior, " 's" space before output of <214> has not been generated, and therefore, coalesce just before the text object, correct ownership it is that the rating has been made. ただし、図2Bに示した例では、テキストオブジェクト「's」<214>は対応する入力動作を実行したときにユーザーが本来意図したテキストオブジェクトではなかった。 However, in the example shown in Figure 2B, the text object " 's" <214> the user is not the originally intended text object when you run the corresponding input operation.

また別の態様では、複数のテキストオブジェクト文字から構成され、前後に1つ以上のデリミタ文字が付いているテキスト文字列(図2Bの例では、「of's」<210>の文字列)に関連付けられた領域で、再編集ジェスチャが検出されると、システムはまず、テキスト文字列全体(図2Bの例では、「of's」<210>)が、1つのユーザー入力動作に対応して生成されたかどうかを確認し、そうであることが確認された場合は、システムは入力動作で特定された代替テキストオブジェクトに基づき、上述の方法で対応する。 In another embodiment, is composed of a plurality of text objects characters (in the example of FIG. 2B, "of's" string <210>) text string with one or more delimiter characters back and forth is associated with the in area, the re-editing gesture is detected, the system first determines whether (in the example of FIG. 2B, "of's' <210>) text string whole, is generated corresponding to a single user input operation verify, if it is the case is confirmed, the system is based on the alternate text objects identified by the input operation, corresponding in the manner described above. また別の態様では、特定されたテキスト文字列(この例では「of's」<210>)が、それぞれテキストオブジェクトの部分文字列を生成する2つ以上の別々のユーザー入力動作によって生成された場合には、システムは実行された再編集ジェスチャに最も近いテキストオブジェクトの部分文字列を特定し、例えば、特定された部分文字列をハイライトし、部分文字列を生成したユーザー入力動作に一致する代替テキストオブジェクトのリストを表示し、ユーザーが選択できるようにする。 In another aspect, when the specific text string ( "of's" in this example <210>), which is generated by two or more separate user input operation that generates a substring of the text object, respectively alternate text, the system identifies the substring closest text object to re-edit gesture executed, for example, to highlight the identified portion string matches the user input operation that generated the substring It displays a list of objects, so that the user can select. 図2Bでは、検出された再編集ジェスチャに関連付けられた位置<216>(例えば位置<216>でのダブルタップ)は、部分文字列「's」<214>に最も近いため、この部分文字列が再編集の「ターゲット」として特定され、テキスト出力領域<206>でハイライトされている。 In Figure 2B, (double tap, for example, the position <216>) location associated with the re-editing gesture detected <216>, the partial character string " 's" since closest to the <214>, the substring There are identified as "target" of the re-edit, it is highlighted in the text output area <206>. 図2Bの例では、ユーザーは文章全体の入力をちょうど終えたところで、位置<216>での再編集ジェスチャの検出前のため、テキスト挿入位置は入力を終えた文末である位置<218>にあり、ユーザーは次の文章を入力する準備ができている。 In the example of FIG. 2B, the user at the completion just to enter the entire sentence for pre-detection of the re-editing gestures at position <216>, the text insertion point is in the position <218> is a sentence end finishing the input , users are ready to enter the next sentence.

この例では、ユーザーが本来意図したテキストオブジェクトである「Oz」が、テキストオブジェクト選択リスト<202>に第一候補のテキストオブジェクト<220>として表示されている。 In this example, the user can "Oz" is a text object intended originally, are displayed as a text object selection list <202> text objects in the first candidate to the <220>. これはこの単語が、当初の入力動作に対し二番目に一致するテキストオブジェクトとして判断されたためである(当初の入力動作に最も一致するテキストオブジェクトとして最初に出力されたテキストオブジェクト「's」<214>の次に一致)。 It is this word, because it is determined as a text object that matches the second to the initial input operation (first output text object as a best matching text objects to the original input operation " 's" <214 > next to the match of). 図2Cは、テキストオブジェクト選択リスト<202>で、テキストオブジェクト「Oz」<220>を選択し、出力テキスト領域<206>において、テキスト編集システムソフトウェア<164>が自動的にハイライトしたテキストオブジェクト「's」<214>を、ユーザーが本来意図したテキストオブジェクト「Oz」<220>に置き換えた様子を示している。 Figure 2C is a text object selection list <202>, select the text object "Oz" <220>, the output text region <206>, the text object with the text editing system software <164> is automatically highlighted " 'the s "<214>, it shows a state in which replaced the text objects that you originally intended" Oz "<220>. テキスト編集システムソフトウェア<164>が、直前のテキストオブジェクト「of」<212>と「Oz」<220>の間にスペース<222>を挿入した点にも注意されたい。 Text editing system software is <164>, should also be noted that the insertion of the space <222> during the previous text object "of" <212> and "Oz" <220>. 前述の通り、テキストオブジェクト「's」<214>は、システムのテキストオブジェクトデータベース<171>内で、正常に生成したテキストオブジェクト間にスペースを自動生成するというデフォルト動作に対する例外フラグが付けられているため、元来、図2Bの「's」<214>を出力する前にスペースは生成されていない。 As described above, the text object " 's" <214>, an exception flag is attached to the default behavior of the system text object database <171> within, to automatically generate a space between the text object you have successfully generated because, originally, space prior to outputting the " 's" <214> of FIG. 2B has not been generated. 選択した置換テキストオブジェクト「Oz」<220>には、システムのテキストオブジェクトデータベース<171>内でそのようなフラグが付いていないため、システムがテキストオブジェクト「's」<214>をテキストオブジェクト「Oz」<220>で置き換えると、置換テキストを挿入する前にスペースが生成され、スペース<222>が、語句「of」<212>と「Oz」<220>の間に挿入される。 Selected in the replacement text object "Oz" <220>, because that does not have such a flag in the text object database of the system <171>, the system is text object " 's" <214> the text object "Oz "replacing the <220>, space before inserting the replacement text is generated, a space <222> is inserted between word" of "<212> and" Oz "<220>. 逆の場合も同じように処理される。 Vice versa is treated in the same way. つまり、テキストオブジェクト「Oz」<220>が最初に生成され、その後再編集手順によって、テキストオブジェクト「's」<214>で置き換えられる場合、最初はスペース<222>が生成されテキストオブジェクト「Oz」<220>の前に置かれているが、「Oz」<220>を「's」<214>で置き換える際に、先行するスペースは削除され、「's」<214>が直前のテキストオブジェクトと直接結合する。 In other words, the text object "Oz" <220> is first created, and then by re-editing procedures, text object " 's" <214> when it is replaced by, first space <222> is a text object "Oz" is generated <220> have been placed in front of, the "Oz" <220> 'when replaced with "s <214>, the preceding space is deleted," "' s" <214> is just before the text object It binds directly when. このように別の態様において、再編集プロセスの結果、1つのテキストオブジェクトが別のオブジェクトで置き換えられ、かつ、2つのテキストオブジェクトに異なるスペース自動挿入動作が関連付けられている場合、置換テキストオブジェクトの前後のスペースは、2つのテキストオブジェクトのスペース設定動作の違いを反映して調整される。 In another embodiment in this manner, the result of the re-editing process, one text object is replaced by another object, and, if different spaces automatic insertion operation into two text object is associated, before and after the replacement text objects of space, it is adjusted to reflect the difference between the space setting operation of the two text objects.

別の実施形態では、テキスト編集システムソフトウェア<164>がテキスト出力領域<206>におけるテキスト挿入位置を記録するため、再編集テキストオブジェクトを代替テキストオブジェクトで置換した直後に、テキスト挿入位置は自動的に復元され、再編集手順実行前の出力テキストの位置に戻る。 In another embodiment, the text editing system software <164> records the text insertion point in the text output region <206>, immediately after replacing the re-edit text objects in an alternate text objects, text insertion position automatically It is restored, returns to the position of the output text before re-editing procedure execution. 図2Cの例では、テキストオブジェクト「's」<214>のテキストオブジェクト「Oz」<220>による置き換えの後、テキスト挿入位置は自動的に元の位置<218>、つまり文の終了位置に戻る(位置<216>における再編集ジェスチャ検出前の場所)。 In the example of FIG. 2C, after replacing the text object " 's" text object "Oz" <220> of the <214>, the text insertion point automatically original position <218>, i.e. returns to the end of sentence (location before re-editing gesture detection in position <216>). このため、ユーザーは手動でテキスト挿入位置へカーソルを移す必要なく、テキストの挿入を続行できる。 For this reason, the user manually without the need move the cursor to the text insertion position, can continue the insertion of text. また別の態様において、生成されたテキストオブジェクト選択リストが、置換テキストオブジェクトを選択せずにキャンセルされた場合、特定されたテキストオブジェクトはハイライトされた(選択された)状態のままとなり、テキスト挿入位置は出力テキストの元の位置に戻らないため、ハイライトされたままの特定されたテキストオブジェクトに対し別の動作を行うことができる。 In yet another embodiment, the generated text object selection list, if it is canceled without selecting a replacement text objects, text objects that are identified will remain highlighted (selected) state, text insertion position because not return to the original position of the output text, it is possible to perform another operation on the identified text objects remain highlighted. また別の態様において、生成されたテキストオブジェクト選択リストから代替テキストオブジェクトを選択する前に、1つ以上の追加の入力動作を行うと、テキストオブジェクト選択リストは自動的にキャンセルされ、テキスト挿入位置は、出力テキスト内の元の位置に戻らない。 In yet another embodiment, prior to selecting the alternate text objects created from the text object selection list, when one or more additional input operation, a text object selection list is automatically canceled, the text insertion point , it does not return to its original position in the output text. そして、1つ以上の追加の入力動作により生成されたテキストは、テキスト出力領域に送られ、ワード処理プログラムの標準動作に従い、結果として、以前に出力されたテキストオブジェクトを置き換える。 Then, the text generated by one or more additional input operation is sent to a text output region, according to standard operation of the word processing program, as a result, replacing the text objects that was output previously. これは、以前に出力されたテキストオブジェクトが現在、テキスト領域でハイライトされている(選択されている)ためである。 This text object is output before the current, because that is highlighted in the text area (selected). また別の態様では、制御文字の生成に対応する入力動作を行うと、制御文字をターゲットのテキストアプリケーションへ送る結果になる。 In another aspect, when the input operation corresponding to the generation of control characters, result in sending control characters to the target text application. 例えば、Ctrl-Bの生成に対応する入力動作を実行すると、ターゲットアプリケーションはCtrl-Bを受け取り、ハイライトされている以前に出力したテキストオブジェクトを太字でフォーマットする。 For example, running the input operation corresponding to the generation of Ctrl-B, the target application receives the Ctrl-B, to format the text object outputted previously highlighted in bold. また別の態様において、ユーザーが表示テキスト領域をスクロールし、テキスト挿入位置がモニター画面上に表示されなくなったことをシステムが検出した状態で再編集ジェスチャを実行すると、自動生成されたテキストオブジェクト選択リストから代替テキストオブジェクトを選択しても、テキスト挿入位置は、出力テキストの元の場所(すでに表示されていない)には戻らない。 In yet another embodiment, the user scrolls the display text area, the system that the text insertion point is no longer displayed on the monitor screen to perform the re-editing gestures in a state in which the detected text object selection list automatically generated be selected alternate text object from the text insertion point, it does not return to the original location of the output text (not already displayed). また別の態様では、システム設定から選択することにより、システムであらかじめ定められた再編集ジェスチャおよびその後の動作(例えば出力テキストの元の位置にテキスト挿入位置を戻すことなど)を設定できる。 In another embodiment, by selecting from the system configuration can be set a predetermined reedited gestures and subsequent operation in the system (for example, returning the text insertion position to the original position of the output text).

システムのこれらの機能は、テキスト入力効率を大幅に向上させる。 These features of the system, greatly improving the text input efficiency. 入力動作認識システムは、本質的に、多くの不正確に生成されたテキストオブジェクトを伴い、これらは通常以前生成したテキスト全体にランダムに散らばる。 Input operation recognition system, essentially, with a number of incorrectly generated text objects, which are scattered randomly throughout the text normally previously generated. 多くの場合、ユーザーは単に不正確に生成されたテキストオブジェクトを修正する必要があるだけで、修正後、それまでテキストを出力していた場所への入力を続行する。 Often, users only need to modify the text objects simply incorrectly generated, after correction, to continue the input to the location which outputted the text before. テキスト挿入位置を記録し自動で戻る機能は、テキスト挿入位置を元の位置へ戻す面倒な移動作業をなくすため、ユーザーへの大きなメリットとなる。 Function returning automatically records the text insertion point, to eliminate tedious mobile work to return the text insertion position to the original position, a great benefit to the user. エラー修復手順の効率を大幅に改善することにより、システムの全体効率は2つの面で大幅に向上する。 By significantly improve the efficiency of the error correction procedure, the overall efficiency of the system is greatly improved in two ways. まず、偶発的なエラーの修正が容易となり、時間が削減されるため、全体的な実効入力速度が向上する。 First, accidental error correction is facilitated, because the time is reduced, thereby improving the overall effective input rate. 次に、エラー修復プロセスがとても単純で容易なため、多くのユーザーの認識エラーの可能性に対する懸念が減少し、結果として入力動作がより迅速になり、正確性への懸念が減る。 Then, since error correction process is very simple and easy, reduced concerns over the possibility of recognition errors of many users, the input operation as a result is faster, reduces the concerns about accuracy. 多くの入力動作認識システムにおいて、これは、入力速度の向上に全体として効果がある。 In many input action recognition system, which is effective as a whole to improve the input speed.

また別の態様において、ユーザーがテキスト出力領域内でカーソルを移動させると、テキスト編集システムソフトウェア<164>はそれを検出し、カーソルが置かれた新しいテキスト挿入位置の状況に合わせて自動でシステム動作を変更する。 In yet another embodiment, when the user moves the cursor in the text output area, a text editing system software <164> will detect it, the system operates automatically according to the situation of the new text insertion point cursor is placed to change the. 一態様では、生成する単語間にスペースを自動出力する場合に、テキスト挿入位置が新しい文脈へ移動したことを検出すると、システムは、新しい文脈で1つ目の単語を出力するまでスペースの自動出力をオフにする。 In one embodiment, in the case of automatic output spaces between words to generate, when detecting that the text insertion point is moved to a new context, system, space automatic output until the output first word in a new context to turn off. また別の態様では、テキスト挿入位置が新しい文脈へ移動したことをシステムが検出し、かかる自動スペース設定がオンになっていた場合、システムは、新しいテキスト挿入位置の左側にある文字を調べ、テキスト挿入位置の左にある文字が「空白」文字の場合、および/またはテキスト挿入位置がテキストフィールドの先頭にある場合、および/またはテキストフィールドがパスワード入力フィールドの場合、システムは新しい文脈で1つ目の単語を出力するまでスペースの自動出力をオフにする。 In another aspect, when the text insertion point system detects that it has moved to a new context, such an automatic space set was turned on, the system checks the character to the left of the new text insertion point, the text If the character to the left of the insertion position is "blank" character, and / or if the text insertion point is at the beginning of the text field, and / or if the text field is a password input field, the system is one in a new context eye to turn off the automatic output of space to the output of the word.

別の態様では、ユーザーがテキストオブジェクトを再編集する際、1つ以上の代替テキストオブジェクトのリストがユーザーに提示されるため、ユーザーが本来意図するテキストオブジェクトを選択することができる。 In another aspect, when the user re-edit a text object, because the list of one or more alternate text objects is presented to the user can select a text object that the user originally intended. これらの代替テキストオブジェクトは、再編集されるテキストオブジェクトに対して、システムにより最初にマップされた1つ以上の入力動作の入力動作認識システムによる代替「マッピング」に対応する。 These alternative text object, for text objects that are re-edited, corresponding to first replacement by the input operation recognition system of one or more input action mapped "mapped" by the system. 別の態様では、ユーザーが選択できる代替テキストオブジェクトのリストが特別なグラフィカル表示によって提示されるので、ユーザーは単純かつ直感的なジェスチャによって希望の選択肢を指定できる。 In another aspect, because the list of alternate text objects with which the user can select is presented by a special graphical display, the user can specify a choice of hope by a simple and intuitive gestures. 通常、このジェスチャには従来の技術で使用されるメニュー選択方法に必要な精度は要求されず、意図されたオブジェクトの選択処理にかかる時間を短縮することで、再編集手順を迅速にする。 Usually, this gesture required accuracy menu selection method used in the prior art are not required, to shorten the time required for the selection process of the intended object, to quickly re-edit procedure. 別の態様では、これと同じ特別なグラフィカルメニュー表示がユーザーインターフェースの他の箇所でも利用されるため、システム内の他の箇所における2つ以上の代替選択肢からの選択に要する時間も同様に短縮される。 In another embodiment, for the same special graphical menu display and this is also used elsewhere in the user interface, it is also reduced in the same manner the time required to select from two or more alternatives elsewhere in the system that. 本発明のグラフィカル表示およびジェスチャ表示による選択方法は、提示された1つ以上の代替選択肢が、ユーザーが意図する選択肢となる事前確率の平均よりも高い場合、特に有効である。 Selection method according to the graphical display and gesture display of the present invention, one or more alternatives presented is higher than the average of the prior probability of choices from which the user intended, is particularly effective. これは、ユーザーに選択肢が提供される多くの場合に当てはまる。 This is the case for many choices to the user is provided.

図3Aは、本発明の方法の利点を有する一つの方法で構成されたメニュー300の一例を示したものである。 Figure 3A is a diagram showing an example of a menu 300 that is configured in one way with the advantage of the process of the present invention. 図3Aに示される例は、次の6つの選択サブ領域を含む。 Example shown in FIG. 3A comprises the following six selected sub-regions. これらは、選択肢1から選択肢5に対する5つの選択サブ領域301〜305、そしてこの選択がメニュー300をキャンセルする動作であることを明示するアイコンが付いた6番目のサブ領域306である。 These five selected subregions from option 1 for option 5 301-305, and a sixth sub-region 306 demonstrates icon with that this selection is the operation to cancel the menu 300. 6つの各選択サブ領域301〜306は、メニュー300の周辺境界線に対応するセグメント311〜316に関連している。 Each of the six selected subregion 301-306 is associated with segment 311 to 316 corresponding to the peripheral boundary of the menu 300. 本発明において、メニュー選択を行うには、まず画面上で、メニューの最も外側の周辺境界線で囲まれる領域内の任意の場所に接触する。 In the present invention, to perform a menu selection, first on the screen, in contact with anywhere within the region surrounded by the outermost peripheral border of the menu. 画面との接触を保ちながら、希望の選択肢と関連したメニュー境界線セグメントを通り抜けて、メニュー領域から退出する経路をたどる。 While maintaining contact with the screen, through the menu border segments associated with the desired option, it follows the path exiting the menu area. 次に、メニュー300周辺境界線の外部の場所で、画面との接触を解除することによって(例:スタイラスを離す)接触動作を終了する。 Then, at an external location menu 300 near the boundary line, by releasing the contact between the screen (eg release the stylus) to end the contact operation. または、接触動作がメニュー領域から退出すると、直ちにメニュー選択が効果的に行わる。 Or, when the contact operation exits the menu area immediately menu selection is effectively Okonawaru. この場合、接触動作を終了する必要はない。 In this case, it is not necessary to end the contact operation. メニュー選択を効果的に行うため、接触動作の終了が要求されるので、ユーザーは接触を解除せずにメニュー領域に再び入り込み、保留中の選択を修正することができ、メニュー境界線の別のセグメントを通り抜けてから接触動作を終了することができる。 To perform the menu selection effectively, because the end of the contact operation is required, the user again enters the menu area without releasing the contact, it is possible to modify the selection of the pending another menu border it is possible to end the contact operation from the pass through the segment. ここで説明されている例には、タッチスクリーンの使用が含まれており、画面との接触および接触解除の動作により、スタイラス(または指、その他の接触手段)の位置によって決定される制御ポイントが効果的に「有効」または「無効」になるが、その他のアプローチは本発明の範囲外とみなされるものではない。 In the example described herein, the use of touch screens are included, by the operation of the contact and touch release with screen, the control point which is determined by the position of the stylus (or finger, other contact means) effectively becomes a "valid" or "invalid", other approaches are not to be considered outside the scope of the present invention. 例えば、制御ポイントは、マウスの移動によって制御されるカーソルになり得る。 For example, the control point may be a cursor controlled by the movement of the mouse. この場合、マウスボタンをクリックするまたは放すことによって、制御ポイントが「有効」または「無効」になる。 In this case, by releasing or click the mouse button, the control point becomes "valid" or "invalid".

図3Aにおいて、メニュー選択サブ領域に関連のあるメニュー300の周辺境界線セグメントは、メニュー選択サブ領域自体の周辺境界線の一部でもあるメニューの周辺境界線セグメントである。 3A, the peripheral border segment of the menu 300 that are relevant to the menu selection subregion is a peripheral border segment of the menu, which is also a part of the menu selection sub-regions itself around the border. 図3Aに示されるメニューの例において、選択サブ領域301内にある選択肢1は、メニュー300の上部境界線全体を構成する、メニュー周辺境界線セグメント311に関連がある。 In the example of the menu shown in Figure 3A, option 1 in the selected sub-region 301, constitutes the entire upper boundary line of the menu 300, there is a menu-related peripheral border segment 311. 選択肢1を選択するには、メニュー300内の任意の場所で画面に接触し、上方向に移動して、上部のメニュー領域から退出し、画面との接触を解除する。 To select the option 1 is in contact with the screen anywhere in the menu 300, it moves upward, and exit from the top of the menu area, releases the contact with the screen. 図4は、起点となる接触位置401から開始し、周辺境界線セグメント311上にある退出位置402からメニューを退出し、最終接触位置403で終了する接触動作400の例を示したものである。 Figure 4 starts from a contact position 401 as the starting point, to exit the menu from the withdrawal position 402 located on the peripheral border segment 311, it illustrates an example of a contact operation 400 to end at the final contact position 403. 接触動作400の結果として、最初の接触位置が「選択肢3」に関連のあるメニュー選択サブ領域303内にあるにもかかわらず、メニュー選択肢301(「選択肢1」)が選択される。 As a result of the contact operation 400, despite the first point of contact in the menu selection sub-region 303 that are relevant to "Option 3" menu choice 301 ( "Option 1") is selected.

本発明の利点の1つは、接触動作が正確性をさほど必要としないため、非常に迅速に実行され、全般的にユーザーによるメニュー選択が迅速化されることにある。 One of the advantages of the present invention, the contact operation is not requires less accuracy is performed very quickly, in the menu selection is faster by general users. 特定のメニュー選択肢が選択される事前見込みが高い場合、利点はさらに大きくなる。 When there is a high pre likelihood that a particular menu choice is selected, an advantage is further increased. 例えば、図3Aに示されるメニューにおいて、メニュー選択肢301(「選択肢1」)および305(「選択肢5」)の一方が選択される確率は、選択肢302、303、または304のいずれかが選択される確率の2倍以上であることが事前に判明していると仮定する。 For example, the menu shown in Figure 3A, the probability that one is selected in the menu option 301 ( "Option 1") and 305 ( "Choice 5") is one of choices 302, 303 or 304, is selected it is assumed that it is known in advance is equal to or greater than 2 times the probability. 図3Aに示されるメニューの例は、メニュー周辺境界線の上部境界線セグメント311全体が「選択肢1」の選択サブ領域301に関連付けられ、メニュー周辺境界線の下部境界線セグメント315が「選択肢5」の選択サブ領域305に関連付けられるように設計されている。 Examples of menu shown in Figure 3A, the entire upper boundary line segment 311 of the menu peripheral border associated with the selected sub-region 301 of the "Option 1", the lower boundary line segment 315 of the menu peripheral border "Choice 5" It is designed to be associated with the selected sub-region 305. このメニュー例では、セグメント311と315の両方の長さは、セグメント312、313、および314(それぞれ選択サブ領域302、303、および304に関連する)の長さの約3倍となる。 This menu example, the length of both segments 311 and 315, segments 312, 313, and 314 is about 3 times the length of (the respective selected sub-regions 302, 303, and associated 304). つまり、対応するセグメントを通過してメニューを退出する経路を素早くたどる際の誤差の許容範囲が大きいため、「選択肢1」と「選択肢5」を選択するのが非常に容易になる。 In other words, since the allowable range of error in follow quickly a path exiting the menu through the corresponding segment is large, to select the "Choice 5" and "Option 1" becomes very easy. さまざまなメニュー選択サブ領域を簡単に設計できるため、関連のある周辺境界線セグメントの相対的な長さは、妥当な許容範囲において、さまざまなメニュー選択の相対的な期待確率に近似する。 The ability to easily design a variety of menu selection sub-regions, the relative lengths of the peripheral border segment that are related, in a reasonable tolerance, to approximate the relative expected probabilities of the various menu selections.

本発明の別の重要な利点は、最も外側にあるメニュー周辺境界線に囲まれた領域内で開始され、一度も周辺境界線を通過してメニューを退出することのない接触動作は、従来のメニュー選択とみなされることにある。 Another important advantage of the present invention, the outermost to be initiated in the region surrounded by the menu near the boundary line with the contact operation without exiting the menu through the well near the boundary line once, conventional It is to be regarded as a menu selection. つまり、メニュー選択サブ領域の「タップ」による選択とみなされる。 In other words, it is regarded as selected by the "tap" of the menu selection sub-regions. これにより、この新しいメニュー選択アプローチに関する説明または情報がユーザーに提供されていないシステムに、本発明によって改善されたメニュー選択アプローチを導入することができる。 Thus, it is possible explanation or information about the new menu selection approach is a system that is not provided to the user to introduce a menu selection approach was improved by the present invention. 新しい選択アプローチをまったく知らないユーザーは、新しいメニュー選択方法が発見されるか、紹介されるまで、従来のメニュー選択である「タッピング」を引き続き使用できる。 Users who do not at all know the new selection approach, or a new menu selection method is found, until it is introduced, which is a conventional menu select the "tapping" can continue to use. これにより、事前確率が非常に低いメニュー選択項目は、メニュー選択肢の周辺境界線にメニューの外部境界線セグメントが一切含まれない「境界線のない」メニュー選択肢として表示できるため、メニュー設計に関する柔軟性も向上する。 As a result, the prior probability is very low menu choices, because that can be displayed as a "no boundary line" menu option menu outer boundary line segment of the peripheral boundary line of the menu choices are not included at all, flexibility in terms of menu design It is also improved. この結果、使用可能なメニュー周辺境界線の長さが増加し、確率の高い他のメニュー選択肢に割り当てることが可能となる。 As a result, it increases the length of the menu near the boundary line can be used, it is possible to assign the other menu choices probable. 例えば、図3Bには、図3Aに示されているのと同じ選択肢のセットを使用したメニュー配置の例が示されている。 For example, in Figure 3B, an example of a menu arrangement using the same set of options as shown in Figure 3A is shown. ただし、図3Bに示されるメニュー選択肢セットのメニュー配置では、「選択肢2」(322)が選択される事前確率が図3Aにおける確率よりもはるかに高いことを示している。 However, the menu arrangement of menu options set shown in FIG. 3B, the prior probability of "Option 2" (322) is selected indicates that much higher than the probability in FIG. 3A. 図3Bの例では、メニューの右側にある332全体が「選択肢2」に関連があり、「選択肢3」と「選択肢4」の両方は、関連のあるメニュー選択サブ領域323と324内で、画面に直に接触することで選択する必要があり、希望のメニュー選択サブ領域から退出せずに接触を解除する(例:従来のメニュー選択である「タッピング」を使用)選択する必要がある。 In the example of Figure 3B, it has an associated total 332 on the right-hand menu to "Alternative 2", both the "Option 3" and "Option 4" is within the menu selection subregion 323 that is associated 324, screen the need to select by direct contact, to release the contact without exit the menu selection subregion desired (e.g. using the "tapping" is a conventional menu selection) must be selected.

同様の設計原理は、2つのサブメニューを組み合わせることによって、より多くの選択肢を持つメニューに効果的に使用できる。 Similar design principles, by combining two sub-menus, can be effectively used in the menu with more choices. 図5は8つの選択サブ領域501〜508を持つメニュー500を示す。 Figure 5 illustrates a menu 500 having eight selection sub-regions 501-508. 選択サブ領域501〜504は共に最初のサブメニュー領域521を構成し、サブ領域505〜508は共に第2のサブメニュー領域522を構成する。 Selection sub-regions 501 to 504 together constitute a first sub-menu region 521, sub-regions 505 to 508 constitute together the second sub-menu region 522. 選択サブ領域501〜504はサブメニュー521周辺境界セグメント511〜514と関連し、選択サブ領域505〜508はサブメニュー522周辺境界セグメント515〜518と関連している。 Selection sub-regions 501-504 associated with the sub-menu 521 near boundary segment 511-514, selected sub-regions 505 to 508 are associated with sub-menu 522 near boundary segment 515-518. サブメニュー521周辺境界セグメント514およびサブメニュー522周辺境界セグメント515は、メニュー500の外周境界に沿ってあるのではなく、それ自体がメニュー500の内部にある同じラインセグメント(514/515)であることに注意すべきである。 Submenu 521 near boundary segment 514 and submenus 522 near boundary segment 515, rather than lying along the outer periphery boundary of the menu 500, it is per se the same line segment is within the menu 500 (514/515) it should be noted. これは問題ではないが、メニュー選択504と505の選択動作は、ラインセグメント(514/515)が交差する方向および最初の接触がなされるサブメニュー領域が異なる。 This is not a problem, the selecting operation of the menu selection 504 and 505, the sub menu area is different to the line segments (514/515) of the direction and the first contact that intersects made. サブメニュー521の領域にある最初の接触場所を持ち、ラインセグメント(514/515)を下向きに交差する接触動作は、メニュー選択504の一義的な選択である一方、サブメニュー522の領域にある最初の接触場所を持ち、ラインセグメント(514/515)を上向きに交差する接触行為は、メニュー選択505の一義的選択である。 It has a first contact location in the region of the sub-menus 521, the contact operation which intersects the line segment (514/515) downwards, whereas an unambiguous selection of the menu selection 504, in the region of the sub-menu 522 First contact acts have a contact place, crossing the line segments (514/515) upward is unambiguous selection of the menu selection 505. 他の実施形態では、サブメニューの領域内の最初の接触の検出時に最初の接触場所を含むサブメニューが視覚的にハイライトされ、サブメニューの外周を交差することによりサブメニューに存在するパスをトレースして選択することのできる(サブメニュー内に含まれる)メニュー選択肢のセットを表示する。 In other embodiments, the sub-menu containing the first contact location is visually highlighted upon detection of initial contact in the region of the sub-menu, the path existing in the submenu by intersection of the outer periphery of the submenu can be selected by tracing (included in the sub menu) displays a set of menu choice.

メニューの周辺境界のセグメントとメニュー選択肢を関連付ける最も直接的な方法は、それ自体がメニュー選択肢の周辺境界の一部でもあるメニューの周辺境界のセグメントを関連付けることである(上記に説明の通り)。 The most direct way to associate a segment and menu choice near the boundary of the menu itself is to associate the segments of the peripheral boundary of the menu, which is also a part of the peripheral boundary of the menu choice (as described above in the description). 他の方法も可能であり、本発明の範囲外とはみなされるべきではない。 Other methods are possible, it should not be considered outside the scope of the present invention. 例えば、各メニュー選択と関連する領域は異なる特徴的な背景(またはフォント)色で表示され、関連するメニューの周辺境界セグメントは対応する関連(または同一の)色で表示される。 For example, regions associated with each menu selection is displayed in a characteristic background (or font) different colors, near boundary segment of the associated menu is displayed in the corresponding related (or identical) colors. 例えば図3Cでは、6つのメニュー選択肢341〜346はそれぞれ、オレンジ(341)、黄(342)、緑(343)、青(344)、紫(345)、赤(346)の背景色で表示され、対応するメニュー周辺境界セグメントはそれぞれ、オレンジ(351)、黄(352)、緑(353)、青(354)、紫(355)、赤(356)のセグメントとして表示される。 For example, in Figure 3C, each of the six menu choice 341-346, orange (341), yellow (342), green (343), and blue (344), purple (345), is displayed in a red background (346) , each menu peripheral boundary segment the corresponding, orange (351), yellow (352), green (353), blue (354), purple (355), is displayed as a segment of red (356). あるいは、6つのメニュー選択肢341〜346はそれぞれ、明るいオレンジ、淡黄色、薄緑、薄青色、薄紫、明るい赤の背景色で表示することができ(明るい背景色によって各メニュー項目を読みやすくするため)、対応するメニュー周辺境界セグメントはそれぞれ、鮮明なオレンジ(351)、黄(352)、緑(353)、青(354)、紫(355)、赤(356)のセグメントとして表示されうる。 Alternatively, each of the six menu choice 341-346, bright orange, light yellow, light green, light blue, light purple, for readability each menu item by a bright red can be displayed in the background color (light background ), each corresponding menu peripheral boundary segment, vivid orange (351), yellow (352), green (353), and blue (354), purple (355) may be displayed as a segment of a red (356). 2つのアプローチの組み合わせにより、色と周辺境界セグメントの近傍によりどのメニュー選択サブ領域が関連しているかを明らかにする場所において、使用する色を少なくすることができる。 The combination of the two approaches, the one that reveals location which menu selection subregions by the vicinity of the color and the peripheral boundary segment is associated, it is possible to reduce the color to be used. このように、メニューは図3Cに示す例のように表示することができ、各メニュー選択サブ領域は図3Aに示されるようなより複雑な多角形ではなく、従来型の長方形として表される。 Thus, the menu can be displayed as in the example shown in FIG. 3C, each menu select sub-regions is not more complex polygon such as shown in FIG. 3A, represented as a conventional rectangular. 別の態様では、色の代わりにパターンまたは濃淡を使って、さまざまなメニューサブ領域を区別し、サブ領域と対応するメニュー周辺境界セグメントを関連付けることが可能である。 In another aspect, using the pattern or shading instead of color, to distinguish between different menu subareas, it is possible to associate a menu peripheral boundary segment and the corresponding sub-region.

さらに図6に示されるように、メニュー構造500は、各ケースで必要なメニュー選択動作を簡単かつ直感的にするために、一貫した4色のカラースキームを使用することができる。 As further shown in FIG. 6, the menu structure 500, for simplicity and intuitive menu selection operations necessary in each case can be used consistent four-color scheme. 例えば、メニュー選択サブ領域501と505は青の背景、サブ領域502と506は赤の背景、サブ領域503と507は黄色の背景、サブ領域504と508は緑の背景で表示できる。 For example, a menu selection subregion 501 505 blue background, the subregion 502 506 red background, the sub-region 503 and 507 yellow background, subregions 504 and 508 can be displayed in green background. するとユーザーは次の事のみを覚えておけばよい。 Then the user can if you remember only the next thing. 青の背景−下をタップして上向きになでる。 Blue background - stroking upward by tapping the bottom. 赤の背景−近くをタップして右向きになでる。 Red background - stroking to the right by tapping the close. 黄色の背景−近くをタップして左向きになでる。 Yellow background - stroking to the left by tapping the close. 緑の背景−上をタップして下向きになでる。 Green background - by tapping on the stroking downward. この特定のスキームは簡略記憶記号のようなものでもある。 This particular scheme is also like a mnemonic. 青−「空に向かって」、緑−「地球に向かって」、「赤は右へ」、そして「黄色は左へ」など。 Blue - "sky", green - "towards the Earth", such as "red is to the right", and "yellow is to the left." このモジュラーアプローチでは、任意の数の選択肢を持つメニューを、本発明の原理を使用して構築することができる。 In this modular approach, a menu with any number of choices can be constructed using the principles of the present invention.

上記のように、本発明の実施形態を図解、説明してきたが、本発明の精神と範囲から逸脱することなく、多くの変更をすることが可能である。 As described above, the embodiments of the present invention illustrated have been shown and described, without departing from the spirit and scope of the present invention, it is possible to make many changes. 従って、方法の範囲は、上記に説明された特定の態様によってではなく、添付の請求項およびその法的同等物により決定されるべきである。 Accordingly, the scope of the process, rather than by the specific embodiments described above, should be determined by the claims and their legal equivalents attached.
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Hereinafter, note the invention described in the scope of the original claims of the Applicant.
[1] [1]
ユーザーの入力動作を検出してテキストを生成および編集する少なくとも1つの入力システム、および当該テキストを当該ユーザーに表示する少なくとも1つのテキスト表示システムから成るユーザーインターフェースを持つ電子機器上の入力および編集方法であって、 In at least one input system, and the input and editing on the electronic device having a user interface comprising at least one text display system for displaying the text to the user by detecting the user's input operation to generate and edit text there,
次に生成されるテキストオブジェクトが出力される当該テキスト表示システム内でのテキスト挿入位置の記録、 Recording the text insertion position in the text display system text object to be next generated is output,
当該テキスト表示システムへの1つまたは複数の当該テキストオブジェクト出力を識別するための特徴的入力動作の検出、 Detection of the characteristic input operation to identify one or more of the text object output to the text display system,
検出された特徴的入力動作に基づく1つまたは複数の当該テキストオブジェクトの以前の出力の特定、 Particular previous output of one or more of the text object based on the detected characteristic input operation,
1つまたは複数の当該特定テキストオブジェクトが前に判定された、1つまたは複数の入力動作に対応する1つまたは複数の代替テキストオブジェクトの判定、 One or more of the specific text object is determined prior to the determination of one or more alternate text objects corresponding to one or more input operation,
1つまたは複数の当該判定代替テキストオブジェクトと、1つまたは複数の以前に出力された当該特定テキストオブジェクトとの置換、 And one or more of the determination alternate text objects, substitution with the specified text object is output one or more previously,
当該テキスト挿入位置の、当該入力動作の検出以前の記録場所への復元、を具備する方法。 How to provision of the text insertion point, restore to detect previous recording location of the input operation, the.
[2] [2]
[1]の方法において、さらに、テキスト表示システム上の1つまたは複数の当該判定代替テキストオブジェクトを、ユーザーに表示し、当該特定の以前に出力された1つまたは複数のテキストオブジェクト置換のため、表示されたテキストオブジェクトの1つを選択することを具備する方法。 In the method of [1], further, one or more of the determination alternate text object on the text display system, and displays it to the user, for the particular one output earlier or more text objects substituted, how comprising selecting one of the displayed text object.
[3] [3]
[1]の方法において、さらに、当該の特徴的入力動作と関連する当該テキスト表示システム内の場所を判定し、当該判定場所に最も近いテキスト表示システムに対する以前に出力されたテキストオブジェクトを特定することを具備する方法。 In the method of [1], further, that determines a location in the text display system associated with the characteristic input operation, identifies the text object which is output earlier to the nearest text display system on the determination place the method comprising the.
[4] [4]
[1]の方法において、さらに、1つまたは複数の出力テキストオブジェクト間に1つまたは複数のスペースを自動的に生成することを具備する方法。 In the method of [1], further, a method comprising the automatically generating the one or more spaces between one or more output text object.
[5] [5]
[4]の方法において、さらに、2つ以上のクラスのテキストオブジェクトクラスに属する2つ以上のテキストオブジェクトを特定することを具備し、2つ以上の当該各テキストオブジェクトクラスは、当該クラスに属するテキストオブジェクトの出力の前または後の少なくとも1つで、1つまたは複数のスペースを自動的に生成する方法において他のクラスと異なる、方法。 In the method of [4], further comprising identifying a two or more text objects that belong to the text object class more than one class, two or more of each of the text object class, text belonging to the class at least one of before or after the output of the object, a method of automatically generating one or more spaces different from other classes, methods.
[6] [6]
[5]の方法において、さらに、当該テキストオブジェクトクラスの異なるクラスに属するテキストオブジェクトと差し替えられるテキストオブジェクトの前か後の少なくとも1つに位置するスペースを自動的に挿入または削除することの少なくとも1つを具備する方法。 In the method of [5], further, at least one of to automatically insert or remove the space located on at least one of before or after the text object is replaced with text objects belonging to different classes of the text object class the method comprising the.
[7] [7]
[5]の方法において、さらに、当該テキスト挿入位置の変更を検出すること、また変更されたテキスト挿入場所における、次のテキストオブジェクト出力の前または後の少なくとも1つで、当該テキスト挿入場所に直接隣接するテキストオブジェクトに関連する当該テキストオブジェクトクラスに関して、また当該変更テキスト挿入場所に直接隣接するすべてのスペースに関して、1つまたは複数のスペースが自動的に生成される方法を変えること、を具備する方法。 In the method of [5], further, it detects the change of the text insertion point, also in the modified text insertion location, at least one of before or after the next text object output, the text insertion location directly into regard adjacent the text object classes associated with the text object, also with respect to all space immediately adjacent to said changed text insertion location, the method comprising altering the method of one or more spaces is automatically generated, the .
[8] [8]
[4]の方法において、さらに、特徴的なユーザー入力動作を検出して次に生成されたテキストオブジェクトの出力に関連した当該スペースの自動的な生成を不可能にし、かつ、次に生成された当該テキストオブジェクトの出力に続き、当該する自動的なスペース生成を自動的に再び可能にすること、を具備する方法。 In the method of [4], further, impossible to automatic generation of the space associated with the output characteristic to detect a user input operation then generated text object, and then the generated Following the output of the text object, the method comprising the, to the automatically re-enabled automatic space generated for.
[9] [9]
[4]の方法において、さらに、特徴的なユーザー入力動作を検出して、当該する自動的に生成されたスペースの内、最も直近に発生成されたものを削除することを具備する方法。 In the method of [4], further, by detecting the characteristic user input operation, among the automatically generated space for the method comprising the deletion of the most recently been made occurred.
[10] [10]
[1]の方法において、さらに、テキスト表示システムに2つ以上の決定された代替テキストオブジェクトを表示し、意図されたテキストオブジェクトを置き換える代替テキストオブジェクトを特定するためにユーザーの選択を検出することを具備する方法。 In the method of [1], further, detecting a user selection to display two or more of the determined alternate text objects into the text display system, identifies the alternative text object that replaces the intended text objects the method comprising.
[11] [11]
[10]の方法において、さらに、指示されたテキストオブジェクトの代替として表示された代替テキストオブジェクトを選択する前に、当該ユーザーが1つ以上の別の入力動作を行い、テキスト挿入位置の復元が行われず、特定されたテキストオブジェクトがテキスト挿入位置として選択されていることで、1つ以上の別の入力動作の結果が意図されたテキストオブジェクトを修正または置換することを具備する方法。 In the method of [10], further, before selecting the alternate text objects displayed as an alternative to the indicated text object, the user performs one or more other input operation, performed to restore the text insertion position It is not, by the specified text object is selected as a text insertion point, the method comprising the modifying or replacing the text object in which one or more further input operation result of is intended.
[12] [12]
[1]の方法において、さらに、特定されたテキストオブジェクトを置き換えるための決定された代替テキストオブジェクトの内、検出された入力動作に対して次に最も一致するテキストオブジェクトとして決定された1つ以上の代替テキストオブジェクトを自動的に特定することを具備する方法。 In the method of [1], further, among the determined alternate text object to replace the identified text object, one or more determined as a text object which will be most consistent with respect to the detected input operation how comprising to automatically identify an alternate text objects.
[13] [13]
[1]の方法において、さらに、テキスト挿入位置が当該テキスト表示システムで可視である位置にはない場合、特徴的な入力動作が検出される以前に記録された位置にテキスト表示システム中のテキスト挿入位置を復元しないことを具備する方法。 In the method of [1], further, text insertion of text insertion if the position is not in the position which is visible in the text display system, distinctive text display during system input operation it is previously recorded detected position how comprising that the position does not restore.
[14] [14]
テキストを入力および編集する装置であって、 An input and an apparatus for editing the text,
テキストを生成および編集する1つ以上のユーザーの入力動作を検出する1つ以上の入力装置、 One or more input devices for detecting an input operation of one or more users to generate and edit text,
ユーザーに生成されたテキストを表示する出力装置、 Output device for displaying the generated text to a user,
入力装置および出力装置に接続されているプロセッサーを具備し、そのプロセッサーは、 Comprising a processor that is connected to the input and output devices, its processor,
次に生成されるテキストオブジェクトが出力されるテキスト挿入位置を記録する第1部分、 First portion for recording the text insertion point where text object to be next generated is output,
以前に当該出力装置に出力された1つ以上の当該テキストオブジェクトを特定する特徴的な入力動作を検出する第2部分、 A second portion for detecting a characteristic input operation to identify one or more of the text object previously output to the output device,
検出された特徴的な入力動作に基づき1つ以上の以前に出力された当該テキストオブジェクトを特定する第3部分、 The third portion for specifying the text object is output one or more previously based on the detected characteristic input operation,
1つ以上の意図されたテキストオブジェクトを以前に決定した1つ以上の検出された入力動作に対応する1つ以上の代替テキストオブジェクトを決定する第4部分、 Fourth portion to determine one or more alternate text object corresponding one or more of the intended text object to one or more of the detected input operation previously determined,
1つ以上の決定された当該代替テキストオブジェクトで以前に出力された1つ以上の当該テキストオブジェクトを置き換える第5部分、 Fifth portion replacing one or more of the text object is output earlier in one or more determined the alternate text objects,
特徴的な入力動作が検出される前に記録された場所にテキスト挿入位置を復元する第6部分を具備する、装置。 Comprising a sixth portion for restoring the text insertion point in the location characteristic input operation is recorded before it is detected, device.
[15] [15]
[14]の装置において、さらに、当該プロセッサーは、以前に出力されて特定された1つ以上のテキストオブジェクトを置き換えるために表示されたテキストオブジェクト1つをユーザーが選択するために、当該出力装置に1つ以上の決定された当該代替テキストオブジェクトを表示する第7部分を具備する、装置。 The apparatus of [14], further, the processor, the text object one displayed to replace one or more text objects identified are outputted previously for the user to select, on the output device comprising a seventh portion for displaying the one or more determined the alternate text objects, device.
[16] [16]
[14]の装置において、さらに、当該プロセッサーは、特徴的な当該入力動作に関連した当該出力装置内の場所を決定する第7部分、 The apparatus of [14], further, the processor is a seventh portion which determines the characteristic places of the inside the output device associated with the input operation,
および以前に当該出力装置に出力されたテキストオブジェクトの内、決定された場所に最も近いものを特定する第8部分を具備する、装置。 And among the previously output to the output device text object, comprising an eighth portion for identifying the closest to the determined location, device.
[17] [17]
[14]の装置において、さらに、当該プロセッサーは、1つ以上の出力されたテキストオブジェクトの間に1つ以上のスペースを自動的に生成する第7部分を具備する、装置。 Apparatus [14], further, the processor comprises a seventh portion for automatically generating one or more space between the one or more output text object, device.
[18] [18]
[17]の装置において、さらに、当該プロセッサーは、2つ以上のクラスのテキストオブジェクトに属する2つ以上のテキストオブジェクトを特定する第8部分を具備し、前記2つ以上のテキストオブジェクトのそれぞれは、当該クラスに属するテキストオブジェクトが出力される場合に、1つ以上のスペースが自動的に生成され、少なくとも1つは出力の前または後に生成されるという点において他のクラスと異なる、装置。 The apparatus [17], further, the processor includes an eighth portion for identifying the two or more text objects that belong to more than one class of text objects, each of the two or more text objects, If the text object belonging to the class is output, is one or more spaces automatically generated, different from the other classes in that at least one is produced prior to the output or after device.
[19] [19]
[18]の装置において、さらに、当該プロセッサーは、 The apparatus of [18], further, is the processor,
当該テキストオブジェクトクラス内の別のクラスに属するテキストオブジェクトを置き換えるテキストオブジェクトの前か後の少なくとも1つに位置するスペースの自動的な挿入またはスペースの自動的な削除のための第8部分を具備する、装置。 Comprising an eighth portion for automatic deletion of automatic insertion or space a space located at least one previous post of another text object replace text objects belonging to a class in the text object class ,apparatus.
[20] [20]
[18]の装置において、さらに、当該プロセッサーは、 The apparatus of [18], further, is the processor,
テキスト挿入位置の変更を検出でき、そして、変更されたテキスト挿入位置に近接であるテキストオブジェクトに関連したテキストオブジェクトのクラスに対して、または変更されたテキスト挿入位置に近接であるスペースに対して、少なくとも1つ以上のスペースが自動的に生成される方法、すなわち、少なくとも変更された当該テキスト挿入位置にある次のテキストオブジェクトが出力される前または後少なくとも1つで自動的に生成されたスペースを修正する第9部分を具備する、装置。 Can detect a change in the text insertion point, and, with respect to space is close to the changed text insertion position with respect to the class of the text object associated with a text object is proximate to, or changed text insertion position, wherein at least one or more space is automatically generated, i.e., at least one is automatically generated space before or after the next text object in at least changed the text insertion point is output It comprises a ninth portion to fix, device.
[21] [21]
[17]の装置において、さらに、当該プロセッサーは、 The apparatus [17], further, is the processor,
特徴的なユーザー入力動作を検出して次に生成されたテキストオブジェクトに関連した自動的なスペースを生成することを不可能にし、かつ、次に生成されたテキストオブジェクトが出力された次第に、自動的にスペースを生成することを自動的に再び可能にする第8部分を具備する、装置。 Impossible to generate an automatic space associated with distinctive detects user input operation then generated text object, and gradually the next generated text object is output, automatically automatically includes an eighth portion again possible to generate a space, device.
[22] [22]
[17]の装置において、さらに、当該プロセッサーは、 The apparatus [17], further, is the processor,
特徴的なユーザー入力動作を検出して、自動的に生成されたスペースの内、直近に生成されたものを削除する第8部分を具備する、装置。 Detecting a characteristic user input operation, among the automatically generated space comprises an eighth portion for deleting the one generated most recently, device.
[23] [23]
[14]の装置において、さらに、当該プロセッサーは、 The apparatus of [14], further, is the processor,
当該出力装置の中の2つ以上の決定された代替テキストオブジェクトを表示する第7部分、および Two or more of the determined seventh portion that displays alternate text objects in the output device, and
意図されたテキストオブジェクトを置き換える代替テキストオブジェクトを特定するためにユーザーにより行われる選択を検出する第8部分を具備する、装置。 Comprising an eighth portion for detecting a selection made by a user in order to identify an alternate text object that replaces the intended text object device.
[24] [24]
[23]の装置において、さらに、当該プロセッサーは、 The apparatus of [23], further, is the processor,
指示されたテキストオブジェクトの代替として表示された代替テキストオブジェクトを選択する前に、ユーザーの1つ以上の別の入力動作を検出する第9部分、および Before selecting the alternate text objects displayed as an alternative to the indicated text object, a ninth portion to detect one or more different input operation of the user, and
以前の個所にテキスト挿入位置が復元されず、1つ以上の別な入力動作の結果としてテキストオブジェクトを修正または置換するように特定されたテキストオブジェクトを当該テキスト挿入位置として選択する第10部分を具備する、装置。 Text insertion point is not restored to its previous location, including a tenth part to select a particular text object to modify or replace text object as the text insertion position as a result of one or more different input operation to, equipment.
[25] [25]
[14]の装置において、さらに、当該プロセッサーは、 The apparatus of [14], further, is the processor,
指摘されたテキストオブジェクトを置き換えるために、決定された代替テキストオブジェクトの内、指摘されたテキストオブジェクトを生成した検出された当該入力動作に対して次に最も一致するテキストオブジェクトとして決定されている代替テキストオブジェクトを自動的に特定する第7部分を具備する、装置。 To replace the indicated text object, among the determined alternate text objects, pointed out then best match alternate text is determined as a text object on the detected the input operation to generate a text object comprising a seventh portion of automatically identifying objects, device.
[26] [26]
[14]の装置において、さらに、当該プロセッサーは、 The apparatus of [14], further, is the processor,
特徴的な入力動作が記録された以前のテキスト挿入位置の場所が当事に出力装置の可視であるテキストにはないということを決定する第7部分、および Seventh portion determines that the location of the previous text insertion position characteristic input operation is recorded not in the text is visible in the output device concerned, and
第7部分が記録された場所は当事に出力装置の可視であるテキストにはないということを決定する場合、第6部分が特徴的な入力動作が検出された以前に記録された個所にテキスト挿入位置を復元することを防ぐ第8部分を具備する、装置。 If the place where the seventh portion recorded determines that it is not the text is visible output device concerned, text location where the sixth part characteristic input operation has been recorded before the detection of comprising an eighth portion to prevent restoring the insertion position, device.
[27] [27]
電子ディスプレーの上に指摘された限られた領域の中に、ユーザーが制御ポイントを位置決め、移動、有効、無効にできるディスプレーにおいて、2つ以上の映像的な選択肢を表示する方法において、 Some pointed out the limited area on the electronic display, the user positions the control points, moving, effective in display can be disabled, in a method of displaying two or more images choice,
限られた領域の中に2つ以上の映像的な選択肢を提示すること、 Presenting two or more video choice in a limited area,
限られた領域の境界に対して1つ以上のセグメントを定義すること、 Defining one or more segments to the boundary of the limited area,
映像的な選択肢の内、特定の1つには1つ以上の指定されたセグメント間を独立的に関連付けること、 Among video choice, independently associate that between certain One one or more of the specified segment,
限られた領域内の制御ポイントの有効化を検出すること、 Detecting the activation of the control points of the limited area,
有効化された制御ポイントが限られた領域内から出るなど有効化された制御ポイントの動作を検知すること、 Sensing the operation of the enabled control point control point which is such as enabling exiting confined area,
有効化された制御ポイントが限られた領域内から出る際に通った独自の境界セグメントの1つを特定すること、 Identifying the one of the unique boundary segment passing through when exiting the validated control point is limited within the area,
特定された境界セグメントの元に、映像的に表示された選択肢を決定することを具備する方法。 Based on the identified boundary segment, the method comprising determining an option that is video displayed.
[28] [28]
[27]の方法において、さらに、それぞれの当該選択肢が限られた領域内にある独自に定義されたサブ領域内に表示され、指定された特定の該境のセグメントが1つのサブ領域の境界セグメント間を兼ねる境界セグメントで定義され、さらにサブ領域内に表示された選択肢がその兼ねられた境界の領域に特定に関連する、方法。 In the method of [27], further its own displays to the defined sub-regions, boundary segment of the specified particular segment is one sub-region of該境was in each of the options limited area It is defined by the boundary segment also serving between further displayed options related to the identified region of the doubles was boundary sub region method.
[29] [29]
[27]の方法において、1つ以上の色、映像的なパターン、または濃淡を使い1つ以上の選択肢が映像的に表示され、さらに、その独自関連付けられ定義された境界セグメントが同等またはそれ以上の色、映像的なパターン、または濃淡を使って表示される、方法。 In the method of [27], one or more colors, the image pattern or one or more choices using the density is image displaying, and further, its own associated defined boundary segment equal to or greater than color, is displayed using an image pattern or shading, method.
[30] [30]
[27]の方法において、さらに、限られた領域内で制御ポイントが有効化された場合、定義され限られた領域の映像的な表示を修正することを具備する方法。 In the method of [27], further limited if the control point is activated in the area, the method comprising modifying the image representation of a limited defined area.
[31] [31]
[27]の方法において、2つ以上の限られた当該領域の長さに対して、関係はユーザーがその2つ以上の定義された境界セグメントには独自に関連されて映像的に表示される選択肢をそれぞれ選択することの決定された確率の関係に関連する、方法。 In the method of [27], for two or more limited length of the region, the relationship the user is the video displaying is related uniquely to the two or more defined boundary segment related to the relationship of the determined probability of selecting options respectively, method.
[32] [32]
装置であって、 An apparatus,
選択されるための2つ以上の選択肢を映像的に発表する出力装置、 Output device for a video to announce more than one choice to be selected,
当該ディスプレーの上に、ユーザーが制御ポイントを位置決め、移動、有効、無効に指定するための2つ以上の入力動作を検出する入力装置、 Over the display, the user positions the control points, moving, effective, detects two or more input operation to disable the specified input device,
入力装置および出力装置にも接続されているプロセッサーを具備し、そのプロセッサーは、 Comprising a processor that is connected to an input device and an output device, its processor,
ディスプレーの上に、定義されて限定された領域の中に2つ以上の選択肢を映像的に表示する第1部分、 On the display, the first portion of the image to display two or more alternatives in a limited defined area,
該限定された領域の境界の2つ以上の特定のセグメントを指定する第2部分、 A second portion for specifying the two or more specific segments of the boundary of the restricted area,
1つ以上の定義されたセグメントをそれぞれ映像的に表示された選択肢の内特定の1つに独立的に関連させる第3部分、 Independently third part to relate one or more defined segments into one inner particular choices that have been image displaying respectively,
限定された領域内で制御ポイントが有効化された状態を検出する第4部分、 The fourth portion control points within a limited area to detect an activated state,
有効化された制御ポイントが限定された領域内から出るような次第の動作を検出する第5部分、 Fifth portion for detecting as soon the operation out of the enabled control point is limited within the area,
有効化された制御ポイントが限定された領域内から出る時に通った定義された境界セグメントを特定する第6部分、 Sixth portion that identifies a boundary segments defined passed upon exiting from the enabled control point is limited within the area,
特定された境界セグメントの元に、映像的に表示されている選択肢を決定する第6部分を具備する、装置。 Based on the identified boundary segment comprises a sixth portion which determines the choice being image displaying apparatus.
[33] [33]
[32]の装置において、当該プロセッサーは、さらに、 The apparatus of [32], the processor further
当該選択肢をそれぞれ独自に限定されたサブ領域内に表示する第7部分、 Seventh portion for displaying the choices within the sub-region which is uniquely limited respectively,
指定された特定の境界セグメントが1つのサブ領域の境界セグメントを兼ねる境界セグメントとして定義する第8部分、 Eighth portion particular boundary segment specified is defined as a boundary segment serving as a boundary segment of the one sub-region,
サブ領域の中に表示された選択肢をその兼ねられた境界セグメントの領域と関連付ける第9部分を具備する、装置。 The displayed choices comprises a ninth portion associated with the region of the boundary segments that are also as in the sub-region, device.
[34] [34]
[32]の装置において、さらに、当該プロセッサーは、 The apparatus of [32], further, is the processor,
1つ以上の色、映像的なパターン、または濃淡で1つ以上の選択肢を映像的に表示し、さらに、その独自に関連付けられ定義された境界セグメントを同等またはそれ以上の色、映像的なパターン、それに濃淡で表示する第7部分を具備する、装置。 One or more colors, the image pattern or image displaying the one or more choices by shading, further its own associated defined equivalent boundary segment or more colors, the image pattern, , it comprises a seventh portion which is shown by shading, device.
[35] [35]
[32]の装置において、さらに、当該プロセッサーは、 The apparatus of [32], further, is the processor,
限定された領域内で制御ポイントが有効化された状態を検出した場合、定義され限定された領域の映像的な表示を修正する第7部分を具備する、装置。 If limited area in the control point detects an activated state comprises a seventh portion for correcting an image representation of the defined limited area, device.
[36] [36]
[32]の装置において、さらに、2つ以上の限定された領域の長さに対して、関係はユーザーがその2つ以上の定義された境界セグメントと独自に関連付けられ映像的に表示された選択肢のそれぞれを選択することの決定された確率の関係に関連する、装置。 The apparatus of [32], further, the length of the two or more limited area, the relationship the user is the two or more defined boundary segments and uniquely associated image displaying choices of it associated with the determined probability of relationship selecting the respective device.

Claims (6)

  1. ユーザがテキストの入力および編集を行う最低1つの入力システムと、前記ユーザに前記テキストを表示する最低1つのテキスト表示システムから構成されるユーザインターフェースを備えた電子デバイスにおいてテキストを入力および編集する方法であって And at least one input system for a user to input and edit text, enter and edit Oite text to an electronic device with a user interface comprised of a minimum of one text display system for displaying the text to the user there is provided a method of,
    前記電子デバイスの第1のコンポーネントによって、ユーザによってわれた1つまたは複数の入力行為を検出し、 The first component of the electronic device, to detect one or more input actions that we row by the user,
    前記電子デバイスの第2のコンポーネントによって、前記ユーザによって行われた 1つまたは複数の入力行為に対応する1つまたは複数のテキストオブジェクトを判断するために前記ユーザによって行われた 1つまたは複数の入力行為を処理し、 The second component of the electronic device, to determine one or more text objects corresponding to one or more input actions taken by the user, one made by the user or more It processes the input act,
    前記電子デバイスの第3のコンポーネントによって、前記判断したテキストオブジェクトのうちの1つを識別し、 By the third component of the electronic device, identifies one of said decision text object,
    前記電子デバイスの第4のコンポーネントによって、前記識別したテキストオブジェクトを前記テキスト表示システム内の決まったテキスト挿入位置に出力し、 By the fourth component of the electronic device outputs a text object that the identified fixed text insertion point within the text display system,
    前記電子デバイスの第5のコンポーネントによって、次に識別されるテキストオブジェクトが出力される前記テキスト表示システム内の前記テキスト挿入位置の場所を記録し、 Wherein the fifth component of the electronic device, said recording the location of the text insertion point in the text display system next text object identified is output,
    前記電子デバイスの第6のコンポーネントによって、 ユーザによって行われた特定の入力行為を検出し、前記テキスト表示システムに先に出力された1つまたは複数の前記テキストオブジェクトを指し示し By the sixth component of the electronic device detects the specific input action made by the user, shown refers to one or more of the text object previously outputted to the text display system,
    前記電子デバイスの第7のコンポーネントによって、 ユーザがさらなる入力行為を行うこと無しに、1つまたは複数の代替のテキストオブジェクトを識別し、 ここで、前記1つまたは複数の代替のテキストオブジェクトは、前記検出された1つまたは複数の入力行為に対応すると判断されるものでもあり、1つまたは複数の前記指し示されたテキストオブジェクトは、前記検出された1つまたは複数の入力行為のうちから判断されたものである、 The seventh component of the electronic device, without the user to perform further input action, one or more alternate text objects to identify, wherein said one or text object of a plurality of alternative, There are also intended to be determined to correspond to the detected one or more input actions, one or more of the indicated text object, determining from among the detected one or more input actions it is those that have been,
    前記電子デバイスの第8のコンポーネントによって、1つまたは複数の前記指し示されたテキストオブジェクトを置き換えるために、代替のテキストオブジェクトの選択用として1つまたは複数の前記識別した代替のテキストオブジェクトを前記ユーザに表示し、 The eighth component of the electronic device, one or more to replace the pointed text object, wherein the one or text object of a plurality of the identified alternative for the selection of alternate text objects user It is displayed on the,
    前記指し示されたテキストオブジェクトを置き換えるために前記表示された代替のテキストオブジェクトのいずれかを選択する前に、前記ユーザが1つまたは複数の他の入力行為を行う場合に、 Before selecting one of the displayed alternative text object to replace the pointed text object, when the user performs one or more other input action,
    前記電子デバイスの第9のコンポーネントによって、前記1つまたは複数の他の入力行為によって前記指し示されたテキストオブジェクトが変更または置き換えられるように、前記指し示されたテキストオブジェクトを前記テキスト挿入位置として選択し、 The ninth components of the electronic device selected, the one or as text objects pointed to the a plurality of other input actions are modified or replaced, the pointed text object as the text insertion position and,
    さもなければ、 Otherwise,
    前記電子デバイスの第10のコンポーネントによって、前記テキスト表示システム内の1つまたは複数の前記指し示されたテキストオブジェクトを1つまたは複数の前記識別した代替のテキストオブジェクトに置き換えて、 Wherein the tenth component of the electronic device, by replacing one or more of the one pointed to text objects or more of said identified alternate text objects within the text display system,
    前記電子デバイスの第11のコンポーネントによって、前記テキスト表示システム内の前記テキスト挿入位置を前記特定の入力行為が検出される前に記録された場所に復元する、 By the 11 components of the electronic device, the text insertion point in the text display system, to restore the location where the particular input action is recorded before it is detected,
    ことを具備し、 It provided that,
    前記ユーザによって行われた特定の入力行為は前記テキスト挿入位置の前記場所を変更するために使用される行為ではない、方法。 Not the act is used for the particular input actions taken to change the location of the text insertion position by the user, process.
  2. 前記電子デバイスによって、前記ユーザによって行われた特定の入力為に関連する前記テキスト表示システム内の場所を判断し、前記判断された場所に最も近い前記テキスト表示システムに先に出力されたテキストオブジェクトを1つまたは複数の前記指し示されたテキストオブジェクトとして識別することをさらに具備する請求項1記載の方法。 By said electronic device, wherein the determining the location of the text display system, the text object previously outputted to the nearest the text display system in the determined location related to a specific input line made by the user the method of claim 1, further comprising identifying a as one or more of the pointed to text objects.
  3. 前記電子デバイスによって、1つまたは複数の出力されたテキストオブジェクトの間に1つまたは複数のスペースを自動的に生成することをさらに具備する請求項1記載の方法。 Wherein the electronic device, one or more of the output methods of claim 1, further comprising automatically generating the one or more spaces between the text object.
  4. 前記電子デバイスによって、テキストオブジェクトから成る2つかそれ以上のグループに属する2つかそれ以上のテキストオブジェクトを識別することと、ここで、前グループのうちの1つかそれ以上のグループに属するテキストオブジェクトの出力の直前および/または直後に1つかそれ以上のスペースが自動的に生成されることで、前記テキストオブジェクトから成る2つかそれ以上のグループのうちの各グループは、前記グループのうちの他のグループ、スペースの設定が異なる By said electronic device, and identifying the two or more text objects belonging to two or more groups consisting of text objects, where the text objects belonging to one or more groups of pre-Symbol Group of one or more spaces before and / or after the output that is automatically generated, each group of two or more groups consisting of the text object, another of said groups and the group, the setting of the space different,
    記テキストオブジェクトから成るグループのうち異なるグループに属するテキストオブジェクトを置き換えるテキストオブジェクトの直前および/または直後にスペースを自動的に挿入または削除すること And be automatically inserted or deleted immediately before and / or the space immediately after the text object to replace the text objects that belong to different groups of out of the group consisting of before Symbol text object,
    をさらに具備する請求項記載の方法。 Further method of claim 3 comprising a.
  5. 前記電子デバイスによって、前記指し示されたテキストオブジェクトを置き換える代替のテキストオブジェクトを自動的に識別することをさらに具備する請求項1記載の方法。 Wherein the electronic device, method of claim 1 further comprising that automatically identify the alternative text object replacing the pointed text object.
  6. テキスト入力装置であって A text input device,
    ユーザによって行われた 1つまたは複数の入力行為を検出する1つまたは複数の入力デバイスと、 One or a plurality of input devices that detect one or more input actions taken me by the user,
    生成したテキストをユーザに表示する出力デバイスと、 An output device for displaying the generated text to the user,
    前記入力デバイスおよび前記出力デバイスに結合されたプロセッサであって、 A processor coupled to the input device and the output device,
    ユーザによってわれた1つまたは複数の入力行為を検出するための第1のコンポーネントと、 A first component for detecting one or more input actions that we row by the user,
    前記ユーザによって行われた 1つまたは複数の入力行為に対応する1つまたは複数のテキストオブジェクトを判断するために前記ユーザによって行われた 1つまたは複数の入力行為を処理するための第2のコンポーネントと、 To determine one or more text objects corresponding to one or more input actions taken by the user, one made by the user or more input action a second for processing and components,
    前記判断したテキストオブジェクトのうちの1つを識別するための第3のコンポーネントと、 A third component for identifying one of said determined text object,
    前記識別したテキストオブジェクトを前記出力デバイスの決まったテキスト挿入位置に出力するための第4のコンポーネントと、 A fourth component for outputting a text object that the identified text insertion position the preformatted said output device,
    次に識別されるテキストオブジェクトが出力される前記テキスト挿入位置の場所を記録するための第5のコンポーネントと、 A fifth component for recording the location of the text insertion point where text object is output to be subsequently identified,
    ユーザによって行われた特定の入力行為を検出し、前記出力デバイスに先に出力された1つまたは複数の前記テキストオブジェクトを指し示すための第6のコンポーネントとここで、前記ユーザによって行われた特定の入力行為は前記テキスト挿入位置の前記場所を変更するために使用される行為ではない Detecting a specific input action made by the user, and the sixth component of Me indicates static refers to one or more of the text object previously outputted to the output device, wherein the line by the user not the act is used for a particular input act of cracking is to change the location of the text insertion point,
    ユーザがさらなる入力行為を行うこと無しに、1つまたは複数の代替のテキストオブジェクトを識別するための第7の構成要素と、 ここで、前記1つまたは複数の代替のテキストオブジェクトは、前記検出された1つまたは複数の入力行為に対応すると判断されるものでもあり、1つまたは複数の前記指し示されたテキストオブジェクトは、前記検出された1つまたは複数の入力行為のうちから判断されたものである、 Without the user to perform further input actions, and one or more alternate seventh component of for a text object that identifies the, wherein said one or text object of a plurality of alternative, the detection has been also in one or what is determined to correspond to a plurality of input action, one or more of the indicated text object is determined from among the detected one or more input actions is intended,
    1つまたは複数の前記指し示されたテキストオブジェクトを置き換えるために、代替のテキストオブジェクトの選択用として1つまたは複数の前記識別した代替のテキストオブジェクトを前記ユーザに表示するための第8のコンポーネントと、 To replace can one or place the plurality of said pointed to text objects, the one or text object of a plurality of the identified alternative for the selection of alternate text objects for display to the user 8 and components of,
    前記指し示されたテキストオブジェクトを置き換えるために前記表示された代替のテキストオブジェクトのいずれかを選択する前に、前記ユーザが1つまたは複数の他の入力行為を行う場合に、 Before selecting one of the displayed alternative text object to replace the pointed text object, when the user performs one or more other input action,
    前記1つまたは複数の他の入力行為によって前記指し示されたテキストオブジェクトが変更または置き換えられるように、前記指し示されたテキストオブジェクトを前記テキスト挿入位置として選択するための第9のコンポーネントと、 Said one or as text objects pointed to the a plurality of other input actions are modified or replaced, and ninth component for selecting the pointed text object as the text insertion position,
    さもなければ、 Otherwise,
    前記出力デバイスの1つまたは複数の前記指し示されたテキストオブジェクトを1つまたは複数の前記識別した代替のテキストオブジェクトに置き換えるための第10のコンポーネントと、 A tenth component to replace one or more of the indicated text object of the output device to one or more of said identified alternate text objects,
    前記出力デバイスの前記テキスト挿入位置を前記特定の入力行為検出される前に記録された場所に復元するための第11コンポーネントと The text insertion position of the output device, and a second 11 components to restore the place where the specific input action is recorded before it is detected,
    を具備する、プロセッサ Comprises a, and a processor,
    を具備するテキスト入力装置。 Text input device comprising a.
JP2009518347A 2003-01-16 2007-07-03 The system and method of the user interface for text editing and menu selection Active JP5661279B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US80652206P true 2006-07-03 2006-07-03
US60/806,522 2006-07-03
US11/533,714 US7382358B2 (en) 2003-01-16 2006-09-20 System and method for continuous stroke word-based text input
US11/533,714 2006-09-20
US91784907P true 2007-05-14 2007-05-14
US60/917,849 2007-05-14
PCT/US2007/015403 WO2008013658A2 (en) 2006-07-03 2007-07-03 System and method for a user interface for text editing and menu selection

Publications (2)

Publication Number Publication Date
JP2009543209A JP2009543209A (en) 2009-12-03
JP5661279B2 true JP5661279B2 (en) 2015-01-28

Family

ID=38981954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009518347A Active JP5661279B2 (en) 2003-01-16 2007-07-03 The system and method of the user interface for text editing and menu selection

Country Status (5)

Country Link
EP (1) EP2044587A4 (en)
JP (1) JP5661279B2 (en)
KR (1) KR101488537B1 (en)
CN (1) CN101529494B (en)
WO (1) WO2008013658A2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5438909B2 (en) * 2008-03-14 2014-03-12 ソニーモバイルコミュニケーションズ株式会社 Character input device, a character input support method, and character input support program
KR101412586B1 (en) * 2008-07-01 2014-07-02 엘지전자 주식회사 Method for input of mobile terminal
KR101633332B1 (en) 2009-09-30 2016-06-24 엘지전자 주식회사 Mobile terminal and Method of controlling the same
JP5486977B2 (en) * 2010-03-24 2014-05-07 株式会社日立ソリューションズ Coordinate input apparatus and program
CN101957724A (en) * 2010-10-05 2011-01-26 孙强国 Method for improving associated Pinyin character input
TWI490705B (en) * 2010-10-07 2015-07-01 Inventec Corp Editing system for text and method thereof
JP5609718B2 (en) * 2011-03-10 2014-10-22 富士通株式会社 Input support program, input support apparatus and input support method
EP2698692A4 (en) 2011-04-09 2015-07-08 Shanghai Chule Cootek Information Technology Co Ltd System and method for implementing sliding input of text based upon on-screen soft keyboard on electronic equipment
KR20130034747A (en) * 2011-09-29 2013-04-08 삼성전자주식회사 Method and apparatus for providing user interface in portable device
US8667414B2 (en) 2012-03-23 2014-03-04 Google Inc. Gestural input at a virtual keyboard
US9021380B2 (en) 2012-10-05 2015-04-28 Google Inc. Incremental multi-touch gesture recognition
US8782549B2 (en) 2012-10-05 2014-07-15 Google Inc. Incremental feature-based gesture-keyboard decoding
US8701032B1 (en) 2012-10-16 2014-04-15 Google Inc. Incremental multi-word recognition
US8850350B2 (en) 2012-10-16 2014-09-30 Google Inc. Partial gesture text entry
US8843845B2 (en) 2012-10-16 2014-09-23 Google Inc. Multi-gesture text input prediction
US8819574B2 (en) 2012-10-22 2014-08-26 Google Inc. Space prediction for text input
US8806384B2 (en) 2012-11-02 2014-08-12 Google Inc. Keyboard gestures for character string replacement
CN103838458B (en) * 2012-11-26 2017-05-10 北京三星通信技术研究有限公司 The method of controlling a mobile terminal and input method
US8832589B2 (en) 2013-01-15 2014-09-09 Google Inc. Touch keyboard using language and spatial models
US8887103B1 (en) 2013-04-22 2014-11-11 Google Inc. Dynamically-positioned character string suggestions for gesture typing
US9081500B2 (en) 2013-05-03 2015-07-14 Google Inc. Alternative hypothesis error correction for gesture typing
CN103399793B (en) * 2013-07-30 2017-08-08 珠海金山办公软件有限公司 A method for automatic switching systems and similar content
CN103533448B (en) * 2013-10-31 2017-12-08 乐视致新电子科技(天津)有限公司 Cursor control method and cursor control means smart TV
US10254959B2 (en) 2014-01-24 2019-04-09 Huawei Device (Dongguan) Co., Ltd. Method of inputting a character into a text string using a sliding touch gesture, and electronic device therefor
CN108664201A (en) * 2017-03-29 2018-10-16 北京搜狗科技发展有限公司 Text editing method, device and electronic device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5378736A (en) 1976-12-23 1978-07-12 Toshiba Corp Return mechanism to final input position
JPH0254555B2 (en) 1981-09-02 1990-11-21 Tokyo Shibaura Electric Co
JPH0754512B2 (en) 1986-12-10 1995-06-07 キヤノン株式会社 Document processing apparatus
US5574482A (en) * 1994-05-17 1996-11-12 Niemeier; Charles J. Method for data input on a touch-sensitive screen
JPH09293328A (en) 1996-04-25 1997-11-11 Olympus Optical Co Ltd Voice reproducer
US5953541A (en) * 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
JPH1115914A (en) * 1997-06-09 1999-01-22 Internatl Business Mach Corp <Ibm> Character data input device and its method
JPH11102361A (en) * 1997-09-29 1999-04-13 Nec Ic Microcomput Syst Ltd Character input correcting method and recording medium where procedure thereof is recorded
JP3082746B2 (en) * 1998-05-11 2000-08-28 日本電気株式会社 Voice recognition system
US7030863B2 (en) * 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
JP2001060192A (en) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> Character data corrector and storage medium
US7098896B2 (en) 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
JP4260777B2 (en) * 2004-07-22 2009-04-30 パナソニック株式会社 Semiconductor device and manufacturing method thereof
US20060071915A1 (en) * 2004-10-05 2006-04-06 Rehm Peter H Portable computer and method for taking notes with sketches and typed text
JP2006031725A (en) 2005-08-10 2006-02-02 Microsoft Corp Character processor

Also Published As

Publication number Publication date
EP2044587A4 (en) 2012-09-26
CN101529494B (en) 2012-01-04
JP2009543209A (en) 2009-12-03
KR101488537B1 (en) 2015-02-02
CN101529494A (en) 2009-09-09
EP2044587A2 (en) 2009-04-08
KR20090035570A (en) 2009-04-09
WO2008013658A3 (en) 2008-11-27
WO2008013658A2 (en) 2008-01-31

Similar Documents

Publication Publication Date Title
CN101393506B (en) Input methods for device having multi-language environment
US5845122A (en) Method and apparatus for allowing a user to select from a set of mutually exclusive options
JP5698845B2 (en) Device for operating the soft keyboard, the method and graphical user interface
US8525839B2 (en) Device, method, and graphical user interface for providing digital content products
KR101911088B1 (en) Haptic feedback assisted text manipulation
US9601113B2 (en) System, device and method for processing interlaced multimodal user input
KR101015291B1 (en) Text input window with auto-growth
US5825362A (en) Graphical user interface with keyboard display graphical
AU2012238304B2 (en) Device, method, and graphical user interface for configuring restricted interaction with a user interface
US9400567B2 (en) Explicit touch selection and cursor placement
US8744852B1 (en) Spoken interfaces
US8327282B2 (en) Extended keyboard user interface
US5252951A (en) Graphical user interface with gesture recognition in a multiapplication environment
US8884872B2 (en) Gesture-based repetition of key activations on a virtual keyboard
JP4890853B2 (en) Input control method for controlling the input by using the cursor
KR101366445B1 (en) Method, computer system, and computer readable storage medium for radial menus
AU2010350739B2 (en) Device, method, and graphical user interface for managing folders
US7453439B1 (en) System and method for continuous stroke word-based text input
US9507435B2 (en) Inline handwriting recognition and correction
RU2417399C2 (en) Gesture-based document editor
US20100185949A1 (en) Method for using gesture objects for computer control
US20190095040A1 (en) Electronic device operating according to pressure state of touch input and method thereof
US20130100031A1 (en) Directional input system with automatic correction
JP5094158B2 (en) The method of a terminal having a terminal and touch screen
US8140971B2 (en) Dynamic and intelligent hover assistance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130722

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140108

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140210

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141203

R150 Certificate of patent or registration of utility model

Ref document number: 5661279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250