JP2013218592A - Character input device - Google Patents

Character input device Download PDF

Info

Publication number
JP2013218592A
JP2013218592A JP2012089974A JP2012089974A JP2013218592A JP 2013218592 A JP2013218592 A JP 2013218592A JP 2012089974 A JP2012089974 A JP 2012089974A JP 2012089974 A JP2012089974 A JP 2012089974A JP 2013218592 A JP2013218592 A JP 2013218592A
Authority
JP
Japan
Prior art keywords
character
gesture
character string
input
gesture operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012089974A
Other languages
Japanese (ja)
Inventor
Tsutomu Iwanaga
力 岩永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012089974A priority Critical patent/JP2013218592A/en
Publication of JP2013218592A publication Critical patent/JP2013218592A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To more improve convenience by promoting the use of a gesture operation in the case of inputting handwritten characters.SOLUTION: A character input device for inputting a handwritten character via a touch panel module (handwritten character input mode), and for editing a recognized character string or a converted character string (edition mode) is configured to determine a current input mode, and to, when the current input mode is the handwritten character input mode, display the operation procedure of a gesture operation which can be used in the handwritten character input mode as a gesture guidance in a guidance display area (S330), and to, when the current input mode is the edition mode, display the operation procedure of the gesture operation which can be used in the edition mode in the guidance display area (S340 to S360). Thus, it is possible for a user to make the character input device execute various processing by using the gesture operation without memorizing the numerous operation procedures of the gesture operation or the input mode in which its use is possible.

Description

本発明は、複数の入力モードを有し、手書き文字列を入力して該手書き文字列の個々の文字を認識すると共に該認識した文字列をそのまま表示、または、該認識した文字列を第2の文字列に変換して表示する文字入力装置に関する。   The present invention has a plurality of input modes, and inputs a handwritten character string to recognize individual characters of the handwritten character string and displays the recognized character string as it is or displays the recognized character string as a second The present invention relates to a character input device that converts and displays the character string.

従来、この種の文字入力装置では、タッチパネルを用いて専用ペンによる手書き文字列を入力して文字認識や仮名漢字変換を行なったり、入力済みの文字列を編集したりするものが提案されている(例えば、特許文献1参照)。この装置では、手書き文字列を入力できると共に入力した文字列が表示される表示領域の他に、ガイダンス内容を表示するガイダンスエリアが設けられており、手書き文字列が認識されると、認識された文字列を確定させる操作や認識された文字列の誤りを修正する操作、認識された文字列を漢字に変換する操作などのガイダンスをガイダンスエリアに表示する。また、認識された文字列の確定や処理のキャンセルなどの一部の操作については、ジェスチャー操作によっても行なうことができる。   Conventionally, this type of character input device has been proposed to input a handwritten character string with a dedicated pen using a touch panel to perform character recognition or kana-kanji conversion, or to edit an input character string. (For example, refer to Patent Document 1). In this device, a guidance area for displaying guidance content is provided in addition to a display area in which a handwritten character string can be input and the input character string is displayed. Guidance such as an operation to confirm the character string, an operation to correct an error in the recognized character string, and an operation to convert the recognized character string to Kanji is displayed in the guidance area. Some operations such as confirmation of recognized character strings and cancellation of processing can also be performed by gesture operations.

特開2000−123114号公報JP 2000-123114 A

ところで、タッチパネルを用いて手書き文字を入力する文字入力装置では、多数のジェスチャーを予め登録しておけば、ジェスチャー操作によって多くの処理を実行させることができるため、ユーザーにとって作業性や利便性は向上する。しかしながら、多数のジェスチャーが登録されている場合、マニュアル等を参照しながらこれら多数のジェスチャー操作を覚える必要があるため、手書き入力に慣れていないユーザーにとっては、ジェスチャー操作を十分に使いこなすのは困難である。   By the way, in a character input device that inputs handwritten characters using a touch panel, if a large number of gestures are registered in advance, many processes can be executed by gesture operations, which improves workability and convenience for the user. To do. However, when many gestures are registered, it is necessary to learn many gesture operations while referring to the manual etc., so it is difficult for users who are not used to handwriting input to use gesture operations sufficiently. is there.

本発明の文字入力装置は、手書き文字入力の際にジェスチャー操作の利用を促し、利便性をより向上させることを主目的とする。   The main purpose of the character input device of the present invention is to promote the use of gesture operations when inputting handwritten characters, and to further improve convenience.

本発明の文字入力装置は、上述の主目的を達成するために以下の手段を採った。   The character input device of the present invention employs the following means in order to achieve the main object described above.

本発明の文字入力装置は、
複数の入力モードを有し、手書き文字列を入力して該手書き文字列の個々の文字を認識すると共に該認識した文字列をそのまま表示、または、該認識した文字列を第2の文字列に変換して表示する文字入力装置であって、
入力操作が可能な表示手段と、
個々の入力モード毎に使用可能なジェスチャー操作および操作手順を予め記憶する記憶手段と、
現在の入力モードを判定する入力モード判定手段と、
前記判定された現在の入力モードに応じて使用可能なジェスチャー操作の操作手順を前記記憶手段から読み出して前記表示手段に表示する操作手順表示手段と、
前記表示手段を介してジェスチャー操作を受け付ける操作受付手段と、
前記ジェスチャー操作が受け付けられたとき、該受け付けられたジェスチャー操作が前記記憶手段に記憶され且つ前記判定された現在の入力モードに対応するジェスチャー操作である場合には、前記受け付けられたジェスチャー操作に対応する処理を実行する操作対応処理実行手段と
を備えることを要旨とする。
The character input device of the present invention is
It has a plurality of input modes, and a handwritten character string is input to recognize each character of the handwritten character string and the recognized character string is displayed as it is, or the recognized character string is used as a second character string. A character input device for converting and displaying,
Display means capable of input operation;
Storage means for preliminarily storing gesture operations and operation procedures that can be used for each individual input mode;
Input mode determination means for determining the current input mode;
An operation procedure display means for reading out an operation procedure of a gesture operation usable in accordance with the determined current input mode from the storage means and displaying the operation procedure on the display means;
Operation accepting means for accepting a gesture operation via the display means;
Corresponding to the accepted gesture operation when the accepted gesture operation is a gesture operation stored in the storage means and corresponding to the determined current input mode when the gesture operation is accepted And an operation corresponding process execution means for executing the process.

この本発明の文字入力装置では、複数の入力モードを有し、手書き文字列を入力して手書き文字列の個々の文字を認識すると共に認識した文字列をそのまま表示、または、認識した文字列を第2の文字列に変換して表示するものにおいて、個々の入力モード毎に使用可能なジェスチャー操作および操作手順を記憶手段に予め記憶しておき、現在の入力モードを判定し、判定した現在の入力モードで使用可能なジェスチャー操作の操作手順を記憶手段から読み出して表示手段に表示し、表示手段を介してジェスチャー操作を受け付け、ジェスチャー操作が受け付けられたとき、受け付けられたジェスチャー操作が記憶手段に記憶され且つ判定した現在の入力モードに対応するジェスチャー操作である場合には、受け付けたジェスチャー操作に対応する処理を実行する。これにより、ユーザーはジェスチャー操作の操作手順やそのジェスチャー操作が使用可能な入力モードを予め覚えておく必要がなく、ジェスチャー操作により処理を実行させることができる。この結果、手書き文字入力の際にジェスチャー操作の利用を促し、利便性をより向上させることができる。ここで、「第2の文字列」には、漢字を含む文字列や片仮名を含む文字列、アルファベットを含む文字列等が含まれる。   The character input device of the present invention has a plurality of input modes, inputs a handwritten character string to recognize individual characters of the handwritten character string, displays the recognized character string as it is, or displays the recognized character string. In what is converted into the second character string and displayed, gesture operations and operation procedures that can be used for each input mode are stored in advance in the storage means, the current input mode is determined, and the determined current The operation procedure of the gesture operation that can be used in the input mode is read from the storage means and displayed on the display means, and the gesture operation is accepted via the display means. When the gesture operation is accepted, the accepted gesture operation is stored in the storage means. If the gesture operation corresponds to the current input mode that has been stored and determined, The processing to be executed. Thereby, the user does not need to remember in advance the operation procedure of the gesture operation and the input mode in which the gesture operation can be used, and can execute the process by the gesture operation. As a result, it is possible to promote the use of gesture operation when inputting handwritten characters, and to further improve convenience. Here, the “second character string” includes a character string including kanji, a character string including katakana, a character string including alphabets, and the like.

前記複数の入力モードとして、手書き文字列を入力するための第1の入力モードと、前記認識または変換された文字列に対する編集指示を入力するための第2の入力モードとを有する本発明の文字入力装置において、前記記憶手段は、前記第1の入力モードで使用可能な1つ以上の第1のジェスチャー操作と、前記第2の入力モードで使用可能な1つ以上の第2のジェスチャー操作とを記憶する手段であるものとすることもできる。この場合、前記第1のジェスチャー操作は、手書き入力された文字列を認識して前記第2の文字列に変換させる指示を行なうジェスチャー操作を含むものとすることもできる。また、これらの場合、前記第2のジェスチャー操作は、前記認識または変換された文字列の文字間に他の文字を挿入する指示を行なうジェスチャー操作と、前記認識または変換された文字列の一部の文字を他の文字に置き換える指示を行なうジェスチャー操作と、前記認識または変換された文字列の一部の文字を削除する指示を行なうジェスチャー操作の少なくとも一つを含むものとすることもできる。   The character of the present invention having a first input mode for inputting a handwritten character string and a second input mode for inputting an editing instruction for the recognized or converted character string as the plurality of input modes. In the input device, the storage means includes one or more first gesture operations usable in the first input mode, and one or more second gesture operations usable in the second input mode. Can also be a means for storing. In this case, the first gesture operation may include a gesture operation for performing an instruction to recognize a character string input by handwriting and convert the character string to the second character string. In these cases, the second gesture operation includes a gesture operation for giving an instruction to insert another character between characters of the recognized or converted character string, and a part of the recognized or converted character string. It is also possible to include at least one of a gesture operation for giving an instruction to replace the character with another character and a gesture operation for giving an instruction to delete some characters of the recognized or converted character string.

また、本発明の文字入力装置において、前記操作手順表示手段は、前記判定された現在の入力モードで使用可能なジェスチャー操作の操作手順をアニメーションを用いて表示する手段であるものとすることもできる。こうすれば、ユーザーがジェスチャー操作の操作手順を把握し易くすることができる。   In the character input device of the present invention, the operation procedure display means may be a means for displaying an operation procedure of the gesture operation that can be used in the determined current input mode using an animation. . In this way, the user can easily understand the operation procedure of the gesture operation.

さらに、本発明の文字入力装置において、前記操作手順表示手段は、前記判定された現在の入力モードで使用可能なジェスチャー操作を所定数まで表示する手段であるものとすることもできる。この態様の本発明の文字入力装置において、前記操作手順表示手段は、前記判定された現在の入力モードで使用可能なジェスチャー操作を使用頻度が高い順に前記所定数まで表示する手段であるものとすることもできる。こうすれば、ユーザーは使用頻度の高いジェスチャー操作の操作手順を直ぐに参照することができる。   Furthermore, in the character input device of the present invention, the operation procedure display means may be means for displaying up to a predetermined number of gesture operations that can be used in the determined current input mode. In this aspect of the character input device of the present invention, the operation procedure display means is means for displaying gesture operations that can be used in the determined current input mode up to the predetermined number in order of frequency of use. You can also. In this way, the user can immediately refer to the operation procedure of the frequently used gesture operation.

本実施形態の文字入力装置20の概略構成図。The schematic block diagram of the character input device 20 of this embodiment. 手書き文字入力用画面50の一例を示す説明図。Explanatory drawing which shows an example of the screen 50 for handwritten character input. 手書き入力の際の様子を示す説明図。Explanatory drawing which shows the mode in the case of handwritten input. 手書き入力の認識結果を表示する際の様子を示す説明図。Explanatory drawing which shows a mode at the time of displaying the recognition result of handwritten input. 認識結果を確定する際の様子を示す説明図。Explanatory drawing which shows the mode at the time of confirming a recognition result. 文字認識変換処理の一例を示すフローチャート。The flowchart which shows an example of a character recognition conversion process. ジェスチャー操作ガイダンス処理の一例を示すフローチャート。The flowchart which shows an example of gesture operation guidance processing. 手書き文字入力モード時におけるジェスチャー操作の様子を示す説明図。Explanatory drawing which shows the mode of gesture operation at the time of handwritten character input mode. ジェスチャーガイダンスのアニメーション表示の様子を示す説明図。Explanatory drawing which shows the mode of the animation display of gesture guidance. 「挿入」のジェスチャー操作の様子を示す説明図。Explanatory drawing which shows the mode of gesture operation of "insertion". 「上書挿入」のジェスチャー操作の様子を示す説明図。Explanatory drawing which shows the mode of gesture operation of "overwrite insertion." 「削除」のジェスチャー操作の様子を示す説明図。Explanatory drawing which shows the mode of gesture operation of "deletion". ジェスチャーガイダンスのアニメーション表示の様子を示す説明図。Explanatory drawing which shows the mode of the animation display of gesture guidance. ジェスチャーガイダンスの表示切り替えの様子を示す説明図。Explanatory drawing which shows the mode of the display switching of gesture guidance.

次に、本発明の実施の形態を図面に基づいて説明する。図1は、本発明の一実施形態である文字入力装置20の構成の概略を示す構成図である。   Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram showing an outline of a configuration of a character input device 20 according to an embodiment of the present invention.

本実施形態の文字入力装置20は、各種メニュー画面や作成中の文章などを表示するためのLCDモジュール40とペンPによる手書き文字などを入力するためのタッチパネルモジュール42とが組み合わされたタッチパネル式の液晶ディスプレイとして構成されている。なお、文字入力装置20のサイド部には、文字入力装置20を起動するための電源ボタン22と、メモリーカードMCの挿入が可能なメモリーカードスロット44とが設けられている。   The character input device 20 of the present embodiment is a touch panel type in which an LCD module 40 for displaying various menu screens, texts being created, and the like and a touch panel module 42 for inputting handwritten characters by a pen P are combined. It is configured as a liquid crystal display. Note that a power button 22 for starting the character input device 20 and a memory card slot 44 into which the memory card MC can be inserted are provided on the side portion of the character input device 20.

タッチパネルモジュール42は、タッチスクリーン上でペンPが接触された点の座標を入力する座標入力装置であり、本実施形態では、2点以上の接触を検知する多点検知やジェスチャー操作の検知が可能な投影型静電容量方式を採用している。勿論、タッチパネルモジュール42の方式は、静電容量方式に限られず、抵抗膜方式や電磁誘導方式など種々の方式を採用し得る。なお、以下は、ペンPを用いて手書き入力された文字列を認識する場合を説明するが、人の指先で手書き入力する態様など、手書き文字を入力することが可能なあらゆる態様が含まれる。   The touch panel module 42 is a coordinate input device that inputs the coordinates of the point where the pen P is touched on the touch screen. In this embodiment, multi-point detection for detecting contact of two or more points and gesture operation detection are possible. Adopts a simple projected capacitance method. Of course, the method of the touch panel module 42 is not limited to the capacitance method, and various methods such as a resistance film method and an electromagnetic induction method can be adopted. In addition, although the following demonstrates the case where the character string input by handwriting using the pen P is recognized, all the aspects which can input a handwritten character, such as the aspect input by handwriting with a human fingertip, are included.

文字入力装置20は、制御ブロックとしては、図1に示すように、装置全体の制御を司るメインコントローラー30と、LCDモジュール40の表示制御を司るLCDコントローラー41と、タッチパネルモジュール42の入力制御を司るタッチパネルコントローラー43と、メモリーカードMCに対してデータの読み出しと書き込みとを制御するメモリーカードコントローラー45とを備えており、これらはバス48を介して互いに電気的に接続されている。   As shown in FIG. 1, the character input device 20 controls input of the main controller 30 that controls the entire device, the LCD controller 41 that controls display of the LCD module 40, and the touch panel module 42. A touch panel controller 43 and a memory card controller 45 that controls reading and writing of data with respect to the memory card MC are provided, and these are electrically connected to each other via a bus 48.

メインコントローラー30は、CPU31を中心とするマイクロプロセッサーとして構成されており、手書き文字の認識や文章の編集を行なうためのプログラムなどの各種処理プログラムや文字フォント、辞書、使用が可能な入力モード(手書き文字入力モードや編集モード)毎のジェスチャー操作および操作手順などを記憶するROM32と、CPU31のワークエリアとして使用されると共に作成中の文章などを記憶するRAM33と、作成した文章などを記憶するフラッシュメモリー34と、電源ボタン22からの起動信号を入力するインターフェース35(I/F)とを備える。このメインコントローラー30は、タッチパネルコントローラー43からの座標信号などを入力しており、LCDコントローラー41への制御信号などを出力している。また、メインコントローラー30は、メモリーカードMCに対してメモリーカードコントローラー45を介して文章ファイルの読み出しや書き込みも行なっている。   The main controller 30 is configured as a microprocessor centered on the CPU 31, and various processing programs such as a program for recognizing handwritten characters and editing sentences, character fonts, a dictionary, and an input mode that can be used (handwriting). ROM 32 for storing gesture operations and operation procedures for each character input mode and edit mode), a RAM 33 for use as a work area of the CPU 31 and for storing sentences being created, and a flash memory for storing created sentences 34 and an interface 35 (I / F) for inputting an activation signal from the power button 22. The main controller 30 inputs coordinate signals from the touch panel controller 43 and outputs control signals to the LCD controller 41. The main controller 30 also reads and writes text files via the memory card controller 45 with respect to the memory card MC.

次に、こうして構成された本実施形態の文字入力装置20の動作について説明する。図2は、手書き文字入力用画面50の一例を示す説明図である。手書き文字入力用画面50は、図示しないメニュー画面の各種メニューのうち一つである手書き文字入力が選択されたときに呼び出されるものであり、作成中の文章のタイトルや現在時刻、内蔵するバッテリの残容量などを表示するタイトル表示領域52と、ペンPの操作による手書き文字入力や認識された文字列に対する各種編集作業を行なうための入力領域54と、確定された文字列を表示する結果表示領域56とが表示される。   Next, the operation of the character input device 20 of the present embodiment configured as described above will be described. FIG. 2 is an explanatory diagram illustrating an example of the handwritten character input screen 50. The handwritten character input screen 50 is called when handwritten character input, which is one of various menus on a menu screen (not shown), is selected. The title and current time of the text being created, the built-in battery Title display area 52 for displaying remaining capacity, input area 54 for inputting handwritten characters by operating the pen P and performing various editing operations on recognized character strings, and result display area for displaying fixed character strings 56 is displayed.

入力領域54の右隣には、図2に示すように、手書き文字入力に関連して種々の指示を行なうための各種指示ボタン枠58が表示されている。各種指示ボタン枠58は、ペンPの先をボタン枠内でタッチ(タップ)することにより操作できるようになっており、手書き入力された文字列を認識して認識後の文字列をそのまま入力領域54に表示する「そのまま認識」ボタン枠や、手書き入力された文字列を認識し仮名漢字交じり文字列に変換して変換後の文字列を入力領域54に表示する「認識して変換」ボタン枠、入力領域54に表示された認識後の文字列や変換後の文字列の右端の文字を一文字だけ消す「一文字消す」ボタン枠、入力領域54に表示された認識後の文字列や変換後の文字列の文字を全て消す「書き直す」ボタン枠、入力領域54に表示された認識後の文字列や変換後の文字列を確定して結果表示領域56に表示する「確定」ボタン枠が用意されている。また、入力領域54の上部には、文字認識の際に日本語を優先して認識するか、アルファベットを優先して認識するかを選択するための認識モード選択ボタン枠60も用意されている。   As shown in FIG. 2, various instruction button frames 58 for performing various instructions related to handwritten character input are displayed on the right side of the input area 54. The various instruction button frames 58 can be operated by touching (tapping) the tip of the pen P within the button frame. The handwritten input character string is recognized, and the recognized character string is input as it is. A “recognize and convert” button frame displayed on the input area 54, or a “recognize and convert” button frame that recognizes a handwritten character string and converts it into a kana-kanji mixed character string and displays the converted character string in the input area 54 “Delete one character” button frame for deleting only one character after the recognized character string or the converted character string displayed in the input area 54, the recognized character string or the converted character string displayed in the input area 54 A “rewrite” button frame for erasing all characters in the character string and a “confirm” button frame for confirming the recognized character string and the converted character string displayed in the input area 54 and displaying them in the result display area 56 are prepared. ing. In addition, a recognition mode selection button frame 60 is also provided at the top of the input area 54 for selecting whether to recognize Japanese characters or alphabets when recognizing characters.

結果表示領域56は、「確定」ボタン枠のタップにより、入力領域54に表示されている認識後の文字列や変換後の文字列をカーソル位置から新たに表示するための領域であり、下部には表示されている文章を編集するための各種編集ボタン枠62が表示される。なお、各種編集ボタン枠62としては、空白ボタン枠や後退ボタン枠、改行ボタン枠、タブボタン枠などが用意されている。   The result display area 56 is an area for newly displaying the recognized character string and the converted character string displayed in the input area 54 from the cursor position by tapping the “confirm” button frame. Displays various editing button frames 62 for editing the displayed text. As the various editing button frames 62, a blank button frame, a backward button frame, a line feed button frame, a tab button frame, and the like are prepared.

図3〜図5は、手書き文字入力により文章を作成する様子を示す説明図である。手書き文字入力により文章を作成するには、まず、入力領域54にペンPを使用して手書き文字を入力する(図3参照)。手書き文字を入力すると、「そのまま認識」ボタン枠か「認識して変換」ボタン枠をタップして手書き文字を認識させる。「認識して変換」ボタン枠をタップすると、手書き入力された文字列が認識されると共に認識された文字列が仮名漢字変換され、変換後の文字列が入力領域54に表示される(図4参照)。そして、「確定」ボタン枠をタップすると、結果表示領域56に変換後の文字列が文章として表示される(図5参照)。   3-5 is explanatory drawing which shows a mode that a sentence is produced by handwritten character input. In order to create a sentence by inputting handwritten characters, first, handwritten characters are input to the input area 54 using the pen P (see FIG. 3). When a handwritten character is input, the “recognize as it is” button frame or the “recognize and convert” button frame is tapped to recognize the handwritten character. When the “recognize and convert” button frame is tapped, the handwritten input character string is recognized, the recognized character string is converted to kana / kanji, and the converted character string is displayed in the input area 54 (FIG. 4). reference). Then, when the “OK” button frame is tapped, the converted character string is displayed as a sentence in the result display area 56 (see FIG. 5).

次に、手書き入力された文字列の認識と仮名漢字変換について更に詳細に説明する。図6は、メインコントローラー30により実行される文字認識変換処理の一例を示すフローチャートである。この処理は、手書き文字入力用画面50が起動されたときに実行される。   Next, recognition of handwritten character strings and kana-kanji conversion will be described in more detail. FIG. 6 is a flowchart illustrating an example of character recognition conversion processing executed by the main controller 30. This process is executed when the handwritten character input screen 50 is activated.

文字認識変換処理が実行されると、メインコントローラー30のCPU31は、まず、手書き文字を入力し(ステップS100)、文字認識を指示する操作がなされるのを待つ(ステップS110)。ここで、手書き文字の入力は、ペンPが接触した点の座標を取得し、その座標の集合をペンPのストロークとして記憶することにより行なう。ここで、文字認識を指示する操作は、前述したように、「そのまま認識」ボタン枠のタップか、「認識して変換」ボタン枠のタップによって行なうことができるが、本実施形態では、「認識して変換」についてはジェスチャー操作によっても行なうことができる。ジェスチャー操作により文字認識が指示されたか否かの判定は、「認識して変換」に対応するジェスチャー操作(ストローク)を予めROM32に記憶しておき、ジェスチャー操作を入力すると、入力したジェスチャー操作とROM32に記憶されたジェスチャー操作(ストローク)とをパターンマッチングにより比較することにより行なうことができる。   When the character recognition conversion process is executed, the CPU 31 of the main controller 30 first inputs a handwritten character (step S100) and waits for an operation for instructing character recognition (step S110). Here, the input of the handwritten character is performed by acquiring the coordinates of the point touched by the pen P and storing the set of coordinates as the stroke of the pen P. Here, as described above, the operation for instructing the character recognition can be performed by tapping the “recognize as it is” button frame or by tapping the “recognize and convert” button frame. "Conversion and conversion" can also be performed by a gesture operation. Whether or not the character recognition is instructed by the gesture operation is determined by storing the gesture operation (stroke) corresponding to “recognize and convert” in the ROM 32 in advance, and inputting the gesture operation. Can be performed by comparing the gesture operation (stroke) stored in the pattern matching by pattern matching.

文字認識が指示されると、ペンPのストロークを、周知の認識アルゴリズムに従ってROM32に記憶されている文字認識用の辞書とのパターンマッチングにより文字として認識し(ステップS120)、認識した文字列を仮名漢字交じり文字列に変換(仮名漢字変換)する(ステップS130)。ここで、仮名漢字変換は、本発明の要旨をなさないから詳細な説明は省略するが、例えば、認識した文字列の読みからROM32に記憶されている単語を単語検索用の辞書を用いて検索し、検索した単語とROM32に記憶されている文法情報とに基づいて文法として成立し得る文節を抽出し、抽出した文節の漢字表記をROM32に記憶されている仮名漢字変換用の辞書を参照しながら決定することにより行なうことができる。なお、「そのまま認識」が指示されている場合には、仮名漢字変換は不要であるから、ステップS130の処理はスキップされる。   When character recognition is instructed, the stroke of the pen P is recognized as a character by pattern matching with a dictionary for character recognition stored in the ROM 32 in accordance with a known recognition algorithm (step S120), and the recognized character string is kana. Conversion into a kanji mixed character string (kana-kanji conversion) (step S130). Here, the kana-kanji conversion does not form the gist of the present invention, so a detailed description thereof is omitted. For example, a word stored in the ROM 32 is searched using a word search dictionary from reading of a recognized character string. Then, a phrase that can be established as a grammar is extracted based on the searched word and the grammatical information stored in the ROM 32, and the kanji notation of the extracted phrase is referred to the kana-kanji conversion dictionary stored in the ROM 32. However, it can be done by deciding. If “recognize as it is” is instructed, kana-kanji conversion is not necessary, so the process of step S130 is skipped.

こうして文字列の認識や変換を行なうと、認識または変換された文字列を入力領域54に表示し(ステップS140)、編集(確定を含む)を指示するための操作がなされるのを待つ(ステップS150)。編集を指示する操作は、各種指示ボタン枠58の「一文字消す」ボタン枠のタップや「書き直す」ボタン枠のタップ、「確定」ボタン枠をタップすることにより行なうことができるが、各種ジェスチャー操作によっても行なうことができる。ジェスチャー操作によって行なうことができる編集項目としては、本実施形態では、文字列中の指定した文字間に新たな文字を挿入する「挿入」や、文字列中の指定した文字を新たな文字に置き換える「上書挿入」、文字列中の指定した文字を削除する「削除」が用意されている。また、この他に、例えば「いあ」を「あい」とするように文字列中の指定した2つの文字を入れ替える「入れ替え」や、例えば「ょ」を「よ」とするように文字列中の指定した文字を小文字から大文字に変換する「大文字変換」、例えば「よ」を「ょ」とするように文字列中の指定した文字を大文字から小文字に変換する「小文字変換」、例えば「き」を「ぎ」とするように文字列中の指定した文字に追記して他の文字に変換する「部分追記」、例えば「ぎ」を「き」とするように文字列中の指定した文字の一部を削除して他の文字に変換する「部分削除」、例えば「木木」を「林」とするように複数の文字として認識されたものを1つの文字として再認識させる「合体」、例えば「林」を「木木」とするように1つの文字として認識されたものを複数の文字として再認識させる「分離」、認識された文字列を確定させる「確定」などの編集項目も用意されている。ジェスチャー操作により編集指示がなされたか否かの判定は、各種編集項目に対応するジェスチャー操作(ストローク)を予めROM32に記憶しておき、ジェスチャー操作を入力すると、入力したストロークとROM32に記憶されたジェスチャー操作(ストローク)とをパターンマッチングにより比較することにより行なうことができる。   When the character string is recognized or converted in this way, the recognized or converted character string is displayed in the input area 54 (step S140), and an operation for instructing editing (including confirmation) is waited for (step S140). S150). The operation for instructing editing can be performed by tapping the “delete one character” button frame, the “rewrite” button frame or the “confirm” button frame of the various instruction button frames 58, but by various gesture operations. Can also be done. As editing items that can be performed by a gesture operation, in this embodiment, “insert” for inserting a new character between specified characters in a character string, or replacing a specified character in a character string with a new character. “Overwrite insertion” and “delete” for deleting a specified character in a character string are provided. In addition to this, for example, “replacement” in which two designated characters in the character string are replaced so that “Ia” is “ai”, or “yo” is “yo” in the character string, for example. "Upper case conversion" that converts the specified character from lower case to upper case, for example, "Lower case conversion" that converts the specified character in the string from upper case to lower case so that "yo" is "yo", for example "ki" "Partial append" to add to the specified character in the string and convert it to another character, for example, "gi" to "ki" of the specified character in the string “Partial deletion” that deletes a part and converts it to another character, for example, “union” that re-recognizes a character recognized as a plurality of characters such as “wood” as “forest”, For example, “Hayashi” is recognized as “Kiki” as one character. Re aware of as a multiple of the character "separation", editing items such as "confirmation" to confirm the recognized character string is also available. It is determined whether or not an editing instruction has been given by a gesture operation. Gesture operations (strokes) corresponding to various editing items are stored in the ROM 32 in advance, and when a gesture operation is input, the input strokes and the gestures stored in the ROM 32 are stored. This can be done by comparing the operation (stroke) with pattern matching.

編集を指示する操作がなされたと判定すると、その操作がジェスチャー操作であるか否かを判定し(ステップS160)、ジェスチャー操作と判定すると、使用されたジェスチャー操作(編集項目)を使用履歴としてRAM33に保存し(ステップS180)、ジェスチャー操作でないと判定すると、ステップS180の処理をスキップする。そして、編集を指示する操作が「確定」の操作でない場合には(ステップS190)、指示された編集項目に対応する編集処理を実行して(ステップS200)、ステップS150に戻り、編集を指示する操作が「確定」の操作である場合には(ステップS190)、入力領域54に表示されている文字列を結果エリア56に表示して(ステップS210)、本処理を終了する。   If it is determined that an operation for instructing editing has been performed, it is determined whether the operation is a gesture operation (step S160). If it is determined that the operation is a gesture operation, the used gesture operation (edit item) is stored in the RAM 33 as a use history. If it is stored (step S180) and it is determined that the operation is not a gesture operation, the process of step S180 is skipped. If the operation for instructing editing is not a “confirm” operation (step S190), the editing process corresponding to the instructed editing item is executed (step S200), and the process returns to step S150 to instruct editing. If the operation is a “confirm” operation (step S190), the character string displayed in the input area 54 is displayed in the result area 56 (step S210), and this process ends.

次に、ジェスチャー操作の操作手順をガイダンスする処理について説明する。図7は、ジェスチャー操作ガイダンス処理の一例を示すフローチャートである。このルーチンは、手書き文字入力用画面50の起動中に所定時間毎に繰り返し実行される。   Next, a process for guiding the operation procedure of the gesture operation will be described. FIG. 7 is a flowchart illustrating an example of the gesture operation guidance process. This routine is repeatedly executed at predetermined time intervals while the handwritten character input screen 50 is activated.

ジェスチャー操作ガイダンス処理では、まず、現在の入力モードを判定する処理を行なう(ステップS300)。この判定は、本実施形態では、文字認識変換処理のステップS100で手書き文字入力が開始されてからステップS110で文字認識が指示されたと判定されるまで現在の入力モードを手書き入力モードと判定し、文字認識変換処理のステップS140で変換結果が表示されてからステップS190で「確定」の操作がなされたと判定されるまで現在の入力モードを編集モードと判定する。現在の入力モードが手書き文字入力モードでも編集モードでもないと判定した場合には(ステップS310,S320)、そのまま本処理を終了する。   In the gesture operation guidance process, first, a process for determining the current input mode is performed (step S300). In this embodiment, in this embodiment, the current input mode is determined as the handwriting input mode until it is determined that the character recognition is instructed in step S110 after the handwritten character input is started in step S100 of the character recognition conversion process. The current input mode is determined to be the edit mode until it is determined in step S190 that the “confirm” operation has been performed after the conversion result is displayed in step S140 of the character recognition conversion process. If it is determined that the current input mode is neither the handwritten character input mode nor the edit mode (steps S310 and S320), this process is terminated.

現在の入力モードが手書き文字入力モードであると判定した場合には(ステップS310)、手書き文字入力モード用のジェスチャー操作の操作手順を示すジェスチャーガイダンスをROM32から読み出してガイダンス表示領域64に表示して(ステップS330)、本処理を終了する。図8に「認識して変換」のジェスチャー操作の様子を示し、図9に手書き入力モード時のジェスチャーガイダンスの一例を示す。手書き文字入力モードでは、図8に示すように、入力領域54に対して手書きにより文字列を入力し、文字列の終わりに”」”を手書き入力することにより、「認識して変換」を指示することができる。なお、本実施形態では、ガイダンス表示領域64は、入力領域54内に設けられており、ガイダンス表示領域64にも手書き文字の入力が可能となっている。手書き文字入力モード時のジェスチャーガイダンスは、アニメーションによって表示され、図9に示すように、「あい」の手書き文字が入力される様子と、「あい」の終わりに”」”がジェスチャー操作により入力される様子と、文字認識と仮名漢字変換の結果が「合」と表示される様子とを順に切り替えることにより行なう。   When it is determined that the current input mode is the handwritten character input mode (step S310), the gesture guidance indicating the operation procedure of the gesture operation for the handwritten character input mode is read from the ROM 32 and displayed in the guidance display area 64. (Step S330), this process is terminated. FIG. 8 shows a gesture operation of “recognize and convert”, and FIG. 9 shows an example of gesture guidance in the handwriting input mode. In the handwritten character input mode, as shown in FIG. 8, a character string is input by handwriting into the input area 54, and "" "" is input at the end of the character string to indicate "recognize and convert". can do. In the present embodiment, the guidance display area 64 is provided in the input area 54, and handwritten characters can be input to the guidance display area 64. The gesture guidance in the handwritten character input mode is displayed as an animation, and as shown in FIG. 9, a state where a handwritten character “AI” is input and “” ”is input by a gesture operation at the end of“ AI ”. This is performed by sequentially switching between the state in which the character recognition and the result of kana-kanji conversion are displayed as “go”.

一方、現在の入力モードが手書き文字入力モードではなく編集モードであると判定した場合には(ステップS320)、文字認識変換処理のステップS180でRAM33に保存された編集指示に係るジェスチャー操作の使用履歴を読み出し(ステップS340)、読み出した使用履歴に基づいて使用頻度が高い順に編集項目をソートし(ステップS350)、各種編集項目のジェスチャー操作の操作手順を示すジェスチャーガイダンスをROM32から読み出して使用頻度が高い編集項目から順に所定数(本実施形態では3つ)までガイダンス表示領域64に表示して(ステップS360)、本処理を終了する。図10に「挿入」のジェスチャー操作の様子を示し、図11に「上書挿入」のジェスチャー操作の様子を示し、図12に「削除」のジェスチャー操作の様子を示す。   On the other hand, when it is determined that the current input mode is not the handwritten character input mode but the edit mode (step S320), the use history of the gesture operation related to the edit instruction stored in the RAM 33 in step S180 of the character recognition conversion process. (Step S340), the editing items are sorted in descending order of usage frequency based on the read usage history (step S350), and gesture guidance indicating the operation procedure of the gesture operation of various editing items is read from the ROM 32 and the usage frequency is A predetermined number (three in the present embodiment) in order from the highest edit item is displayed in the guidance display area 64 (step S360), and this process is terminated. FIG. 10 shows the state of the gesture operation of “Insert”, FIG. 11 shows the state of gesture operation of “Insert Overwrite”, and FIG. 12 shows the state of gesture operation of “Delete”.

「挿入」では、図10に示すように、文字を挿入しようとする文字間に”|”を手書きで入力すると、そこから一文字分の空白が形成され、その空白部分に手書き文字を新たに入力できる状態となる。この状態でペンPにより手書き文字を入力し、認識を指示すると、手書き入力された文字が認識され、認識された新たな文字が入力領域54に挿入される。   In “Insert”, as shown in FIG. 10, when “|” is input by handwriting between characters to be inserted, a space for one character is formed therefrom, and a new handwritten character is input in the blank portion. It will be ready. In this state, when a handwritten character is input with the pen P and recognition is instructed, the character input by handwriting is recognized, and the recognized new character is inserted into the input area 54.

「上書挿入」では、図11に示すように、上書しようとする文字を手書きにより”○”で囲むと、その文字が消去され、文字が消去された後の空白部分に手書き文字を新たに入力できる状態となる。この状態でペンPにより手書き文字を入力し、認識を指示すると、手書き入力された文字が認識され、認識された新たな文字が入力領域54に上書挿入される。   In “overwrite insertion”, as shown in FIG. 11, when a character to be overwritten is surrounded by “○” by handwriting, the character is deleted, and a new handwritten character is added to a blank portion after the character is deleted. Is ready for input. In this state, when a handwritten character is input with the pen P and recognition is instructed, the character input by handwriting is recognized, and the recognized new character is overwritten in the input area 54.

「削除」では、図12に示すように、削除しようとする文字に重ねて手書きにより”−”を入力すると、その文字が消去され、文字消去された空白部分が詰められた状態で、入力領域54の文字列が再表示される。   In “delete”, as shown in FIG. 12, when a character “−” is input by hand over the character to be deleted, the character is deleted, and the input area is filled with the erased blank portion. 54 character strings are displayed again.

編集モード時のジェスチャーガイダンスは、アニメーションによって表示される。図13に、編集モード時におけるジェスチャーガイダンスのアニメーション表示の一例を示す。なお、図13(a)は「挿入」のジェスチャーガイダンスのアニメーション表示を示し、図13(b)は「上書挿入」のジェスチャーガイダンスのアニメーション表示を示し、図13(c)は「削除」のジェスチャーガイダンスのアニメーション表示を示す。「挿入」の操作手順のアニメーション表示は、図13(a)に示すように、「あう」と認識された文字列が表示される様子と、「あう」の文字間に”|”がジェスチャー操作により入力される様子と、「あう」の文字間に空白が形成される様子と、「あう」の文字間の空白に「い」が手書き入力される様子と、「あいう」と認識された結果が表示される様子とを順に切り替えることにより行なう。また、「上書挿入」の操作手順のアニメーション表示は、図13(b)に示すように、「ああう」と認識された文字列が表示される様子と、真ん中の「あ」を”○”で囲むジェスチャー操作が入力される様子と、真ん中の「あ」が消去されて空白が形成される様子と、「あう」の文字間の空白に「い」が手書き入力される様子と、「あいう」と認識された結果が表示される様子とを順に切り替えることにより行なう。さらに、「削除」の操作手順のアニメーション表示は、図13(c)に示すように、「あいう」の認識された文字列が表示される様子と、真ん中の「い」に”−”がジェスチャー操作により入力される様子と、真ん中の「い」が消去されて空白が形成される様子と、空白が詰められて「あう」と認識された結果が表示される様子とを順次切り替えることにより行なう。   The gesture guidance in the edit mode is displayed by animation. FIG. 13 shows an example of an animation display of gesture guidance in the edit mode. FIG. 13A shows an animation display of the “insertion” gesture guidance, FIG. 13B shows an animation display of the “insertion” gesture guidance, and FIG. 13C shows “deletion”. An animation display of gesture guidance is shown. As shown in FIG. 13A, the animation display of the “Insert” operation procedure shows that a character string recognized as “Au” is displayed, and “|” is a gesture operation between “Au” characters. , A state where a space is formed between the characters “Au”, a state where “I” is input by handwriting in the space between the characters “Au”, and a result that “Ayu” is recognized This is performed by sequentially switching the display of the. In addition, as shown in FIG. 13B, the animation display of the “overwrite insert” operation procedure shows that the character string recognized as “Ah” is displayed, and “A” in the middle is “ "The gesture operation surrounded by" is entered, the middle "A" is erased and a space is formed, "I" is entered by handwriting in the space between the characters "Au", " This is done by sequentially switching the display of the result recognized as “that”. Furthermore, as shown in FIG. 13C, the animation display of the “delete” operation procedure shows that the recognized character string “A” is displayed, and “-” in the middle “I” is a gesture. It is performed by sequentially switching between the state of input by operation, the state where the middle “I” is erased and a blank is formed, and the state where the result recognized as “Yes” is displayed after being filled with blanks. .

図14は、編集モード時におけるジェスチャーガイダンスの表示切り替えの様子を示す説明図である。編集モードでは、前述したように、ジェスチャーガイダンスをガイダンス表示領域64に所定数を上限として表示する。このため、ガイダンス表示領域64に表示しきれない編集項目におけるジェスチャー操作の操作手順については、右移動ボタン枠64aおよび左移動ボタン枠64bを用いて表示を切り替えることにより参照できるようになっている。具体的には、図14に示すように、今使えるジェスチャーとして、「挿入」と「上書挿入」と「削除」のガイダンス表示がなされている状態で右移動ボタン64aを1回タップすると、「入れ替え」と「大文字変換」と「小文字変換」のガイダンス表示に切り替えられる。この状態から右移動ボタン64aを1回タップすると、「部分追記」と「部分削除」と「合体」のガイダンス表示に切り替えられ、さらに、この状態から右移動ボタン64aを1回タップすると、「分離」と「確定」のガイダンス表示に切り替えられる。なお、左移動ボタン64bがタップされると、1つ前のガイダンス表示に戻る。   FIG. 14 is an explanatory diagram showing how the display of gesture guidance is switched in the edit mode. In the edit mode, as described above, the gesture guidance is displayed in the guidance display area 64 with a predetermined number as an upper limit. For this reason, the operation procedure of the gesture operation in the edit item that cannot be displayed in the guidance display area 64 can be referred to by switching the display using the right movement button frame 64a and the left movement button frame 64b. Specifically, as shown in FIG. 14, as a gesture that can be used now, when the guidance of “insert”, “insert overwrite”, and “delete” is displayed, when the right move button 64a is tapped once, It is possible to switch to the guidance display of “replacement”, “upper case conversion”, and “lower case conversion”. When the right movement button 64a is tapped once from this state, the guidance display of “partial addition”, “partial deletion”, and “merging” is switched, and further, when the right movement button 64a is tapped once from this state, “separation” "And" Confirm "guidance display. When the left move button 64b is tapped, the previous guidance display is restored.

ここで、本実施形態の構成要素と本発明の構成要素との対応関係を明らかにする。本実施形態のLCDモジュール40およびタッチパネルモジュール42とからなるタッチパネル式の液晶ディスプレイが本発明の「表示手段」に相当し、ROM32が「記憶手段」に相当し、図7のジェスチャー操作ガイダンス処理のステップS300の処理を実行するメインコントローラー30が「入力モード判定手段」に相当し、ジェスチャー操作ガイダンス処理のステップS310〜S360の処理を実行するメインコントローラー30が「操作手順表示手段」に相当し、図6の文字認識変換処理のステップS110,S150の処理を実行するメインコントローラー30が「操作受付手段」に相当し、文字認識変換処理のステップS200,S210の処理を実行するメインコントローラー30が「操作対応処理実行手段」に相当する。   Here, the correspondence between the components of the present embodiment and the components of the present invention will be clarified. The touch panel type liquid crystal display comprising the LCD module 40 and the touch panel module 42 of this embodiment corresponds to the “display means” of the present invention, the ROM 32 corresponds to the “storage means”, and the steps of the gesture operation guidance process of FIG. The main controller 30 that executes the process of S300 corresponds to “input mode determination means”, and the main controller 30 that executes the processes of steps S310 to S360 of the gesture operation guidance process corresponds to “operation procedure display means”. The main controller 30 that executes the processes of steps S110 and S150 of the character recognition conversion process corresponds to “operation accepting means”, and the main controller 30 that executes the processes of steps S200 and S210 of the character recognition conversion process performs the “operation corresponding process”. Equivalent to `` execution means '' .

以上説明した本実施形態の文字入力装置20によれば、タッチパネルモジュール42を介して手書き文字を入力したり(手書き文字入力モード)、認識された文字列や変換された文字列に対して編集したり(編集モード)することが可能な装置において、現在の入力モードを判定し、現在の入力モードで使用が可能なジェスチャー操作の操作手順をジェスチャーガイダンスとして入力領域54内のガイダンス表示領域64に表示するから、ユーザーは、数あるジェスチャー操作の操作手順やその使用が可能な入力モードを覚えておく必要なしに、ジェスチャー操作を用いて各種処理を実行させることができる。この結果、手書き文字入力の際にジェスチャー操作の利用を促し、利便性をより向上させることができ。しかも、ジェスチャー操作の操作手順の表示をアニメーション表示により行なうから、ユーザーがジェスチャー操作の操作手順を把握し易くすることができる。さらに、編集モード時のジェスチャー操作の操作手順を使用頻度が高い順に所定数まで表示するから、ユーザーは使用頻度の高いジェスチャー操作の操作手順を直ぐに参照することができる。   According to the character input device 20 of the present embodiment described above, a handwritten character is input via the touch panel module 42 (handwritten character input mode), or a recognized character string or a converted character string is edited. In the device that can perform (edit mode), the current input mode is determined, and the operation procedure of the gesture operation that can be used in the current input mode is displayed in the guidance display area 64 in the input area 54 as gesture guidance. Therefore, the user can execute various processes using the gesture operation without having to remember a number of gesture operation procedures and input modes that can be used. As a result, the user can be encouraged to use the gesture operation when inputting handwritten characters, and the convenience can be further improved. In addition, since the operation procedure of the gesture operation is displayed by animation display, the user can easily understand the operation procedure of the gesture operation. Furthermore, since the operation procedure of the gesture operation in the edit mode is displayed up to a predetermined number in the order of frequency of use, the user can immediately refer to the operation procedure of the gesture operation with the high frequency of use.

本実施形態では、手書き文字入力モード時にジェスチャー操作が可能な項目として「認識して変換」を例示するものとしたが、これに限定されるものではなく、例えば、「そのまま認識」など他の項目を追加したり他の項目に置き換えるものとしてもよい。なお、手書き文字入力モード時に複数の項目が存在する場合には、これらの操作手順を使用頻度が高い順にソートしてガイダンス表示領域64に表示するものとしてもよく、ガイダンス表示領域64に表示しきれない項目が存在する場合には、適宜表示の切り替えを行なうものとしてもよい。   In this embodiment, “recognize and convert” is exemplified as an item that can be gesture-operated in the handwritten character input mode. However, the present invention is not limited to this, and other items such as “recognize as it is” are exemplified. May be added or replaced with other items. When there are a plurality of items in the handwritten character input mode, these operation procedures may be sorted in the order of frequency of use and displayed in the guidance display area 64, and displayed in the guidance display area 64. When there are no items, display switching may be performed as appropriate.

本実施形態では、編集モード時にジェスチャー操作が可能な編集項目として「挿入」,「上書挿入」,「削除」,「入れ替え」,「大文字変換」,「小文字変換」,「部分追記」,「部分削除」,「合体」,「分離」,「確定」を挙げるものとしたが、これに限定されるものではなく、これらの一部を省略するものとしてもよいし、他の編集項目も追加するものとしてもよい。   In the present embodiment, “insert”, “overwrite insert”, “delete”, “replace”, “uppercase conversion”, “lowercase conversion”, “partial append”, “ “Partial deletion”, “merging”, “separation”, “confirmation” are listed, but this is not restrictive, and some of these may be omitted, and other editing items may be added. It is good also as what to do.

本実施形態では、ガイダンス表示領域64に表示するジェスチャー操作の操作手順(ガイダンス)を使用頻度が高いものから順に表示するものとしたが、これに限定されるものではなく、使用頻度が低いものから順に表示するものとしてもよいし、予め定められた順序で表示するものとしてもよい。   In the present embodiment, the operation procedure (guidance) of the gesture operation displayed in the guidance display area 64 is displayed in descending order of usage frequency, but is not limited to this, and the usage frequency is low. It may be displayed in order, or may be displayed in a predetermined order.

本実施形態では、ガイダンス表示領域64に表示しきれないガイダンスの表示切り替えを左右の移動ボタン枠64a,64bを用いて行なうものとしたが、これに限定されるものではなく、所定時間が経過する毎に自動で表示を切り替えるものとしてもよい。   In the present embodiment, guidance display switching that cannot be displayed in the guidance display area 64 is performed using the left and right moving button frames 64a and 64b. However, the present invention is not limited to this, and a predetermined time elapses. The display may be automatically switched every time.

本実施形態では、本発明を手書き入力した文字列を認識すると共にこの認識した手書き文字列を仮名漢字交じり文字列に変換して表示するものに適用するものとしたが、これに限定されるものではなく、例えば、認識した手書き文字列を漢字のみを含む文字列に変換したり片仮名を含む文字列に変換したりアルファベットを含む文字列に変換したりするなど、認識した手書き文字列を別の第2の文字列に変換するものであれば、如何なる態様の文字列に変換するものとしてもよい。この場合でも、例えば、前述した「挿入」や「上書挿入」、「削除」などの編集操作は可能である。   In the present embodiment, the present invention is applied to the one that recognizes a character string input by handwriting and converts the recognized handwritten character string into a character string mixed with kana and kanji and displays it. However, the present invention is not limited to this. Instead, for example, convert a recognized handwritten character string to a character string that includes only kanji, convert it to a character string that includes katakana, or convert it to a character string that includes the alphabet. As long as it can be converted into the second character string, the character string may be converted into any character string. Even in this case, for example, the above-described editing operations such as “insertion”, “overwrite insertion”, and “deletion” are possible.

本実施形態では、手書き入力された文字列を認識して認識後の文字列をそのまま表示する「そのまま認識」の機能と、認識された手書き文字列を変換して変換後の文字列を表示する「認識して変換」の機能とを有するものとしたが、「認識して変換」の機能については省略するものとしてもよい。   In the present embodiment, a function of “recognize as it is” that recognizes a character string input by handwriting and displays the recognized character string as it is, and displays the converted character string after converting the recognized handwritten character string. The “recognize and convert” function is provided, but the “recognize and convert” function may be omitted.

本実施形態では、文字入力装置20の表示装置として、タッチパネル式の液晶ディスプレイ(LCDモジュール40)を用いるものとしたが、これに限定されるものではなく、プラズマディスプレイや有機ELディスプレイなど、如何なるディスプレイモジュールを用いるものとしてよい。   In the present embodiment, a touch panel type liquid crystal display (LCD module 40) is used as the display device of the character input device 20, but the present invention is not limited to this, and any display such as a plasma display or an organic EL display can be used. A module may be used.

なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。   It should be noted that the present invention is not limited to the above-described embodiment, and it goes without saying that the present invention can be implemented in various modes as long as it belongs to the technical scope of the present invention.

20 文字入力装置、22 電源ボタン、30 メインコントローラー、31 CPU、32 ROM、33 RAM、34 フラッシュメモリー、35 インターフェース(I/F)、40 LCDモジュール、41 LCDコントローラー、42 タッチパネルモジュール、43 タッチパネルコントローラー、44 メモリーカードスロット、45 メモリーカードコントローラー、50 手書き文字入力画面、52 タイトル表示領域、54 入力領域、56 結果表示領域、58 指示ボタン枠、60 認識モード選択ボタン枠、62 編集ボタン枠、64 ガイダンス表示領域、64a 右移動ボタン枠、64b 左移動ボタン枠、MC メモリーカード。   20 character input device, 22 power button, 30 main controller, 31 CPU, 32 ROM, 33 RAM, 34 flash memory, 35 interface (I / F), 40 LCD module, 41 LCD controller, 42 touch panel module, 43 touch panel controller, 44 memory card slot, 45 memory card controller, 50 handwritten character input screen, 52 title display area, 54 input area, 56 result display area, 58 instruction button frame, 60 recognition mode selection button frame, 62 edit button frame, 64 guidance display Area, 64a Right move button frame, 64b Left move button frame, MC memory card.

Claims (7)

複数の入力モードを有し、手書き文字列を入力して該手書き文字列の個々の文字を認識すると共に該認識した文字列をそのまま表示、または、該認識した文字列を第2の文字列に変換して表示する文字入力装置であって、
入力操作が可能な表示手段と、
個々の入力モード毎に使用可能なジェスチャー操作および操作手順を予め記憶する記憶手段と、
現在の入力モードを判定する入力モード判定手段と、
前記判定された現在の入力モードに応じて使用可能なジェスチャー操作の操作手順を前記記憶手段から読み出して前記表示手段に表示する操作手順表示手段と、
前記表示手段を介してジェスチャー操作を受け付ける操作受付手段と、
前記ジェスチャー操作が受け付けられたとき、該受け付けられたジェスチャー操作が前記記憶手段に記憶され且つ前記判定された現在の入力モードに対応するジェスチャー操作である場合には、前記受け付けられたジェスチャー操作に対応する処理を実行する操作対応処理実行手段と
を備える文字入力装置。
It has a plurality of input modes, and a handwritten character string is input to recognize each character of the handwritten character string and the recognized character string is displayed as it is, or the recognized character string is used as a second character string. A character input device for converting and displaying,
Display means capable of input operation;
Storage means for preliminarily storing gesture operations and operation procedures that can be used for each individual input mode;
Input mode determination means for determining the current input mode;
An operation procedure display means for reading out an operation procedure of a gesture operation usable in accordance with the determined current input mode from the storage means and displaying the operation procedure on the display means;
Operation accepting means for accepting a gesture operation via the display means;
Corresponding to the accepted gesture operation when the accepted gesture operation is a gesture operation stored in the storage means and corresponding to the determined current input mode when the gesture operation is accepted A character input device comprising: an operation corresponding process execution means for executing the process to perform.
前記複数の入力モードとして、手書き文字列を入力するための第1の入力モードと、前記認識または変換された文字列に対する編集指示を入力するための第2の入力モードとを有する請求項1記載の文字入力装置であって、
前記記憶手段は、前記第1の入力モードで使用可能な1つ以上の第1のジェスチャー操作と、前記第2の入力モードで使用可能な1つ以上の第2のジェスチャー操作とを記憶する手段である
ことを特徴とする文字入力装置。
The first input mode for inputting a handwritten character string and the second input mode for inputting an editing instruction for the recognized or converted character string as the plurality of input modes. Character input device,
The storage means stores one or more first gesture operations usable in the first input mode and one or more second gesture operations usable in the second input mode. The character input device characterized by being.
請求項2記載の文字入力装置であって、
前記第1のジェスチャー操作は、手書き入力された文字列を認識して前記第2の文字列に変換させる指示を行なうジェスチャー操作を含む
ことを特徴とする文字入力装置。
The character input device according to claim 2,
The first gesture operation includes a gesture operation for performing an instruction to recognize a character string input by handwriting and convert it to the second character string.
請求項2または3記載の文字入力装置であって、
前記第2のジェスチャー操作は、前記認識または変換された文字列の文字間に他の文字を挿入する指示を行なうジェスチャー操作と、前記認識または変換された文字列の一部の文字を他の文字に置き換える指示を行なうジェスチャー操作と、前記認識または変換された文字列の一部の文字を削除する指示を行なうジェスチャー操作の少なくとも一つを含む
ことを特徴とする文字入力装置。
A character input device according to claim 2 or 3,
The second gesture operation includes a gesture operation for giving an instruction to insert another character between characters of the recognized or converted character string, and a part of the character of the recognized or converted character string is changed to another character. A character input device comprising: at least one of a gesture operation for giving an instruction to replace with and a gesture operation for giving an instruction to delete a part of characters of the recognized or converted character string.
請求項1ないし4いずれか1項に記載の文字入力装置であって、
前記操作手順表示手段は、前記判定された現在の入力モードで使用可能なジェスチャー操作の操作手順をアニメーションを用いて表示する手段である
ことを特徴とする文字入力装置。
The character input device according to any one of claims 1 to 4,
The character input device, wherein the operation procedure display means is a means for displaying an operation procedure of a gesture operation usable in the determined current input mode using an animation.
請求項1ないし5いずれか1項に記載の文字入力装置であって、
前記操作手順表示手段は、前記判定された現在の入力モードで使用可能なジェスチャー操作を所定数まで表示する手段である
ことを特徴とする文字入力装置。
A character input device according to any one of claims 1 to 5,
The operation procedure display means is means for displaying up to a predetermined number of gesture operations that can be used in the determined current input mode.
請求項6記載の文字入力装置であって、
前記操作手順表示手段は、前記判定された現在の入力モードで使用可能なジェスチャー操作を使用頻度が高い順に前記所定数まで表示する手段である
ことを特徴とする文字入力装置。
The character input device according to claim 6,
The operation procedure display means is means for displaying up to the predetermined number of gesture operations that can be used in the determined current input mode in descending order of use frequency.
JP2012089974A 2012-04-11 2012-04-11 Character input device Pending JP2013218592A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012089974A JP2013218592A (en) 2012-04-11 2012-04-11 Character input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012089974A JP2013218592A (en) 2012-04-11 2012-04-11 Character input device

Publications (1)

Publication Number Publication Date
JP2013218592A true JP2013218592A (en) 2013-10-24

Family

ID=49590594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012089974A Pending JP2013218592A (en) 2012-04-11 2012-04-11 Character input device

Country Status (1)

Country Link
JP (1) JP2013218592A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257694A (en) * 2012-06-12 2013-12-26 Kyocera Corp Device, method, and program
JP2019507915A (en) * 2015-12-01 2019-03-22 マイスクリプト Apparatus and method for note taking using gestures

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289983A (en) * 1992-07-31 1994-10-18 Sony Corp Handwritten input information processor
JPH06309135A (en) * 1993-04-27 1994-11-04 Hitachi Ltd Menu item arrangement control system and interactive system
JPH0869461A (en) * 1994-05-13 1996-03-12 Apple Computer Inc Text conversion method for computer system
JPH1063408A (en) * 1996-08-27 1998-03-06 Hitachi Ltd Portable information terminal equipment
JP2003115032A (en) * 2001-10-05 2003-04-18 Fujitsu Ltd Handwritten character input device and program for implementing the device
JP2006251913A (en) * 2005-03-08 2006-09-21 Sony Corp Information processor, method, and program
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
JP2008282092A (en) * 2007-05-08 2008-11-20 Canon Inc Information processor allowing user to learn gesture command during operation
JP2011525665A (en) * 2008-06-24 2011-09-22 マイクロソフト コーポレーション Display of teaching videos on the user interface display

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289983A (en) * 1992-07-31 1994-10-18 Sony Corp Handwritten input information processor
JPH06309135A (en) * 1993-04-27 1994-11-04 Hitachi Ltd Menu item arrangement control system and interactive system
JPH0869461A (en) * 1994-05-13 1996-03-12 Apple Computer Inc Text conversion method for computer system
JPH1063408A (en) * 1996-08-27 1998-03-06 Hitachi Ltd Portable information terminal equipment
JP2003115032A (en) * 2001-10-05 2003-04-18 Fujitsu Ltd Handwritten character input device and program for implementing the device
JP2006251913A (en) * 2005-03-08 2006-09-21 Sony Corp Information processor, method, and program
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
JP2008282092A (en) * 2007-05-08 2008-11-20 Canon Inc Information processor allowing user to learn gesture command during operation
JP2011525665A (en) * 2008-06-24 2011-09-22 マイクロソフト コーポレーション Display of teaching videos on the user interface display

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257694A (en) * 2012-06-12 2013-12-26 Kyocera Corp Device, method, and program
JP2019507915A (en) * 2015-12-01 2019-03-22 マイスクリプト Apparatus and method for note taking using gestures
JP7046806B2 (en) 2015-12-01 2022-04-04 マイスクリプト Equipment and methods for note-taking with gestures
US11402991B2 (en) 2015-12-01 2022-08-02 Myscript System and method for note taking with gestures

Similar Documents

Publication Publication Date Title
US9881224B2 (en) User interface for overlapping handwritten text input
US10248635B2 (en) Method for inserting characters in a character string and the corresponding digital service
US11157165B2 (en) Permanent synchronization system for handwriting input
US20040070573A1 (en) Method of combining data entry of handwritten symbols with displayed character data
JP6991486B2 (en) Methods and systems for inserting characters into strings
JP2001005599A (en) Information processor and information processing method an d recording medium recording information processing program
JP2000123114A (en) Handwritten character input device and storage medium
JP5947887B2 (en) Display control device, control program, and display device control method
TW200837634A (en) Handwritten character input device
KR101394874B1 (en) Device and method implementing for particular function based on writing
US10996843B2 (en) System and method for selecting graphical objects
JP2004342101A (en) Data processing device and method
JP2012088969A (en) Input display apparatus, input display method, computer program, and recording medium
JP2005196250A (en) Information input support device and information input support method
JP2013218592A (en) Character input device
JP4030575B2 (en) Touch type key input device, touch type key input method and program
KR100656779B1 (en) Alphabet Input Apparatus Using A TouchPad And Method Thereof
JP2009283015A (en) Information input support device
US20230054848A1 (en) Structural decomposition in handwriting
JP2013214187A (en) Character input device, method for controlling character input device, control program and recording medium
JP2004272377A (en) Device of character editing, character input/display device, method of character editing, program of character editing, and storage medium
JP6217274B2 (en) Portable terminal device and program
JP2013232042A (en) Character input device
JPH11345072A (en) Gesture processor and gesture processing method
JP2013228775A (en) Character input device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160523

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160609

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160906