JP2017126243A - Input device and character input program - Google Patents

Input device and character input program Download PDF

Info

Publication number
JP2017126243A
JP2017126243A JP2016005841A JP2016005841A JP2017126243A JP 2017126243 A JP2017126243 A JP 2017126243A JP 2016005841 A JP2016005841 A JP 2016005841A JP 2016005841 A JP2016005841 A JP 2016005841A JP 2017126243 A JP2017126243 A JP 2017126243A
Authority
JP
Japan
Prior art keywords
character
unit
input
input device
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016005841A
Other languages
Japanese (ja)
Inventor
秋山 勝彦
Katsuhiko Akiyama
勝彦 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016005841A priority Critical patent/JP2017126243A/en
Publication of JP2017126243A publication Critical patent/JP2017126243A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input device capable of ensuring an area for outputting a recognized character even when an input/output screen is small.SOLUTION: An input device 1 has a touch panel in a predetermined area on a screen. The input device 1 has a detection section 11 that detects a trail of an operation made on the touch panel responding to the operation of handwriting input in a predetermined area; a character recognition section 12 that recognizes the character using the trail of the detected operation; and a multi recognition result display unit 14 that displays the recognized character in a predetermined area.SELECTED DRAWING: Figure 1

Description

本発明は、入力装置などに関する。   The present invention relates to an input device and the like.

手書き文字を認識する文字入力装置の技術が開示されている(例えば、特許文献1参照)。かかる技術では、文字入力装置は、入力された手書き文字の各ストロークについて入力枠に対するストロークの開始・終了領域と方向とからストローク情報を求める。そして、文字入力装置は、求めたストローク情報をストローク辞書に登録されたストローク情報と照合してストローク候補を検出する。そして、文字入力装置は、文字毎のストロークの組み合わせを登録した筆跡辞書を用いてストローク候補の列から文字候補を検出する。これにより、文字入力装置は、1つの入力枠に重ね書きされた手書き文字から正しい文字を検出する。   The technique of the character input device which recognizes a handwritten character is disclosed (for example, refer patent document 1). In this technique, the character input device obtains stroke information from the stroke start / end region and direction with respect to the input frame for each stroke of the input handwritten character. Then, the character input device collates the obtained stroke information with the stroke information registered in the stroke dictionary, and detects a stroke candidate. And a character input device detects a character candidate from the stroke candidate row | line | column using the handwriting dictionary which registered the combination of the stroke for every character. Thereby, the character input device detects a correct character from the handwritten character overwritten in one input frame.

特開2001−184458号公報JP 2001-184458 A 特開平8−180138号公報JP-A-8-180138 特開平5−061596号公報JP-A-5-061596 特開2000−148322号公報JP 2000-148322 A

しかしながら、画面が小型化するにつれて、文字認識された文字を表示する領域を確保することが難しいという問題がある。   However, as the screen becomes smaller, there is a problem that it is difficult to secure an area for displaying the recognized character.

例えば、従来の技術では、手書き文字を入力する領域と表示する領域とは、分離している。仮に、入力する領域と表示する領域とが一体化した場合に、入力領域と表示領域とを備える画面が小型化すると、文字認識された文字を表示する領域を確保することが難しい。   For example, in the conventional technique, a region for inputting handwritten characters and a region for displaying are separated. If the input area and the display area are integrated, if the screen including the input area and the display area is downsized, it is difficult to secure an area for displaying the character-recognized character.

1つの側面では、画面が小型化しても、文字認識された文字を表示する領域を確保することを目的とする。   An object of one aspect is to secure an area for displaying recognized characters even if the screen is downsized.

1つの態様では、入力装置は、画面上の所定の領域にタッチパネルを有する入力装置であって、前記所定の領域に手書き入力される操作に応じて、前記タッチパネルへの操作の軌跡を検出する検出部と、前記検出部によって検出された操作の軌跡を文字認識する文字認識部と、前記文字認識部によって文字認識された文字を前記所定の領域に出力する出力部と、を有する。   In one aspect, the input device is an input device having a touch panel in a predetermined area on the screen, and detects a trajectory of the operation on the touch panel in response to an operation input by handwriting in the predetermined area. A character recognition unit for recognizing a trajectory of the operation detected by the detection unit, and an output unit for outputting the character recognized by the character recognition unit to the predetermined area.

1つの態様によれば、画面が小型化しても、文字認識された文字を表示する領域を確保することができる。   According to one aspect, even if the screen is reduced in size, it is possible to secure an area for displaying a character-recognized character.

図1は、実施例に係る入力装置の構成を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating the configuration of the input device according to the embodiment. 図2は、実施例に係る入力装置の一例を示す図である。FIG. 2 is a diagram illustrating an example of the input device according to the embodiment. 図3Aは、実施例に係る文字入力処理の一例を示す図である。FIG. 3A is a diagram illustrating an example of the character input process according to the embodiment. 図3Bは、実施例に係る文字入力処理の別の例を示す図である。FIG. 3B is a diagram illustrating another example of the character input process according to the embodiment. 図4は、実施例に係る文字入力処理のフローチャートの一例を示す図である。FIG. 4 is a diagram illustrating an example of a flowchart of a character input process according to the embodiment. 図5は、実施例に係る軌跡表示更新処理のフローチャートの一例を示す図である。FIG. 5 is a diagram illustrating an example of a flowchart of the locus display update process according to the embodiment. 図6は、文字入力プログラムを実行するコンピュータの一例を示す図である。FIG. 6 is a diagram illustrating an example of a computer that executes a character input program.

以下に、本願の開示する入力装置および文字入力プログラムの実施例を図面に基づいて詳細に説明する。なお、実施例によりこの発明が限定されるものではない。   Hereinafter, embodiments of an input device and a character input program disclosed in the present application will be described in detail with reference to the drawings. The present invention is not limited to the embodiments.

[実施例に係る入力装置の構成]
図1は、実施例に係る入力装置の機能構成を示す機能ブロック図である。実施例に係る入力装置1は、画面領域での重ね書きによる手書き入力において、手書き入力される操作に応じて、操作の軌跡を検出し、検出された操作の軌跡を用いて文字認識する。入力装置1は、文字認識された文字を手書き入力される画面領域の中に表示する。表示は、出力の一例である。
[Configuration of Input Device According to Embodiment]
FIG. 1 is a functional block diagram illustrating a functional configuration of the input device according to the embodiment. The input device 1 according to the embodiment detects a trajectory of an operation according to an operation input by handwriting in handwriting input by overwriting in a screen area, and recognizes a character using the detected trajectory of the operation. The input device 1 displays the character-recognized character in a screen area where handwriting is input. The display is an example of output.

入力装置1は、画面入力と画面表示とが一体となった画面を有し、画面にはタッチパネルを備える。入力装置1は、例えば、スマートウォッチやスマートフォンが挙げられる。タッチパネルの動作原理には、例えば、抵抗膜方式、静電容量方式、弾性表面波方式、赤外線方式、カメラで指位置をトラッキングする方式などがある。ここで、操作原理の一例である赤外線方式は、赤外線をパネルの端からパネルの表面に対して平行に発し、反対側のセンサで赤外線が指などで遮られているかどうかを取得することによって指タッチ位置のセンシングを行う。   The input device 1 has a screen in which screen input and screen display are integrated, and the screen includes a touch panel. Examples of the input device 1 include a smart watch and a smartphone. The operation principle of the touch panel includes, for example, a resistance film method, a capacitance method, a surface acoustic wave method, an infrared method, and a method of tracking a finger position with a camera. Here, the infrared method, which is an example of the operating principle, emits infrared light parallel to the panel surface from the edge of the panel, and the finger on the opposite side is obtained by acquiring whether the infrared light is blocked by a finger or the like. Sensing the touch position.

なお、入力装置1は、タッチパネルを備えると説明したが、タッチパネルに代えて筆記入力が可能なポインティングデバイスであっても良い。ポインティングデバイスの動作原理には、例えば、電子ペンを用いた電磁誘導方式、紙などに印刷された特殊なパターンをペン先に仕込んだカメラで読み取ってペン先の位置を特定する方式、加速度センサやジャイロセンサでペン先の動きを計測する方式などがある。   Although the input device 1 has been described as including a touch panel, a pointing device capable of writing input may be used instead of the touch panel. The operating principle of the pointing device includes, for example, an electromagnetic induction method using an electronic pen, a method in which a special pattern printed on paper or the like is read with a camera loaded on the pen tip, and the position of the pen tip is specified, an acceleration sensor, There is a method of measuring the movement of the pen tip with a gyro sensor.

ここで、入力装置1の一例を、図2を参照して説明する。図2は、実施例に係る入力装置の一例を示す図である。なお、ここでは、入力装置1をスマートウォッチとして説明する。図2に示すように、入力装置1は、タッチにより手書き文字を書き込むタッチパネル100を含む。タッチパネル100は、画面領域上に搭載される。画面領域は、タッチによる入力可能な領域であるとともに、文字認識された結果の表示領域でもある。   Here, an example of the input device 1 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of the input device according to the embodiment. Here, the input device 1 will be described as a smart watch. As illustrated in FIG. 2, the input device 1 includes a touch panel 100 that writes handwritten characters by touch. The touch panel 100 is mounted on the screen area. The screen area is an area that can be input by touching, and is also a display area for the result of character recognition.

図1に戻って、入力装置1は、制御部10と記憶部20とを有する。   Returning to FIG. 1, the input device 1 includes a control unit 10 and a storage unit 20.

制御部10は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。そして、制御部10は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路の電子回路に対応する。または、制御部10は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路に対応する。さらに、制御部10は、検出部11、文字認識部12、複数認識制御部13、複数認識結果表示部14、認識結果選択部15、文字確定部16および軌跡表示更新部17を有する。なお、複数認識結果表示部14は、出力部の一例である。軌跡表示更新部17は、軌跡出力更新部の一例である。   The control unit 10 has an internal memory for storing programs defining various processing procedures and control data, and executes various processes using these. And the control part 10 respond | corresponds to the electronic circuit of integrated circuits, such as ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array), for example. Or the control part 10 respond | corresponds to electronic circuits, such as CPU (Central Processing Unit) and MPU (Micro Processing Unit). Furthermore, the control unit 10 includes a detection unit 11, a character recognition unit 12, a multiple recognition control unit 13, a multiple recognition result display unit 14, a recognition result selection unit 15, a character determination unit 16, and a locus display update unit 17. The multiple recognition result display unit 14 is an example of an output unit. The trajectory display update unit 17 is an example of a trajectory output update unit.

記憶部20は、例えばフラッシュメモリ(Flash Memory)やFRAM(登録商標)(Ferroelectric Random Access Memory)などの不揮発性の半導体メモリ素子などの記憶装置に対応する。   The storage unit 20 corresponds to a storage device such as a nonvolatile semiconductor memory element such as a flash memory or a FRAM (registered trademark) (Ferroelectric Random Access Memory).

検出部11は、手書き入力される操作に応じて、タッチパネル100への操作の軌跡を検出する。一例として、検出部11は、タッチパネル100に指がタッチされている間、所定の時間間隔ごとに指がタッチされている位置の座標値を取得する。検出部11は、取得した一連の座標値から得られる操作の軌跡を検出する。つまり、ここでいう軌跡とは、ユーザが指で入力する場合には、ユーザが画面領域に指を連続して押圧している一筆のことをいう。   The detection unit 11 detects a trajectory of an operation on the touch panel 100 in accordance with an operation input by handwriting. As an example, the detection unit 11 acquires the coordinate value of the position where the finger is touched at every predetermined time interval while the finger is touching the touch panel 100. The detection unit 11 detects an operation trajectory obtained from the acquired series of coordinate values. That is, the trajectory here refers to a stroke in which the user continuously presses the finger against the screen area when the user inputs with the finger.

文字認識部12は、検出部11によって検出された操作の軌跡を用いて文字認識する。例えば、文字認識部12は、検出部11によって操作の軌跡が検出される都度、現に検出された操作の軌跡と過去の操作の軌跡とが重ね書きされた軌跡群を文字候補の重ね書き文字パターンとして蓄積し、重ね書き文字パターンを文字として認識する。一例として、文字認識部12は、特開2001−184458号公報の技術を用いて、重ね書きされる軌跡群を文字として認識すれば良い。すなわち、文字認識部12は、検出部11によって検出された手書き文字の各軌跡(ストローク)について画面領域(入力枠)に対するストロークの開始・終了領域と方向とからストローク情報を求める。文字認識部12は、求めたストローク情報をストローク辞書に登録されたストローク情報と照合してストローク候補を検出する。文字認識部12は、文字毎のストロークの組み合わせを登録した筆跡辞書を用いてストローク候補の列から文字候補を検出することにより文字を認識する。なお、文字認識部12による文字認識は、特開2001−184458号公報の技術に限定されず、いかなる技術を採用しても良い。   The character recognizing unit 12 recognizes a character by using the operation locus detected by the detecting unit 11. For example, each time the operation track is detected by the detection unit 11, the character recognition unit 12 sets a trajectory group in which the currently detected operation track and the past operation track are overwritten as a character candidate overwritten character pattern. And the overwritten character pattern is recognized as a character. As an example, the character recognizing unit 12 may recognize a locus group to be overwritten as a character by using the technique of Japanese Patent Laid-Open No. 2001-184458. That is, the character recognition unit 12 obtains stroke information from the start / end region and direction of the stroke with respect to the screen region (input frame) for each locus (stroke) of the handwritten character detected by the detection unit 11. The character recognition unit 12 collates the obtained stroke information with the stroke information registered in the stroke dictionary, and detects stroke candidates. The character recognizing unit 12 recognizes a character by detecting a character candidate from a sequence of stroke candidates using a handwriting dictionary in which a combination of strokes for each character is registered. Note that character recognition by the character recognition unit 12 is not limited to the technique disclosed in Japanese Patent Laid-Open No. 2001-184458, and any technique may be adopted.

複数認識制御部13は、複数の文字種ごとにそれぞれ文字認識する文字認識部12を並行して動作するように制御する。文字種とは、一例として、ひらがな、英字、数字のことをいう。例えば、複数認識制御部13は、ひらがなを対象として文字認識する文字認識部12、英字を対象として文字認識する文字認識部12、数字を対象として文字認識する文字認識部12を並行して動作するように制御する。なお、複数認識制御部13は、複数の文字種ごとにそれぞれ文字認識する文字認識部12を並行して動作するように制御すると説明したが、これに限定されない。複数認識制御部13は、複数の文字種ごとにそれぞれ文字認識する文字認識部12を順番に動作するように制御しても良い。   The multiple recognition control unit 13 controls the character recognition unit 12 that recognizes each of the plurality of character types to operate in parallel. A character type means, for example, hiragana, alphabetic characters, or numbers. For example, the multiple recognition control unit 13 operates in parallel with a character recognition unit 12 that recognizes characters for hiragana, a character recognition unit 12 that recognizes characters for alphabetic characters, and a character recognition unit 12 that recognizes characters for numbers. To control. The multiple recognition control unit 13 has been described as controlling the character recognition unit 12 that recognizes each of the plurality of character types to operate in parallel, but is not limited thereto. The multiple recognition control unit 13 may control the character recognition unit 12 that recognizes each of the plurality of character types to operate in order.

複数認識結果表示部14は、複数認識制御部13によって制御された文字認識部12からのそれぞれの認識結果を表示する。例えば、複数認識結果表示部14は、ひらがなを対象とした認識結果、英字を対象とした認識結果、数字を対象とした認識結果を画面領域内の文字列表示領域に表示する。なお、複数認識結果表示部14は、文字認識の信頼度が所定の度合いより低い場合には、文字認識された文字を表示しないようにしても良い。所定の度合いは、一例として、60%であるが、これに限定されない。また、複数認識結果表示部14は、各認識結果を文字認識の信頼度の高い順に表示するようにしても良い。これにより、複数認識結果表示部14は、手書き文字を入力する画面領域に、文字の認識結果を重ねて表示することで、画面領域を節約することが可能となる。   The multiple recognition result display unit 14 displays each recognition result from the character recognition unit 12 controlled by the multiple recognition control unit 13. For example, the multiple recognition result display unit 14 displays a recognition result for hiragana, a recognition result for alphabetic characters, and a recognition result for numbers in a character string display area in the screen area. The multiple recognition result display unit 14 may not display the character-recognized character when the reliability of character recognition is lower than a predetermined degree. The predetermined degree is, for example, 60%, but is not limited to this. In addition, the multiple recognition result display unit 14 may display the recognition results in descending order of the reliability of character recognition. Thereby, the multiple recognition result display unit 14 can save the screen area by displaying the character recognition result superimposed on the screen area where the handwritten character is input.

認識結果選択部15は、複数認識結果表示部14に表示された複数の認識結果から所望の認識結果をユーザに選択させる。ここで、入力において、手書き文字の入力か選択入力かは、タッチ軌跡の長さ若しくはタッチ時間、または、タッチ軌跡の長さおよびタッチ時間を用いて判定されれば良い。なお、実施例では、タッチ軌跡の長さを用いて判定する場合を説明するとする。すなわち、認識結果選択部15は、タッチ軌跡の長さが閾値未満である場合には、選択入力であると判定し、選択入力された位置に対応する認識結果を文字確定部16に出力する。   The recognition result selection unit 15 causes the user to select a desired recognition result from the plurality of recognition results displayed on the multiple recognition result display unit 14. Here, in the input, whether the input is a handwritten character or a selection input may be determined using the length or touch time of the touch track, or the length and touch time of the touch track. In the embodiment, a case will be described in which determination is performed using the length of the touch trajectory. That is, the recognition result selection unit 15 determines that the input is a selection input when the length of the touch track is less than the threshold, and outputs a recognition result corresponding to the selected and input position to the character determination unit 16.

文字確定部16は、認識結果選択部15によって選択された認識結果を文字入力結果として確定する。   The character determination unit 16 determines the recognition result selected by the recognition result selection unit 15 as a character input result.

軌跡表示更新部17は、検出部11によって検出された操作の軌跡を操作に追従して画面領域に表示し、操作の軌跡の表示を時間の経過に応じて淡く(薄く)なるように更新する。例えば、軌跡表示更新部17は、所定の時間間隔ごとにタイマーイベントが発生すると、表示されている軌跡の表示属性(濃淡)が淡く(薄く)なるように更新する。軌跡表示更新部17は、表示属性に従い、表示されている軌跡の表示を更新する。所定の時間間隔は、一例として、100ミリ秒であるが、これに限定されない。   The trajectory display update unit 17 displays the operation trajectory detected by the detection unit 11 on the screen area following the operation, and updates the display of the operation trajectory so as to become lighter (lighter) as time passes. . For example, when a timer event occurs every predetermined time interval, the trajectory display update unit 17 updates the displayed trajectory display attributes (light / dark) so as to be light (light). The trajectory display update unit 17 updates the displayed trajectory display according to the display attribute. As an example, the predetermined time interval is 100 milliseconds, but is not limited thereto.

[文字入力処理の一例]
次に、実施例に係る文字入力処理の一例を、図3Aを参照して説明する。図3Aは、実施例に係る文字入力処理の一例を示す図である。図3Aの一例では、ユーザが、タッチパネル100の画面領域g0に対して、重ね書きで「123」と書き込んだ場合の処理例である。
[Example of character input processing]
Next, an example of the character input process according to the embodiment will be described with reference to FIG. 3A. FIG. 3A is a diagram illustrating an example of the character input process according to the embodiment. 3A is an example of processing when the user writes “123” by overwriting on the screen area g0 of the touch panel 100. FIG.

ユーザが画面領域g0に「1」と手書き入力する。すると、検出部11は、手書き入力された操作に応じて、タッチパネル100への操作の軌跡を検出する。   The user inputs handwriting “1” in the screen area g0. Then, the detection part 11 detects the locus | trajectory of operation to the touch panel 100 according to the operation input by handwriting.

複数認識制御部13は、ひらがなを対象として文字認識する文字認識部12、英字を対象として文字認識する文字認識部12、数字を対象として文字認識する文字認識部12を並行して動作するように制御する。ひらがなを対象として文字認識する文字認識部12は、操作の軌跡を用いて「し」と文字認識する。英字を対象として文字認識する文字認識部12は、操作の軌跡を用いて「l」と文字認識する。数字を対象として文字認識する文字認識部12は、操作の軌跡を用いて「1」と文字認識する。   The multiple recognition control unit 13 operates in parallel with a character recognition unit 12 that recognizes characters for hiragana, a character recognition unit 12 that recognizes characters for alphabetic characters, and a character recognition unit 12 that recognizes characters for numbers. Control. The character recognizing unit 12 that recognizes characters for hiragana recognizes “shi” as a character using an operation trajectory. The character recognizing unit 12 that recognizes a character with respect to an alphabetic character recognizes the character “l” by using an operation locus. The character recognizing unit 12 that recognizes a character with a number as a target recognizes the character “1” using the locus of the operation.

複数認識結果表示部14は、複数認識制御部13によって制御された文字認識部12からのそれぞれの認識結果を文字列表示領域g1に表示する。複数認識結果表示部14は、各認識結果を文字認識の信頼度の高い順に表示する。ここでは、文字認識の信頼度が、数字を対象とした文字認識、英字を対象とした文字認識、ひらがなを対象とした文字認識の順に高いとする。すると、複数認識結果表示部14は、1番目の文字列表示領域g1に、数字を対象とした文字の認識結果である「1」を表示する。複数認識結果表示部14は、2番目の文字列表示領域g1に、英字を対象とした文字の認識結果である「l」を表示する。複数認識結果表示部14は、3番目の文字列表示領域g1に、ひらがなを対象とした文字の認識結果である「し」を表示する。   The multiple recognition result display unit 14 displays each recognition result from the character recognition unit 12 controlled by the multiple recognition control unit 13 in the character string display region g1. The multiple recognition result display unit 14 displays the recognition results in the order of the high reliability of character recognition. Here, it is assumed that the reliability of character recognition is higher in the order of character recognition for numbers, character recognition for English characters, and character recognition for hiragana. Then, the multiple recognition result display unit 14 displays “1”, which is a recognition result of characters targeted for numbers, in the first character string display region g1. The multiple recognition result display unit 14 displays “l”, which is a recognition result of characters targeted for English characters, in the second character string display region g1. The multiple recognition result display unit 14 displays “shi”, which is a recognition result of characters targeted for hiragana, in the third character string display region g1.

次に、ユーザが画面領域g0に重ね書きで「2」と手書き入力する。すると、検出部11は、手書き入力された操作に応じて、タッチパネルへの操作の軌跡を検出する。並行して、軌跡表示更新部17は、操作の軌跡の表示「1」を時間の経過に応じて淡くなるように更新する。この結果、表示された「1」は、時間の経過に応じて淡く表示される。   Next, the user inputs “2” by handwriting in the screen area g0. Then, the detection part 11 detects the locus | trajectory of operation to a touch panel according to the operation input by handwriting. In parallel, the trajectory display update unit 17 updates the display “1” of the operation trajectory so as to become lighter as time elapses. As a result, the displayed “1” is displayed lightly as time passes.

複数認識制御部13は、ひらがなを対象として文字認識する文字認識部12、英字を対象として文字認識する文字認識部12、数字を対象として文字認識する文字認識部12を並行して動作するように制御する。ひらがなを対象として文字認識する文字認識部12は、操作の軌跡を用いて「て」と文字認識する。英字を対象として文字認識する文字認識部12は、操作の軌跡を用いて「z」と文字認識する。数字を対象として文字認識する文字認識部12は、操作の軌跡を用いて「2」と文字認識する。   The multiple recognition control unit 13 operates in parallel with a character recognition unit 12 that recognizes characters for hiragana, a character recognition unit 12 that recognizes characters for alphabetic characters, and a character recognition unit 12 that recognizes characters for numbers. Control. The character recognition unit 12 that recognizes characters for hiragana characters recognizes “te” using the trajectory of the operation. The character recognizing unit 12 that recognizes a character with respect to an alphabetic character recognizes the character “z” by using an operation locus. The character recognizing unit 12 that recognizes a character with a number as a target recognizes the character “2” using the locus of the operation.

複数認識結果表示部14は、複数認識制御部13によって制御された文字認識部12からのそれぞれの認識結果を文字列表示領域g1に表示する。複数認識結果表示部14は、1番目の文字列表示領域g1に、数字を対象とした文字の認識結果である「2」を追加し、「12」を表示する。複数認識結果表示部14は、2番目の文字列表示領域g1に、英字を対象とした文字の認識結果である「z」を追加し、「lz」を表示する。複数認識結果表示部14は、3番目の文字列表示領域g1に、ひらがなを対象とした文字の認識結果である「て」を追加し、「して」を表示する。   The multiple recognition result display unit 14 displays each recognition result from the character recognition unit 12 controlled by the multiple recognition control unit 13 in the character string display region g1. The multiple recognition result display unit 14 adds “2”, which is a character recognition result for a number, to the first character string display area g1, and displays “12”. The multi-recognition result display unit 14 adds “z”, which is a recognition result of characters intended for English characters, to the second character string display region g1, and displays “lz”. The multiple recognition result display unit 14 adds “te”, which is a character recognition result for hiragana, to the third character string display region g1, and displays “t”.

次に、ユーザが画面領域g0に重ね書きで「3」と手書き入力する。すると、検出部11は、手書き入力された操作に応じて、タッチパネル100への操作の軌跡を検出する。並行して、軌跡表示更新部17は、操作の軌跡の表示「1」および「2」を時間の経過に応じて淡くなるように更新する。この結果、表示された「1」および「2」は、時間の経過に応じて淡く表示される。   Next, the user inputs “3” by handwriting over the screen area g0. Then, the detection part 11 detects the locus | trajectory of operation to the touch panel 100 according to the operation input by handwriting. In parallel, the trajectory display update unit 17 updates the operation trajectory displays “1” and “2” so as to become lighter as time elapses. As a result, the displayed “1” and “2” are displayed lightly as time passes.

複数認識制御部13は、ひらがなを対象として文字認識する文字認識部12、英字を対象として文字認識する文字認識部12、数字を対象として文字認識する文字認識部12を並行して動作するように制御する。ひらがなを対象として文字認識する文字認識部12は、操作の軌跡を用いて「ろ」と文字認識する。英字を対象として文字認識する文字認識部12は、操作の軌跡を用いて「j」と文字認識する。数字を対象として文字認識する文字認識部12は、操作の軌跡を用いて「3」と文字認識する。   The multiple recognition control unit 13 operates in parallel with a character recognition unit 12 that recognizes characters for hiragana, a character recognition unit 12 that recognizes characters for alphabetic characters, and a character recognition unit 12 that recognizes characters for numbers. Control. The character recognition unit 12 that recognizes characters for hiragana recognizes “RO” using the operation trajectory. The character recognizing unit 12 that recognizes a character with respect to an alphabetic character recognizes the character “j” by using an operation locus. The character recognizing unit 12 that recognizes a character for a number recognizes “3” using the locus of the operation.

複数認識結果表示部14は、複数認識制御部13によって制御された文字認識部12からのそれぞれの認識結果を文字列表示領域g1に表示する。複数認識結果表示部14は、1番目の文字列表示領域g1に、数字を対象とした文字の認識結果である「3」を追加し、「123」を表示する。複数認識結果表示部14は、2番目の文字列表示領域g1に、英字を対象とした文字の認識結果である「j」を追加し、「lzj」を表示する。複数認識結果表示部14は、3番目の文字列表示領域g1に、ひらがなを対象とした文字の認識結果である「ろ」を追加し、「してろ」を表示する。   The multiple recognition result display unit 14 displays each recognition result from the character recognition unit 12 controlled by the multiple recognition control unit 13 in the character string display region g1. The multiple recognition result display unit 14 adds “3”, which is a character recognition result for a number, to the first character string display area g1, and displays “123”. The multi-recognition result display unit 14 adds “j”, which is a recognition result of characters targeted for alphabetic characters, to the second character string display region g1, and displays “lzj”. The multiple recognition result display unit 14 adds “RO”, which is a recognition result of characters targeted for hiragana, to the third character string display area g1, and displays “SERO”.

次に、ユーザが、文字列表示領域g1の左横にある選択可能領域g2を選択入力する。選択入力の操作の一例として、タップ操作がある。ここでは、ユーザは、1番目の文字列表示領域g1の左横にある選択可能領域g2をタップ操作する。すると、認識結果選択部15は、選択入力であると判定し、選択入力された位置に対応する認識結果「123」を文字確定部16に出力する。そして、文字確定部16は、認識結果「123」を文字入力結果として確定する。   Next, the user selects and inputs a selectable area g2 on the left side of the character string display area g1. One example of the selection input operation is a tap operation. Here, the user taps the selectable area g2 on the left side of the first character string display area g1. Then, the recognition result selection unit 15 determines that the input is a selection input, and outputs the recognition result “123” corresponding to the position selected and input to the character determination unit 16. Then, the character determination unit 16 determines the recognition result “123” as the character input result.

[文字入力処理の別の例]
次に、実施例に係る文字入力処理の別の例を、図3Bを参照して説明する。図3Bは、実施例に係る文字入力処理の別の例を示す図である。図3Bの一例では、ユーザが、タッチパネル100の画面領域g0に対して、重ね書きで「あいう」と書き込んだ場合の処理例である。
[Another example of character input processing]
Next, another example of character input processing according to the embodiment will be described with reference to FIG. 3B. FIG. 3B is a diagram illustrating another example of the character input process according to the embodiment. An example of FIG. 3B is a processing example in the case where the user writes “A” in the screen area g0 of the touch panel 100 by overwriting.

ユーザが画面領域g0に「あ」と手書き入力する。すると、検出部11は、手書き入力された操作に応じて、タッチパネル100への操作の軌跡を検出する。   The user inputs “a” in handwriting in the screen area g0. Then, the detection part 11 detects the locus | trajectory of operation to the touch panel 100 according to the operation input by handwriting.

複数認識制御部13は、ひらがなを対象として文字認識する文字認識部12、英字を対象として文字認識する文字認識部12、数字を対象として文字認識する文字認識部12を並行して動作するように制御する。ひらがなを対象として文字認識する文字認識部12は、複数の操作の軌跡を用いて「あ」と文字認識する。英字を対象として文字認識する文字認識部12は、複数の操作の軌跡を用いて文字認識する。数字を対象として文字認識する文字認識部12は、複数の操作の軌跡を用いて文字認識する。   The multiple recognition control unit 13 operates in parallel with a character recognition unit 12 that recognizes characters for hiragana, a character recognition unit 12 that recognizes characters for alphabetic characters, and a character recognition unit 12 that recognizes characters for numbers. Control. The character recognition unit 12 that recognizes characters for hiragana recognizes “A” using a plurality of operation trajectories. The character recognition unit 12 for recognizing an alphabetic character as a target recognizes the character using a plurality of operation trajectories. The character recognition unit 12 for recognizing characters for numbers recognizes characters using a plurality of operation trajectories.

複数認識結果表示部14は、複数認識制御部13によって制御された文字認識部12からのそれぞれの認識結果を文字列表示領域g1に表示する。複数認識結果表示部14は、各認識結果を文字認識の信頼度の高い順に表示する。複数認識結果表示部14は、文字認識の信頼度が所定の度合いより低い場合には、文字認識された文字を表示しない。ここでは、数字を対象とした文字認識および英字を対象とした文字認識の信頼度が所定の度合いより低いとする。このため、複数認識結果表示部14は、数字および英字を対象とした文字認識を文字列表示領域g1に表示しない。一方、複数認識結果表示部14は、ひらがなを対象とした文字の認識結果である「あ」を1番目の文字列表示領域g1に表示する。   The multiple recognition result display unit 14 displays each recognition result from the character recognition unit 12 controlled by the multiple recognition control unit 13 in the character string display region g1. The multiple recognition result display unit 14 displays the recognition results in the order of the high reliability of character recognition. When the reliability of character recognition is lower than a predetermined degree, the multiple recognition result display unit 14 does not display a character recognized character. Here, it is assumed that the reliability of character recognition for numbers and character recognition for English characters is lower than a predetermined degree. For this reason, the multiple recognition result display unit 14 does not display character recognition for numbers and alphabetic characters in the character string display region g1. On the other hand, the multiple recognition result display unit 14 displays “A”, which is a character recognition result for hiragana, in the first character string display region g1.

次に、ユーザが画面領域g0に重ね書きで「い」と手書き入力する。すると、検出部11は、手書き入力された操作に応じて、タッチパネル100への操作の軌跡を検出する。並行して、軌跡表示更新部17は、操作の軌跡の表示「あ」を時間の経過に応じて淡くなるように更新する。この結果、表示された「あ」は、時間の経過に応じて淡く表示される。   Next, the user inputs “I” by handwriting over the screen area g0. Then, the detection part 11 detects the locus | trajectory of operation to the touch panel 100 according to the operation input by handwriting. In parallel, the trajectory display update unit 17 updates the display of the operation trajectory “A” so as to become lighter as time elapses. As a result, the displayed “A” is lightly displayed as time passes.

複数認識制御部13は、ひらがなを対象として文字認識する文字認識部12、英字を対象として文字認識する文字認識部12、数字を対象として文字認識する文字認識部12を並行して動作するように制御する。ひらがなを対象として文字認識する文字認識部12は、操作の軌跡を用いて「い」と文字認識する。英字を対象として文字認識する文字認識部12は、操作の軌跡を用いて文字認識する。数字を対象として文字認識する文字認識部12は、操作の軌跡を用いて文字認識する。   The multiple recognition control unit 13 operates in parallel with a character recognition unit 12 that recognizes characters for hiragana, a character recognition unit 12 that recognizes characters for alphabetic characters, and a character recognition unit 12 that recognizes characters for numbers. Control. The character recognizing unit 12 that recognizes characters for hiragana recognizes “i” using the operation trajectory. The character recognizing unit 12 that recognizes characters for alphabetic characters recognizes characters using an operation trajectory. The character recognizing unit 12 that recognizes a character using a number as a target recognizes the character using an operation trajectory.

複数認識結果表示部14は、複数認識制御部13によって制御された文字認識部12からのそれぞれの認識結果を文字列表示領域g1に表示する。複数認識結果表示部14は、各認識結果を文字認識の信頼度の高い順に表示する。複数認識結果表示部14は、文字認識の信頼度が所定の度合いより低い場合には、文字認識された文字を表示しない。ここでは、数字を対象とした文字認識および英字を対象とした文字認識の信頼度が所定の度合いより低いとする。このため、複数認識結果表示部14は、数字および英字を対象とした文字認識を文字列表示領域g1に表示しない。一方、複数認識結果表示部14は、ひらがなを対象とした文字の認識結果である「い」を1番目の文字列表示領域g1に追加し、「あい」を表示する。   The multiple recognition result display unit 14 displays each recognition result from the character recognition unit 12 controlled by the multiple recognition control unit 13 in the character string display region g1. The multiple recognition result display unit 14 displays the recognition results in the order of the high reliability of character recognition. When the reliability of character recognition is lower than a predetermined degree, the multiple recognition result display unit 14 does not display a character recognized character. Here, it is assumed that the reliability of character recognition for numbers and character recognition for English characters is lower than a predetermined degree. For this reason, the multiple recognition result display unit 14 does not display character recognition for numbers and alphabetic characters in the character string display region g1. On the other hand, the multiple recognition result display unit 14 adds “i”, which is a character recognition result for hiragana, to the first character string display area g1, and displays “ai”.

次に、ユーザが画面領域g0に重ね書きで「う」と手書き入力する。すると、検出部11は、手書き入力された操作に応じて、タッチパネルへの操作の軌跡を検出する。並行して、軌跡表示更新部17は、操作の軌跡の表示「あ」および「い」を時間の経過に応じて淡くなるように更新する。この結果、表示された「あ」および「い」は、時間の経過に応じて淡く表示される。   Next, the user inputs by handwriting “U” in the screen area g0 by overwriting. Then, the detection part 11 detects the locus | trajectory of operation to a touch panel according to the operation input by handwriting. In parallel, the trajectory display update unit 17 updates the display of the operation trajectory “A” and “I” so as to fade as time passes. As a result, the displayed “A” and “I” are displayed lightly as time passes.

複数認識制御部13は、ひらがなを対象として文字認識する文字認識部12、英字を対象として文字認識する文字認識部12、数字を対象として文字認識する文字認識部12を並行して動作するように制御する。ひらがなを対象として文字認識する文字認識部12は、操作の軌跡を用いて「う」と文字認識する。英字を対象として文字認識する文字認識部12は、操作の軌跡を用いて文字認識する。数字を対象として文字認識する文字認識部12は、操作の軌跡を用いて文字認識する。   The multiple recognition control unit 13 operates in parallel with a character recognition unit 12 that recognizes characters for hiragana, a character recognition unit 12 that recognizes characters for alphabetic characters, and a character recognition unit 12 that recognizes characters for numbers. Control. The character recognition unit 12 that recognizes characters with hiragana as a target recognizes the characters “U” using the operation trajectory. The character recognizing unit 12 that recognizes characters for alphabetic characters recognizes characters using an operation trajectory. The character recognizing unit 12 that recognizes a character using a number as a target recognizes the character using an operation trajectory.

複数認識結果表示部14は、複数認識制御部13によって制御された文字認識部12からのそれぞれの認識結果を文字列表示領域g1に表示する。複数認識結果表示部14は、各認識結果を文字認識の信頼度の高い順に表示する。複数認識結果表示部14は、文字認識の信頼度が所定の度合いより低い場合には、文字認識された文字を表示しない。ここでは、数字を対象とした文字認識および英字を対象とした文字認識の信頼度が所定の度合いより低いとする。このため、複数認識結果表示部14は、数字および英字を対象とした文字認識を文字列表示領域g1に表示しない。一方、複数認識結果表示部14は、ひらがなを対象とした文字の認識結果である「う」を1番目の文字列表示領域g1に追加し、「あいう」を表示する。   The multiple recognition result display unit 14 displays each recognition result from the character recognition unit 12 controlled by the multiple recognition control unit 13 in the character string display region g1. The multiple recognition result display unit 14 displays the recognition results in the order of the high reliability of character recognition. When the reliability of character recognition is lower than a predetermined degree, the multiple recognition result display unit 14 does not display a character recognized character. Here, it is assumed that the reliability of character recognition for numbers and character recognition for English characters is lower than a predetermined degree. For this reason, the multiple recognition result display unit 14 does not display character recognition for numbers and alphabetic characters in the character string display region g1. On the other hand, the multiple recognition result display unit 14 adds “u”, which is a recognition result of characters targeting hiragana, to the first character string display region g1, and displays “a”.

次に、ユーザが、文字列表示領域g1の左横にある選択可能領域g2を選択入力する。選択入力の操作の一例として、タップ操作がある。ここでは、ユーザは、1番目の文字列表示領域g1の左横にある選択可能領域g2をタップ操作する。すると、認識結果選択部15は、選択入力であると判定し、選択入力された位置に対応する認識結果「あいう」を文字確定部16に出力する。そして、文字確定部16は、認識結果「あいう」を文字入力結果として確定する。   Next, the user selects and inputs a selectable area g2 on the left side of the character string display area g1. One example of the selection input operation is a tap operation. Here, the user taps the selectable area g2 on the left side of the first character string display area g1. Then, the recognition result selection unit 15 determines that the input is a selection input, and outputs a recognition result “that” corresponding to the selected and input position to the character determination unit 16. Then, the character confirming unit 16 confirms the recognition result “that” as the character input result.

[文字入力処理のフローチャート]
次に、実施例に係る文字入力処理の処理手順の一例を、図4を参照して説明する。図4は、実施例に係る文字入力処理のフローチャートの一例を示す図である。
[Character input process flowchart]
Next, an example of a processing procedure of character input processing according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a flowchart of a character input process according to the embodiment.

図4に示すように、検出部11は、タッチパネル100への入力であることを示すタッチ入力であるか否かを判定する(ステップS11)。タッチ入力でないと判定した場合には(ステップS11;No)、検出部11は、タッチ入力があるまで判定処理を繰り返す。   As illustrated in FIG. 4, the detection unit 11 determines whether or not the input is a touch input indicating that the input is to the touch panel 100 (step S <b> 11). When it determines with not being a touch input (step S11; No), the detection part 11 repeats a determination process until there exists a touch input.

一方、タッチ入力であると判定した場合には(ステップS11;Yes)、検出部11は、タッチによる軌跡の長さLを算出する(ステップS12)。検出部11は、軌跡の長さLが閾値以上であるか否かを判定する(ステップS13)。   On the other hand, when it determines with it being touch input (step S11; Yes), the detection part 11 calculates the length L of the locus | trajectory by a touch (step S12). The detection unit 11 determines whether or not the length L of the trajectory is equal to or greater than a threshold value (step S13).

軌跡の長さLが閾値以上であると判定した場合には(ステップS13;Yes)、文字認識部12は、タッチによる軌跡を示すデータ(軌跡データ)を蓄積するとともに、当該軌跡を重ね書き文字パターンとして蓄積する(ステップS14)。例えば、文字認識部12は、タッチによる軌跡と過去の軌跡とが重ね書きされた軌跡群を文字候補の重ね書き文字パターンとして蓄積する。   When it is determined that the length L of the trajectory is equal to or greater than the threshold (step S13; Yes), the character recognition unit 12 accumulates data indicating the trajectory by touch (trajectory data) and overwrites the trajectory with the overwritten character. Accumulated as a pattern (step S14). For example, the character recognition unit 12 accumulates a trajectory group in which a trajectory by touch and a past trajectory are overwritten as an overwritten character pattern of character candidates.

そして、文字認識部12は、蓄積された重ね書き文字パターンを別々の文字種で文字として認識する(ステップS15)。   Then, the character recognition unit 12 recognizes the accumulated overwritten character pattern as a character with different character types (step S15).

複数認識結果表示部14は、各文字認識結果を表示する(ステップS16)。そして、文字入力処理は、終了する。   The multiple recognition result display unit 14 displays each character recognition result (step S16). Then, the character input process ends.

ステップS13において、軌跡の長さLが閾値未満であると判定した場合には(ステップS13;No)、認識結果選択部15、タッチ入力の位置が選択可能領域であるか否かを判定する(ステップS17)。タッチ入力の位置が選択可能領域でないと判定した場合には(ステップS17;No)、認識結果選択部15は、認識結果を選択していないと判断し、ステップS14に移行する。   In step S13, when it is determined that the length L of the locus is less than the threshold (step S13; No), it is determined whether the recognition result selection unit 15 and the touch input position are in a selectable region ( Step S17). If it is determined that the position of the touch input is not a selectable region (step S17; No), the recognition result selection unit 15 determines that no recognition result has been selected, and proceeds to step S14.

一方、タッチ入力の位置が選択可能領域であると判定した場合には(ステップS17;Yes)、文字確定部16は、認識結果を選択していると判断し、選択された位置に対応する文字列を入力文字列として確定する(ステップS18)。そして、文字入力処理は、終了する。   On the other hand, when it is determined that the position of the touch input is the selectable area (step S17; Yes), the character determination unit 16 determines that the recognition result is selected, and the character corresponding to the selected position. The column is determined as the input character string (step S18). Then, the character input process ends.

[軌跡表示更新処理のフローチャート]
次に、実施例に係る軌跡表示更新処理の処理手順の一例を、図5を参照して説明する。図5は、実施例に係る軌跡表示更新処理のフローチャートの一例を示す図である。なお、所定の時間間隔ごとにタイマーイベントが発生し、以降の処理が開始される。
[Flowchart of locus display update processing]
Next, an example of the processing procedure of the locus display update processing according to the embodiment will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a flowchart of the locus display update process according to the embodiment. Note that a timer event occurs every predetermined time interval, and the subsequent processing is started.

図5に示すように、軌跡表示更新部17は、文字認識部12によって蓄積された軌跡データに対して、全ての軌跡に対する表示を更新したか否かを判定する(ステップS21)。全ての軌跡に対する表示を更新していないと判定した場合には(ステップS21;No)、軌跡表示更新部17は、文字認識部12によって蓄積された軌跡データを1つ取り出す(ステップS22)。   As shown in FIG. 5, the trajectory display update unit 17 determines whether or not the display for all trajectories has been updated with respect to the trajectory data accumulated by the character recognition unit 12 (step S21). When it is determined that the display for all the trajectories has not been updated (step S21; No), the trajectory display update unit 17 extracts one trajectory data accumulated by the character recognition unit 12 (step S22).

軌跡表示更新部17は、取り出した軌跡データが示す軌跡の表示属性を表示が薄くなるように更新する(ステップS23)。そして、軌跡表示更新部17は、表示属性に従い、軌跡の表示を更新する(ステップS24)。そして、軌跡表示更新部17は、ステップS21に移行する。   The trajectory display update unit 17 updates the display attribute of the trajectory indicated by the extracted trajectory data so that the display becomes light (step S23). Then, the trajectory display update unit 17 updates the trajectory display according to the display attribute (step S24). And the locus | trajectory display update part 17 transfers to step S21.

一方、全ての軌跡に対する表示を更新したと判定した場合には(ステップS21;Yes)、軌跡表示更新部17は、軌跡表示更新処理を終了する。   On the other hand, when it determines with the display with respect to all the locus | trajectories having been updated (step S21; Yes), the locus | trajectory display update part 17 complete | finishes a locus | trajectory display update process.

[実施例の効果]
このようにして、上記実施例では、入力装置1は、画面上の所定の領域にタッチパネルを有する。入力装置1は、所定の領域に手書き入力される操作に応じて、タッチパネルへの操作の軌跡を検出する。入力装置1は、検出された操作の軌跡を用いて文字認識する。入力装置1は、文字認識された文字を所定の領域に表示する。かかる構成によれば、入力装置1は、画面が小型化された場合であっても、文字認識された文字を表示する領域を、手書き入力される領域に確保することが可能となる。
[Effect of Example]
Thus, in the above embodiment, the input device 1 has a touch panel in a predetermined area on the screen. The input device 1 detects a trajectory of an operation on the touch panel in response to an operation input by handwriting in a predetermined area. The input device 1 recognizes characters using the detected operation trajectory. The input device 1 displays the character recognized character in a predetermined area. According to such a configuration, the input device 1 can secure a region for displaying a character-recognized character in a region for handwritten input even when the screen is downsized.

また、上記実施例では、入力装置1は、検出された操作の軌跡を手書き入力される操作に追従して所定の領域に表示し、表示された操作の軌跡の表示を予め設定された時間の経過に応じて淡くなるように更新する。かかる構成によれば、入力装置1は、時間の経過に応じて軌跡の表示を淡くすることで、所定の領域の軌跡の表示の乱れを抑制でき、ユーザに快適に文字入力させることができる。   In the above embodiment, the input device 1 displays the detected operation locus in a predetermined area following the operation input by handwriting, and displays the displayed operation locus for a preset time. Update to lighten over time. According to such a configuration, the input device 1 can suppress the display of the locus of a predetermined region from being disturbed by fading the display of the locus as time passes, and can allow the user to input characters comfortably.

また、上記実施例では、入力装置1は、検出された各軌跡が重ね書きされた文字候補のパターンを文字として認識する。かかる構成によれば、入力装置1は、画面が小型化された場合であっても、重ね書きされた手書き文字の軌跡を用いることで文字認識することが可能となる。   Moreover, in the said Example, the input device 1 recognizes the pattern of the character candidate by which each detected locus | trajectory was overwritten as a character. According to such a configuration, even when the screen is downsized, the input device 1 can recognize characters by using the locus of overwritten handwritten characters.

また、上記実施例では、入力装置1は、複数の文字種ごとに文字認識する複数の文字認識部を並行にまたは順次に動作するように制御する。かかる構成によれば、入力装置1は、事前に文字種のモードを切り替えることなく、複数の文字種に対応して文字認識することができる。   Moreover, in the said Example, the input device 1 controls the several character recognition part which recognizes a character for every several character type so that it may operate | move in parallel or sequentially. According to such a configuration, the input device 1 can recognize characters corresponding to a plurality of character types without switching the character type mode in advance.

また、上記実施例では、入力装置1は、複数の文字認識部によって文字種ごとに文字認識されたそれぞれの文字を、所定の領域の部分領域に表示する。かかる構成によれば、入力装置1は、手書き入力される所定の領域に、文字認識されたそれぞれの文字を重ねて表示することで、画面領域を節約することが可能となる。すなわち、入力装置1は、小型化された画面内であっても文字認識された文字を表示する領域を確保できる。   Moreover, in the said Example, the input device 1 displays each character recognized for every character type by the some character recognition part in the partial area | region of a predetermined | prescribed area | region. According to such a configuration, the input device 1 can save the screen area by displaying each character recognized character on the predetermined area where handwriting is input. That is, the input device 1 can secure an area for displaying the recognized character even in a downsized screen.

また、上記実施例では、入力装置1は、文字認識されたそれぞれの文字を表示する文字表示領域と、文字認識されたそれぞれの文字に対応する選択可能領域とを分けて部分領域に確保する。かかる構成によれば、入力装置1は、複数の文字種の文字から、ユーザが所望する文字を確実に選択させることができる。   Moreover, in the said Example, the input device 1 isolate | separates the character display area which displays each character recognized, and the selectable area | region corresponding to each character recognized in the partial area. According to this configuration, the input device 1 can reliably select a character desired by the user from a plurality of character types.

また、上記実施例では、入力装置1は、文字認識されたそれぞれの文字について、文字認識の信頼度が所定の度合いより低い文字を表示しない。かかる構成によれば、入力装置1は、文字認識の信頼度が所定の度合いより低い文字を表示しないことで、選択候補を減らすことができる。   Moreover, in the said Example, the input device 1 does not display the character whose reliability of character recognition is lower than a predetermined | prescribed degree about each character by which character recognition was carried out. According to such a configuration, the input device 1 can reduce selection candidates by not displaying characters whose reliability of character recognition is lower than a predetermined degree.

また、上記実施例では、入力装置1は、文字認識されたそれぞれの文字について、文字認識の信頼度が高い順に文字表示領域に表示する。かかる構成によれば、入力装置1は、ユーザに所望する文字を選択させ易くすることができる。   Moreover, in the said Example, the input device 1 displays each character by which character recognition was carried out in a character display area in order with the high reliability of character recognition. According to such a configuration, the input device 1 can facilitate the user to select a desired character.

[その他]
なお、入力装置1は、既知のパーソナルコンピュータ、ワークステーションなどの情報処理装置に、上記した制御部10および記憶部20などの各機能を搭載することによって実現することができる。
[Others]
The input device 1 can be realized by mounting each function such as the control unit 10 and the storage unit 20 on an information processing apparatus such as a known personal computer or workstation.

また、図示した装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、文字認識部12と、複数認識制御部13とを1個の部として統合しても良い。一方、文字認識部12を、ひらがな用の文字認識部と、英字用の文字認識部と、数字用の文字認識部とに分散しても良い。認識結果選択部15を、認識結果の選択入力か、手書き文字の入力かを判定する判定部と、判定に基づき選択入力処理か、手書き文字の入力処理かの制御を行う処理制御部とに分散しても良い。また、記憶部20を入力装置1の外部装置としてネットワーク経由で接続するようにしても良い。   In addition, each component of the illustrated apparatus does not necessarily need to be physically configured as illustrated. In other words, the specific mode of device distribution / integration is not limited to that shown in the figure, and all or part of the device is functionally or physically distributed / integrated in arbitrary units depending on various loads and usage conditions. Can be configured. For example, the character recognition unit 12 and the multiple recognition control unit 13 may be integrated as one unit. On the other hand, the character recognition unit 12 may be distributed into a character recognition unit for hiragana, a character recognition unit for English characters, and a character recognition unit for numbers. The recognition result selection unit 15 is distributed to a determination unit that determines whether the input is a recognition result selection input or a handwritten character input, and a processing control unit that controls selection input processing or handwritten character input processing based on the determination. You may do it. The storage unit 20 may be connected as an external device of the input device 1 via a network.

また、上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。そこで、以下では、図1に示した入力装置1と同様の機能を実現する文字入力プログラムを実行するコンピュータの一例を説明する。図6は、文字入力プログラムを実行するコンピュータの一例を示す図である。   The various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. Therefore, an example of a computer that executes a character input program that realizes the same function as the input device 1 shown in FIG. 1 will be described below. FIG. 6 is a diagram illustrating an example of a computer that executes a character input program.

図6に示すように、コンピュータ200は、各種演算処理を実行するCPU203と、ユーザからのデータの入力を受け付ける入力装置215と、表示装置209を制御する表示制御部207とを有する。また、コンピュータ200は、記憶媒体からプログラムなどを読取るドライブ装置213と、ネットワークを介して他のコンピュータとの間でデータの授受を行う通信制御部217とを有する。また、コンピュータ200は、各種情報を一時記憶するメモリ201と、HDD205を有する。そして、メモリ201、CPU203、HDD205、表示制御部207、ドライブ装置213、入力装置215、通信制御部217は、バス219で接続されている。   As illustrated in FIG. 6, the computer 200 includes a CPU 203 that executes various arithmetic processes, an input device 215 that receives input of data from the user, and a display control unit 207 that controls the display device 209. The computer 200 also includes a drive device 213 that reads a program and the like from a storage medium, and a communication control unit 217 that exchanges data with other computers via a network. The computer 200 also includes a memory 201 that temporarily stores various types of information and an HDD 205. The memory 201, CPU 203, HDD 205, display control unit 207, drive device 213, input device 215, and communication control unit 217 are connected by a bus 219.

ドライブ装置213は、例えばリムーバブルディスク211用の装置である。   The drive device 213 is a device for the removable disk 211, for example.

CPU203は、文字入力プログラム205aを読み出して、メモリ201に展開し、プロセスとして実行する。かかるプロセスは、入力装置1の各機能部に対応する。文字入力処理関連情報205bは、記憶部20に記憶される情報に対応する。そして、例えばリムーバブルディスク211が、文字入力プログラム205aなどの各情報を記憶する。   The CPU 203 reads the character input program 205a, expands it in the memory 201, and executes it as a process. Such a process corresponds to each functional unit of the input device 1. The character input process related information 205 b corresponds to information stored in the storage unit 20. For example, the removable disk 211 stores information such as the character input program 205a.

なお、文字入力プログラム205aについては、必ずしも最初からHDD205に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカード等の「可搬用の物理媒体」に当該プログラムを記憶させておく。そして、コンピュータ200がこれらから文字入力プログラム205aを読み出して実行するようにしても良い。   Note that the character input program 205a does not necessarily have to be stored in the HDD 205 from the beginning. For example, the program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 200. Then, the computer 200 may read and execute the character input program 205a from these.

以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)画面上の所定の領域にタッチパネルを有する入力装置であって、
前記所定の領域に手書き入力される操作に応じて、前記タッチパネルへの操作の軌跡を検出する検出部と、
前記検出部によって検出された操作の軌跡を用いて文字認識する文字認識部と、
前記文字認識部によって文字認識された文字を前記所定の領域に出力する出力部と、
を有することを特徴とする入力装置。
(Appendix 1) An input device having a touch panel in a predetermined area on a screen,
A detection unit that detects a trajectory of an operation on the touch panel in response to an operation input by handwriting in the predetermined region;
A character recognition unit for recognizing characters using an operation trajectory detected by the detection unit;
An output unit for outputting the character recognized by the character recognition unit to the predetermined area;
An input device comprising:

(付記2)前記検出部によって検出された前記操作の軌跡を前記手書き入力される操作に追従して前記所定の領域に出力し、出力された前記操作の軌跡の出力を予め設定された時間の経過に応じて淡くなるように更新する軌跡出力更新部を
さらに有することを特徴とする付記1に記載の入力装置。
(Supplementary Note 2) The operation locus detected by the detection unit is output to the predetermined area following the operation input by handwriting, and the output of the operation locus output is output at a preset time. The input device according to claim 1, further comprising a trajectory output update unit that updates the information so as to become lighter as time elapses.

(付記3)前記文字認識部は、前記検出部によって検出された各軌跡が重ね書きされた文字候補のパターンを文字として認識する
ことを特徴とする付記1に記載の入力装置。
(Supplementary note 3) The input device according to Supplementary note 1, wherein the character recognition unit recognizes a character candidate pattern in which each locus detected by the detection unit is overwritten as a character.

(付記4)複数の文字種ごとに文字認識する複数の文字認識部を並行にまたは順次に動作するように制御する複数認識制御部を
さらに有することを特徴とする付記1に記載の入力装置。
(Additional remark 4) The input device of Additional remark 1 characterized by further having a multiple recognition control part which controls so that a plurality of character recognition parts which recognize a character for every plurality of character types operate in parallel or sequentially.

(付記5)前記出力部は、複数の文字認識部によって文字種ごとに文字認識されたそれぞれの文字を、前記所定の領域の部分領域に出力する
ことを特徴とする付記4に記載の入力装置。
(Supplementary note 5) The input device according to supplementary note 4, wherein the output unit outputs each character recognized for each character type by a plurality of character recognition units to a partial region of the predetermined region.

(付記6)前記出力部は、前記文字認識されたそれぞれの文字を出力する文字出力領域と、前記文字認識されたそれぞれの文字に対応する選択可能領域とを分けて前記部分領域に確保する
ことを特徴とする付記5に記載の入力装置。
(Additional remark 6) The said output part separates the character output area | region which outputs each character recognized by the said character, and the selectable area | region corresponding to each said character recognized character, and secures it in the said partial area. The input device according to appendix 5, characterized by:

(付記7)前記出力部は、前記文字認識されたそれぞれの文字について、文字認識の信頼度が所定の度合いより低い文字を出力しない
ことを特徴とする付記5に記載の入力装置。
(Additional remark 7) The said output part does not output the character whose reliability of character recognition is lower than predetermined | prescribed degree about each character by which the said character recognition was carried out. The input device of Additional remark 5 characterized by the above-mentioned.

(付記8)前記出力部は、前記文字認識されたそれぞれの文字について、文字認識の信頼度が高い順に前記文字出力領域に出力する
ことを特徴とする付記6に記載の入力装置。
(Additional remark 8) The said output part outputs to the said character output area | region in order with the high reliability of character recognition about each character by which the said character recognition was carried out. The input device of Additional remark 6 characterized by the above-mentioned.

(付記9)画面上の所定の領域に有するタッチパネルへの手書き入力される操作に応じて、操作の軌跡を検出し、
該検出された操作の軌跡を用いて文字認識し、
該文字認識された文字を前記所定の領域に出力する
処理をコンピュータに実行させることを特徴とする文字入力プログラム。
(Additional remark 9) The locus | trajectory of operation is detected according to the operation input by handwriting to the touch panel which has a predetermined area | region on a screen,
Character recognition using the detected operation trajectory,
A character input program for causing a computer to execute a process of outputting the character-recognized character to the predetermined area.

(付記10)コンピュータが、
画面上の所定の領域に有するタッチパネルへの手書き入力される操作に応じて、操作の軌跡を検出し、
該検出された操作の軌跡を用いて文字認識し、
該文字認識された文字を前記所定の領域に出力する
各処理を実行することを特徴とする文字入力方法。
(Supplementary note 10)
In response to a handwritten input operation on the touch panel in a predetermined area on the screen, the locus of the operation is detected,
Character recognition using the detected operation trajectory,
A character input method comprising: executing each process of outputting the character-recognized character to the predetermined area.

1 入力装置
10 制御部
11 検出部
12 文字認識部
13 複数認識制御部
14 複数認識結果表示部
15 認識結果選択部
16 文字確定部
17 軌跡表示更新部
20 記憶部
100 タッチパネル
DESCRIPTION OF SYMBOLS 1 Input device 10 Control part 11 Detection part 12 Character recognition part 13 Multiple recognition control part 14 Multiple recognition result display part 15 Recognition result selection part 16 Character confirmation part 17 Trajectory display update part 20 Storage part 100 Touch panel

Claims (9)

画面上の所定の領域にタッチパネルを有する入力装置であって、
前記所定の領域に手書き入力される操作に応じて、前記タッチパネルへの操作の軌跡を検出する検出部と、
前記検出部によって検出された操作の軌跡を用いて文字認識する文字認識部と、
前記文字認識部によって文字認識された文字を前記所定の領域に出力する出力部と、
を有することを特徴とする入力装置。
An input device having a touch panel in a predetermined area on the screen,
A detection unit that detects a trajectory of an operation on the touch panel in response to an operation input by handwriting in the predetermined region;
A character recognition unit for recognizing characters using an operation trajectory detected by the detection unit;
An output unit for outputting the character recognized by the character recognition unit to the predetermined area;
An input device comprising:
前記検出部によって検出された前記操作の軌跡を前記手書き入力される操作に追従して前記所定の領域に出力し、出力された前記操作の軌跡の出力を予め設定された時間の経過に応じて淡くなるように更新する軌跡出力更新部を
さらに有することを特徴とする請求項1に記載の入力装置。
The operation trajectory detected by the detection unit is output to the predetermined area following the operation input by handwriting, and the output of the output operation trajectory is output in accordance with the passage of a preset time. The input device according to claim 1, further comprising a trajectory output update unit that updates the information so as to become lighter.
前記文字認識部は、前記検出部によって検出された各軌跡が重ね書きされた文字候補のパターンを文字として認識する
ことを特徴とする請求項1に記載の入力装置。
The input device according to claim 1, wherein the character recognition unit recognizes, as a character, a character candidate pattern in which each locus detected by the detection unit is overwritten.
複数の文字種ごとに文字認識する複数の文字認識部を並行にまたは順次に動作するように制御する複数認識制御部を
さらに有することを特徴とする請求項1に記載の入力装置。
The input device according to claim 1, further comprising a multiple recognition control unit configured to control a plurality of character recognition units that recognize characters for a plurality of character types so as to operate in parallel or sequentially.
前記出力部は、複数の文字認識部によって文字種ごとに文字認識されたそれぞれの文字を、前記所定の領域の部分領域に出力する
ことを特徴とする請求項4に記載の入力装置。
The input device according to claim 4, wherein the output unit outputs each character recognized for each character type by a plurality of character recognition units to a partial region of the predetermined region.
前記出力部は、前記文字認識されたそれぞれの文字を出力する文字出力領域と、前記文字認識されたそれぞれの文字に対応する選択可能領域とを分けて前記部分領域に確保する
ことを特徴とする請求項5に記載の入力装置。
The output unit separates a character output area for outputting the character-recognized characters and a selectable area corresponding to the character-recognized characters, and secures them in the partial area. The input device according to claim 5.
前記出力部は、前記文字認識されたそれぞれの文字について、文字認識の信頼度が所定の度合いより低い文字を出力しない
ことを特徴とする請求項5に記載の入力装置。
The input device according to claim 5, wherein the output unit does not output a character having a character recognition reliability lower than a predetermined degree for each character recognized.
前記出力部は、前記文字認識されたそれぞれの文字について、文字認識の信頼度が高い順に前記文字出力領域に出力する
ことを特徴とする請求項6に記載の入力装置。
The input device according to claim 6, wherein the output unit outputs the recognized characters to the character output area in descending order of reliability of character recognition.
画面上の所定の領域に有するタッチパネルへの手書き入力される操作に応じて、操作の軌跡を検出し、
該検出された操作の軌跡を用いて文字認識し、
該文字認識された文字を前記所定の領域に出力する
処理をコンピュータに実行させることを特徴とする文字入力プログラム。
In response to a handwritten input operation on the touch panel in a predetermined area on the screen, the locus of the operation is detected,
Character recognition using the detected operation trajectory,
A character input program for causing a computer to execute a process of outputting the character-recognized character to the predetermined area.
JP2016005841A 2016-01-15 2016-01-15 Input device and character input program Pending JP2017126243A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016005841A JP2017126243A (en) 2016-01-15 2016-01-15 Input device and character input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016005841A JP2017126243A (en) 2016-01-15 2016-01-15 Input device and character input program

Publications (1)

Publication Number Publication Date
JP2017126243A true JP2017126243A (en) 2017-07-20

Family

ID=59365210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016005841A Pending JP2017126243A (en) 2016-01-15 2016-01-15 Input device and character input program

Country Status (1)

Country Link
JP (1) JP2017126243A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463914B2 (en) 2020-08-31 2024-04-09 富士通株式会社 Input reception program and input reception system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463914B2 (en) 2020-08-31 2024-04-09 富士通株式会社 Input reception program and input reception system

Similar Documents

Publication Publication Date Title
US10275152B2 (en) Advanced methods and systems for text input error correction
US8896555B2 (en) Touch alphabet and communication system
US20130069867A1 (en) Information processing apparatus and method and program
US20150269432A1 (en) Electronic device and method for manufacturing the same
JP2014038527A (en) Input device, input method and program
US9489086B1 (en) Finger hover detection for improved typing
CN109074224A (en) For the method for insertion character and corresponding digital device in character string
US9170734B2 (en) Multiple-input handwriting recognition system and measure thereof
CN105373330B (en) Electronic device and method for processing letter input in electronic device
US20190196712A1 (en) Systems and Methods for Facilitating Data Entry into Small Screen Electronic Devices
EP4307096A1 (en) Key function execution method, apparatus and device, and storage medium
KR20180119646A (en) Methods and systems for inserting characters into strings
US20130009880A1 (en) Apparatus and method for inputting character on touch screen
KR20220038477A (en) Extract line of text
US10832100B2 (en) Target recognition device
JP2017126243A (en) Input device and character input program
US20100245266A1 (en) Handwriting processing apparatus, computer program product, and method
US9921742B2 (en) Information processing apparatus and recording medium recording information processing program
KR101561783B1 (en) Method for inputing characters on touch screen of terminal
KR20140102486A (en) Keyboard input system and the method using eye tracking
KR102329496B1 (en) Electronic device, and method for processing text input in electronic device
US9811167B2 (en) Apparatus and method for inputting character based on hand gesture
US20170024053A1 (en) Touch alphabet and communication system
CN108733227B (en) Input device and input method thereof
US20150268734A1 (en) Gesture recognition method for motion sensing detector