JP2015043145A - Handwritten character input device - Google Patents

Handwritten character input device Download PDF

Info

Publication number
JP2015043145A
JP2015043145A JP2013174547A JP2013174547A JP2015043145A JP 2015043145 A JP2015043145 A JP 2015043145A JP 2013174547 A JP2013174547 A JP 2013174547A JP 2013174547 A JP2013174547 A JP 2013174547A JP 2015043145 A JP2015043145 A JP 2015043145A
Authority
JP
Japan
Prior art keywords
character
unit
area
input
character input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013174547A
Other languages
Japanese (ja)
Inventor
伸一郎 伊藤
Shinichiro Ito
伸一郎 伊藤
充 神藪
Mitsuru Kamiyabu
充 神藪
竜太 安藤
Ryuta Ando
竜太 安藤
鳥居 重宏
Shigehiro Torii
重宏 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013174547A priority Critical patent/JP2015043145A/en
Publication of JP2015043145A publication Critical patent/JP2015043145A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a handwritten character input device such that a document in which a plurality of languages are mixed can be smoothly input without requiring any complicated operation.SOLUTION: A handwritten character input device 20 includes: a contact operation input unit 21; an image display unit 22; a template image display control unit 51 which makes the image display unit 22 display a character input area; an area sectioning unit 34 which sections the character input area into plural areas; a dictionary data storage unit 41 which stores dictionary data 41a, 41b of different languages while associating the dictionary data to the respective areas; a trace information generation unit 35 which generates trace information on a handwritten character; a character position specifying unit 36 which specifies a determination reference position for the handwritten character on the basis of the trace information; an area determination unit 37 which determines the area that the determination reference position belongs to; a character recognition processing unit 38 which performs a character recognizing process using the dictionary data associated with the area so as to extract a recognition candidate; and a recognition candidate display control unit 53 which makes the image display unit display the extracted recognition candidate.

Description

本発明は、手書きによる文字入力を行う手書き文字入力装置に関する。   The present invention relates to a handwritten character input device for inputting characters by handwriting.

近年、スマートフォンおよびタブレットPC(Personal Computer)など、タッチインターフェイスを搭載した電子機器が広く普及している。タッチインターフェイスは、タッチパネルとGUI(Graphical User Interface)とを入出力に用い、指やスタイラスなどをポインティングデバイスとして、ディスプレイに触れることで操作できるユーザインターフェイスである。タッチインターフェイスは、アイコンおよびボタンなどの画面上に表示された操作対象を指差して直感的に操作できるという利点を有している。   In recent years, electronic devices equipped with a touch interface, such as smartphones and tablet PCs (Personal Computers), have been widely used. The touch interface is a user interface that can be operated by touching a display using a touch panel and a GUI (Graphical User Interface) for input and output, and using a finger or a stylus as a pointing device. The touch interface has an advantage that it can be operated intuitively by pointing an operation target displayed on a screen such as icons and buttons.

このような電子機器には、メモ帳、メールおよびウェブブラウザなどのアプリケーション利用時に、文字を入力するための文字入力アプリケーションが搭載されており、文字入力アプリケーションとしては、ソフトウェアキーボードを用いて文字を入力する入力モードと、手書きで文字を入力する入力モードとを切り替え可能なものが普及している。以下、このように手書きで文字を入力可能に構成された装置を、手書き文字入力装置と称することとする。   Such electronic devices are equipped with a character input application for inputting characters when using applications such as Notepad, Mail, and Web Browser. The character input application uses a software keyboard to input characters. That can switch between an input mode for inputting characters and an input mode for inputting characters by handwriting have become widespread. Hereinafter, an apparatus configured to be able to input characters by handwriting will be referred to as a handwritten character input apparatus.

従来から、手書き文字入力装置では、複数の言語に対応したものがある。このような装置では、対応している言語ごとに辞書データを保持することで、手書きにより入力された文字の認識を行っている。たとえば、日本語の文章が入力される場合には、手書きにより入力された文字を、仮名や漢字の辞書データと照合し、形が近いものを認識候補として抽出している。一方、英語の文章が入力される場合には、英単語が含まれた辞書データを用いている。   Conventionally, some handwritten character input devices are compatible with a plurality of languages. Such an apparatus recognizes characters input by handwriting by holding dictionary data for each supported language. For example, when a Japanese sentence is input, characters input by handwriting are collated with dictionary data of kana and kanji, and those having similar shapes are extracted as recognition candidates. On the other hand, when English sentences are input, dictionary data including English words is used.

このように複数の言語に対応した手書き文字入力装置では、一つの入力に対して、すべての言語の辞書データとの照合を行おうとすると、認識候補を出力するために多くの処理時間を要してしまう。また、この場合、ユーザにとって不要な認識候補が数多く出力され、ユーザが入力したい言語での認識候補を精度よく抽出することが困難となる。   As described above, in a handwritten character input device that supports a plurality of languages, if one input is checked against dictionary data of all languages, it takes a lot of processing time to output recognition candidates. End up. In this case, many recognition candidates unnecessary for the user are output, and it is difficult to accurately extract the recognition candidates in the language that the user wants to input.

そこで、このような問題を解決する従来の技術が、たとえば特許文献1に提案されている。特許文献1によれば、日本語入力用の入力枠が表示される日本語モードと英語入力用の入力枠が表示される英語モードとを、ボタンを操作することにより切り替え可能とし、設定された言語モードに応じた文字認識処理を行うことで、複数の言語が混在した文章の入力や作成がスムーズに行えること、および高い認識性能を実現している。   Therefore, for example, Patent Document 1 proposes a conventional technique for solving such a problem. According to Patent Document 1, it is possible to switch between a Japanese mode in which an input frame for Japanese input is displayed and an English mode in which an input frame for English input is displayed by operating a button. By performing character recognition processing according to the language mode, it is possible to smoothly input and create a sentence in which a plurality of languages are mixed, and to realize high recognition performance.

特許文献1には、さらに、英語モードに設定されている時間が所定時間に達すると、自動的に英語モードから日本語モードに切り替えること、および、日本語入力用の入力枠と英語入力用の入力枠とを同一の入力領域内に表示し、手書き文字が入力された入力枠に応じた文字認識処理を行うことも提案されている。   Further, in Patent Document 1, when the time set in the English mode reaches a predetermined time, the mode is automatically switched from the English mode to the Japanese mode, and the input frame for Japanese input and the English input mode are switched. It has also been proposed to display an input frame in the same input area and perform character recognition processing in accordance with the input frame in which handwritten characters are input.

特開平11−15918号公報Japanese Patent Laid-Open No. 11-15918

しかしながら、特許文献1の方法を用いて、複数の言語が混在した文章を入力する場合には、次のような問題がある。ボタンを操作することにより言語モードを切り替える方法では、文章の入力中に、言語モードを切り替えるための操作が必要となり、ユーザに面倒な操作を強いることとなる。また、所定時間に達したら自動的に言語モードを切り替える方法では、ユーザが意図しないタイミングで言語モードが切り替わってしまうおそれがある。   However, when inputting a sentence in which a plurality of languages are mixed using the method of Patent Document 1, there are the following problems. In the method of switching the language mode by operating the button, an operation for switching the language mode is required during the input of the sentence, and the user is forced to perform a troublesome operation. Further, in the method of automatically switching the language mode when the predetermined time is reached, there is a possibility that the language mode is switched at a timing not intended by the user.

また、言語ごとに入力枠を設ける方法の場合、たとえばスマートフォンなどのように画面サイズが小さな装置では、各入力枠について、文字入力を問題なく行うことができるサイズを確保しようとすると、入力枠群が画面内に占める割合が大きくなりすぎてしまい、逆に、レイアウトの制限を受ける場合には、各入力枠について、文字入力を問題なく行うことができる充分なサイズを確保することができなくなってしまうという問題がある。さらに、言語ごとに入力枠を別々に設けることで、入力する言語に応じて入力枠を変更しなければならず、文章をスムーズに入力することが妨げられるという問題もある。   In addition, in the case of a method of providing an input frame for each language, for example, in a device with a small screen size such as a smartphone, if an attempt is made to secure a size that allows text input without problems for each input frame, the input frame group However, if the size of the input frame is too large, and if the layout is limited, it will not be possible to ensure that each input frame is large enough to allow text input without problems. There is a problem of end. Furthermore, by providing an input frame for each language separately, the input frame must be changed according to the language to be input, and there is a problem that smooth input of text is hindered.

本発明の目的は、複数の言語が混在した文章を、煩雑な操作を必要とせず、スムーズに入力することができ、さらに、文字入力領域について、文字入力を問題なく行うことができる充分なサイズを確保することができる手書き文字入力装置を提供することである。   The object of the present invention is to enable a text input mixed with a plurality of languages to be smoothly input without requiring a complicated operation, and to have a sufficient size to allow a character input area to be input without any problems. It is providing the handwritten character input device which can ensure.

本発明は、操作者による接触操作を受ける操作面を有し、操作者が接触操作した前記操作面上の操作位置を示す操作位置情報を出力する接触操作入力部と、
前記接触操作入力部の前記操作面に画像を表示する画像表示部と、
操作者が接触操作により手書き文字を入力する文字入力領域を示す文字入力領域指示画像を含むテンプレート画像を、前記画像表示部に表示させるテンプレート画像表示制御部と、
前記文字入力領域を複数の領域に区画する領域区画部と、
互いに異なる言語の辞書データを、前記領域区画部によって区画された各領域に関連付けて記憶する辞書データ記憶部と、
前記接触操作入力部から出力される操作位置情報に基づいて、前記文字入力領域に手書き入力された手書き文字の軌跡情報を生成する軌跡情報生成部と、
前記軌跡情報生成部によって生成された軌跡情報に基づいて、該手書き文字についての判定基準位置を特定する文字位置特定部と、
前記判定基準位置が、前記複数の領域のうちのどの領域に属しているかを判定する領域判定部と、
前記判定基準位置が属している領域に関連付けられている辞書データを用いて、前記軌跡情報生成部によって生成された軌跡情報について文字認識処理を行い、認識候補を抽出する文字認識処理部と、
前記文字認識処理部によって抽出された認識候補を表す認識候補画像を、前記画像表示部に表示させる認識候補表示制御部とを含むことを特徴とする手書き文字入力装置である。
The present invention includes an operation surface that receives a contact operation by an operator, and outputs an operation position information indicating an operation position on the operation surface on which the operator performs a contact operation.
An image display unit for displaying an image on the operation surface of the contact operation input unit;
A template image display control unit that causes the image display unit to display a template image including a character input region instruction image indicating a character input region in which the operator inputs a handwritten character by a contact operation;
An area dividing section for dividing the character input area into a plurality of areas;
Dictionary data storage unit for storing dictionary data of different languages in association with each region partitioned by the region partitioning unit;
Based on the operation position information output from the contact operation input unit, a trajectory information generation unit that generates trajectory information of handwritten characters input by handwriting in the character input area;
A character position specifying unit that specifies a determination reference position for the handwritten character based on the track information generated by the track information generating unit;
An area determination unit that determines which of the plurality of areas the determination reference position belongs to;
A character recognition processing unit that performs character recognition processing on the trajectory information generated by the trajectory information generation unit using dictionary data associated with the region to which the determination reference position belongs, and extracts recognition candidates;
A handwritten character input device comprising: a recognition candidate display control unit for displaying a recognition candidate image representing a recognition candidate extracted by the character recognition processing unit on the image display unit.

また本発明は、前記領域区画部が前記文字入力領域を複数の領域に区画したときの区画線を示す区画線画像を、前記画像表示部に表示させる区画線表示制御部をさらに含むことを特徴とする。   The present invention further includes a lane line display control unit that causes the image display unit to display a lane line image indicating a lane line when the area division unit divides the character input area into a plurality of areas. And

また本発明は、前記文字位置特定部は、前記手書き文字の軌跡情報に基づいて、該手書き文字についての文字領域を演算し、該文字領域における予め定める位置を、前記判定基準位置とすることを特徴とする。   According to the present invention, the character position specifying unit calculates a character region for the handwritten character based on the locus information of the handwritten character, and sets a predetermined position in the character region as the determination reference position. Features.

また本発明は、前記文字入力領域は、横長の矩形状の領域であり、
前記領域区画部は、前記文字入力領域の縦方向における中央位置よりも上側または下側にオフセットした位置で、該文字入力領域の横方向に平行に延びる線分によって、前記文字入力領域を区画し、
前記文字位置特定部は、前記オフセットした位置が前記中央位置よりも上側であるときには、前記文字領域の上端部の位置を前記判定基準位置とし、前記オフセットした位置が前記中央位置よりも下側であるときには、前記文字領域の下端部の位置を前記判定基準位置とすることを特徴とする。
In the present invention, the character input area is a horizontally long rectangular area.
The area partitioning section partitions the character input area by line segments extending parallel to the horizontal direction of the character input area at positions offset above or below the center position in the vertical direction of the character input area. ,
When the offset position is above the center position, the character position specifying unit uses the position of the upper end portion of the character area as the determination reference position, and the offset position is below the center position. In some cases, the position of the lower end of the character area is set as the determination reference position.

本発明によれば、複数の言語が混在した文章を、煩雑な操作を必要とせず、スムーズに入力することができ、さらに、文字入力領域について、文字入力を問題なく行うことができる充分なサイズを確保することができる。   According to the present invention, a sentence in which a plurality of languages are mixed can be smoothly input without requiring a complicated operation, and the character input area has a sufficient size that can be input without any problem. Can be secured.

本発明に係る手書き文字入力装置が適用された電子機器の一例であるスマートフォン10の外観構成を示す正面図である。It is a front view which shows the external appearance structure of the smart phone 10 which is an example of the electronic device to which the handwritten character input device which concerns on this invention was applied. 本発明の一実施形態に係る手書き文字入力装置20の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the handwritten character input device 20 which concerns on one Embodiment of this invention. 手書き文字入力画面の一例を示す図である。It is a figure which shows an example of a handwritten character input screen. テンプレート画像65に含まれる文字入力領域61aを拡大して示す図である。It is a figure which expands and shows the character input area 61a contained in the template image 65. FIG. 手書き入力された手書き文字についての判定基準位置の特定方法の一例を説明するための図である。It is a figure for demonstrating an example of the identification method of the determination reference | standard position about the handwritten character input by handwriting. 判定基準位置が属している領域の判定方法を説明するための図である。It is a figure for demonstrating the determination method of the area | region where the determination reference position belongs. 本実施形態に係る手書き文字入力装置20において実行される手書き文字入力処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the handwritten character input process performed in the handwritten character input device 20 which concerns on this embodiment. 文字入力領域61a内に日本語と英語とが混在する文章が手書き入力された状態を示す図である。It is a figure which shows the state by which the text which mixed Japanese and English was input by handwriting in the character input area 61a.

図1は、本発明に係る手書き文字入力装置を適用可能な電子機器の一例であるスマートフォン10の外観構成を示す正面図である。スマートフォン10には、図1に示すように、操作者による接触操作(タッチ操作)を受ける、X軸およびY軸を座標軸とする直交座標が設定された操作面11を有し、操作者が操作面11を指やスタイラスによって接触操作したときの該操作面11上での接触操作位置の座標を示す座標データを出力する接触操作入力部21と、接触操作入力部21の操作面11に画像データに応じた画像を表示する画像表示部22とが一体となって構成され、タッチインターフェイスとして機能する入出力装置23が搭載される。接触操作入力部21の操作面11に設定される直交座標は、たとえば、操作面11に向かって左下の頂点を原点とし、右方向をX軸の正方向、上方向をY軸の正方向とするXY直交座標である。   FIG. 1 is a front view showing an external configuration of a smartphone 10 as an example of an electronic apparatus to which a handwritten character input device according to the present invention can be applied. As shown in FIG. 1, the smartphone 10 has an operation surface 11 that receives a contact operation (touch operation) by an operator and is set with orthogonal coordinates having an X axis and a Y axis as coordinate axes. The contact operation input unit 21 that outputs coordinate data indicating the coordinates of the contact operation position on the operation surface 11 when the surface 11 is contacted with a finger or a stylus, and image data on the operation surface 11 of the contact operation input unit 21 And an image display unit 22 that displays an image corresponding to the input / output device 23, and an input / output device 23 that functions as a touch interface is mounted. The orthogonal coordinates set on the operation surface 11 of the contact operation input unit 21 are, for example, the origin at the lower left vertex toward the operation surface 11, the right direction being the positive direction of the X axis, and the upper direction being the positive direction of the Y axis. XY orthogonal coordinates.

接触操作入力部21は、抵抗膜方式または静電容量方式など、周知の方式を用いたタッチパネルによって実現され、画像表示部22は、液晶表示装置や有機EL表示装置などの周知の表示装置によって実現される。   The contact operation input unit 21 is realized by a touch panel using a known method such as a resistive film method or a capacitance method, and the image display unit 22 is realized by a known display device such as a liquid crystal display device or an organic EL display device. Is done.

入出力装置23としては、画像表示部22である表示装置に、接触操作入力部21であるタッチパネルを積重することによって実現されてもよく、接触操作入力部21であるタッチパネルを、画像表示部22である表示装置に内蔵させることによって実現されてもよい。   The input / output device 23 may be realized by stacking the touch panel that is the contact operation input unit 21 on the display device that is the image display unit 22. It may be realized by being built in the display device 22.

本発明に係る手書き文字入力装置を適用可能な電子機器は、スマートフォン10に限定されるものではなく、タッチインターフェイスとして機能する前記のような入出力装置23を備えた電子機器であれば適用することが可能である。このような電子機器としては、たとえば、タブレットPC、フィーチャーフォン、PHS(Personal Handy-phone System)端末、PDA(Personal Digital Assistant)、パーソナルコンピュータ、携帯型音楽プレーヤ、ポータブルナビゲーション装置、携帯ゲーム機などが挙げられる。   The electronic device to which the handwritten character input device according to the present invention can be applied is not limited to the smartphone 10, and any electronic device including the input / output device 23 that functions as a touch interface may be applied. Is possible. Examples of such electronic devices include tablet PCs, feature phones, PHS (Personal Handy-phone System) terminals, PDAs (Personal Digital Assistants), personal computers, portable music players, portable navigation devices, and portable game machines. Can be mentioned.

図2は、本発明の一実施形態に係る手書き文字入力装置20の構成を示すブロック図である。本実施形態に係る手書き文字入力装置20は、互いに異なる2つの言語、具体的には、日本語および英語での手書きによる文字入力に対応するために、日本語および英語の辞書データ41a,41bが搭載されているものとする。   FIG. 2 is a block diagram showing a configuration of the handwritten character input device 20 according to the embodiment of the present invention. The handwritten character input device 20 according to the present embodiment includes two different languages, specifically, Japanese and English dictionary data 41a and 41b for handwritten character input in Japanese and English. It shall be installed.

手書き文字入力装置20は、図2に示すように、接触操作入力部21および画像表示部22を備える入出力装置23のほか、CPU(Central Processing Unit)などによって実現され、装置全体を制御する制御部24と、半導体メモリなどによって実現される記憶部25とを含んで構成され、記憶部25に格納されている手書き文字入力プログラムが実行されることにより、手書き文字入力処理を実行する。手書き文字入力プログラムは、たとえば文字入力アプリケーションの一部として構成される。   As shown in FIG. 2, the handwritten character input device 20 is realized by a CPU (Central Processing Unit) or the like in addition to the input / output device 23 including the contact operation input unit 21 and the image display unit 22, and controls to control the entire device. The handwritten character input process is executed by executing a handwritten character input program that is configured to include the unit 24 and a storage unit 25 realized by a semiconductor memory or the like and stored in the storage unit 25. The handwritten character input program is configured as a part of a character input application, for example.

制御部24は、表示制御部31と、設定変更部32と、選択判定部33と、領域区画部34と、軌跡情報生成部35と、文字位置特定部36と、領域判定部37と、文字認識処理部38とを含んで構成される。また、記憶部25は、辞書データ記憶部41を含んで構成される。   The control unit 24 includes a display control unit 31, a setting change unit 32, a selection determination unit 33, an area partition unit 34, a trajectory information generation unit 35, a character position specification unit 36, an area determination unit 37, and a character. And a recognition processing unit 38. The storage unit 25 includes a dictionary data storage unit 41.

表示制御部31は、テンプレート画像表示制御部51と、軌跡表示制御部52と、認識候補表示制御部53と、入力文字列表示制御部54と、区画線表示制御部55とを含んで構成される。   The display control unit 31 includes a template image display control unit 51, a trajectory display control unit 52, a recognition candidate display control unit 53, an input character string display control unit 54, and a lane marking display control unit 55. The

図3は、手書き文字入力画面の一例を示す図である。テンプレート画像表示制御部51は、操作者が接触操作により手書き文字を入力するための文字入力領域61aを示す文字入力領域指示画像61、入力された文字を示す文字画像66が表示される領域であるターゲットフィールド62aを示す文字列表示領域指示画像62、文字認識処理部によって抽出された1または複数の認識候補を示す認識候補画像67が表示される領域63aを示す認識候補表示領域指示画像63、および各種の制御用のボタンを示すボタン画像64を含むテンプレート画像65を生成し、画像表示部22に表示させる。図3に示す例では、ボタン画像64には、「設定」ボタン画像64a、「スペース」ボタン画像64b、「改行」ボタン画像64c、および「削除」ボタン画像64dが含まれている。   FIG. 3 is a diagram illustrating an example of a handwritten character input screen. The template image display control unit 51 is an area in which a character input area instruction image 61 indicating a character input area 61a for an operator to input a handwritten character by a touch operation and a character image 66 indicating an input character are displayed. A character string display area instruction image 62 indicating the target field 62a, a recognition candidate display area instruction image 63 indicating an area 63a in which a recognition candidate image 67 indicating one or more recognition candidates extracted by the character recognition processing unit is displayed, and A template image 65 including a button image 64 indicating various control buttons is generated and displayed on the image display unit 22. In the example shown in FIG. 3, the button image 64 includes a “setting” button image 64a, a “space” button image 64b, a “line feed” button image 64c, and a “delete” button image 64d.

軌跡表示制御部52は、操作者が文字入力領域61a内を接触操作したときに、接触操作入力部21から出力される座標データに基づき、その接触操作の軌跡を示す軌跡画像68を生成し、画像表示部22に表示させる。   The trajectory display control unit 52 generates a trajectory image 68 indicating the trajectory of the contact operation based on the coordinate data output from the contact operation input unit 21 when the operator performs a touch operation in the character input area 61a. The image is displayed on the image display unit 22.

また、軌跡表示制御部52は、文字入力領域61a内を最後に接触操作された時点から計時を開始し、予め定める時間に達すると、計時を終了するとともに、文字入力領域61a内に表示されている軌跡画像68を消去させる。   Further, the trajectory display control unit 52 starts timing from the time when the character input area 61a is last touched, and when it reaches a predetermined time, it stops timing and is displayed in the character input area 61a. The locus image 68 is deleted.

認識候補表示制御部53は、文字認識処理部38によって抽出された1または複数の認識候補に基づいて、認識候補画像67を生成し、領域63a内において1または複数の認識候補が所定の順で並ぶように、画像表示部22に表示させる。図3に示す例では、認識候補表示制御部53は、文字認識処理部38によって形が近いと判定された順に領域63aの左側から一列に並ぶように、認識候補画像67を表示させている。また、認識候補表示制御部53は、最も形が近いと判定された認識候補については、その認識候補を操作者に示すための指示画像69を表示させる。   The recognition candidate display control unit 53 generates a recognition candidate image 67 based on the one or more recognition candidates extracted by the character recognition processing unit 38, and one or more recognition candidates are displayed in a predetermined order in the region 63a. The images are displayed on the image display unit 22 so as to be lined up. In the example illustrated in FIG. 3, the recognition candidate display control unit 53 displays the recognition candidate images 67 so that they are arranged in a line from the left side of the region 63 a in the order in which the character recognition processing unit 38 determines that the shapes are close. Further, the recognition candidate display control unit 53 displays an instruction image 69 for showing the recognition candidate to the operator for the recognition candidate determined to have the closest shape.

入力文字列表示制御部54は、入力された文字を示す文字画像66を生成し、画像表示部22に表示させる。具体的には、認識候補画像67が領域63aに表示されると、指示画像69が付されている認識候補の文字を示す文字画像66を生成し、直前に入力された文字の右隣に並ぶように表示させ、さらに、その文字画像66の右隣にカーソル画像70を表示させる。   The input character string display control unit 54 generates a character image 66 indicating the input character and causes the image display unit 22 to display the character image 66. Specifically, when the recognition candidate image 67 is displayed in the region 63a, a character image 66 indicating the recognition candidate character with the instruction image 69 is generated and arranged next to the right of the character input immediately before. Further, the cursor image 70 is displayed on the right side of the character image 66.

また、入力文字列表示制御部54は、認識候補画像67が領域63aに表示されているときに、指示画像69が付されている認識候補とは異なる認識候補が接触操作によって選択されると、選択された認識候補の文字を示す文字画像66を生成し、その文字画像66を、カーソル画像70の左隣に表示されている文字画像66に置き換えて表示させる。   When the recognition candidate image 67 is displayed in the region 63a and the recognition candidate different from the recognition candidate with the instruction image 69 is selected by the touch operation, the input character string display control unit 54 A character image 66 indicating the selected recognition candidate character is generated, and the character image 66 is replaced with the character image 66 displayed on the left side of the cursor image 70 and displayed.

さらに、入力文字列表示制御部54は、「スペース」ボタンが接触操作によって選択されると、カーソル画像70を1文字分右側へ移動させて表示させ、「改行」ボタンが接触操作によって選択されると、カーソル画像70を次の行の先頭位置へ移動させて表示させ、「削除」ボタンが接触操作によって選択されると、カーソル画像70の左隣に表示されている文字画像66を消去させるとともに、カーソル画像70を1文字分左側へ移動させて表示させる。   Furthermore, when the “space” button is selected by the touch operation, the input character string display control unit 54 moves the cursor image 70 to the right by one character to display it, and the “line feed” button is selected by the touch operation. When the cursor image 70 is moved to the top position of the next line and displayed, and the “delete” button is selected by the touch operation, the character image 66 displayed on the left side of the cursor image 70 is deleted. The cursor image 70 is moved to the left by one character and displayed.

区画線表示制御部55は、領域区画部が文字入力領域61aを複数の領域81,82に区画したときの区画線を示す区画線画像71を、画像表示部22に表示させる。図3に示す例では、破線の区画線画像71が表示されている。   The lane line display control unit 55 causes the image display unit 22 to display a lane line image 71 indicating the lane line when the area division unit divides the character input area 61 a into a plurality of areas 81 and 82. In the example shown in FIG. 3, a broken line image 71 is displayed.

設定変更部32は、「設定」ボタンが接触操作によって選択されると、手書き文字入力装置20の動作を設定するための設定メニュー画面を画像表示部22に表示させ、操作者による入力に従って設定状態を変更する。   When the “setting” button is selected by the touch operation, the setting changing unit 32 displays a setting menu screen for setting the operation of the handwritten character input device 20 on the image display unit 22, and is set according to the input by the operator. To change.

選択判定部33は、接触操作入力部21から出力される座標データに基づき、各種のボタン、指示画像69が付されている認識候補とは異なる認識候補、および設定メニュー画面に含まれる項目が接触操作によって選択されたか否かを判定する。   Based on the coordinate data output from the contact operation input unit 21, the selection determination unit 33 makes contact with various buttons, recognition candidates different from the recognition candidates to which the instruction image 69 is attached, and items included in the setting menu screen. It is determined whether or not it has been selected by an operation.

図4は、テンプレート画像65に含まれる文字入力領域61aを拡大して示す図である。図4に示すように、文字入力領域61aは、横長の矩形状の領域とされている。領域区画部34は、文字入力領域61aを、手書き文字入力装置20が対応している言語の数に等しい数の領域に区画する。本実施形態では、手書き文字入力装置20は、日本語および英語の2つの言語に対応しているので、文字入力領域61aを2つの領域81,82に区画する。   FIG. 4 is an enlarged view of the character input area 61a included in the template image 65. As shown in FIG. As shown in FIG. 4, the character input area 61a is a horizontally long rectangular area. The area partitioning section 34 partitions the character input area 61a into a number of areas equal to the number of languages that the handwritten character input device 20 supports. In the present embodiment, since the handwritten character input device 20 is compatible with two languages, Japanese and English, the character input area 61 a is divided into two areas 81 and 82.

本実施形態では、領域区画部34は、文字入力領域61aの縦方向における中央位置Mよりも下側にオフセットした位置で、文字入力領域61aの横方向に平行に延びる線分(区画線71a)によって、文字入力領域61aを2つの領域81,82に区画している。したがって、図4に示すように、区画線71aの上側に配置される領域81の方が、区画線71aの下側に配置される領域82に比べて、縦方向の寸法が大きくなっている。   In the present embodiment, the area partitioning section 34 is a line segment (partition line 71a) extending parallel to the horizontal direction of the character input area 61a at a position offset below the center position M in the vertical direction of the character input area 61a. Thus, the character input area 61a is divided into two areas 81 and 82. Therefore, as shown in FIG. 4, the region 81 arranged on the upper side of the lane marking 71a has a larger size in the vertical direction than the region 82 arranged on the lower side of the lane marking 71a.

辞書データ記憶部41には、日本語の辞書データ41aと、英語の辞書データ41bとが格納され、それぞれ領域区画部34によって区画された各領域81,82に関連付けて格納されている。本実施形態では、日本語の辞書データ41aは、領域81に関連付けて格納され、英語の辞書データ41bは、領域82に関連付けて格納されている。   The dictionary data storage unit 41 stores Japanese dictionary data 41a and English dictionary data 41b, which are stored in association with the regions 81 and 82 partitioned by the region partition unit 34, respectively. In the present embodiment, the Japanese dictionary data 41 a is stored in association with the area 81, and the English dictionary data 41 b is stored in association with the area 82.

軌跡情報生成部35は、操作者が文字入力領域61a内を接触操作したときに、接触操作入力部21から出力される座標データに基づき、手書き入力された手書き文字についての軌跡情報を生成する。   The trajectory information generation unit 35 generates trajectory information about handwritten characters input by handwriting based on the coordinate data output from the contact operation input unit 21 when the operator performs a touch operation in the character input area 61a.

文字位置特定部36は、接触操作によって文字入力領域61a内に手書き文字が入力されると、軌跡情報生成部35によって生成された軌跡情報に基づいて、その手書き文字についての判定基準位置を特定する。   When a handwritten character is input into the character input area 61a by a touch operation, the character position specifying unit 36 specifies a determination reference position for the handwritten character based on the trajectory information generated by the trajectory information generating unit 35. .

図5は、手書き入力された手書き文字についての判定基準位置の特定方法の一例を説明するための図である。本実施形態では、文字位置特定部36は、接触操作によって文字入力領域61a内に手書き文字が入力されると、その手書き文字についての軌跡情報に基づいて、その手書き文字についての文字領域91を演算する。文字領域91は、本実施形態では、図5(a)に示すように、その手書き文字の外接矩形によって囲まれる領域である。なお、外接矩形は、その各辺が文字入力領域61aの縦方向または横方向に沿って延びるように決定される。   FIG. 5 is a diagram for explaining an example of a method for specifying a determination reference position for a handwritten character input by handwriting. In the present embodiment, when a handwritten character is input into the character input area 61a by a touch operation, the character position specifying unit 36 calculates the character area 91 for the handwritten character based on the trajectory information about the handwritten character. To do. In this embodiment, the character area 91 is an area surrounded by a circumscribed rectangle of the handwritten character, as shown in FIG. The circumscribed rectangle is determined such that each side thereof extends along the vertical direction or the horizontal direction of the character input area 61a.

文字位置特定部36は、文字領域91が演算されると、その文字領域91における予め定める位置を、判定基準位置とする。本実施形態では、図4に示すように、区画線71aの位置が、文字入力領域61aの縦方向における中央位置Mよりも下側にオフセットした位置とされているので、文字位置特定部36は、図5(b)に示すように、文字領域91の下端部91aの位置を判定基準位置としている。   When the character area 91 is calculated, the character position specifying unit 36 sets a predetermined position in the character area 91 as a determination reference position. In the present embodiment, as shown in FIG. 4, the position of the partition line 71a is set to a position that is offset below the center position M in the vertical direction of the character input area 61a. As shown in FIG. 5B, the position of the lower end portion 91a of the character area 91 is set as the determination reference position.

なお、領域区画部34によって、区画線71aの位置が、文字入力領域61aの縦方向における中央位置Mよりも上側にオフセットした位置とされている場合には、文字位置特定部36は、文字領域91の上端部の位置を判定基準位置とする。   In addition, when the position of the division line 71a is set to a position offset above the center position M in the vertical direction of the character input area 61a by the area dividing section 34, the character position specifying section 36 The position of the upper end portion 91 is set as a determination reference position.

領域判定部37は、接触操作によって入力された手書き文字について、文字位置特定部36によって特定された判定基準位置が、領域区画部34によって区画された2つの領域81,82のうちのどの領域に属しているかを判定する。   The region determination unit 37 determines which of the two regions 81 and 82 that the determination reference position specified by the character position specification unit 36 for the handwritten character input by the touch operation is divided by the region partition unit 34. Determine if it belongs.

図6は、判定基準位置が属している領域の判定方法を説明するための図である。図6(a)に示すように、判定基準位置である下端部91aの位置が区画線71aよりも上側にある場合には、判定基準位置が領域81に属していると判定され、図6(b)に示すように、判定基準位置である下端部91aの位置が区画線71aよりも下側にある場合には、判定基準位置が領域82に属していると判定される。   FIG. 6 is a diagram for explaining a method of determining an area to which the determination reference position belongs. As shown in FIG. 6A, when the position of the lower end 91a, which is the determination reference position, is above the lane marking 71a, it is determined that the determination reference position belongs to the region 81, and FIG. As shown in b), when the position of the lower end portion 91a which is the determination reference position is below the lane marking 71a, it is determined that the determination reference position belongs to the region 82.

文字認識処理部38は、判定基準位置が属している領域に関連付けられている辞書データを用いて、軌跡情報生成部35によって生成された軌跡情報について文字認識処理を行い、認識候補を抽出する。   The character recognition processing unit 38 performs character recognition processing on the trajectory information generated by the trajectory information generation unit 35 using dictionary data associated with the region to which the determination reference position belongs, and extracts recognition candidates.

具体的には、接触操作によって入力された手書き文字について、図6(a)に示すように、判定基準位置が領域81に属していると判定された場合には、領域81に関連付けられている日本語の辞書データ41aを用いて、軌跡情報生成部35によって生成された軌跡情報について文字認識処理を行い、認識候補を抽出する。一方、図6(b)に示すように、判定基準位置が領域82に属していると判定された場合には、領域82に関連付けられている英語の辞書データ41bを用いて、軌跡情報生成部35によって生成された軌跡情報について文字認識処理を行い、認識候補を抽出する。   Specifically, for a handwritten character input by a touch operation, as shown in FIG. 6A, when it is determined that the determination reference position belongs to the region 81, the handwritten character is associated with the region 81. Character recognition processing is performed on the trajectory information generated by the trajectory information generation unit 35 using the Japanese dictionary data 41a, and recognition candidates are extracted. On the other hand, as shown in FIG. 6B, when it is determined that the determination reference position belongs to the region 82, the trajectory information generation unit is used using the English dictionary data 41 b associated with the region 82. Character recognition processing is performed on the trajectory information generated by 35 to extract recognition candidates.

図7は、本実施形態に係る手書き文字入力装置20において実行される手書き文字入力処理の処理手順を示すフローチャートである。本実施形態に係る手書き文字入力装置20が適用されている電子機器において、メモ帳、メールおよびウェブブラウザなどのアプリケーションが起動され、文字入力が可能な状態、すなわち文字入力モードとされているときに、手書きで文字を入力する入力モードに切り替えられると、処理が開始され、テンプレート画像65に基づいて手書き文字入力画面が表示されると、ステップs1に進む。   FIG. 7 is a flowchart showing a processing procedure of handwritten character input processing executed in the handwritten character input device 20 according to the present embodiment. In an electronic device to which the handwritten character input device 20 according to the present embodiment is applied, when an application such as a memo pad, mail, and web browser is activated and the character input mode is enabled, that is, the character input mode is set. When the mode is switched to the input mode for inputting characters by handwriting, the process is started. When the handwritten character input screen is displayed based on the template image 65, the process proceeds to step s1.

ステップs1で、操作者によって文字入力領域61a内が接触操作されると、軌跡表示制御部52は、接触操作入力部21から出力される座標データに基づいて、軌跡画像68を画像表示部22に表示させる。そして、文字入力領域61a内に手書き文字が入力されると、軌跡情報生成部35は、接触操作入力部21から出力される座標データに基づき、手書き入力された手書き文字についての軌跡情報を生成して、ステップs2に進む。   When the operator performs a contact operation in the character input area 61a in step s1, the trajectory display control unit 52 causes the trajectory image 68 to be displayed on the image display unit 22 based on the coordinate data output from the contact operation input unit 21. Display. When a handwritten character is input into the character input area 61a, the trajectory information generation unit 35 generates trajectory information about the handwritten character input by handwriting based on the coordinate data output from the contact operation input unit 21. Then, the process proceeds to step s2.

ステップs2で、文字位置特定部36は、軌跡情報生成部35によって生成された軌跡情報に基づいて、その手書き文字についての判定基準位置を特定し、ステップs3に進む。   In step s2, the character position specifying unit 36 specifies the determination reference position for the handwritten character based on the trajectory information generated by the trajectory information generating unit 35, and the process proceeds to step s3.

ステップs3で、領域判定部37は、文字位置特定部36によって特定された判定基準位置が、領域区画部34によって区画された2つの領域81,82のうちのどの領域に属しているかを判定する。判定基準位置が領域81に属している場合には、手書き文字の言語が日本語であるとして、ステップs4に進み、判定基準位置が領域82に属している場合には、手書き文字の言語が英語であるとして、ステップs5に進む。   In step s 3, the region determination unit 37 determines to which region of the two regions 81 and 82 that the determination reference position specified by the character position specification unit 36 is partitioned by the region partition unit 34 belongs. . If the determination reference position belongs to the area 81, the language of the handwritten character is assumed to be Japanese, and the process proceeds to step s4. If the determination reference position belongs to the area 82, the language of the handwritten character is English. The process proceeds to step s5.

ステップs4で、文字認識処理部38は、接触操作によって入力された手書き文字について、日本語の辞書データ41aを用いて、軌跡情報生成部35によって生成された軌跡情報について文字認識処理を行い、認識候補を抽出し、ステップs6に進む。   In step s4, the character recognition processing unit 38 performs character recognition processing on the trajectory information generated by the trajectory information generation unit 35 using the Japanese dictionary data 41a for the handwritten character input by the contact operation, and recognizes it. Candidates are extracted, and the process proceeds to step s6.

ステップs5で、文字認識処理部38は、接触操作によって入力された手書き文字について、英語の辞書データ41bを用いて、軌跡情報生成部35によって生成された軌跡情報について文字認識処理を行い、認識候補を抽出し、ステップs6に進む。   In step s5, the character recognition processing unit 38 performs character recognition processing on the trajectory information generated by the trajectory information generation unit 35 using the English dictionary data 41b for the handwritten character input by the contact operation, and the recognition candidate. Is extracted and the process proceeds to step s6.

ステップs6で、認識候補表示制御部53は、文字認識処理部38によって抽出された1または複数の認識候補に基づいて、認識候補画像67を生成し、領域63a内において1または複数の認識候補が所定の順で並ぶように、画像表示部22に表示させる。また、入力文字列表示制御部54は、最も形が近いと判定された認識候補、すなわち指示画像69が付されている認識候補の文字を示す文字画像66を、選択状態でターゲットフィールド62a内の所定の位置に表示させて、ステップs7に進む。   In step s6, the recognition candidate display control unit 53 generates a recognition candidate image 67 based on the one or more recognition candidates extracted by the character recognition processing unit 38, and one or more recognition candidates are found in the region 63a. The images are displayed on the image display unit 22 so as to be arranged in a predetermined order. In addition, the input character string display control unit 54 selects a recognition candidate determined to have the closest shape, that is, a character image 66 indicating a recognition candidate character to which the instruction image 69 is attached in the target field 62a. The display is made at a predetermined position, and the process proceeds to step s7.

ステップs7で、選択判定部33は、接触操作入力部21から出力される座標データに基づき、各種のボタン、および指示画像69が付されている認識候補とは異なる認識候補が接触操作によって選択されたか否かを判定し、選択されていない場合には、ステップs8に進み、選択された場合には、ステップs9に進む。   In step s7, based on the coordinate data output from the contact operation input unit 21, the selection determination unit 33 selects a recognition candidate different from the recognition candidates to which various buttons and the instruction image 69 are attached by the contact operation. If it is not selected, the process proceeds to step s8. If it is selected, the process proceeds to step s9.

ステップs8で、制御部24は、操作者によって、文字入力モードが終了されたか、あるいは他の入力モードに切り替えられたと判定すると、手書き文字入力処理を終了し、文字入力モードが継続中で、他の入力モードに切り替えられていないと判定すると、ステップs1に戻る。   In step s8, when the control unit 24 determines that the character input mode has been terminated or has been switched to another input mode by the operator, the handwriting character input process is terminated, and the character input mode is continuing. If it is determined that the input mode has not been switched, the process returns to step s1.

ステップs9では、ステップs7において選択されたオブジェクトに対応した処理が行われ、ステップs1に戻る。たとえば、「削除」ボタンが接触操作によって選択された場合には、入力文字列表示制御部54は、ターゲットフィールド62aにおいて、カーソル画像70の左隣に表示されている文字画像66を消去させるとともに、カーソル画像70を1文字分左側へ移動させて表示させる。   In step s9, processing corresponding to the object selected in step s7 is performed, and the process returns to step s1. For example, when the “delete” button is selected by the touch operation, the input character string display control unit 54 deletes the character image 66 displayed on the left side of the cursor image 70 in the target field 62a, and The cursor image 70 is moved to the left by one character and displayed.

また、指示画像69が付されている認識候補とは異なる認識候補が接触操作によって選択された場合には、選択された認識候補の文字画像66を、カーソル画像70の左隣に表示されている文字画像66に置き換えて表示させる。   When a recognition candidate different from the recognition candidate to which the instruction image 69 is attached is selected by the touch operation, the character image 66 of the selected recognition candidate is displayed on the left side of the cursor image 70. It is replaced with the character image 66 and displayed.

図8は、文字入力領域61a内に日本語と英語とが混在する文章が手書き入力された状態を示す図である。図8に示すように、1つの文字入力領域61a内で、「右の」のように、判定基準位置である文字領域91の下端部91aの位置が、区画線71aよりも上側に位置していると、日本語の辞書データ41aを用いて文字認識処理が行われ、「FAQ」のように、判定基準位置である文字領域91の下端部91aの位置が、区画線71aよりも下側に位置していると、英語の辞書データ41bを用いて文字認識処理が行われる。   FIG. 8 is a diagram illustrating a state in which a sentence in which Japanese and English are mixed is input by handwriting in the character input area 61a. As shown in FIG. 8, within one character input area 61a, the position of the lower end 91a of the character area 91, which is the determination reference position, is positioned above the lane marking 71a, such as “right”. If so, the character recognition process is performed using the Japanese dictionary data 41a, and the position of the lower end 91a of the character area 91, which is the determination reference position, is lower than the lane marking 71a, as in “FAQ”. If it is located, character recognition processing is performed using the English dictionary data 41b.

以上のように、本実施形態によれば、入力中に認識言語を切り替えるための操作を必要としないことから、入力操作の流れを妨げることなく、目的の言語による精度の高い認識を行いながら、容易に入力することができ、操作効率を格段に向上させることができる。   As described above, according to the present embodiment, since an operation for switching the recognition language during the input is not required, while performing a highly accurate recognition in the target language without hindering the flow of the input operation, It is possible to input easily, and the operation efficiency can be remarkably improved.

さらに、認識言語に対応した複数の入力枠を用いず、ひとつの入力枠の範囲で操作するため、スマートフォン等の限られた画面サイズにおいても入力部の占める割合を小さくすることができ、連続した一連の入力文字列の中に部分的に異なる言語の文字が混じった場合でもひとつの入力枠のみ使用するため、スムーズな入力操作を行うことができる。   Furthermore, since the operation is performed within the range of one input frame without using multiple input frames corresponding to the recognition language, the ratio of the input unit can be reduced even in a limited screen size such as a smartphone. Even when characters in different languages are mixed in a series of input character strings, only one input frame is used, so that a smooth input operation can be performed.

また、本実施形態によれば、文字入力領域61aには、図3に示すように、領域区画部34が文字入力領域61aを複数の領域に区画したときの区画線を示す区画線画像71が表示されるように構成されているので、操作者は、区画線画像71を目印として、所望の言語の辞書データで文字認識処理が行われるように、文字入力領域61aに手書き文字を入力することができる。すなわち、操作者による操作性を向上させることができる。   Further, according to the present embodiment, as shown in FIG. 3, the character input area 61 a has a lane line image 71 showing a lane line when the area partition unit 34 divides the character input area 61 a into a plurality of areas. Since it is configured to be displayed, the operator inputs handwritten characters into the character input area 61a so that the character recognition processing is performed using dictionary data in a desired language using the marking line image 71 as a mark. Can do. That is, the operability by the operator can be improved.

また、本実施形態によれば、領域区画部34によって、区画線71aの位置が、文字入力領域61aの縦方向における中央位置Mよりも下側にオフセットした位置とされている場合には、文字位置特定部36は、文字領域91の下端部91aの位置を判定基準位置とし、領域区画部34によって、区画線71aの位置が、文字入力領域61aの縦方向における中央位置Mよりも上側にオフセットした位置とされている場合には、文字位置特定部36は、文字領域91の上端部の位置を判定基準位置とするように構成されている。これにより、いずれの言語についても、文字入力を問題なく行うことができる充分な大きさの領域(縦方向の寸法)が確保され、操作者は、容易に手書きで文字を入力することができる。   Further, according to the present embodiment, when the position of the partition line 71a is set to a position offset downward from the center position M in the vertical direction of the character input area 61a, The position specifying unit 36 uses the position of the lower end 91a of the character area 91 as the determination reference position, and the area dividing unit 34 offsets the position of the dividing line 71a above the center position M in the vertical direction of the character input area 61a. In the case where the position is determined, the character position specifying unit 36 is configured so that the position of the upper end portion of the character region 91 is set as the determination reference position. As a result, in any language, a sufficiently large area (vertical dimension) that allows character input without problems is ensured, and the operator can easily input characters by handwriting.

なお、本実施形態では、互いに異なる2つの言語の辞書データが搭載されている手書き文字入力装置20を例に挙げているが、互いに異なる3つ以上の言語の辞書データが搭載されている手書き文字入力装置においても本発明を適用可能である。   In the present embodiment, the handwritten character input device 20 on which dictionary data of two different languages is installed is taken as an example, but handwritten characters on which dictionary data of three or more languages different from each other are installed. The present invention can also be applied to an input device.

11 操作面
20 手書き文字入力装置
21 接触操作入力部
22 画像表示部
23 入出力装置
24 制御部
25 記憶部
31 表示制御部
34 領域区画部
35 軌跡情報生成部
36 文字位置特定部
37 領域判定部
38 文字認識処理部
41 辞書データ記憶部
51 テンプレート画像表示制御部
52 軌跡表示制御部
53 認識候補表示制御部
54 入力文字列表示制御部
55 区画線表示制御部
DESCRIPTION OF SYMBOLS 11 Operation surface 20 Handwritten character input device 21 Contact operation input part 22 Image display part 23 Input / output device 24 Control part 25 Storage part 31 Display control part 34 Area division part 35 Trajectory information generation part 36 Character position specification part 37 Area determination part 38 Character recognition processing unit 41 Dictionary data storage unit 51 Template image display control unit 52 Trajectory display control unit 53 Recognition candidate display control unit 54 Input character string display control unit 55 Parcel line display control unit

Claims (4)

操作者による接触操作を受ける操作面を有し、操作者が接触操作した前記操作面上の操作位置を示す操作位置情報を出力する接触操作入力部と、
前記接触操作入力部の前記操作面に画像を表示する画像表示部と、
操作者が接触操作により手書き文字を入力する文字入力領域を示す文字入力領域指示画像を含むテンプレート画像を、前記画像表示部に表示させるテンプレート画像表示制御部と、
前記文字入力領域を複数の領域に区画する領域区画部と、
互いに異なる言語の辞書データを、前記領域区画部によって区画された各領域に関連付けて記憶する辞書データ記憶部と、
前記接触操作入力部から出力される操作位置情報に基づいて、前記文字入力領域に手書き入力された手書き文字の軌跡情報を生成する軌跡情報生成部と、
前記軌跡情報生成部によって生成された軌跡情報に基づいて、該手書き文字についての判定基準位置を特定する文字位置特定部と、
前記判定基準位置が、前記複数の領域のうちのどの領域に属しているかを判定する領域判定部と、
前記判定基準位置が属している領域に関連付けられている辞書データを用いて、前記軌跡情報生成部によって生成された軌跡情報について文字認識処理を行い、認識候補を抽出する文字認識処理部と、
前記文字認識処理部によって抽出された認識候補を表す認識候補画像を、前記画像表示部に表示させる認識候補表示制御部とを含むことを特徴とする手書き文字入力装置。
A contact operation input unit that has an operation surface that receives a contact operation by an operator and outputs operation position information indicating an operation position on the operation surface on which the operator performs a contact operation;
An image display unit for displaying an image on the operation surface of the contact operation input unit;
A template image display control unit that causes the image display unit to display a template image including a character input region instruction image indicating a character input region in which the operator inputs a handwritten character by a contact operation;
An area dividing section for dividing the character input area into a plurality of areas;
Dictionary data storage unit for storing dictionary data of different languages in association with each region partitioned by the region partitioning unit;
Based on the operation position information output from the contact operation input unit, a trajectory information generation unit that generates trajectory information of handwritten characters input by handwriting in the character input area;
A character position specifying unit that specifies a determination reference position for the handwritten character based on the track information generated by the track information generating unit;
An area determination unit that determines which of the plurality of areas the determination reference position belongs to;
A character recognition processing unit that performs character recognition processing on the trajectory information generated by the trajectory information generation unit using dictionary data associated with the region to which the determination reference position belongs, and extracts recognition candidates;
The handwritten character input device characterized by including the recognition candidate display control part which displays the recognition candidate image showing the recognition candidate extracted by the said character recognition process part on the said image display part.
前記領域区画部が前記文字入力領域を複数の領域に区画したときの区画線を示す区画線画像を、前記画像表示部に表示させる区画線表示制御部をさらに含むことを特徴とする請求項1に記載の手書き文字入力装置。   2. The lane marking display control unit that causes the image display unit to display a lane line image indicating a lane line when the area partition unit divides the character input area into a plurality of areas. The handwritten character input device described in 1. 前記文字位置特定部は、前記手書き文字の軌跡情報に基づいて、該手書き文字についての文字領域を演算し、該文字領域における予め定める位置を、前記判定基準位置とすることを特徴とする請求項1または2に記載の手書き文字入力装置。   The character position specifying unit calculates a character region for the handwritten character based on trajectory information of the handwritten character, and sets a predetermined position in the character region as the determination reference position. The handwritten character input device according to 1 or 2. 前記文字入力領域は、横長の矩形状の領域であり、
前記領域区画部は、前記文字入力領域の縦方向における中央位置よりも上側または下側にオフセットした位置で、該文字入力領域の横方向に平行に延びる線分によって、前記文字入力領域を区画し、
前記文字位置特定部は、前記オフセットした位置が前記中央位置よりも上側であるときには、前記文字領域の上端部の位置を前記判定基準位置とし、前記オフセットした位置が前記中央位置よりも下側であるときには、前記文字領域の下端部の位置を前記判定基準位置とすることを特徴とする請求項3に記載の手書き文字入力装置。
The character input area is a horizontally long rectangular area,
The area partitioning section partitions the character input area by line segments extending parallel to the horizontal direction of the character input area at positions offset above or below the center position in the vertical direction of the character input area. ,
When the offset position is above the center position, the character position specifying unit uses the position of the upper end portion of the character area as the determination reference position, and the offset position is below the center position. 4. The handwritten character input device according to claim 3, wherein a position of a lower end portion of the character region is set as the determination reference position.
JP2013174547A 2013-08-26 2013-08-26 Handwritten character input device Pending JP2015043145A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013174547A JP2015043145A (en) 2013-08-26 2013-08-26 Handwritten character input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013174547A JP2015043145A (en) 2013-08-26 2013-08-26 Handwritten character input device

Publications (1)

Publication Number Publication Date
JP2015043145A true JP2015043145A (en) 2015-03-05

Family

ID=52696650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013174547A Pending JP2015043145A (en) 2013-08-26 2013-08-26 Handwritten character input device

Country Status (1)

Country Link
JP (1) JP2015043145A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106886282A (en) * 2017-01-04 2017-06-23 奇酷互联网络科技(深圳)有限公司 Characters input method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106886282A (en) * 2017-01-04 2017-06-23 奇酷互联网络科技(深圳)有限公司 Characters input method and device
CN106886282B (en) * 2017-01-04 2020-12-25 奇酷互联网络科技(深圳)有限公司 Character input method and device

Similar Documents

Publication Publication Date Title
US10359932B2 (en) Method and apparatus for providing character input interface
US10489508B2 (en) Incremental multi-word recognition
US9304683B2 (en) Arced or slanted soft input panels
JP6419162B2 (en) Character input device and character input method
JP6392036B2 (en) Electronic apparatus and method
US9298270B2 (en) Written character inputting device and method
US10248635B2 (en) Method for inserting characters in a character string and the corresponding digital service
US10416868B2 (en) Method and system for character insertion in a character string
US9747002B2 (en) Display apparatus and image representation method using the same
JP2013050786A (en) Character input device and mobile terminal device
JP6430198B2 (en) Electronic device, method and program
JPWO2014045414A1 (en) Character input device, character input method, character input control program
JP6057441B2 (en) Portable device and input method thereof
US9298366B2 (en) Electronic device, method and computer readable medium
JP2015043145A (en) Handwritten character input device
Po et al. Dynamic candidate keypad for stroke-based Chinese input method on touchscreen devices
US20150347004A1 (en) Indic language keyboard interface
CN108733227B (en) Input device and input method thereof
JP2016200896A (en) Character input method, device and program
JP2015069278A (en) Electronic equipment, method, and program