JP2009223430A - Information processor, handwritten character input method, and handwritten character input program - Google Patents

Information processor, handwritten character input method, and handwritten character input program Download PDF

Info

Publication number
JP2009223430A
JP2009223430A JP2008064764A JP2008064764A JP2009223430A JP 2009223430 A JP2009223430 A JP 2009223430A JP 2008064764 A JP2008064764 A JP 2008064764A JP 2008064764 A JP2008064764 A JP 2008064764A JP 2009223430 A JP2009223430 A JP 2009223430A
Authority
JP
Japan
Prior art keywords
input
character
input frame
range
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008064764A
Other languages
Japanese (ja)
Inventor
Mariko Kobayashi
真理子 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008064764A priority Critical patent/JP2009223430A/en
Publication of JP2009223430A publication Critical patent/JP2009223430A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To suppress deterioration in character input efficiency when a handwritten character protrudes beyond an input frame for one character due to individual difference in strokes or the size of the character, which may deteriorate recognition rate and input efficiency. <P>SOLUTION: On a display device for displaying an image through a touch sensor, an input frame indicating a range for writing one character therein is displayed, information on locus of a character handwritten in the frame is acquired, a new input frame surrounding a range wider than the input frame is drawn if a range for the locus information for one character is beyond the range of the input frame, and one character corresponding to the locus information is recognized on the basis of the locus information for the one character written in the new input frame. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、計算機にペン等を用いて手書き文字を入力する方法に関し、特に入力する文字の領域を最適化する情報処理装置、手書き文字入力方法および手書き文字入力プログラムに関する。   The present invention relates to a method of inputting handwritten characters using a pen or the like on a computer, and more particularly to an information processing apparatus, a handwritten character input method, and a handwritten character input program for optimizing a region of characters to be input.

計算機に文字を入力する場合にキーボードが良く用いられている。キーボードによる文字入力は簡単に、また時間当たりの入力文字数も多いという利点がある。一方、小型化に関しては、打鍵のしやすさを確保するためにはある程度の大きさを要するキーボードは実装上不利になる。別の入力方法として、手帳と同じように機器の画面にペン等を用いて文字を書くと、書いたその文字が直接入力できる手書き文字認識技術を用いる場合もある。   A keyboard is often used to enter characters into a computer. Character input with a keyboard is easy and has the advantage of a large number of input characters per hour. On the other hand, with respect to miniaturization, a keyboard that requires a certain size in order to ensure ease of keystroke is disadvantageous in terms of mounting. As another input method, there is a case in which handwritten character recognition technology is used in which when a character is written on the screen of the device using a pen or the like, as in the notebook, the written character can be directly input.

手書き文字入力の場合、文字認識率向上のために文字1つに対応した所定の大きさの入力枠を設けることが多い。ユーザにはこの枠の中に適切な大きさで1文字ずつ書き込ませることで、手書き文字認識率とあわせて入力効率を確保している。   In the case of handwritten character input, an input frame having a predetermined size corresponding to one character is often provided in order to improve the character recognition rate. The user writes the characters one by one in an appropriate size in this frame, thereby ensuring the input efficiency together with the handwritten character recognition rate.

しかしながら文字を手書きする際、ユーザによって文字の書き方や書きやすい大きさといった個人差により、あらかじめ設けた入力枠をはみ出してしまうことが考えられる。この場合、手書き文字の認識率が低下し、ひいては入力効率そのものが悪化する。   However, when handwriting a character, it is conceivable that an input frame provided in advance protrudes depending on individual differences such as how to write the character and a size that the user can easily write. In this case, the recognition rate of handwritten characters decreases, and the input efficiency itself deteriorates.

このため、手書きした文字が入力枠を超えて隣の枠にまたがってしまったような場合でも、例えば隣の枠に入力された筆跡も含めて1文字として認識する文字認識装置が提案されている(特許文献1を参照)。
特開平11−259598号公報
For this reason, even when a handwritten character extends beyond the input frame and straddles the adjacent frame, for example, a character recognition device that recognizes as one character including a handwriting input in the adjacent frame has been proposed. (See Patent Document 1).
JP 11-259598 A

手書き文字入力の場合、ユーザによって文字の書き方や書きやすい大きさなどの個人差により、入力文字1つに対応した入力枠をはみ出してしまうことがあり、認識率の低下および入力効率の悪化が懸念される。   In the case of handwritten character input, the input frame corresponding to one input character may protrude due to individual differences such as how to write characters and the size that can be easily written by the user, and there is a concern that the recognition rate decreases and input efficiency deteriorates. Is done.

本発明は上記事情に鑑みて成されたもので、所定の大きさの入力枠から手書き文字がはみ出してしまった場合でも、簡単に以後の文字入力における効率低下を抑えることが可能な情報処理装置、手書き文字入力方法および手書き文字入力プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and even when a handwritten character protrudes from an input frame of a predetermined size, an information processing apparatus that can easily suppress a decrease in efficiency in subsequent character input. An object is to provide a handwritten character input method and a handwritten character input program.

本発明にかかる情報処理装置とすれば、
画像表示が可能な表示装置と、前記表示装置の表示する画像がセンサ越しに見えるように設けられ、その表面に接触することで、該接触した位置を位置情報として検出するタッチセンサと、接触したまま移動した前記タッチパネルが検出した連続した位置情報を軌跡情報として取得する手書き入力検出手段と、1文字分の手書き文字を書き込む範囲を示す入力枠を、前記表示装置上に描画する入力枠描画手段と、前記入力枠内に書き込まれた1文字分の前記軌跡情報に基づいて、該軌跡情報に該当する1文字を認識する手書き文字認識手段を備え、1文字分の前記軌跡情報の存在する範囲が前記入力枠の範囲を超える場合、前記入力枠描画手段はさらに広い範囲を囲う新たな入力枠を描画することを特徴とする情報処理装置が提供される。
With the information processing apparatus according to the present invention,
A display device capable of displaying an image, and a touch sensor that is provided so that an image displayed by the display device can be seen through the sensor and touches the surface of the display device to detect the position of the contact as position information. Handwritten input detection means for acquiring continuous position information detected by the touch panel that has been moved as trajectory information, and input frame drawing means for drawing an input frame indicating a range for writing one handwritten character on the display device And a handwritten character recognizing means for recognizing one character corresponding to the trajectory information based on the trajectory information for one character written in the input frame, a range where the trajectory information for one character exists. When the input frame exceeds the range of the input frame, the input frame drawing means draws a new input frame surrounding a wider range.

また、本発明にかかる手書き文字入力方法は、
接触した位置を位置情報として検出することが可能なタッチセンサ上に、入力したい文字を手書きすることで文字入力するための手書き文字入力方法であって、前記タッチセンサ越しに画像を表示する表示装置に、1つの文字を書き込む範囲を示す入力枠を表示し、前記タッチセンサの表面に接触したまま移動した、連続した位置情報を軌跡情報として取得し、1文字分の前記軌跡情報の存在する範囲が、前記入力枠の範囲を超える場合、該入力枠よりさらに広い範囲を囲う新たな入力枠を描画し、この入力枠内に書き込まれた1文字分の前記軌跡情報に基づいて、該軌跡情報に該当する1文字を認識することを特徴とする。
The handwritten character input method according to the present invention includes:
A display device for inputting a character by handwriting a character to be input on a touch sensor capable of detecting the touched position as position information, and displaying an image through the touch sensor An input frame indicating a range in which one character is written is displayed, continuous position information that is moved while touching the surface of the touch sensor is acquired as trajectory information, and a range in which the trajectory information for one character exists If the input range exceeds the range of the input frame, a new input frame that surrounds a range wider than the input frame is drawn, and the trajectory information is based on the trajectory information for one character written in the input frame. One character corresponding to the above is recognized.

また、本発明にかかる手書き文字入力プログラムは、
接触した位置を位置情報として検出することが可能なタッチセンサ上に、入力したい文字を手書きすることで文字入力するための、計算機で実行可能な手書き文字入力プログラムであって、前記タッチセンサ越しに画像を表示する表示装置に、1つの文字を書き込む範囲を示す入力枠を表示するステップと、前記タッチセンサの表面に接触したまま移動した、連続した位置情報を軌跡情報として取得するステップと、1文字分の前記軌跡情報の存在する範囲が、前記入力枠の範囲を超える場合、該入力枠よりさらに広い範囲を囲う新たな入力枠を描画するステップと、この入力枠内に書き込まれた1文字分の前記軌跡情報に基づいて、該軌跡情報に該当する1文字を認識するステップことを有することを特徴とする。
The handwritten character input program according to the present invention is
A handwritten character input program executable by a computer for inputting characters by handwriting a character to be input on a touch sensor capable of detecting a contact position as position information. A step of displaying an input frame indicating a range in which one character is written on a display device for displaying an image; a step of acquiring continuous position information that has moved while touching the surface of the touch sensor; When the range in which the trajectory information for characters exceeds the range of the input frame, a step of drawing a new input frame that encloses a range wider than the input frame, and one character written in the input frame And recognizing one character corresponding to the locus information based on the locus information of minutes.

手書き文字入力の際、所定の大きさの入力枠から手書き文字がはみ出してしまった場合でも、簡単に以後の文字入力における効率低下を抑えることが可能となる。 Even when a handwritten character protrudes from an input frame having a predetermined size during handwritten character input, it is possible to easily suppress a decrease in efficiency in subsequent character input.

(本実施形態)
図1は、本実施形態にかかる情報処理装置の一例を示す図である。図1では、PC100、ディスプレイ101、ペン102およびボタン103が示されている。
(This embodiment)
FIG. 1 is a diagram illustrating an example of an information processing apparatus according to the present embodiment. In FIG. 1, a PC 100, a display 101, a pen 102, and buttons 103 are shown.

PC100は、たとえばPDA(Personal Digital Assistant)のように持ち運び可能な小型パソコンである。本実施形態ではキーボードが搭載されていないPCを例示しているが、この形状に限定されることはない。   The PC 100 is a portable personal computer such as a PDA (Personal Digital Assistant). In the present embodiment, a PC on which no keyboard is mounted is illustrated, but the present invention is not limited to this shape.

ディスプレイ101は、PC100に搭載された表示装置である。たとえばLCD(Liquid Crystal Display)のようなもので、PC100がユーザに対し情報を表示する。また、その表示面には手指等で触れたときに接触したこと、および接触した位置が検出可能なタッチセンサが組み込まれている。   The display 101 is a display device mounted on the PC 100. For example, an LCD (Liquid Crystal Display) is used, and the PC 100 displays information to the user. In addition, a touch sensor that can detect that the display surface is touched with a finger or the like and the touched position is incorporated.

ペン102は、ディスプレイ101の表面に接触させることで、ポインティングデバイス(座標指示装置)として機能する。本実施形態では、ディスプレイ101の表面にタッチ式のセンサが載置されている。そしてペン102によってディスプレイ101の所望の場所に接触するとそれをセンサが感知し、その所望の場所の位置情報がPC100に入力されるように構成されている。   The pen 102 functions as a pointing device (coordinate indicating device) by making contact with the surface of the display 101. In the present embodiment, a touch sensor is placed on the surface of the display 101. When a desired location on the display 101 is touched by the pen 102, the sensor senses the location, and position information on the desired location is input to the PC 100.

ボタン103は、ユーザがPC100を操作するときに用いられ、ボタン103を押したタイミングで、そのボタンに割り当てられた機能を実行するように構成される。本実施形態では、ボタン103に割り当てられる機能は自由に定めることができる。   The button 103 is used when the user operates the PC 100, and is configured to execute a function assigned to the button when the button 103 is pressed. In the present embodiment, the function assigned to the button 103 can be freely determined.


図2は、本実施形態にかかるPC100のブロック構成図の一例を示す図である。図2には、CPU200、メインメモリ201、バスコントローラ202、入出力コントローラ203およびタッチセンサ204が示されている。

FIG. 2 is a diagram illustrating an example of a block configuration diagram of the PC 100 according to the present embodiment. FIG. 2 shows a CPU 200, a main memory 201, a bus controller 202, an input / output controller 203, and a touch sensor 204.

CPU200は中央演算処理装置(Central Processing Unit)であり、PC100全体を制御している。またプログラムを実行し、そのプログラムに応じた所定の処理を実行する機能を有している。   The CPU 200 is a central processing unit and controls the entire PC 100. It also has a function of executing a program and executing a predetermined process corresponding to the program.

メインメモリ201は半導体メモリにより構成され、CPU200がプログラムを処理する際のプログラムおよびデータの格納用領域として利用される。   The main memory 201 is composed of a semiconductor memory, and is used as an area for storing programs and data when the CPU 200 processes the programs.

バスコントローラ202は、情報機器100の各構成要素の間の情報を伝達するためのバスを制御する機能を有する。CPU200からの指示はバスを介してメインメモリ201内のデータを読み書きし、あるいは他の機器に指示を与える。   The bus controller 202 has a function of controlling a bus for transmitting information between the components of the information device 100. The instruction from the CPU 200 reads / writes data in the main memory 201 via the bus or gives an instruction to other devices.

入出力コントローラ203は、CPU200とディスプレイ101、ボタン102のような各種入出力装置とのインタフェースを提供する機能を有する。   The input / output controller 203 has a function of providing an interface between the CPU 200 and various input / output devices such as the display 101 and the button 102.

タッチセンサ204は、PC100本体内に内蔵されたディスプレイ101の表示面上に配置されており、PC100を使用するユーザはディスプレイ101に表示された内容を直接タッチする感覚で画面上の所望の位置を指示することができるセンサである。ディスプレイ101の表示内容を遮ることが無いように通常は透明性を備えた素材により構成されている。またはペン102が接触した画面上の位置を測定することができるセンサであれば、上記の構造に限定されることなくタッチセンサ204を構成することができる。   The touch sensor 204 is arranged on the display surface of the display 101 built in the PC 100 main body, and the user using the PC 100 can set a desired position on the screen by directly touching the content displayed on the display 101. It is a sensor that can indicate. In general, the display 101 is made of a transparent material so as not to obstruct the display content. Alternatively, the touch sensor 204 can be configured without being limited to the above structure as long as the sensor can measure the position on the screen in contact with the pen 102.

図3は、手書き文字入力画面の一例を示す図である。図3には、ディスプレイ101に表示された文字入力領域300、301および302が示されている。それぞれの文字入力領域はディスプレイ101上のどこに表示されていてもかまわないが、本実施形態ではディスプレイ101の左下隅に1文字目から数えて右方向に、3文字分の入力領域が表示されている例を示している。   FIG. 3 is a diagram illustrating an example of a handwritten character input screen. FIG. 3 shows character input areas 300, 301 and 302 displayed on the display 101. Each character input area may be displayed anywhere on the display 101, but in this embodiment, an input area for three characters is displayed in the right direction from the first character in the lower left corner of the display 101. An example is shown.

文字入力領域300には「あ」、文字入力領域301、302には「い」、「う」と認識されることを期待する手書き文字が入力されている例を示している。手書き入力に際しては、ユーザはペン102を用い、ディスプレイ101上に表示されたこれら文字入力領域内に適切な大きさで通常の筆記具を用いて手書きするのと同様の要領で接触させる。本発明では、どの文字入力領域が何文字目に相当するかは重要ではないが、ユーザは左側にある文字入力範囲から順に、つまり横書きで文章を筆記する要領で文字を描くことを想定する。文字入力領域300に手書きした文字が1文字目とすれば、PC100は、ユーザは「あいう」という単語を入力したと判断するものとする。もちろん、文字入力領域は図3に示すような3つに限られず、1以上あれば良い。   In this example, handwritten characters that are expected to be recognized as “A” are input to the character input region 300, and “I” and “U” are input to the character input regions 301 and 302. At the time of handwriting input, the user uses the pen 102 to make contact with the character input area displayed on the display 101 in the same manner as when handwriting with a normal writing tool with an appropriate size. In the present invention, it is not important which character input area corresponds to what character, but it is assumed that the user draws characters in order from the character input range on the left side, that is, in the manner of writing a sentence in horizontal writing. If the handwritten character in the character input area 300 is the first character, the PC 100 determines that the user has input the word “that”. Of course, the number of character input areas is not limited to three as shown in FIG.

図4は、本実施形態にかかる情報処理装置の機能ブロック図の一例を示す図である。図4では、ペン入力部400、入力範囲判定部401、手書き文字認識部402、入力枠描画部403および画像生成部404が示されている。   FIG. 4 is a diagram illustrating an example of a functional block diagram of the information processing apparatus according to the present embodiment. In FIG. 4, a pen input unit 400, an input range determination unit 401, a handwritten character recognition unit 402, an input frame drawing unit 403, and an image generation unit 404 are shown.

ペン入力部400は、ユーザがペン102を用いてディスプレイ101の表面に載置されたタッチセンサ204が出力する情報から、ディスプレイ101にペン102が接触し、また移動した軌跡データを取得する機能を有する。   The pen input unit 400 has a function of acquiring trajectory data in which the pen 102 is in contact with the display 101 and moved based on information output from the touch sensor 204 placed on the surface of the display 101 using the pen 102. Have.

入力範囲判定部401は、ペン入力部400が取得した軌跡データに基づいて、1つの文字と推定される軌跡を判定し、さらにその軌跡が占めるペン入力範囲を判定する機能を有する。本実施形態では、1つの文字と推定される軌跡が含まれる上下左右方向の最も広い矩形で示される範囲をペン入力範囲として求める。また、ペン入力された軌跡のうち、いずれの軌跡を1つの文字と推定する手法は複数あるが、たとえば、軌跡同士が交差するなど、どこかで接している軌跡同士をまとめて1つの文字と推定する手法が考えられる。あるいは入力範囲判定よりも先に手書き文字認識をする場合には、1文字と認識した文字の情報を取得し、その文字が描かれた範囲をペン入力範囲として判定することもできる。   The input range determination unit 401 has a function of determining a trajectory estimated as one character based on the trajectory data acquired by the pen input unit 400 and further determining a pen input range occupied by the trajectory. In this embodiment, the range indicated by the widest rectangle in the vertical and horizontal directions that includes a trajectory estimated as one character is obtained as the pen input range. In addition, there are a plurality of methods for estimating one of the trajectories input by the pen as one character. For example, the trajectories touching somewhere, for example, the trajectories intersect with each other can be combined into one character. An estimation method can be considered. Alternatively, when handwritten character recognition is performed prior to input range determination, information on a character recognized as one character can be acquired, and the range in which the character is drawn can be determined as a pen input range.

手書き文字認識部402は、ペン入力部400が取得した軌跡データのうち、入力範囲判定部401が認識する文字入力領域(たとえば300)内に手書き文字入力した軌跡データを受け取り、このデータに基づいてユーザがどのような文字を入力したかを認識する機能を有する。手書き文字認識の手法はいくつか知られているものがあるため、ここでは細説しない。   The handwritten character recognizing unit 402 receives trajectory data input by handwritten characters in a character input area (for example, 300) recognized by the input range determining unit 401 from the trajectory data acquired by the pen input unit 400, and based on this data. It has a function of recognizing what characters the user has input. Since there are several known methods for handwritten character recognition, they are not detailed here.

入力枠描画部403は、ディスプレイ101上に文字入力領域(たとえば300)を描画する機能を有する。このとき入力枠描画部403が描画する文字入力領域は、入力範囲判定部401が認識する大きさで描かれる。つまり入力範囲判定部401の指示により文字入力領域300、301および302の大きさを変化させることが可能となる。   The input frame drawing unit 403 has a function of drawing a character input area (for example, 300) on the display 101. At this time, the character input area drawn by the input frame drawing unit 403 is drawn in a size recognized by the input range determination unit 401. That is, the size of the character input areas 300, 301, and 302 can be changed according to an instruction from the input range determination unit 401.

画像生成部404は、ペン入力部400で取得した軌跡データと、入力枠描画部403が描画した文字入力領域(たとえば300)を合成した、ディスプレイ101上に表示する画像を生成する機能を有する。   The image generation unit 404 has a function of generating an image to be displayed on the display 101 by combining the trajectory data acquired by the pen input unit 400 and a character input area (for example, 300) drawn by the input frame drawing unit 403.

図5は、本実施形態にかかる手書き文字入力画面の一例を示す図である。たとえば図5(a)のように、文字入力領域300に、文字入力領域301にかかるように1文字が手書き入力された場合、図5(b)のように文字入力領域500、501および502のように文字入力領域が再描画される例を示している。このとき、文字入力領域500は文字入力領域301にかかるように手書きされた文字が納まるように設定される。   FIG. 5 is a diagram illustrating an example of a handwritten character input screen according to the present embodiment. For example, as shown in FIG. 5A, when one character is input in the character input area 300 so as to cover the character input area 301, the character input areas 500, 501 and 502 are displayed as shown in FIG. In this example, the character input area is redrawn. At this time, the character input area 500 is set so that a handwritten character can be accommodated in the character input area 301.

手書きで文字を入力する場合、個人差によりそれぞれのユーザにとって書きやすい文字の大きさが分かれると考えられる。本実施形態で想定するPC100の場合、文字入力領域300等は小さい方がディスプレイ101に表示する情報量が多くすることができるため有利であるが、反面、手書き文字し難い傾向がある。さらに、現在表示している文字入力領域(たとえば300)に描いた文字がはみ出すということは、そのユーザにとって今の入力枠では狭すぎると推定できる。よって、図5(a)に示すような状況を認めた場合には、例えば図5(b)に示すように以降の文字入力についても自動的に入力枠を設定し直すことで、ユーザはストレス無く手書き文字入力を継続することができる
図6は、本実施形態にかかる手書き文字入力の動作フローの一例を示す図である。
When inputting characters by handwriting, it is considered that the size of characters that are easy to write for each user varies depending on individual differences. In the case of the PC 100 assumed in the present embodiment, a smaller character input area 300 and the like is advantageous because the amount of information displayed on the display 101 can be increased, but on the other hand, handwritten characters tend to be difficult. Furthermore, it can be estimated that the character drawn in the currently displayed character input area (for example, 300) is too narrow for the user in the current input frame. Therefore, when the situation shown in FIG. 5A is recognized, for example, as shown in FIG. FIG. 6 is a diagram showing an example of an operation flow of handwritten character input according to the present embodiment.

まず、タッチセンサ204の測定結果からペン入力部400を介することでペン102による入力情報を取得する(ステップS01)。 First, input information by the pen 102 is acquired from the measurement result of the touch sensor 204 via the pen input unit 400 (step S01).

つぎに、取得したペン入力の情報に基づき入力範囲判定部401によって、1つの文字と推定される軌跡データを推定し、その文字を構成する軌跡が含まれる範囲を求める(ステップS02)。 Next, the input range determination unit 401 estimates the trajectory data estimated as one character based on the acquired pen input information, and obtains a range including the trajectory constituting the character (step S02).

次に、入力範囲判定部401は、その範囲が文字入力領域(たとえば300)の入力枠を超えているか否かを判定する(ステップS03)。越えている場合(Yes)には、文字が手書き入力されるべき手書き文字認識の軌跡データを取得する領域、つまり文字入力領域(たとえば300)が割り当てられた領域を、ステップS02で求めた範囲を包含するように手書き入力されるべき範囲を拡大する(ステップS04)。次に、拡大した手書き文字の文字入力範囲に相当する入力枠の大きさを入力枠描画部403に通知し、ディスプレイ101に表示された文字入力領域(たとえば300)を新たな文字入力領域(たとえば500)のように再描画する(ステップS05)。以降、手書き文字として認識される領域は、この新たな文字入力領域(たとえば500)の大きさで認識される。   Next, the input range determination unit 401 determines whether or not the range exceeds the input frame of a character input area (for example, 300) (step S03). If it exceeds (Yes), the range obtained in step S02 is the region where the trajectory data for handwritten character recognition in which the character is to be input by handwriting, that is, the region to which the character input region (for example, 300) is assigned is obtained. The range to be input by handwriting is expanded so as to include (step S04). Next, the input frame drawing unit 403 is notified of the size of the input frame corresponding to the character input range of the enlarged handwritten character, and the character input region (for example, 300) displayed on the display 101 is changed to a new character input region (for example, 300). 500), redrawing is performed (step S05). Thereafter, the area recognized as a handwritten character is recognized in the size of this new character input area (for example, 500).

その後、文字入力領域(たとえば300、500)に手書き入力された軌跡データが入力範囲判定部401より手書き文字認識部402に渡され、1文字分の手書き文字認識処理がなされる(ステップS06)。   Thereafter, the trajectory data input by handwriting in the character input area (for example, 300, 500) is transferred from the input range determination unit 401 to the handwritten character recognition unit 402, and handwritten character recognition processing for one character is performed (step S06).

このように構成すると、手書き文字入力の際、所定の大きさの入力枠から手書き文字がはみ出してしまった場合でも、簡単に以後の文字入力における効率低下を抑えることが可能となる。   If comprised in this way, even if a handwritten character will protrude from the input frame of a predetermined | prescribed magnitude | size at the time of handwritten character input, it will become possible to suppress the efficiency fall in subsequent character input easily.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本実施形態にかかる情報処理装置の一例を示す図。The figure which shows an example of the information processing apparatus concerning this embodiment. 本実施形態にかかる情報処理装置のブロック構成図の一例を示す図。The figure which shows an example of the block block diagram of the information processing apparatus concerning this embodiment. 手書き文字入力画面の一例を示す図である。It is a figure which shows an example of a handwritten character input screen. 本実施形態にかかる情報処理装置の機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the information processing apparatus concerning this embodiment. 本実施形態にかかる手書き文字入力画面の一例を示す図である。It is a figure which shows an example of the handwritten character input screen concerning this embodiment. 本実施形態にかかる手書き文字入力の動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow of the handwritten character input concerning this embodiment.

符号の説明Explanation of symbols

100・・・PC、101・・・ディスプレイ、102・・・ペン、103・・・ボタン、200・・・CPU、201・・・メインメモリ、202・・・バスコントローラ、203・・・入出力コントローラ、204・・・タッチセンサ、300、301、302・・・文字入力領域、400・・・ペン入力部、401・・・入力範囲判定部、402・・・手書き文字認識部、403・・・入力枠描画部、404・・・画像生成部、500、501、502・・・文字入力領域 100 ... PC, 101 ... display, 102 ... pen, 103 ... button, 200 ... CPU, 201 ... main memory, 202 ... bus controller, 203 ... input / output Controller, 204 ... Touch sensor, 300, 301, 302 ... Character input area, 400 ... Pen input unit, 401 ... Input range determination unit, 402 ... Handwritten character recognition unit, 403 ... Input frame drawing unit, 404: image generation unit, 500, 501, 502 ... character input area

Claims (9)

画像表示が可能な表示装置と、
前記表示装置の表示する画像がセンサ越しに見えるように設けられ、その表面に接触することで、該接触した位置を位置情報として検出するタッチセンサと、
接触したまま移動した前記タッチパネルが検出した連続した位置情報を軌跡情報として取得する手書き入力検出手段と、
1文字分の手書き文字を書き込む範囲を示す入力枠を、前記表示装置上に描画する入力枠描画手段と、
前記入力枠内に書き込まれた1文字分の前記軌跡情報に基づいて、該軌跡情報に該当する1文字を認識する手書き文字認識手段と、
を備え、
1文字分の前記軌跡情報の存在する範囲が前記入力枠の範囲を超える場合、前記入力枠描画手段はさらに広い範囲を囲う新たな入力枠を描画する
ことを特徴とする情報処理装置。
A display device capable of displaying images;
A touch sensor that is provided so that an image displayed by the display device can be seen through the sensor, and that touches the surface of the display device to detect the touched position as position information;
Handwritten input detection means for acquiring continuous position information detected by the touch panel that has moved in contact as trajectory information;
An input frame drawing means for drawing an input frame indicating a range for writing one handwritten character on the display device;
Handwritten character recognition means for recognizing one character corresponding to the trajectory information based on the trajectory information for one character written in the input frame;
With
The information processing apparatus, wherein when the range in which the trajectory information for one character exists exceeds the range of the input frame, the input frame drawing means draws a new input frame surrounding a wider range.
前記入力枠描画手段は、前記新たな入力枠を描画する際、前記軌跡情報が存在する範囲を包含するように拡大した入力枠を再描画することを特徴とする、請求項1に記載の情報処理装置。   2. The information according to claim 1, wherein when the new input frame is drawn, the input frame drawing unit redraws the input frame expanded so as to include a range in which the trajectory information exists. Processing equipment. 前記入力枠描画手段が前記表示装置上に複数の入力枠を描画する場合において、
前記入力枠描画手段が前記新たな入力枠を描画する際、前記複数の入力枠の囲う範囲を広げるとともに、該入力枠が重ならないように描画位置を調整して再描画することを特徴とする、請求項1に記載の情報処理装置。
When the input frame drawing means draws a plurality of input frames on the display device,
When the input frame drawing means draws the new input frame, the range surrounded by the plurality of input frames is widened, and the drawing position is adjusted so that the input frames do not overlap, and redrawing is performed. The information processing apparatus according to claim 1.
接触した位置を位置情報として検出することが可能なタッチセンサ上に、入力したい文字を手書きすることで文字入力するための手書き文字入力方法であって、
前記タッチセンサ越しに画像を表示する表示装置に、1つの文字を書き込む範囲を示す入力枠を表示し、
前記タッチセンサの表面に接触したまま移動した、連続した位置情報を軌跡情報として取得し、
1文字分の前記軌跡情報の存在する範囲が、前記入力枠の範囲を超える場合、該入力枠よりさらに広い範囲を囲う新たな入力枠を描画し、
この入力枠内に書き込まれた1文字分の前記軌跡情報に基づいて、該軌跡情報に該当する1文字を認識する
ことを特徴とする手書き文字入力方法。
A handwritten character input method for inputting characters by handwriting a character to be input on a touch sensor capable of detecting a contact position as position information,
On the display device that displays an image through the touch sensor, an input frame indicating a range in which one character is written is displayed.
The continuous position information that has moved while touching the surface of the touch sensor is acquired as trajectory information,
If the range in which the trajectory information for one character exists exceeds the range of the input frame, draw a new input frame that surrounds a range wider than the input frame;
A handwritten character input method for recognizing one character corresponding to the trajectory information based on the trajectory information for one character written in the input frame.
新たな前記入力枠を描画する際、前記軌跡情報が存在する範囲を包含するように拡大した入力枠となるように描画することを特長とする、請求項4に記載の手書き文字入力方法。   5. The handwritten character input method according to claim 4, wherein when the new input frame is drawn, the input frame is drawn so as to be an input frame expanded to include a range in which the trajectory information exists. 連続して手書き入力できるように前記表示装置上に複数の入力枠が描画されている場合において、
新たな前記入力枠を描画する際、前記複数の入力枠の囲う範囲を広げるとともに、該入力枠が重ならないように描画位置を調整して再描画することを特徴とする、請求項4に記載の手書き文字入力方法。
In the case where a plurality of input frames are drawn on the display device so that continuous handwriting input is possible,
5. The drawing according to claim 4, wherein when drawing a new input frame, the drawing frame is redrawn by adjusting a drawing position so that the input frame is not overlapped while expanding a range surrounded by the plurality of input frames. Handwriting input method.
接触した位置を位置情報として検出することが可能なタッチセンサ上に、入力したい文字を手書きすることで文字入力するための、計算機で実行可能な手書き文字入力プログラムであって、
前記タッチセンサ越しに画像を表示する表示装置に、1つの文字を書き込む範囲を示す入力枠を表示するステップと、
前記タッチセンサの表面に接触したまま移動した、連続した位置情報を軌跡情報として取得するステップと、
1文字分の前記軌跡情報の存在する範囲が、前記入力枠の範囲を超える場合、該入力枠よりさらに広い範囲を囲う新たな入力枠を描画するステップと、
この入力枠内に書き込まれた1文字分の前記軌跡情報に基づいて、該軌跡情報に該当する1文字を認識するステップ
ことを有することを特徴とする手書き文字入力プログラム。
A handwritten character input program executable by a computer for inputting characters by handwriting a character to be input on a touch sensor capable of detecting the contact position as position information,
Displaying an input frame indicating a range for writing one character on a display device that displays an image through the touch sensor;
Obtaining continuous position information as trajectory information, moved while touching the surface of the touch sensor;
When the range in which the trajectory information for one character exists exceeds the range of the input frame, drawing a new input frame surrounding a wider range than the input frame;
A handwritten character input program comprising recognizing one character corresponding to the trajectory information based on the trajectory information for one character written in the input frame.
新たな前記入力枠を描画するステップは、前記軌跡情報が存在する範囲を包含するように拡大した入力枠となるように描画する機能を有することを特長とする、請求項7に記載の手書き文字入力プログラム。   8. The handwritten character according to claim 7, wherein the step of drawing a new input frame has a function of drawing so as to be an input frame expanded to include a range in which the trajectory information exists. Input program. 連続して手書き入力できるように前記表示装置上に複数の入力枠が描画されている場合、
新たな前記入力枠を描画するステップは、前記複数の入力枠の囲う範囲を広げるとともに、該入力枠が重ならないように描画位置を調整して再描画する機能を有することを特徴とする、請求項7に記載の手書き文字入力プログラム。
When a plurality of input frames are drawn on the display device so that continuous handwriting input is possible,
The step of drawing a new input frame has a function of expanding a range surrounded by the plurality of input frames and redrawing by adjusting a drawing position so that the input frames do not overlap. Item 8. The handwritten character input program according to Item 7.
JP2008064764A 2008-03-13 2008-03-13 Information processor, handwritten character input method, and handwritten character input program Pending JP2009223430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008064764A JP2009223430A (en) 2008-03-13 2008-03-13 Information processor, handwritten character input method, and handwritten character input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008064764A JP2009223430A (en) 2008-03-13 2008-03-13 Information processor, handwritten character input method, and handwritten character input program

Publications (1)

Publication Number Publication Date
JP2009223430A true JP2009223430A (en) 2009-10-01

Family

ID=41240172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008064764A Pending JP2009223430A (en) 2008-03-13 2008-03-13 Information processor, handwritten character input method, and handwritten character input program

Country Status (1)

Country Link
JP (1) JP2009223430A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011125642A1 (en) * 2010-03-31 2011-10-13 ブラザー工業株式会社 Image display device, image display method, and image display program
JP2013161426A (en) * 2012-02-08 2013-08-19 Toshiba Corp Handwriting input device, handwriting input program, handwriting input method
WO2016009367A1 (en) * 2014-07-18 2016-01-21 International Business Machines Corporation Document signing via mobile device gesture
US9274704B2 (en) 2013-08-02 2016-03-01 Kabushiki Kaisha Toshiba Electronic apparatus, method and storage medium
US9298366B2 (en) 2014-03-28 2016-03-29 Kabushiki Kaisha Toshiba Electronic device, method and computer readable medium
US9606981B2 (en) 2013-11-08 2017-03-28 Kabushiki Kaisha Toshiba Electronic apparatus and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266898A (en) * 1993-03-12 1994-09-22 Toshiba Corp Character recognition processing method and device for input of hand-written character

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266898A (en) * 1993-03-12 1994-09-22 Toshiba Corp Character recognition processing method and device for input of hand-written character

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011125642A1 (en) * 2010-03-31 2011-10-13 ブラザー工業株式会社 Image display device, image display method, and image display program
JP2013161426A (en) * 2012-02-08 2013-08-19 Toshiba Corp Handwriting input device, handwriting input program, handwriting input method
US9274704B2 (en) 2013-08-02 2016-03-01 Kabushiki Kaisha Toshiba Electronic apparatus, method and storage medium
US9606981B2 (en) 2013-11-08 2017-03-28 Kabushiki Kaisha Toshiba Electronic apparatus and method
US9298366B2 (en) 2014-03-28 2016-03-29 Kabushiki Kaisha Toshiba Electronic device, method and computer readable medium
WO2016009367A1 (en) * 2014-07-18 2016-01-21 International Business Machines Corporation Document signing via mobile device gesture

Similar Documents

Publication Publication Date Title
US10296134B2 (en) Information processor, information processing method, and computer program
JP5458161B1 (en) Electronic apparatus and method
JP6270565B2 (en) Electronic apparatus and method
JP5362092B1 (en) Electronic apparatus and drawing method
US10146420B2 (en) Electronic device, graph display method and storage medium for presenting and manipulating two dimensional graph objects using touch gestures
KR20080041809A (en) Apparatus and method for controlling display in potable terminal
JP6301736B2 (en) Electronic apparatus and method
JP5389241B1 (en) Electronic device and handwritten document processing method
US8448081B2 (en) Information processing apparatus
JP2009223430A (en) Information processor, handwritten character input method, and handwritten character input program
US20140289672A1 (en) Graph display apparatus, graph display method and storage medium having stored thereon graph display program
JP2015032050A (en) Display controller, display control method, and program
US20150016726A1 (en) Method and electronic device for processing handwritten object
JP2010218286A (en) Information processor, program, and display method
US20130162562A1 (en) Information processing device and non-transitory recording medium storing program
JP5480357B1 (en) Electronic apparatus and method
JP5157968B2 (en) Touch panel coordinate designation method and touch panel coordinate designation device
JP6197559B2 (en) Object operation system, object operation control program, and object operation control method
JP6151166B2 (en) Electronic device and display method
JP2010049318A (en) Movement control program
JP6318794B2 (en) Information processing apparatus and information processing program
JP2005149190A (en) Information processor
JP5624662B2 (en) Electronic device, display control method and program
JP5805473B2 (en) Operating device
JP5822536B2 (en) Information processing apparatus, information processing apparatus control method, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100908

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120327