JPH04195670A - Handwritten character recognizing japanese syllabary to chinese character conversion system - Google Patents

Handwritten character recognizing japanese syllabary to chinese character conversion system

Info

Publication number
JPH04195670A
JPH04195670A JP2328458A JP32845890A JPH04195670A JP H04195670 A JPH04195670 A JP H04195670A JP 2328458 A JP2328458 A JP 2328458A JP 32845890 A JP32845890 A JP 32845890A JP H04195670 A JPH04195670 A JP H04195670A
Authority
JP
Japan
Prior art keywords
input
character
area
data
kana
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2328458A
Other languages
Japanese (ja)
Inventor
Yutaka Kamiyama
神山 豊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2328458A priority Critical patent/JPH04195670A/en
Publication of JPH04195670A publication Critical patent/JPH04195670A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the efficiency of document creation by handwritten character input by providing an input area for each character kind, performing character recognition and KANA (Japanese syllabary)-KANJI (Chinese character) conversion for each input area, and writing input characters distinctively in the respective input areas. CONSTITUTION:A CPU 21 controls the whole information processing unit, which is provided with a character recognizing function for recognizing character patterns entered into a specific input frame by referring to a recognition dictionary, a KANA-KANJI converting function which performs the KANA-KANJI conversion of a character string generated by the character recognizing function by referring to a conversion dictionary, etc. The input areas are set by the kinds of characters to be inputted and the KANA-KANJI conversion of the recognition result of a character recognizing means corresponding to the set input areas is performed according to coordinate sequences inputted in the set input areas. Consequently, the KANA-KANJI conversion using handwritten character recognition can be performed through easy operation and the burden on the character recognition is lightened.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、伝票作成装置、電子式手帳、手書きワープロ
等の情報処理装置における手書き文字認識かな漢字変換
方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to a handwritten character recognition kana-kanji conversion method in an information processing device such as a slip creation device, an electronic notebook, or a handwritten word processor.

(従来の技術) 従来、手書きによって座標入力用のタブレット上に書い
た文字を機械に認識させて直接入力し、入力された文字
についてかな漢字変換を行なう文字入力方式が考えられ
ている。このような、かな漢字変換を行なう装置として
、特公昭63−49264号に記載された文字認識兼仮
名漢字変換装置が知られている。特公昭63−4926
4号は、思い出せない漢字や複雑な漢字の入力を行なう
場合に、手書き文字列の近傍に仮名漢字変換指定記号(
下線)を記入することにより、この文字列部分を漢字に
変換するものである。例えば、「装置」という漢字を入
力する場合、文字認識が容易なカタカナで「ソウチ」と
手書き入力し、タブレット上の所定の位置をスタイラス
ペンでタッチした後、「ソウチ」の文字列に下線を施す
。装置側では、下線を検出する機能ブロックが設けられ
ており、この機能ブロックによって下線が検出されたら
、対応する文字列について仮名漢字変換処理を行ない「
装置」という漢字か取得される。
(Prior Art) Conventionally, a character input method has been considered in which characters written by hand on a coordinate input tablet are recognized by a machine and directly input, and the input characters are converted into kana-kanji. As a device for performing such kana-kanji conversion, there is known a character recognition and kana-kanji conversion device described in Japanese Patent Publication No. 49264/1983. Special Public Service 1986-4926
No. 4 has a kana-kanji conversion designation symbol (
By writing the underline), this character string part is converted into kanji. For example, to input the kanji ``device'', type ``souchi'' by handwriting in katakana, which is easy to recognize, touch the specified position on the tablet with the stylus pen, and then underline the character string ``souchi.'' give On the device side, there is a functional block that detects underlines, and when this functional block detects an underline, it performs kana-kanji conversion processing on the corresponding character string.
The kanji ``device'' is obtained.

(発明が解決しようとする課題) このように、従来の手書き文字認識を用いたかな漢字変
換では、漢字に変換しようとする文字について仮名漢字
変換指定記号(下線)を記入する操作が必要となってい
た。
(Problem to be solved by the invention) As described above, in kana-kanji conversion using conventional handwritten character recognition, it is necessary to write a kana-kanji conversion designation symbol (underline) for the character to be converted to kanji. Ta.

本発明は前記のような点に鑑みてなされたもので、より
簡単な操作で手書き文字認識を用いたかな漢字変換を行
なう二とが可能な手書き文字認識かな漢字変換方式を提
供することを目的とする。
The present invention has been made in view of the above-mentioned points, and it is an object of the present invention to provide a handwritten character recognition/kana/kanji conversion method that is capable of performing kana/kanji conversion using handwritten character recognition with simpler operations. .

[発明の構成] (課題を解決するための手段) 本発明は、表示装置の表示面に透明な座標入力用のタブ
レットを重ねて一体化して構成された一体型表示人力装
置を有し、特定の処理内容を示すと共に前記処理内容の
実行を指示するための前記タブレット上の特定の領域を
示す人力領域を必要に応じて前記表示装置に表示する情
報処理装置において、入力すべき文字種毎の複数の入力
領域を設定する領域設定手段と、前記領域設定手段によ
って設定された入力領域において入力された座標系列を
もとに、文字認識処理を行なう文字認識処理手段と、前
記文字認識処理手段による認識結果について、前記領域
設定手段によって設定された入力領域に応じてかな漢字
変換を行なうかな漢字変換手段とを具備して構成するも
のである。
[Structure of the Invention] (Means for Solving the Problems) The present invention has an integrated display human power device configured by stacking and integrating a transparent coordinate input tablet on the display surface of a display device, and In the information processing apparatus, the information processing apparatus displays on the display device, as necessary, a manual area indicating a specific area on the tablet for indicating the processing content and instructing the execution of the processing content. an area setting means for setting an input area, a character recognition processing means for performing character recognition processing based on a coordinate series input in the input area set by the area setting means, and recognition by the character recognition processing means. The apparatus further comprises a kana-kanji conversion means for converting the results into kana-kanji according to the input area set by the area setting means.

また、前記領域設定手段によって設定された人力領域に
入力すべき文字種を任意に設定するための設定手段とを
さらに具備し、前記文字認識手段は、前記設定手段によ
って設定された文字種について文字認識処理を行なうよ
うに構成するものである。
The invention further includes a setting means for arbitrarily setting a character type to be input into the manual area set by the area setting means, and the character recognition means performs character recognition processing on the character type set by the setting means. It is configured to perform the following.

(作用) このような構成によれば、領域設定手段によって設定さ
れた入力領域に、文字を書き分けて入力するだけで、入
力領域に応した文字種に変換される。また、入力しよう
とする文字種を任意に設定することにより、文字認識処
理の負担が軽減される。
(Function) According to such a configuration, simply by inputting different characters into the input area set by the area setting means, the characters are converted into the type of character corresponding to the input area. Furthermore, by arbitrarily setting the type of character to be input, the burden of character recognition processing is reduced.

(実施例) 以下、図面を参照して本発明の一実施例を説明する。第
2図は同実施例に係わる一体型表示入力装置を備えた情
報処理装置の外観構成を示す斜視図である。第2図にお
いて、装置筐体1の上面部に一体型表示入力装置2が設
けられている。−体型表示入力装置2は、LCD (液
晶デイスプレィ)と座標入力用の透明タブレットとを積
層一体型にして構成されたもので、同−座標面で表示、
及びデータ人力を行なうことかできるものである。
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings. FIG. 2 is a perspective view showing the external configuration of an information processing device equipped with an integrated display and input device according to the same embodiment. In FIG. 2, an integrated display/input device 2 is provided on the upper surface of the device housing 1. As shown in FIG. - The body shape display input device 2 is constructed by integrating an LCD (liquid crystal display) and a transparent tablet for coordinate input into a laminated type, and displays on the same coordinate plane.
It is possible to perform data and human power.

図中3は、スタイラスペンであり、一体型表示人力装置
2のタブレット上の任意座標位置を指示するt二め:こ
用いられるものである。スタイラスペン3には、タブレ
ット面との接触を検知するスイッチが内蔵されている。
3 in the figure is a stylus pen, which is used to indicate an arbitrary coordinate position on the tablet of the integrated display human power device 2. The stylus pen 3 has a built-in switch that detects contact with the tablet surface.

このスイッチの検知結果は、装置筐体1の内部に設けら
れた処理機能部に、コード4を介して通知される。一体
型表示入力装置2、及びスタイラスペン3は、処理機能
部(CP021等、後述する)によって制御される。
The detection result of this switch is notified to a processing function section provided inside the device housing 1 via the code 4. The integrated display/input device 2 and the stylus pen 3 are controlled by a processing function unit (such as CP021, which will be described later).

第3図は同実施例における情報処理装置の平面図であり
、第4図は側面断面図である。第3図及び第4図に示す
ように、一体型表示人力装置2は、透明タブレット6と
LCD7とか積層一体型にして構成されている。なお、
第3図には、LCD7にメニューアイコンか表示された
状態を示している。
FIG. 3 is a plan view of the information processing apparatus in the same embodiment, and FIG. 4 is a side sectional view. As shown in FIGS. 3 and 4, the integrated display human power device 2 is constructed by integrally laminating a transparent tablet 6 and an LCD 7. In addition,
FIG. 3 shows a state in which menu icons are displayed on the LCD 7.

第5図はスタイラスペン3に内蔵されたスイソチの構成
を示す断面図である。第5図に示すように、定常状態に
おいては、スタイラスペン軸10内のペン先11は、ス
プリング12によって電極13部分が非接触状態(スイ
ッチオフ)になっている。スタイラスペン3を用いて文
字の筆記1位置指示(クリック)等を行なう場合には、
ペン先11かスプリング12による力に反して押され、
電極13部分が接触状態(スイッチオン)となる。この
接触(スイッチオン)、非接触(スイッチオフ)の情報
(スイッチ情報)によって、アイコン指示1文字の筆記
等が透明タブレット6の座標検出有効範囲内において行
なわれていることを検出する。なお、オン、オフ状態に
ついては、透明タブレット6の座標検出有効範囲内に存
在するしないに関係なく、後述するタブレットコントロ
ーラ27を介してCPU2Lに通知される。
FIG. 5 is a sectional view showing the structure of the switch built in the stylus pen 3. As shown in FIG. As shown in FIG. 5, in a steady state, the electrode 13 of the pen tip 11 in the stylus pen shaft 10 is in a non-contact state (switched off) by the spring 12. When using the stylus pen 3 to indicate (click) the first position of a character,
Pushed against the force of the pen tip 11 or spring 12,
The electrode 13 portion is brought into contact (switched on). Based on this contact (switch-on) and non-contact (switch-off) information (switch information), it is detected that the writing of one character of the icon instruction is being performed within the coordinate detection effective range of the transparent tablet 6. Note that the on and off states are notified to the CPU 2L via the tablet controller 27, which will be described later, regardless of whether or not the transparent tablet 6 is within the effective coordinate detection range.

第6図は情報処理装置の内部構成を示すブロック図であ
る。一体型表示入力装置2を構成する透明タブレット6
は、ガラス製の板の中に、互いに直交するX、Y方向に
透明電極かマトリクス状に配線されている。これらの電
極には順次パルス電圧が印加され、スタイラスペン3に
よって指示されたXY座標位置が静電結合により検出さ
れる。
FIG. 6 is a block diagram showing the internal configuration of the information processing device. Transparent tablet 6 constituting integrated display input device 2
Transparent electrodes are wired in a matrix in the X and Y directions perpendicular to each other in a glass plate. Pulse voltages are sequentially applied to these electrodes, and the XY coordinate position indicated by the stylus pen 3 is detected by electrostatic coupling.

詳細については後述する。透明タブレット6、及びスタ
イラスペン3は、タブレットコントローラ27(後述す
る)によって制御され、LCD7は、LCDコントロー
ラ25(後述する)によって制御される。
Details will be described later. The transparent tablet 6 and stylus pen 3 are controlled by a tablet controller 27 (described later), and the LCD 7 is controlled by an LCD controller 25 (described later).

21はCPUであり、情報処理装置全体の制御を司るも
のである。22はRAMであり、リード/ライト可能な
メモリで、CPU21の動作を規定するプログラム、及
び各種データを格納するためのものである。RAM22
には、LCD7に表示されるソフトウェアキーボードに
関する情報(表示情報、位置情報等)、透明タブレット
6上における筆記によって入力されたパターン、文書作
成機能によって作成された文書等、各種情報を格納する
ためのものである。23はROMであり、読出し専用の
メモリで情報処理装置の電源投入後の診断プログラム、
情報処理装置を立ち上げるためのブートプログラム、及
び各種処理機能のための処理プログラム等が格納されて
いる。同実施例の情報処理装置における処理機能には、
所定の人力枠内で筆記されたパターンについて認1辞書
を参照して文字認識する文字認識処理機能、文字認識処
理機能によって作成された文字列について変換辞書を参
照してかな漢字変換を行なうかな漢字変換機能等が設け
られている。これにより、伝票形式のフォーマットか設
定された入力領域に「氏名」 「住所」等を人力する伝
票作成や、かな漢字英数字等が混在した一般文書の作成
等が行なわれる。24はVRAMであり、表示情報を格
納するためのビットマツプメモリである。25はLCD
コントローラであり、VRAM24からLCD7への表
示情報転送、CPU21からVRAM24への表示情報
転送等の表示制御を司るものである。27はタブレット
コントローラであり、透明タブレット6のX及びY電極
のスキャン、スタイラスペン3によって指示された位置
の電圧検出(静電結合方式)、XY座標データの生成、
及びCPU21へのXY座標データの送信等、一連のタ
ブレット制御を司るものである。29は外部インターフ
ェイスであり、必要に応じて本装置と外部装置(プリン
タ装置、外部記憶装置等)とのデータのやりとりを行な
うためのインターフェイスである。
21 is a CPU, which controls the entire information processing device. Reference numeral 22 denotes a RAM, which is a readable/writable memory and is used to store programs that define the operation of the CPU 21 and various data. RAM22
is for storing various information such as information regarding the software keyboard displayed on the LCD 7 (display information, position information, etc.), patterns entered by handwriting on the transparent tablet 6, documents created by the document creation function, etc. It is something. 23 is a ROM, which is a read-only memory that stores a diagnostic program after the information processing device is powered on;
A boot program for starting up the information processing device, processing programs for various processing functions, etc. are stored. The processing functions of the information processing device of the same embodiment include:
A character recognition processing function that recognizes characters by referring to a recognition dictionary for patterns written within a predetermined manual frame, and a Kana-Kanji conversion function that converts character strings created by the character recognition processing function to kana-kanji by referring to a conversion dictionary. etc. are provided. As a result, it is possible to create a form in which "name", "address", etc. are entered manually in an input area set in a form format, or to create a general document containing a mixture of kana, kanji, alphanumeric characters, etc. 24 is a VRAM, which is a bitmap memory for storing display information. 25 is LCD
The controller is responsible for display control such as display information transfer from the VRAM 24 to the LCD 7 and display information transfer from the CPU 21 to the VRAM 24. 27 is a tablet controller that scans the X and Y electrodes of the transparent tablet 6, detects the voltage at the position indicated by the stylus pen 3 (capacitive coupling method), generates XY coordinate data,
It also controls a series of tablet controls, such as sending XY coordinate data to the CPU 21. Reference numeral 29 denotes an external interface, which is used for exchanging data between the present apparatus and an external device (a printer, an external storage device, etc.) as necessary.

第7図は一体型表示入力装置を備えた情報処理装置の動
作を説明するための概略構成図である。
FIG. 7 is a schematic configuration diagram for explaining the operation of an information processing apparatus equipped with an integrated display and input device.

同実施例における情報処理装置は、オンライン文字認識
方式を採用しており、スタイラスペン3によって透明タ
ブレット6上で文字が手書きされると文字のストローク
を示す座標データを入力し、この座標データに基づいて
文字認識処理を行なう。
The information processing device in this embodiment adopts an online character recognition method, and when a character is handwritten on a transparent tablet 6 with a stylus pen 3, coordinate data indicating the stroke of the character is input, and based on this coordinate data, Performs character recognition processing.

文字のストローク等を示す座標データは、座標入力部3
0(透明タブレット6、スタイラスペン3、及びタブレ
ットコントローラ27を含む)から入力される。座標人
力部30は、平面状に形成されたタブレット上における
ペン(図示せず)の指示位置に基づいて座標データを生
成する。座標人力部30には、同人力部30から入力さ
れた文字のストロークを示す位置座標の系列をもとに文
字の認識等を行なう処理制御部31 (CP U21.
 RAM22、ROM23、及び外部インターフェイス
29を含む)が接続されている。処理制御部31には、
同制御部31において認識された文字等を表示する表示
部32(LCD7 、LCDコントローラ25、VRA
M24を含む)、及び外部装置33(プリンタ装置や文
字認識処理やかな漢字変換に必要な辞書データ等を格納
する外部記憶装置等)が接続されている。
Coordinate data indicating strokes of characters, etc. is input to the coordinate input section 3.
0 (including the transparent tablet 6, stylus pen 3, and tablet controller 27). The coordinate human power unit 30 generates coordinate data based on a position indicated by a pen (not shown) on a flat tablet. The coordinate human power unit 30 includes a processing control unit 31 (CPU 21.
(including RAM 22, ROM 23, and external interface 29) are connected thereto. The processing control unit 31 includes:
Display unit 32 (LCD 7, LCD controller 25, VRA
M24), and an external device 33 (a printer device, an external storage device for storing dictionary data, etc. necessary for character recognition processing, kanji conversion, etc.) are connected.

座標入力部30の透明タブレット6と表示部32のLC
D7は、第8図に示すように、同一寸法の同じ座標面を
有するものである。透明タブレット6とLCDγは、処
理制御部31上に積層状に一体化して形成される。した
かって、表示部32に表示された情報は、透明タブレッ
トから座標入力部30を通して視認できるものとなって
いる。
The transparent tablet 6 of the coordinate input section 30 and the LC of the display section 32
As shown in FIG. 8, D7 has the same dimensions and the same coordinate plane. The transparent tablet 6 and the LCD γ are integrally formed in a laminated manner on the processing control unit 31 . Therefore, the information displayed on the display section 32 can be visually recognized through the coordinate input section 30 from the transparent tablet.

ここで、座標入力部30の詳細について説明する。Here, details of the coordinate input section 30 will be explained.

座標入力部30において用いられる静電結合型の透明タ
ブレット6は、例えば第9図に示すように構成されてい
る。すなわち、透明タブレット6は、一対の透明ガラス
板6a、 flibが図示しない絶縁保護膜を介して接
合されている。透明ガラス板8a、 6bには、それぞ
れ複数本の透明電極6c、 6dか所定の間隔で平行に
配設されている。透明ガラス板6a。
The capacitively coupled transparent tablet 6 used in the coordinate input section 30 is configured as shown in FIG. 9, for example. That is, in the transparent tablet 6, a pair of transparent glass plates 6a and flib are joined via an insulating protective film (not shown). A plurality of transparent electrodes 6c and 6d are arranged in parallel at predetermined intervals on the transparent glass plates 8a and 6b, respectively. Transparent glass plate 6a.

6bは、透明電極Be、 8dか互いに直交するように
接合されている。そして、透明電極6c、 6dは、第
10図に示すように、それぞれシフトコントローラ27
eの制御を受けて動作するシフトレジスタ27f 、 
27gに接続されている。
The transparent electrodes Be and 8d are connected to each other so as to be perpendicular to each other. The transparent electrodes 6c and 6d are connected to a shift controller 27, respectively, as shown in FIG.
A shift register 27f operating under the control of e,
Connected to 27g.

具体的な動作としては、次のようになる。The specific operation is as follows.

まず、水平方向の座標を検出する場合には、シフトレジ
スタ27rに接続された透明電極6Cに、端から順次所
定の電圧が印加される。電圧の印加されている電極がス
タイラスペン3に近づくと、透明電極6cとスタイラス
ペン3との間で形成される静電容量によってスタイラス
ペン3に静電誘導電圧が誘起される。この静電誘導電圧
を増幅器27jを介して増幅し、フィルタ27kを介し
て高周波成分を除去することによって安定な指示位置検
出信号とし、カウンタ27hに与えられる。カウンタ2
7hは、透明電極6cのうち最も原点側に位置する電極
に所定の電圧か印加されたときにカウントを開始し、あ
る一定値以上の指示位置検出信号が人力されたときにカ
ウントを終了する。このような動作を行なうことによっ
て、スタイラスペン3の座標を時間に換算して検出する
。水平方向の座標測定が終了すると、垂直方向の座標測
定が開始される。垂直方向の座標測定では、水平方向の
座標測定と同様にシフトレジスタ27gに接続された透
明電極6dに端から順次所定の電圧が印加され、スタイ
ラスペン3によって検出された静電誘導電圧から増幅器
27j1及びフィルタ27kによって指示位置検出信号
を生成し、カウンタ27hによって座標を検出する。
First, when detecting coordinates in the horizontal direction, a predetermined voltage is sequentially applied to the transparent electrode 6C connected to the shift register 27r from the end. When the electrode to which voltage is applied approaches the stylus pen 3, an electrostatic induced voltage is induced in the stylus pen 3 due to the capacitance formed between the transparent electrode 6c and the stylus pen 3. This electrostatically induced voltage is amplified via an amplifier 27j and a high frequency component is removed via a filter 27k to provide a stable indicated position detection signal, which is then applied to a counter 27h. counter 2
7h starts counting when a predetermined voltage is applied to the electrode located closest to the origin among the transparent electrodes 6c, and ends counting when a designated position detection signal of a certain value or more is manually input. By performing such an operation, the coordinates of the stylus pen 3 are detected in terms of time. When the horizontal coordinate measurement is completed, the vertical coordinate measurement is started. In the vertical coordinate measurement, similarly to the horizontal coordinate measurement, a predetermined voltage is sequentially applied to the transparent electrode 6d connected to the shift register 27g from the end, and from the electrostatic induced voltage detected by the stylus pen 3, the amplifier 27j1 A designated position detection signal is generated by the filter 27k, and the coordinates are detected by the counter 27h.

スタイラスペン3を用いて透明タブレット上に文字等を
筆記した場合には、その筆記ストロークを示す情報かス
タイラスペン3による指示位置のつながり、つまり指示
された位置座標のつながり(位置座標の系列)として入
力されることになる。
When characters, etc. are written on a transparent tablet using the stylus pen 3, the information indicating the writing stroke or the connection of the positions indicated by the stylus pen 3, that is, the connection of the indicated position coordinates (series of position coordinates). It will be entered.

このようにして、座標入力部30を介して筆記入力され
た文字の情報、つまり位置座標の系列は処理制御部31
を介して表示部32に与えられる。そして、位置座標の
系列に従って、後述するように表示部32の同一座標か
表示駆動されるようになっている。この表示制御によっ
て、透明タブレット面上に筆記された文字がその簗紀の
軌跡として同時表示され、あたかもスタイラスペン3を
用いて紙面に文字を記入するごとく文字情報の入力が行
なわれるようになっている。
In this way, the information on the characters input by hand via the coordinate input unit 30, that is, the sequence of position coordinates, is transferred to the processing control unit 31.
is provided to the display section 32 via the. Then, according to the series of position coordinates, the display unit 32 is driven to display the same coordinates, as will be described later. With this display control, the characters written on the transparent tablet surface are simultaneously displayed as the trajectory of the characters, and character information can be input as if writing characters on paper using the stylus pen 3. There is.

次に、処理制御部31のメモリ部(RAM22、ROM
 23)の内容を第11図に示している。第11図に示
すように、各種処理を行なうためのプログラムか格納さ
れた処理部40a〜40r1及び各種データを保持する
データバッファ 40g〜40mにより構成されている
。すなわち、処理部40a〜40fには、座標入力部3
0からのデータを人力する人力部40a、認識辞書を参
照して文字認識処理を行なう認識処理部40b、変換辞
書を参照してかな漢字変換処理を実行するかな漢字変換
処理部4001座標入力部30からの座標データか何れ
の領域(後述する)を示すものであるかを判別する領域
判別処理部40d1指定された領域に対応するガイド表
示、またはソフトキーやアイコン等の表示を行なうため
のデータを取得するガイド表示データ抽出処理部40e
、及び表示部32への表示制御を行なう表示制御部40
1”か設けられている。また、各種データを保持するデ
ータバッファ40g〜401には、座標入力部30にお
いて指定された指示位置の座標を格納する位置データバ
ッファ40g 、ペンの状態(オン、オフ)を保持する
ペン状態データバッファ40h1ガイド表示やソフトキ
ー、アイコン等の表示を行なうためのデータを格納する
ガイドデータバッファ401、手書き入力された文字を
認識するための辞書データとかな漢字変換を行なうため
の辞書データを一時保持する辞書データバッファ40j
1各領域に関する情報を格納する領域データバッファ4
0に1出力されるデータを保持する出力バッファ401
、文字認識処理が行なわれる領域に関するデータが格納
される認識枠データバッファ40■、及び数値データが
格納される数値データバッファ40nが設けられている
Next, the memory section (RAM22, ROM
23) is shown in FIG. As shown in FIG. 11, it is comprised of processing units 40a to 40r1 that store programs for performing various processes, and data buffers 40g to 40m that hold various data. That is, the processing units 40a to 40f include the coordinate input unit 3.
0, a recognition processing section 40b that performs character recognition processing with reference to a recognition dictionary, a kana-kanji conversion processing section 4001 that performs kana-kanji conversion processing with reference to a conversion dictionary; Area discrimination processing unit 40d1 that determines which area (described later) the coordinate data indicates indicates; acquires data for displaying guides, soft keys, icons, etc. corresponding to the specified area; Guide display data extraction processing section 40e
, and a display control section 40 that controls display on the display section 32.
In addition, the data buffers 40g to 401 that hold various data include a position data buffer 40g that stores the coordinates of the specified position specified in the coordinate input section 30, and a pen state (on, off). ) A pen status data buffer 40h1 that stores data for displaying guides, soft keys, icons, etc. A guide data buffer 401 that stores data for displaying guides, soft keys, icons, etc. Dictionary data for recognizing handwritten characters and converting kana-kanji characters Dictionary data buffer 40j that temporarily holds dictionary data of
1 Area data buffer 4 that stores information regarding each area
Output buffer 401 that holds data that is output as 1 to 0
, a recognition frame data buffer 402 in which data relating to an area where character recognition processing is to be performed is stored, and a numerical data buffer 40n in which numerical data is stored.

さらに、領域データバッファ40kには、データを入力
する際の各入力領域に関するデータをそれぞれ独立して
格納するための領域データバッファが設けられている。
Further, the area data buffer 40k is provided with an area data buffer for independently storing data regarding each input area when inputting data.

ここでは、伝票作成を行なう場合での4つの領域A−D
についての各種情報を格納するだめの領域40に1〜4
0に4を示している。各領域データバッファ40kl〜
40に4は、第12図に示すように、領域の位置を示す
座標データが格納される領域座標X始点データバッファ
41a、領域座標Y始点データバッファ41b 、 #
A域座標X終点データバッファ41c、pi域座標Y終
点データバッファ41d、及び領域に関する属性データ
を格納するための領域属性データバッファ41. eか
設けられている。領域属性データバッファ41. eに
は、領域に対して入力された座標データについて手書き
入力処理を行なうか否かを指定するデータ(文字認識処
理を行なうか否かを指定するデータを含む)を格納する
ための領域処理属性データバッファ41el、手書き入
力処理において文字認識処理を実行する場合に用いられ
る辞書データを指定するデータを格納するための認識属
性データバッファ41e2、領域に対しての項目内容が
入力済みであるか否かを示す人力完了フラグ41e3が
設けられている。
Here, we will explain the four areas A-D when creating a slip.
1 to 4 in the area 40 for storing various information about
4 is shown at 0. Each area data buffer 40kl ~
40 and 4 are, as shown in FIG. 12, an area coordinate X starting point data buffer 41a, an area coordinate Y starting point data buffer 41b, in which coordinate data indicating the position of the area are stored;
A area coordinate X end point data buffer 41c, pi area coordinate Y end point data buffer 41d, and area attribute data buffer 41 for storing attribute data regarding the area. e is provided. Area attribute data buffer 41. e is an area processing attribute for storing data specifying whether or not to perform handwriting input processing on the coordinate data input to the area (including data specifying whether or not to perform character recognition processing). Data buffer 41el, recognition attribute data buffer 41e2 for storing data specifying dictionary data used when executing character recognition processing in handwritten input processing, whether or not item contents for the area have been input. A manual completion flag 41e3 indicating this is provided.

さらに、認識枠データバッファ40mには、タブレット
上で手書き入力された座標データをもとに文字認識処理
が行なわれる各領域に関するデータを、それぞれ独立し
て格納するための領域データバッファ40m1〜40m
3が設けられている。二こでは、文字認識処理の対象と
なる領域A、B、及び数値データが入力される領域Cに
ついての各種情報を格納するための領域が設けられてい
る。各領域データバッファ40m1〜40■3は、第1
3図に示すように、領域内に設けられる枠の個数を示す
データが格納される枠個数データバンファ42a 、 
H域内に設けられた各枠(個数n個)の位置を示す座標
データか格納される領域座標X始点データバッファ42
b1〜42bn、領域座標Y始点データバッファ420
1〜42cn、領域座標X始点データバッファ42d1
〜42dn、領域座標Y始点データバッフy 42el
 〜42en。
Furthermore, the recognition frame data buffer 40m includes area data buffers 40m1 to 40m for independently storing data regarding each area in which character recognition processing is performed based on coordinate data handwritten on the tablet.
3 is provided. Two areas are provided for storing various information regarding areas A and B to be subjected to character recognition processing, and area C to which numerical data is input. Each area data buffer 40m1 to 40m3 is the first
As shown in FIG. 3, a frame number data buffer 42a stores data indicating the number of frames provided within the area;
Area coordinates
b1~42bn, area coordinate Y starting point data buffer 420
1 to 42cn, area coordinates X starting point data buffer 42d1
~42dn, area coordinate Y starting point data buffer y 42el
~42en.

及び文字認識処理の結果、またはイメージパターン(領
域の属性によって異なる)が格納される認識結果データ
バッファ42rl〜42f’nが設けられている。
There are also recognition result data buffers 42rl to 42f'n in which results of character recognition processing or image patterns (which vary depending on the attributes of the area) are stored.

なお、一般文書の作成を行なう場合は、例えば後述する
第28図に示す表示画面のように、次候補表示領域52
、ファンクション領域51、及び手書き文字入力領域5
3の各入力領域が設定される。この際、領域データバッ
ファ40kには、各領域51〜53用のデータバッファ
が設定される。また、認識枠デルタバッフ740mにつ
いても、手書き文字入力領域53の各行の各入力枠につ
いてのデータが設定される。
Note that when creating a general document, the next candidate display area 52 is displayed, for example as shown in the display screen shown in FIG.
, function area 51, and handwritten character input area 5
3 input areas are set. At this time, data buffers for each of the regions 51 to 53 are set in the region data buffer 40k. Further, data for each input frame in each row of the handwritten character input area 53 is also set for the recognition frame delta buffer 740m.

次に、文字情報を入力する際の処理手順について、第1
4図に示すフローチャートを参照しながら説明する。
Next, the first step is to explain the processing procedure when inputting character information.
This will be explained with reference to the flowchart shown in FIG.

まず、装置の電源か投入されると、例えば第15図に示
すような初期画面の表示を表示部32において行なう(
ステップAl)。この初期画面では、伝票形式の複数の
項目名、及び各項目名に対応する記入枠が表示される。
First, when the device is powered on, an initial screen as shown in FIG. 15 is displayed on the display unit 32 (
Step Al). On this initial screen, a plurality of item names in the slip format and entry frames corresponding to each item name are displayed.

すなわち、項目名には氏名記入欄を示す「おなまえ」、
「年齢」、住所を示す「おところ」か設けられている。
In other words, the item name includes "Name", which indicates a field for entering the name,
There is also an ``Odokoro'' that indicates ``age'' and address.

さらに氏名記入欄には、漢字、及びフリガナによる記入
欄が設けられている。ここでは、漢字による氏名記入欄
を領域A、フリガナによる氏名記入欄を領域B、年齢記
入欄を領域C1住所記入欄を領域りとする。また、領域
Aについては漢字の手書き文字認識処理、領域已につい
てはカタカナの手書き文字認識処理、領域Cについては
後述するソフトテンキーによる入力、領域りについては
筆跡表示(文字等のイメージパターンのまま)処理を行
なうように設定されているものとする。
Furthermore, the name entry field includes fields for writing in kanji and furigana. Here, the name entry column in kanji is area A, the name entry column in furigana is area B, the age entry column is area C1, and the address entry column is area A. In addition, for area A, handwritten character recognition processing for kanji, for area 2, handwritten character recognition processing for katakana, for area C, input using the soft numeric keypad, which will be described later, and for area 2, handwriting display (the image pattern of characters etc. remains). It is assumed that the settings are set to perform processing.

このような、各領域A−Dについての情報は、処理制御
部31内の領域データバッファ40k 、及び認識枠デ
ータバッファ40mに予め設定されている。
Such information about each area A to D is set in advance in the area data buffer 40k and the recognition frame data buffer 40m within the processing control unit 31.

すなわち、領域位置を示す座標、処理属性、及び認識属
性のデータは、領域データバッファ40に中のそれぞれ
の領域に対応する領域データバッファ40に1 〜40
に4に格納されている。また、領域A。
That is, the data of the coordinates indicating the area position, the processing attribute, and the recognition attribute are stored in the area data buffer 40 corresponding to each area in the area data buffer 40 from 1 to 40.
It is stored in 4. Also, area A.

B内に設けられている枠の個数、枠位置を示す座標は、
認識枠データバッファ40s中の各領域の領域データバ
ッファ 40m1.4(]++2に格納されている。
The number of frames provided in B and the coordinates indicating the frame positions are:
It is stored in the area data buffer 40m1.4(]++2 of each area in the recognition frame data buffer 40s.

表示制御部40fは、各領域データバンファに格納され
たデータに基づいて、初期画面の表示制御を行なう。
The display control unit 40f controls the display of the initial screen based on the data stored in each area data buffer.

こうして、初期画面の表示が行なわれると、入力部40
aは、入力待ち状態となる。つまり、座標入力部30の
透明タブレット面上をスタイラスペン3によって指示さ
れ、座標データが検出されたか否かを調べる(ステップ
A2)。入力部40aは、座標データか入力されたこと
を検出すると、この座標データを位置データバッファ4
0gに格納すると共に、スタイラスペン3の状態(オン
かオフか等)を示すデータをペン状態データバッファ4
0hに格納する(ステップA3.A4)。座標データと
ペン状態を示すデータか所定のバッフy40g。
When the initial screen is displayed in this way, the input section 40
a enters the input waiting state. That is, it is determined whether coordinate data is detected by pointing the stylus pen 3 on the transparent tablet surface of the coordinate input unit 30 (step A2). When the input unit 40a detects that coordinate data has been input, the input unit 40a transfers the coordinate data to the position data buffer 4.
0g, and data indicating the state of the stylus pen 3 (on or off, etc.) is stored in the pen state data buffer 4.
It is stored in 0h (steps A3 and A4). Coordinate data and data indicating the pen status or a predetermined buffer y40g.

40hに格納されると、領域判別処理部40dは、位置
データバッファ40gに格納された座標データと、領域
データバッファ4.0 kに格納された領域の位置を示
す座標データをもとに、スタイラスペン3によって指定
された位置かどの領域に含まれるかを判別する。そして
、入力した座標データが、領域A−Dのうちの何れかに
含まれていると判別されると、その領域に関する情報を
領域属性データバッファ41eから取り出す(ステップ
A5)。領域判別処理部40dは、領域処理属性データ
バッファ41e1に格納されていた処理属性データより
、スタイラスペン3によって指示された領域が、手書き
人力処理を行なう対象であるか否かを判別する(ステッ
プA6)。領域判別処理部40dは、スタイラスペン3
によって指示された領域が手書き入力処理を行なう対象
であるか否かの判別結果を入力部40aに対して通知す
る。すなわち、指定された領域か手書き入力処理の対象
でない場合は手書き入力状態をオフし、手書き入力処理
の対象である場合は手書き入力待ち状態(オン)にする
(ステップA7.A8)。同実施例においては、領域A
、B、Dが指定された場合に、手書き入力処理状態に設
定する。さらに、指定された領域が手書き入力処理の対
象とする場合、領域判定処理部40dは、領域処理属性
データより、手書き文字認識処理を行なうかを判定する
(ステップA9)。
40h, the area determination processing unit 40d moves the stylus based on the coordinate data stored in the position data buffer 40g and the coordinate data indicating the position of the area stored in the area data buffer 4.0k. It is determined in which area the position specified by the pen 3 is included. If it is determined that the input coordinate data is included in one of the areas A to D, information regarding that area is extracted from the area attribute data buffer 41e (step A5). The area determination processing unit 40d determines whether or not the area indicated by the stylus pen 3 is a target for manual handwriting processing based on the processing attribute data stored in the area processing attribute data buffer 41e1 (step A6). ). The area discrimination processing unit 40d uses the stylus pen 3
The input unit 40a is notified of the determination result as to whether or not the area designated by is a target for handwriting input processing. That is, if the designated area is not a target of handwriting input processing, the handwriting input state is turned off, and if it is a target of handwriting input processing, it is set to a handwriting input waiting state (on) (steps A7 and A8). In the same example, area A
, B, and D are specified, the handwriting input processing state is set. Further, if the specified area is to be subjected to handwritten input processing, the area determination processing unit 40d determines whether handwritten character recognition processing is to be performed based on the area processing attribute data (step A9).

文字認識処理の対象とする領域である場合、領域判別処
理部40cは、属性データバッファ41e2に格納され
た認識属性データをもとに辞書データバッファ40jに
格納されている属性(漢字、カタカナ等)に応じた辞書
データを取りだし、認識処理部40bに転送する(ステ
ップA 10)。
If the area is a target area for character recognition processing, the area discrimination processing unit 40c determines the attributes (kanji, katakana, etc.) stored in the dictionary data buffer 40j based on the recognition attribute data stored in the attribute data buffer 41e2. The dictionary data corresponding to the data is taken out and transferred to the recognition processing section 40b (step A10).

そして、ガイド表示データ抽出処理部40eは、指示さ
れた領域に関する人力完了フラグ41e3のオン、オフ
の判定を行なう(ステップA 11)。データの入力が
行なわれていない場合は、当然ながら入力完了フラグ4
1e3は、オフとなっており、そのまま各領域に応じた
データ入力待ちとなる。ここで、人力完了フラグ41e
3がオンてあり、指示された領域についてデータが入力
済みであると判定された場合には、ガイドデータバッフ
ァ40iに格納されているガイド表示を行なうためのガ
イドデータを取り出す。ガイド表示データ抽出処理部4
0eによって取り出されたガイドデータは出力バッファ
401に転送される。表示制御部40fは、出力バッフ
ァ401内のがイドデータに基づいて、例えば第16図
(a)に示すような「押して下さい」というガイド表示
を行なう(ステップA12)、なお、第16図(a)に
示すガイド表示例は、領域りの場合について示している
。ここで、スタイラスペン3がオン状態である場合は(
ステップA13)、第16図(b)に示すように、この
領域に関する出力バッフ7401のデータをクリアする
(ステップA14)と共に、ガイド表示をクリアする。
Then, the guide display data extraction processing unit 40e determines whether the manual completion flag 41e3 for the designated area is on or off (step A11). If no data has been entered, of course the input completion flag 4
1e3 is off and continues to wait for data input corresponding to each area. Here, the manual completion flag 41e
3 is on and it is determined that data has been input for the designated area, guide data for performing guide display stored in the guide data buffer 40i is retrieved. Guide display data extraction processing section 4
The guide data retrieved by 0e is transferred to the output buffer 401. The display control unit 40f displays a guide message such as "Please press" as shown in FIG. 16(a), for example, based on the ID data in the output buffer 401 (step A12). The example of the guide display shown in FIG. Here, if the stylus pen 3 is on (
In step A13), as shown in FIG. 16(b), the data in the output buffer 7401 regarding this area is cleared (step A14), and the guide display is also cleared.

そして、入力完了フラグ41e3をオフにする(ステッ
プA15)。ステップA13において、ペン状態がオフ
であり、人力済みデータのクリアを行なわない場合はス
テップA2に戻り、入力待ち状態となる。
Then, the input completion flag 41e3 is turned off (step A15). In step A13, if the pen state is off and the manual data is not to be cleared, the process returns to step A2 and enters an input waiting state.

そして、領域判定処理部40dによって指示位置が領域
A−Dの何れにあるかによる判定(ステップA1.8〜
A19)に応じて、領域A−Dについての処理A−Dを
実行する(ステップA、20〜23)。
Then, the region determination processing unit 40d determines in which region A to D the designated position is located (steps A1.8 to
A19), processes A-D for areas A-D are executed (steps A, 20-23).

ここで、領域Aについての処理を、第17図に示すフロ
ーチャートを参照しながら説明する。
Here, the processing for area A will be explained with reference to the flowchart shown in FIG.

ます、スタイラスペン3によって指定された位置か領域
A内であるならば、前記説明した手順に従って手書き人
力を行ない(ステップB1)、第18図(a)に示すよ
うに入力された座標位置(枠内)にあたかも紙面に書い
ているかのように筆跡を表示する(ステップB2)。認
識処理部4Qbは、入力された手書き文字の座標データ
をもとに、認識枠データバッファ401I中の領域Aデ
ータバッファ40m1に格納された4忠対象としている
枠の位置データ(枠座標の始点、終点)を取り出す(ス
テップB3)。認1処理部40bは、設定された辞書デ
ータを用いて、入力された手書き文字の座標データにつ
いて手書き文字認識処理(後述する)を行なう(ステッ
プB4)。認識処理部40bは、手書き文字認識処理の
結果(文字データ)を、領域Aデータバッファ40Il
l中の認識対象とし。
If the position specified by the stylus pen 3 is within area A, handwriting is performed according to the procedure described above (step B1), and the input coordinate position (frame inside), the handwriting is displayed as if it were written on paper (step B2). Based on the coordinate data of the input handwritten character, the recognition processing unit 4Qb extracts the position data (starting point of the frame coordinates, (end point) is taken out (step B3). The recognition 1 processing unit 40b uses the set dictionary data to perform a handwritten character recognition process (described later) on the coordinate data of the input handwritten character (step B4). The recognition processing unit 40b stores the result (character data) of the handwritten character recognition process in the area A data buffer 40Il.
The recognition target in l.

でいる枠の認識データバッファに格納する(ステップB
5)と共に、出カバソファ401に文字データを格納す
る。すなわち、第18図(a)に示すように文字が筆記
された場合は、認識データ・)ラフy42fiに、漢字
「山」の文字データか格納される。こうして、表示制御
部40rは、出力バッファ401に格納された文字デー
タに基づいて、第18図(b)に示すように、手書き文
字認識処理の結果を表示する(ステップB6)。
(Step B)
5), character data is stored in the output sofa 401. That is, when a character is written down as shown in FIG. 18(a), the character data of the kanji character "yama" is stored in the recognition data () rough y42fi. In this way, the display control unit 40r displays the result of the handwritten character recognition process, as shown in FIG. 18(b), based on the character data stored in the output buffer 401 (step B6).

なお、領域Bについての処理も前記説明した領域Aにつ
いての処理と同様にして行なわれるか、領域Bデータバ
ッファ40に中の認識属性データバッファ41e2に格
納された認識属性データに応じてカタカナに関する辞書
データが認識処理部40bに設定され、手書き文字認識
処理か行なわれる。この領域Bについての処理を行って
いる場合の表示画面例を、第19図に示している。
Note that the processing for area B is performed in the same manner as the processing for area A described above, or a dictionary regarding katakana is performed in accordance with the recognition attribute data stored in the recognition attribute data buffer 41e2 in the area B data buffer 40. The data is set in the recognition processing section 40b, and handwritten character recognition processing is performed. FIG. 19 shows an example of a display screen when processing for area B is being performed.

また、領域りについての処理は、入力された手書き文字
の座標データ(イメージパターン)をそのまま表示し、
手書き文字認識処理を行なわない。
In addition, the area processing displays the coordinate data (image pattern) of the input handwritten characters as is,
Does not perform handwritten character recognition processing.

この領域りについての処理を行った場合の表示画面例を
、第20図に示している。
FIG. 20 shows an example of a display screen when processing for this area is performed.

ここで、前記以外のガイド表示を行なう領域Cについて
の処理を、第21図に示すフローチャートをり照しなか
ら説明する。
Here, processing for area C in which guide display other than the above is performed will be explained with reference to the flowchart shown in FIG.

まず、領域判別処理部40dによってスタイラスペン3
によって指定された位置か領域C内であると、判別され
ると、ペン状態データバッファ40hに格納されたペン
状態を示すデータに基づいてペン状態を判別する(ステ
ップC1)。ここで、ペン状態かオフであると判別され
ると、ガイド表示データ抽出処理部40eは、ガイドデ
ータバッファ401に格納されている領域Cに対応する
ガイドデータを取り出し、出力バッファ401 に転送
する。
First, the area determination processing unit 40d determines whether the stylus pen 3
When it is determined that the position specified by is within area C, the pen state is determined based on data indicating the pen state stored in the pen state data buffer 40h (step C1). Here, if it is determined that the pen state is off, the guide display data extraction processing unit 40e extracts the guide data corresponding to the area C stored in the guide data buffer 401 and transfers it to the output buffer 401.

表示制御部40「は、出力バッファ401内のガイドデ
ータに応じて、例えば第22図(a)に示すような「押
して下さい」というガイド表示を行なう(ステップC2
)。ステップCにおいて、ペン状態かオフである場合、
ガイド表示は行なわない。
The display control unit 40 displays a guide message such as ``Please press'' as shown in FIG. 22(a) in accordance with the guide data in the output buffer 401 (step C2).
). In step C, if the pen state is off,
No guide display is performed.

ここで、データを入力するためにペン状態かオンされる
と、ガイド表示データ抽出処理部40eは、ガイドデー
タバッファ40+に格納された、データの人力を行なう
ために用いられるソフトテンキーを示すガイドデータを
読み出し、出力ハソファ401に転送する。表示制御部
40fは、第22図(b)に示すように、領域Cの下部
の所定位置にソフトテンキーを表示する(ステップC4
)。ここで、スタイラスペン3がオン状態であり(ステ
ップC5)、ソフトテンキーの数字領域部分が指定され
ると、数値データを入力する(ステップC6)。すなわ
ち、スタイラスペン3によってソフトテンキーの領域が
指定されると、領域判別処理部40dは、ガイドデータ
バッファ40iに格納されているソフトテンキーの各数
字の領域を示す領域データをもとに、スタイラスペン3
による指示位置の座標か何れの数字を指定するものであ
るかを判別する。領域判別処理部40Cによって指定さ
れた数字か判別されると、その数値データか数値データ
バッファ4Onに格納される。また、数値データバッフ
ァ40nに格納された数値データに対応する文字データ
が出力バッフ7401に格納され、表示制御部40rに
よって「年齢」を示す領域に設けられた3つの枠の第1
桁目に表示される(ステップC7)。こうして、スタイ
ラスペン3にょって数字を示す領域か指定されると、数
値データを順次最下位桁(第1桁)として数値データバ
ッファ40nに格納すると共に、格納された数値データ
に応して第1桁目に表示を行なう。すなわち、先に入力
された数値データの表示は、順次桁上りする。ここで、
入力された数値データか3桁を越えた場合(ステップC
8)は、数値データバッファ40n1及び領域Cの各枠
に表示されていた数字をクリアする(ステップC9)。
Here, when the pen state is turned on to input data, the guide display data extraction processing unit 40e extracts the guide data stored in the guide data buffer 40+, which indicates the soft numeric keypad used for manually inputting the data. is read out and transferred to the output sofa 401. The display control unit 40f displays a soft numeric keypad at a predetermined position at the bottom of area C, as shown in FIG. 22(b) (step C4).
). Here, when the stylus pen 3 is in the ON state (step C5) and the numeric area portion of the soft numeric keypad is designated, numerical data is input (step C6). That is, when the area of the soft numeric keypad is specified with the stylus pen 3, the area determination processing unit 40d specifies the area of the stylus pen based on the area data indicating the area of each number of the soft numeric keypad stored in the guide data buffer 40i. 3
It is determined whether the coordinates of the indicated position are specified by or which number is specified. When the area determination processing unit 40C determines whether the number is the designated number, the numerical data is stored in the numerical data buffer 4On. Further, character data corresponding to the numerical data stored in the numerical data buffer 40n is stored in the output buffer 7401, and the first of three frames provided in the area indicating "age" by the display control unit 40r is stored in the output buffer 7401.
It is displayed in the digit (step C7). In this way, when an area indicating a number is designated with the stylus pen 3, the numerical data is sequentially stored in the numerical data buffer 40n as the least significant digit (first digit), and the Display in the first digit. That is, the display of the numerical data input earlier is carried up in sequence. here,
If the input numerical data exceeds 3 digits (Step C)
8) clears the numbers displayed in each frame of the numerical data buffer 40n1 and area C (step C9).

そして、ソフトテンキーの終了を示す領域がスタイラス
ペン3によって指定されると、ソフトテンキーの表示を
クリアし、領域Cについてのデータ入力を終了する(ス
テップC1,0〜C11)。
When the area indicating the end of the soft numeric keypad is designated by the stylus pen 3, the display of the soft numeric keypad is cleared and data input for area C is ended (steps C1, 0 to C11).

次に、座標入力部30から透明タブレット6上で文字を
筆記することによって入力される文字を表示するまでの
処理手順を第23図に示すフローチャートを参照しなが
ら説明する。
Next, the processing procedure from the coordinate input unit 30 to displaying characters input by writing them on the transparent tablet 6 will be explained with reference to the flowchart shown in FIG. 23.

はじめに、処理制御部31は、データの入力を行なう場
合、人力データ格納用の各バッファ等を初期化する(ス
テップDI)。処理制御部31は、スタイラスペン3の
オン状態をチエツクする(ステップD2)。スタイラス
ペン3の状態がオンである場合は、座標入力部30から
入力されるスタイラスペン3による指示位置の座標デー
タを人力部40aに取り込み、位置データバッファ40
gに格納する(ステップD3)。この座標データの格納
は、1文字分の座標データの系列がすべて入力されたこ
とを示す区切りデータが、位置データバッファ40gに
通知されるまで行なわれる。すなわち、区切りデータは
、スタイラスペン3の状態かオフにされ、このオフ状態
がステップD2において判別されると位置データバッフ
ァ40gに通知されて格納される(ステップD4)。ま
た、1文字分の座゛標データの入力終了を、前記した処
理方法に加え、入力された座標データか、現在入力対象
としていた枠領域外の位置を示すものであるかによって
判別している。例えば、初期画面中に設けられた文字記
入位置を示す複数の枠のうち、現在入力対象としている
枠から他の枠に対して座標データの入力対象を変更した
場合に、先に入力対象としてぃた枠における1文字分の
座標データの人力か終了したものと判別するものである
。このようにして、座標データに基づく文字認識処理の
認識処理時間を短縮している。こうして、入力された1
文字分の座標データは、位置データバッファ40gに格
納されると共に出力バッファ401に転送される。そし
て、表示制御部40「によって、表示部32の所定位置
に筆記パターン情報として同時に表示される。
First, when inputting data, the processing control unit 31 initializes each buffer for storing human data (step DI). The processing control unit 31 checks whether the stylus pen 3 is on (step D2). When the state of the stylus pen 3 is on, the coordinate data of the position indicated by the stylus pen 3 inputted from the coordinate input section 30 is taken into the human power section 40a, and the position data buffer 40
g (step D3). This storage of coordinate data is continued until the position data buffer 40g is notified of delimiter data indicating that all coordinate data sequences for one character have been input. That is, the delimiter data is set in the off state of the stylus pen 3, and when this off state is determined in step D2, the position data buffer 40g is notified and stored (step D4). In addition to the processing method described above, the end of inputting coordinate data for one character is determined based on whether the input coordinate data indicates a position outside the frame area that is currently being input. . For example, if you change the coordinate data input target from the current input target frame to another frame among the multiple frames indicating character entry positions provided on the initial screen, the coordinate data input target is changed from the current input target frame to another frame. It is determined that the manual input of the coordinate data for one character in the selected frame has been completed. In this way, the recognition processing time of character recognition processing based on coordinate data is shortened. In this way, the input 1
The character coordinate data is stored in the position data buffer 40g and transferred to the output buffer 401. Then, the display control unit 40 simultaneously displays the information at a predetermined position on the display unit 32 as writing pattern information.

こうして、位置データバッファ40gに1文字分の座標
データの系列が格納されると、認識処理部40bは、座
標データ系列の解析を行ない、文字認識処理を行なう(
ステップD6.D7)。
When the sequence of coordinate data for one character is thus stored in the position data buffer 40g, the recognition processing unit 40b analyzes the coordinate data sequence and performs character recognition processing (
Step D6. D7).

この文字認識処理は、例えば座標データの系列を各位置
座標データ間の距離からストロークの切れ目を判定して
軍記ストローク毎に分け、各筆記ストローク毎にその特
徴を表す方向を示す値の系列に変換して行なわれる。こ
こで、方向を示す値は、例えば第24図に示すように、
8方向(方向値)に量子化して与えられる。そして、各
筆記ストロークを示す座標データの系列が、どのような
方向値の系列で示されるかを求め、同一の向き(方向値
)が連続する場合には、それらの方向値を1つの方向値
で代表させることによりてデータを圧縮し、各筆記スト
ロークを示す位置座標データの方向値への変換が行なわ
れる。この量子化によれば、例えば数字「3」は、第2
5図に示すように、r252357Jという方向値とし
て変換される。
This character recognition process, for example, separates a series of coordinate data into military writing strokes by determining stroke breaks based on the distance between each positional coordinate data, and converts each written stroke into a series of values indicating the direction representing its characteristics. It is done as follows. Here, the value indicating the direction is, for example, as shown in FIG.
It is quantized and given in eight directions (direction values). Then, find out what kind of direction value series represents the series of coordinate data indicating each writing stroke, and if the same direction (direction value) continues, combine those direction values into one direction value. The data is compressed by representing each writing stroke, and the position coordinate data representing each writing stroke is converted into a direction value. According to this quantization, for example, the number "3" is the second
As shown in Figure 5, it is converted as a direction value r252357J.

この処理によって、座標入力部30を介して筆記人力さ
れた文字を示す座標データが、その筆記ストローク毎に
方向値としてそれぞれ表現される。
Through this processing, coordinate data indicating a character manually written via the coordinate input unit 30 is expressed as a direction value for each written stroke.

認識処理部40bは、このようにして求められた方向値
列の情報と、外部記憶装置29bに格納された辞書デー
タバッファ40jを介して与えられる文字認識処理を行
なうための辞書データとを照合して文字の認識を行なう
。なお、文字認識処理に供される辞書データは、例えば
第26図に示すように、4忠対象とする文字を構成する
ストロークの特徴を方向値列で表現し、各文字を構成す
るストローク数毎に分類して各文字コードに対応づけて
構成されている。認1処理部40bは、二のような辞書
データを参照し、筆記入力された文字を示す座標データ
のストロークの特徴に該当する文字コードを、認識結果
としてセットする(ステ・ツブD8)。
The recognition processing unit 40b compares the information on the direction value sequence obtained in this manner with dictionary data for performing character recognition processing provided via the dictionary data buffer 40j stored in the external storage device 29b. to recognize characters. The dictionary data used for the character recognition process, for example, as shown in FIG. It is categorized into 1 and associated with each character code. The recognition 1 processing unit 40b refers to dictionary data such as 2 and sets a character code corresponding to the stroke characteristics of the coordinate data indicating the handwritten input character as a recognition result (step D8).

ここで、入力された座標データが1文字目のものである
場合は、文字表示を行なうための文字サイズの設定を行
なう。すなわち、人力された座標データの系列をもとに
、筆記された文字のX、Y方向の文字サイズを検出する
(ステ・ツブD10)。そして、XサイズとYサイズの
比較を行ない(ステップDLL)、その結果に応してX
サイズ、また(よYサイズの何れか一方のサイズに合わ
せてX、 Y方向サイズを文字サイズとして設定する(
ステ・ツブD1.L〜D14)。そして、表示制御部4
0eは、設定された文字サイズに従って文字の表示を行
なう(ステップD15)。なお、入力された座標データ
が2文字目以降のものである場合、文字サイズを求める
処理は行なわず、1文字目のデータによって設定された
文字サイズに従って文字表示を行なう。
Here, if the input coordinate data is for the first character, the character size for character display is set. That is, the size of the written character in the X and Y directions is detected based on the series of manually entered coordinate data (step D10). Then, the X size and Y size are compared (step DLL), and depending on the result,
Set the size in the X and Y directions as the font size according to either the size or the Y size (
Ste Tsubu D1. L~D14). Then, the display control section 4
0e displays characters according to the set character size (step D15). Note that if the input coordinate data is for the second character or later, the process of determining the character size is not performed, and the characters are displayed according to the character size set by the data for the first character.

こうして、各領域A−Dに応じた方式によって第15図
に示す初期画面に対して文字情報が人力された結果、例
えば第27図に示すような表示画面が得られる。
In this way, as a result of manually inputting character information to the initial screen shown in FIG. 15 using a method corresponding to each area A to D, a display screen as shown in FIG. 27, for example, is obtained.

次に、手書き文字認識かな漢字変換の方式について説明
する。
Next, a method for handwritten character recognition and kana-kanji conversion will be explained.

ここでは、前記のような文字入力用のフォーマットに対
して入力するのではなく、所定の領域に文字を手書きす
ることにより文字認識が実行され、その結果についてか
な漢字変換が行なわれ、一般のかな漢字混り文を作成す
ることができるものである。
Here, character recognition is performed by handwriting characters in a predetermined area, rather than inputting them into the character input format described above, and the results are converted into kana-kanji to create a general kana-kanji mixture. It is possible to create written sentences.

第28図には、手書き文字認識かな漢字変換により、文
書を作成する際の表示画面の一例を示している。この文
書作成用の画面は、大別して4つの領域に分割される。
FIG. 28 shows an example of a display screen when a document is created by handwritten character recognition and kana-kanji conversion. This document creation screen is roughly divided into four areas.

すなわち、作成された文書を表示するための作成文書表
示領域50、各種ファンクションキーを表示するための
ファンクション領域51、文字認識またはかな漢字変換
の際の次候補を表示すめるための次候補表示領域52、
及び手書き文字を人力するための手書き文字人力領域5
3である。ファンクション領域51には、例えば人力文
字の文字種(カタカナ、数字、英字等)を指示するため
のモードキー54、手書き文字入力領域において作成さ
れた文字列(例えば文節の一部)を作成文書表示領域5
0に転送させるためのrMOVEJキー55、及び手書
き文字入力領域が文字で埋まっていないときに漢字変換
の実行を促す「漢字変換」キー56等が設けられている
That is, a created document display area 50 for displaying a created document, a function area 51 for displaying various function keys, a next candidate display area 52 for displaying the next candidate for character recognition or kana-kanji conversion,
and handwritten character manual area 5 for manually creating handwritten characters
It is 3. The function area 51 includes, for example, a mode key 54 for instructing the character type of human characters (katakana, numbers, alphabets, etc.), a document display area for displaying character strings (for example, part of phrases) created in the handwritten character input area. 5
An rMOVEJ key 55 for transferring the characters to 0 and a "kanji conversion" key 56 for prompting execution of kanji conversion when the handwritten character input area is not filled with characters are provided.

手書き文字入力領域53には、第28図中では、「ひら
かな」 「カタカナ」 「英数字」を記入するための第
1行と、漢字に変換すべき文字列を記入するための第2
行が設けられている。図中では、各行12文字が入力で
きるように人力枠が設けられているが、この文字数は特
に限定されるものではない。手書き文字人力領域53の
第1行に記入された文字については「ひらかな」 「カ
タカナ」「英数字」用の認識辞書が用いられ、第2行に
記入された文字については「ひらがな」及び画数の少な
い漢字用の認識辞書が用いられる。従って、第2行では
画数の少ない漢字であれば、そのまま記入して入力する
ことができる。例えば「日本語」という単語を漢字で得
ようとする場合、第2行に画数の少ない「日本」と漢字
で記入し、画数か多く文字認識が困難な漢字「語」につ
いては「ご」と記入する。これにより、「日本ご」とい
う文字列が認識されて、かな漢字変換に供される。
In the handwritten character input area 53, in FIG.
A line is provided. In the figure, a manual frame is provided so that 12 characters can be entered in each line, but this number of characters is not particularly limited. For the characters written in the first line of the handwritten character human power area 53, recognition dictionaries for ``hirakana'', ``katakana'', and ``alphanumeric characters'' are used, and for the characters written in the second line, ``hiragana'' and the number of strokes are used. A recognition dictionary for kanji with few characters is used. Therefore, in the second line, any kanji character with a small number of strokes can be entered as is. For example, if you are trying to get the word "Japanese" in kanji, write "Japan" in kanji on the second line, which has a small number of strokes, and write "go" for the kanji "go", which has a large number of strokes and is difficult to recognize. Fill out. As a result, the character string ``Nihongo'' is recognized and subjected to kana-kanji conversion.

なお、第2行において認識可能な漢字は、例えば画数N
か所定以内の漢字について認識辞書か用意されており、
確実に文字認識を行なうことができるものである。画数
Nは、文字認識処理機能の能力に応じて適当な値がとら
れる。
Note that the kanji that can be recognized in the second line is, for example, the number of strokes N.
A recognition dictionary is prepared for kanji within a certain range,
This allows reliable character recognition. The number of strokes N takes an appropriate value depending on the ability of the character recognition processing function.

次に、第28図に示す表示画面を用いた文書作成の手順
について、第1図に示すフローチャートを参照しながら
説明する。
Next, the procedure for creating a document using the display screen shown in FIG. 28 will be explained with reference to the flowchart shown in FIG.

まず、第1行、第2行の手書き文字人力領域において、
漢字にすべき部分とその他の部分に分けられて文字か記
入される(ステップEl)。各矩形枠内に記入された手
書き文字の認識は、各1文字につき、スタイラスペン3
による記入か停止した後、一定の時間か経過したら人力
完了とみなし、そこまで人力された座標データ系列をも
とに文字の認識を開始する。あるいは、記入か停止した
後、一定の時間内であっても、他の記入枠内に文字の記
入か開始されたら、前の記入枠内に記入された文字の認
識を開始する。
First, in the handwritten character area of the first and second lines,
Characters are entered separately into parts that should be written as kanji and other parts (step El). Recognition of handwritten characters written in each rectangular frame requires three stylus pens for each character.
After a certain period of time has elapsed after the input is stopped, it is assumed that the manual input has been completed, and character recognition is started based on the coordinate data series input manually up to that point. Alternatively, even if writing is stopped and characters are started in another writing frame even within a certain period of time, recognition of characters written in the previous writing frame is started.

第28図に示すように、手書き文字人力領域53に文字
が記入され、文字の認識結果を表示すると(ステップE
2)、認識結果に誤りがある場合には文字の修正か行な
われる(ステップE3)。文字の修正は、例えば誤った
文字の矩形枠内に文字を再入力することによって行なわ
れる(ステップE4)。文字認識処理の結果について訂
正の必要な箇所が無くなると、かな漢字変換処理の実行
(ステップE5)、または作成文書表示領域50への転
送が指示される(ステップE6)。ここで、rMOVE
Jキー55が指示されるのは、例えば入力した文字列が
「かな」だけの場合や、画数の少ない簡単な漢字のみが
含まれている場合等である。
As shown in FIG. 28, when a character is written in the handwritten character area 53 and the character recognition result is displayed (step E
2) If there is an error in the recognition result, the characters are corrected (step E3). The character is corrected, for example, by re-entering the character within the rectangular frame of the erroneous character (step E4). When the results of the character recognition process no longer require correction, execution of the kana-kanji conversion process (step E5) or transfer to the created document display area 50 is instructed (step E6). Here, rMOVE
The J key 55 is designated, for example, when the input character string only includes "kana" or when it includes only simple kanji characters with a small number of strokes.

ここで「漢字変換」キー56がスタイラスペン3によっ
て指示されると、第2行に人力された文字について、か
な漢字変換処理を実行する(ステップE7)。かな漢字
変換処理では、手書き文字人力領域53の第2行に入力
された文字について、かな漢字変換用の辞書を参照して
漢字に変換する。
Here, when the "Kanji conversion" key 56 is designated with the stylus pen 3, the kana-kanji conversion process is executed for the characters entered manually on the second line (step E7). In the kana-kanji conversion process, the characters input in the second line of the handwritten character manual area 53 are converted into kanji by referring to a dictionary for kana-kanji conversion.

第28図中の「えいこく」の文字列は「英国」と変換さ
れ、「きしょうじ」の文字列は「起床字」と変換された
ものとする。かな漢字変換によって文字数が変り、入力
枠にブランクができる場合があるが、作成文書表示領域
50に転送した際に文字が詰められてブランクでなくな
る。
In FIG. 28, it is assumed that the character string ``Eikoku'' is converted to ``UK'' and the character string ``Kishoji'' is converted to ``Owakeji''. The number of characters may change due to kana-kanji conversion, and blanks may appear in the input frame, but when the input frame is transferred to the created document display area 50, the characters are filled in and the input frame is no longer blank.

「起床字」のように誤った変換結果が得られた場合には
、次候補表示領域52に表示された次候補から正しい文
字が選択され置き換えられる(ステップE8)。次候補
表示領域52における次候補の表示は、例えば「きしよ
うし」に対して「起床字」の変換結果か出てきたら、「
字」の真上の第1行の入力枠をスタイラスペン3てタッ
チすることにより「字」について行なわれる。次候補の
選択は、次候補表示領域52の所望する文字か表示され
た枠をタッチすることにより行なわれる。
If an erroneous conversion result such as "wake-up character" is obtained, a correct character is selected from the next candidates displayed in the next candidate display area 52 and replaced (step E8). The display of the next candidate in the next candidate display area 52 is such that, for example, when a conversion result of "Owakaseji" is displayed for "Kiyoshi", "
This is done for the ``character'' by touching the input frame on the first line directly above the ``character'' with the stylus pen 3. The next candidate is selected by touching the frame in which the desired character is displayed in the next candidate display area 52.

また、例えば「気象学」という全体が誤りの変換結果が
得られた場合には、「気」の真上の第1行の枠をタッチ
することにより、「きしようし」という単語全体の次候
補が次候補表示領域52に表示されるようにする。次候
補に「起床字」かあれば、−旦この候補を選択して入力
枠に表示させ、更に「字」の真上をタッチして「字」の
みの次候補を選択するようにもてきる。
For example, if the entire word "Meteorology" is incorrect, you can touch the frame in the first line just above "Ki" to change the entire word "Kishoshi" to the next one. The candidates are displayed in the next candidate display area 52. If the next candidate is "Wake up character", select this candidate and display it in the input frame, then touch directly above "Character" to select the next candidate with only "Character". Ru.

なお、手書き文字入力領域53に記入された文字につい
てかな漢字変換を行なう場合に、「漢字変換」キー56
をタッチするものとしたが、次のようにしてもよい。す
なわち、第2行に文字を記入していたスタイラスペン3
が、第1行の書き込みに移ったら、直ちに第2行に記入
された文字について文字認識処理を行ない、更に引き続
いてその文字を含む単語についてかな漢字変換を行ない
、その結果を文字記入枠に表示するものである。また、
第2行に文字を記入していて、所定時間記入が停止した
ら、第1行に記入が移らなくても、第2行に記入された
文字について文字認識を行ない、更に引き続いてその文
字を含む単語についてかな漢字変換を行ない、その結果
を文字証人枠に表示するようにしても良い。
Note that when performing kana-kanji conversion on characters entered in the handwritten character input area 53, the "kanji conversion" key 56
, but you may also do the following. In other words, stylus pen 3 that was writing characters on the second line
However, when the first line is written, it immediately performs character recognition processing on the characters written on the second line, then performs kana-kanji conversion on the word containing that character, and displays the result in the character entry frame. It is something. Also,
If you are writing characters in the second line and stop writing for a predetermined time, even if the writing does not move to the first line, character recognition will be performed for the characters written in the second line, and the character will be included. It is also possible to perform kana-kanji conversion on the word and display the result in the character witness frame.

こうして、所望するかな漢字変換結果が得られて、rM
OVEJキー55かタッチされると手書き文字入力領域
53に表示された文字列を作成文書表示領域50に転送
する。
In this way, the desired kana-kanji conversion result is obtained, and rM
When the OVEJ key 55 is touched, the character string displayed in the handwritten character input area 53 is transferred to the created document display area 50.

以上においては、手書き文字入力領域53の行数を2行
とし、第1行に記入される文字を「ひらがな」 「カタ
カナ」 「英数字」としたが、第1行の役割を細分して
数段に分け「英数字」用、「カタカナ」用等の複数の行
を設けても良い。「カタカナ」入力用の行を別に設けた
表示画面の例を第29図に示している。第29図に示す
「カタカナ」入力用の行に記入された文字については、
「カタカナ」用の認識辞書が用いられる。
In the above, the number of lines in the handwritten character input area 53 is two lines, and the characters to be entered in the first line are ``hiragana'', ``katakana'', and ``alphanumeric characters'', but the role of the first line is subdivided into numbers. It may be divided into columns and provide a plurality of lines for "alphanumeric characters", "katakana", etc. FIG. 29 shows an example of a display screen with a separate line for inputting ``katakana''. Regarding the characters written in the "Katakana" input line shown in Figure 29,
A recognition dictionary for "Katakana" is used.

また、ファンクション領域51に設けられたモードキー
54を用いて、手書き文字入力領域53の入力行に入力
されるべき文字種を特定し、文字認識処理を容易にする
二ともてきる。つまり、日本語文では、漢字とひらがな
が圧倒的に頻度が高く出現するので、手書き文字入力領
域53を2行とし、第2行には漢字にすべき文字列を記
入するための行とし、通常では第1行をひらがな入力用
の行とする。そして、モードキー54がタッチされた場
合には、第1行を指定されたモードの文字を入力するこ
とができるようにすることにより、文字認識処理の負担
を軽減させることができる。このモードを指定して、文
字を入力する処理の手順(「カタカナ」モード指定の場
合)を第30図のフローチャートに示している。例えば
、「モーニングティーと言う」という文を作成する場合
、まずモードキー54の「カタカナ」キーがタッチされ
て(ステップF1)、これからカタカナ文字か記入され
ることが指示される(「カタカナ」モードかオン)。
Further, the mode key 54 provided in the function area 51 is used to specify the type of character to be input into the input line of the handwritten character input area 53, which facilitates the character recognition process. In other words, in Japanese sentences, kanji and hiragana appear overwhelmingly frequently, so the handwritten character input area 53 is made up of two lines, and the second line is a line for entering character strings that should be converted into kanji. Now let's use the first line as the line for inputting hiragana. When the mode key 54 is touched, characters of the specified mode can be entered in the first line, thereby reducing the burden of character recognition processing. The flow chart of FIG. 30 shows the procedure for specifying this mode and inputting characters (in the case of specifying the "Katakana" mode). For example, when creating the sentence ``Morning Tea'', the ``Katakana'' key of the mode key 54 is first touched (step F1), and the user is instructed to enter katakana characters (``Katakana'' mode). or on).

ここで、「モーニングティー」と第1行に記入されると
、各文字について文字認識結果を行なう(ステップF2
.F3)。文字認識結果に誤りがある場合には、再入力
を行なうことにより修正を行なう(ステップF5)。修
正によって所望する文字列が得られると「カタカナ」キ
ーがタッチされて、「カタカナ」モードかオフされる(
ステップF6)。また、rMOVEJキー55か夕・ソ
チされた場合には、入力された文字を作成文書表示領域
50に転送する(ステップF8)。これにより、「カタ
カナ」モードが解除され、かな及び漢字による入力が可
能となり(ステップF8)、「という」という文字を各
行に書き分けて記入する。こうして所望する文が入力さ
れた際の表示画面を第31図に示している。
Here, when "Morning Tea" is written in the first line, character recognition results are performed for each character (step F2
.. F3). If there is an error in the character recognition result, correction is made by re-inputting (step F5). When the desired character string is obtained by modification, the "Katakana" key is touched and "Katakana" mode is turned off (
Step F6). Further, when the rMOVEJ key 55 is pressed, the input characters are transferred to the created document display area 50 (step F8). As a result, the "katakana" mode is canceled and input in kana and kanji becomes possible (step F8), and the characters "toi" are written separately on each line. FIG. 31 shows the display screen when the desired sentence has been input in this manner.

モードキー54の「数字」、「英字」をタッチした場合
についても、キーに応じて同様にして処理が行なわれる
。また、前記実施例ではモードキー53を3種設けてい
るが、更に種類(文字種)を設けても良い。
When a "number" or "alphabet" of the mode key 54 is touched, the same process is performed depending on the key. Furthermore, although three types of mode keys 53 are provided in the embodiment, more types (character types) may be provided.

なお、第29図では「カタカナ」入力用の行をもうけて
いるが、例えば「英字」用、「数字」用等の入力行を設
けても良い。
In addition, in FIG. 29, there is a row for inputting "katakana", but input rows for "alphabetic characters", "numbers", etc. may also be provided, for example.

また、一体型表示入力装置2を電界結合方式を用いて構
成しているか1.他にも電磁誘導方式や感圧方式を用い
ることもてきる。
Also, whether the integrated display/input device 2 is configured using an electric field coupling method.1. In addition, electromagnetic induction methods and pressure-sensitive methods can also be used.

このようにして、手書き文字人力領域53に入力すべき
文字の文字種に応じた行が設けられており、所定の行に
文字を書き分けて記入するたけて、確実に文字認識が行
われ、更にかな漢字変換か行なわれる。すなイっち、文
字の記入の他に、漢字に変換すべき部分の指定を行なう
ことなく、手書き人力により文書作成を行なうことが可
能となる。
In this way, lines corresponding to the type of characters to be input are provided in the handwritten character manual area 53, and by writing and writing the characters separately on the predetermined lines, character recognition is performed reliably, and even kana-kanji A conversion is performed. In other words, it becomes possible to create documents manually by handwriting, without having to enter characters or specify the parts to be converted into kanji.

[発明の効果] 以上のように本発明によれば、文字種毎に入力領域が設
けられ、各人力領域について文字認識処理、かな浅学変
換か行なわれるので、文字人力を人力鎮域毎に書き分け
ることにより、他に変換範囲の指示等を行なうことなく
、所望するかな漢字変換結果を確実に得ることができる
。従って、手書き文字入力による文書作成の効率を向上
させることができるものである。
[Effects of the Invention] As described above, according to the present invention, an input area is provided for each character type, and character recognition processing and kana/asaaku conversion are performed for each human power area, so that it is possible to write the character human power separately for each human power area. This makes it possible to reliably obtain the desired kana-kanji conversion result without any other instructions such as the conversion range. Therefore, it is possible to improve the efficiency of document creation by inputting handwritten characters.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図乃至第31図は本発明の一実施例に係わる情報処
理装置に関する図であり、第1図は手書き文学誌1かな
漢字変換を行なう際の処理手順を示すフローチャート、
第2図は一体型表示入力装置を備えた情報処理装置の外
観構成を示す斜視図、第3図は情報処理装置の平面図、
第4図は情報処理装置の側面断面図、第5図はスタイラ
スペンに内蔵されたスイッチの構成を示す断面図、第6
図は情報処理装置の内部構成を示すブロック図、第7図
は情報処理装置の動作を説明するための概略構成図、第
8図は透明タブレットとLCDの対応関係を示す図、第
9図は透明タブレットの構成を示す図、第10図は座標
入力部の動作を説明するためのブロック図、第11図は
処理制御部のメモリ部の内容を示すブロック図、第12
図は領域データバッファの構成を示すブロック図、第1
3図は認識枠データバッファ中の領域データバッファの
構成を示すブロック図、第14図は文字情報を入力する
際の処理手順を示すフローチャート、第15図は初期画
面の表示例を示す図、第16図は領域りにおけるガイド
表示の一例を説明するための図、第17図は領域Aに対
するデータ人力の処理手順を示すフローチャート、第1
8図は領域Aに対する手書き文字入力を行なう際の表示
例を示す図、第19図は領域Bに対する手書き文字人力
を行なう際の表示例を示す図、第20図は領域りに対す
る手書き文字入力を行なう際の表示例を示す図、第21
図は領域Cに対するソフトテンキーを用いたデータ人力
の処理手順を示すフローチャート、第22図は領域Cに
おけるガイド表示の一例を説明するための図、第23図
は手書き入力された文字を表示するまでの処理手順を示
すフローチャート、第24図は筆記ストロークの方向を
説明するための図、第25図は筆記ストロークを示す位
置座標データの方向値への変換例を示す図、第26図は
文字認識処理に用いられる辞書データの構成例を示す図
、第27図は各領域に対して文字情報か入力された状態
の表示画面の一例を示す図、第28図は手書き文字認識
かな漢字変換を行なう際の表示画面の一例を示す図、第
29図は手書き文字人力領域に「カタカナ」入力用の行
を設けた表示画面の一例を示す図、第30図はカタカナ
モートにおける文字入力の処理手順を示すフローチャー
ト、第31図はカタカナモードにおいて文字を人力した
際の表示画面の一例を示す図である。 2・・・一体型表示入力装置、3・・・スタイラスペン
、6・・透明タブレット、7・・・LCD(M品デイス
プレィ)、31・・・処理制御部、40a・・・入力部
、40b・・・認識処理部、40c・・・領域判別処理
部、40e・・・表示制御部、40j・・・領域データ
バッファ、401・・・認識枠データバッファ。 出願人代理人 弁理士 鈴江武彦 第11!liQ 座」4検を実物1し日 】 メニューアイコン   表木清ダ15日第3図 M 8 図 第15図 第16図 第11図 第12図 第13図 第17図 第182 第19図 第20図 第21図 第22図 第23図 第24図 第26図 第27図 第30図
1 to 31 are diagrams relating to an information processing apparatus according to an embodiment of the present invention, and FIG. 1 is a flowchart showing a processing procedure when performing kana-kanji conversion of a handwritten literary magazine 1;
FIG. 2 is a perspective view showing the external configuration of an information processing device equipped with an integrated display input device, FIG. 3 is a plan view of the information processing device,
FIG. 4 is a side sectional view of the information processing device, FIG. 5 is a sectional view showing the configuration of the switch built into the stylus pen, and FIG.
The figure is a block diagram showing the internal configuration of the information processing device, FIG. 7 is a schematic configuration diagram for explaining the operation of the information processing device, FIG. 8 is a diagram showing the correspondence between the transparent tablet and the LCD, and FIG. FIG. 10 is a block diagram for explaining the operation of the coordinate input section; FIG. 11 is a block diagram showing the contents of the memory section of the processing control section; FIG.
The figure is a block diagram showing the configuration of the area data buffer.
3 is a block diagram showing the structure of the area data buffer in the recognition frame data buffer, FIG. 14 is a flowchart showing the processing procedure when inputting character information, FIG. 15 is a diagram showing an example of the initial screen display, and FIG. FIG. 16 is a diagram for explaining an example of guide display in area A, FIG. 17 is a flow chart showing the data processing procedure for area A, and FIG.
Figure 8 shows an example of the display when inputting handwritten characters to area A, Figure 19 shows an example of the display when inputting handwritten characters to area B, and Figure 20 shows an example of the display when inputting handwritten characters to area B. Figure 21 showing an example of display when performing
The figure is a flowchart showing the data processing procedure using a soft numeric keypad for area C, Figure 22 is a diagram for explaining an example of a guide display in area C, and Figure 23 is a flowchart showing the procedure for manually inputting data using a soft numeric keypad. FIG. 24 is a diagram for explaining the direction of a written stroke. FIG. 25 is a diagram showing an example of converting position coordinate data indicating a written stroke into a direction value. FIG. 26 is a diagram for character recognition. Figure 27 is a diagram showing an example of the structure of dictionary data used for processing, Figure 27 is a diagram showing an example of a display screen with character information input for each area, and Figure 28 is a diagram showing an example of a display screen when character information has been input for each area. Figure 29 is a diagram showing an example of a display screen in which a line for inputting "Katakana" is provided in the handwritten character manual area, Figure 30 is a diagram showing the processing procedure for character input in Katakana Mote. The flowchart, FIG. 31, is a diagram showing an example of a display screen when characters are entered manually in katakana mode. 2... Integrated display input device, 3... Stylus pen, 6... Transparent tablet, 7... LCD (M product display), 31... Processing control section, 40a... Input section, 40b . . . recognition processing section, 40c . . . area discrimination processing unit, 40e . . . display control unit, 40j . . . area data buffer, 401 . Applicant's representative Patent attorney Takehiko Suzue No. 11! liQ Za” 4th test on the actual day] Menu icon Seida Omoteki 15th Figure 3 M 8 Figure 15 Figure 16 Figure 11 Figure 12 Figure 13 Figure 17 Figure 182 Figure 19 Figure 20 Figure 21 Figure 22 Figure 23 Figure 24 Figure 26 Figure 27 Figure 30

Claims (2)

【特許請求の範囲】[Claims] (1)表示装置の表示面に透明な座標入力用のタブレッ
トを重ねて一体化して構成された一体型表示入力装置を
有し、特定の処理内容を示すと共に前記処理内容の実行
を指示するための前記タブレット上の特定の領域を示す
入力領域を必要に応じて前記表示装置に表示する情報処
理装置において、 入力すべき文字種毎の複数の入力領域を設定する領域設
定手段と、 前記領域設定手段によって設定された入力領域において
入力された座標系列をもとに、文字認識処理を行なう文
字認識処理手段と、 前記文字認識処理手段による認識結果について、前記領
域設定手段によって設定された入力領域に応じてかな漢
字変換を行なうかな漢字変換手段と、を具備したことを
特徴とする手書き文字認識かな漢字変換方式。
(1) To have an integrated display input device configured by stacking and integrating a transparent coordinate input tablet on the display surface of the display device, and to indicate specific processing contents and instruct execution of the processing contents. An information processing device that displays an input area indicating a specific area on the tablet on the display device as needed, comprising: area setting means for setting a plurality of input areas for each character type to be input; and the area setting means. a character recognition processing means that performs character recognition processing based on the coordinate series input in the input area set by; and a character recognition processing means that performs character recognition processing based on the coordinate series input in the input area set by the character recognition processing means, and a recognition result by the character recognition processing means according to the input area set by the area setting means. A handwritten character recognition kana-kanji conversion method characterized by comprising: a kana-kanji conversion means for performing a kana-kanji conversion.
(2)前記領域設定手段によって設定された入力領域に
入力すべき文字種を任意に設定するための設定手段と、 をさらに具備し、 前記文字認識手段は、前記設定手段によって設定された
文字種について文字認識処理を行なうことを特徴とする
第1請求項記載の手書き文字認識かな漢字変換方式。
(2) Setting means for arbitrarily setting a character type to be input into the input area set by the area setting means; The handwritten character recognition kana-kanji conversion method according to claim 1, characterized in that a recognition process is performed.
JP2328458A 1990-11-28 1990-11-28 Handwritten character recognizing japanese syllabary to chinese character conversion system Pending JPH04195670A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2328458A JPH04195670A (en) 1990-11-28 1990-11-28 Handwritten character recognizing japanese syllabary to chinese character conversion system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2328458A JPH04195670A (en) 1990-11-28 1990-11-28 Handwritten character recognizing japanese syllabary to chinese character conversion system

Publications (1)

Publication Number Publication Date
JPH04195670A true JPH04195670A (en) 1992-07-15

Family

ID=18210493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2328458A Pending JPH04195670A (en) 1990-11-28 1990-11-28 Handwritten character recognizing japanese syllabary to chinese character conversion system

Country Status (1)

Country Link
JP (1) JPH04195670A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123243A (en) * 2002-10-15 2009-06-04 Silverbrook Research Pty Ltd Method of interpreting data input to form-based data entry system, and method of enabling user to input information content to form-based data entry system
JP2011034437A (en) * 2009-08-04 2011-02-17 Mitsubishi Electric Corp Character recognition device, and character recognition program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123243A (en) * 2002-10-15 2009-06-04 Silverbrook Research Pty Ltd Method of interpreting data input to form-based data entry system, and method of enabling user to input information content to form-based data entry system
JP2011034437A (en) * 2009-08-04 2011-02-17 Mitsubishi Electric Corp Character recognition device, and character recognition program

Similar Documents

Publication Publication Date Title
EP0769175B9 (en) Multiple pen stroke character set and handwriting recognition system
US10268370B2 (en) Character input device and character input method with a plurality of keypads
US5187480A (en) Symbol definition apparatus
US6188789B1 (en) Method and apparatus of immediate response handwriting recognition system that handles multiple character sets
US6104317A (en) Data entry device and method
US10133479B2 (en) System and method for text entry
JPH0981320A (en) Pen input type selection input device and method therefor
JPS62276618A (en) Information input device
JP2009116529A (en) Input processing device
JPH04195670A (en) Handwritten character recognizing japanese syllabary to chinese character conversion system
JPH07182462A (en) Character recognition device/method
JP3727969B2 (en) Braille display device and braille display method
JPS61173378A (en) Word processor
TW577009B (en) Handwriting input device
JPH04109329A (en) Data input system
JP3153704B2 (en) Character recognition device
JPH05341903A (en) Character information input device
JPH04195679A (en) Sentence input system
JPH04113412A (en) Information processor
JPH01251217A (en) Electronic simple terminal writer
JPH08106513A (en) Hand-written character recognition device
JP3210470B2 (en) Information processing method and apparatus for handwritten character input device
KR100448967B1 (en) Position magnify method of Enter Key and equipment thereof
CN115809007A (en) Operation sheet, operation device, and electronic apparatus
JPH0844724A (en) Handwriting input character processor