JPH04109329A - Data input system - Google Patents

Data input system

Info

Publication number
JPH04109329A
JPH04109329A JP2226550A JP22655090A JPH04109329A JP H04109329 A JPH04109329 A JP H04109329A JP 2226550 A JP2226550 A JP 2226550A JP 22655090 A JP22655090 A JP 22655090A JP H04109329 A JPH04109329 A JP H04109329A
Authority
JP
Japan
Prior art keywords
input
area
character
data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2226550A
Other languages
Japanese (ja)
Inventor
Shinpei Kunii
晋平 國井
Yutaka Kamiyama
神山 豊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2226550A priority Critical patent/JPH04109329A/en
Publication of JPH04109329A publication Critical patent/JPH04109329A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE:To effectively obtain a correct character to be displayed on an input area in a united type display input device by obtaining candidate characters by character recognition processing based upon inputted coordinate information. CONSTITUTION:When a character is hand-written on a transparent tablet 6 by means of a stylus pen 3, coordinate data indicating the strokes of the character are inputted and character recognition processing based upon the coordinate data is executed. The coordinate data indicating the strokes of the character are inputted from a coordinate input part 30. The input part 30 generates the coordinate data based upon a position pointed out by the pen 3 on the tablet 6. A processing control part 31 for executing character recognition, etc., based upon the sequence of position coordinates indicating the strokes of the character is connected to the input part 30. On the other hand, a display part 32 for displaying the character or the like recognized by the control part 31 and an external peripheral device 33 such as a storage device and a printer are connected to the control part 31.

Description

【発明の詳細な説明】 [発明の目的コ (産業上の利用分野) 本発明は、一体型表示入力装置を備えた情報処理装置に
おけるデータ入力方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention (Industrial Application Field) The present invention relates to a data input method in an information processing apparatus equipped with an integrated display input device.

(従来の技術) 従来、コンピュータ等の情報処理装置に対して直接デー
タを入力する場合、例えばキーボード、マウス、タブレ
ットが使用されている。また、近年では、平面形状の液
晶デイスプレィ(LCD)等による表示装置と座標入力
用の透明タブレットとを重ね合わせて構成した一体型表
示入力装置を使用する場合がある。一体型表示入力装置
では、透明タブレット中にマトリクス状に電極が配置さ
れており、スタイラスペンによって指示された位置を精
度よく検出することができる。このスタイラスペンによ
って指示された位置の軌跡は、デイスプレィに表示され
る。従って、ディスブlノイに表示された内容を視認し
ながら、タブレット上でスタイラスペンを用いて文字等
の筆記を[紙と鉛筆」のような感覚で行なうことができ
、誰にでも容易にデータ入力を行な・うことができるマ
ンマシンインターフェイスとなっている。
(Prior Art) Conventionally, when directly inputting data into an information processing device such as a computer, for example, a keyboard, mouse, or tablet is used. Furthermore, in recent years, an integrated display/input device is sometimes used, which is constructed by overlapping a display device such as a flat liquid crystal display (LCD) and a transparent tablet for inputting coordinates. In an integrated display input device, electrodes are arranged in a matrix in a transparent tablet, and a position indicated by a stylus pen can be detected with high accuracy. The locus of the position indicated by the stylus pen is displayed on the display. Therefore, while visually checking the content displayed on the display, anyone can use the stylus pen to write letters on the tablet as if they were using paper and pencil, making data entry easy for anyone. It is a man-machine interface that allows you to perform the following tasks.

この種、一体型表示入力装置を備えた情報処理装置にお
いて、文書や伝票作成のために文字の入力を行なう場合
には、次のような方式がとられている。
In this kind of information processing apparatus equipped with an integrated display/input device, the following method is used when inputting characters to create a document or a slip.

まず、第1の方式としては、タブレットに文字を筆記す
るだめの領域を設定し(表示装置に領域範囲を示す枠等
の表示を行なう)、その領域内で筆記された文字の座標
データ系列(文字パターン)について文字認識処理を行
ない、その結果を画面中の所定の領域に表示するもので
ある。この時、例えば表示された認識結果が正しくない
場合には、丁寧に文字を筆記するなどして再度入力する
必要がある。文字認識処理の結果は、筆記入力された文
字パターンに替えて、同一位置に表示される。
First, the first method is to set an area on the tablet in which characters are to be written (display a frame, etc. that indicates the area range on the display device), and then set the coordinate data series ( It performs character recognition processing on a character pattern) and displays the results in a predetermined area on the screen. At this time, for example, if the displayed recognition result is incorrect, it is necessary to carefully write the characters and input them again. The result of the character recognition process is displayed at the same position in place of the handwritten character pattern.

また、第2の方式としては、画面中に入力対象とする全
文字のキーを含むソフトキーボードを表示し、所望する
文字のキーをスタイラスペンにょって指示することで、
文字を入力するものである。
The second method is to display a soft keyboard containing keys for all the characters to be input on the screen, and use a stylus to indicate the key for the desired character.
It is used to input characters.

この第2の方式の場合も、指示されたキーの文字を所定
の領域に表示するようにしている。
In the case of this second method as well, the characters of the designated key are displayed in a predetermined area.

(発明が解決しようとする課題) このように、第1の方式では、筆記した文字パターンに
ついての文字認識の結果が誤りの場合には、再度入力を
行なう必要があった。このため、特に画数の多い文字が
誤認識された場合には、書き直しのために時間を要し、
入力効率を低減させてしまうという問題があった。
(Problems to be Solved by the Invention) As described above, in the first method, if the result of character recognition for a written character pattern is incorrect, it is necessary to perform input again. Therefore, if a character with a particularly large number of strokes is misrecognized, it will take time to rewrite it.
There was a problem that input efficiency was reduced.

また、第2の方式では、使用するソフトキーボードが入
力対象とする全文字を含んでいるため、表示の際に広い
占有面積を必要としていた。このため、他に表示可能な
領域が限定される、または先に表示されていた内容がソ
フトキーボードによって隠れてしまうことがあった。従
って、先に入力済みのデータ等を参照しながらデータ入
力を行なうことができない場合あり、入力効率を低下さ
せてしまう場合があった。
Furthermore, in the second method, since the soft keyboard used includes all the characters to be input, a large occupied area is required for display. For this reason, other displayable areas may be limited, or previously displayed content may be hidden by the soft keyboard. Therefore, it may not be possible to input data while referring to previously input data, which may reduce input efficiency.

さらに、何れの方式も入力された文字を所定の領域に表
示するたけであるため、に認識、誤入力された場合に気
かつかないことがあった。
Furthermore, since either method only displays input characters in a predetermined area, it may not be noticed if the characters are recognized or input incorrectly.

本発明は前記のような点に鑑みてなされたもので、効率
的に正値なデータ入力を行なうことか可能なデータ入力
方式を提供することを目的とする。
The present invention has been made in view of the above-mentioned points, and an object of the present invention is to provide a data input method that allows efficient data input of positive values.

[発明の構成コ (課題を解決するための手段) 本発明は、表示装置の表示面に透明な座標情報入力用の
タブレットを重ねて一体化して構成された一体型表示入
力装置と、前記タブレットにおける座標情報の入力範囲
を示すと共に、入力された内容を前記表示装置に表示す
るための第1入力領域を設定する第1設定手段と、前記
第1設定手段によって設定された第1入力領域に対応し
て入力された座標情報に基づいて文字認識処理を行なう
認識処理手段と、前記認識処理手段によって17られた
認識結果から、座標情報か入力された第1入力領域に表
示すべき入力文字を決定する第1決定手段と、前記第1
決定手段によって決定された文字を、第1入力領域に表
示する第1表示手段とを具備して構成するものである。
[Structure of the Invention (Means for Solving the Problems) The present invention provides an integrated display/input device configured by overlapping and integrating a transparent tablet for inputting coordinate information onto a display surface of a display device, and a first setting means for setting a first input area for indicating an input range of coordinate information and displaying the input contents on the display device; A recognition processing means that performs character recognition processing based on the correspondingly inputted coordinate information, and an input character to be displayed in the first input area where the coordinate information is inputted from the recognition result obtained by the recognition processing means. a first determining means for determining; and said first determining means;
The first display means displays the character determined by the determination means in the first input area.

また本発明は、表示装置の表示面に透明な座標情報入力
用のタブ1ノツトを重ねて一体化して構成された一体型
表示入力装置と、前記タブレ・ソトにおける座標情報の
入力範囲を示すと共に、入力された内容を前記表示装置
に表示するための第1入力領域を設定する第1設定手段
と、前記第1設定手段によって設定された第1入力領域
に対応する座標情報が入力された際に、前記タブレット
における座標情報の入力範囲を示すと共に入力されるデ
ータの内容を示すものであって、データの内容を2次元
配列としたときの1行、1列にそれぞれ対応する行領域
1列領域からなる第2入力領域を設定する第2設定手段
と、前記第2設定手段によって設定された第2入力領域
の前記行領域、及び前記列領域に対応する座標情報に応
じて、前記第1入力領域に表示すべき入力文字を決定す
る第2決定手段と、前記第2決定手段によって決定され
た文字を、第1入力領域に表示する第2表示手段とを具
備して構成するものである。
The present invention also provides an integrated display input device configured by overlapping and integrating a transparent tab for inputting coordinate information on the display surface of the display device, and an input range of coordinate information in the tablé soto. , a first setting means for setting a first input area for displaying input contents on the display device; and when coordinate information corresponding to the first input area set by the first setting means is input. , which shows the input range of coordinate information on the tablet and the contents of the data to be input, and one column of row areas corresponding to the first row and the first column when the data contents are a two-dimensional array. a second setting means for setting a second input area consisting of an area; and a second setting means for setting a second input area consisting of an area; The apparatus comprises a second determining means for determining input characters to be displayed in the input area, and a second display means for displaying the characters determined by the second determining means in the first input area. .

(作用) このような構成によれば、入力された座標情報に基づい
t二文字認識処理によって得られた候補文字から、第1
入力領域に表示すべき正し1文字を効率的に得ることが
できる。
(Operation) According to such a configuration, the first character is selected from the candidate characters obtained by the two-character recognition process based on the input coordinate information
One correct character to be displayed in the input area can be efficiently obtained.

また、データの内容を2次元配列としたときの1行、1
列にそれぞれ対応する行領域1列領域力1らなる第2入
力領域を用いるので、表示の際に広い占有面積を必要と
せず、入力効率を低下を招くことがない。
Also, when the data content is a two-dimensional array, one row, one
Since a second input area consisting of one row area and one column area corresponding to each column is used, a large occupied area is not required for display, and input efficiency does not deteriorate.

(実施例) 以下、図面を参照して本発明の一実施例を説明する。第
2図は同実施例に係わる一体型表示入力装置を備えた情
報処理装置の外観構成を示す斜視図である。第2図にお
いて、装置筺体1の上面部に一体型表示入力装置2が設
けられている。
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings. FIG. 2 is a perspective view showing the external configuration of an information processing device equipped with an integrated display and input device according to the same embodiment. In FIG. 2, an integrated display/input device 2 is provided on the top surface of the device housing 1. As shown in FIG.

体型表示入力装置2は、LCD (液晶デイスプレィ)
と座標入力用の透明タブレ・ントとを積層一体型にして
構成されたもので、同一座標面で表示、及びデータ入力
を行なうことができるものである。
The body shape display input device 2 is an LCD (liquid crystal display).
It is constructed by integrally laminating a transparent tablet for inputting coordinates and displaying data on the same coordinate plane.

図中3は、スタイラスペンであり、一体型表示入力装置
2のタブレット上の任意座標位置を指示するために用い
られるものである。スタイラスペン3には、タブレット
面との接触を検知するスイッチか内臓されている。この
スイッチの検知結果は、装置筺体1の内部に設けられた
処理機能部に、コード4を介して通知される。一体型表
示入力装置2、及びスタイラスペン3は、処理機能部(
CPU21等、後述する)によって制御される。
3 in the figure is a stylus pen, which is used to indicate an arbitrary coordinate position on the tablet of the integrated display input device 2. The stylus pen 3 has a built-in switch that detects contact with the tablet surface. The detection result of this switch is notified to a processing function section provided inside the device housing 1 via the code 4. The integrated display input device 2 and the stylus pen 3 have a processing function section (
It is controlled by the CPU 21 (described later).

第3図は同実施例における情報処理装置の平面図であり
、第4図は側面断面図である。第3図及び第4図に示す
ように、一体型表示入力装置2は、透明タブレット6と
LCD7とが積層一体型にして構成されている。なお、
第3図には、LCD7にメニューアイコンが表示された
状態を示している。
FIG. 3 is a plan view of the information processing apparatus in the same embodiment, and FIG. 4 is a side sectional view. As shown in FIGS. 3 and 4, the integrated display/input device 2 is constructed by integrally laminating a transparent tablet 6 and an LCD 7. In addition,
FIG. 3 shows a state in which menu icons are displayed on the LCD 7.

第5図はスタイラスペン3に内臓されたスイッチの構成
を示す断面図である。第5図に示すように、定常状態に
おいては、スタイラスペン軸1o内のペン先IIは、ス
プリングI2によって電極13部分が非接触状態(スイ
ッチオフ)になっている。スタイラスペン3を用いて文
字の筆記1位置指示(クリック)等を行なう場合には、
ペン先11かスプリング12による力に反し2て押され
、電極13部分が接触状態(スイッチオン)となる。こ
の接触(スイッチオン)、非接触(スイッチオフ)の情
報(スイッチ情報)によって、アイコン指示1文字の筆
記等が透明タブレット6の座標検出有効範囲内において
行なわれていることを検出する。なお、オン、オフ状態
については、透明タブレット6の座標検出有効範囲内に
存在するしないに関係なく、後述するタブレットコント
ローラ27を介してCPU21に通知される。
FIG. 5 is a sectional view showing the structure of a switch built into the stylus pen 3. As shown in FIG. As shown in FIG. 5, in a steady state, the electrode 13 of the pen tip II in the stylus pen shaft 1o is in a non-contact state (switched off) by the spring I2. When using the stylus pen 3 to indicate (click) the first position of a character,
The pen tip 11 is pushed against the force of the spring 12, and the electrode 13 portion is brought into contact (switched on). Based on this contact (switch-on) and non-contact (switch-off) information (switch information), it is detected that the writing of one character of the icon instruction is being performed within the coordinate detection effective range of the transparent tablet 6. Note that the on/off state is notified to the CPU 21 via the tablet controller 27, which will be described later, regardless of whether the transparent tablet 6 is within the effective coordinate detection range.

第6図は情報処理装置の内部構成を示すプロ・ンク図で
ある。一体型表示入力装置2を構成する透明タブレット
6は、ガラス製の板の中に、互いに直交するX、Y方向
に透明電極かマトリクス状に配線されている。これらの
電極には順次パルス電圧が印加され、スタイラスペン3
によって指示されたXY座標位置が静電結合により検出
される。
FIG. 6 is a block diagram showing the internal configuration of the information processing device. The transparent tablet 6 constituting the integrated display/input device 2 has transparent electrodes wired in a matrix in the X and Y directions perpendicular to each other in a glass plate. A pulse voltage is sequentially applied to these electrodes, and the stylus pen 3
The XY coordinate position indicated by is detected by capacitive coupling.

詳細については後述する。透明タブレット6、及びスタ
イラスペン3は、タブレットコントローラ27(後述す
る)によって制御され、LCD7は、LCDコントロー
ラ25(後述する)によって制御される。
Details will be described later. The transparent tablet 6 and stylus pen 3 are controlled by a tablet controller 27 (described later), and the LCD 7 is controlled by an LCD controller 25 (described later).

21はCPUであり、情報処理装置全体の制御を司るも
のである。22はRAMであり、リード/ライト可能な
メモリで、CPU2]の動作を規定するプログラム、及
び各種データを格納するためのものである。RAM22
には、LCD7に表示されるソフトウェアキーボードに
関する情報(表示情報、位置情報等)、透明タブレット
6上における筆記によって入力されたパターン等、各種
情報を格納するためのものである。23はROMであり
、読出し専用のメモリで情報処理装置の電源投入後の診
断プログラム、情報処理装置を立ち上げるためのブート
プログラム等が格納されている。24はVRAMであり
、表示情報を格納するためのビットマツプメモリである
。25はLCDコントローラであり、VRAM24から
LCD7への表示情報転送、CPU21からVRAM2
4への表示情報転送等の表示制御を司るものである。2
7はタブレットコントローラであり、透明タブレット6
のX及びY電極のスキャン、スタイラスペン3によって
指示された位置の電圧検出(静電結合方式)、XY座標
データの生成、及びCPU2+へのXY座標データの送
信等、一連のタブレット制御を司るものである。29は
外部インターフェイスであり、必要に応じて本装置と外
部装置とのデータのやりとりを行なうためのインターフ
ェイスである。
21 is a CPU, which controls the entire information processing device. Reference numeral 22 denotes a RAM, which is a readable/writable memory and is used to store programs that define the operation of the CPU 2 and various data. RAM22
is for storing various information such as information regarding the software keyboard displayed on the LCD 7 (display information, position information, etc.), patterns input by handwriting on the transparent tablet 6, etc. Reference numeral 23 denotes a ROM, which is a read-only memory that stores a diagnostic program after the information processing device is powered on, a boot program for starting up the information processing device, and the like. 24 is a VRAM, which is a bitmap memory for storing display information. 25 is an LCD controller, which transfers display information from VRAM 24 to LCD 7, and from CPU 21 to VRAM 2.
It is in charge of display control such as display information transfer to 4. 2
7 is a tablet controller, which is a transparent tablet 6
Controls a series of tablet controls, such as scanning the X and Y electrodes of the computer, detecting voltage at the position indicated by the stylus pen 3 (capacitive coupling method), generating XY coordinate data, and transmitting the XY coordinate data to the CPU 2+. It is. Reference numeral 29 denotes an external interface, which is used to exchange data between the present device and an external device as necessary.

第7図は一体型表示入力装置を備えた情報処理装置の動
作を説明するための概略構成図である。
FIG. 7 is a schematic configuration diagram for explaining the operation of an information processing apparatus equipped with an integrated display and input device.

同実施例における情報処理装置は、オンライン文字認識
方式を採用しており、スタイラスペン3によって透明タ
ブレット6上で文字が手書きされると文字のストローク
を示す座標データを入力し、この座標データに基づいて
文字認識処理を行なう。
The information processing device in this embodiment adopts an online character recognition method, and when a character is handwritten on a transparent tablet 6 with a stylus pen 3, coordinate data indicating the stroke of the character is input, and based on this coordinate data, Performs character recognition processing.

文字のストローク等を示す座標データは、座標入力部3
0(透明タブレット6、スタイラスペン3、及びタブレ
ットコントローラ27を含む)がら入力される。座標入
力部30は、平面状に形成されたタブレット上における
ペン(図示せず)の指示位置に基づいて座標データを生
成する。座標入力部30には、同入力部30から入力さ
れた文字のストロークを示す位置座標の系列をもとに文
字の認識等を行なう処理制御部31(CPU21、RA
M22、ROM23、及び外部インターフェイス29を
含む)が接続されている。処理制御部31には、同制御
部31において認識された文字等を表示する表示部32
(LCD7 、LCDコントローラ25、及びVRAM
24を含む)、及び処理制御部31における文字認識処
理に必要な認識辞書データ等を格納する記憶装置やプリ
ンタ装置等の外部周辺装置33(図示せず)が接続され
ている。
Coordinate data indicating strokes of characters, etc. is input to the coordinate input section 3.
0 (including the transparent tablet 6, stylus pen 3, and tablet controller 27). The coordinate input unit 30 generates coordinate data based on a position indicated by a pen (not shown) on a flat tablet. The coordinate input unit 30 includes a processing control unit 31 (CPU 21, RA
M22, ROM23, and external interface 29) are connected. The processing control unit 31 includes a display unit 32 that displays characters recognized by the control unit 31.
(LCD 7, LCD controller 25, and VRAM
24), and an external peripheral device 33 (not shown) such as a storage device or a printer device that stores recognition dictionary data necessary for character recognition processing in the processing control section 31.

座標入力部30の透明タブレット6と表示部32のLC
D7は、第8図に示すように、同一寸法の同じ座標面を
有するものである。透明タブレット6とLCD7は、処
理制御部31上に積層状に一体化して形成される。した
がって、表示部32に表示された情報は、透明タブレッ
トから座標入力部3oを通して視認できるものとなって
いる。
The transparent tablet 6 of the coordinate input section 30 and the LC of the display section 32
As shown in FIG. 8, D7 has the same dimensions and the same coordinate plane. The transparent tablet 6 and the LCD 7 are integrally formed in a laminated manner on the processing control section 31. Therefore, the information displayed on the display section 32 can be visually recognized from the transparent tablet through the coordinate input section 3o.

ここて、座標入力部30の詳細について説明する。Here, details of the coordinate input section 30 will be explained.

座標入力部30において用いられる静電結合型の透明タ
ブレット6は、例えば第9図に示すように構成されてい
る。すなわち、透明タブレット6は、一対の透明ガラス
板6a、 6bが図示しない絶縁保護膜を介して接合さ
れている。透明ガラス板6a、 6bには、それぞれ複
数本の透明電極Be、 6dか所定の間隔で平行に配設
されている。透明ガラス板Ga。
The capacitively coupled transparent tablet 6 used in the coordinate input section 30 is configured as shown in FIG. 9, for example. That is, the transparent tablet 6 has a pair of transparent glass plates 6a and 6b joined together via an insulating protective film (not shown). A plurality of transparent electrodes Be, 6d are arranged in parallel at predetermined intervals on the transparent glass plates 6a, 6b, respectively. Transparent glass plate Ga.

6bは、透明電極6c、 6dが互いに直交するように
接合されている。そして、透明電極6c、 6dは、第
10図に示すように、それぞれシフトコントローラ27
eの制御を受けて動作するシフトレジスタ27f 、 
27gに接続されている。
6b, transparent electrodes 6c and 6d are joined so as to be perpendicular to each other. The transparent electrodes 6c and 6d are connected to a shift controller 27, respectively, as shown in FIG.
A shift register 27f operating under the control of e,
Connected to 27g.

具体的な動作としては、次のようになる。The specific operation is as follows.

まず、水平方向の座標を検出する場合には、シフトレジ
スタ27fに接続された透明電極6Cに、端から順次所
定の電圧が印加される。電圧の印加されている電極がス
タイラスペン3に近づくと、透明電極6cとスタイラス
ペン3との間で形成される静電容量によってスタイラス
ペン3に静電誘導電圧が銹起される。この静電誘導電圧
を増幅器27jを介して増幅し、フィルタ27kを介し
て高周波成分を除去することによって安定な指示位置検
出信号とし、カウンタ27hに与えられる。カウンタ2
71〕は、透明電極6cのうち最も原点側に位置する電
極に所定の電圧が印加されたときにカウントを開始し、
ある一定値以上の指示位置検出信号が入力されたときに
カウントを終了する。このような動作を行なうことによ
って、スタイラスペン3の座標を時間に換算して検出す
る。水平方向の座標i’TFI定が終了すると、垂直方
向の座標測定が開始される。垂直方向の座標測定では、
水平方向の座標測定と同様にシフトレジスタ27gに接
続された透明電極6dに端から順次所定の電圧が印加さ
れ、スタイラスペン3によって検出された静電誘導電圧
から増幅器27j1及びフィルタ27kによって指示位
置検出信号を生成し、カウンタ27hによって座標を検
出する。
First, when detecting coordinates in the horizontal direction, a predetermined voltage is sequentially applied to the transparent electrode 6C connected to the shift register 27f from the end. When the electrode to which voltage is applied approaches the stylus pen 3, an electrostatically induced voltage is generated in the stylus pen 3 due to the capacitance formed between the transparent electrode 6c and the stylus pen 3. This electrostatically induced voltage is amplified via an amplifier 27j and a high frequency component is removed via a filter 27k to provide a stable indicated position detection signal, which is then applied to a counter 27h. counter 2
71] starts counting when a predetermined voltage is applied to the electrode located closest to the origin among the transparent electrodes 6c,
Counting ends when a designated position detection signal of a certain value or more is input. By performing such an operation, the coordinates of the stylus pen 3 are detected in terms of time. When the horizontal direction coordinate i'TFI determination is completed, the vertical direction coordinate measurement is started. For vertical coordinate measurements,
Similar to the horizontal coordinate measurement, a predetermined voltage is sequentially applied to the transparent electrode 6d connected to the shift register 27g from the end, and the indicated position is detected from the electrostatic induced voltage detected by the stylus pen 3 by the amplifier 27j1 and the filter 27k. A signal is generated and the coordinates are detected by the counter 27h.

スタイラスペン3を用いて透明タブレット上に文字等を
筆記した場合には、その筆記ストロークを示す情報がス
タイラスペン3による指示位置のつながり、つまり指示
された位置座標のつながり(位置座標の系列)として入
力されることになる。
When writing characters, etc. on a transparent tablet using the stylus pen 3, information indicating the writing stroke is stored as a connection between the positions indicated by the stylus pen 3, that is, a connection between the indicated position coordinates (series of position coordinates). It will be entered.

このようにして、座標入力部30を介して筆記入力され
た文字の情報、つまり位置座標の系列は処理制御部31
を介して表示部32に与えられる。そして、位置座標の
系列に従って、後述するように表示部32の同一座標が
表示駆動されるようになっている。この表示制御によっ
て、透明タブレット面上に筆記された文字がその筆記の
軌跡として同時表示され、あたかもスタイラスペン3を
用いて紙面に文字を記入するごとく文字情報の入力が行
なわれるようになっている。
In this way, the information on the characters input by hand via the coordinate input unit 30, that is, the sequence of position coordinates, is transferred to the processing control unit 31.
is provided to the display section 32 via the. Then, according to the series of position coordinates, the same coordinates on the display section 32 are driven to be displayed as described later. Through this display control, characters written on the transparent tablet surface are simultaneously displayed as the trajectory of the writing, and character information is input as if writing characters on a paper surface using the stylus pen 3. .

次に、処理制御部31のメモリ部(RAM22、ROM
23)の内容を第11図に示している。第11図に示す
ように、各種処理を行なうためのプログラムが格納され
た処理部40a〜40e 、及び各種データを保持する
データバッファ40r〜401により構成されている。
Next, the memory section (RAM22, ROM
23) is shown in FIG. As shown in FIG. 11, it is comprised of processing units 40a-40e storing programs for performing various processes, and data buffers 40r-401 holding various data.

すなわち、各種処理を行なう処理部40a〜40eには
、座標入力部30からのデータを入力する入力部40a
1文字認識処理を行なう認識処理部40b1座標入力部
30からの座標データが何れの領域(後述する)を示す
ものであるかを判別する領域111別処理部40c、指
定された領域に対応するガイド表示を行なうためのデー
タを取得するガイド表示データ抽出処理部40d1及び
表示部32への表示制御を行なう表示制御部40eが設
すられている。また、各種データを保持するデータバッ
ファ40f〜401には、座標入力部30において指定
された指示位置の座標を格納する位置データバッファ4
0「、ペンの状態(オン、オフ)ヲ保持するペン状態デ
ータバッファ40g、ガイド表示を行なうためのデータ
やソフトキーボード等の表示データを格納するガイドデ
ータバッファ4[1h 。
That is, the processing units 40a to 40e that perform various processes include an input unit 40a that inputs data from the coordinate input unit 30.
A recognition processing section 40b that performs single character recognition processing, a region 111-specific processing section 40c that determines which region (described later) the coordinate data from the coordinate input section 30 indicates, and a guide corresponding to the specified region. A guide display data extraction processing section 40d1 that acquires data for display and a display control section 40e that controls display on the display section 32 are provided. Further, the data buffers 40f to 401 that hold various data include a position data buffer 4 that stores the coordinates of the indicated position specified in the coordinate input section 30.
0'', a pen status data buffer 40g that holds the pen status (on, off), and a guide data buffer 4 [1h that stores data for performing guide display and display data such as a soft keyboard.

手書き入力された文字の認識を行なうための辞書データ
を一時保持する辞書データバッファ401各領域に関す
る情報を格納する領域データバッファ40j1出力され
るデータを保持する出力バッファ40k、文字認識処理
か行なわれる領域に関するデータが格納される認識枠デ
ータバッファ40及び数値データか格納される数値デー
タバッファ40mか設けられている。
A dictionary data buffer 401 that temporarily holds dictionary data for recognizing handwritten characters, an area data buffer 40j that stores information regarding each area, an output buffer 40k that holds output data, and an area where character recognition processing is performed. A recognition frame data buffer 40 in which related data is stored and a numerical data buffer 40m in which numerical data is stored are provided.

さらに、領域データバッファ40jには、各領域に関す
るデータをそれぞれ独立して格納するための領域データ
バッファ40J1〜40 、i 4か設けられている。
Further, the area data buffer 40j is provided with area data buffers 40J1 to 40 and i4 for independently storing data regarding each area.

ここでは、4つの領域A−Dについての各種情報を格納
するための領域が設けられている。δ領域データバッフ
ァ40j1〜40j4は、第12図に示すように、領域
の位置を示す座標データが格納される領域座標X始点デ
ータバッファ41a、領域座標Y始点データバッファ4
1b 、領域座標X終点データバッファ41c  領域
座標Y終点データバッファ41d、及び領域に関する属
性データを格納するための領域属性データバッファ41
. cが設けられている。領域属性データバッファ41
eには、領域に対して入力された座標データについて手
書き入力処理を行なうか否かを指定するデータ(文字認
識処理を行なうか否かを指定するデータを含む)を格納
するための領域処理属性データバッファ41e1、手書
き入力処理において文字認識処理を実行する場合に用い
られる辞書データを指定するデータを格納するための認
識属性データバッファ41e2、領域に対しての項目内
容か入力済みであるか否かを示す入力完了フラグ41e
3が設けられている。
Here, areas are provided for storing various information regarding the four areas A to D. As shown in FIG. 12, the δ area data buffers 40j1 to 40j4 include an area coordinate X starting point data buffer 41a and an area coordinate Y starting point data buffer 4 in which coordinate data indicating the position of an area is stored.
1b, area coordinate X end point data buffer 41c, area coordinate Y end point data buffer 41d, and area attribute data buffer 41 for storing attribute data regarding the area.
.. c is provided. Area attribute data buffer 41
e is an area processing attribute for storing data specifying whether or not to perform handwriting input processing on the coordinate data input to the area (including data specifying whether or not to perform character recognition processing). Data buffer 41e1, recognition attribute data buffer 41e2 for storing data specifying dictionary data used when executing character recognition processing in handwritten input processing, whether or not the item contents for the area have been input. Input completion flag 41e indicating
3 is provided.

さらに、認識枠データバッファ401には、タブレット
上で手書き入力された座標データをもとに文字認識処理
が行なわれる各領域に関するデータを、それぞれ独立し
て格納するための領域データバッファ4011〜401
3か設けられている。ここでは、文字認識処理の対象と
なる領域A、B、及び数値データが入力される領域Cに
ついての各種情報を格納するための領域が設けられてい
る。各領域データバッファ4011〜4013は、第1
3図に示すようこ、領域内に設けられる枠の個数を示す
データが格納される伜個数データバッファ42a1領域
内に設けられた6枠(個数n個)の位置を示す座標デー
タが格納される領域座標X始点データバッファ42bl
〜42bn、領域座標Y始点データバッファ 42cl
〜42cns領域座標X始点データバッファ42d1〜
42dn、領域座標Y始点データバッファ 42el〜
42en。
Furthermore, the recognition frame data buffer 401 includes area data buffers 4011 to 401 for independently storing data regarding each area in which character recognition processing is performed based on coordinate data handwritten on the tablet.
There are three. Here, areas are provided for storing various information regarding areas A and B that are the targets of character recognition processing, and area C that receives numerical data. Each area data buffer 4011 to 4013 has a first
As shown in Figure 3, there is a number data buffer 42a1 in which data indicating the number of frames provided in the area is stored, and an area in which coordinate data indicating the positions of 6 frames (number n) provided in the area is stored. Coordinate X starting point data buffer 42bl
~42bn, area coordinate Y starting point data buffer 42cl
~42cns area coordinates X starting point data buffer 42d1~
42dn, area coordinate Y starting point data buffer 42el~
42 en.

及び文字認識処理の結果が格納される認識結果データバ
ッファ 42rl〜42「nが設けられている。
and recognition result data buffers 42rl to 42'n in which the results of character recognition processing are stored.

次に、文字情報を入力する際の処理手順について、第1
4図に示すフローチャートを参照しながら説明する。
Next, the first step is to explain the processing procedure when inputting character information.
This will be explained with reference to the flowchart shown in FIG.

まず、装置の電源が投入されると、例えば第15図に示
すような初期画面の表示を表示部32において行なう(
ステップAI)。この初期画面では、伝票形式の複数の
項目名、及び各項目名に対応する記入枠が表示される。
First, when the device is powered on, an initial screen as shown in FIG. 15 is displayed on the display unit 32 (
Step AI). On this initial screen, a plurality of item names in the slip format and entry frames corresponding to each item name are displayed.

すなわち、項目名には氏名記入欄を示す「おなまえ」、
「年齢」、住所を示す「おところ」が設けられている。
In other words, the item name includes "Name", which indicates a field for entering the name,
There is a ``Odokoro'' that indicates ``age'' and address.

さらに氏名記入欄には、漢字、及びフリガナによる記入
欄が設けられている。ここでは、漢字による氏名記入欄
を領域A1フリガナによる氏名記入欄を領域B1年齢記
入欄を領域C1住所記入欄を・領域りとする。また、領
域Aについては漢字の手書き文字りご識処理、領域Bに
ついてはカタカナの手書き文字認識処理、領域Cについ
ては後述するソフトテンキーによる入力、領域りについ
ては筆跡表示(文字等のイメージパターンのまま)処理
を行なうように設定されているものとする。
Furthermore, the name entry field includes fields for writing in kanji and furigana. Here, the name entry column in kanji is A1, the name entry column in furigana is A1, the age entry column is B1, and the address entry column is C1. In addition, for area A, kanji handwritten character recognition processing, for area B, katakana handwritten character recognition processing, for area C, input using the soft numeric keypad (described later), and for area 1, handwriting display (image pattern of characters etc.) It is assumed that the settings are set to perform processing (as is).

このような、各領域A−Dについての情報は、処理制御
部31内の領域データバッファ40j、及び認識枠デー
タバッファ401に予め設定されている。
Such information about each area A to D is set in advance in the area data buffer 40j and the recognition frame data buffer 401 in the processing control unit 31.

すな4ツち、領域位置を示す座標、処理属性、及び認識
属性のデータは、領域データバッファ40j中のそれぞ
れの領域に利応する領域データバッファ40j1 〜4
0j4に格納されている。また、領域A。
In other words, the coordinates indicating the area position, the processing attribute, and the recognition attribute data are stored in area data buffers 40j1 to 40j corresponding to each area in the area data buffer 40j.
It is stored in 0j4. Also, area A.

B内に設けられている枠の個数、枠位置を示す座標は、
認詭枠データバッファ401中の各領域の領域データバ
ッファ4011.、4012に格納されている。
The number of frames provided in B and the coordinates indicating the frame positions are:
Area data buffer 4011 for each area in the approval frame data buffer 401. , 4012.

表示制御部40cは、各領域データバッファに格納され
たデータに基づいて、初期画面の表示制御を行なう。
The display control unit 40c controls the display of the initial screen based on the data stored in each area data buffer.

こうして、初期画面の表示が行なわれると、入力部4.
0 aは、入力待ち状態となる。つまり、座標入力部3
0の透明タブレット面上をスタイラスペン3によって指
示され、座標データが検出されたか否かを調べる(ステ
ップA2)。入力部40aは、座標データが入力された
ことを検出すると、この座標データを位置データバッフ
ァ40「に格納すると共に、スタイラスペン3の状態(
オンかオフか等)を示すデータをペン状態データバッフ
ァ 40gに格納する(ステップA3.A4)。座標デ
ータとペン状態を示すデータが所定のバッファ40f4
0gに格納されると、領域判別処理部40cは、位置デ
ータバッファ40fに格納された座標データと、領域デ
ータバッファ40jに格納された領域の位置を示す座標
データをもとに、スタイラスペン3によって指定された
位置かどの領域に含まれるかを判別する。そして、入力
した座標データが、領域A−Dのうちの何れかに含まれ
ていると判別されると、その領域に関する情報を領域属
性データバッファ41. eから取り出す(ステップA
5)。領域判別処理部40cは、領域処理属性データハ
ソファ41elに格納されていた処理属性データより、
スタイラスペン3によって指示された領域が、手書き入
力処理を行なう対象であるか否かを判別する(ステップ
A、6)。領域判別処理部40cは、スタイラスペン3
によって指示された領域が手書き入力処理を行なう対象
であるか否かの判別結果を入力部40aに対して通知す
る。すなわち、指定された領域が手書き入力処理の対象
でない場合は手書き入力状態をオフし、手書き入力処理
の対象である場合は手書き入力待ち状態(オン)にする
(ステップA7.A8)。同実施例においては、領域A
、B、Dが指定された場合に、手書き入力処理状態に設
定する。さらに、指定された領域が手書き入力処理の対
象とする場合、領域判定処理部40cは、領域処理属性
データより、手書き文字認識処理を行なうかを判定する
(ステップA9)。
When the initial screen is displayed in this way, the input section 4.
0a is in the input waiting state. In other words, the coordinate input section 3
0 on the transparent tablet surface with the stylus pen 3, and it is checked whether coordinate data is detected (step A2). When the input unit 40a detects that coordinate data has been input, it stores the coordinate data in the position data buffer 40' and also changes the state of the stylus pen 3 (
data indicating whether the pen is on or off, etc.) is stored in the pen state data buffer 40g (steps A3 and A4). Coordinate data and data indicating the pen state are stored in a predetermined buffer 40f4.
0g, the area determination processing unit 40c uses the stylus pen 3 to perform a Determine which area the specified position is included in. If it is determined that the input coordinate data is included in one of the areas A to D, information regarding that area is stored in the area attribute data buffer 41. Take out from e (step A
5). The area determination processing unit 40c uses the processing attribute data stored in the area processing attribute data hasher 41el.
It is determined whether the area designated by the stylus pen 3 is a target for handwriting input processing (step A, 6). The area determination processing unit 40c uses the stylus pen 3
The input unit 40a is notified of the determination result as to whether or not the area designated by is a target for handwriting input processing. That is, if the specified area is not a target of handwriting input processing, the handwriting input state is turned off, and if it is a target of handwriting input processing, it is set to a handwriting input waiting state (on) (steps A7 and A8). In the same example, area A
, B, and D are specified, the handwriting input processing state is set. Further, if the designated area is to be subjected to handwritten input processing, the area determination processing unit 40c determines whether handwritten character recognition processing is to be performed based on the area processing attribute data (step A9).

文字認識処理の対象とする領域である場合、領域判別処
理部40cは、属性データバッファ41e2に格納され
た認識属性データをもとに辞書データバッファ401に
格納されている属性(漢字、カタカナ等)に応じた辞書
データを取りだし、認識処理部40bに転送する(ステ
ップA10)。
If the area is a target area for character recognition processing, the area discrimination processing unit 40c selects the attributes (kanji, katakana, etc.) stored in the dictionary data buffer 401 based on the recognition attribute data stored in the attribute data buffer 41e2. The dictionary data corresponding to the data is taken out and transferred to the recognition processing section 40b (step A10).

そして、ガイド表示データ抽出処理部40dは、指示さ
れた領域に関する入力完了フラグ41c3のオン オフ
の判定を行なう(ステップA 11)。データの入力が
行なわれていない場合は、当然ながら入力完了フラグ4
1c3は、オフとなっており、そのまま各領域に応した
データ入力待ちとなる。ここで、入力完了フラグ41e
3がオンであり、指示された領域についてデータが入力
済みであると判定された場合には、ガイドデータバッフ
ァ40hに格納されているガイド表示を行なうためのガ
イドデータを取り出す。ガイド表示データ抽出処理部4
0dによって取り出されたガイドデータは出力バッファ
40kに転送される。表示制御部40cは、出力バッフ
740に内のガイドデータに基づいて、例えば第16図
(a)に示すような「押して下さい」というガイド表示
を行なう(ステップA12)。なお、第16図(a)に
示すガイド表示例は、領域りの場合について示している
。ここで、スタイラスペン3がオン状態である場合は(
ステップA13)、第16図(b)に示すように、この
領域に関する出力バッファ40にのデータをクリアする
(ステッブA14)と共に、ガイド表示をクリアする。
Then, the guide display data extraction processing unit 40d determines whether the input completion flag 41c3 for the designated area is on or off (step A11). If no data has been entered, of course the input completion flag 4
1c3 is off and continues to wait for data input corresponding to each area. Here, the input completion flag 41e
3 is on and it is determined that data has been input for the designated area, guide data for performing guide display stored in the guide data buffer 40h is taken out. Guide display data extraction processing section 4
The guide data extracted by 0d is transferred to the output buffer 40k. The display control unit 40c displays a guide message "Please press" as shown in FIG. 16(a), for example, based on the guide data in the output buffer 740 (step A12). Note that the guide display example shown in FIG. 16(a) is shown for the case of a region. Here, if the stylus pen 3 is on (
In step A13), as shown in FIG. 16(b), the data in the output buffer 40 regarding this area is cleared (step A14), and the guide display is cleared.

そして、人ツノ完了フラグ41e3をオフにする(ステ
ップA15)。ステップA13において、ペン状態かオ
フであり、入ツノ済みデータのクリアを行なわない場合
はステップA2に戻り、入力待ち状態となる。
Then, the human horn completion flag 41e3 is turned off (step A15). In step A13, if the pen state is off and the entered data is not to be cleared, the process returns to step A2 and enters the input waiting state.

そして、領域判定処理部40cによって指示位置か領域
A−Dの何れにあるかによる判定(ステップAIe〜A
19)に応じて、領域A−Dについての処理A−Dを実
行する(ステップA20〜23)。
Then, the area determination processing unit 40c determines whether it is in the designated position or in areas A to D (steps AIe to A
19), processes A to D regarding areas A to D are executed (steps A20 to A23).

ここで、領域Aについての処理を、第17図に示すフロ
ーチャートを参照しながら説明する。
Here, the processing for area A will be explained with reference to the flowchart shown in FIG.

まず、スタイラスペン3によって指定された位置が領域
A内であるならば、前記説明した手順に従って手書き入
力を行ない(ステップB1)、第18図(a)に示すよ
うに入力された座標位置(枠内)にあたかも紙面に書い
ているかのように筆跡を表示する(ステップB2)  
認識処理部40bは、入力された手書き文字の座標デー
タをもとに、認識枠データバッファ401中の領域Aデ
ータバッファ4011に格納された認識対象としている
枠の位置データ(枠座標の始点、終点)を取り出す(ス
テップB3)。認識処理部40bは、設定された辞書デ
ータを用いて、入力された手書き文字の座標データにつ
いて手書き文字認識処理(後述する)を行なう(ステッ
プB4)。認識処理部40bは、手書き文字認識処理の
結果(文字データ)を、領kA Aデータバッファ40
11中の認識対象としている枠の認識データバッファに
格納する(ステップB5)と共に、出力バッファ40k
に文字データを格納する。すなわち、第18図(a)に
示すように文字が筆記された場合は、認識データバッフ
ァ42r1に、漢字「山」の文字データが格納される。
First, if the position specified with the stylus pen 3 is within area A, handwriting input is performed according to the procedure described above (step B1), and the input coordinate position (frame Display the handwriting as if it were written on paper (Step B2)
Based on the coordinate data of the input handwritten character, the recognition processing unit 40b calculates the position data (start point, end point of the frame coordinates) of the frame to be recognized stored in the area A data buffer 4011 of the recognition frame data buffer 401. ) is taken out (step B3). The recognition processing unit 40b uses the set dictionary data to perform a handwritten character recognition process (described later) on the coordinate data of the input handwritten character (step B4). The recognition processing unit 40b stores the handwritten character recognition processing result (character data) in the area kA data buffer 40.
11 to the recognition data buffer of the frame to be recognized (step B5), and the output buffer 40k.
Store character data in . That is, when a character is written as shown in FIG. 18(a), the character data of the kanji character "yama" is stored in the recognition data buffer 42r1.

こうして、表示制御部40eは、tHカバッフ740k
に格納された文字データに基づいて、第18図(b)に
示すように、手書き文字認識処理の結果を表示する(ス
テップB6)。
In this way, the display control unit 40e controls the tH cover 740k.
Based on the character data stored in , the result of handwritten character recognition processing is displayed as shown in FIG. 18(b) (step B6).

なお、手書き文字認識による文字入力の方法以外に、例
えばソフトキーボードを用いることもできる。ソフトキ
ーボード、または手書き文字認識の何れを用いて入力を
行なうかは、例えば各領域毎に入力方法を予め設定して
おき、この設定内容に応して処理を切り替えるようにす
る。ソフトキーボードを用いたデータ入力の方法につい
ては後述する。
In addition to the character input method using handwritten character recognition, for example, a soft keyboard can also be used. As to whether input is to be performed using a soft keyboard or handwritten character recognition, the input method is set in advance for each area, for example, and the processing is switched depending on the settings. A method for inputting data using the soft keyboard will be described later.

領域Bについての処理も前記説明した領域Aについての
処理と同様にして行なわれるが、領域Bデータバッファ
40j中の認識属性データバッファ41e2に格納され
た認識属性データに応じてカタカナに関する辞書データ
が認識処理部40bに設定され、手書き文字認識処理が
行なわれる。この領域Bについての処理を行っている場
合の表示画面例を、第19図に示している。
The processing for area B is performed in the same manner as the processing for area A described above, but the dictionary data regarding katakana is recognized according to the recognition attribute data stored in the recognition attribute data buffer 41e2 in the area B data buffer 40j. It is set in the processing unit 40b, and handwritten character recognition processing is performed. FIG. 19 shows an example of a display screen when processing for area B is being performed.

また、領域りについての処理は、入力された手書き文字
の座標データ(イメージパターン)をそのまま表示し、
手書き文字認識処理を行なわない。
In addition, the area processing displays the coordinate data (image pattern) of the input handwritten characters as is,
Does not perform handwritten character recognition processing.

この領域りについての処理を行った場合の表示画面例を
、第20図に示している。
FIG. 20 shows an example of a display screen when processing for this area is performed.

ここで、前記以外のガイド表示を行なう領域Cについて
の処理を、第2]図に示すフローチャー1・を参照しな
がら説明する。
Here, processing for area C in which a guide display other than the above is performed will be described with reference to flowchart 1 shown in FIG.

まず、領域判別処理部40cによってスタイラスペン3
によって指定された位置か領域C内であると、判別され
ると、ペン状態データバッファ40gに格納されたペン
状態を示すデータに基づいてペン状態を判別する(ステ
ップCI)。ここで、ペン状態がオフであると判別され
ると、ガイド表示データ抽出処理部40dは、ガイドデ
ータバッファ40hに格納されている領域Cに対応する
がイドデータを取り出し、出力バッファ40kに転送す
る。
First, the area determination processing unit 40c determines whether the stylus pen 3
When it is determined that the position specified by is within area C, the pen state is determined based on data indicating the pen state stored in the pen state data buffer 40g (step CI). Here, if it is determined that the pen state is off, the guide display data extraction processing section 40d extracts the ID data corresponding to the area C stored in the guide data buffer 40h and transfers it to the output buffer 40k.

表示制御部40eは、出力バッファ40に内のガイドデ
ータに応じて、例えば第22図(a)に示すような「押
して下さい」というガイド表示を行なう(ステップC2
)。ステップCにおいて、ペン状態がオフである場合、
ガイド表示は行なわない。
The display control unit 40e displays a guide message "Please press" as shown in FIG. 22(a), for example, according to the guide data in the output buffer 40 (step C2).
). In step C, if the pen state is off,
No guide display is performed.

ここで、データを入力するためにペン状態がオンされる
と、ガイド表示データ抽出処理部40dは、ガイドデー
タバッファ40hに格納された、データの入力を行なう
ために用いられるソフトテンキーを示すガイドデータを
読み出し、出力バッファ40kに転送する。表示制御部
40eは、第22図(b)に示すように、領域Cの下部
の所定位置にソフトテンキーを表示する(ステップC4
)。ここで、スタイラスペン3がオン状態であり(ステ
ップC5)、ソフトテンキーの数字領域部分か指定され
ると、数値データを入力する(ステップC6)。すなわ
ち、スタイラスペン3によってソフトテンキーの領域が
指定されると、領域判別処理部40cは、ガイドデータ
バッファ40hに格納されているソフトテンキーの各数
字の領域を示す領域データをもとに、スタイラスペン3
による指示位置の座標が何れの数字を指定するものであ
るかを判別する。領域判別処理部40Cによって指定さ
れた数字が判別されると、その数値データが数値データ
バッファ40mに格納される。また、数値データバッフ
ァ40I11に格納された数値データに対応する文字デ
ータが出力バッファ40kに格納され、表示制御部40
eによって「年齢」を示す領域に設けられた3つの枠の
第1桁目に表示される(ステップC7)。こうして、ス
タイラスペン3によって数字を示す領域が指定されると
、数値データを順次最−ド位桁(第1桁)として数値デ
ータバッファ40mに格納すると共に、格納された数値
データに応じて第1桁目に表示を行なう。すなわち、先
に入力された数値データの表示は、順次桁上りする。こ
こで、入力された数値データか3桁を越えた場合(ステ
ップC8)は、数値データハソファ4011、及び領域
Cの6枠に表示されていた数字をクリアする(ステップ
C9)。そして、ソフトテンキーの終了を示す領域かス
タイラスペン3によって指定されると、ソフトテンキー
の表示をクリアし、領域Cについてのデータ入力を終了
する(ステップC1,0〜C11)。
Here, when the pen state is turned on to input data, the guide display data extraction processing unit 40d extracts the guide data stored in the guide data buffer 40h that indicates the soft numeric keypad used for inputting data. is read and transferred to the output buffer 40k. The display control unit 40e displays a soft numeric keypad at a predetermined position at the bottom of the area C, as shown in FIG. 22(b) (step C4).
). Here, when the stylus pen 3 is on (step C5) and the numeric area of the soft numeric keypad is specified, numerical data is input (step C6). That is, when the area of the soft numeric keypad is specified with the stylus pen 3, the area determination processing unit 40c specifies the area of the stylus pen based on the area data indicating the area of each number of the soft numeric keypad stored in the guide data buffer 40h. 3
It is determined which number is specified by the coordinates of the indicated position. When the designated number is determined by the area determination processing unit 40C, the numerical data is stored in the numerical data buffer 40m. Further, character data corresponding to the numerical data stored in the numerical data buffer 40I11 is stored in the output buffer 40k, and the display control unit 40
e is displayed in the first digit of the three frames provided in the area indicating "age" (step C7). In this way, when an area indicating a number is specified with the stylus pen 3, the numerical data is sequentially stored in the numerical data buffer 40m as the lowest digit (first digit), and the first digit is stored in the numerical data buffer 40m according to the stored numerical data. Display in the digit. That is, the display of the numerical data input earlier is carried up in sequence. Here, if the input numerical data exceeds 3 digits (step C8), the numerical data value sofa 4011 and the numbers displayed in the 6 frames of area C are cleared (step C9). When the area indicating the end of the soft numeric keypad is designated with the stylus pen 3, the display of the soft numeric keypad is cleared and data input for area C is ended (steps C1, 0 to C11).

次に、座標入力部30から透明タブレット6上で文字を
筆記することによって入力される文字を表示するまでの
処理手順を第23図に示すフローチャートを参照しなが
ら説明する。
Next, the processing procedure from the coordinate input unit 30 to displaying characters input by writing them on the transparent tablet 6 will be explained with reference to the flowchart shown in FIG. 23.

はじめに、処理制御部31は、データの入力を行なう場
合、入力データ格納用の各バッファ等を初期化する(ス
テップDI)。処理制御部31は、スタイラスペン3の
オン状態をチエツクする(ステップD2)。スタイラス
ペン3の状態がオンである場合は、座標入力部30から
入力されるスタイラスペン3による指示位置の座標デー
タを入力部40aに取り込み、位置データバッファ40
fに格納する(ステップD3)。この座標データの格納
は、1文字分の座標データの系列がすべて入力されたこ
とを示す区切りデータが、位置データバッファ40「に
通知されるまで行なわれる。すなわち、区切りデータは
、スタイラスペン3の状態がオフにされ、このオフ状態
がステップD2において判別されると位置データバッフ
ァ40rに通知されて格納される(ステップD4)。ま
た、1文字分の座標データの入力終了を、前記した処理
方法に加え、入力された座標データが、現在入力対象と
していた枠領域外の位置を示すものであるかによって判
別している。例えば、初期画面中に設けられた文字記入
位置を示す複数の枠のうち、現在入力対象としている枠
から他の枠に対して座標データの入力対象を変更した場
合に、先に入力対象としていた枠における1文字分の座
標データの入力が終了したものと判別するものである。
First, when inputting data, the processing control unit 31 initializes each buffer for storing input data (step DI). The processing control unit 31 checks whether the stylus pen 3 is on (step D2). When the state of the stylus pen 3 is on, the coordinate data of the position indicated by the stylus pen 3 inputted from the coordinate input section 30 is inputted into the input section 40a, and
f (step D3). This storage of coordinate data continues until the position data buffer 40 is notified of delimiter data indicating that all coordinate data sequences for one character have been input. When the state is turned off and this off state is determined in step D2, the position data buffer 40r is notified and stored (step D4).Furthermore, the input of coordinate data for one character is completed using the processing method described above. In addition, the input coordinate data is determined based on whether it indicates a position outside the frame area that is currently being input.For example, if the input coordinate data indicates a position outside the frame area that is currently the input target. Among these, when the coordinate data input target is changed from the current input target frame to another frame, it is determined that the input of coordinate data for one character in the previous input target frame has been completed. It is.

このようにして、座標データに基づく文字認識処理の認
識処理時間を短縮している。こうして、入力された1文
字分の座標データは、位置データバッファ40rに格納
されると共に出力バッファ40kに転送される。そして
、表示制御部40eによって、表示部32の所定位置に
筆記パターン情報として同時に表示される。
In this way, the recognition processing time of character recognition processing based on coordinate data is shortened. In this way, the input coordinate data for one character is stored in the position data buffer 40r and transferred to the output buffer 40k. Then, the display control section 40e simultaneously displays the information at a predetermined position on the display section 32 as writing pattern information.

こうして、位置データバッファ40fに1文字分の座標
データの系列が格納されると、認識処理部40bは、座
標データ系列の解析を行ない、文字認識処理を行なう(
ステップD6.D7)。
When the sequence of coordinate data for one character is thus stored in the position data buffer 40f, the recognition processing unit 40b analyzes the coordinate data sequence and performs character recognition processing (
Step D6. D7).

この文字認識処理は、例えば座標データの系列を各位置
座標データ間の距離からストロークの切れ目を判定して
筆記ストローク毎に分け、各筆記ストローク毎にその特
徴を表す方向を示す値の系列に変換して行なわれる。こ
こで、方向を示す値は、例えば第24図に示すように、
8方向(方向値)に量子化して与えられる。そして、各
軍記ストロークを示す座標データの系列が、どのような
方向値の系列で示されるがを求め、同一の向き(方向値
)が連続する場合には、それらの方向値を1つの方向値
で代表させることによりてデータを圧縮し、各筆記スト
ロークを示す位置座標データの方向値への変換か行なイ
っれる。このm子化によれば、例えば数字「3」は、第
25図に示すように、r252357Jという方向値と
して変換される。
This character recognition process, for example, divides a series of coordinate data into each written stroke by determining stroke breaks based on the distance between each position coordinate data, and converts each written stroke into a series of values indicating the direction representing its characteristics. It is done as follows. Here, the value indicating the direction is, for example, as shown in FIG.
It is quantized and given in eight directions (direction values). Then, find out what kind of direction value series represents the series of coordinate data indicating each military stroke, and if the same direction (direction value) continues, combine those direction values into one direction value. The data is compressed by representing each writing stroke, and the position coordinate data indicating each writing stroke is converted into a direction value. According to this m-child conversion, for example, the number "3" is converted as a direction value r252357J, as shown in FIG.

この処理によって、座標入力部30を介して筆記入力さ
れた文字を示す座標データか、その筆記ストローク毎に
方向値としてそれぞれ表現される。
Through this processing, coordinate data indicating a character input by hand via the coordinate input unit 30 or a direction value is expressed for each handwritten stroke.

認識処理部40bは、このようにして求められた方向値
列の情報と、記憶装置に格納された辞書データバッファ
40iを介して与えられる文字認識処理を行なうための
辞書データとを照合して文字の認識を行なう。なお、文
字認識処理に供される辞書データは、例えば第26図に
示すように、認識対象とする文字を構成するストローク
の特徴を方向値列で表現し、各文字を構成するストロー
ク数毎に分類して各文字コードに対応づけて構成されて
いる。認識処理部40bは、このような辞書データを参
照し、筆記入力された文字を示す座標データのストロー
クの特徴に該当する文字コードを、認識結果としてセッ
トする(ステップD8)。ここで、入力された座標デー
タが1文字口のものである場合は、文字表示を行なうた
めの文字サイズの設定を行なう。すなわち、入力された
座標データの系列をもとに、筆記された文字のX、Y方
向の文字サイズを検出する(ステップD1.0)。そし
て、XサイズとYサイズの比較を行ない(ステップD1
1)、その結果に応じてXサイズ、またはYサイズの何
れか一方のサイズに合わせてX、Y方向サイズを文字サ
イズとして設定する(ステップD 1.1− D 14
) 。そして、表示制御部40cは、設定された文字サ
イズに従って文字の表示を行なう(ステップD15)。
The recognition processing unit 40b compares the information on the direction value string obtained in this manner with dictionary data for performing character recognition processing provided via the dictionary data buffer 40i stored in the storage device, and determines the character. Recognize the Note that the dictionary data used for character recognition processing, for example, as shown in FIG. It is classified and configured to correspond to each character code. The recognition processing unit 40b refers to such dictionary data and sets the character code corresponding to the stroke characteristics of the coordinate data indicating the handwritten input character as a recognition result (step D8). Here, if the input coordinate data is for one character, the character size for character display is set. That is, based on the series of input coordinate data, the size of the written character in the X and Y directions is detected (step D1.0). Then, the X size and Y size are compared (step D1
1) Depending on the result, set the X and Y direction size as the character size according to either the X size or the Y size (Steps D1.1-D14)
). Then, the display control unit 40c displays characters according to the set character size (step D15).

なお、入力された座標データが2文字目以降のものであ
る場合、文字サイズを求める処理は行なわず、1文字口
のデータによって設定された文字サイズに従って文字表
示を行なつ0 こうして、各領域A−Dに応じた方式によって第15図
に示す初期画面に対して文字情報か入力された結果、例
えば第27図に示すような表示画面が得られる。
Note that if the input coordinate data is for the second character or later, the process to obtain the character size is not performed, and the characters are displayed according to the character size set by the data for one character. -D, as a result of inputting character information to the initial screen shown in FIG. 15, a display screen as shown in FIG. 27, for example, is obtained.

次に、第15図に示す領域Aに対して行われる手書き文
字認識を用いた文字入力について説明する。
Next, character input using handwritten character recognition performed in area A shown in FIG. 15 will be described.

一般に、手書き文字認識を用いた文字入力では、正しく
所望する文字が入力されるか否かが、筆記された文字パ
ターンの品質に大きく影響される。
Generally, in character input using handwritten character recognition, whether or not a desired character is correctly input is greatly influenced by the quality of a handwritten character pattern.

例えば、「太」という文字を入力するつもりで筆記され
た文字パターンが、「大」 「丈」のような文字に誤認
識される場合がある。このような場合、従来では表示さ
れた誤った文字を確認し、前回より丁寧に再度書き込み
を行ない、再認識させて「太」を得ていた。
For example, a character pattern written with the intention of inputting the character "fat" may be mistakenly recognized as characters such as "dai" and "jo". In such a case, conventionally, the incorrect character displayed was checked, the character was rewritten more carefully than the previous time, and the character was re-recognized to obtain the character ``thick''.

本実施例では、最初に入力した文字パターンが誤認識さ
れた場合には、次のような第1〜第3の方式によって所
望する正しい文字の入力を行なうことができる。
In this embodiment, if the initially input character pattern is erroneously recognized, the desired correct character can be input using the following first to third methods.

まず、第1の方式では、第1図に示すフローチャートの
手順に従って行なイつれる。はじめに、文字入力の対象
とする枠内において文字が筆記され文字パターンを入力
すると(ステップEl)、認識処理部40bは、文字認
識処理を実行し、認識率の高い順に第1〜第3候補文字
を選択する(ステップE2)。次に、第28図に示すよ
うに、入力枠の近傍に複数の候補文字を表示するための
枠(候補枠)を表示するために、カーソルが示す入力枠
の下方近傍のイメージのうち、候補枠抜数個(例として
3個)分の占める領域部分を、予めメモリ中の図示せぬ
退避領域に一時退避させる(ステップE3)。そして、
イメージを退避した領域部分に候補枠を設け、入力され
た文字パターンについての候補文字を、候補枠内に認識
率の高い順に例えば「大」 「太」 「丈」と表示する
(ステップE4)。ここで、入力枠(候補枠)内に表示
されている第1候補文字が誤りであり、他の候補枠内に
所望する文字が表示されている場合に(ステップE5.
E6)、この文字枠をスタイラスペン3によってビック
されると、ビックされた枠内に表示された正しい文字(
正解文字)を入力枠内に表示する(ステップE7)。ま
た、正解文字の表示と共に候補枠の領域に、退避してあ
ったイメージの再表示を行ない候補枠を消去する(ステ
ップE8)。また、文字認識の結果、所望する文字が第
1候補文字である(入力枠に表示)場合に(ステップE
5)、次の入力枠に文字パターンが入力されることによ
って、前の入力枠に対応する候補枠を消去する(ステッ
プE8)。なお、入力枠、候補枠の何れにも所望する文
字が表示されない場合には(ステップE6)、再度文字
パターンの入力を行なうか(ステップE9)、かな漢字
変換技術を用いて文字を入力する(ステップE10)。
First, the first method is carried out according to the procedure of the flowchart shown in FIG. First, when a character is written in a frame targeted for character input and a character pattern is input (step El), the recognition processing unit 40b executes character recognition processing and selects the first to third candidate characters in order of recognition rate. (step E2). Next, as shown in FIG. 28, in order to display a frame (candidate frame) for displaying a plurality of candidate characters near the input frame, select candidate characters from among the images near the bottom of the input frame indicated by the cursor. The area occupied by several frames (for example, three) is temporarily saved in advance in a save area (not shown) in the memory (step E3). and,
A candidate frame is provided in the area where the image has been saved, and candidate characters for the input character pattern are displayed in the candidate frame in descending order of recognition rate, for example, "large", "thick", and "length" (step E4). Here, if the first candidate character displayed in the input frame (candidate frame) is incorrect and the desired character is displayed in another candidate frame (step E5.
E6), when this character frame is ticked with the stylus pen 3, the correct character displayed in the ticked frame (
(correct character) is displayed in the input frame (step E7). Further, along with displaying the correct character, the saved image is redisplayed in the candidate frame area and the candidate frame is erased (step E8). Further, if the desired character is the first candidate character (displayed in the input frame) as a result of character recognition, (step E
5) By inputting a character pattern into the next input frame, the candidate frame corresponding to the previous input frame is deleted (step E8). Note that if the desired character is not displayed in either the input frame or the candidate frame (step E6), the character pattern is input again (step E9), or the character is input using the kana-kanji conversion technology (step E10).

同実施例における、かな漢字変換技術を用いた文字入力
の方法については後述する。
A method for inputting characters using the kana-kanji conversion technology in this embodiment will be described later.

次に、第2の方式では、第29図に示すフローチャート
の手順に従って行なわれる。第2の方式は、第1の方式
における候補枠の表示位置を、第30図に示すように、
入力枠の位置と無関係に定とするものである。処理手順
については、第]の方式の場合とほぼ同一であるので詳
細については省略する。第2の方式ではステップF3に
おいて、表示された文字入力用のフォーマットと重なら
ない所定の領域において、候補文字を表示するための候
補枠を設定する。また、候補枠に所望する文字が表示さ
れている場合には、第1の方式と同様に、その枠をピッ
クすることによって所定の入力枠に正解文字が表示され
るようにする(ステップF7)。
Next, in the second method, the procedure is performed according to the flowchart shown in FIG. The second method changes the display position of the candidate frame in the first method as shown in FIG.
This is fixed regardless of the position of the input frame. The processing procedure is almost the same as in the case of the second method, so the details will be omitted. In the second method, in step F3, a candidate frame for displaying candidate characters is set in a predetermined area that does not overlap with the displayed character input format. Furthermore, if the desired character is displayed in the candidate frame, similarly to the first method, by picking that frame, the correct character is displayed in the predetermined input frame (step F7). .

次に、第3の方式では、第31図に示すフローチャート
の手順に従って行なわれる。第3の方式は、第1.第2
の方式のような候補枠を設けすに、入力枠に、必要に応
して候補文字を表示させるものである。はじめに、文字
入力の対象とする枠内において文字が筆記され文字パタ
ーンを入力すると(ステップG1)、認識処理部40b
は、文字認識処理を実行し、認識率の高い順に第1〜第
3候補文字を選択する(ステップG2)。まず、文字パ
ターンが入力された入力枠には、第32図に示すように
、文字認識処理で最も認識率か高い第1候補文字を表示
する(ステップG3.G4)。ここで表示された候補文
字が所望する正解文字でなく、入力枠がビックされると
、次候補文字があれば先に表示された文字に替えて表示
する(ステップG5.G6.G7.G4.)。入力枠内
に所望する文字が表示された場合には、次の入力枠に対
して文字パターンの入力を行なうことにより入力文字を
確定する。なお、第2.第3.・・・と入力枠をビック
することによって順次表示させた候補文字中に所望する
文字がない場合には、第1の方式。
Next, in the third method, the procedure is performed according to the flowchart shown in FIG. The third method is based on the first method. Second
When a candidate frame is provided as in the above method, candidate characters are displayed in the input frame as necessary. First, when a character is written within a frame targeted for character input and a character pattern is input (step G1), the recognition processing unit 40b
executes a character recognition process, and selects the first to third candidate characters in descending order of recognition rate (step G2). First, in the input frame into which the character pattern has been input, as shown in FIG. 32, the first candidate character with the highest recognition rate is displayed in the character recognition process (steps G3 and G4). If the candidate character displayed here is not the desired correct character and the input frame is ticked, the next candidate character, if any, is displayed in place of the previously displayed character (steps G5.G6.G7.G4. ). When a desired character is displayed within the input frame, the input character is determined by inputting a character pattern into the next input frame. In addition, the second. Third. . . . When the desired character is not found among the candidate characters sequentially displayed by ticking the input frame, the first method is used.

第2の方式同様にして文字入力を行なう(ステップG8
.G9)。
Character input is performed in the same manner as in the second method (step G8
.. G9).

次に、文字認識処理によって得られた候補文字中に、所
望する文字が得られなかった場合に行なわれるかな漢字
変換技術を用いた文字の入力方法について説明する。同
実施例では、第33図に示すような、かな入力用のソフ
トキーボードを用いる。例えば、「太」という文字が手
書き文字認識により入力できずに、かな変換技術を用い
て文字入力する場合、入力する漢字の読み「ふ」 「と
」「シ」をLCD7に表示されたソフトキーボードの文
字キーをビックすることによって入力する。
Next, a character input method using the kana-kanji conversion technique, which is performed when a desired character is not found among the candidate characters obtained by character recognition processing, will be described. In this embodiment, a soft keyboard for kana input as shown in FIG. 33 is used. For example, if the character ``太'' cannot be input using handwritten character recognition and is input using kana conversion technology, the readings of the kanji to be input, ``fu'', ``to'', and ``shi'', can be entered using the soft keyboard displayed on the LCD 7. Input by clicking the character key.

第33図に示すソフトキーボードには、第34図に示す
50音文字配列の第1行目(あかさたな・・)の文字キ
ーV(以下、行キー)、−列(5文字)分の文字キーW
(以下、列キー)、濁音、半角等を示すキーX、及び「
カタカナ」を示すキーYが設けられている。
The soft keyboard shown in Figure 33 includes the character key V (hereinafter referred to as row key) for the first row (Akasatana...) of the 50-syllabary character arrangement shown in Figure 34, and the character key for the - column (5 characters). W
(hereinafter referred to as column keys), key X indicating voiced sounds, half-width, etc., and "
A key Y indicating "Katakana" is provided.

ソフトキーボードを用いた文字入力の手順を第35図の
フローチャートに示している。まず、行キーVの中から
、所望する文字を含む列の文字「は」をピックする。こ
れに応じて入力枠b〕にビックされた文字が表示される
と共に、列キーWが「は」を含む列「はひふへは」に切
り替えられる(ステップH1)。ここで、入力すべき文
字は「ふ」であるので、列キー中の「ふ」をピックする
。これにより、入力枠b1にピックされた文字「ふ」を
表示する(ステップH2,H3)。こうして、所望する
文字を順次、キーボードを用いて入力することができる
The procedure for inputting characters using the soft keyboard is shown in the flowchart of FIG. First, from the row key V, pick the character "ha" in the column containing the desired character. In response to this, the character that was clicked is displayed in the input frame b], and the column key W is switched to the column ``Hahifuheha'' containing ``ha'' (step H1). Here, the character to be input is "fu", so pick "fu" in the column key. As a result, the picked character "fu" is displayed in the input frame b1 (steps H2 and H3). In this way, desired characters can be input in sequence using the keyboard.

なお、入力した文字を半角文字や濁音文字にする場合に
は、所定のキーをピックすることによって実現される(
ステップH5,H6)。また、カタカナに変換する場合
には、同様にカタカナキーをピックすることによって実
現される(ステップH7,H8)。例えば、「かたかな
」と入力した後に、カタカナキーをピックすると、「カ
タカナ」と変換するものである。
In addition, if you want to convert the entered characters into half-width characters or voiced characters, you can do so by picking the specified key (
Steps H5, H6). Further, when converting to katakana, it is similarly achieved by picking the katakana key (steps H7 and H8). For example, if you input "Katakana" and then pick the Katakana key, it will be converted to "Katakana".

こうして、順次「ふ」 「と」「シ」と入力し、かな漢
字変換を実行を指示することによって「太」の文字を得
る。この得られた漢字は、所定の入力枠内に表示する。
In this way, by sequentially inputting ``fu'', ``to'', and ``shi'' and instructing execution of kana-kanji conversion, the character ``ta'' is obtained. The obtained kanji is displayed within a predetermined input frame.

このような、ソフトキーボードであれば、表示するため
に必要な領域が少ないために、表示画面中において文字
入力用のフォーマットが多くの領域を占める場合であっ
ても、両者が互いに妨げとなることがない。
With a soft keyboard like this, the area required for display is small, so even if the format for inputting characters occupies a large area on the display screen, the two will interfere with each other. There is no.

次に、入力枠内に入力(表示)された文字が誤りである
場合に、エラー(警告)表示を行なう処理について説明
する。この処理手順を、第36図のフローチャートに示
している。例えば、第15図に示す文字入力用のフォー
マットの場合に、各領域毎に、予め入力可能な文字種(
カテゴリ)を設定しておく。例えば、領域Aについては
漢字。
Next, a process for displaying an error (warning) when a character input (displayed) in the input frame is incorrect will be described. This processing procedure is shown in the flowchart of FIG. For example, in the case of the character input format shown in Fig. 15, the character types (
category). For example, for area A, kanji.

ひらがな、カタカナ、領域Bについてはカタカナ、領域
Cについては数字が入力されるものと属性が設定されて
いるものとする。
It is assumed that attributes are set for hiragana, katakana, katakana for area B, and numbers for area C.

ここで、領域Cについて文字入力を行なう場合を例にす
ると、領域Cの入力枠への文字入力は、手書き文字入力
、またはソフトキーボードを用いて行なう。手書き文字
入力の場合には、文字認識によって得られた文字の文字
種と、予め領域Cに対して設定された属性とを参照し文
字種が正当なものであるか否かが判別される(ステップ
I]。
Here, taking the case of inputting characters in area C as an example, inputting characters into the input frame of area C is performed using handwritten character input or a soft keyboard. In the case of handwritten character input, it is determined whether the character type is valid by referring to the character type of the character obtained by character recognition and the attribute set in advance for area C (step I ].

12)。例えば、本来r3J  r5Jと入力すべきと
ころ、数字「5」がアルファベット「S」に誤認識され
た場合には、領域に固有な属性に違反しているものと判
別する。この場合、第37図に示すように、エラーメツ
セージの表示を行なう。そして、文字を再入力するため
の処理に移る(ステップI4)。
12). For example, if the number "5" is incorrectly recognized as the alphabet "S" when it should have been entered as r3J r5J, it is determined that the region-specific attributes are violated. In this case, an error message is displayed as shown in FIG. Then, the process moves on to re-input characters (step I4).

また、前記説明において領域Cに対するデータ入力をソ
フトテンキーを用いるとしたが、例えば第37図中に示
すような、数字と他の文字種(アルファベット等)か混
在したソフトキーボードを用いて各領域に対してデータ
入力を行なうように設計することができる。この場合、
違反した文字種の文字がピックされると、誤認識の際と
前記同様にしてエラーメツセージの表示を行なうように
する。
In addition, in the above explanation, it was assumed that the soft numeric keypad was used to input data to area C, but for example, as shown in Fig. can be designed to perform data entry using in this case,
When a character of the violating character type is picked, an error message is displayed in the same manner as in the case of erroneous recognition.

これにより、誤入力した場合であっても、容易に判別す
ることができるので、正確にデータの入力か行なうこと
ができ、信頼性が増す。
As a result, even if an incorrect input is made, it can be easily determined, so that data can be input accurately, increasing reliability.

このようにして、手書き文字認識によって文字を入力す
る際に、入力した文字パターンについての認識結果が誤
りであっても、容易に候補文字を選択指定することがで
きるので、効率良く文字の入力を行なうことができる。
In this way, when inputting characters using handwritten character recognition, even if the recognition result for the input character pattern is incorrect, candidate characters can be easily selected and specified, allowing for efficient character input. can be done.

また、第33図に示すようなソフトキーボードを用いる
ことにより、表示画面中の占有面積が少なくて良いので
、先に表示されていた内容がソフトキーボードによって
隠れてしまうことがなく、入力済みのデータ等を参照し
ながらデータ入力を行なうことができる。
In addition, by using a soft keyboard as shown in Figure 33, the area occupied on the display screen is small, so the previously displayed content is not hidden by the soft keyboard, and data that has already been entered can be saved. You can input data while referring to the following.

さらに、領域毎に予め設定された入力すべき文字の文字
種と異なる文字が入力された場合に、第37図に示すよ
うに、誤入力、誤認識されたことを示すエラー表示を行
なうので、正確なデータ入力を行なうことができる。
Furthermore, if a character is input that is different from the type of character to be input that is preset for each area, an error message will be displayed to indicate that the input was incorrect or incorrectly recognized, as shown in Figure 37. You can enter data easily.

また、スタイラスペン3によって任意に指定された特定
の領域の項目について、データの入力を行なうようにし
、また指定された領域についてのガイド表示を行なうた
めに、誤操作による誤データの入力を防ぐことができる
。また、ガイド表示は、初期画面中に表示を行わず、ス
タイラスペン3によって指定された領域に応じた表示を
行なうために初期画面領域を有効に利用することができ
る。例えば、スタイラスペン3によって領域Cを指定し
た場合のように、データを入力する際にソフトテンキー
を用いるので、画面表示を簡略化することができる。さ
らに、ガイド表示をペン状態(オン、オフ)によって表
示するかしないかを設定することができるので、スタイ
ラスペン3によって指定した場合に常に表示されるもの
ではないために、使用者が迷うことなく操作を行なうこ
とが可能となる。
In addition, data can be input for items in a specific area arbitrarily designated using the stylus pen 3, and a guide display for the designated area can be used to prevent incorrect data input due to erroneous operation. can. Further, the guide display is not displayed on the initial screen, and the initial screen area can be effectively used because the guide display is displayed according to the area specified by the stylus pen 3. For example, when specifying area C with the stylus pen 3, a soft numeric keypad is used when inputting data, so the screen display can be simplified. Furthermore, since the guide display can be set to be displayed or not depending on the pen state (on, off), it is not always displayed when specified with the stylus pen 3, so the user can easily It becomes possible to perform operations.

なお、前記実施例においては、座標入力部30において
透明タブレット6を用いるものとしたが、感圧型のタブ
レットや不透明タブレットであっても良い。さらに、表
示部32は、液晶デイスプレィに限らず、プラズマデイ
スプレィ等の他の表示装置を用いても良い。
In the above embodiment, the transparent tablet 6 is used in the coordinate input section 30, but a pressure-sensitive tablet or an opaque tablet may be used. Furthermore, the display unit 32 is not limited to a liquid crystal display, and may use other display devices such as a plasma display.

また、初期画面における画面構成や、ガイド表示の内容
1位置等は、前記実施例に限るものではなく、任意に設
定することができる。
Further, the screen configuration on the initial screen, the position of the content 1 of the guide display, etc. are not limited to the above embodiments, and can be set arbitrarily.

[発明の効果] 以」二のように本発明によれば、文字認識処理によって
得られた候補文字から入力すべき文字を決定するので、
効率的にデータ入力を行なうことができる。また、デー
タ入力に用いるソフトキーボード(第2入力領域)を多
くの表示面積を必要としない構成とし、表示内容か重複
することがないようにしたので、データの入力を行ない
易くなり効率の良いデータ入力が可能となるものである
[Effects of the Invention] As described in Section 2 below, according to the present invention, characters to be input are determined from candidate characters obtained through character recognition processing.
Data entry can be performed efficiently. In addition, the soft keyboard (second input area) used for data entry has been designed so that it does not require a large display area, and the display contents do not overlap, making data entry easier and more efficient. This allows input.

このように、一体型表示入力装置を備えた情報処理装置
において、実用上多大な効果を奏するものである。
As described above, an information processing apparatus equipped with an integrated display/input device has great practical effects.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図乃至第37図は本発明の一実施例に係わる情報処
理装置に関する図であり、第1図は手書き文字認識を用
いた第1の方式による文字入力の手順を示すフローチャ
ート、第2図は一体型表示入力装置を備えた情報処理装
置の外観構成を示す斜視図、第3図は情報処理装置の平
面図、第4図は情報処理装置の側面断面図、第5図はス
タイラスペンに白書されたスイッチの構成を示す断面図
、第6図は情報処理装置の内部構成を示すブロック図、
第7図は情報処理装置の動作を説明するための概略横1
図、第8図は透明タブレットとLCDの対応関係を示す
図、第9図は透明タブレットの構成を示す図、第10図
は座標入力部の動作を説明するためのブロック図、第1
1図は処理制御部のメモリ部の内容を示すブロック図、
第12図は領域データバッファの構成を示すブロック図
、第13図は認識枠データバッファ中の領域データバッ
ファの構成を示すブロック図、第14図は文字情報を入
力する際の処理手順を示すフローチャート、第15図は
初期画面の表示例を示す図、第16図は領域りにおける
ガイド表示の一例を説明するための図、第17図は領域
Aに対するデータ入力の処理手順を示すフローチャート
、第18図は領域Aに対する手書き文字入力を行なう際
の表示例を示す図、第19図は領域Bに対する手書き文
字入力を行なう際の表示例を示す図、第20図は領域り
に対する手書き文字入力を行なう際の表示例を示す図、
第21図は領域Cに対するソフトテンキーを用いたデー
タ入力の処理手順を示すフローチャート、第22図は領
域Cにおけるガイド表示の一例を説明するための図、第
23図は手書き入力された文字を表示するまでの処理手
順を示すフローチャート、第24図は筆記ストロークの
方向を説明するための図、第25図は筆記ストロークを
示す位置座標データの方向値への変換例を示す図、第2
6図は文字認識処理に用いられる辞書データの構成例を
示す図、第27図は各領域に対して文字情報が入力され
た状態の表示画面の一例を示す図、第28図は手書き文
字認識を用いた第1の方式における表示画面の一例を示
す図、第29図は手書き文字認識を用いた第2の方式の
処理手順を示すフローチャート、第30図は手書き文字
認識を用いた第2の方式における表示画面の一例を示す
図、第31図は手書き文字認識を用いた第3の方式の処
理手順を示すフローチャート、第32図は手書き文字認
識を用いた第3の方式における表示画面の一例を示す図
、第33図はかな入力用のソフトキーボードの一例を示
す図、第34図は第33図に示すソフトキーボードの表
示内容を示す図、第35図はソフトキーボードを用いた
文字入力の手順を示すフローチャート、第36図はエラ
ー表示の処理手順を示すフローチャ−ト、第37図はエ
ラーメツセージの表示例を示す図である。 2・・一体型表示入力装置、3・・・スタイラスペン、
6・・・透明タブレット、7・・・LCD (液晶デイ
スプレィ)、31・・・処理制御部、40a・・・入力
部、40b・・・認識処理部、40c・・・領域判別処
理部、4. Oe・・・表示制御部、40j・・領域デ
ータバッファ、401・・・認識枠データバッファ。
1 to 37 are diagrams relating to an information processing apparatus according to an embodiment of the present invention, in which FIG. 1 is a flowchart showing the procedure of character input by the first method using handwritten character recognition, and FIG. 3 is a plan view of the information processing device, FIG. 4 is a side sectional view of the information processing device, and FIG. 5 is a stylus pen. A sectional view showing the configuration of the switch described in the white paper, FIG. 6 is a block diagram showing the internal configuration of the information processing device,
FIG. 7 is a schematic horizontal diagram for explaining the operation of the information processing device.
8 is a diagram showing the correspondence relationship between the transparent tablet and the LCD, FIG. 9 is a diagram showing the configuration of the transparent tablet, and FIG. 10 is a block diagram for explaining the operation of the coordinate input section.
Figure 1 is a block diagram showing the contents of the memory section of the processing control section.
FIG. 12 is a block diagram showing the configuration of the area data buffer, FIG. 13 is a block diagram showing the configuration of the area data buffer in the recognition frame data buffer, and FIG. 14 is a flowchart showing the processing procedure when inputting character information. , FIG. 15 is a diagram showing an example of the display of the initial screen, FIG. 16 is a diagram for explaining an example of the guide display in the area, FIG. 17 is a flowchart showing the procedure for inputting data to area A, and FIG. The figure shows an example of the display when inputting handwritten characters to area A, Figure 19 shows an example of the display when inputting handwritten characters to area B, and Figure 20 shows an example of the display when inputting handwritten characters to area B. A diagram showing an example of the display when
Fig. 21 is a flowchart showing the processing procedure for data input using the soft numeric keypad for area C, Fig. 22 is a diagram for explaining an example of a guide display in area C, and Fig. 23 displays characters input by hand. 24 is a diagram for explaining the direction of a written stroke. FIG. 25 is a diagram showing an example of conversion of position coordinate data indicating a written stroke into a direction value.
Figure 6 shows an example of the structure of dictionary data used in character recognition processing, Figure 27 shows an example of a display screen with character information entered for each area, and Figure 28 shows handwritten character recognition. 29 is a flowchart showing the processing procedure of the second method using handwritten character recognition, and FIG. 30 is a flowchart showing the processing procedure of the second method using handwritten character recognition. A diagram showing an example of a display screen in the method, FIG. 31 is a flowchart showing the processing procedure of the third method using handwritten character recognition, and FIG. 32 is an example of a display screen in the third method using handwritten character recognition. Figure 33 is a diagram showing an example of a soft keyboard for ephemeral input, Figure 34 is a diagram showing the display contents of the soft keyboard shown in Figure 33, and Figure 35 is a diagram showing character input using the soft keyboard. FIG. 36 is a flowchart showing the procedure for error display, and FIG. 37 is a diagram showing an example of error message display. 2...Integrated display input device, 3...Stylus pen,
6... Transparent tablet, 7... LCD (liquid crystal display), 31... Processing control section, 40a... Input section, 40b... Recognition processing section, 40c... Area discrimination processing section, 4 .. Oe: Display control unit, 40j: Area data buffer, 401: Recognition frame data buffer.

Claims (1)

【特許請求の範囲】 (1)表示装置の表示面に透明な座標情報入力用のタブ
レットを重ねて一体化して構成された一体型表示入力装
置と、 前記タブレットにおける座標情報の入力範囲を示すと共
に、入力された内容を前記表示装置に表示するための第
1入力領域を設定する第1設定手段と、 前記第1設定手段によって設定された第1入力領域に対
応して入力された座標情報に基づいて文字認識処理を行
ない入力すべき候補文字を求める認識処理手段と、 前記認識処理手段によって得られた候補文字から、座標
情報が入力された第1入力領域に表示すべき入力文字を
決定する第1決定手段と、 前記第1決定手段によって決定された文字を、第1入力
領域に表示する第1表示手段と、 を具備したことを特徴とするデータ入力方式。(2)前
記第1決定手段は、前記認識処理手段によって複数の候
補文字が得られた場合に、候補文字を表示すると共に候
補文字を指定する座標情報の入力範囲を示す第1候補文
字表示領域を前記第1入力領域の近傍に設定し、第1候
補文字表示領域に対応する座標情報が入力された際に、
同候補文字表示領域に表示された候補文字を第1入力領
域に表示すべき入力文字に決定することを特徴とする第
1請求項記載のデータ入力方式。(3)前記第1決定手
段は、前記認識処理手段によって複数の候補文字が得ら
れた場合に、候補文字を表示すると共に候補文字を指定
する座標情報の入力範囲を示す第2候補文字表示領域を
前記表示装置の表示画面中の所定位置に設定し、第2候
補文字表示領域に対応する座標情報が入力された際に、
同候補文字表示領域に表示された候補文字を第1入力領
域に表示すべき入力文字に決定することを特徴とする第
1請求項記載のデータ入力方式。 (4)前記第1決定手段は、前記認識処理手段によって
複数の候補文字が得られた場合に、前記第1入力領域に
対応する座標情報が入力される毎に順次候補文字を表示
し、前記第1入力領域に対応しない座標情報が入力され
た際に、前記第1入力領域に表示された候補文字を第1
入力領域に表示すべき入力文字に決定することを特徴と
する第1請求項記載のデータ入力方式。 (5)表示装置の表示面に透明な座標情報入力用のタブ
レットを重ねて一体化して構成された一体型表示入力装
置と、 前記タブレットにおける座標情報の入力範囲を示すと共
に、入力された内容を前記表示装置に表示するための第
1入力領域を設定する第1設定手段と、 前記第1設定手段によって設定された第1入力領域に対
応する座標情報が入力された際に、前記タブレットにお
ける座標情報の入力範囲を示すと共に入力されるデータ
の内容を示すものであって、データの内容を2次元配列
としたときの1行、1列にそれぞれ対応する行領域、列
領域からなる第2入力領域を設定する第2設定手段と、 前記第2設定手段によって設定された第2入力領域の前
記行領域、及び前記列領域に対応する座標情報に応じて
、前記第1入力領域に表示すべき入力文字を決定する第
2決定手段と、 前記第2決定手段によって決定された文字を、第1入力
領域に表示する第2表示手段と、 を具備したことを特徴とするデータ入力方式。(6)前
記第1設定手段によって設定された第1入力領域に、表
示すべき文字のカテゴリを示す属性を設定する属性設定
手段と、 前記第1入力領域に表示すべきものと決定された文字が
、前記属性設定手段によって設定された属性に該当しな
い場合に、その旨を示す表示を行なう警告表示手段と、 をさらに具備したことを特徴とする第1請求項または第
5請求項記載のデータ入力方式。
[Scope of Claims] (1) An integrated display/input device configured by overlapping and integrating a transparent tablet for inputting coordinate information onto a display surface of a display device; , a first setting means for setting a first input area for displaying input contents on the display device; and coordinate information input corresponding to the first input area set by the first setting means. a recognition processing means for performing character recognition processing based on the character recognition processing means to obtain candidate characters to be input; and determining an input character to be displayed in the first input area into which the coordinate information is input from the candidate characters obtained by the recognition processing means; A data input method comprising: a first determining means; and a first display means for displaying characters determined by the first determining means in a first input area. (2) When a plurality of candidate characters are obtained by the recognition processing means, the first determining means includes a first candidate character display area that displays the candidate characters and indicates an input range of coordinate information for specifying the candidate characters. is set near the first input area, and when coordinate information corresponding to the first candidate character display area is input,
2. The data input method according to claim 1, wherein the candidate character displayed in the candidate character display area is determined as the input character to be displayed in the first input area. (3) When a plurality of candidate characters are obtained by the recognition processing means, the first determining means includes a second candidate character display area that displays the candidate characters and indicates an input range of coordinate information for specifying the candidate characters. is set at a predetermined position on the display screen of the display device, and when coordinate information corresponding to the second candidate character display area is input,
2. The data input method according to claim 1, wherein the candidate character displayed in the candidate character display area is determined as the input character to be displayed in the first input area. (4) When a plurality of candidate characters are obtained by the recognition processing means, the first determining means sequentially displays the candidate characters each time coordinate information corresponding to the first input area is input; When coordinate information that does not correspond to the first input area is input, the candidate character displayed in the first input area is
2. The data input method according to claim 1, wherein the input character is determined to be displayed in the input area. (5) An integrated display/input device configured by overlaying and integrating a transparent tablet for inputting coordinate information on the display surface of the display device; a first setting means for setting a first input area to be displayed on the display device; and when coordinate information corresponding to the first input area set by the first setting means is input, coordinates on the tablet are input. The second input indicates the input range of information and the contents of the data to be input, and consists of a row area and a column area corresponding to the first row and first column, respectively, when the data contents are a two-dimensional array. a second setting means for setting an area; and a second setting means for setting an area to be displayed in the first input area according to coordinate information corresponding to the row area and the column area of the second input area set by the second setting means. A data input method comprising: second determining means for determining an input character; and second display means for displaying the character determined by the second determining means in a first input area. (6) Attribute setting means for setting an attribute indicating a category of characters to be displayed in a first input area set by the first setting means; and a character determined to be displayed in the first input area. The data input device according to claim 1 or claim 5, further comprising: a warning display means for displaying a message to that effect when the attribute set by the attribute setting means does not apply. method.
JP2226550A 1990-08-30 1990-08-30 Data input system Pending JPH04109329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2226550A JPH04109329A (en) 1990-08-30 1990-08-30 Data input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2226550A JPH04109329A (en) 1990-08-30 1990-08-30 Data input system

Publications (1)

Publication Number Publication Date
JPH04109329A true JPH04109329A (en) 1992-04-10

Family

ID=16846914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2226550A Pending JPH04109329A (en) 1990-08-30 1990-08-30 Data input system

Country Status (1)

Country Link
JP (1) JPH04109329A (en)

Similar Documents

Publication Publication Date Title
EP0254561B1 (en) Handwritten keyboardless-entry computer system
JPH0981320A (en) Pen input type selection input device and method therefor
JP3127966B2 (en) Character input device and method
JPH08286830A (en) Hand-written input device
JPH04109329A (en) Data input system
KR102468082B1 (en) Correction method for handwriting input, electronic device and storage medium therefor
JP3217084B2 (en) Handwritten character recognition device
JPS61267128A (en) Display erasure system
JPH04195670A (en) Handwritten character recognizing japanese syllabary to chinese character conversion system
JPH03111926A (en) Data processor
JP2902817B2 (en) Handwritten character input device
JPS61150081A (en) Character recognizing device
JP3255477B2 (en) Character input device and character input method
JPH0991377A (en) Handwritten character input device
JPH034362A (en) Slip input device
JPH0991107A (en) Paper format register device
JPH04303279A (en) Information processor
JPH04113412A (en) Information processor
JPH06266886A (en) Character recognizing processor for hand-written character inputting device and its method
JPH02250155A (en) Business form generating device
JP2001167229A (en) Method for correcting recognized handwriting character
JPH04195679A (en) Sentence input system
JPH0348918A (en) Character input device
JPH01251217A (en) Electronic simple terminal writer
JPH02266484A (en) Information recognizing device