JPH06301472A - Handwriting input device - Google Patents

Handwriting input device

Info

Publication number
JPH06301472A
JPH06301472A JP8974293A JP8974293A JPH06301472A JP H06301472 A JPH06301472 A JP H06301472A JP 8974293 A JP8974293 A JP 8974293A JP 8974293 A JP8974293 A JP 8974293A JP H06301472 A JPH06301472 A JP H06301472A
Authority
JP
Japan
Prior art keywords
input
command
edit
image data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8974293A
Other languages
Japanese (ja)
Inventor
Hideo Suzuki
秀夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP8974293A priority Critical patent/JPH06301472A/en
Publication of JPH06301472A publication Critical patent/JPH06301472A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To attain the input of an editing command that can be simply supplied and also can perform a desired editing job at a high speed. CONSTITUTION:A deletion command is written on the data to be deleted on the screen of an input/display device 13 (b). Then a rectangular area 101 which is circumscribed to deletion command is automatically set as a command executing area, and the outer frame of this area is show by a broken line (c). When an optional position touched by a pen in the outer frame, the deletion command is carried out. Thus all data are deleted out of the area 101.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、手書きによりデータ入
力を行う手書き入力装置に係り、特に手書き入力による
編集コマンドの入力方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a handwriting input device for inputting data by handwriting, and more particularly to a method for inputting edit commands by handwriting input.

【0002】[0002]

【従来の技術】最近、コンピュータにおいてユーザ・イ
ンタフェースの重要性が認識されつつある。これに伴
い、操作性に優れたGUI(Graphical User Interfac
e;グラフィカル・ユーザ・インタフェース)がユーザ
・インタフェースの主流になりつつある。
2. Description of the Related Art Recently, the importance of user interfaces in computers has been recognized. Along with this, GUI (Graphical User Interfac
e; Graphical user interface) is becoming the mainstream of user interface.

【0003】このインタフェースにおいては、アイコン
(絵記号)をマウスやキーボード等を操作して選択する
ことにより、メニューからコマンド選択、ファイル操
作、プログラムの起動など文字入力以外の全ての操作を
実行できるようになっている。
In this interface, by selecting an icon (pictorial symbol) by operating a mouse or a keyboard, it is possible to perform all operations other than character input such as command selection, file operation, and program start-up from a menu. It has become.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
GUIはマウス操作を基本にしているため操作性の面で
問題があった。すなわち、マウス操作によるアイコン選
択のためのマウス・カーソルの移動はなかなかスムーズ
に行えるものではなく、慣れたとしても結構時間がかか
るものであった。また、マウス操作のためのスペースも
必要であった。このようなポインティング・デバイスと
してのマウスの欠点を克服するものとして、最近、ペン
入力が注目されている。
However, since the conventional GUI is based on mouse operation, there is a problem in terms of operability. That is, the movement of the mouse cursor for selecting an icon by operating the mouse is not so smooth, and it takes a long time even if the user gets used to it. Also, a space for operating the mouse was required. Recently, pen input has been attracting attention as a means for overcoming the drawbacks of the mouse as a pointing device.

【0005】ペン入力は、ユーザが日頃から慣れ親しん
でいる操作であり、ノートや手帳に記入するのと同様な
感覚で文字や図形等を入力できる。また、アイコンの選
択も直接ペンにより指し示せばよいので非常に簡単・高
速であり、GUI用のポインティング・デバイスとして
も最適である。
Pen input is an operation that the user is familiar with on a daily basis, and characters and figures can be input with the same feeling as when writing in a notebook or notebook. Moreover, since the selection of an icon can be pointed out directly with a pen, it is very easy and fast, and it is suitable as a pointing device for GUI.

【0006】したがって、従来、キー操作やマウス操作
により行っていた画面上での文書等の編集をペン操作に
より手書き入力で行えるようになれば、編集作業が容易
になり効率も向上するものと考えられる。また、その作
業も従来とは異なり違和感のない自然な感覚で行えるよ
うになるものと考えられる。
Therefore, if it becomes possible to edit a document or the like on the screen which has been conventionally performed by key operation or mouse operation by handwriting input by pen operation, it is considered that the editing work will be facilitated and the efficiency will be improved. To be In addition, it is considered that the work can be performed with a natural feeling without a sense of discomfort unlike in the past.

【0007】本発明は、ペン入力を基本操作とする手書
き入力装置において、既入力のイメージデータの編集を
ペンによる手書き入力により簡単かつ高速に行えるよう
にすることである。
It is an object of the present invention to make it possible to easily and quickly edit image data that has already been input by handwriting input with a pen in a handwriting input device whose basic operation is pen input.

【0008】[0008]

【課題を解決するための手段】本発明は以下の各手段を
備える。表示手段はビットマップ形式でイメージデータ
を表示する装置であり、例えば液晶ディスプレイ装置等
から成る。
The present invention comprises the following means. The display means is a device for displaying the image data in the bitmap format, and is composed of, for example, a liquid crystal display device.

【0009】座標入力手段は、表示手段の表示画面上で
のペンの操作位置の座標を検出する。この手段は、例え
ば、感圧方式、静電容量方式、電磁誘導方式等のタブレ
ット(ディジタイザ)から成る。
The coordinate input means detects the coordinates of the operation position of the pen on the display screen of the display means. This means is composed of, for example, a pressure sensitive type, a capacitance type, an electromagnetic induction type tablet (digitizer).

【0010】コマンド認識手段は、座標入力手段によっ
て検出されたユーザがペンで手書き入力した際のペンの
操作位置の座標データを基に、予め形式が定められたイ
メージデータの編集コマンドの入力を認識する。
The command recognition means recognizes the input of the edit command of the image data whose format is predetermined based on the coordinate data of the operation position of the pen detected by the coordinate input means when the user performs handwriting input with the pen. To do.

【0011】編集対象領域設定手段は、座標入力手段に
よって検出された、コマンド認識手段によって認識され
た編集コマンドの記入位置の座標データを基に、その座
標位置を含むイメージデータのブロックを抽出し、その
ブロックを該編集コマンドの対象領域として設定する。
The edit target area setting means extracts the block of the image data including the coordinate position based on the coordinate data of the entry position of the edit command recognized by the command recognizing means, which is detected by the coordinate inputting means, The block is set as the target area of the edit command.

【0012】編集手段は、編集対象領域設定手段によっ
て設定された領域内のイメージデータに対して、コマン
ド認識手段によって認識された編集コマンドに対応する
編集処理を行う。
The editing means performs an edit process corresponding to the edit command recognized by the command recognition means on the image data in the area set by the edit target area setting means.

【0013】コマンド認識手段、編集対象領域設定手
段、及び編集手段は、例えばCPU(中央演算処理装
置)、メモリ、イメージデータ処理専用のサブシステム
等から構成される。
The command recognition means, the edit target area setting means, and the edit means are composed of, for example, a CPU (central processing unit), a memory, a subsystem dedicated to image data processing, and the like.

【0014】[0014]

【作用】本発明においては、表示手段に表示されている
画面上でユーザがペン操作により予め定められている各
種コマンドのうち任意の編集コマンドを手書き入力する
と、この記入位置の画面上での座標を座標入力手段が検
出する。
In the present invention, when the user hand-writes an arbitrary editing command among various predetermined commands by pen operation on the screen displayed on the display means, the coordinates of the entry position on the screen are displayed. Is detected by the coordinate input means.

【0015】コマンド認識手段は、座標入力手段からこ
の検出された手書き入力の座標データを受け取り、この
座標データを基に編集コマンドが手書き入力されたこと
を認識する。
The command recognition means receives the detected coordinate data of the handwriting input from the coordinate input means, and recognizes that the edit command is handwritten based on the coordinate data.

【0016】続いて、編集対象領域設定手段は座標入力
手段によって検出された、この認識された編集コマンド
の記入位置の座標データを基に、この編集コマンドの記
入位置を含むイメージデータのブロックを抽出し、その
ブロックを編集対象領域として設定する。
Next, the edit target area setting means extracts a block of image data including the write position of the edit command based on the coordinate data of the write position of the recognized edit command detected by the coordinate input means. Then, the block is set as the edit target area.

【0017】編集手段は、この編集対象領域内のイメー
ジデータに対し上記認識された編集コマンドに対応する
編集処理を施す。したがって、編集を所望するイメージ
データの表示位置に合わせて当該編集コマンドを所定の
大きさで記入するだけで、所望の編集を簡単かつ迅速に
行うことができる。
The editing means performs the editing process corresponding to the recognized editing command on the image data in the editing target area. Therefore, the desired editing can be performed easily and quickly only by writing the editing command in a predetermined size in accordance with the display position of the image data desired to be edited.

【0018】[0018]

【実施例】以下、図面を参照しながら本発明の実施例を
説明する。図1は本発明の実施例の外観図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is an external view of an embodiment of the present invention.

【0019】同図に示す装置はペン11による手書き入
力を基本操作としており、手書き文字認識機能を備えて
いる。この装置全体はパッド型の外形をしており、上方
にペン11を収納するためのペン収納溝12が設けられ
ている。また、該ペン収納溝12を除く上面のほぼ全体
にはペン入力用の入力・表示装置13が組み込まれてい
る。
The apparatus shown in the figure has a handwriting input by the pen 11 as a basic operation and has a handwritten character recognition function. The entire device has a pad type outer shape, and a pen storage groove 12 for storing a pen 11 is provided above the device. Further, an input / display device 13 for pen input is incorporated in almost the entire upper surface except the pen housing groove 12.

【0020】この入力・表示装置13は、液晶ディスプ
レイ等のようなビットマップ・ディスプレイから成る表
示部13aとこれに重ねて配置されたタブレット13b
とから成っている。
The input / display device 13 includes a display portion 13a composed of a bit map display such as a liquid crystal display and a tablet 13b arranged on the display portion 13a.
And consists of.

【0021】次に、上記外観を有する実施例のシステム
構成を図2に示す。同図において、CPU21はマイク
ロプロセッサ等から成る中央演算処理装置であり、プロ
グラムメモリ22に格納されているプログラムを実行し
て、システム内の各コンポーネントの制御を行う。
Next, FIG. 2 shows a system configuration of an embodiment having the above appearance. In the figure, a CPU 21 is a central processing unit such as a microprocessor, and executes a program stored in a program memory 22 to control each component in the system.

【0022】座標入力部13aは、例えば感圧式、電磁
誘導方式等のタブレットから成り、ペンの入力を検出す
るとこのペンの入力座標位置(手書き入力の座標デー
タ)を不図示のインタフェースを介してCPU21に出
力する。CPU21は、この座標データからペン入力に
よる手書きイメージデータを生成しイメージメモリI2
6に書き込む。
The coordinate input unit 13a is composed of, for example, a pressure sensitive tablet, an electromagnetic induction type tablet, or the like. When the input of the pen is detected, the input coordinate position of the pen (coordinate data of handwriting input) is sent to the CPU 21 through an interface (not shown). Output to. The CPU 21 generates handwritten image data by pen input from this coordinate data and generates the image memory I2.
Write to 6.

【0023】コマンド認識部23は、CPU21からの
指示を受けて手書き入力データを文字認識する。そし
て、この文字認識により得られた文字列を予約コマンド
メモリ24に格納されている編集コマンドの文字列と照
合して編集コマンドの手書き入力を認識する。そして、
この認識結果をCPU21へ返答する。
The command recognition unit 23 receives the instruction from the CPU 21 and recognizes the handwritten input data as characters. Then, the character string obtained by this character recognition is collated with the character string of the edit command stored in the reserved command memory 24 to recognize the handwriting input of the edit command. And
This recognition result is returned to the CPU 21.

【0024】CPU21は、この認識結果を受けて、編
集コマンドが入力されていたならば、この編集コマンド
の手書き入力座標データから、この編集コマンドのイメ
ージメモリII27内での実行対象領域(編集対象領域)
を設定する。
Upon receipt of the recognition result, if the edit command has been input, the CPU 21 uses the handwriting input coordinate data of the edit command to execute the edit command in the image memory II 27 (edit target area). )
To set.

【0025】予約コマンドメモリ24は、例えば図3に
示すような形式で本装置で使用可能な全ての編集コマン
ドをテキストデータ(文字コード列)として格納してい
る。イメージメモリI26は、入力・表示装置13の画
面上にペン入力された最新の手書き入力イメージデータ
をビットマップ形式で格納するメモリである。
The reservation command memory 24 stores, as text data (character code string), all editing commands usable in this apparatus in a format as shown in FIG. 3, for example. The image memory I26 is a memory for storing the latest handwritten input image data pen-input on the screen of the input / display device 13 in a bitmap format.

【0026】また、イメージメモリII27は、入力・表
示装置13(表示部13a)に現在表示されている画面
のイメージデータをビットマップ形式で格納するメモリ
である。
The image memory II 27 is a memory for storing the image data of the screen currently displayed on the input / display device 13 (display unit 13a) in the bitmap format.

【0027】表示メモリ28は、表示部13aに表示さ
れる画面のイメージデータをビットマップ形式で格納す
るフレームメモリである。表示制御部29は、表示メモ
リ28からイメージデータを読み出してこれをシリアル
のビデオ信号に変換して表示部13aに出力すると共に
表示部13aに水平・垂直同期信号を供給し、これによ
り表示部13bに表示メモリ28に格納されているイメ
ージデータの画像を表示させる。
The display memory 28 is a frame memory for storing the image data of the screen displayed on the display unit 13a in the bitmap format. The display control unit 29 reads the image data from the display memory 28, converts the image data into a serial video signal, outputs the serial video signal to the display unit 13a, and supplies a horizontal / vertical synchronization signal to the display unit 13a. The image of the image data stored in the display memory 28 is displayed on.

【0028】イメージ処理部31は、CPU21からの
指示を受けて、コマンド認識部23によって認識された
編集コマンドを、イメージメモリII27内の編集対象領
域のイメージデータに対して実行する。この編集処理に
おいて拡大・縮小等の処理は演算部33に実行させる。
そして、この編集処理により得られる新たなイメージデ
ータをイメージ展開メモリ32に順次書き込む。そし
て、編集処理が終了すると、イメージ展開メモリ32に
格納されている編集コマンドの実行結果(編集されたイ
メージデータ)をイメージメモリIIの当該領域に転送す
る。
Upon receiving the instruction from the CPU 21, the image processing section 31 executes the edit command recognized by the command recognition section 23 on the image data of the edit target area in the image memory II 27. In this editing processing, the arithmetic unit 33 is caused to execute processing such as enlargement / reduction.
Then, new image data obtained by this editing process is sequentially written in the image development memory 32. Then, when the editing process is completed, the execution result of the editing command (edited image data) stored in the image development memory 32 is transferred to the relevant area of the image memory II.

【0029】イメージ展開メモリ32は、上述のように
イメージ処理部31によって拡大・縮小等の編集処理が
施されたイメージメモリII27内の編集対象領域のイメ
ージデータを一時的に格納するビットマップ形式のメモ
リである。
The image development memory 32 is of a bitmap format for temporarily storing the image data of the edit target area in the image memory II 27 which has undergone the edit processing such as enlargement / reduction by the image processing section 31 as described above. It is a memory.

【0030】演算部33は、イメージ処理部31からの
制御を受けて、イメージメモリII内の編集対象領域のイ
メージデータに対して拡大・縮小等の編集処理を施す。
ページファイル34は、ペン入力によって作成される1
ページ(表示部13の一画面に相当)の文書等をテキス
トデータとイメージデータとが混在した形式で格納す
る。CPU21は入力・表示装置13上で1ページの文
書が作成される毎にこれをページファイル34に書き込
む。
Under the control of the image processing unit 31, the arithmetic unit 33 performs edit processing such as enlargement / reduction on the image data of the edit target area in the image memory II.
The page file 34 is created by pen input 1
A document such as a page (corresponding to one screen of the display unit 13) is stored in a format in which text data and image data are mixed. The CPU 21 writes this in the page file 34 each time a one-page document is created on the input / display device 13.

【0031】作業メモリ36は、CPU21が各種処理
において作業領域として使用するメモリであり、例えば
座標入力部13bから受け取る手書き入力座標データを
一時的に格納するため等に使用される。
The work memory 36 is a memory used by the CPU 21 as a work area in various processes, and is used for temporarily storing, for example, handwritten input coordinate data received from the coordinate input unit 13b.

【0032】次に、上記構成の実施例における編集コマ
ンドの手書き入力の方法を図4及び図5を参照しながら
説明する。図4は、既に入力済の手書き入力データの一
部を削除する際の「削除」コマンドの入力方法を説明す
る模式図である。尚、同図において矩形枠は、入力・表
示装置13の表示画面を示している。これは、後述する
図5及び図7についても同様である。また、図3におい
て丸印は既入力の文字、数字、または記号等のテキスト
情報のイメージデータを示している。
Next, a method of handwriting inputting an edit command in the embodiment having the above-mentioned structure will be described with reference to FIGS. 4 and 5. FIG. 4 is a schematic diagram illustrating a method of inputting a “delete” command when deleting part of handwritten input data that has already been input. In the figure, a rectangular frame shows the display screen of the input / display device 13. This also applies to FIGS. 5 and 7 described later. In addition, in FIG. 3, circles indicate image data of text information such as already input characters, numbers, or symbols.

【0033】図4(a) に示すように、3行目の途中まで
テキストデータをペン11により手書き入力したとき、
1行目から3行目の各行の4桁目から6桁目までを削除
する必要が生じたとする。
As shown in FIG. 4 (a), when text data is input by handwriting with the pen 11 up to the middle of the third line,
It is assumed that it is necessary to delete the fourth digit to the sixth digit of each line from the first line to the third line.

【0034】この場合、同図(b) にその一例を示すよう
に「削除」という二文字から成るコマンドを削除しよう
とする領域に上書きする。このとき、この二文字に外接
する矩形が削除領域全体を覆うようにする。
In this case, a command consisting of two characters "delete" is overwritten in the area to be deleted, as shown in FIG. At this time, the rectangle circumscribing these two characters covers the entire deletion area.

【0035】装置側では、記入された「削除」というコ
マンドを予約コマンドであると認識すると、「削除」の
二文字に外接する矩形領域101を編集対象領域として
自動設定し、この外枠を同図(c) に示すように破線で表
示する。
When the device recognizes the entered command "delete" as a reserved command, it automatically sets the rectangular area 101 circumscribing the two characters "delete" as the area to be edited, and the outer frame is the same. It is indicated by a broken line as shown in Fig. (C).

【0036】ユーザは、この破線で枠取り表示された矩
形領域101が所望する削除領域に一致していたなら
ば、この領域101内の任意の位置をペンでタッチす
る。このことにより、「削除」コマンドが矩形領域10
1内のテキストデータに対して実行され同図(d) に示す
ように上記矩形領域101内のテキストデータが削除さ
れる。
If the rectangular area 101 framed by the broken line matches the desired deletion area, the user touches an arbitrary position in the area 101 with a pen. As a result, the "delete" command is displayed in the rectangular area 10
The text data in 1 is deleted and the text data in the rectangular area 101 is deleted as shown in FIG.

【0037】ところで、同図(c) に示すようにして枠取
り表示された矩形領域101が所望していた削除領域と
合致しない場合には、ユーザ自身で所望する削除領域を
囲み図形(必ずしも矩形である必要はない)により手書
き入力する。このことにより、この手書き入力により指
定された領域が削除される。
By the way, when the rectangular area 101 framed and displayed as shown in FIG. 3C does not match the desired deletion area, the user himself / herself encloses the desired deletion area (not necessarily a rectangular shape). It does not need to be). As a result, the area designated by this handwriting input is deleted.

【0038】図5には手書き入力イメージデータを太字
に変換する「太字」コマンドの入力例が示されている。
この図の例では、同図(a) に示す3つの手書き入力イメ
ージデータ102を、同図(d) に示すように太字に変換
している。この場合のコマンドの入力方法も上述した
「削除」コマンドの入力と同様である(同図(b) 参
照)。
FIG. 5 shows an input example of the "bold character" command for converting the handwritten input image data into a bold character.
In the example of this figure, the three handwritten input image data 102 shown in FIG. 9A are converted into bold letters as shown in FIG. The command input method in this case is also the same as the input of the "delete" command described above (see FIG. 7B).

【0039】尚、これらのコマンド以外の「移動」、
「コピー」、「色変更」、「拡大」、または「縮小」等
の各種コマンドについても同様な手書き入力を実現でき
る。また、編集対象領域を枠取り表示で示す代わりに、
編集対象のテキストデータそのものを他のテキストデー
タとは別の色で表示させたりあるいは反転表示させるよ
うにしてもよい。
"Move" other than these commands,
Similar handwriting input can be realized for various commands such as "copy", "color change", "enlarge", or "reduce". Also, instead of showing the editing target area with a framed display,
The text data to be edited itself may be displayed in a different color from the other text data, or may be displayed in reverse video.

【0040】次に、このような編集コマンドの手書き入
力を実現する動作を図6のフローチャートを参照しなが
ら説明する。ユーザが入力・表示装置13上でペン11
により手書き操作(手書き入力)を行うと座標入力部1
3bが手書き入力座標位置(ペン操作された位置の座標
入力検出部13b上に設定された正規化座標系での座標
位置。本実施例では、表示部13aと座標入力部13b
に設定される正規化座標系は一致する)を検出し、この
座標データをCPU21に対し割り込みにより通知する
(S11)。
Next, the operation for realizing the handwriting input of such an edit command will be described with reference to the flowchart of FIG. The user inputs the pen 11 on the input / display device 13.
When the handwriting operation (handwriting input) is performed by
3b is a handwritten input coordinate position (a coordinate position in the normalized coordinate system set on the coordinate input detection unit 13b at the position where the pen is operated. In the present embodiment, the display unit 13a and the coordinate input unit 13b.
(The normalized coordinate system set to 1) is detected, and the coordinate data is notified to the CPU 21 by interruption (S11).

【0041】CPU21は、この入力される手書き入力
座標データが時系列順に描く軌跡に等しいイメージデー
タを作成し、これをイメージメモリI26に書き込む
(S12)。
The CPU 21 creates image data in which the input handwritten input coordinate data is the same as the locus drawn in chronological order and writes it in the image memory I26 (S12).

【0042】そして、ユーザの手書き入力が終了し、座
標入力部13bからの割り込みが所定時間以上途絶える
と、CPU21は手書き入力が終了したものと判断し、
イメージメモリI26に書き込んだ今回新たに手書き入
力されたイメージデータとイメージメモリII27に格納
されている既に入力・表示されている手書き入力イメー
ジデータとをOR合成して表示メモリ28に書き込む。
表示制御部29は、表示メモリ28からのこOR合成さ
れたイメージデータを読み出して表示部13aにこのイ
メージデータに対応する画像を表示させる(S13)。
When the handwriting input by the user is completed and the interruption from the coordinate input unit 13b is interrupted for a predetermined time or longer, the CPU 21 determines that the handwriting input is completed,
The image data newly written in the image memory I26 by handwriting this time and the already input / displayed handwritten input image data stored in the image memory II27 are OR-synthesized and written in the display memory 28.
The display control unit 29 reads the OR-combined image data from the display memory 28 and causes the display unit 13a to display an image corresponding to this image data (S13).

【0043】以上の動作により、ユーザが入力・表示装
置13にペン11で手書き入力を行うと、ペン入力され
た文字や図形等が入力・表示装置13に即時に表示され
る(図4(b) 、図5(b) 参照)。
By the above operation, when the user performs handwriting input on the input / display device 13 with the pen 11, the characters and figures input by the pen are immediately displayed on the input / display device 13 (FIG. 4 (b). ), See FIG. 5 (b)).

【0044】次に、CPU21は、イメージメモリII2
7内の上記ペン入力された手書きデータの入力位置に対
応する領域に既にイメージデータが格納されているか否
か調べる(S14)。
Next, the CPU 21 controls the image memory II2.
It is checked whether the image data is already stored in the area corresponding to the input position of the handwritten data input by the pen in 7 (S14).

【0045】そして、格納されていれば(S14、YE
S)、イメージメモリI26に格納されている手書き入
力のイメージデータをコマンド認識部23に転送し、こ
のイメージデータが編集コマンドであるか否か判断する
ように指示する。コマンド認識部23は、この手書き入
力のイメージデータを文字認識し、これにより入力され
たのが文字情報であったならば、これの文字コード列を
予約コマンドメモリ24に格納されている編集コマンド
の文字コード列と照合する。そして、この手書き入力の
イメージデータがいずれかの編集コマンドと一致する
か、すなわち手書き入力されたイメージデータが編集コ
マンドであるか否か調べ、この認識結果をCPU21へ
通知する(S15)。
If it is stored (S14, YE
S), The handwritten input image data stored in the image memory I26 is transferred to the command recognition unit 23, and it is instructed to determine whether or not this image data is an edit command. The command recognition unit 23 recognizes the character data of the handwritten input image data, and if the input character data is character information, the character code string of the character information is stored in the reserved command memory 24. Match with the character code string. Then, it is checked whether the image data input by handwriting matches any edit command, that is, whether the image data input by handwriting is an edit command, and the CPU 21 is notified of the recognition result (S15).

【0046】以上の動作により、既にペン入力された手
書きデータに対して重ね書きされた編集コマンドのみが
有効とみなされる。CPU21はこの通知により編集コ
マンドがペン入力されたと知ると(S15、YES)、
この編集コマンドの入力・表示装置13の画面上での記
入領域を上記手書き入力座標データまたはイメージメモ
リI26内の手書き入力のイメージデータを基に調べ
(S16)、この編集コマンドに外接する矩形領域(編
集対象領域)を決定する(S17)。
By the above operation, only the edit command overwritten on the handwritten data already input by the pen is regarded as valid. When the CPU 21 learns from this notification that the edit command has been input by the pen (S15, YES),
The entry area of this edit command on the screen of the input / display device 13 is checked based on the above handwritten input coordinate data or the image data of the handwritten input in the image memory I26 (S16), and a rectangular area circumscribing this edit command ( The edit target area) is determined (S17).

【0047】次に、CPU21はこの矩形領域の枠が破
線で示されたイメージデータを表示メモリ28に書き込
む。これにより、表示制御部29は、この枠取りを表示
部13aに表示する(S18)。
Next, the CPU 21 writes in the display memory 28 the image data in which the frame of this rectangular area is shown by the broken line. As a result, the display control unit 29 displays this framing on the display unit 13a (S18).

【0048】以上の動作により、例えば図4(c) または
図5(c) に示すように入力・表示装置13の画面に手書
き入力された編集コマンドの編集対象領域を示す矩形枠
が破線で表示される。
By the above operation, for example, as shown in FIG. 4 (c) or FIG. 5 (c), the rectangular frame showing the edit target area of the edit command input by handwriting on the screen of the input / display device 13 is displayed by a broken line. To be done.

【0049】次に、CPU21は座標入力部13bから
上記編集対象領域を容認するペン操作(OK操作)、す
なわちこの編集対象領域内の任意の位置をペン11によ
りタッチした操作に対応する手書き入力座標データが送
られてくるのを所定時間まで待つ(S19)。
Next, the CPU 21 inputs a handwriting input coordinate corresponding to a pen operation (OK operation) for allowing the edit target area from the coordinate input unit 13b, that is, an operation of touching an arbitrary position in the edit target area with the pen 11. It waits until a predetermined time until data is sent (S19).

【0050】そして、CPU21は上記所定時間以内に
座標入力部13bから上記編集対象領域内の座標位置を
示す手書き入力座標データを受け取ると、イメージ処理
部31に対し上記編集コマンドによって指示される命令
と上記のようにして設定した編集対象領域のイメージメ
モリII27内での領域を示す位置データをイメージ処理
部31に送る。イメージ処理部31は、これらの情報を
受け取ると、演算部33を用いながらイメージメモリII
27内の上記編集対象領域内のイメージデータに対して
上記編集コマンドを実行する。そして、この実行により
得られる結果をイメージ展開メモリ32に逐次書き込
む。イメージ処理部31は、この実行が終了すると、イ
メージ展開メモリ32に書き込まれている上記編集コマ
ンドの実行により得られたイメージデータをイメージメ
モリII27の当該領域に転送する(S22)。
When the CPU 21 receives the handwritten input coordinate data indicating the coordinate position in the edit target area from the coordinate input unit 13b within the predetermined time, the CPU 21 receives the instruction given by the edit command to the image processing unit 31. The position data indicating the area in the image memory II 27 of the area to be edited set as described above is sent to the image processing section 31. When the image processing unit 31 receives these pieces of information, the image processing unit 31 uses the operation unit 33 to perform image memory
The edit command is executed for the image data in the edit target area in 27. Then, the results obtained by this execution are sequentially written in the image development memory 32. When this execution is completed, the image processing unit 31 transfers the image data obtained by executing the edit command written in the image development memory 32 to the relevant area of the image memory II 27 (S22).

【0051】一方、CPU21は、上記ステップS19
で上記手書き入力座標位置データが上記所定時間以上経
過しても送られてこない、すなわちユーザが上記OK操
作を行わなかった場合には、ユーザに対して上記編集コ
マンドの編集対象領域を指定するように要求する領域指
定メッセージを表示制御部29を介して表示部13bの
所定位置に表示させる(S20) ユーザがこのメッセージに応答して入力・表示装置13
上で上記編集コマンドの編集対象領域を示す囲み図形を
ペン入力すると、座標入力部13bがこのペン入力され
た位置を示す手書き入力座標データをCPU21へ送る
(S21)。
On the other hand, the CPU 21 makes the above-mentioned step S19.
If the handwritten input coordinate position data is not sent even after the predetermined time has passed, that is, if the user does not perform the OK operation, the edit target area of the edit command is designated to the user. The area designation message requested by the user is displayed at a predetermined position on the display unit 13b via the display control unit 29 (S20).
When the surrounding figure indicating the edit target area of the edit command is input by the pen, the coordinate input unit 13b sends the handwritten input coordinate data indicating the pen-input position to the CPU 21 (S21).

【0052】CPU21は、この座標データからイメー
ジメモリII27内の編集対象領域を認識し、この編集対
象領域内のイメージデータに対して上述のようにして編
集コマンドを実行する(S22)。
The CPU 21 recognizes the edit target area in the image memory II 27 from this coordinate data, and executes the edit command on the image data in this edit target area as described above (S22).

【0053】次に、CPU21はイメージメモリI26
内のイメージデータとイメージメモリII27内のイメー
ジデータとを対応するビット位置同士でOR合成し、こ
の論理演算により得られた結果をイメージメモリII27
に格納する(S23)。
Next, the CPU 21 uses the image memory I26.
Of the image data in the image memory II27 and the image data in the image memory II27 are OR-combined at corresponding bit positions, and the result obtained by this logical operation is used as the image memory II27.
(S23).

【0054】続いて、CPU21はイメージメモリII2
7内の全てのイメージデータを表示メモリ28に書き込
む。表示制御部29はこのイメージデータを表示メモリ
28から読み出して、入力・表示装置13の画面に上記
編集コマンドの実行結果を表示させる(S24)。
Subsequently, the CPU 21 uses the image memory II2.
All the image data in 7 are written in the display memory 28. The display control unit 29 reads this image data from the display memory 28 and displays the execution result of the edit command on the screen of the input / display device 13 (S24).

【0055】以上の動作により、ユーザ自身がペン入力
した編集コマンドの記入領域によってこの編集コマンド
が実行される領域が自動的に設定される(図4(c) 、図
5(c) 参照)。すなわち、記入された編集コマンドに外
接する矩形領域がこの編集コマンドの実行対象領域とし
て設定される。したがって、ユーザは編集コマンドを手
書き入力する際、これを編集対象の領域の大きさに合わ
せた大きさでこの編集対象領域に上書きするだけで良
い。すなわち、1回のペン操作のみで編集コマンドを実
行できる。また、編集コマンドの大きさまたは記入位置
を誤って編集対象領域が所望する領域と異なって自動設
定された場合には、直接ペン入力により編集対象領域を
指示すればよい。
By the above operation, the area in which the edit command is executed is automatically set by the entry area of the edit command entered by the user himself (see FIGS. 4 (c) and 5 (c)). That is, the rectangular area circumscribing the entered edit command is set as the execution target area of this edit command. Therefore, when the user inputs the edit command by handwriting, he / she only needs to overwrite the edit command in the edit target area with a size corresponding to the size of the edit target area. That is, the editing command can be executed by only one pen operation. If the size or entry position of the edit command is erroneously set to be different from the desired region and the edit target region is automatically set, the edit target region may be designated by direct pen input.

【0056】続いて、CPU21はイメージメモリI2
6をクリアして(S25)、再びステップS11から上
記処理を繰り返す。一方、CPU21は前記ステップS
14で未入力の領域に手書き入力がなされたと判別され
たとき、または前記ステップS15で既入力の領域に編
集コマンド以外のイメージが手書き入力されたと判別さ
れたときは、直ちに前記ステップS23〜S25の処理
を行う。
Subsequently, the CPU 21 causes the image memory I2
6 is cleared (S25), and the above processing is repeated from step S11. On the other hand, the CPU 21 executes the step S
When it is determined in step 14 that handwriting input has been performed in the uninput area, or when it is determined in step S15 that an image other than the edit command has been input by handwriting in the already input area, immediately in steps S23 to S25. Perform processing.

【0057】この動作により、入力・表示装置13の画
面上において未記入領域に記入された手書きイメージ、
または既に入力済みのイメージデータに上書きされた編
集コマンド以外の手書きイメージはそのままデータとし
て入力される。
By this operation, the handwritten image written in the blank area on the screen of the input / display device 13,
Alternatively, the handwritten image other than the edit command overwritten on the already input image data is directly input as data.

【0058】次に、本発明の第2実施例を説明する。ま
ず、図7を参照しながらこの実施例での編集コマンドの
入力方法を説明する。
Next, a second embodiment of the present invention will be described. First, a method of inputting an edit command in this embodiment will be described with reference to FIG.

【0059】同図(a) に示すように入力・表示装置13
の画面にイメージデータ201を手書き入力した後、こ
の線幅をもっと太くしたくなったとする。この場合、同
図(b) に示すように手書き入力イメージデータ201の
少なくとも一部に「太字」コマンドを重ね書きする。こ
のことにより、手書き入力イメージデータ201全体と
このコマンドを含む領域202が自動的に編集コマンド
の対象領域として切り出される。そして同図(c) に示す
ように、この領域202が網かけにより表示されると共
に、この領域202の近傍に「太字に変更OK!」とい
うユーザに対する確認メッセージ203が表示される。
As shown in FIG. 9A, the input / display device 13
It is assumed that after the image data 201 is input by handwriting on the screen, the line width needs to be made thicker. In this case, the "bold" command is overwritten on at least a part of the handwritten input image data 201 as shown in FIG. As a result, the entire handwritten input image data 201 and the area 202 including this command are automatically cut out as the target area of the edit command. Then, as shown in FIG. 7C, this area 202 is displayed in a shaded manner, and a confirmation message 203 to the user, "Change to bold type OK!", Is displayed near this area 202.

【0060】ユーザはこの領域202が「太字」コマン
ドの実行領域として適切であれば、確認メッセージ20
3上で“○”を描く操作をする。このことにより、手書
き入力イメージデータ201に対して「太字」コマンド
が実行され、同図(d) に示すように手書き入力イメージ
データ201の線幅がより太くなる。
If the area 202 is suitable as the execution area for the "bold" command, the user can confirm the confirmation message 20.
Perform the operation of drawing "○" on 3. As a result, the "bold" command is executed for the handwritten input image data 201, and the line width of the handwritten input image data 201 becomes thicker as shown in FIG.

【0061】尚、上記領域202が「太字」コマンドの
実行領域(編集対象領域)として不服であれば、上記第
1実施例と同様に所望する編集対象領域を手書き入力に
より指定する。また、この第2実施例においても上記編
集対象領域202を網かけ表示ではなく手書き入力デー
タとは異なる色で表示したり、あるいは反転表示するな
どしてもよい。また、編集コマンドも上記第1実施例と
同様に「太字」コマンドのみに限定されず、「移動」、
「コピー」、「削除」、「色変更」、「拡大」、「縮
小」等の他のコマンドも適用することができる。
If the area 202 is unfavorable as the execution area (editing area) of the "bold" command, the desired editing area is designated by handwriting as in the first embodiment. Also in the second embodiment, the edit target area 202 may be displayed in a color different from that of the handwritten input data, or may be displayed in reverse, instead of being shaded. Further, the editing command is not limited to the "bold" command as in the first embodiment, and the "move",
Other commands such as “copy”, “delete”, “color change”, “enlarge”, “reduce” can also be applied.

【0062】また、編集コマンドと同一の名称をデータ
として入力したい場合も生じるが、このような場合には
未入力領域にこの名称を手書き入力すればよい。このよ
うな入力によりこの名称はそのまま手書きイメージデー
タとして入力される。図7(e) にこの一例を示す。この
例では、「太字」がそのまま入力されている。
In some cases, it may be desired to input the same name as the edit command as data. In such a case, this name may be input by handwriting in the non-input area. By such input, this name is directly input as handwritten image data. An example of this is shown in FIG. In this example, "bold" is entered as is.

【0063】この第2実施例のハードウェア構成は上記
第1実施例と同様に図2に示す構成によって実現され
る。続いて、図8のフローチャートを参照しながら第2
実施例の動作を説明する。
The hardware structure of the second embodiment is realized by the structure shown in FIG. 2 similarly to the first embodiment. Then, referring to the flowchart of FIG.
The operation of the embodiment will be described.

【0064】ユーザが入力・表示装置13上でペン11
により手書き入力を行うと、前記図6のフローチャート
のステップS11〜S15と同様なステップS101〜
S105の処理が行われ、編集コマンドまたはイメージ
データのいずれが入力されたのか認識される。
The user uses the pen 11 on the input / display device 13.
When the handwriting input is performed by the steps S101 to S15 similar to the steps S11 to S15 in the flowchart of FIG.
The process of S105 is performed, and it is recognized whether the edit command or the image data is input.

【0065】そして、CPU21は編集コマンドである
と認識すると(S105、YES)、手書き入力された
編集コマンドの記入位置のイメージメモリII27内での
対応位置を基準として、この編集コマンドとこれが上書
きされた手書き入力イメージデータとを含むブロック
(イメージ・ブロック)を、イメージメモリII27から
切り出す(S106)。
When the CPU 21 recognizes that this is an edit command (S105, YES), this edit command and this is overwritten based on the corresponding position in the image memory II27 of the entry position of the edit command input by handwriting. A block (image block) including the handwritten input image data is cut out from the image memory II 27 (S106).

【0066】続いて、CPU21は表示制御部29を介
して入力・表示装置13の画面上でこのイメージ・ブロ
ックを網かけで表示させる(S107)。さらに続い
て、CPU21は表示制御部29を介して上記イメージ
・ブロックすなわち入力された編集コマンドの編集対象
領域(網かけ表示されている領域)の近傍にこの編集コ
マンドに対応した確認メッセージ(ユーザに対して編集
コマンドの実行を確認するメッセージ)を表示させる
(S108)。
Then, the CPU 21 causes the image block to be displayed in a shaded manner on the screen of the input / display device 13 via the display control unit 29 (S107). Further subsequently, the CPU 21 sends a confirmation message (to the user) corresponding to the edit command near the image block, that is, the edit target area (the area shaded) of the input edit command via the display control unit 29. A message for confirming the execution of the edit command is displayed (S108).

【0067】以上の動作により、ユーザが既入力のイメ
ージデータの少なくとも一部に編集コマンドを重ね書き
すると(図7(b) 参照)、このコマンド並びにこれが上
書きされたイメージデータを含むブロックが編集対象領
域として自動的に設定されて網かけ表示される。また、
この領域の近傍にこのコマンドの実行をユーザに確認す
るメッセージが表示される(同図(c) 参照)。
As a result of the above operation, when the user overwrites the edit command on at least a part of the already input image data (see FIG. 7B), the block containing this command and the image data overwritten by this command is to be edited. The area is automatically set and shaded. Also,
A message confirming the user's execution of this command is displayed near this area (see (c) in the figure).

【0068】そして、CPU21は座標入力部13bか
らの入力待ちとなる。その後、CPU21は座標入力部
13bから手書き入力座標位置データが送られてくる
と、このデータと上記確認メッセージの表示位置とから
この確認メッセージ上でOK操作(“○”をペン入力す
る操作)が行われたか否かを判断する(S109)。
Then, the CPU 21 waits for an input from the coordinate input section 13b. After that, when the handwriting input coordinate position data is sent from the coordinate input unit 13b, the CPU 21 performs an OK operation (an operation of pen-inputting "○") on this confirmation message from this data and the display position of the confirmation message. It is determined whether it has been performed (S109).

【0069】そして、CPU21はOK操作を認識する
と(S109、YES)、イメージ処理部31に対して
上記編集コマンドに対応する命令とイメージメモリII2
7内での上記編集対象領域の格納位置を送る。イメージ
処理部31はこれを受けてイメージメモリII27から上
記編集対象領域のイメージデータを読み出して、演算部
33を用いながらこのイメージデータに対して上記編集
コマンドによって指示れる処理を施し、この処理結果を
イメージ展開メモリ32に書き込む。そして、処理終了
後、イメージ展開メモリ32から上記編集コマンドの実
行結果を読み出し、これをイメージメモリII27内の当
該領域に転送する(S112)。
When the CPU 21 recognizes the OK operation (S109, YES), the image processing unit 31 receives an instruction corresponding to the edit command and the image memory II2.
The storage position of the area to be edited in 7 is sent. In response to this, the image processing unit 31 reads out the image data of the editing target area from the image memory II 27, performs the processing instructed by the editing command on the image data using the calculation unit 33, and outputs the processing result. Write to the image development memory 32. After the processing is completed, the execution result of the edit command is read from the image development memory 32 and transferred to the area in the image memory II 27 (S112).

【0070】一方、CPU21は上記ステップS109
でユーザがOK操作を行わなかったと判断すると(S0
19、NO)、前述した図6のフローチャートのステッ
プS20〜S21と同様のステップS110〜S111
の処理を行い、ユーザ自身がペン操作によって指定した
領域に対し上記ステップS112の処理を行う。
On the other hand, the CPU 21 executes the above step S109.
If it is determined that the user has not performed the OK operation (S0
19, NO), and steps S110 to S111 similar to steps S20 to S21 in the flowchart of FIG. 6 described above.
The process of step S112 is performed on the area specified by the user himself / herself with the pen operation.

【0071】以上の動作により、ユーザが編集コマンド
の確認メッセージ上で予め定められた所定のOK操作を
行うと、システムにより自動設定された領域(編集コマ
ンドが上書きされたイメージデータを含むブロック)に
対してこの編集コマンドが実行される。一方、ユーザが
上記自動設定領域に不服で上記OK操作を行わず編集対
象領域を直接手書き入力により指定すると、この領域に
対して編集コマンドが実行される。
By the above operation, when the user performs a predetermined OK operation on the confirmation message of the edit command, the area is automatically set by the system (a block including the image data overwritten with the edit command). This edit command is executed. On the other hand, when the user is unhappy with the automatic setting area and does not perform the OK operation and directly specifies the edit target area by handwriting input, the edit command is executed for this area.

【0072】CPU21は上記ステップS112の処理
を終了すると、前述した図6のフローチャートのステッ
プS23〜S25と同様のステップS113〜S115
の処理を行い、編集コマンドの実行結果を入力・表示装
置13の画面に表示させる(図7(d) 参照)。
When the CPU 21 completes the processing in step S112, steps S113 to S115 similar to steps S23 to S25 in the flowchart of FIG. 6 described above.
Processing is executed and the execution result of the edit command is displayed on the screen of the input / display device 13 (see FIG. 7 (d)).

【0073】一方、CPU21は上記ステップS104
において手書き入力が未入力の領域に対して行われたと
判断した時(S104、NO)、または上記ステップS
105で既入力のイメージデータに重ねて編集コマンド
以外のイメージデータが手書き入力されたと判断したと
きは(S105、NO)、直ちにステップS113〜S
115の処理を実行する。
On the other hand, the CPU 21 executes the above step S104.
When it is determined that the handwriting input is performed on the uninput area in step S104, NO, or the above step S
When it is determined in 105 that the image data other than the edit command has been handwritten input over the already input image data (S105, NO), steps S113 to S are immediately performed.
The processing of 115 is executed.

【0074】この動作により、未入力の領域に手書き入
力されたイメージデータは編集コマンドと同一であって
もそのまま入力される(図7(e) 参照)。また既入力の
イメージデータに編集コマンド以外のイメージデータが
重ね書きされても、このイメージデータはそのまま入力
される。
By this operation, the image data handwritten in the uninput area is input as it is even if it is the same as the edit command (see FIG. 7E). Further, even if the image data other than the edit command is overwritten on the already input image data, this image data is directly input.

【0075】このように、この第2実施例においては編
集を所望するイメージデータの少なくとも一部に編集コ
マンドを重ね書きすればよいので、大きなイメージデー
タであっても記入する編集コマンドの大きさは小さくて
よい。したがって、高速入力が可能になる。
As described above, in the second embodiment, since the edit command may be overwritten on at least a part of the image data desired to be edited, the size of the edit command to be written is large even for large image data. It can be small. Therefore, high speed input becomes possible.

【0076】尚、上記実施例においてはいずれも編集コ
マンドを編集対象のイメージデータに対して重ね書きす
るようにしているが、本発明はこのような入力方法に限
定されるものではなく、例えば図9(a) ,(b) に示すよ
うに編集対象のイメージデータの近傍にこれを包含する
ような形で編集コマンドを記入するようにしてもよい。
同図の例では、編集コマンドに外接する矩形領域(破線
で示された領域)が編集対象領域に設定されている。
In each of the above embodiments, the edit command is written over the image data to be edited, but the present invention is not limited to such an input method. As shown in 9 (a) and 9 (b), the edit command may be written in the vicinity of the image data to be edited so as to include it.
In the example of the figure, a rectangular area circumscribing the edit command (area indicated by a broken line) is set as the edit target area.

【0077】また、上記実施例では手書き入力により入
力されたイメージデータに対してのみ編集を行うように
しているが、本発明はこれに限定されるものではなく、
例えば手書き文字認識により文字コードに変換されたテ
キストデータや外部から入力されたテキストデータ等の
イメージデータであってもよい。
In the above embodiment, the editing is performed only on the image data input by handwriting input, but the present invention is not limited to this.
For example, image data such as text data converted into a character code by handwritten character recognition or text data input from the outside may be used.

【0078】また、編集対象領域の自動設定方法も上記
の方法に限定されるものではなく、編集コマンドの記入
位置を基準にして設定する方法であればいかなる方法で
あってもよい。
The method of automatically setting the edit target area is not limited to the above method, and any method may be used as long as it is set based on the entry position of the edit command.

【0079】[0079]

【発明の効果】本発明によれば、編集対象のイメージの
表示位置に合わせて編集コマンドを手書き入力するだけ
で、上記イメージに対し上記編集コマンドに対応する編
集処理が実行されるので、所望する編集を簡単かつ高速
に行うことができる。
According to the present invention, the edit process corresponding to the edit command is executed on the image by simply handwriting the edit command in accordance with the display position of the image to be edited. Editing can be done easily and quickly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の外観図である。FIG. 1 is an external view of an embodiment of the present invention.

【図2】上記実施例のシステム構成を示すブロック図で
ある。
FIG. 2 is a block diagram showing a system configuration of the above embodiment.

【図3】予約コマンドメモリの一構成例を示す図であ
る。
FIG. 3 is a diagram showing a configuration example of a reservation command memory.

【図4】第1実施例の編集コマンドの入力方法を説明す
る図である(その1)。
FIG. 4 is a diagram illustrating an editing command input method according to the first embodiment (part 1);

【図5】第1実施例の編集コマンドの入力方法を説明す
る図である(その2)。
FIG. 5 is a diagram for explaining a method of inputting an edit command according to the first embodiment (No. 2).

【図6】第1実施例の動作を説明するフローチャートで
ある。
FIG. 6 is a flowchart illustrating the operation of the first embodiment.

【図7】第2実施例の編集コマンドの入力方法を説明す
る図である。
FIG. 7 is a diagram illustrating an input method of an edit command according to the second embodiment.

【図8】第2実施例の動作を説明するフローチャートで
ある。
FIG. 8 is a flowchart illustrating the operation of the second embodiment.

【図9】編集コマンドの他の入力方法を示す図である。FIG. 9 is a diagram showing another method of inputting an edit command.

【符号の説明】[Explanation of symbols]

13 入力・表示装置 13a 表示部 13b 座標入力部 21 CPU 22 プログラムメモリ 23 コマンド認識部 24 予約コマンドメモリ 26 イメージメモリI 27 イメージメモリII 28 表示メモリ 29 表示制御部 31 イメージ処理部 32 イメージ展開メモリ 33 演算部 13 input / display device 13a display unit 13b coordinate input unit 21 CPU 22 program memory 23 command recognition unit 24 reserved command memory 26 image memory I 27 image memory II 28 display memory 29 display control unit 31 image processing unit 32 image expansion memory 33 operation Department

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 イメージデータの表示手段と、 該表示手段の表示画面上でのペンの操作位置の座標を検
出する座標入力手段と、 該座標入力手段によって検出されたペンの操作位置の座
標データを基に、イメージデータの編集コマンドの入力
を認識するコマンド認識手段と、 前記座標入力手段によって検出された、該コマンド認識
手段によって認識された編集コマンドの記入位置の座標
データを基に、その座標位置を含むイメージデータのブ
ロックを抽出し、そのブロックを該編集コマンドの対象
領域として設定する編集対象領域設定手段と、 該編集対象領域設定手段によって設定された領域内のイ
メージデータに対して、前記コマンド認識手段によって
認識された編集コマンドに対応する編集処理を行う編集
手段と、 を備えたことを特徴とする手書き入力装置。
1. Image data display means, coordinate input means for detecting coordinates of an operation position of a pen on a display screen of the display means, and coordinate data of an operation position of the pen detected by the coordinate input means. Command recognition means for recognizing the input of the edit command of the image data based on the An edit target area setting means for extracting a block of image data including a position and setting the block as a target area of the edit command, and the image data in the area set by the edit target area setting means, And an editing unit that performs an editing process corresponding to the editing command recognized by the command recognizing unit. That handwriting input device.
JP8974293A 1993-04-16 1993-04-16 Handwriting input device Pending JPH06301472A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8974293A JPH06301472A (en) 1993-04-16 1993-04-16 Handwriting input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8974293A JPH06301472A (en) 1993-04-16 1993-04-16 Handwriting input device

Publications (1)

Publication Number Publication Date
JPH06301472A true JPH06301472A (en) 1994-10-28

Family

ID=13979220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8974293A Pending JPH06301472A (en) 1993-04-16 1993-04-16 Handwriting input device

Country Status (1)

Country Link
JP (1) JPH06301472A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103389873A (en) * 2012-05-11 2013-11-13 株式会社东芝 Electronic device, and handwritten document display method
JP2013239203A (en) * 2013-08-05 2013-11-28 Toshiba Corp Electronic apparatus, method and program
JP2014071539A (en) * 2012-09-27 2014-04-21 Sharp Corp Image data editing device, and method for editing image data
JP2014191730A (en) * 2013-03-28 2014-10-06 Dainippon Printing Co Ltd Association system and program
KR101474297B1 (en) * 2012-07-09 2014-12-24 인텔렉추얼디스커버리 주식회사 Multi-media apparatus and Method for providing user interface thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103389873A (en) * 2012-05-11 2013-11-13 株式会社东芝 Electronic device, and handwritten document display method
KR101474297B1 (en) * 2012-07-09 2014-12-24 인텔렉추얼디스커버리 주식회사 Multi-media apparatus and Method for providing user interface thereof
JP2014071539A (en) * 2012-09-27 2014-04-21 Sharp Corp Image data editing device, and method for editing image data
JP2014191730A (en) * 2013-03-28 2014-10-06 Dainippon Printing Co Ltd Association system and program
JP2013239203A (en) * 2013-08-05 2013-11-28 Toshiba Corp Electronic apparatus, method and program

Similar Documents

Publication Publication Date Title
JP4637455B2 (en) User interface utilization method and product including computer usable media
US5677710A (en) Recognition keypad
US5559942A (en) Method and apparatus for providing a note for an application program
US7389475B2 (en) Method and apparatus for managing input focus and Z-order
US7305130B2 (en) Method and system for data entry of handwritten symbols
US7319454B2 (en) Two-button mouse input using a stylus
JPH06242885A (en) Document editing method
US20150146986A1 (en) Electronic apparatus, method and storage medium
JPH11327763A (en) Signal providing method of computer system
US5761340A (en) Data editing method and system for a pen type input device
JP3075882B2 (en) Document creation and editing device
JP3388451B2 (en) Handwriting input device
US20150338945A1 (en) Information processing device and information updating program
JPH06175775A (en) Information processor
JPH06301472A (en) Handwriting input device
JP2022179604A (en) Information processing apparatus, information processing method, and program
JP2989084B2 (en) Information processing device
JP3343987B2 (en) Image processing device
JP2003140791A (en) Information processor and method for controlling information processor
JPH07141092A (en) Handwritten data input device
JPH06309093A (en) Handwriting input device
JPH07141091A (en) Handwritten data input device
JP3388519B2 (en) Handwriting input device
JPH06324797A (en) Handwritten input device
JPH11306369A (en) Picture data editor